クラウドファンディングのキャンペーンを成功させる前に知っておくべきこと

米国ではKickStarterを筆頭に、かなりの普及を見せているクラウドファンディング、日本でも少しずつ盛り上がってきているようです。今回はクラウドファンディングのキャンペーンを成功させるためのティップスをインタビュー形式でまとめた記事をThe Next Webからご紹介。KickStarter等、米国サイトを念頭に置いていますが、日本でも十分参考になる内容。クラウドファンディングの活用を考えている方は是非。 — SEO Japan

多くの起業家と経験豊かなビジネスが次のプロジェクトへの資金供給をするために一様にKickstarterやIndigogoのようなクラウドファンディングに注目しており、これらの新生アイディアを支援するあなたのお金をめぐる競争はこれまで以上に高まっている。

しかしながら、多くの人が挑戦するからといって、彼らがみんな成功するわけではない。一般人に自分のアイディアに対して資金供給をしてもらおうとする際、あなたに必要なことは、何が効果的で何がそうではないかに関する熟練した洞察だ。

そこで、私たちはSpindowsの創設者/CEOおよびKickstarterHacksのクリエイターであるClay Hebertと、8月22日に開催される‘Kickstarterで成功する方法’という彼のTNW Academyのクラスに先立って話し合った。クラウドファンディングのエキスパートである彼は、KickstarterとIndiegogoにおいて26人の起業家が210万ドル以上の資金を集めるのを助けてきた。

このクラスでは、Clayは広範囲に及ぶクラウドファンディングの知識をきちんと共有し、あなたのクラウドファンディングプロジェクトの成功を確実にするための最高の戦略、秘訣、技を網羅するつもりだ。

TNW: KickstarterやIndiegogoのようなクラウドファンディングのプラットフォームは、優れたアイディアを実現しようとしているスタートアップや個人にとって本当に不可欠なツールなのでしょうか?それとも‘古いやり方’でそれをすることはまだ可能なのでしょうか?

CH: それはビジネスのタイプによります。クラウドファンディングには主に2つタイプがあり、それらは全く異なるタイプのスタートアップのためにデザインされています。

KicksterterやIndiegogoのようなプラットフォームは、“報酬ベース”のクラウドファンディングプラットフォームで、支援者はプロジェクトを金銭的に支援する見返りに報酬を手にします(通常は、アルバムや本など生産されるアイテム)。報酬ベースのプラットフォームは主に、通常50000ドル以下のプロジェクトを完成させるために必要なお金を調達することを求めているクリエイティブなプロジェクト向けのものです。

支援者が会社の株式を少しだけ手に入れる“株式ベース”のクラウドファンディングを提供するFundable.comのようなプラットフォームも存在します。株式ベースのクラウドファンディングプラットフォームは、株式と引き換えに、認定された投資家からの通常50000ドル以上の運営資金を求めているスタートアップ向けです。

例外もあり、50000ドルという数字はおおよそのガイドラインでしかないのですが、企業向けSaaS分析アプリケーションを作るために500万ドルの資金調達をするのに対して、ドキュメンタリーを完成させるために10,000ドルを調達することは全く異なるのです。

TNW: Kickstarter/Indiegogoのようなプラットフォームは、なぜこんなにも数多くの支援者を引き付けているのですか?その理由の一部は、‘ゼロから参加したい’という人々の心理なのでしょうか?

CH: アーリーアダプターの心理は間違いなく理由の一部です。人々が興味深いプロジェクトを発見して支援する時、彼らはそのプロジェクトを自分の友人やソーシャルネットワークに共有することが多いのです。そこには面白いものを最初に発見し共有するという要素があります。

慈善寄付のプラットフォームもさることながら、KS/IGは、他の場所では手に入れることができないアイテムを先行販売する独占オンラインストアとして一番うまくいっています。Pebbleウォッチが1,000万ドルを調達したのは、支援者が創設者のEric Migicovskyはいい人だと考えた(実際いい人です)からではありません。彼らが1,000万ドルを調達したのは、支援者がPebbleウォッチを欲しいと思ったからなのです。Pebbleは、最高に素晴らしい製品を作り、その製品のストーリーを鮮やかに伝え広めました。それがクラウドファンディング成功のカギなのです。

TNW: クラウドファンディングプロジェクトを設定する際、人々が犯す最大の過ちは何ですか?

CH: プロジェクト制作者が繰り返しているいくつか重要な間違いがあります。
最大の過ちは、マーケティングは放っておけば何とかなると考えることです。メディアは、莫大な数百万ドルのプロジェクトを取り上げることを好みますが、多くの人はそういったメディアの記事を読み、簡単にプロジェクトを作り出すことができ、そのプラットフォームが30,000ドルもしくは50,000ドルを調達するだろうと仮定します。

実際には、あなたは自分自身でキャンペーンページに大量のトラフィックをもたらす必要があります。KickstarterやIndiegogoは面白いプロジェクトを宣伝することに関していい仕事をするのですが、それでも、視聴数やお金の大部分(通常80~90%)は、他のチャンネルやプラットフォーム外のプロモーションの取り組みからやって来ます。

あらゆる優れたオンラインマーケティングと同様に、あなたは自分のプロジェクトに心底関心のある特定の層を見極める必要があります。もしもあなたの最初の回答が、熱烈な“全ての人!”であるなら、試作段階に戻ることです。全ての人に手を伸ばすことはできません。あなたには、特定のオーディエンスのためのユニークな製品が必要なのです。理想的には、Eメールリストやブログやソーシャルネットワークを介して事前に自分の仲間を築いていることです。

まだ仲間を築いていないのなら、誰が仲間なのか見極めることです。関心のある人々に話をする情熱を持っているのは誰なのか?もしそれがあなたでないのなら、誰がそれをするのかを把握し、興味深いオファーを作り出す必要があります。

これは全て事前に起こるべきことです。あなたはローンチ前にマーケティングプランを築く必要があります。ローンチしてからでは遅いのです。時間は押し迫っているのです。

私が目にしている2つ目に大きな過ちは、どのようにして人々が自分たちの報酬価格に値段を付けるかです。

あなたが直接もしくはZapposのようなサイトで何かを購入する時、顧客リスクはほぼゼロです。Zapposは双方の無料配送と素晴らしいカスタマーサービスに投資をします。リスクがないために、Zapposは製造者の希望小売価格(MSRP)もしくはそれに近い額を請求することができます。あなたはZapposではないのです。多くのクラウドファンディングプロジェクトは生産されず、多くが目標出荷日よりもずっと遅くに出荷されます。クラウドファンディングキャンペーンに貢献することには先天的な顧客リスクがあるのですが、何にせよ私たちはそれをするのです。

支援者に対するこのようなさらなるリスクを補うために、プロジェクト制作者はMSRPより低い価格付けをするべきです。10ドルの‘デジタルのハイタッチ’(MSRPよりはるかに高い)の代わりに、より多くの価値を提供するのです。例えば、Kickstarterプロジェクトの最低報酬では、AJ Leonが、たったの13ドルでエッセイ付きの本を全てのデジタル形式(PDF、ePub、mobi、オーディオブック)で提供しました。それはMSRPよりもはるかに安いのです。

TNW: キャンペーンを設定する際にあなたがいつも奨励する5つの秘訣は何ですか?

CH:

  1. ユニークで面白い製品を用意する。
  2. 事前に(数年とは言わないとしても数か月前に)仲間を築く。それができなかったのなら、関心のある特定のコミュニティを見極め、その人たちに話ができる情熱を持った人を見つける。
  3. 広まるストーリーを伝える。動画は非常に重要。“プロジェクトを支援しないとしても、誰かがこの動画を共有するだろうか?”と自分に尋ねる。
  4. マーケティングプランを立てる。
  5. MSRP以下で値段を付ける。できる限り価格と同じだけの価値を追加する。

TNW: クラウドファンディングは全ての人に適していますか?それを使用すべきでないことは何ですか?

CH: クラウドファンディングは、間違いなく全人向けではありません。Kickstarterには、プロジェクトが適合すべきカテゴリとガイドラインの具体的なリストがあります。もしあなたのプロジェクトがそれらのカテゴリに当てはまらなかったり、それらのガイドラインに適合しなければ、Kicksterterは適切な選択ではありません。Indiegogoはもっとフレキシブルで、他にももっとニッチなクラウドファンディングプラットフォームやセルフサービス方式のプラグインがありますが、全てのプロジェクトがクラウドファンディングにふさわしいわけではありません。

ユニークでない、面白くない、もしくは新しくない製品は、クラウドファンディングキャンペーンの成功に必要な興味を生み出さない可能性が高いです。もしあなたが仲間を築いていなかったり、どんなグループが関心を持つか具体的に知らなければ、あなたのプロジェクトが成功に必要なけん引力を獲得することはないでしょう。

クラウドファンディングは、それがドキュメンタリーを完成させることにしろ、レストランを救うことにしろ、始まりと終わりと定められた結果のある特定のプロジェクトに向いています。

TNW: 単に資金を調達する以外にクラウドファンディングの道を歩く理由はありますか?

CH: もちろん。クラウドファンディングには、ファンドレイジング以上にたくさんの恩恵があります。

PannaのDavid EllnerやPebbleのEric Migicovskyのように、市場の需要を実証するためにKickstarterのようなプラットフォームを使用し、その実証を使ってベンチャーキャピタルを存続して資金調達をした起業家がかなりたくさんいます。

時には、最初は拒否をしたVCが、起業家にとってより好ましい条件で、小切手にサインをしています。

成功するクラウドファンディングは、製品に関する認知や噂を築いてアーリーアダプターを特定する(そして市場に売り出す許可を獲得する)のにも使用されることがあります。

TNW: Canonicalは非常に注目を浴びるIndiegogoプロジェクト(30日間で3,200万ドル)を実施し、物足りない結果に終わっているように見えますが、何か私たちがそこから学べることはありますが?また、異なるアプローチを推奨してもらえますか?

CH: Canonicalは大きなファンドレイジングの成功を祝うべきだったので、とても残念です。彼らは正しいことをたくさんしたし、私は彼らを応援していますが、彼らは2つの決定的な間違いを犯したのです。

彼らはファンドレイジングのゴールをあまりにも高く設定しすぎました。大部分の企業は、クラウドファンディングを介して50万ドルもしくは100万ドルを調達することにワクワクします。Canonicalはたったの8時間で200万ドルを調達しましたが、それはほぼ前代未聞のことです。

残念なことに、彼らはゴールを3,200万ドルに設定しました。それはどんなクラウドファンディングプロジェクトにとっても桁外れに大きな目標です。しかし、彼らの2つ目の過ちは、フレキシブル・ファンディングではなく、固定ファンディングを選択したことだったのです。

常にオール・オア・ナッシングのファンディングモデルのKickstarterとは違って、Indiegogoは、固定ファンディングとフレキシブル・ファンディングの2つの選択肢を提供しています。

固定ファンディングモデルは、Kickstarterのようにオール・オア・ナッシングです。もしゴールを達成しなければ、何も得ることはないのです。

Indiegogoのもう一つの選択肢、フレキシブル・ファンディングは、このプロジェクトにとってパーフェクトな選択だったはずです。たとえCanonicalが目標に達しなかったとしても、Indiegogoからのわずかに大きな手数料を差し引いて調達したお金をキープすることになります(目標を達成したプロジェクトが4%に対して、目標に達しなかったプロジェクトは9%)。

Canonicalは本当に革新的な製品アイディアを持っていました。彼らは、自分たちのストーリーを上手に伝え、とても強力なUbuntuコミュニティを活用することに成功しました。1000万ドルは、どんなクラウドファンディングプラットフォームでも膨大な資金です。もし彼らがフレキシブル・ファンディングを選択していたなら、調達した資金の大部分をキープすることができ、Ubuntu Edgeを市場にもたらすことができたでしょう。固定ファンディングを選択したために(最終週に2000万ドルを調達しなければならない―可能だが、あり得そうもない)、このプロジェクトは資金提供を受けず、20,000人以上の支援者は返金されることになるでしょう。

小さなゴールを設定するか、もしくはフレキシブル・ファンディングを選択していれば、CanonicalとUbuntu Edgeは大きな成功を収めることができたのです。

ヘッドライン画像はThinkstock、Johnの画像はJohn.doより


この記事は、The Next Webに掲載された「Planning a Kickstarter campaign? Read this first」を翻訳した内容です。

こういうノウハウは日本で余り事例が紹介されていないだけに、参考になる点が多かったのではないでしょうか?読むだけで何かクラウドファンディングにチャレンジしたくなってしまうような記事でした。 — SEO Japan [G+]

リンク構築を語るなら知っておくべき53の鉄則

上級者向けSEOガイドの濃すぎる記事を連続投稿中ですが、サーチエンジンランドからそれに負けないくらい濃い記事を。Googleのペナルティ実施本格化でかつてないレベルでの丁寧なリンク構築が必要になってきた外部リンク獲得作業。そんなリンク獲得に関するノウハウを53まとめた記事を今回は紹介します。昨年、投稿したリンク構築に関する50+のアドバイスの続編的な内容ですが、単体でも十分成り立ちすぎる盛り込みすぎな記事です。 — SEO Japan

一年前、私はリンク構築にとって必要なポイントを50点以上紹介する(日本語)記事を投稿した。ここ一年の間に、リンク構築は、確実に難しくなった – 何度も名称の変更を迫られ、今まで以上に非難され、そして、大きなダメージを負った。

しかし、ウェブサイトをインターネットで宣伝する方法として、今でもリンク構築は有効である。そこで、今回の投稿では、リンク構築の責任者として、知っておくべきポイントをさらに50点ほど紹介する。

1. 悪態をつくことなく質の低いリンクを削除する方法

恥を晒したくないなら、リンクを得た経緯を考慮して、リンクを張ったサイトのオーナーに丁寧にリンクの削除を要請しよう。コメント欄に掲載されたリンクを削除したいなら、さらに低姿勢で要請を行う必要がある。リンクを入手する作業と同じように、削除する作業にも時間はかかる。そのため、相手を尊重して、リクエストを行うべきだ。

また、リンクの場所を明確に指示することも重要である – 当該のサイトのオーナーが多数のサイトにリンクを張っている場合、曖昧な指示だと、リンクを見つけるためにページを探し回らなければならなくなるからだ。

2. サイトにリダイレクトする301を介して、転送される質の低いリンクを確認する方法

関心を持つページに301リダイレクトしているURLを確認したいなら、被リンクレポートを行うべきである。次に、実際にURLを見つけたら、当該のドメインに対して被リンクレポートを実行する。注意事項に関しては、この記事を参考にしてもらいたい。

3. FTCの公表ガイドラインに従うには

ガイドラインに一通り目を通し、変更、または、追加された項目を確認するよう心掛けよう。

4. コンテンツ泥棒の裏をかく方法

スクレイパー(コンテンツ泥棒)のコンテンツが、本家のサイトよりも上位にランクインするケースは、頻繁に発生している。これは重大な問題である。大規模なサイトを運営し、コンテンツがしょっちゅうコピーされているなら、DMCA削除通知を送るだけで疲れてしまうだろう。

Copyscapeを使うと、ウェブ上のコピーされたコンテンツを検索することが出来る。また、Copyscapeが提供するCopysentryプログラムは、定期的にウェブを観察し、コンテンツを盗んでいる人がいるかどうかを、ウェブマスターに代わって確認してくれる。私はアラート(Google アラートTalkwalker アラート)も愛用している。どちらのツールも無料で提供されている。私はこのツールを使って、自分が作った記事のタイトルをモニタリングさせている。当然ながら、例えば、大量の製品に対するコンテンツを投稿しているなら、賢明な戦略とは言えない。

実際に誰かにコンテンツをコピー、または、盗まれてしまったら、行動を起こす必要がある。経験上、一度でも2、3のサイトにコンテンツを盗まれると、さらに、盗むサイトが現れる。そのため、長期戦を覚悟しておくべきだ。それでも、コンテンツを思いがけない方法で守っている人達がいるので、困ったら、フォーラムで助けを求めよう。公の場では公開されていない方法を知ることが出来るはずだ。

5. コンテンツを巧にキュレートする方法

大勢のウェブマスターが巧みにコンテンツをキュレート(収集)している。同じように賢くコンテンツをキュレートしたいなら、優秀なウェブマスターの取り組みを把握し、少しアレンジを加えよう(やはり、全く同じ記事を参照しているサイトのキュレート記事を読みたくはないはずだ)。キュレートしたリストを公開するのであれ、クライアントにeメールのニュースレターとして提供するのであれ、あるいは、業界の動向についていけるように従業員に向けて投稿するのであれ、受け手の負担を増やすだけでなく、何かしら興味を持ってもらえるように工夫する必要がある。

キュレートリストの最大の魅力は、今まで知らなかった、知名度の低いサイトの素晴らしい記事を見つけることが出来る点である。そのため、メジャーなプラットフォームでは目立たないものの、優秀なエキスパートが綴ったコンテンツを探す努力をしてもらいたい。

6. オーディエンスが求める記事を書く方法

昨年行ったプレゼンで、私はパロディのサイト/番組を使って、人気を計測する手法を取り上げた。誰も理解してくれない場合、通常、パロディーする意味はない。他の人達の主張を確認し、欠けているポイントを見つけ出し、記事にする。敢えてあまのじゃくになり、異なるアイデアを宣伝しよう。Q&Aサイト(Quora等)をチェックし、ユーザーの質問の内容を確認して、コンテンツの中で答えることが出来る。また、うまくいったことと、いかなかかったことをメモに残す習慣をつけておこう。

7. コンテンツを宣伝する方法

新しいコンテンツが投稿されているかどうか確認するために、同じサイトに頻繁にアクセスする人はいない(ウェブマスターが、とてつもない強運の持ち主なら話は別だが)。

そのため、コンテンツを作成したら、ターゲットのオーディエンスが多用するチャンネルを介して宣伝する必要がある。ソーシャルメディアでの宣伝であれ、ニュースレターであれ、口コミであれ、コンテンツに注目を集める方法を把握しなければならない。

8. リンク否認ツールの使い方

このツールを使わなければいけない状況に遭遇してもらいたくない。それでも、リンク構築の担当者は、被リンクのプロフィールでカウントしてもらいたくないリンクを適切に否認する方法を知っておく必要がある。

リンクの否認は最後の手段であり、その他のリンクを削除する方法が全て失敗に終わった段階で利用するべきだ。面倒な作業をスキップして、いきなりこのツールに頼らないでほしい。リンクの否認の一般的な間違いをバリー・シュワルツが指摘しているので、目を通しておいてもらいたい。

9. リンクのリストを手に入れる方法

簡単だと思う人が多いかもしれない。実は意外と難しい。大方、グーグルのウェブマスターツールを使って、この情報を得ることが出来ると考えているのだろう。リンクツールは、基本的にそれぞれのデータベースを利用しており、3つのツールを用いたら、3つの若干異なる結果が出る可能性が高い。また、「上位のリンク」のみが提供されるツールもあるので、注意してもらいたい。

10. サイト/ページがペナルティーを受けたかどうかを確認する方法

クライアント(そして、一部のSEO業者も)ペナルティーとランキングの落下の違いを誤解していることがある。例えば、5位から10位にランクが下がったとしても、必ずしもペナルティーを受けたとは限らない。検索エンジンがアルゴリズムのアップデートを行った、あるいは、競合するサイトがサイトを大幅に改善した可能性もある。

数日間にわたってグーグルで自分のサイトを見つけることが出来ないなら、ペナルティーを科されたと見て良いだろう。ブランド名やURLを検索して、サイトが上位にランクインしていないケースも何かがおかしいことを示唆している。しかし、実際のペナルティーであれ、一時的な措置であれ、判断は難しい。一部のページを除いて、引き続き上位にランク付けされているなら、当該のページがペナルティーを受けている可能性はある。ブランド/URLの検索以外では、サイトがどこにも見当たらないなら、最新のアルゴリズムのアップデートの影響を受け、リンクの価値が減じられていることも考えられるが、この場合、厳密に言うと、ペナルティーは受けていないことになる。

いずれにせよ、トラフィックを調べると、手掛かりを得られる。それでも、ランキング/トラフィックが少し減っただけで、ペナルティーを受けたと判断するべきではない。 グーグルは、手動による対策をウェブマスターツールに加えているので、この機能も活用しよう。

11. アルゴリズムのアップデートのダメージを被ったかどうかを判断する方法

具体的な日付のトラフィックを確認して、アルゴリズムのアップデートの影響を受けたかどうかを判断することが出来るケースもある(ペンギンやパンダ等)。しかし、同時期に大きな変更が行われていると、判断は難しくなる。

昨年、多くのサイトが、パンダやペンギンの影響を受けたかどうかを判断する方法を取り上げていた。そこで、最新の情報を確認し、自分が何を達成しようとしているのかに焦点を絞るべきである – ランキングやトラフィックが下がったなら、アップデートが“修正”した何かによって、再び上がっているかどうかを確認しよう。

12. コンテンツがアンカーとマッチしていることを確認するには

とてもシンプルな作業だが、見過ごされていることが多い。ターゲットのサイトに向かうアンカーを用意しているなら、アンカーがターゲットのコンテンツの中に存在することを確認するべきである。当然ながら、全てのアンカーがターゲット内に含まれているわけではないが、幾つかこのタイプのアンカーを利用しているなら、コンテンツとアンカーをマッチさせると、通常、ページのパフォーマンスは上がる。

13. ページランク以外に他にどのような測定基準があるのか?どこにあるのか?

グーグルのツールバーのページランク等、旧型の測定基準よりも、自分のサイトにとって意味のある測定基準を持つツールを選ぼう。

14. 今でも役に立つオペレータは?もう役に立たないオペレータは?

とても便利な+は、少し前にオペレータのリストから削除されてしまったが、他にも、時間の節約に大いに貢献するオペレータは存在する。

15. 読み込み時間 & サイトのスピードが重要な理由

読み込みに長時間を要するサイトだと、グーグルがクロールして、コンテンツをアップデートすることが出来ない可能性がある。数回同じ状況が発生すると、ランキングが落下する、または、インデックスから除外されてしまうこともある。サイトのスピードは、3年ほど前からランキングの要素の一つとして、確認されている。また、モバイルサイトのスピードに対するペナルティーも存在するため、注意が必要である。

サイトがなかなか読み込まれない場合、ビジターはサイトを去る – そのため、サイトの読み込みが遅々として進まないなら、確実に修正しておきたいところだ。

16. モバイルデバイスでリンクが有効に動くことを確認する方法

自分のサイト、そして、リンクを張っているサイトにも同じことが言える(内部リンクが問題なく動くことを確認しよう)。サイトにビジターがアクセスし、リンクをクリックしたところ、どこにも導かれないような状況は避けたい。モバイルの人気は、右肩上がりであるため、モバイルデバイスでサイトとリンクが動かない場合、多くのトラフィック/コンバージョンを失ってしまうだろう。

bad mobile

17. ゲスト投稿の機会を賢く選ぶ方法

スパム丸出しのゲスト投稿しか見当たらないサイトは回避するべきだ。適切で、質の高いゲスト投稿のみを受け入れている優れたサイトなら、記事を投稿する価値があるかもしれない。質を問わずに、誰彼かまわず記事を受けて入れているように見えるなら、見送るべきである。また、自分がゲスト投稿を受ける側にまわった際は、逆に厳正に審査しよう。

18. 世界全体で季節的なキャンペーンを実施する方法

ニュージーランドと言う、素敵な国をご存知だろうか?アメリカが夏真っ盛りな時期、この国は真冬を迎えている。

カレナ・ジョーダン氏が、フェイスブックの投稿で、マーケッターの過ちを指摘した際、季節のキャンペーンについて考えさせられた: 「最近、大きなブランドが、“夏を楽しんでいますか?”や“大規模なサマーセールを行います”と謳う、迷惑なプロモーションを目にする機会が多い。ニュージーランドは、今、真冬なのに」。

19. クラス Cが重要である理由

クラス Cは、IPアドレスの三番目の一連の数字である。同じクラス Cから多くのリンクを得ていると、リンクネットワークのように映る。リンクプロフィールが、ネットワークをベースに構築されているように見えるのは、マイナスである。

20. サイトがハッキングされたかどうかを把握する方法

定期的にグーグルでsite: 検索を行い、結果を確認する。ハッキングでよく利用されている用語(Cilalis、Viagra等)をURL/ブランド名と合わせて、アラートを設定し、出来るだけ早く、ハッキングの被害を把握するべきである。ビングおよびグーグルのウェブマスターツールには、マルウェアのセクションが用意されているため、ここも定期的に確認しておきたい。

21. 依存しているツールの代わりを探す方法

定期的にダウンタイムが発生することもあれば、一時的に利用することが出来なくなることもある。無料だったものの、有料制に切り替わるツールもある。愛用しているツールが、嫌いな会社に買収されることもある。理由が何であれ、全てのツールに対して、予備のツールを用意しておくべきである。

22. サイトがネットワークに参加しているかどうかを判断する方法

サイトで用いられている用語(メンバー、ネットワーク、名誉会員等)、バッジ等分かりやすい目安もあれば、その他の多くのサイトと同じテンプレートが用いられている、あるいは、多くのサイトで同じグーグルアナリティクス/アドセンスのIDが使われている等、若干分かりにくい目安もある。すぐ簡単に見つけることが出来るケースもあれば、なかなか見破られないケースもある。問題の多いネットワークのメンバーかどうかの判断が難しいこともあるが、よく調べれば、特定することが出来るはずだ。

23. チェーンリダイレクトとは何か?なぜチェーンリダイレクトは良くないのか?

チェーンリダイレクトは、サイトが二つ目のサイトにユーザーをリダイレクトし、その後、3つ目のサイト、四つ目のサイトへとリダイレクトしていく状態である。サーバー側のリダイレクトのタイプ、そして、リダイレクトのコーディングの組み合わせによって、チェーンリダイレクトが発生すると、過度の不可がサーバーにかかってしまう。個人的には、別のサイトにリダイレクトされる理由が全く説明されていない点が、最も許せないと感じている。通常、理に叶っていないことが多いためだ。

24. サイトをクロールして、問題を見つけるツールを使う方法

Screaming Frogは絶対に欠かせない(残念ながら、まだこのツールの代わりは見つかっていない – 見つける作業を始めるべきかもしれない)。

25. ビングもウェブマスターツールを用意している

忘れられがちだが、ビングもウェブマスターツールを用意している。しかも、実はとても便利である – 事実、グーグルが提供していない機能もビングのウェブマスターツールは用意している。SEOアナライザーは特に気に入っている。明らかに見過ごしたポイントを確認することが可能であり、また、素人でも理解できるように分かりやすく説明されているためだ。

Bing SEO

26. ツールなしで大半の作業を実施する方法

自力で500本のリダイレクトをチェックすることも、サイトのスピードをツールなしで正確に計測することも、当然不可能である。しかし、サイトを見て、リンクを獲得するに値するかどうかを判断するスキル、ツールを使わずに、リンクを張る機会を自力で見つけることが出来るスキル、そして、スケジュールを設定することなく、ツイートを投稿するスキルは、必要である。必要なスキルは他にもある。ツールは、必要としている時に、使えなくなる可能性があることを忘れないでもらいたい。

27. フットプリントとは?フットプリントがサイトを危険にさらす理由

システムを操作しようと試みる際に現れるパターンに対して、アルゴリズムの変更が行われる。他の人達と同じ手法を用いている場合、その手法が濫用されると、次回のアップデートで取締りの対象になる可能性がある。

28. どのワードがeメールのスパムフィルターを稼働させるのか

リンク構築の接触を行う際に、この知識は大いに役立つ。良質なワードの一覧をウェブ上で見つけることが出来るかもしれないが、分野によっては、どうしても避けられないワードが含まれている可能性がある。よって、最終的には、試さなければならないだろう – eメールの返信率が芳しくないなら、問題を起こしているワードがあるかどうか調べていく必要がある。例えば、私はスパムフィルターをトリガーすることを恐れ、接触用のeメールでURLを全て盛り込む行為を止めている。この変更を行った途端、返信率は大幅に上がった。

29. エバーグリーンコンテンツとは?なぜこのコンテンツは重要なのか?

エバーグリーンコンテンツとは、投稿された時、そして、投稿された後も有益なコンテンツを指す。ブックマークされ、参考にされるコンテンツである。通常、1年間は有効である。このタイプのコンテンツは、信頼されるため、リンクをもたらし、また、オーディエンスが知る必要がある事柄をテーマに据え、引き続き参照されるため、ランキングとビジビリティを継続的に改善する効果もある(このコンセプトを詳しく知りたいなら、この記事に目を通そう)。

30. クラウドソーシングとは何か?なぜ一部の人達に嫌われているのか?

クラウドソーシングは、グループで支援するシステムである。クラウドソーシングに参加する人達は、コンテンツを宣伝し、プロモーター陣に新たな力をもたらすため、素晴らしい手段だが、リンクを構築する方法としては、手抜きな部類に当たるとして、一部のリンクビルダーには嫌われている(あるいは、この専門用語自体が嫌われているのかもしれない)。

31. イベントの後に調子が良いリンクのROIを追跡する方法

そのイベントがインターネット上のイベントかどうか(新しいコンテンツ等)、直に会うイベントかどうか(会社が企画した接待)、あるいは、名刺をパーティーで10名に渡した等のイベントかどうかによって、様々な方法が考えられる。リンクを獲得するために何をしているにせよ、ROIを計測する方法を知っておく必要がある。

32. ページランクがnofollowを介して流れる仕組み

ページランク5のサイトから10本のリンクを獲得し、そのうちの5本がnofollowなら、残りの5本のリンクは、ページランクの1/10を受ける。nofollowの5本のリンクは、何も享受せず、ページランクを分割するために存在するだけである。

33. グーグルオーサーシップとは何か & なぜ重要なのか?

マット・マギー氏は、昨年、オーサーシップに関する報告を行った:

グーグルは、オーサーシップのステータスを用意する隠れたメリットがあることを認めた。ユーザーが、オーサーのタグがつけられた検索結果を一定の時間読み、再び検索結果に戻ってくると、グーグルは、前回クリックされたリンクの下に同じオーサーの同様の記事への3本のリンクを掲載する。

この他にも、オーサーシップを利用することで得られるメリットは数多くある。

34. 業界で一般的な取り組みを把握する方法

今利用している手法は、この業界特有のものである点を理解する必要がある。必要はないと思っても、念のために競合者の取り組み、そして、競合者のリンク構築の仕組みを確認しておこう。ホームページよりも深いページへのリンクを得ている傾向があるかどうか、ソーシャルメディアを多用しているかどうか等、チェックしてもらいたい。

他に誰もしていない取り組みを把握する上で、あるいは、自分だけが実施していない取り組みを理解する上で、この作業は役に立つ(ただし、当該の業界が、一般常識に反する行為を実施する傾向があっても、あるいは、グーグルのガイドラインを違反している傾向があっても、便乗しても良いと言うわけではない点を警告しておく)。

35. <meta name=”robots” content=”noydir,noodp”>

人間が実際に編集を行うヤフー!ディレクトリとDmozは、長年にわたって運営されており、掲載している情報の一部が古くなっている可能性がある。このコマンドは、検索エンジンに古いメタデータを表示しないように命令する効果がある。

36. サイトが検索エンジンにインデックスされているかどうかを調べる方法 & インデックスされていなかった場合の影響

リンクを見つける際に、リンクを求めているサイトが、検索エンジンによってインデックスされているか否かを常に確認してもらいたい。[site:url.com]検索を利用し、何も見つからなかったら、インデックスされていないことになる。グーグルに含まれていないなら、そして、数週間が経過しているなら、良くない兆しである。当該のサイトは、ペナルティーを受け、インデックスから削除されている可能性がある。

もちろん、一時的な措置かもしれないが、グーグルにインデックスされていないサイトを見つけたら、リンクを張るべきではない。リンクのリスク分析ツールも、リンクの危険度を計測する目安として、インデックスを活用しており、早い段階で問題を特定する上で役に立つはずだ。

37. ランキングから全体像を把握することが出来ない理由

要素によって、ランキングは変わることがあるため、キーワードに対するサイトの本来のランキングを特定するのは、至難の業である。例えば、グーグルにログインすると、ログインしていない場合と異なる結果が表示される。また、ランキングは頻繁に変動する。しかし、一部のウェブマスターは、一時的にランクが落ちると、たとえ24時間後に元の位置に戻ったとしても、必要以上に動揺している。

もちろん、ランキングが大幅に落下したなら、大きな問題を抱えていることを示唆しているかもしれないので、調べてみる必要がある。ただし、ランキング以外にも注意するべきポイントはたくさんあることを忘れないでほしい。

38. …それでも、適切にランキングを確認する方法

グーグルからサインアウトして、キーワードを自分で検索する手がまず考えられる。このように、決して難しくはない。ウェブマスターツールでも確認することは可能だが、平均のランキングのデータしか用意されていない。基準として活用し、トレンドを参考にする程度に留めよう。

39. リンクの配置が重要な理由

一部の場所(フッターやサイドバー)は、以前から、リンクを得るためのスパムの巣窟となっており、前後関係が存在する場所のリンクほど重要視されない。このリーズナブルサーファーに関する記事(日本語)を読めば、リンクの場所が、クリックされる確率に影響を与える仕組みを理解することが出来るだろう。

40. リンク構築は違法行為に当たるかどうか

グーグルのガイドラインが、法律に則って策定されたと考えている人達がいるが、その根拠が私にはさっぱり分からない。それでも、リンク構築が違法行為だと本気で考えている人達は実在する。念の為に、ハッキリさせておく。グーグルのガイドラインを違反すると、グーグルからペナルティーを受ける、または、インデックスから削除される。

41. サイテーションとは何か

基本的に、ブランド名もしくはURLの言及を指す。理論上は、リンクがなくても、人気の高いコンテンツでブランドの名前が言及されることは重要だと考えられている。ブランド名を見た人が検索を行うため、検索の量が増えるためだ。また、リンクなしで言及が行われると、リンクを張る機会が生じる意味でも重要だと言えるだろう。

42. 共起とは何か

共起は次の2つ状態のうちの1つに該当する:

  1. コンテンツ内のブランドの言及、もしくは、自分のサイトに向かうリンクの近くの別のリンク
  2. コンテンツ内のブランドの言及、もしくは、自分のサイトへ向かうリンクの周りのキーワード

例えば、記事の中で、業界のオーソリティサイトと一緒に引用されている場合、良い共起と考えられる。動揺に、100のサイトでリンクが掲載され、[ブランディングエージェント]や[ロゴのクリエータ]等のワードに囲まれているなら、サイトは、この用語により強く関連付けられるようになる。

43. 拡大不可能なメソッドが今でも役に立つ理由

拡大することが出来ないメソッドであっても、何度かプラスに働くことがあったなら、利用してみた価値はあったと言えるのではないだろうか?アレンジを加えて、今後は拡大することが出来る方法を学んだケースも、あるいは、単純にROIに時間を費やす価値が現れているケースもある。

44. アウトリーチを拡大する方法

アウトリーチ(接触)ツールの中で、Buzzstreamは、取り上げられる回数がずば抜けて多い。連絡を取りたいサイトを既に把握しているなら、このツールは重宝するだろう。私は、個人に特化させることが出来るため、自分でリンクを要請する手法を好むが、Buzzstreamの素晴らしさは認めざるを得ない。

45. 必要に応じてインデックスからページを削除する方法

グーグルとビングは、それぞれのウェブマスターツールでこの作業を行う機能を提供しているが、noindexメタタグを加える、あるいは、サイトマップからページを削除して、ページが除外されるのを待つ手もある。

46. インデックスから削除されたサイトを作り直すことを薦めるタイミング

ペナルティーを受けたため、1年以上をかけて、リンクの整理、否認、そして、再審査リクエストを行ったものの、いまだに検索結果に反映してもらえないサイトがある。また、私の友人のサイトは、この全ての取り組みを実施し、再びインデックスしてもらい、復活を遂げたものの、別のアップデートの打撃を受けていた。再びインデックスから除外されたわけではないものの、サイトを一から作り直さなければならないほど、ランキングが大きく落下してしまったようだ。

47. 再審査リクエストを投稿した後

通常、待ち時間は長い – そして、散々待たされた挙句、リンクプロフィールにはまだ疑わしいリンクが残っていると指摘されることが多い。サイトを奇跡的に以前の状態に戻すことが出来ると期待しているなら、がっかりすることになるだろう。/p>

48. リンクキャンペーンを受け継いだ後に行う取り組み

まずは、出来るだけ集中的にサイトの被リンクを分析するべきである。全体的な状況を説明してくれることを願っているが、前任者が、以前の取り組みを把握していない、わざわざ説明するほど重要ではないと考えている、全く気にしていない、もしくは、意図的に何かを隠そうとすることが多い。どんな説明を受けるにせよ、自分でリサーチを行い、実際にどんな取り組みが行われていたのかを把握する必要がある。

49. EMDとは何か

Exact Match Domain(完全一致ドメイン)の略である。約1年前、グーグルはフィルターを導入し、上位に君臨していた多くのEMDを陥落させていた。EMDは、上位にサイトをランク付けさせる方法として、十分な実績を残していた。URLをキーワードで構成することで、サイトが何かに特化しているとアピールすることが出来たためだ。しかし、その他の過去のうまくいった手法と同じように、濫用が進み、グーグルが対策を講じる結果となった。ただし、今でも上位にランクインしているEMDは数多く存在する。

50. Wayback Machineの使い方

私はこのツールを毎日利用している。例えば、ドロップされたドメインかどうか等、サイトの過去を探る上で有効である。ここにURLを入力し、「Take Me Back」をクリックする。次に、日付をクリックして、当時のサイトの姿を確認する。当該の日付のサイトのコードまで調べることが可能であり、とても役に立つ。

51. サイトリンクとは何か

SERPに掲載されるその他のページに対する、字下げされたエントリのことだ。サイトリンクには、サイトのエントリが、より信頼感があるように見せるだけでなく、良質な内部のページにアクセスしてもらえる効果も期待できる。

52. グーグルの構造化データツールの使い方 & リッチスニペットとは何か

レビュー、レシピ、製品等の具体的なタイプのコンテンツに用いられる、リッチスニペットは、グーグルのSERPに表示されるテキストであり、グーグルがコンテンツに関する情報をさらに集め、より有益な方法で表示することが出来るようになる。グーグルの構造化データツールでは、構造化データマークアップの詳細(グーグルのオーサーシップが適切に実装されているかどうかを含む)を把握することが出来るため、このツールを活用し、ページをテストするべきである。

rich snippet

53. リスクの真実をクライアントに伝える方法

利用している戦略がリスクを伴っているかどうか分からないなら、調査を行い、包み隠さずにクライアントに伝えなければならない。クライアントが当該の戦略に中止する決断を下したなら、それで問題ない。しかし、SEO業者が何をしているのか、そして、グーグルに捕まった際に、どれぐらい大きなダメージをサイトに与えるかをクライアントが理解していないなら、SEOのエキスパートを名乗る資格はない。


この記事は、Search Engine Landに掲載された「50+ More Things Every Link Builder Should Know」を翻訳した内容です。

スミマセン、余りに大量すぎて見出ししか読んでいませんが間違ったことは書いてないと思います。後は好奇心旺盛なあなたが自身で是非の判断も含めて探究してください。。 — SEO Japan [G+]

Googleが考える「不自然なリンク」の定義

上級者向けSEOガイドをシリーズで紹介中ですが、たまには別のSEOネタを、ということで、Googleが考える不自然なリンクの定義についてサーチエンジンランドが一つ一つ考えてみた記事を。日本でもペナルティが普通に発動されるようになった最近、それでもリンク取得活動は重要なことは変わらないですし、時にそのリンクがグレーゾーンなのか自問自答したくなるケースもあるでしょう。そんな時の参考になるかもしれない記事です。 — SEO Japan

sel-link-schemeグーグルは、先月、ウェブマスターツール内のリンクプログラム/不自然なリンクに関する文書を密かに更新していた。

バリー・シュワルツが、記事の中で分かりやすく指摘していなければ、気づく人達はほとんどいなかったに違いない(私はページの更新を知らせるアプリを設定していたものの、数日間気づかなかった)。

この記事のおかげで、このニュースはリンク構築/SEOコミュニティに伝わり、“google updates link schemes.”と言う検索クエリで6000近い検索結果が表示されるほど、変化に関するレポートが次々に投稿されていった。このニュースが報じられてから3週間も経過していない点を考えると、ウェブは、抜群の反響効果を持っていると言えるだろう。

私がこれから、具体的なグーグルの変更点に対して、戦略的なレベルで許されるか、許されないかを判断し、解析を行っていく。広大なウェブにも、このタイプの情報はあまり見当たらない。

私はグーグルの広報としてこの取り組みを行っているわけではない。内部者のみが知る秘密の情報も持っているわけでもない。経験と見解を基にこの記事を綴っている。経験と言えば、3ヶ月後には、オンラインマーケティング/コンテンツの宣伝を始めて20年が経過することになるため、ある程度の知識を得ているはずである。

ページランクを操作するためのリンク

グーグルの主張

ページランクやグーグルの検索結果でのサイトのランキングを操作することを意図したリンクは、リンク プログラムの一部と見なされることがあり、ウェブマスター向けガイドライン(品質に関するガイドライン)への違反にあたります。これには、自分のサイトへのリンクを操作する行為も、自分のサイトからのリンクを操作する行為も含まれます。

厄介な理由

「意図した」、「見なされることがあり」と宣言するだけで、グーグルは、弁解の余地を正当な理由で得ていることになる。私達にとって重要なのは、どのように意図を解釈するかである。ページランクを操作する意図はなかったものの、最終的にページランクを操作する結果になったリンク構築キャンペーンに参加する可能性は十分にあり得る。意図的にキャンペーンを行ったかどうかを、アルゴリズムはどのように判断するのだろうか?

個人的な見解/戦略的な対応

被リンクプロフィールの履歴が、リンクプログラムに意図的に関与しているかどうかを決定する判断基準として採用される気がする。

大学の成績証明書に例えると分かりやすい。3年間ずっと「C」ばかりを取っていたのに、突然、4年生になって「A」を立て続けに獲得すると、少なくとも学術的な分野において、その人物の人となりを物語っている。同様に、サイトが、アーティクルファーム、大量のディレクトリ、そして、多くのプレスリリースサイトから4年間にわたって被リンクを獲得しているなら、この過去の取り組みにサイトの特徴が反映されていると言えるのではないだろうか。

しかし、人物(またはウェブサイト)を徹底的に精査しなければ、確実な結果を得ることは出来ない。だからこそ、グーグルは弁解の余地を残しているのだと思う。全く同じアンカーテキストをベースとしたプレスリリースの戦略が、過去の“リンクのストーリー”に応じて、全く異なる影響を与える可能性がある。 この点に関して私が持つ証拠は、同じ戦略を採用して、完全に異なる結果を得たクライアントから相談を受けていることのみである。被リンクプロフィールを調査していくと、兆候が若干見えてくる。少し正しい、あるいは、少し誤っているかが、この兆候に現れている。

戦略においては、当たり前だが、ページランクのみを考慮して、リンクを求める行為は避ける必要がある。追及しているリンクについて、私は「ランキングを改善する効果がなくても、このリンクを欲しいか」と自問自答するように心掛けている。つまり「自然のランキング以外に、このリンクを得るメリットがあるかどうか」を尋ねているのだ。リンク戦略全体として、このような基準を満たすリンクを求めてもらいたい。

リンクの購入または売却

グーグルの主張

  • ページランクを転送するリンクの売買。これには、リンク、またはリンクを含む投稿に対する金銭のやり取り、リンクに対する物品やサービスのやり取り、商品について書いてリンクすることと引き換えに「無料」で商品を送ることなどが含まれます。

厄介な理由

平凡なウェブマスターが、SEOの専門的な知識を持っている可能性は低く、そのため、「ページランク」とは何か、もしくは、ページンランクがどのように転送されるのかを把握していない確率は高い。

個人的な見解/戦略的な対応

繰り返すが、解釈によって対応は変わってくる。グーグルは、ページランクを転送する有料リンクについて、かなり明確に説明している。そのため、大勢のウェブマスターがページランクが何か理解していないことが、混乱を生じさせる原因となる。

事例: 航空関係のウェブサイトのためにリンクを探している際に、州の航空協会が航空関連のリソースを見事にまとめている点に気づいた。良質な飛行機関連のウェブサイトを持っているなら、無料で掲載してもらうことが出来る – しかし、50ドルを支払うと、特別な「特集サイト」に載せてもらうことも出来る。

このサイトとの交渉を続けた結果、さらに多くの情報を入手することが出来た。この協会は、nolollow/followが何なのか全く分かっていなかった。「アンカーテキスト」と言う用語も通じなかった。SEO業者ではなく、あくまでも航空協会であり、グーグルの検索結果のランキングを改善するためにリンクを張っているわけではなかったのだ。

当初、私は真意をつかみかねていたが、話を進めるにつれ、会話をSEOの方向に導くことが出来るようになり、技術的な面で、自分達の行為がグーグルの品質ガイドラインを違反していることに気づいていなかった点が明らかになった。

事実、私達の多くは、この業界のことばかり考え、星の数ほどのウェブサイトが存在し、その多くがグーグルのガイドラインのことなど知る由もない人達によって運営されている点を忘れがちである。このケースでは、当該のサイトを運営しているのは、パイロットであり、nofollowリンクを知らなくて当然である。

戦略においては、リンクを何らかの報酬を介して得ることで発生するリスクが、見返りを上回るかどうかを自問するべきである。グーグルが存在しなかったら、そして、リンクに対価を支払っているとしたら、リンクがトラフィックを運んでくると感じたと言う理由でなければ、何らかの見返りを与えてリンクを得る行為は、筋が通らない。この質問に対する答えを目安にするべきである。リンクを購入している最中にマット・カッツ氏に見つかったら、ランキングとは関係がなく、オーディエンスにとってリンクが適切であるため、買ったと説明することが出来るだろうか?

相互リンク

グーグルの主張

  • 過剰なリンク交換、または相互リンクのみを目的としてパートナー ページを作成すること。

厄介な理由

ここでもまた、グーグルは曖昧な説明に終始している。この場合、何が「過剰」に該当するのだろうか?また、グーグルは、あらゆる目的において何をもって「過剰」と判断するのだろうか?

個人的な見解/戦略的な対応

グーグルが「過剰」をどのように定義しているのか知りたい。リンクの交換が、ビジネスにおいて妥当だと判断される様々なシナリオが考えられる。例えば、ジョージア州アトランタのウェディングプランナー業を営んでいると仮定する。その場合、ケータリングサービス、フォトグラファー、DJ、リムジン会社、花屋、エンターテイメント会社、引っ越し業者、チェロの演奏者、ハープ奏者、- さらには、仕立て屋、はたまた、一輪車の乗り手とも提携を結んでいる可能性がある。

この場合、個別の会社の認知度を高めるため、お互い助け合う手段として、リンクを張る取り組みが、理に叶って“いない”と主張する方が無理がある。グーグルのことは忘れよう。あくまでもマーケティングを考慮しているのだ。これは、認知度、そして、クリックを増やす取り組みそのものである。

「過剰」等の曖昧なワードが、迷惑だと思うのはこのためだ。どの時点で提携を回避すればいいのだろうか?熱気球の会社なら大丈夫だろうか?ウェディングで熱気球を飛ばすシーンを見たことがある。海上でウェディングを行いたいカップルもいるので、ボートのレンタル会社と手を組んでも平気だろうか?博物館、あるいは、山頂の場合は許容されるのだろうか?

そもそも、アルゴリズムは、優れたマーケティングと過剰なマーケティングをどのように見分けるのだろうか。やはり過去のリンク構築の取り組みが参考にされるのだろうか?しかし、ウェディングプランナーが、以前はブラックハットなSEOサービスを採用し、数年間にわたって浅はかなリンク構築の手法に手を染め、グーグルに見つかったことがあるものの、現在は、正真正銘のホワイトハットなアプローチを信条とする私と手を組み、検索のランキングではなく、ブランドの認知度と拡大を目指している場合はどうなるのだろうか?グーグルはこの点にも気づいてくれるのだろうか?そうであることを私は願う。

戦略においては、相互リンクは、とても役に立つかもしれないが、検索ランキングを改善する目的で、関係のないサイトとの相互リンクを実施するのは、やめておいた方が無難だと私は思う。私達自身は、ウェディング専門のフォトグラファー、スキューバダイビングのインストラクター、そして、ダルシマーの演奏者が、実際にウェディングと関連しているシナリオを想像することが出来るものの、グーグルにもその関係を理解してもらえるなどと期待するべきではない。

アーティクルマーケティング & ゲスト投稿

グーグルの主張

  • アンカー テキスト リンクにキーワードを豊富に使用した、大規模なアーティクル マーケティング キャンペーンやゲスト投稿キャンペーン。

厄介な理由

「大規模」とは何を意味するのだろうか?

個人的な見解/戦略的な対応

聴覚障害を持つ高校3年生の生徒に大学の学資援助の選択肢を理解してもらうことを意図して作られた素晴らしい記事/eブックをクライアントが持っていると仮定する。その後、多くの高校に連絡を取り、75本のリンクを獲得したとする。これは“大規模”に該当するのだろうか?あるいは、リンクを獲得することを目的として、大量の記事のデータベースを投稿する行為のみが問題視されるのだろうか?

アンカーテキストとリンクの本数を基に判断されるのだろうか?キーワードを豊富に詰め込んだアンカーテキストを利用せずに、経歴欄にプレーンテキストのリンクを利用していれば、5000のサイトに記事を投稿しても許されるのだろうか?私はサーチエンジンランドに100本以上の記事を投稿しており、全てのページの経歴欄から自分のサイトにリンクを張っている。これは“大規模”だと考えられるのだろうか?

戦略としては、広範囲/全般的な記事投稿サイトを避けるよう私は提案する。個人的には、この手のサイトを利用する価値はないと思う。ただし、上のeブックの例のように、分野にこだわることで発生する機会を無視しないでもらいたい。

ゲスト投稿に関しては、戦略は、次の2つの疑問の答えに集約されているのではないだろうか 1) なぜゲスト投稿を行うのか?(検索結果のランキング?トラフィック?) 2) ゲスト投稿を行う側、そして、受け入れる側は共にどの程度信頼することが出来るのだろうか?

私は今まで一度もゲスト投稿を実施ことはなく、今後も実施するつもりはない。万が一、ゲスト投稿を行うとしても、ゲスト投稿の機会を積極的に宣伝しているブログは避ける。「このブログに記事を投稿しませんか?」と言う文言は、個人的に危険信号に等しい。私なら寄稿者全員のスキル、そして、コンテンツのトピックを調査する。史上稀にみる優れたゲスト投稿を作成したとしても、投稿するブログが、怪しげな製薬会社に関するブログなら、何もメリットを得ることは出来ないはずだ。

リンク構築の自動化

グーグルの主張

  • 自動化されたプログラムやサービスを使用して自分のサイトへのリンクを作成すること。

厄介な理由

タスクの一部を自動化する場合もペナルティーの対象になるのだろうか?グーグルはどのように判断するのだろうか?

個人的な見解/戦略的な対応

最後にグーグルは、「自動化されたプログラムやサービスを使用して自分のサイトへのリンクを作成すること」を挙げている。しかし、何をもって自動化と言うのだろうか?50本のeメールをそれぞれ内容を変えて作成し、送信箱で保存したとする。その後、サンダーバードの「後で送信」機能を利用する場合は、技術的に自動化したことにはならないのだろうか?自動化したことになる。しかし、グーグルが言及する自動化とは、少し違う気がする。

戦略においては、リンクを要請する上で、安全に自動化するプロセスもあれば、出来ないプロセスもあると思う。調査なら自動化することも可能だが、自分でリサーチを行って、補う必要はある。連絡先の追跡や継続調査は、容易に自動化することが出来る。一方、決定権を持つ適切な連絡相手を特定する取り組みは、自動化するべきではない。

常識で判断するべきだ。リンクを手に入れるために、「パーソナル」な文章に見せ掛けているメールは一目瞭然である。それでも、この行為を続ける人達が一向に後を絶たない。20年近くリンクを要請する取り組みに私は携わっているが、メールを送信する相手の名前を知らない状態でリンクを要請するメールを送ったことは一度もない。「ウェブマスターの方へ」あるいは「拝啓」で始まるメールは、自動的に削除するようにしている。自動化することが出来るからと言って、自動化するべきだとは限らないのだ。

当たり前?

今回の私の主張は、思考の糧にしてもらいたいものもあれば、当たり前のものもある。しかし、SEO業界以外の人達にとっては、当たり前ではないことばかりである。また、SEO業界の大きさは、世界全体から見れば、米粒ほどである。グーグルが毎月実施する変更、そして、その影響についてなど知る由もない人達が、サイトを運営しているのだ。

大勢のウェブマスターは一人でサイトを運営している。一方で、SEO業者やSEOコンサルタントの言いなりになり、するべきではなかったことを、していたことに気づき、ショックを受ける人達もいる。実際、毎日この手の相談を私は受けている。

ウェブマスターは混乱し、恐れている。とりわけ、ペナルティーを科されたものも、理由が分からない場合、あるいは、リンク構築戦略を学んだものの、それが安全なのか、あるいは、いずれサイトに大きなダメージをもたらすのかどうか分からない場合、不安は募る一方である。

私はグーグルのファンであり、ガイドラインで情報を公開するグーグルの取り組みを高く評価している。グーグルは、劣悪なリンクの例を紹介し、不自然なリンクリンクプログラムに関する文書を更新している。

しかし、このように情報を公開する取り組みを行っても、混乱は起きており、事実、私に届くeメールの数を見る限り、混乱は増え続けていると言わざるを得ない。細部をおろそかにすると痛い目に遭う。今回は、いろいろな解釈が出来る幾つかのワードが点在している。皆さんなら曖昧なワードをどのように定義するだろうか?

  • 意図する
  • 見なされることがある
  • 過剰
  • のみ
  • 大規模
  • 広範囲に配信
  • 自動化
  • 品質の低い

是非、意見を聞かせてもらいたい。例外があるため、グーグルが解釈の余地を残していると言う私の意見に同意してもらえるだろうか?例外は、私が紹介したケースに似ているだろうか?ウェブマスターを助けるため、他にグーグルはどんな取り組みを行うべきなのだろうか?

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Understanding Google’s Latest Assault On Unnatural Links」を翻訳した内容です。

さてあなたはサーチエンジンランドの意見をどう考えたでしょうか?Googleでなくとも、ある程度はバランスの問題とは思いますし、明確に定義し切ることはできない話しとは思います。以前は一度ペナルティを受けたら関連情報も出されない、また回復するのが運次第的な部分もあったので、バランスで諦めきれない話でしたが、最近は警告の内容もきちんと教えてくれるようになりましたし、再申請の対応も大分スピード感も出てきましたよね。仮にペナルティを受けても努力次第で解除まで持っていけるようにはなってきていますし。とはいえ、過去何年も色々とやりこみ尽くしてきた場合は解除が難しい場合もあるようですが・・最近までそういう状況を放置してきたGoogleにも責任の一端がある、という主張はそれはそれで十分に分かるのですけど。 — SEO Japan [G+]

スティーブ・バルマー : Microsoft CEOとしての軌跡

マイクロソフトのスティーブ・バルマーがCEOを辞任するというニュースが先日発表されました。マイクロソフトといえばビル・ゲイツがまず思い浮かぶわけですが、10年以上に渡りCEOを務めてきましたし、それ以前技術肌のゲイツに対し経営面からマイクロソフトの成功を支えてきた影の人物(というには有名すぎますが)でもあります。今回はそんなバルマーの、特にCEOとしての過去10年以上の功績を改めて振り返った記事を。 — SEO Japan

今日、MicrosoftのCEO、スティーブ・バルマーが今後12カ月以内に辞任することを発表した。その変革はちょっと思いも寄らなかったし、それは、彼の後任者に関する問題だけでなく、どのようにこの会社が変化し、前進することに再び焦点を合わせるのかに関する問題を投げ掛ける。

これは、バルマーがMicrosoftを率いた時代を振り返って見る良い機会でもある。2000年にBill Gatesから引き継いで以来、この男は何度も私たちを笑顔にし、笑わせ、当惑で頭を振らせてきた。時には、たった5分のうちに。

そんなわけで、彼がMicrosoftのCEOとしてローンチした主要製品はもちろんのこと、彼の最高の瞬間をいくつか振り返るのにこんな絶好の機会はあるだろうか?

新しい順に振り返っていこう…

2013年8月

8月23日、バルマーは、今後12ヶ月以内にMicrosoftのチーフ・エグゼクティブ・オフィサー(CEO)を辞任することを発表する。

2013年7月

Microsoftのインタラクティブ・エンターテイメント・ビジネス部門プレジデントのDon Mattrickが、辞任し、ソーシャルゲーム会社ZyngaのCEOとなる。バルマーは、Mattrickの成功を願ってMicrosoft社員に手紙を書いた

“Don、エンターテイメント業界を完全に再定義するための道へと私達を導いてくれてどうもありがとう”と、彼は言った。“インタラクティブ・エンターテイメント・ビジネス部門の力強いリーダーシップを持ったチームと彼らのチームは、次世代のエンターテイメントゲーム機および変形可能なエンターテイメント体験を未来に届けることができる好位置にいる。”

その後まもなくして、バルマーは、Microsoftの社内リーダーシップ構造の大幅な変革を扇動した。バルマーは従業員への手紙の中で、自分は会社の戦略を鋭くしているのだと言った。

“いずれは、私たちの戦略は、個人や企業のために一連のデバイスとサービスを作ることにフォーカスする。自宅でも職場でも出先でも、世界中の人々に力を与えるのだ、彼らが最も価値をおく活動のために。”と、彼はMicrosoft従業員への手紙の中で言った。

社内向けの集会で、バルマーは、MicrosoftがSurface RTタブレットを多く作り過ぎたことを認めたと言われている。これは、2013年Q4の決算に記録されるこの製品にかかった9億ドルの費用、およびこのデバイスの海外販売価格の値下げへの言及に続いたものだ。

2013年5月

Xbox Oneが公開される

バルマーは姿を現さず、控えめに言っても、消費者の反応は様々である。早送りして現在を見てみると、Microsoftは今でも、その中古ゲーム、常にオンのインターネット接続、Kinectのポリシーをめぐる議論から立ち直ろうとしている。がしかし、数々の反転とGamescomでの上々の成績が、ゲーマーとの破たんした関係を修復し始めている。

2012年11月

2012年11月、MicrosoftのWindows部門プレジデントのSteven Sinofskyが辞任する。彼が‘チームプレーヤー’ではないという報告の後のことだった

その後バルマーは、Windowsソフトウェアとハードウェアエンジニアリングを率いるためにJulie Larson-Greenを昇進させた。“私たちのWindowsの軌跡を継続するために必要とされる技術的スキルとビジネススキル―つまり、優れたコミュニケーションスキルと複数の製品グループにわたって仕事をする証明済みの能力、力強いデザイン、深い技術的専門知識、顧客ニーズを予測して合わせる経歴―に目を向けた時、Julieがこの仕事に最も適していることは明確だった”と、彼は言った。

2012年10月

10月25日、バルマーは、Windows8が翌日から世界展開されることを発表し、ニューヨークでの特別イベントをスタートさせる。それは、デスクトップオペレーティングシステムを近代化し、タッチスクリーンデバイスの台頭を受け入れるためのMicrosoftの大きな動きだった。

“Windows 8は、PCとタブレットの良いところを1つにする。それは、仕事にも遊びにもぴったりで、あなたの世界であふれる。私たちの顧客の一人一人全ての人が、お気に入りのPCを見つけるだろう”と、バルマーは約束した。

2012年6月

6月20日、サンフランシスコにて、Microsoftは、Windows Phone 8を発表する。バルマーはこの発表に出席しなかったが、そのことが会社に与えた影響は無視できない。このプラットフォームは、iOSとAndroidと戦うためのMicrosoftの大きな動きだった。それは、OEMと消費者の両方を引き付けるとても特別なものでなければならなかったのだ。

ちょうど2日前、バルマーはSurfaceの発表で注目を集めていた。多くの人が、この製品のリリースに時間がかかりすぎていること―AppleがiPadで大きな優位を確立することを許していること―に対して、後にMicrosoftを非難することになるが、それでもそのリリースは同社にとって重大な瞬間だった。

結局のところ、これはMicrosoftのハードウェア製造者としての存在の再確認だった。また、バルマーは、Windows 8とWindows RTを使ってできることを他のOEMに示していた。“それは新しいもの、異なるものだ。それは、Microsoftから出た全く新しいコンピューティングデバイスの家族だ”と、バルマーは言った。“それは、お互いに後押しし合うハードウェアとソフトウェアの概念を具体化している。”

2011年5月

Microsoftは、クロスプラットフォームのメッセージングサービスSkypeを85億ドルというとてつもない額で買収したことを、5月10日、正式発表する。それは、バルマーによる大掛かりな仕事であり、優れた製品を選択する能力だけなくMicrosoftの将来の成長に何が重要であるかを予測する彼の能力を示していた。

“Skypeは、世界中の何百万もの人々に愛されている素晴らしいサービスだ”と、バルマーは言った。“人々が家族やクライアントや同僚と世界中のどこでも簡単に繋がることができるように、私たちは共にリアルタイムコミュニケーションの未来を作っていくのだ。”

後にSkypeは、Microsoft製品の中核部分となる。それは、発売予定のXbox One上のアプリとして利用可能になり、Windows 8.1の全バージョンにプリインストールされることが決まっている。

2011年1月

CES 2011でのバルマーの基調講演は、Kinectのローンチ(バルマーのアバターを見なければ!まだあるだろうか?)やXbox Liveに関するいくつかの新しい数字(3000万人のXbox Liveメンバー)やWindows Phone 7向けの新しいゲームのさわりを含め、幅広く異なる製品を網羅していた。

また、バルマーは、ARMベースのシステムを含めたSystem on a Chip(SoC)アーキテクチャおよびx86アーキテクチャに対応するというSinofskyの先の発表を補強して、“次世代Windows”に関しても触れた

2010年6月

AllThingsD Conferenceでバルマーは、iPadの批判をしながら、また、次のような独創的なセリフでMacをからかいながら、“Bubble of Terranea”について言及する:“確かに、彼らがそれらを‘Mac’トラックと呼ぶのには理由があるのかもしれない!”

2010年2月

Mobile World Congressでは、Windows Phone 7はMicrosoftにとって大きな発表だった。そのリブランドされたモバイルOSは、全く新しいものだった。そして、同社からの全ての後続プラットフォームに浸透する美学的思想を紹介したものだった。

当時それについて知っている人は誰もいなかったのだが、これは、MicrosoftがSurfaceやWindows 8デスクトップ環境を含むWindows RTタブレットおよびXbox 360とXbox Oneのために何を開発したかったのかを初めて見る機会だった。

そしてもちろん、バルマーはそこにいた。

“見た目や機能が同じような携帯電話で溢れた飽和状態の市場で、私は異なる種類のモバイル体験を届けることをチームに要求した”と、彼は言った。“Windows Phone 7シリーズは、人々の生活のスピードと、他の人と繋がるという人々のニーズと、あらゆる種類のシームレスな体験を真に反映する携帯電話へのターニングポイントとなる。”

2009年10月

ほぼ全ての人が、Windows Vistaを嫌っていたため―ここに挙げるつもりはないが、数々の理由によって―、Windows 7はMicrosoftが新たに出直すチャンスだった。大部分の人は、それが正しい方向への1つのステップだったと主張するだろう。それは、より早く、より軽く、より安定していた。

バルマーは、10月22日、ニューヨークでのローンチイベントでその全ての火蓋を切った。彼は、自分はWindows 7 PCだと公表し、それは少し奇妙だった(しかし、当時それはMicrosoftとAppleのマーケティング競争だったことを覚えているだろうか?)。

“今日、私は、私はスティーブ・バルマーであり、PCであると言うだけでなく、私はスティーブ・バルマーであり、すぐに発売されるWindows 7 PCであると言うことにする”と、彼は言った

2009年7月

バルマーはChrome OSについて尋ねられると、急に笑い出す。彼は、次第に大衆にこう言う:“彼らが 決心できないのか、そこにある問題が何なのか、私には分からないが、あなたには2つのオペレーションシステムは必要ない。1つあれば十分だ。”

非常に面白い。

2008年9月

バルマーは、自分が本当はPCであることを証明する。

万が一、あなたがこれまで確信がなかった場合に備えて。

2008年5月

バルマーと卵事件。

2008年3月

バルマーとベンチャーキャピタリストのGuy Kawasakiは、ラスベガスで開催されたMIX08で楽しく会話をしている。オーディエンスの1人がバルマーにWebデベロッパーにほんの少し愛を示すように要求すると、こんなことが起こった。

2007年1月

Windows Vistaが、Office 2007と共に一般リリースされた。Bill Gatesとバルマーは一緒にこの製品をローンチしたのだが、この後どうなったかは…Vistaがどんなだったかはあなたもよく知っているはずだ。多くは語るまい。

“これらはWindowsとOfficeの史上最高のバージョンである”と、MicrosoftのCEO、スティーブ・バルマーは言った。“ビジュアルエフェクトは、圧巻だ。ナビゲーションは、合理化され直感的だ。それらは、オンラインであなたのPC、あなた自身、そしてあなたの子どもを守ることをもっと簡単にする。そして、それらはあなたが一日を通してもっと多くのことを達成する手助けをするために一緒になって機能する。”

そして、BalmmerがiPhoneについて質問されると、こんなことが起こった。

2006年のいつか

デベロッパーズ!デベロッパーズ!デベロッパーズ!

これ以上の情報が必要だろうか?

2006年6月

2000年1月にスティーブ・バルマーはMicrosoftのCEOとしての地位を引き継いだが、Bill Gatesは同社のチーフ・ソフトウェア・アーキテクトとして働き続けた。6月15日、Microsoftは、Gatesが2008年6月以降は日常業務から移行することを発表するプレスリリースを出した

“Billと私は、私たちが、彼に代わってMicrosoftのイノベーションを動揺することなく前進させることができる最高のチームを手にしていることを確信している”と、バルマーは言った。“私たちは、世界最高の技術的才能を持った人を採用し続け、彼らが最高の仕事をするためのツールを与える。そして、私たちは、長期的に投資をすることによって、私たちの顧客のために最大の課題と機会に取り組み続けるつもりだ。”

2005年5月

バルマーは常にXbox 360と関連性があるわけではないが、このプラットフォームが彼の監視の下に作られ、ローンチされ、開発されたという事実に変わりはない。元祖Xbox―Microsoftにとっては発売当初かなりの成功だったが、結局はPlayStation 2に吹き飛ばされた―の後、これがゲームチェンジャーになる必要があった。

そして、それはゲームチェンジャーだった。Xbox 360は大きなヒット作となり、8年のライフサイクルに及び、オンラインマルチプレイヤーとデジタルディストリビューションとモーションゲーミングを再定義するのに役立った。その後の改良点とKinectカメラ周辺機器が、このシステムの幅をさらに広げた―それは今もよく売れている。

Xbox 360が公式発表されたのは、E3 2005だった。バルマーはそこにはいなかったが(いや、ある意味いたのだが)、それは関係なかった。これ以降、XboxはMicrosostの最強ブランドの1つとして徐々に進化した。

2001年10月

古き良きWindows XP。全てがとても未熟だった。とても青かった。当時それは、ほぼおぞましいとも言えるもので、あの草原のデフォルトの壁紙は恐らく助けにならなかった。

しかし、このデスクトップオペレーティングシステムは、ほぼ間違いなく、モダンと利用しやすさと消費者フレンドリーを初めてまさに感じるものだった。Windows Vistaは大失敗だったが、そのことが理由でWindows XPは長く続いたのかもしれない。

振り返って見ると、これは、バルマーにとってはMicrosoftのCEOとしての証を残す良い機会だった。彼はニューヨークでのローンチにいなかった―Bill Gatesとニューヨーク市長Rudolph Giulianiに委ねられた―が、そんなことは全く関係なかった。

バルマーは代わりにこんなことをした。

2000年9月

あえて説明する必要はない。Microsoftの25周年記念での“狂ったスティーブ・バルマー”をどうぞ。

私はこの男が好きなのだ。

2000年1月

スティーブ・バルマーが、Bill GatesからMicrosoftのCEOを引き継ぐ。

画像クレジット:JUNG YEON-JE/AFP/Getty ImagesKevork Djansezian/Getty ImagesTIMOTHY A. CLARY/AFP/Getty ImagesJustin Sullivan/Getty Images


この記事は、The Next Webに掲載された「Best of Ballmer: The products and moments that marked the tenure of Microsoft’s CEO」を翻訳した内容です。

文章だけ読んでいると、明確に「バルマーの偉大な功績」と納得できるものが、ピンと来なかったりもするのですが(比較対象がゲイツやジョブスになってしまうこともありますが・・・)、この動画の暴れん坊っぷりが凄いですね。というか、こんなクレージー?な人とは知りませんでした。筆者も書いているように、なんか好きになっちゃいますね 笑 会社でもこんな感じだったら怖い。PR演技とも思いますが、意外と時のままっぽくもあり。ハイパーアクティブすぎる優秀なビジネスマンって一緒に仕事するの疲れそう。いずれにしても、お疲れ様でございました! — SEO Japan [G+]

rel="author" に関するよくある質問(上級編)

著者情報 を使用すると、検索ユーザーが探していると思われる著者のコンテンツがハイライト表示されることから、検索時にユーザーは有益な情報を見つけやすくなります。 もしあなたがコンテンツを書いた著者であれば、著者情報を登録すると、検索ユーザーがあなたの投稿したコンテンツを見つけやすくなります。さらに、著者の名前をクリックすると、同じ著者が投稿したその他の記事が表示され、また Google+ でフォローすることもできます。このように著者情報の仕組みはシンプルですが、次のような上級者向けの質問も寄せられていますので、いくつかご紹介します。

Google Webmaster Central Blog に記事を書いたジョン・ミューラーの著者情報が検索結果に表示されています

検索結果で著書の名前をクリックすると、その著者による他の記事や Google+ プロフィールが表示されます

著者情報に関する最近の質問

  1. 著者情報はどのような種類のページに表示させることができますか?
    • 次の基準を満たすページでのみ、著者情報マークアップを使用している場合、サイトの著者情報が表示される可能性が高まります:
    • その URL あるいはページに、同じ著者による 1 つの記事(または記事の続き)またはコンテンツが含まれている。つまり、記事のリストやフィードを基にした更新情報は該当しません。ページ内に複数の著者によるコンテンツが混在していたり、ページ上で著者が頻繁に切り替わると、検索ユーザーにとってこのアノテーションは有益なものでなくなるため、著者情報が表示される可能性は低くなります。
    • その URL あるいはページは主に著者が投稿したコンテンツで構成されている。
    • ページ上に著者名をはっきりと表示することで、著者がその記事を投稿したことを示している。また、Google+ プロフィールと同じ名前を使用している。

  2. 会社のマスコットを著者として使用して、検索結果に著者情報アノテーションを表示できますか?当社の害虫駆除事業で、「ハーメルンの笛吹き」というマスコットを著者情報として使用したいと考えています。
    • 記事をどのように投稿するかは、サイト管理者であるあなたに委ねられています。「ハーメルンの笛吹き」のアイデアもユーザーの間で人気が出るかもしれません。しかし、検索結果上では、Google はコンテンツを投稿した人物を表示しています。こうすることにより、著者情報アノテーションによって、ある人物の見解が検索結果の中に含まれていることがすぐにわかり、検索の信頼性を高めることができます。繰り返しますが、現在 Google では実際の人物を表示しているので、著者情報マークアップは、会社の Google+ ページではなく、個人のプロフィールにリンクしてください。

  3. 言語が異なる複数の記事(たとえば、英語版のexample.com/en/article1.html とフランス語版の example.com/fr/article1.html)とで著者情報を使用する場合は、各言語で別々の著者/Google+ プロフィールを作成し、それぞれのプロフィールにリンクする必要がありますか?
    • この場合は、
      example.com/en/article1.html

      example.com/fr/article1.html
      のどちらの記事も、著者が選択した言語での、同じ Google+ プロフィールにリンクしてください。

  4. 1 つの記事に 2 人の著者を追加することはできますか?
    • 現在は、1 つの記事やコンテンツにつき 1 人の著者の表示のみサポートしています。しかし、複数の著者が指定されている場合、どのような表示が検索ユーザーにとって最善なのかについて、現在調査を行っているところです。

  5. Google で著者情報を表示したくない場合はどうすればよいですか?
    • 著者情報アノテーションを非表示にする最も簡単な方法は、著者の Google+ プロフィールが 検索結果で見つからないように設定する ことです。検索結果にプロフィールを表示しておきたい場合は、ウェブサイトへのプロフィール リンクまたは投稿者リンクを削除するか、プロフィールに接続されないようにウェブサイト上のマークアップを削除すれば、同じ結果を得ることができます。

  6. rel=authorrel=publisher の相違点を教えてください。
    • rel=publisher では、会社がビジネスのウェブサイト(一般的にはホームページ)をビジネスの Google+ ページにリンクすることができるのに対し、rel=author では著者である個人が個々の記事を URL やウェブサイトから Google+ プロフィールに関連付けることができます。rel=author と rel=publisher はどちらもプロフィールとサイトを関連付ける仕組みですが、相互に完全に独立しています。

  7. 社員の 1 人が説明をカスタマイズしたので当社サイトの物件リストや製品ページで著者情報を使用できますか?
    • 著者情報アノテーションは、実際の人物によるトピックに対する見解や分析がページ上に掲載されていることを表示することで、検索ユーザーの利便性を高めることを目的としています。物件リストや製品ページは見解や分析にあまり関係ないので、これらの場合は著者情報を使用しないことをおすすめします。ただし、「カメラ X とカメラ Y: アリゾナ砂漠での比較」といった有用なコメントを提供する製品レポートなどの記事では、著者情報を使用することができます。

その他の質問については、ウェブマスター ヘルプフォーラムをご覧ください(フォーラムで取り扱われていない場合は、新しい質問として投稿してください)。

完璧なFacebook投稿の構造

最近、ディープなSEOの記事が続いていますが、ソーシャルメディアマーケティングも忘れちゃいけない!ということで、Facebookの投稿を最適化するためのノウハウを解説した記事を。前述のSEO記事と同じ筆者によるものだけに、見逃せない内容です?! — SEO Japan

マーケティングプラットフォームとしてのFacebookの力は否定できない。それは、あなたが世界中11億5000万人以上の選りすぐりからオーディエンスを築いて、あなたが望む時にいつでもそのオーディエンスに手を伸ばす能力を与える。私たちは、ブランドがFacebookから驚くような結果を出すのを見てきたが、それはあなたが想像するほど頻繁ではない。

Facebookから生み出すことができる最終的な結果の要因となる変数はいくつか存在するが、多くのブランドやビジネスが習得できていないとても基本的なスキルが一つある:完璧なFacebook投稿を作る技術だ。

ご存じの通り、Facebookユーザーはニュースフィードに大部分の時間を費やす傾向がある。彼らがニュースフィード内で目にするものは、FacebookのEdgerankアルゴリズムによって決められ、それはこのソーシャルネットワークにおけるあなたのアクティビティとエンゲージメントを基に決定される。

例えば、あなたは、現実世界で毎日話をする人よりも、オンラインで最近関与したことのある友人からの最新のアクティビティを目にする可能性が高い。

同じルールがFacebookページにも当てはまる。もし、ある人が最近あなたのページに関与していなければ、彼らはあなたが投稿する大部分のものを目にすることはないのだ。でも慌てるな、私があなたを守る…

悪いFacebook投稿

広範囲に及ぶ調査とテストを基に、私は‘完璧な’Facebook投稿の構造の全貌を知ることができた。私は、オーディエンスがそれぞれ異なることやマーケティングにおいて全てを解決するアプローチなど存在しないことは理解しているが、これがエンゲージメントを最大限にし、あなたのリーチを増やして、より多くのビジネスをもたらす方法であると100%の自信を持って言うことができる。

では、最悪の投稿テクニックの典型であるQuick SproutのFacebookページの以前の投稿を見ることから始めよう。

ここでまず間違っていたのは、リンクを主たるメディアとして投稿していたことだ。エンドゴールはトラフィックをもたらすことであるが、リンクプレビューはFacebookのニュースフィード内で簡単に見落とされる。リンクプレビューは、よりビジュアル的にするために何回かデザインの変更が為されている。

ここでの2つ目の大きな間違いは、コピーだ…コピーがないのだ!近況アップデートに使用するコピーは、あなたが共有しているコンテンツをオーディエンスに関連させるものだ。それを急いで終わらせないこと、見出しを再度入力するだけにしないこと、そして、絶対に空欄にしないこと。

あなたは、この投稿が1つのエンゲージメントも獲得しなかったことに気が付くだろう。たった1つの投稿だけでは納得しない?OK、続けよう。

ここにFacebookですべきではないことの例をもう少し紹介する。

私達が戦略を変更する前に“これについて話していた”人の数を見てみる。

まだ十分じゃない?私たちが変更をする前の全体のリーチを見てみるのだ。

完璧なFacebook投稿の構造

ここからは、私たちが戦略をシフトして以降の結果を見ていくとしよう。

ここからが佳境だ:あなたは、私たちがどうやってそれを行ったのかを目にする。

あなたが最初に気が付くべきことは、メディアの主たる形式が画像であることだ。それだけでなく、画像自体が興味をそそり、魅力的なのだ。これが投稿には不可欠だ。Facebookにはあまりに多くのガラクタと二流コンテンツが共有されているため、あなたは、それを見た人が誰であってもすぐに感銘を受け引き付けられるような画像を選択する必要がある。私たちは、このアイディアを数百人から100万人以上にまでわたるオーディエンスのサイズを持ったいくつもの異なるFacebookページでテストしたが、常に画像は最高の結果を出す投稿タイプなのだ。

2つ目に気が付くべきことは、コピーだ。それは短くて親しみがあり、この投稿が私のオーディエンスにいかに関連があるかに関してコンテクストを提供する。

次にあなたが目にするのは、リンクがそのテキストの横にあることだ。これは、もし画像が人々の注目を集め、コピーが良く書かれたものであれば、読者は次のステップに進んでそのクリックをクリックする可能性が高いことを意味する。

: もし、もう少し簡潔に見せたいのなら、リンク短縮を使用することができるが、人々が短いリンクを好むか嫌うかに関しては矛盾する研究がある。

あなたが気付くべき最後のことは、この投稿が獲得したエンゲージメントの量だ。そのエンゲージメントが全体のリーチの要因となり、それらの同じ人々が確実に私が次に発する言葉を目にするようにする。

: Edgerankは、エンゲージメントの3つの異なるタイプに異なる価値を置く:いいね!は最も価値の低いエンゲージメントの形で、コメントが次に来て、共有がトップに来る。オーディエンスから獲得するエンゲージメントの種類を多様化することが、平均したリーチと全体的な結果を向上するのに役立つ。

しばらくの間新しいアプローチをテストした後、私たちはそのページヒストリの中のトップの投稿の記録を解読し始めた。

これらの施策を維持したことによって、Facebookページへのいいね!(ファンやフォロワー)の急激な成長と同時にFacebookからのエンゲージメントとリーチとウェブトラフィックにおける安定した増加が見られた。

実際の投稿を最適化することに加えて、それらを投稿する時間を最適化する必要もある。新しいFacebookアナリティクスは、“Actionable Insight”を提供して、あなたのファンがいつオンラインなのかや、彼らが好む投稿形式を示している。

完璧なタイミングと完璧な投稿広告を組み合わせれば、あなたがプラスの影響を受けることは間違いない。全ての投稿が記録破りになるわけではないということは頭に入れておかなければならないが、あなたの全体としての取り組みが素晴らしい結果をもたらすだろう。

結論

確かに、Quick SproutのFacebookファンページは、他のファンページに比べると大量のエンゲージメントを獲得しているわけではないが、上の戦略を使用することによって、私たちはエンゲージメントを継続して増加させることができた。

もっと良い結果が出せたはずなのにそうなっていない理由は、ファンの大部分がインド在住であるのに対して、私たちがアメリカの労働時間に投稿を追加しているからだ。私たちがインドでの労働時間に投稿を追加する時には、10倍以上のけん引力を獲得している。

この投稿が完璧なFacebook投稿を作る方法を示していることを願う。とにかく試してみるのだ。本当に、あなたはもっと多くのエンゲージメントを手に入れるだろう。

著者について: Mike Balは、Single Grainのソーシャルメディア&コンテンツのディレクター。彼は、一流ブランド、ビジネス、ソートリーダーがソーシャルメディアを活用する手助けをすることに成功している。


この記事は、Quick Sproutに掲載された「The Anatomy of a Perfect Facebook Post」を翻訳した内容です。

筆者の他のディープな記事を知っているだけに、いよいよFacebook投稿の徹底攻略法が大量に出てくるか、、、と思いきや、意外と、サクッと終った記事でした。やはり本職はSEOのようですね 笑 とはいえ、効果測定&改善のサイクルを感覚でなく数値ベースできっちり回していく姿勢は見習いたいものです。なんとなしにFacebook投稿している人も多いと思いますが、画像やコピーの最適化は確実に拡散力に影響を与えると思いますし、それを習慣化することで記事にもあるように少しずつエンゲージメントレベルが高まっていくのでしょう。私も最近Facebook広告を活用していますし、地道に頑張りたいと思います! — SEO Japan [G+]

上級者向けSEOガイド5/9 : データ&リサーチ

SEOの上級者向けガイドのシリーズ第5弾は、高度なデータ取得やリサーチ方法について解説した記事を。英語圏でしか使えなさそうなものもありますが、網羅度が幅広いですし、読んでいけばあなたの日々のデータ収集活動を効率化する発見があるはず。いきなりGoogle DocsのImportxmlの活用方法など戸惑う人も多いかもしれませんが、読んでみるとその便利さを感じられるはず。後半はツイッターの高度なリサーチ方法についても書かれているのでソーシャルメディアマーケティングにも参考になりそうです。 — SEO Japan

チャプター 4を終える頃には、強固なウェブサイトが出来あがっているはずである。しかし、SEOは、スピードインデクセーション、そして、メタデータだけではない。

チャプター 5では、ImportXMLを用いたオフサイトSEOから説明していく。


1. ImportXMLとは

ImportXMLとは、html、xml、csv等のファイルの種類から、xpathを使って情報を引き出す手段である。

グーグルドキュメントのスプレッドシートに直接インポートすることが出来るため、外部サイトの情報を取得し、調達する上で大いに役立つ。また、高度な検索を実施して、他の方法では取得することが難しい情報を得ることも可能である。

ImportXMLを使った例を紹介していく。

基本的なシンタックス

ImportXMLはエクセルやグーグルドキュメントの数式と同じであり – 割とシンプルなシンタックスを利用する:

=importXML(URL, Query)

URL = 取得するURL

Query = URLで実行するxpathクエリ

基礎の例 – クイックスプラウトのH1タグを取得する

新しいグーグルドキュメントのスプレッドシートを作成する。

URLを設定する。

基本のxpathの関数を作成して、ページのH1を取得する(スクリーミングフロッグ、または、サイトのクロールを介して同じ作業を行うことが出来るが、分かりやすい例を紹介するため、この方法に拘っていく)。

importxml関数をセルB2に加える。

URLが存在するA2を参照している点に注目してもらいたい。

クエリは引用符で囲まれる。

次にxpathは返されるファイルの部分を特定する。//h1は、ページのh1を含む全てのコンテンツを返す(これは“//”のパーツによる命令であり – どれだけレベルが深くても、あるいは、どれだけネストされていても、全てのh1“path”を求めることが出来る)。

次のアイテムが返される:

これで投稿のH1をグーグルドキュメントに引き出すことに成功した。次に、グーグルドキュメントのimportxmlにおいて、有意義な例を幾つか挙げていく。


2. ImportXML – クオラ/ツイッター

次にクオラを使って、ツイッターのURLにおいて影響力の強い、あるいは、権力を持つ可能性のあるユーザーを調達する方法を伝授する。

以下に最終的な結果を表示する。この結果を目指して、これから作業を進めることになる:

ステップ 1 – グループまたはトピックを探す

この例ではブログのトピックを取り上げる - http://www.quora.com/Blogging/followers

ステップ 2 – カラムAにクオラのURLを入力する

カラムBで実行されている関数の中で、このセルを参照する。

ステップ 3 – importxmlの関数を作って、ユーザー名を取得する

関数を以下に挙げる:

=importxml(A2, “//h2/a/@href”)

コードを理解し、作りやすいように、関数を分解していく。

  1. =importxml()          空の関数
  2. A2                  クオラのURLを参照する“URL”フィールド
  3. //h2                 このURLの全てのh2を参照する
  4. /a                 h2内にネストされたタグを参照する
  5. /@href         アンカータグに含まれるリンクのみを参照する

ご覧のように、この関数はブログのトピックの上位20名のユーザーをリストアップする。

ステップ 4 – 完全なURLを作成する

既にお気づきかもしれないが、クオラは相対URLを使ってリンクを張るため、絶対URLにコンバートする必要がある。

シンプルにconcatenate関数を利用する:

因みにconcatenate関数を念のために掲載しておく:

=CONCATENATE(“http://quora.com”,B2)

このコードも分解していく。

  1. =CONCATENATE()                空のconcatenate関数(複数の文字列を一つにまとめる)
  2. “http://quora.com”                クオラURLの出だし(別のセルを参照しない場合、すべて引用符で囲う必要がある)
  3. B2                                 不完全なユーザーのURLを持つセルを参照する

この作業を終えたら、今度は数式を掴み、カラムの残りに引き下げていく:

ステップ 5 – ツイッターのURLを取得する

最後の仕上げとして、ツイッターのURLを取得する。

以下に関数を掲載する。長いので区切って一つずつ説明していく:

=ImportXML(C2,"//div[contains(@class,'profile_action_links_section')]//a[contains(@href,'twitter.com')]/@href")

  1. =importxml()                                空のimportxml関数
  2. C2                                        参照している完全なクオラのプロフィール
  3. //div                                        HTML内のdivタグを参照する
  4. [contains()]                                divタグを絞り込む
  5. (@class,’profile_action_links_section’)          ここではclassの要素を選択している

HTML内のクオラのコードのスクリーンショット:

  1. //a[contains(@href,’twitter.com’)]        ツイッターへのリンクを含むアンカーテキストを選択する
  2. /@href                                        アンカーテキスト内のリンクを実際に取得する

忘れずに数式をつかみ、カラムの残り全てに引き下げよう。

これで、20名のツイッターのユーザーを1度に取得することが出来るようになった。これは技術的なガイド(How To)であり、このリストをどのように使うかに関しては、皆さんの判断に任せる。きっと様々な用途が浮かび上がるはずだ :-)


3. キーワードのアイデアを得るために Ubersuggestを取得する

  1. グーグルドキュメントのスプレッドシートを新たに作成する。
    Create > Spreadsheetの順にクリックする。
  2. セルA1で、Ubersuggestで質問したいことを入力する。
    この例では、“how to …”を入力し、クエリを始めている。
  3. セルA2に次の数式を入力し、Enterを押す。
    =ImportXML("http://ubersuggest.org/?query="&A1& "&format=html&language=English%2FUSA&source=web&submit=Suggest", "//li/span")

    スプレッドシートがUbersuggestの答えで埋まる:

4. ウェブページのリストでHTMLを探す

一度に100(または100以上)の候補のサイトを手っ取り早く探し出す方法をこれから紹介する。高額なリンク発見ツールを使って、この取り組みを行うことも出来るが、予算が少ないなら、または、ツールの数を減らしたいなら、この方法は大いに役に立つだろう。しかも、とても簡単であり、また、楽しいと言うメリットもある。

この方法は、コンテンツの一部ではないリスト – つまりコードでHTMLを探している際に役に立つ。この例では、‘rel=author’タグを探していく – この作業には2つの意図がある。まず、ウェブサイトのオーナーは、わざわざ時間を割いてこのタグを設定するくらいなら、マーケティングの観点から見て、出来るだけ上の方に陣取ろうとするはずである。次に、ウェブサイトのオーナー(または助っ人)はある程度の技術的なスキルを持っていると考えられ – 協力を容易に要請することが出来る可能性がある。

これから挙げていくステップに従ってもらいたい:

1. グーグル検索を幾つか考える。

2. 結果を取得する。

3. スクリーミングフロッグを使って、リストの特定のコードを探す。

ステップ 1. グーグル検索

リンクを獲得することが出来る可能性のあるサイトのリストを手に入れたい。ここでは、食べ物をテーマにブログを運営しており、ゲスト投稿を行うため、他のブログを探していると仮定する。次のような検索を実行することが考えられる:

food inurl:blog intitle:submit post

food inurl:blog intitle:contribute post

あるいは、キーワードを使ってさらに具体的な検索を行う手もある:

gourmet food inurl:blog intitle:submit post

eclectic desserts inurl:blog intitle:submit post

良質な検索を実施すると、結果内に複数のサイトの候補が表示されるはずである – 多過ぎても良くない。例えば:

手始めに上のクエリから取り掛かることを薦める。

2. グーグルの結果からURLを取得する

グーグルの結果をテキストドキュメントにまとめ、スクリーミングフロッグを実行する準備を整える必要がある。

1. 準備段階として、1つのページにつき100点の結果を返すようにグーグルを設定する。

検索の設定にアクセスする。

ページあたりの表示件数を100に設定する

グーグルに戻り、再び検索結果を表示させる。

次にSERP Redux ブックマークレットを使う – リンクをクリックする。

URLのリストをクリップボードにコピーする。

テキストエディタに貼り付ける。

.txtファイルとして保存する。

3. スクリーミングフロッグを介してURLを絞り込む

1. スクリーミングフロッグをリストモードに設定する。

2. テキストファイルを選び、開く。

3. Custom設定にアクセスする。

4. 絞り込むHTMLを入力する。

この作業を実施する方法が鍵を握っている。

次の4つのリストを作成する:

  1. rel=authorを含む
  2. rel=authorを含まない
  3. rel=meを含む
  4. rel=meを含まない

5. カスタムの結果を見る。

‘custom’タブをクリックする – すると、フィルター1-4を選択することが出来るようになる。

このケースでは、リストにはrel=authorを持つブログは1つしか存在しなかった。それで問題はない。と言うよりも、むしろその方が良い。全ての結果を確認して、オーサーシップを持つ結果を探す作業を想像してもらいたい。これで、ターゲットが絞られた候補のサイトを1つ手に入れたことになる – このプロセスを実施して、さらに多くの候補のサイトを見つけることが可能だ。


5. Citation Finderを使って、リンクを張る機会を探す

このセクションでは、有料ツールの利用方法を紹介する。無料バージョンも用意されているものの、全ての機能を利用することが出来るわけではない。ただし、このセクションで取り上げている作業に関しては、恐らく、無料バージョンでも足りるだろう。因みに、私はこのツールのアフィリエイトに参加しているわけではない。

作業を始める前に、 - https://www.whitespark.ca/local-citation-finder/にアクセスし、無料版または有料版のアカウントの登録を行う。

パート 1 – 検索(プロジェクトなし)

一つ目のタブをクリックし、個人情報をフィールドに入力していく。

数分間待つ:

レポートの準備が整うと、eメールの通知が送られてくる:

すると次のようなレポートを見ることが出来るようになる。「compare citations for these businesses」をクリックする。

その後、csvとしてレポートをエクスポートする。

エクセルファイルとして開き、保存することが出来るようになる – これから、どのサイトが最もサイテーションを得ているのかを容易に判断することが出来るように、少しカスタマイズを加えていく。

次のエクセルの数式を利用する:

=COUNTIF(A2:A111,"*Y*")

このように表示される(カラムBにカーソルを合わせている場合):

全てのアイテムをカウントするため、横方向にドラッグする:

もちろん、オートフィルタをかけ、YまたはNだけを見ることも出来る:

パート 2

パート 1は、一般的な候補を探す上では役に立つが、レポートに含まれていない場合はどうすればいいのだろうか?「search by phone number」機能を利用すればよい。

自分の電話番号、または、会社の名称(電話番号が最も有効であり、肩書きによる検索は難しい)を利用することが出来る。

情報を入力していく。このレポートをプロジェクトに加える:

忘れずにプロジェクトを作成してもらいたい。

生成されるレポートには、キーワードにとらわれないサイテーションのソースが全てリストアップされる。

小さな+をクリックすると、サイテーション(通常は電話番号を意味する)付きのページを見ることが出来る。

データのエクスポートに関しては、複数の選択肢が用意されている:

Re-run and append – 同じレポートを再び実施し、以前見つからなかった新しい結果を加える。

Export CSV – データをエクスポートする。ウェブサイトの名前のみが表示され、URLは表示されない。

Export CSV w/URLs – フルレポートでURL(+をクリックすると表示される)が表示された状態でエクスポートする。


6. eメールアドレスを取得する

データ取得のこのセクションでは、Citation Labs Contact Finderを利用する - http://citationlabs.com/tools/ - 始める前にアカウントを作成する必要がある。

候補のURLのリストを持っている場合、このツールはとても役に立つ – 接触する上で必要なeメールアドレスを速やかに手に入れることが出来る。

パート 1 – URLを集める

(このガイドを参考にして)候補のURLリストを持っているか、あるいは、リストを要領よく手に入れられる方法を心得ていると仮定して、話を進めていく。

この例では、取得したグーグルのURLのリストを利用する – 私が食べ物をテーマに取り上げるブロガーであり、レシピを投稿する機会を狙っていると仮定する。その場合、次のような検索をかけることが考えられる:

recipe inurl:submit

検索を実行したら、Contact Finderにアクセスする。

次にフォームに記入する。

通常のエクスプレッション(regex)を使って、結果を調整することが出来る。例えば、このエクスプレッションは:

^(Contact|About|Email|Submit)

contact、about、email、または、submitで始まる結果を求める。

私ならアンカーテキストをワード数で限定しないようにする。

Contactsタブをクリックして、結果を取得する(処理に数分間要することもある)。

ご覧のように、幾つかの種類の結果が存在する:

  1. Emails – 見つかったeメールアドレス。
  2. Forms – 見つかった投稿用フォーム
  3. Contact Pages – eメールアドレスが存在しない連絡先の情報を持つページ。
  4. Empty – 該当ゼロ。

次に、個別のレポートまたは全てのレポートをCSVにダウンロードすることが出来る。

ご覧のように、100本のURLの中から、次のアイテムを獲得している。

  1. 38点のeメール
  2. フォームを持つ47本のURL
  3. 7つのコンタクトページ
  4. 該当ゼロは8本ページのみ

7. ソーシャルリスニング – ツイッターの高度なデータ収集

別のツールで検索を設定する前に、まずはフォローするべき高度な検索のリストを策定する必要がある。

インテリアの装飾をテーマに取り上げていると仮定する – その場合、出来るだけ多くのバリエーションを持たせるべきである – キーワードリサーチと基本的にほとんど変わりはない。

  1. interiordecorating
  2. interior decorating
  3. #interiordecorating
  4. interiordesign
  5. interior design
  6. #interiordesign

こののワードが中心的なワードになる。次に意図を判断するためのワードのリストを手に入れる:

  1. need(必要)
  2. help(助け)
  3. trouble(問題)
  4. looking for
  5. tips(アドバイス)
  6. question(質問)

特定の場所をターゲットにする場合:

  1. Los Angeles
  2. CA
  3. California
  4. LA

ブランドも忘れずに(私の場合):

  1. Quicksprout
  2. neil patel
  3. kissmetrics
  4. kiss metrics
  5. crazy egg
  6. crazyegg
  7. i’m kind of a big deal

このようなキーワード、そして、検索の組み合わせを行うと、キーワードの言及を全て拾い集めることが出来る。具体的なユーザーをモニタリングする方法は後ほど紹介する。

次のURLで自分で検索を作成し、テストすることが可能だ: https://twitter.com/#!/search-advanced

過去12-24時間以内の複数の結果を入手することを目標にしよう。

IFTTTのレシピを作成する

次に、モニタリングしたい検索が見つかったら、IFTTTのレシピを作り、実行させることが出来る。IFTTTの長所は、様々なプラットフォーム全体で通知を受けることが出来る点である。それでは、アラートが動作する際にeメールまたはテキストメッセージを送信する設定を紹介していく。

注記: 結果の頻度が少ない場合、とりわけ有効である。

アカウントを作成し(無料)、新しいレシピを作成する。

「trigger」としてツイッターを利用する。

「New tweet from search」を選択する。

検索のフィールドに記入する – 単純な検索なら、プレーンテキストを利用することも可能だが、高度なオペレータを利用する必要があるケースが考えられる。

「Action」チャンネルとして、eメールまたはGメールを選択する。

フィールドに記入し、必要に応じてカスタマイズする。

テキストメッセージを受信したい場合:

「Action」としてSMSを選択する。

フィールドを設定する。

後はeメールが届くのを待つだけだ。

おまけ: eメールのフィルターを設定する

情報収集の取り組みGメールのフィルタリング機能を使って、さらにレベルアップさせることが出来る。フィルターを作成し、フォルダーに全てのアラートを送信する:

高度なツイッター検索のシンタックス

幸いにも、ツイッターの高度な検索を生成するツールを利用すると、代わりに検索を考えてもらえる:

次のURLにアクセスし: https://twitter.com/#!/search-advanced 検索を実行する – 結果にはオペレータ付きの検索シンタックスが含まれるはずだ:

ツイッターでインフルエンサーの声に耳を傾ける

インテリアデザインの分野の例を再び取り上げる。今回は、ブログを運営しているインテリアデザイナーとのつながりを増やしたいと仮定する。いつ、助けを必要としているのかを把握しておきたいところだ。

まず – followerwonk等のツールを使って、情報を集めることが出来るユーザーを探し出す: http://followerwonk.com

次に、手を貸すことが出来る点を誰かがメンションすることを考慮し、高度な検索を作成する。コンピュータのエキスパートなら、次のような検索を利用することが出来るのではないだろうか:

ターゲットの人物は、1年に1度しかツイートを投稿していないかもしれないが、大物とのつながりを作ろうとしているなら、IFTTTのレシピを作成し、テキストメッセージを介して、当該の人物が助けを必要としている時に、通知してもらう価値はあるはずだ。

ここでも、ツイッターの検索ページで検索を実行すると、検索に対するシンタックスを提供してもらえる。

Monitterを使って追跡する

Monitterは、特定のキーワードが含まれる大量のツイートをチェックすることが出来る、優れた無料のツールである。ツイッターのリアルタイムモニターと言っても過言ではない。

 http://monitter.com にアクセスし、アカウントを作成する。

検索の用語を使って、カラムを作成する。

ここでは、4つのインテリアデザインの検索に対して、それぞれストリームを用意した:

次に特定の場所からのツイートを追跡する高度な設定を行う。

返信するべきツイートを見つけたら、Monitterから直接行動を起こすことが出来る。

その他のツイッター用ツール

他にもツイッターをモニタリングするためのツールは数多く開発されている。

http://ifttt.com - 複数のオンラインプラットフォームを一つにまとめ、作業を自動化する。

http://monitter.com/ - 複数のカラムを設定し、ツイッターの検索をリアルタイムで追跡する。

http://tweetmeme.com/ - 共有されることが多い、人気の高い記事を調べる。

http://trendsmap.com/ - 特定の場所でトレンドになっているアイテムを確認する – 役に立つビジュアルツール

http://tweetbeep.com/ - ブランド、自分、または、他の何かに関する全てのメンションをeメールで通知する(IFTTTに似ている)。

http://www.ubervu.com/ (有料)

http://needium.com/ - 検索とメンションをモニタリングする。


8. ブラウザ用プラグイン

ブラウザプラグインは、作業をスピードアップし、効率を高める上で大いに役に立つ。このセクションでは、グーグルクローム用のプラグインを幾つか紹介し、また、プラグインの高度な利用方法を少し指南する。

ブラウザプラグインのセクションでは、サイトのアクセシビリティ & インデクセーションの最適化に貢献するプラグインを紹介する。

まず、プラグインのリストを提供する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

これから、幾つかのプラグインの高度な利用法を伝授していく。

Broken Links Checker

このプラグインは、自分のサイトのリンク切れを発見することが出来るだけでなく、創造力を発揮して、他の人のサイトで実行し、リンク構築 & リンク候補の調査においてアイデアを得ることも可能である。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみる。以下にその方法を紹介する:

1. 競合者のサイトのHTMLサイトマップを探す。この例では、適当に www.bizchair.com を利用した。サイトマップは次の通りである –  http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンショのアイコンをクリックする。

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

「resource」ページにすぐに気がつくはずだ。楽にリソースのコンテンツを再現し、リンクを獲得するためにこのプラグインを利用することが出来る。

Chrome Sniffer

このプラグインは、自動的にウェブサイトが利用しているCMSまたはスクリプトのライブラリを表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい場合、非常に便利である。

ウェブを閲覧していると、URLの右側のアイコンが利用されているCMSまたはスクリプトのライブラリに応じて変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる。

このサイトはドルーパルをベースにしている。

Redirect Path Checker

このプラグインは、リダイレクトに遭遇すると、ユーザーに通知する。特に自分のサイトを閲覧している時に利用すると、古いURL(または外部のサイト)に内部リンクを張っている際に教えてもらえるため、とても便利である。

例えば、私のサイトでは、ギズモードの302リダイレクトにリンクを張っているリンクを発見した:

なぜ分かったかと言うと、プラグインから302に関する通知を受けたためだ。

このアイコンをクリックすると、ブラウザが当該のページに導く上で利用したリダイレクト(あるいは一連のリダイレクト)を表示する。

SEOmoz ツールバー & プラグイン

Mozのプラグインは様々な用途に利用することが出来る。その中でもより高度な方法を幾つか紹介していく:

リンクがfollowedかnofollowedかを速やかに特定する。

または、ウェブサイトの国およびIPアドレスを見つける。


9. プロキシの利用

プロキシとは何だろうか?また、なぜプロキシを利用するべきなのだろうか?

プロキシは、ユーザーとサーバーの間の仲介役のような存在である。要するに、プロキシを使って、ウェブ上で匿名で行動することが出来る。自分のIPアドレスではなく、プロキシのIPアドレスが表示されるためだ。これは、Rank Tracker等のローカルのソフトウェアを使ってランクキングをチェックしている場合、とりわけ有用である。自動でグーグル検索を何度も行い、当該のロケーションのランキングをチェックしていると、グーグルに危険信号を送ってしまうリスクを背負うことになる。プロキシを非倫理的な方法で利用している人達がいるが、私はこのような方法を推奨しているわけではない。しかし、自分のIPアドレスから、普段とは異なるアクティビティをグーグルに送ることなく、ランキングをチェックする方法として、うってつけである。

それでは、プロキシを利用する方法を伝授していく。多くの無料のプロキシアドレスを一度に見つけるあまり知られていない方法を私はマスターしている。

ステップ 1: 次のURLにアクセスする: http://www.rosinstrument.com/proxy/

無料の公開されたIPアドレスのリストが表示される。このリストは頻繁に変わるため、しばらくこの画面を開いていたなら、更新する必要がある。

ステップ 2: プロキシをScrapeboxにコピペし、テストする:

これは魔法のような効果をもたらす。プロキシのアドレスは、すぐに、そして、頻繁に利用することが出来なくなるため、全てのアドレスを一つずつチェックしていると時間を無駄に使ってしまうことになる。

「Manage」、次に「Test」をクリックする。数分後、プロキシのテストが終了する。続いての手順では、無駄のないリストを作成し、プロキシを選択していく。

ステップ 3: 良質なプロキシをメインのリストに戻す

「Export」の下の「Transfer Good Proxies to Main List」を選択する。すると、有効な無駄のないプロキシのリストが表示される。

ステップ 4: プロキシのアドレスをランキングをチェックするソフトウェアにコピーする

Rank Trackerでは、次のようにプロキシのアドレスを入力することが出来る:

しばらくするとアドレスは利用することが出来なくなるため、リストを再びテストし、次のURLからさらにコピペすることを薦める: http://www.rosinstrument.com/proxy/

おまけ: プロキシの代案

上述した方法は無料であり、それが最大のメリットである。しかし、もっと安定した取り組みを求めている場合は、バーチャルプライベートサーバー(VPS)を手に入れるとよい。大半のウェブホスティングサービスは、VPSを用意しているはずだ。これは、自分専用のIPアドレスを持つようなものだ。多少の料金を毎月求められる可能性もあるが、公開されているプロキシよりも強固であり、手に入れる価値はあるかもしれない。


既に究極のデータ収集マニアになっているはずである。しかし、まだ続きはある。次のチャプターでは、あまり利用されていないキーワードリサーチの方法を紹介する。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 5: Advanced Data Research」を翻訳した内容です。

スクリーミングフロッグ(シリーズ記事第一弾の2番目で詳細に解説しています)で検索上位データを引っこ抜く、というのはナルホドでした。ツイッターのリサーチ方法も良くここまで考えたと唸ってしまう各種ツールの使いこなしぶり・・・筆者の本領発揮な記事でしたね! — SEO Japan [G+]

上級者向けSEOガイド4/9 : ワードプレス攻略

上級者向けにSEOの主要項目を徹底解説していくシリーズ第四弾、ここにきて意外なというか、ワードプレスのSEO攻略法について。SEO Japanでも過去にワードプレスのSEOに関する記事は何度か紹介してきましたが、本シリーズの記事となれば、その究極版と成り得る可能性大。ワードプレスユーザーは是非一読あれ。 — SEO Japan

これまでのチャプターでは、ウェブサイトを最適化する上でのベストプラクティスを幾つか紹介してきた。このチャプターでは、さらに具体的に、ワードプレスに絞って、話を進めていく。ワードプレスは、世界で最も利用者が多いコンテンツ管理システム(CMS)である。事実、私のブログの読者の多くは、ワードプレスを利用している。そこで、チャプター 4では、ワードプレスを効果的に利用する高度なアドバイスを提供していきたいと思う。


1. ワードプレスのサイト向けの高度なインデクセーション(Yoast SEO)

ワードプレスの設定を終えた時点で、大半のユーザーは基本を押さえているはずである。しかし、このチャプターでは、定番プラグインであるYoast SEOでの設定を手順を追って確認し、どのように利用するべきかを考え – さらに、一般的な利用方法を紹介していく。

注意: Yoastの設定で表示されるオプションの一部は、利用しているテーマによって異なる。私はベーシックな無料のテーマを使ってデモを行うが、オプションの中には、皆さんが実際に利用しているテーマとは、若干異なるものもあるかもしれない。

通常の設定

Title setting – 何らかの理由で、タイトルタグの設定が機能していない場合、チェックを入れる必要がある。

Sitewide meta setting – 通常は「noindex subpages of archives」のみにチェックを入れる。

Clean up the <head> – チェックを入れる必要はない。

投稿のタイプの設定

このセクションでは、タイトルとディスクリプションのテンプレートを設定し、また、このパーツのインデクセーションを管理する。

投稿とページの双方をインデックスしてもらう必要がある。インデックスを拒否するケースは稀である。

通常は、メディアをインデックスする必要はない。

タクソノミー

Categories – 通常はカテゴリをインデックスしてもらいたいはずである。

Tags – インデックスする必要性は低下しつつある。グーグルは以前と比べると、タグを結果で返す行為を控えており、また、代わりにページ、投稿、カテゴリを上位にランク付けしてもらいたいはずである。

Format – チェックを外しておく方が安全である。

その他

Author Archives – インデックスさせるべきではない。また、作者が一人のサイトを運営しているなら、無効にしておこう。ユーザーはブログのホームページにリダイレクトされる。

Date Archives – このアイテムに対するインデックスを回避させておきたいが、有効にしておこう。有効にしておくと、ユーザーは投稿を日付ごとに閲覧することが出来るようになる。

XML サイトマップの設定

注記: 他にXMLサイトマップ用のプラグインを利用していない点、そして、テーマがこの機能を有効にしていない点を確認してもらいたい。

Ping – ヤフー!とask.comを両方ともピングすることが可能である。

Exclude Post Types – インデックスしていないアイテムは全て除外するべきだ。要するに: インデックスしていないページのボックスにチェックを入れる必要がある。

カテゴリのディスクリプション

Yoastでは、次のように、メタタグに対するデフォルトのカテゴリのディスクリプションを表示するように、テンプレートを設定することが出来る:

しかし、このディスクリプションをそもそも書き忘れると言うミスを犯す人達が大勢いる。Posts->Categoriesにアクセスし、新しいカテゴリを加えると、Descriptionのエリアが、メタディスクリプションの設定になる。

.htaccessファイルを編集する

このガイドで紹介する全ての.htaccessのメソッドは、Yoast SEOで実装することが出来る。ファイルの編集にアクセスしよう – 追加のコードは一番下に表示されることが多い:


2. ワードプレスの安全対策

これはSEOのみに関連することではないが、セキュリティの問題は、ウェブサイトの利益に大きなダメージを与える可能性がある。SEOは確かに魅力的な取り組みだが、サイトの安全が確保されていることが前提である。

そのため、ワードプレスに利用することが可能な、追加のセキュリティ対策を幾つか紹介する。コードが若干目立つため、以下の手順に不慣れなら、助けを求めてもらいたい。しかし、技術的な作業にある程度慣れている人なら、十分に対応することが出来るはずである。

1. ファイルパーミッションを変更する

以下の2つのコマンドを実施し、ファイルパーミッションを再帰的に変更する。サーバーへのシェルアクセスが必要になる。

ディレクトリ:

find /path/to/your/wordpress/install/ -type d -exec chmod 755 {} \;

ファイル:

find /path/to/your/wordpress/install/ -type f -exec chmod 644 {} \;

2. ワードプレスインクルードを保護する

.htaccessファイルにアクセスする必要がある。繰り返すが、慎重に作業を行い、自信がないなら、テストサイトで実施するか、助けを求めよう。

上に次のコードを加える:# Begin WordPress

例:

# Block the include-only files.
RewriteEngine On
RewriteBase /
RewriteRule ^wp-admin/includes/ – [F,L]
RewriteRule !^wp-includes/ – [S=3]
RewriteRule ^wp-includes/[^/]+\.php$ – [F,L]
RewriteRule ^wp-includes/js/tinymce/langs/.+\.php – [F,L]
RewriteRule ^wp-includes/theme-compat/ – [F,L]

# BEGIN WordPress

このコマンドは、「include」ファイルのディレクトリへの外部からのアクセスを遮断する。

注記: 複数の作者が在籍するサイトでこのセキュリティ対策を実施したいなら、次の列を削除しよう:

RewriteRule ^wp-includes/[^/]+\.php$ – [F,L]

3. wp-config.phpファイルを確認する

因みに、wp-config.phpに、ユーザーネームとパスワードが保存されていることを知っていただろうか?ウェブホストを介して、ワンクリックのインストールオプションを利用したなら、wp-config.phpに直接触れたことは一度もないはずである(自分でインストールする場合、このファイルに接する機会がある)。

オプション A – wp-config.phpのレベルを一つ上げる

wp-config.phpは通常、ルートディレクトリに存在する。

しかし、wp-config.phpをルートディレクトリの1つ上に押し上げることが可能である。例:

オプション B – .htaccessファイルのコード

ファイルを動かしたくないなら、このコードを.htaccessファイルで利用する手がある。

次のコードを.htaccessファイルの一番上に置く:

<files wp-config.php>
order allow,deny
deny from all
</files>

すると、ブラウザで開くことが出来なくなる。


3. ワードプレスのコメントの返信リンクをnofollowにする

appearance->editor->functions.phpの順にアクセスする。

以下のコードをfunctions.phpファイルの一番下に貼り付ける:

// コメント返信リンクにrel="nofollow"を加える

function add_nofollow_to_reply_link( $link ) {
   return str_replace( '")\'>', '")\' rel=\'nofollow\'>', $link );
}


add_filter( 'comment_reply_link', 'add_nofollow_to_reply_link' );

デフォルトのアンカータグの結びを置き換え – nofollowを加えているのは、str_replace()関数である。

ファイルを忘れずにアップデートしておこう。

また、SEOmozのツールバーを使って、リンクがfollowedなのか、nofollowedなのかを手っ取り早くチェックすることが出来る:


4. SEO Smart Linksを使って内部リンクを構築する

- ウェブサイト内部でページをリンクで結ぶ – 内部リンクの重要性は、重々承知しているはずだ。しかし、大半のブログの投稿は、どのような運命を辿るのかご存知だろうか?時間の経過と共に、ホームページとの距離が遠くなり、リンクジュースは薄れていく。新しい投稿やページから継続的にリンクを張っているなら話は別だが。

このセクションでは、SEO Smart Linksプラグインのインストール、設定、そして、利用方法を紹介する。(リンクを張るべきページの特定に関する詳細は、#24 – スクリーミングフロッグを使って、サイトをクロールを参考にしてもらいたい)。

例えば、2012年4月9日に投稿した次の記事から、2011年12月5日に投稿した記事に私はリンクを張っている。

SEO Smart Linksプラグインを導入する 

それでは、このプラグインを詳しく説明していく。SEO Smart Linksを使うと、古い投稿への内部リンク構築が容易になる。

ステップ 1: プラグインをインストールする

次のURLにアクセスする http://wordpress.org/extend/plugins/seo-automatic-links/または、ワードプレスで「SEO Smart Links」を検索し、ワードプレスにインストールする。

ステップ 2: 設定する

ここで混乱が生じる可能性があるが、私が手を貸すので心配する必要はない :-)

リンクが表示される場所を選択する:

  1. Posts
  2. Pages
  3. Prevent links in Headers

        

重要度がとりわけ高いページを持っているなら話は別だが、TargetsとSettingsでは、Postsのみ、Process only single posts(単一の投稿のみ処理)、Process RSS Feeds(RSS フィードを処理)を選択することを薦める。

Ignore posts and pages

  1. ここで、プラグインに特定のページまたは投稿にリンクを張らないように要請することが出来る。

Ignore keywords

  1. ここでは、リンクを張る際に特定のキーワードを避けるよう要請することが可能だ。

次に、特定のキーワードが現れた際に、リンクを張る投稿を加えていく(このプラグインの中で、最も役に立つ機能だと言えるだろう)。

Custom Keywords

  1. Prevent duplicate links
  2. キーワードとURLを入力する
  1. 好きなだけキーワードを加えることが可能である。キーワードの間にコンマを振る必要がある
  2. キーワードからリンクを張りたいURLを入力する
  3. リンクをコントロールしたい全ての投稿に対して、同じ作業を行う

最後に、Limitsを設定していく:

Limits

  1. Max Links – 通常の長さの投稿に対しては、5本に抑えるようにしている。
  2. Max Single – 1
  3. Max Single URLs – 1

External Links

  1. Nofollow – 必ずしも有効にする必要はない
  2. Open in new window – ユーザーエクスペリエンスを考慮して、このアイテムをチェックするようにしている。また、サイトに戻って来てもらえる可能性も高い。

内部リンク構築 – おまけのアドバイス

自力で内部リンクを構築している人に重要なアドバイスを提供する。

  1. スニペット、または、投稿の一番上からリンクを張ろう – こうすることで(短期的に)リンクはホームページに表示され、過去の投稿に対して、重要なオーソリティを送り返すことが出来る。
  2. 上に近ければ近いほど、多くのリンクジュースがもたらされる。
  3. ユーザーを対象としたテストを行った結果、ユーザーは7語前後で構成されたアンカーテキストをクリックする傾向が見られた。

6. SERP/ワードプレス内の日付を削除する

ワードプレスのユーザーから、グーグルの検索結果ページから日付を削除する方法を訊かれることがたまにある。以下の例のように、日付を表示したくないケースが時折発生する。

time()関数を探し、置き換えるには

恐らく、この作業において最も難しいのは、ワードプレスで適切な場所を探し出し、コードを変更するプロセスではないだろうか。ここで探す必要のある関数は‘the_time()’である。

the_time()がよく見つかる場所を3つ挙げていく:

  1. archive.php
  2. index.php
  3. single.php

ワードプレスのファイルを検索する方法

1. FilezillaのようなFTPクライアントを利用する。

2. ワードプレスのテーマのファイルをローカルのコンピュータにダウンロードする(バックアップとして、いずれこの作業を実行するべきである)。

ワードプレスの設定全体ではなく、フォルダーのみをコピーすること:

wp-content/themes/your-active-theme-folder

3. Textwrangler等のテキストエディタを使って複数のファイルを検索する。

Search->Multi-File Searchの順にアクセスする…

Findフィールドに‘the_date’を入力する。

Otherをクリックして、テーマのフォルダにアクセスし、選択する。

テーマの名称を除き、次のようにダイアログと選択を設定する必要がある。

Findをクリックする

‘the_time’を含む全てのファイルがリストアップされた結果が表示される。 これは、ワードプレスのエディタで直接編集する必要のあるファイルである。

全てのファイルでthe_time()を変更する

恐らく、次のように表示されているのではないだろうか:

<?php the_time('F jS, Y') ?>

次のコードに置き換える:

<script language="javascript" type="text/javascript">document.write("<?php the_time('F jS, Y') ?>");</script>

仕組み: PHPの関数をJavaScriptで囲んでいる。グーグルは、ディスクリプションに対する日付を引き出す際は、JavaScriptを利用しない。そのため、ユーザーには表示するものの、グーグルには読まれない状態を作り出すことが出来る。


7. オリジナルの作者経歴ページを作成する

ワードプレスのデフォルトの“author archive”は、当該の作者が投稿した記事を全てリストアップしているだけである。私のオーサーページ: http://www.quicksprout.com/author/admin/ は、投稿した記事のリストである。そのため、私はインデックスを回避している。

独自のオーサーページの効果が最も高いのは、複数の作者が在籍するブログである。作者が一人しかいないサイトを運営しているなら、「about」ページを作った方が無難である。それでは、数名のライターが存在するサイトを運営していると仮定して、指導していく。

以下の5つのステップを踏むことになる:

ステップ 1 – ファイルの設定

ステップ 2 – 既存の作者を探す

ステップ 3 – 草稿の作成

ステップ 4 – 変数

ステップ 5 – まとめる

完全なコードのサンプル

ステップ 1 – ファイルの設定

author.phpを編集する必要がある。

appearance->Editorの順番にアクセスし、author.phpを探す。

デフォルトのテーマ、twentyelevenとtwentytenにはauthor.phpファイルが用意されている。/span>

見つかったなら、これから編集していくので、バックアップを作っておく。

見つからなかったら、archive.phpのコピーを作り、名前をauthor.phpに変更する。

最後に、編集しやすいように整理する:

新しいバージョンのauthor.phpをテキストエディタで開く(自信があるならapearanceのエディタで全て実行することも可能だが、薦められない)。

betweenget_header()からget_sidebar()までを削除する。

ステップ 2 – 既存の作者を探す

次に、コードを加えて、既存の作者を見つける必要がある – 次のコードを利用しよう:

<?php
$curauth = (isset($_GET['author_name'])) ? get_user_by('slug', $author_name) : get_userdata(intval($author));
?>

ステップ 3 – 草稿

これはテクニカルな分野ではないが、作者ページのレイアウトのラフな草稿を作っておくことを薦める。こうすることで、変数の設定が楽になる。テキストエディタの中で、草稿を作ることが可能だ。

コードを入力する前に、どのように情報を表示するのかを理解する上で大いに役立つ。

ステップ 4 – 変数

次に、表示したい情報に基づき、コードを構築する上で必要な変数を取得する。

以下にauthorの変数を全て挙げていく:

  1. $curauth->aim;
  2. $curauth->description;
  3. $curauth->display_name;
  4. $curauth->first_name;
  5. $curauth->ID;
  6. $curauth->jabber;
  7. $curauth->last_name;
  8. $curauth->nickname;
  9. $curauth->user_email;
  10. $curauth->user_login;
  11. $curauth->user_nicename;
  12. $curauth->user_registered;
  13. $curauth->user_url;
  14. $curauth->yim;

必要な変数は次の通りだ:

  1. $curauth->nickname; (名前を表示するために利用されることが多い。displaynameを利用することも出来る)
  2. $curauth->user_url;
  3. $curauth->user_description;

ステップ 5 – まとめる

注記: 恐らく、実際のHTMLとCSSのスタイリングは、この例とは若干異なるだろう。この例は、コードを構築する様々な方法の一つに過ぎない。

初めに、作者の経歴情報を掲載する – これはあくまでも例である。

HTMLに慣れているなら、問題なく変数を追加していくことが出来るはずだ。

次の情報を表示したいなら:

<h2>About: Neil Patel</h2>

実際の名前を変数とphpラッパーに置き換えればよい。つまり、次のように ニール・パテルを<?php echo $curauth->nickname; ?>に置き換えることになる:

<h2>概要: <?php echo $curauth->nickname; ?></h2>

以下にコード全体の例を掲載する:

<h2>概要: <?php echo $curauth->nickname; ?></h2>

   <dl>

       <dt>ウェブサイト</dt>

       <dd><a href="<?php echo $curauth->user_url; ?>"><?php echo $curauth->user_url; ?></a></dd>

       <dt>プロフィール</dt>

       <dd><?php echo $curauth->user_description; ?></dd>

   </dl>

次にループを開始し、投稿を配置していく。コードの例を、説明と共に下に掲載する:

上のセクションと同じように – HTMLを作成するものの、ワードプレスの変数に並べる必要がある。

完全なコードの例

以下にauthor.phpファイルの完全なコードの例を記載する。テーマに合うように、コードの一部を少し変更する必要があるかもしれないので注意しよう。

<?php

get_header(); ?>

<?php

        $curauth = (isset($_GET['author_name'])) ? get_user_by('slug', $author_name) : get_userdata(intval($author));

?>

<!–Author Bio Box–>

<h2>概要: <?php echo $curauth->nickname; ?></h2>

   <dl>

       <dt>ウェブサイト</dt>

       <dd><a href="<?php echo $curauth->user_url; ?>"><?php echo $curauth->user_url; ?></a></dd>

       <dt>プロフィール</dt>

       <dd><?php echo $curauth->user_description; ?></dd>

   </dl>

<h2>作者 <?php echo $curauth->nickname; ?>:</h2>

   <ul>

<!– The Loop –>

   <?php if ( have_posts() ) : while ( have_posts() ) : the_post(); ?>

       <li>

           <a href="<?php the_permalink() ?>" rel="bookmark" title="Permanent Link: <?php the_title(); ?>">

           <?php the_title(); ?></a>,

           <?php the_time('d M Y'); ?> in <?php the_category('&');?>

       </li>

   <?php endwhile; else: ?>

       <p><?php _e('No posts by this author.'); ?></p>

   <?php endif; ?>

<!– End Loop –>

   </ul>

</div>

<?php get_sidebar(); ?>

<?php get_footer(); ?>


8. WP-Super Cacheを利用する

WP Super Cacheは、重いPHPファイルの代わりに、静的なHTMLページを生成する。こうすることで、サイトのスピードが大幅に改善される。このプラグインの設定は、特に初めて利用する場合、割と難しい。そのため、この時間を節約する優れたプラグインの最善の設定を、手順を追って説明していく。

プラグインの参照資料が必要なら、次のURLにアクセスして、専用のワードプレスのページを参考にしよう: http://wordpress.org/extend/plugins/wp-super-cache/

似たような名前のプラグインが幾つかあるので、プラグインインストーラで選択する際は、適切なプラグインかどうか確認してもらいたい:

インストールを終え、プラグインを有効にしたら、タブで重要な設定を行っていく。それでは、手順ごとに説明していく。

なかなか見つからないなら、settings->WP Super Cacheの順にアクセスしていこう。

タブ 1 – Easy

このタブは名前の通り、簡単である。キャッシングを有効にするだけでよい。

タブ 2 – Advanced – 設定の選択

次のオプションを選ぶ:

  1. Cache hits to this website for quick access(アクセスをスピードアップさせるための、このウェブサイトに対するキャッシュヒット)
  2. Use PHP to serve cache files(PHPを使ってキャッシュファイルを提供する)
  3. Compress pages so they’re served more quickly to visitors(ビジターにより早く表示するため、ページを圧縮する)
  4. Don’t cache pages for known users(既知のユーザーに対してはページをキャッシュしない)
  5. Cache rebuild(キャッシュを復元する)
  6. Mobile device support(モバイルデバイスに対応する)
  7. Extra homepage checks(追加のホームページのチェック)

キャッシュが機能していることを確認する

先に進む前に、この時点で、キャッシュが適切に機能していることを確認しておきたい。また、プラグインを設定する際は、定期的にウェブサイトにアクセスして、何も壊れていないことをチェックするべきである。

キャッシュをチェックするには:

  1. サイトのページを訪問する
  2. ソースを見る
  3. 一番下までスクロールする
  4. コード内のWP Super Cachingのコメントを探す:

タブ 2 – Advanced – ガレージコレクションの設定

ガレージコレクションを設定することで、古いファイルや過去にキャッシュされたファイルが削除される頻度をコントロールすることが出来る。要するに:

  1. 頻繁にアップデートされるサイトは、頻繁にガレージコレクションを実施する必要がある。
  2. 一方、頻繁にアップデートされないサイトは、ガレージコレクションをそれほど頻繁に実施する必要はない。

設定のオプションの説明

ガレージコレクションに対する選択肢は2つある:

  1. timerは、定期的なインターバル(秒)で実行するスケジュールを組む。この選択肢は、頻繁にアップデートされるサイトに向いている。
  2. clockは、毎日一連の決められたスケジュールに沿って実行する – 1日に2回、または、1時間に1回。これは、アップデートされる頻度が少ないサイト向きの選択肢である。
  3. eメールで通知を受けることも出来る。

それでは、2つの異なる設定のオプションを見ていこう。

新鮮なデータを大量に提供するサイト

多くの新鮮なコンテンツを提供しているなら、ゴミ箱を空にする回数を増やし、中断期間を短くすることを薦める。この場合、次のように設定していく:

Timeoutを毎分に設定する(60秒)。そして、timerを90秒ごとに実施するように設定する。こうすることで、新しいファイルが作られる度に、古いキャッシュのファイルを捨てることが出来る。これは頻繁にアップデートされるサイトの基準値であり、状況に応じて、インターバルを調節していってもらいたい。

あまりアップデートされないサイト

これから紹介する設定は、多くて1日に1度しか新しいコンテンツが投稿されないようなサイトに向いている。また、サイドバーにウィジェットやRSSフィードがないサイトもこの選択肢を利用することになる。

        

上の設定は、1日または数週間に1度アップデートされるかどうかのサイトに対する設定である。timeoutを10日間に設定する(864000秒)。このケースでは、clockを使い、インターバルをtwicedaily(2回/日)に設定している。サイトに適切な時間を選んでもらいたい。新しいコンテンツを夜に投稿する傾向があるなら、- 10:00pmに実施し – 新しいコンテンツを投稿した直後にゴミ箱を空にして、再びキレイな状態を保つために、10:00amにも実施することを薦める。

ガレージコレクションを無効にする

何らかの理由で、ガレージコレクションを無効にしたくなったら、timeoutをゼロにする。


9. ワードプレスのプラグインリスト

最後に、実践的ではないが、私自身が実際に役に立つと感じた貴重なワードプレスのプラグインを紹介していく。不完全なリストや標準以下のプラグインを含むリストは無数に存在するが、私の知る限り、これ以上、広範なリストは作成されていない。

注記: このガイドを作成する時点で有効なプラグインをリストアップしているが、皆さんが実際にこのガイドを読む頃までに、役に立たなくなっていることも考えられる :)

これで強力なワードプレスのサイトが出来あがったはずだ。ワードプレスに関しては、オンサイトの最適化の最後のセクションでも取り上げている。次のチャプター「高度なデータリサーチ」では、オフサイトのSEOに取り掛かる。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 4: Word Press」を翻訳した内容です。

いきなりYoast SEOのディープな解説から始まりましたが、かなり細かな設定ができるみたいですね。量以上に質が問われる最近のGoogle、SEO Japanにも早速導入してみたいと思います。その後のhtaccessや安全対策も対策済みの人も多いと思いますが、確認の意味でも読む価値ありの内容。その後も、ホントに痒い所に手が届きすぎるような項目と詳細な解説。。。ワードプレスのSEO、システム的な部分はこの記事一本で120%十分すぎる内容でした。 — SEO Japan [G+]

ビッグデータが私たちの生活を改善する身近な事例集

近年最強クラスのバズワードとして君臨するキーワードの1つであるビッグデータ、定義も限りなく緩いことから人・会社都合で多種多様な解釈がされ様々な自称関連サービスが登場しています。実際にビッグデータを意味ある・効果ある情報として活用できるのか、という点ではまだまだ懐疑的な意見も多いようですが、今回は既に起きている身近なビッグデータ活用事例を幾つか紹介します。 — SEO Japan

ビッグデータは、私たちが自由にアップロードしたり、共有したり生成したりしている大量のデータの流れを処理し、ユーザーに関する情報を集め分析するための広く認められた手法としての地位を確立している。高性能の分析と組み合わさって、組織や調査グループが、データそのものから推測される実際のユーザーパターンに基づいて製品またはサービスを改善することを可能にする。また、それは、デジタルテクノロジー全般において最速で成長している分野の1つでもある。もしあなたがデータアナリストならば、あなたが求めるどんな役職にも足を踏み入れることができる。

これが、第三世界諸国における食料価格の高騰を追跡する能力や、インフルエンザ流行の予測のような、企業分野の外での画期的な仕事につながっている中、もっともっと身近に起きているビッグデータの革命がある。私たちは、パーソナルデータの高性能な追跡と分析によって自分自身についてもっと知ることを推進するムーブメントであるQuantified Selfグループのような人達によって導かれた‘セルフ・トラッキング’現象の台頭を目撃している。

これは、日々の生活の実状にとっては余計なことのように聞こえるかもしれないが、その逆も言えるのだ。私たちが効果的に自分自身と日々の習慣を追跡して、生活の特定の側面や、睡眠パターンや、運動能力や、さらにはセントラルヒーティングをどれくらい消費するかさえも改善することを可能にするアプリやガジェットで市場は溢れかえっている。ビッグデータは、革新的なサービスを提供するために膨大なデータを集めるサービスから、私たちが自分自身のデータを分析&照合する方法まで、私たちの生活において必然的に(大きな)役割を果たすことになるのだ。

自己分析のためのデータ

この分野はすでにNike Run Plusのようなモバイルアプリと共に確立している。このシンプルなモバイルアプリは、地形や天気などの外部要因を考慮しながら自分の平均ペースや燃焼カロリーを表示し、ランニング界に革命を起こした。ユーザーの負担は最小限に抑えられている:走り始めと走り終わりにタップして、自分のヒストリを完成させるだけで、自分の向上を記録することが可能なのだ。

この自己分析のテーマを拡大したMood Pandaは、あなたが特に喜んだり落ち込んだりしたときなどのパターンにスポットを当てて、気分を追跡することができる。基本的に、これはスマートデータを使用して、あなたをハッピーにする手助けをする。気分ダイアリーの取り組みによって、Mood Pandaが実際に成し遂げたことは、日記というアイディアを用いてそれをスマートフォン用に簡単にアップデートし、そこであなたはより詳細な洞察を手に入れることができるというものだ。

他のこういった製品と同様、それはあなたが実際にデータを使用する場合に限ってとても役に立つ。つまり、もしあなたが日曜日(恐らく、夜遊びをした次の日)に落ち込むことがよくあることに気が付いたなら、もしくは運動をしている時に特にハッピーであることに気が付いたなら、悪いものを除外して良いものだけを取り入れることができるのだ。

お金の節約

家計に関するお金を節約するためにデータを使用するというのはどうだろうか?OPowerはこれの良い例であり、未来の賢い家庭を垣間見せている。それは本質的には、あなたが供給するデータに反応するWiFiサーモスタットだ。従来の方法(例えば、冬になったら始まるようにセットすると再度変更しない)でサーモスタットのタイマーをセットする代わりに、それが自分の実際の生活習慣に反応するように設定することができるのだ。

夜外出することを決めた場合にヒーターをオンにするのではなく、このアプリを使用して何時に家に着くのかや何時に起きるのかをサーモスタットに知らせることができ、それが自動的に調整してくれるのだ。あなた自身に関するデータを共有することによって、あなたは自分のラジエーターとの関係を築いたということだ。

これは、不必要な暖房を防ぐことによって効率的にお金を節約することを可能にし、また、お金を節約するという考え方が、多くの人達にスマートデータに興味を持たせるだろう。Mintは、2009年にIntuitに買収される前の2006年からこれを実施しており、このサービスの正当性の証になっている。収入、支払い、予期される支出などのあなたが供給するデータを使用することによって、あなたが節約できる分野を提案するのだ。

実際のデータを介してお金を節約するのはどうだろうか?Onavo Countは、スマートフォン上でのデータ使用を追跡して、どのアプリがあなたのデータを消耗していたり不必要にデータを使用しているかを教えてくれる。また、このアプリは、あなたが請求書の月のデータ利用を超えようとしている時には警告もしてくれる。

実際のデータ追跡をするスマートアプリを介して、Onavo Countはあなたの利用に基づいて一番ぴったりなデータプランを推奨するため、お金の節約にも役立つのだ。OnavoアプリはiPhoneとAndroidで手に入れることができる。

スマートなモノ

市場に出ている優れたアプリと同じく、あなたのために考えてくれる‘モノのインターネット(Internet of Things)’にも大きなイノベーションがある。自分の気分に対して睡眠パターンを入力すると寝るのに最適な時間を見つけてくれる睡眠アプリがしばらくの間人気だったが、ある会社が、スマートパジャマを用いてこれをさらに先へと進めた。

Rest Devicesの製品、SleepShirtは、呼吸パターンを基にあなたの睡眠パターンを分析する。集められたデータは自動的にサーバーにアップロードされて、あなたはオンラインでアクセスすることができる。そこでどの晩が最も落ち着かないもしくは眼が冴えているかの洞察を得ることによって、いつ寝るべきかを決めることができるのだ。ここでは、あなたが認識できない寝ている時に生成しているデータにアクセスすることができる。

ビッグデータは個人的な使用に本当に役立つことから、私たちは日々の生活のシームレスな部分になったモノにますます頼るようになる。Pebbleは、あなたに出先でデータ分析をもたらすことを目標をとしているKickstarterプロジェクトだ。Pebble時計は、あなたがSMSや電話を受けた時などに情報を伝えることから始まったが、アプリを通じて機能が開発されてきた。あなたは今、Pebbleがあなたのためにコンスタントに分析できるように常にデータを生成している時計を出先で使用することができるのだ。

これは、手動によるデータ入力や、自分自身でそれを分析することを必要とせずに、あなたのために照合作業や分析をやってくれるモノの可能性を示している。ビッグデータにおけるエキサイティングな進歩だ。もちろん、私たちのために考えてくれる‘モノ’に対しては異論もあるが、日常生活を向上し効率的に改善することに一役を買うデジタルテクノロジーの可能性は、あまりにも大きすぎて無視できない。

この記事は、デジタルマーケティングエージェンシーSimplyZestyと共同で書かれた。

画像クレジット:Jim Watson/Getty Images、The Noun Project: Smartphone by Christopher McDonnell/Money by Hakan Yalcin/Suit by Jon Trillana/Laptop by Daxx Longaphie/Piggy Bank by Marie Poumeyrol/Watch by Simon Child


この記事は、The Next Webに掲載された「Big data made real: Technologies to help improve your life」を翻訳した内容です。

それがビッグデータか!という意見はあるかもしれませんが、何でも否定から入っていてはイノベーションは生まれません。実際、どれも理由はともかくこれまで無かった種類のデータ活用サービスであることは事実です。まだまだ発展過程のビッグデータ活用ですが、さて今後どんな新しいサービスが生まれてくるのでしょうか? — SEO Japan [G+]

よく流布している古いSEO知識について


SEOの知識ほど陳腐化の早い知識もそうそうないのではないだろうか?
ITはそもそもそういう分野であるのだが、特にSEOは陳腐化が早いと思う。

昨日の知識が間違いになってしまっているかもしれない技術分野はそうそうはない。

なので私はSEOの技術を追わず、本質を追求することをお勧めしたい。
詳しくは、正しいSEOの戦略に書いたとおりである。

Googleが目指している究極の場所は決まっているのだから、それを目指してSEOすればいい。
Googleの目指す究極の場所とは、コンテンツの価値を正しく判断して、検索意図に対する適合性の高い順番に正しく並べて表示させることである。

だから、究極的にSEOとは、

ユーザーの検索意図を洞察し、充足させるコンテンツを作ること

に他ならない。

究極的にはSEOとはそのようなものだ。
しかし、SEOのテクニカルな知識を覚えると、大きく有利になる。
究極の場所にたどり着くまでの道のりはまだまだ果てしなく遠いからだ。

だから、Googleに対して正しくコンテンツの価値を評価させるための手がかりを与える必要がある。

手がかりを与えることが現在のSEOである。
Googleはコンテンツを正しく評価したいと思っている、でもできない、だからWebマスターはGoogleに協力してやる必要がある。
正しく評価させる(過大に評価させる方法をSEOと呼ぶ人もいるが、それは最適化ではないのでSEOではない)方法をSEOと言うのだ。

さてようやく本題。

正しく評価させる方法は日々変わる。
それはGoogleが日々進化しているからだ。

昨日までは重要な手がかりであったことが、今日まったく無効になってしまっていたり、場合によっては逆効果になったりすることがある。

そんな古くなったSEO知識を書いてみる。
このブログを読む人は知っている事ばかりかもしれないのだが、世間では意外に知られていなかったりするのだ。

1.meta keywordsは重要である

これはかなり古いSEO知識。
こんなことをいまだに書いている作者や、そんなことを言っているWebコンサルタントがいたらSEOについてはド素人だと思っていい。
今だにいるのだが、まるで化石である。

実際は完全に不要である。Googleはmeta keywordsについて評価していないからだ。

むしろmeta keywordsは設定しないことを推奨したい。
私は競合サイトのSEOに対する取り組みの状況をよく調査するが、まず真っ先にmeta keywordsを見る。
競合にどのkeywordを意識しているかという情報を与えてしまうだけ損だと思うのだ。

2.meta descriptionは上位表示の重要な要因だ

これも1.と同様にかなり古いSEO知識。
まったく順位計算には関係ない。

しかし、全く必要ないわけではない。
descriptionに設定した文章は、検索結果に表示される。
検索キーワードを含めるのではなく、検索ニーズに応じた魅力的な文章を設定することでクリック率が上がり訪問者を増やすことができるため重要なのだ。

当ブログではdescriptionについても設定していない。
これは趣味で運営しているブログであるため、面倒なのでやっていない。
皆さんは是非設定してください。

1.2.についてはSEOのホワイトハットジャパンさんのMETAタグ(keywords description)の使い方に詳しいので、更に情報を集めたい方は読んでみると良いだろう。

3.ディレクトリの階層が浅いほうが上位表示する

今はそんなことはべつにない。
少々前であるが、SEOの噂を検証するという記事を書いたのでご覧いただければと思う。

4.プレスリリースはSEO効果がある

ValuePress@Pressといったプレスリリース配信代行サービスは、様々なWebの媒体にプレスリリースが掲載されることを売り物にしている。

ValuePressは提携サイト数90、@Pressは同じく86と書いてある。
これだけのサイトからリンクされるのであるから、被リンクの効果絶大と言われたものだ。

しかし、現在プレスリリースそのものにSEO効果はないと思った方がよい。
このようなプレスリリース配信サービスを利用した法人の多数のWebサイトについて、検索順位が上昇しているかを継続的に追跡したことがある。

際立った効果はなかったというのが結論である。

Googleはこのような同一の情報からのリンクについて、同一の情報であると認識しているのだろう。
効果がないだけだけだったらいいかもしれない。
しかし、プレスリリースには危険があるかもしれないのだ。

「プレスリリースは広告と同じ、リンクにはnofollowを付けるべき」とGoogleのジョン・ミューラー氏という鈴木謙一氏の先月の記事(2013/07)を読まれた方も多いだろう。

全てのプレスリリースにnofollowがつくわけもない。
そのことが即危険につながることを意味するわけではないのだが、プレスリリースはGoogleの非推奨の行為となってきたと言える。

SEO目的でのプレスリリースは効果は少なく、リスクがあるため今となってはおすすめできない施策となったわけだ。

5.重要なページにのみリンクジュースを流すためにnofollowを用いる

これは渡辺隆広氏のSEMリサーチの下記の記事に詳しい。
SEO:Google、nofollowリンクの仕様変更、「PageRankスカルプティング」無効に

簡単に例を上げて説明してみよう。
あるページの持っているGoogleの評価が100だったとする。

そのページからリンクが10本張られていれば他のページに対して、単純計算で100割る10となり、10ずつ評価が渡るってわけだ。
ところがSEOの観点から不要なページについてはnofollowにすることで、他のページに評価を多く渡せることにより、重要でないページにはnofollowをつけるテクニックだ。
5本のリンクにnofollowをつければ100割る5となり、20ずつ評価を渡せる。

ところが現在では、nofollowをつけても他のページに多く評価は渡らない。
5本のリンクについているnofollowについてリンク数に含まれるが、リンクの評価は渡らない。
つまり計50しか評価はリンク先に渡らず、残りの50の評価は消滅してしまう。


なんでこんな記事を書いたのかというと、このような古いSEO知識が流布しており、しかもそれが比較的新しい情報源に存在していたからだ。
2012年に発行された本であれば、その直前ぐらいまでのSEOの知識については間違いないと普通は思うだろう。

しかし、2012年の情報であるにもかかわらず、5.のPageRankスカルプティングが堂々と書かれていたりなんかするようだ。
だから、私は危険を喚起しておきたいのだ。

ではどうすればいいのか?

確かな情報源から情報を仕入れるしかない。

SEOのテクニカルな問題を解決するために適切な情報の入手先であるが、まずは以下の3冊の書籍をお勧めしたい。

「検索にガンガンヒットさせるSEOの教科書 」は非常に古いが、SEOの本質を理解するためにお勧めできる。
「WordPressで加速させる!ソーシャルメディア時代の[新]SEO戦略マニュアル」は比較的新しいため、テクニカルな意味でもほとんど古くなってはいない。
初心者の人には、読みやすいので一番お勧めかもしれない。

書籍はしかし古くなるのが宿命であり、また実務で困ったときの様々な情報を得られることは少ない。
そんな時はSEOブログを読むことになるだろうが、SEOブログはまさしく嘘八百が書かれている事が多く、どんなオカルトですか?というような奇怪なSEOの知見が書かれていることもある。

そこで以下のブログをお勧めしておきたい。
自分の知りたい情報についてググった時に、これらのブログの中に書かれていることはほぼ間違いなく、更新されている信頼出来る情報源である。

ちなみに並び順はサイト名をエクセルで自動的に昇順に並べ替えを行ったものであり特に意味はないことをお断りしておく。

1.SEOの権威が執筆しているブログ

  1. SEMリサーチ

    http://www.sem-r.com/

  2. SEO Japan

    http://www.seojapan.com/

  3. SEO 検索エンジン最適化 – 自分で施策するための最新SEO情報サイト

    http://www.searchengineoptimization.jp/

  4. web>SEO | SEO辻正浩のブログ

    http://webweb.jp/blog/

  5. パシのSEOブログ

    http://www.jweb-seo.com/blog/wordpress/

  6. 海外SEO情報ブログ

    http://www.suzukikenichi.com/blog/

2.Googleによる公式発表

  1. Google Webmaster Central 日本版 公式ブログ

    http://googlewebmastercentral-ja.blogspot.jp/

3.有用なSEOブログ

  1. Re:very

    http://lblevery.com/blog/

  2. SEMアドバイザーの揺さBrain!

    http://yusabure.sem-adviser.com/

  3. SEO Imagination

    http://holy-seo.net/blog/

  4. SEOだけじゃない Web集客コラム

    http://www.nj-technology.co.jp/marketing/

  5. SEOとその周辺

    http://minnano-seo.com/

  6. SEOのホワイトハットジャパン

    http://whitehatseo.jp/

  7. SEOまとめ

    http://www.seo-matome.jp/

  8. Webutubutu!

    http://webutubutu.com/

  9. WEB戦略ラウンドナップ

    http://www.7korobi8oki.com/

  10. アフィリエイト野郎

    http://afi8.com/

  11. クロスウォークのSEOブログ

    http://blog.mf-seo.com/

  12. バカに毛が生えたブログ

    http://www.baka-ke.com/

  13. ムラウェブドットネット

    http://seo.muraweb.net/blog/

  14. 世界へボカン通信

    http://www.s-bokan.com/blog/

  15. 葬儀社のためのSEO

    http://www.sogisya.net/

※手前みそで恐縮です・・・。


最後にPRであるが、日本人対象の唯一のSEOのGoogle+上のSEOの公開コミュニティ、SEO同好会メンバー募集中である。
初心者歓迎のゆるーいコミュニティを目指して運営中。
現在120名を超え、活発に発言するメンバーが増えてきて盛り上がってきていて面白い感じである。

興味のある方は是非ご参加下さいませ。

iOS7のパララックス効果に最適化された20枚のiPhone壁紙

日曜日ということで、久々の素材集祭りを。今回はiOS7のパララックス効果に最適化されたというiPhone用壁紙を一挙20枚紹介します。実は私も余り使ったことばかりか十分に理解していない機能なのですが 汗、とりあえずどれも美麗な壁紙だったので是非。 — SEO Japan

編集者注: RedditユーザーのDan Bakes (Twitterはこちら)が、わざわざ時間を作って、これら20個のパララックス効果を利用したiOS7の壁紙を集め、ラッキーな読者の皆さんに共有してくれた。是非楽しんで欲しい。そして、iPhoneスクリーンを見る時には私たちのことを思い出して欲しい。

iOS7の新しい‘パララックス’機能は素晴らしいが、一部の壁紙においては、本来あるべき姿ほどには画像がはっきりとしていない。それがRetinaディスプレイでは非常に明らかなのだ。念のために言っておくと、iPhone5およびiPod touch5の壁紙の新しい解像度は1040×1526である。

それぞれの画像をクリックして高解像度バージョンをダウンロードすることもできるし、ここで全てのzipファイルをダウンロードすることもできる。

星雲の壁紙の大部分を作ったTyler Creates Worldsと、型破りな壁紙を作ったMiiiilsをはじめとする壁紙の作成者には大変感謝している。

1 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

2 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

3 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

4 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

5 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

6 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

7 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

8 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

91 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

10 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

11 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

12 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

13 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

14 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

151 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

16 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

17 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

18 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure

19 730x1071 20 parallax iOS 7 wallpapers ready to download for your viewing pleasure


この記事は、The Next Webに掲載された「20 parallax iOS 7 wallpapers ready to download for your viewing pleasure」を翻訳した内容です。

定番なデザインばかりですが、どれも基準以上のセンスの壁紙ばかりでした!お気に入りの壁紙があればダウンロードしてご利用ください。 — SEO Japan [G+]

上級者向けSEOガイド3/9 : schema、エンティティ&セマンティック検索対応

上級者向けのSEOガイドを紹介する記事シリーズ第三弾は、セマンティック検索対応について。相変わらず徹底的に網羅された内容です。知識としては何となく知っていても、本格的に対応している人やサイトはまだまだ少ないのが現状とは思いますが、とりあえずこの記事をブックマークしておけば何かの時には使えそうです。 — SEO Japan

サイトはクロール可能 & インデックス可能になり、スピードも大幅にアップした。 チャプター 3ではさらにギアを上げ、新しい検索の要素を取り上げていく。検索は、セマンティックな“現実に近い”環境に向かって動きつつある。つまり、検索エンジンが人物、場所、映画、会社等の実際の物事の間の関係を理解する環境である。今すぐこの流れに乗り、ウェブサイトに反映していこう。


1. Schema.orgのメタデータを実装する

schema.orgは世界共通のメタデータのマークアップであり、2011年に主要な検索エンジンによって導入された。このマークアップは、ウェブサイト上の意図されたタイプのコンテンツをエンジンに伝えるために用いられている。schema.orgをフル活用していない人達はまだ大勢いる。

ここでは、複数の種類のschemaの実装方法、そして、正確なマークアップをHTMLコードに統合する方法を紹介していく。

パート 1 – マイクロデータの基本的なアトリビュート

  1. itemscope
  2. itemtype
  3. itemprop
  4. itemid
  5. itemref

この5つの要素を例を使って分かりやすく説明する。

以下にschemaのメタデータがない状態のコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>メタデータなしのページの例</title>

</head>

<body>

<section>

<h1>何でもいい</h1>

<span>作者: デレック・シバーズ</span>

<span>Category : business</span>

<a href="http://sivers.org/ayw/">本について</a>

</section>

</body>

</html>

特別なマークアップはどこにも見当たらない、普通のHTMLである。次に、メタデータ付きのコードを掲載する:

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのページの例</title>

</head>

<body>

<section itemscope itemtype="http://schema.org/Book">

<h1 itemprop="name">Anything You Want</h1>

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

</section>

</body>

</html>

一つずつ要素を見ていく。

1. Itemscope

<section itemscope itemtype="http://schema.org/Book">

</section>

bookに関するものは全てitemscopeの要素の間に入る。検索エンジンに「中身はすべて本に関するコンテンツ」があることを伝えている。

2. Itemprop

<h1 itemprop="name">何でもいい</h1>

itempropは本の名前を意味する。

<span>作者: <span itemprop="author">デレック・シバーズ</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<span>カテゴリー : <span itemprop="genre">ビジネス</span></span>

<a href="http://sivers.org/ayw/"><span itemprop="detail">本について<span></a>

また、Itempropは、本の作者、カテゴリ、そして、ジャンルを表す。ここまでは、簡単である。

<span>タグを使って、itemporpの要素を挿入する。

パート 2 – schemaをブログで利用する

恐らく、皆さんの多くは何らかのタイプのブログを運営しているのではないだろうか。ブログにもschemaを利用することが可能である。ワードプレスを用いているなら、テーマの作者を確認し、schemaを利用することが出来るか確認しよう。利用することが出来ない場合、ワードプレスはタグをはぎ取ってしまう。これはワードプレスの設定に左右される。以下に一般的な例を挙げる。

a. schemaのないコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータなしのブログの記事の例</title>

</head>

<body>

<div>

        <h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

b. Schema付きのコード

<!DOCTYPE HTML>

<html lang="en">

<head>

<meta charset=utf-8>

<title>マイクロデータ付きのブログの記事の例</title>

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a> </head>

<body>

<div itemscope itemtype="http://schema.org/Blog">

<h1>…ズルせずに、上位にランクインするオーソリティを構築するためのヒント</h1>

        <p>まず、オーソリティを定義していく – ドメインのオーソリティとは、上位にランク付けさせるドメインのポテンシャルを意味する。ランキングが高ければ高いほど、オーソリティが高くなる。そして、オーソリティが高ければ高いほど、ランキングも高くなる。</p>

        <p>それでは、その方法を紹介していく:</p>

        <p>1. トピックごとにページのグループにリンクを張る</p>

        <p>2. 特定の一つのページにより多くのリンクを張る</p>

        <p>3. ドメインベースの外部リンクを主役のページに送る</p>

        <p>4. キーワードの共食いを避ける</p>

        <p>5. 関連するウェブサイトから、外部のリンクを主役のページにもたらす</p>

        <p>6. リンクをページの上部に配置する</p>

        <p>7. このコンセプトを理解する上で役に立つ図を使った解説</p>

        <p>8. 壊れているページを修正する</p>

</div>

</body>

</html>

c. 要素の説明

1. Rel = Author

HTMLの<head></head>にこのタグを加える理由が知りたい人もいるだろう。理由は、グーグルがこの方法で作者を言及することを認めているためだ。

見ての通り、とてもシンプルである:

<a rel="author" href="https://profiles.google.com/103074333439002308043/about">Bidhan Chatterjee</a>

このコードを<head>に加えた後、グーグルプラスのプロフィールをブログに向ける – この方法は、後で取り上げるグーグルオーサーシップのセクションで紹介する方法と同じである。

2. Intemscope

<div itemscope itemtype="http://schema.org/Blog">

この要素もまた、コンテンツが話題にする やアイテム のタイプを伝えるために用いられる。 

おまけ: ソーシャルシェア用のschema

ソーシャル共有データをschemaに組み込むことも出来る。要素itemprop とinteractioncountが役に立つ。以下に例を挙げる

<meta itemprop="interactionCount" content="FacebookLikes:8"/> <meta itemprop="interactionCount" content="GooglePlus:3"/>

テスト

ここでも、グーグルが提供するリッチスニペットのテスターを使って、マークアップをテストするべきである: http://www.google.com/webmasters/tools/richsnippets


2. 動画のインデクセーション – 動画をschema.orgでマークアップする

schema.orgを使って動画をマークアップすると、クリックスルー率が大幅に改善する。下のスクリーンショットでは、SEOmozが動画のメタデータを使ったことで、SERP内のビジュアルが著しくパワーアップしたことが分かる。

コードを追加すること自体は難易度が高くないが、適切なマークアップを知る必要がある。

始める前に、幾つか前提となる条件を挙げていく:

  1. 動画を自分自身でホスティングしていること(ユーチューブのエンベッドには適応することが出来ない)
  2. HTMLにアクセスし、コードを編集することが出来る

ステップ 1: 通常の動画のコードをページに貼り付ける

典型的な動画のエンベッドコードを以下に掲載する:

<h1>ニール・パテル</h1>

<h2>動画: ブロガー向けの高度なSEO</h2>

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p>SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</p>

ステップ 2: VideoObjectを囲む

<div>でコードを包む

VideoObjectデータを加える

ステップ 3: 基本的なマークアップを加える

以下に基本的なプロパティを挙げていく;

  1. Name
  2. Thumbnail
  3. Duration
  4. Description

「name」「description」のフィールドは、既存のコンテンツを囲む<span>タグの内側に加えられる :

プロパティ「duration「thumbnail 」は、通常、nameの下、そして、実際の動画の前に加えられることが多い<meta>内に掲載される

注記: 「duration」はISO_8601フォーマットを採用している。ISO_8601の詳細は次のURLを参考にしてもらいたい: http://en.wikipedia.org/wiki/ISO_8601

ステップ 4: さらにマークアップを加える

MediaObject(VideoObjectのオブジェクト)に対して、好きなプロパティを加えることが出来る:

  1. associatedArticle
  2. bitrate
  3. contentSize
  4. contentURL
  5. duration
  6. embedURL
  7. encodesCreativeWork
  8. encodingFormat
  9. expires
  10. height
  11. playerType
  12. regionsAllowed
  13. requiresSubscription
  14. uploadDate
  15. width

あるいは、動画専用のプロパティを加えることも可能だ:

  1. caption
  2. productionCompany
  3. thumbnail
  4. transcript
  5. videoFrameSize
  6. videoQuality

以下に[upload date]と[width]と[height]を加えたコードの例を掲載する:

動画のマークアップを加え、競合者に差をつけよう。

完成したコード

<div itemprop="video" itemscope itemtype="http://schema.org/VideoObject">

<h2><span itemprop="name">動画: ブロガー向けの高度なSEO</span></h2>

<meta itemprop="duration" content="T1M33S" />

<meta itemprop="thumbnail" content="neil-patel-video-thumbnail.jpg" />

<meta itemprop="uploadDate" content="2012-04-01T08:00:00-05:00" />

<meta itemprop="width" content="640" />

<meta itemprop="height" content="480" />

<object …>

 <param …>

 <embed type="application/x-shockwave-flash" …>

</object>

<p><span itemprop="description">;SEOおよびマーケティングのエキスパート、ニール・パテルが提供する特別な動画。大量のリードをブログに送り込み、コンバージョン率の7つの秘密を学ぶ。</span></p>

</div>


3. ヤフー!のサーチモンキー RDFa

RDFa マイクロフォーマットは、ヤフー!がより簡単に情報を特定し、分類するために利用するマークアップ言語である。

RDFはResource Development Frameworkの略である。

RDFを使って、コマースサイトの商品、スケジュール & コンテンツを検索エンジンに説明することが出来る。

RDFはHTMLで書かれているのではなく、XML フォーマットが用いられている。

これから、このコードをコンテンツに追加する方法を、幾つか例を使って紹介していく。

パート 1 – 識別子を理解する

resource - URL上に存在するもの全て

property - 名前付きのresource(例えば、ウェブページ上のコンテンツのタイプ) – author、homepage、book、movie等

property value – propertyの特徴、例えば本の作者や映画に出演する俳優

次に「statement」を形成していく。「statement」は、subject、predicate、そして、objectで構成される。

statement[QuickSproutの作者はNeil Patel]は次のようにまとめられる:

subject: http://www.quicksprout.com

predicate: author

object: Neil Patel

パート 2 – 例

1. 全てのRDFはXMLの宣言 & RDFのラッパータグで始まる

2. 次にRDFのシンタックス、そして、データが参照するURLを宣言する:

3. ドキュメントで描写されるアイテムを宣言する

ここでは、具体的なCD「Thriller」を取り上げており、CDが存在するURLを参照している。

4. resourceのpropertyである要素を加える

ラッパータグ<cd:artist></cd:artist>(またはcountry、price等)を使って、参照しているアルバムのpropertyを宣言することが可能だ)。

パート 3 – 完成したコードの例

以下に完成したコードの例を掲載する。ニーズに応じて、この例を利用し、修正することが出来る。

<?xml version="1.0"?>

<rdf:RDF

xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#"

xmlns:cd="http://www.cdstore.com/cd01">

<rdf:Description

rdf:about="http://www.cdstore.com/cd01/Thriller">

        <cd:artist>Michael Jackson</cd:artist>

        <cd:country>USA</cd:country>

        <cd:company>Epic Records</cd:company>

        <cd:price>12.99</cd:price>

        <cd:year>1982</cd:year>

</rdf:Description>

</rdf:RDF>

最後に、バリデータを使って、作品をチェックしよう: http://www.w3.org/RDF/Validator/


4. サイトにダブリンコアを加える

ダブリンコアもまた、ウェブ上のデータを説明するために用いられるメタデータのフォーマットである。ダブリンコアは様々な要素を採用している。その一部を以下に掲載する:
  1. title – resourceに与えられる名前
  2. creator – コンテンツを所有する人物または組織
  3. subject – コンテンツのトピック
  4. description – コンテンツの説明
  5. publisher – resourceを公開した人物
  6. contributor – コンテンツに貢献した人物/span>
  7. date – resourceが公開された日付
  8. type – コンテンツが該当するカテゴリ
  9. format – リソースが提示される仕組み
  10. identifier – URL等のコンテンツに対する数字の識別子
  11. source – コンテンツが引き出された元の場所
  12. language – コンテンツの作成に用いられている言語
  13. relation – コンテンツとその他のresourceとの関係。例えば、当該のコンテンツが、本のチャプターの1つかどうか
  14. coverage – resourceが物理的に置かれている場所
  15. rights – 著作権情報へのリンク

パート 2 – 例

実際のダブリンコアのメタデータの例を掲載する。このコードは、quicksprout.comの仮想の文書を表示する:

<head profile="http://dublincore.org">

<title>ニールパタルがダブリンコアを分かりやすくひも解く</title>

<link rel="schema.DC" href="http://purl.org/dc/elements/1.1/" />

<link rel="schema.DCTERMS" href="http://purl.org/dc/terms/" />

<meta name="DC.Identifier" schema="DCterms:URI"

content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Format" schema="DCterms:IMT" content="text/html" /> <meta name="DC.Title" xml:lang="EN" content="Dublin Core Tutorial" />

<meta name="DC.Creator" content="ニール・パテル" />

<meta name="DC.Subject" xml:lang="EN" content="ダブリンコアのメタタグ" />

<meta name="DC.Publisher" content="I'm Kind of a Big Deal, LLC" />

<meta name="DC.Publisher.Address" content="neil@neilpatel.com" />

<meta name="DC.Contributor" content="ニール・パテル" />

<meta name="DC.Date" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Type" content="text/html" />

<meta name="DC.Description" xml:lang="EN"

content="このチュートリアルは、ニール・パテルが提供する上級者向けSEOガイドの一部です。" />

<meta name="DC.Identifier" content="http://quicksprout.com/fakeitems/dublincore/" />

<meta name="DC.Relation" content="QuickSprout.com" scheme="IsPartOf" />

<meta name="DC.Coverage" content="I'm Kind Of A Big Deal, LLC" />

<meta name="DC.Rights" content="著作権 2012 ニール・パテル 全ての権利を保有" />

<meta name="DC.Date.X-MetadataLastModified" scheme="ISO8601" content="2012-06-01" />

<meta name="DC.Language" scheme="dcterms:RFC1766" content="EN" />

おまけ: ダブリンコアのジェネレータ

投稿済みのウェブページにこの無料のダブリンコアのジェネレータを実行してみよう: http://www.ukoln.ac.uk/metadata/dcdot/


5. グーグルのrel=authorタグを複数の作者が存在するサイトに実装する方法

rel=authorを複数の作者が存在するサイトに実装する方法は2つある。

簡単な方法

この簡単な方法では、リンクを各投稿から、rel=authorを使って、対応するグーグルプロフィールページに向けるだけである。

ステップ 1: 個別の作者のプロフィールに各投稿からリンクを張る

AとBの2本の記事が投稿されたブログを運営していると仮定する。Aを書いたのは私だが、Bは別の作者によって投稿された。この場合、それぞれの投稿に対して、次の作業を実施することになる:

A

オプション A: グーグルプラスのバッジ

先程も申し上げた通り、 https://developers.google.com/+/plugins/badge/personal-configにアクセスしてコードを作成する(自分のグーグルプラスのIDを利用すること)。しかし、この場合、自分が作成した個別の投稿にコードを貼り付けるだけである。

オプション B: rel=authorタグを利用する

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

これも従来のrel=authorタグの利用方法である。名前とグーグプラスのプロフィールのIDを自分のものに置き換え、自分が作成した投稿またはページのみに貼り付ける。

新しい代案: 特別なパラーメタのリンクを利用する

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

作者のプロフィールにリンクを張る方法の中で、これは最も簡単である。上のコード(名前とリンクを自分のものに置き換えること)を作成したページに貼り付けるだけでよい。

B

最適なオプションを選択し、上述のステップを繰り返す。しかし、この場合、ゲストの作者一人一人にauthorのリンクを加えていく必要がある。

オプション A: グーグルプラスのバッジ

グーグルプラスのバッジのコードを https://developers.google.com/+/plugins/badge/personal-configで切り取り、貼り付ける。今回は、ゲストの作者のプロフィールの情報を利用する。

オプション B: rel=authorタグを利用する

ゲストの作者に対するタグの例を掲載する:

<a href="https://plus.google.com/100613060119695637213?rel=author">Guest Author</a>

全てのページで、ゲストの作者に対してこのプロセスを繰り返したら、ステップ 2に進む。

ステップ 2: それぞれの作者が“contributor”リンクを寄稿した全てのブログに張る

サイトに寄稿した作者は、サイトに対するリンクをそれぞれのグーグルプラスのプロフィールの“contributor”のセクションに加える必要がある。“contributor”セクションには好きなだけリンクを加えることが可能であり、どれだけ多くのサイトにコンテンツを提供していたとしても、自分が作者である点を証明することが可能である。

例えば、3つのサイトに寄稿するSujan Patelのプロフィールを見てみよう:

上級者向けのメソッド

ステップ 1: すべての作者にプロフィールページを設定する

この上級者向けのメソッドでは、すべての作者に個別のページを用意する必要がある。次のスクリーンショットを見れば分かるように、SEOmozは巧みにこの取り組みを実施している。

一部のワードプレスのテーマはこの機能を内蔵している。この機能が提供されていないなら、セクション「ワードプレスで作者のプロフィールを自分で設定する」を確認してもらいたい。

ステップ 2: ブログの投稿からプロフィールページへのrel=”author”リンクを加える

作者が1人しかいないブログで、“rel=author”リンクをグーグルプラスのプロフィールに向ける方法を思い出してもらいたい。複数の作者が在籍するブログでは、rel=authorを当該のウェブサイトのプロフィールページに向けることになる。

ステップ 3: 経歴ページからグーグルプロフィールへのrel=”me” を加える

次に、3本目のリンク – 経歴のページからグーグルプラスのプラフィールページへのリンク – を作成する。

このリンクは最後のつながりを確立する。すると次のような鎖が出来あがる:

投稿 (rel=author) -> 経歴/プロフィール (rel=me) -> グーグルプラスのプロフィール

ステップ 4でも説明していくが、この鎖は逆方向でも同じように作用する。

グーグルプラスのプロフィール(contributorリンク) -> 経歴/プロフィール

ステップ 4: グーグルプロフィールから、作者の経歴ページに逆にリンクを張る

現時点で、リンクをグーグルプラスのプロフィールから、寄稿するサイトに追加する方法には、既に慣れているはずである。

この最後のステップでは、リンクが、自分が寄稿しているウェブサイトの経歴/プロフィールのページ直接向けられている点に注目してもらいたい。私のグーグルのプロフィールからSEOmozに戻るリンクは次のようになる:

http://www.seomoz.org/users/profile/361137


6. グーグルのrel=authorタグを作者が1人のサイトに実装する

作業に取り掛かる前に: グーグルプロフィールを設定する

この時点で、まだグーグルプロフィールを設定していないなら、今すぐに設定してもらいたい。これは、グーグルプラスのページを作る取り組みと同じぐらい重要である。

作者のプロフィールを設定すると言うコンセプトは、基本的に2つの場所にリンクを張ることを意味する。次のようにウェブサイトからグーグルプロフィールに相互にリンクを張ることになる:

ウェブサイトの全てのページ (rel=author) -> グーグルプラスのプロフィール

グーグルプラスのプロフィール (contributor) -> ウェブサイト

一度全てのステップを踏めば、割と簡単に実施することが出来るが、知っていてもらいたい複数のオプションと細かい設定があるので、紹介していく。

ステップ 1: rel=authorをサイトに加える

オプション A

グーグルプラスのバッジをサイトにインストールする

https://developers.google.com/+/plugins/badge/personal-config 

上のスナップショットに表示されているように、コードを取得し、サイトの掲載したい場所に貼り付ける。ワードプレスを利用している場合、サイドバーのウィジェットに通常は掲載される。

自分のグーグルプラスのプロフィールのIDを利用すること。

オプション B

サイトの全てのページからグーグルプラスのプロフィールにrel=authorのアトリビュートを使ってリンクを張ることが出来る。

これはオーサープロフィールが導入された時に、初めて利用することが可能になった方法である。

ブログの全てのページの自分の名前から、グーグルプロフィールにリンクを張る必要がある。

ワードプレス等のコンテンツ管理システムを利用し、自分の名前が記入された「about」ボックスを利用することが出来るなら、フッターやサイドバーのウィジェットを介して、この作業を簡単に実施することが可能である。

以下にコードを掲載する。サイドバーやフッターに切り取り & 貼り付けよう:

<a href="https://plus.google.com/109412257237874861202?rel=author">Neil Patel</a>

当たり前だが、自分の名前とグーグルプラスのプロフィールのIDを利用する必要がある。

最新の代案 – ステップ 1: 特別なパラメータのリンク

ブログのページからグーグルのプロフィールにリンクを反対に張る、この新しいシンプルな方法はあまり知られていない。これは、rel=authorが初めてリリースされた際に、HTMLを編集することなくリンクを実装する簡単な方法としてデビューした。

まず、作者の名前がサイトのページに表示されている点を確認し、次のリンクに変える:

<a href=”https://plus.google.com/112759904453577892472?rel=author>+Neil Patel<a/>

私の名前の前に+が記されている点に注目してもらいたい。これは、URLの最後に特別なパラメータを利用していることをグーグルに伝える上で効果がある。ここでもやはり、自分のグーグルプラスのプロフィールのURLを利用してもらいたい。

このメソッドでは、rel=authorアトリビュートやグーグルプラスのバッジを利用する必要がない。

3つのどのメソッドを利用していても、これで、グーグルのプロフィールをサイトに向ける準備は整ったことになる。

ステップ 2: グーグルのプロフィールからサイトにリンクを返す

ログインして、プロフィールページにアクセスし、Edit Profileをクリックする。

プロフィールの“contributor”セクションを利用する

ブログをリンクとして加える

リッチスニペットのテストツールを使ってテストを行う - http://www.google.com/webmasters/tools/richsnippets

するとオーサーシップを正確に実装したかどうか、そして、SERPでページがどのように提示される可能性があるかが分かる。


7. エンティティ検索

エンティティ検索は、まだ生まれたばかりの分野である。現段階では、特定のタイプの人、ウェブサイト、または、企業しかこの機能を利用することは出来ないが、間もなく一般公開される見込みである。

このセクションは、他のセクションとは異なり、コンセプトに焦点を絞って説明していく。

エンティティ検索とは?

「ナレッジグラフ」と呼ばれることが多い。あまり意味を持たない単なるキーワードではなく – 人、場所、そして、物事を結びける。例えば、キーワード「boston」は場所を意味するかもしれないが、バンド名でもある。

「boston」に対する現在のナレッジグラフを見ていこう。

このデータは、どのようにしてこの場所に提示されたのだろうか?グーグルは、ウィキペディア等の各種のデータレポジトリからデータを引き出している。

SERPの右側に掲載されるナレッジフラフは、結果のようにエンティティが表示される場所として、最も目立つ場所と言えるだろう。隠されることもあるが – ここにエンティティのタイプの結果が表示される。

インプライドサイト検索

グーグルは長らくこのサイト検索から距離を置いているが、インプライドサイト検索と言う機能が実在する。通常のsite search:に関しては、ご存知の方が多いのではないだろうか。

それではインプライドサイト検索の結果を見ていく:

上位の6つの結果は全てquicksprout.comのページである – グーグルはquicksproutを会社 – エンティティと認知しており、そのため、この検索を上位の検索結果に対するサイト検索に書き換えることが出来る。

related search オペレータ

この機能を利用している人はあまりいないが、quicksproutのrelated: searchの結果を見ていこう。

ご覧のように、ウェブ開発、ブログ、そして、分析のトピックとのquicksproutの関係が明確に表れている。このようにエンティティの関連性は役に立つ。このようなサイトの間では重要なキーワードが共有されているわけではないが – それでもお互いに関連するサイトとして表示される。

この、エンティティとの関連性が、誰にでも当てはまるわけではない点を実証するため、以下に結果がゼロのrelated:searchを掲載する。

自然言語検索

「自然な言語検索」でもエンティティの結果が表示される。これには、質問、文、もしくは、ロングテールのディスクリプションの検索クエリが該当する。

例 – “what’s the capital of florida?”

グーグルは質問に対する答えを返している。これは「キーワード」よりも、フロリダが州であり、タラハシーがフロリダ州の州都であることが最も重要視されている。

グーグルにエンティティとして見てもらうことのメリットが、徐々に理解してもらえるようになっただろうか?ウェブ上で複数の場所で表示され、オーソリティを高める効果が見込める。

次のセクションでは、エンティティベースのソースに選んでもらう上で役に立つ具体的な方法を紹介する。


8. エンティティベースのソースにサイトに加える

一つ前のセクションでは、グーグルにエンティティとして見てもらうことの重要性、そして、エンティティとして出来るだけ多くの関連する情報を持つことの重要性を説明した。それでは、実際にエンティティ検索を活用するにはどうすればいいのだろうか?フリーベースに取り上げてもらう必要がある。

以下に、グーグルがエンティティの情報を得るために利用する場所が掲載された、私の知る限り最も広範なリストを提供する。

  1. abc.state.va.us/Pricelist/RUM_(IMPORTED).html
  2. Adherents.com
  3. ArXiv
  4. Baseball Almanac
  5. Berlin International Film Festival
  6. Books and Writers kirjasto.sci.fi/
  7. bornrich.com
  8. Boston.com
  9. Bureau of Labor Statistics, Unemployment in US
  10. Bureau of Labor Statistics, Unemployment in US Counties
  11. Bureau of Labor Statistics, Unemployment in US States
  12. Câmara dos Deputados
  13. celebritynetworth.com
  14. Center for Responsive Politics
  15. ChefMoz
  16. chickipedia
  17. Claud Butler
  18. croctail.corpwatch.org/
  19. Crore
  20. Crunchbase.com
  21. Database
  22. databasebasketball.com
  23. databaseFootball.com
  24. DatabaseOlympics
  25. DayLife.com
  26. E-LIS
  27. en.citiZENdium.org/wiki/
  28. English Wikipedia
  29. Eurostat, Minimum Wage in Europe
  30. exploredia.com
  31. Facebook
  32. Factual
  33. famenetworth.com
  34. FDIC
  35. Food and Drug Administration
  36. Forbes
  37. France
  38. Freebase
  39. GEBCO Undersea Features Gazetteer
  40. Geographic Names Information System
  41. Geonames.org
  42. German Wikipedia
  43. Google Plus
  44. Healthcare Cost Report Information System
  45. https://protecfuelsaver.com/diesel-fuel-cleaner
  46. https://protecfuelsaver.com/gas-fuel-cleaner
  47. https://protecfuelsaver.com/oil-system-rehab
  48. https://protecfuelsaver.com/PROTEC-Internal-Engine-Cleaner
  49. Hulu
  50. IES NCES Public Library Survey
  51. imdb.com
  52. Infochimps
  53. InstantEncore
  54. Internet Movie Database
  55. Internet Speculative Fiction Database
  56. Internet Speculative Fiction Database
  57. ISO 15924
  58. ITIS
  59. Library of Congress
  60. Library of Congress id.loc.gov/
  61. Lurkmore.ru
  62. MBLWHOI Library
  63. Medpedia
  64. Metaweb topic merging algorithm
  65. Mexican INEGI statistics
  66. Million
  67. MusicBrainz
  68. MySpace
  69. Named entity recognition
  70. National Center for Education Statistics
  71. National Fire Department Census Database
  72. National Oceanic and Atmospheric Administration
  73. Nature
  74. Netflix
  75. Nielsen Company
  76. Official Website
  77. Open Library
  78. Open Library Project
  79. OurAirports
  80. Paragliding Earth
  81. Pocket Statistical Data on Switzerland 2006
  82. Pocket Statistical Data on Switzerland 2007
  83. Public domain
  84. PubMed Central
  85. Quotationsbook
  86. Ranker.com
  87. Reference.com
  88. Securities and Exchange Commission sec.org
  89. Simon Property Group
  90. SkyGrid
  91. Slovak Statistical Office
  92. Stanford University
  93. StarCraft and StarCraft II Wiki
  94. The Football Database
  95. The Hollywood Reporter
  96. The National Institute of Statistics, Spain
  97. The TVDB
  98. The World Factbook
  99. therichest.org
  100. topics.nytimes.com
  101. TVRage
  102. tvrage.com
  103. U.S. Food and Drug Administration National Drug Code Directory
  104. UN Stats
  105. Unified Medical Language System Release 2011AB
  106. United States Census Bureau
  107. United States Census Bureau, Population
  108. United States Department of Housing and Urban Development
  109. United States International Trade Commission
  110. United States Securities and Exchange Commission
  111. Virtual INternet Authority File viaf.org/
  112. Wikipedia
  113. Wikipedia Categories
  114. Wikipedia infoboxes
  115. World Bank, World Development Indicators

フリーベースは、上に挙げた全ての場所からデータを引き出す。それでは、フリーベースに自分のサイトを追加する方法を伝授する。

Freebase

注記: フリーベースへの登録を、ディレクトリへの投稿、または、スパムと一緒にしないでもらいたい。フリーベースは、編集可能な公開されているデータベースである(グーグルが買収したメタウェブが始めた)。リンクを落とす場所でも、投稿を行う場所でもない(いずれにせよ、あまり効果はないだろう)。ここでは、エンティティの情報が完全であり、誤りがないことを確認してもらいたい。

1. アカウントを作成する

2. アカウントを作ったら、Edit Modeを選択する(編集するトピックを閲覧するのが楽になる)。

3. 次にエンティティが存在するかどうか確かめる

何度もエントリする行為は、ひんしゅくを買う(削除される)。ページで、検索ボックスを使って、エンティティが存在するかどうか確認しよう

4. 見当たらなかったら – 「トピック」を探す

トピックは、エンティティが最もフィットするカテゴリである。例えば、ZapposはCompanyに振り分けられ、American IdolはTV Programに分類される。

QuickSproutにはInternet Companyが最も適すると考えられるため、このトピックのページにアクセスする。

5. トピックページにアクセスしたら、「view all」をクリックする

6. 次に「add more topics」をクリックする

7. 再びエンティティに対する検索を行い、確認する – 表示されなかったら、「create new topic」をクリックする

8. リストに新しいトピックが表示される – クリックする

9. Edit Modeに設定しているため(ステップ 2)、新しいトピックに対する情報を追加 & 編集することが出来る

繰り返すが、これはセールスページではない。事実に基づくウィキペディアのエントリのように扱ってもらいたい。


このチャプターはここで終わるが、schemaやエンティティ検索の重要性を深く理解してもらえたのではないだろうか。ウェブサイトを「未来の検索」フレンドリーにする上で役立ててもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 3: New Search」を翻訳した内容です。

相変わらずの充実度でした。余りに種類がありすぎて、どこから対応していけばいいかわからない、、、(スミマセン、正直私も迷います)という意見もあると思いますが、まずは検索結果の表示内容に直接インパクトがありそうなものから徐々に対応していくのが結果も出ますし確実そうですね。 — SEO Japan [G+]

スマホアプリブームの終焉と希望の兆し

世界的に続くスマホ&アプリブームですが、日本でもソーシャルゲームが一時の勢いを失いつつあるようです。海外では元々日本程ブレイクした(=儲かった)ソーシャルゲームサービスはありませんでしたが、それでも世界的なスマホの普及を背景に様々なモバイルアプリやサービス会社が登場し、多額の投資が行われてきました。シリコンバレー在住の著名投資家兼ブロガー、アンドリュー・チェンによると、米国でもモバイル関連の投資は最近一段落しており、その背景にはモバイルビジネスで成功する確率が以前に比べ格段に難しくなっているからということです。今回は彼が考えるその難しさの理由と、将来に対する希望的考察を書き連ねたスマホ関連ビジネスを手がけている人には気になる記事を。 — SEO Japan

モバイルの“古典的な”成長式の崩壊

かつて、モバイルで短期間に急激な成長を遂げるための公式は以下のようなものだった:

  1. 非常に優れたものを作る
  2. 巨大なPRローンチと同時に、Apple/Googleにあなたのことを取り上げてもらう
  3. 自分のアプリがチャートに入るのを見る
  4. それをさらに前へ押し出すために安いインストール広告を購入する
  5. ほら、急上昇だ!(さめのヒレでないことを願う

記憶に残る範囲では過去数年はこれが機能し、物事は上手くいっていた―新しいスタートアップと自営のデベロッパーにとっては特に。しかし、次第にこの古典的な公式は、それに置き換わるものも存在しないままに機能しなくなった。あなたは、よりリッチで大きなモバイルエコシステムがモバイルの成長を達成するための機会を増やすために姿を現したのだと期待するかもしれないが、モバイルにおける最初のけん引力を獲得することはずっと難しくなったのだ。(追伸:もしも、モバイル成長への新しいアプローチを開発することに興味があるなら、私にメールをして欲しい。)

それは単に時間の問題だった。エッセイ‘The Law of Shitty Clickthroughs’の中で私が議論しているように、全てのマーケティング戦略は時間が経つにつれて悪い結果をもたらしていく。マーケティングでは、先行者が勝る(少なくとも最初は)―もしあなたが何か新しいことをすれば、それが新しい種類のクリエイティブだろうと新しい獲得チャネルだろうと、人々は新種の戦術に反応するため、あなたは高いレスポンス率を目にすることになる。しかし、次第にあなたの戦術は業界中の“ベストプラクティス”になるため、顧客はそのテクニックに慣れてレスポンス率は下がる。

モバイルの牽引力をもたらすチャンネルの中で、再び歴史は繰り返したのだ。次のような要因を含め、エコシステムがどのように成熟したのか議論しよう:アプリストアの競争の激化、より高いCPI率、エディトリアル・ダイナミクス、全体的な投資トレンド。

巨大なアプリストアで困難になった製品の差別化

最も明白なことを最初に取り上げよう―アプリの数が非常に増えた。これまで新しいアプリは非消費と戦っていたかもしれないが、全ての主要モバイルカテゴリにおいて、アプリの合計数が非常に増加しているのだ。総数だけを見てみると、2009年~2010年に成功したアプリが、今は4~8倍の競争に直面している。

あなたが写真アプリ、もしくは買い物、メッセージ、ローカル、映画、ニュースのアプリを作っていようと、各カテゴリには2つから3つの非常に質の高い競合相手が存在する。新しいモバイルデベロッパーは、もはやアマチュアの作ったアプリの第一波とは戦っていないのだ。近頃では、それはもっと難しくなっている。

以下は、アプリの数のものすごい増加を示す最近のグラフだ:

インストール毎のコスト(CPI)の増加

最初、アプリインストールにかかる広告費用は比較的安かった。あなたにはたくさんの選択肢があった―モバイルアドネットワーク、やる気を起こさせるインストールプロバイダ、“Free App A Day”サービスやもっと大胆な選択肢まで色々だ。もっと重要なことに、たくさんの企業がそれをしていたわけではなかったので、価格は低かった。

このCPIが、需要の増加と供給の欠如の両方が原因で急上昇したのだ。Appleがいくつかのプロバイダーを禁止したり警告をしたりしたため、ほんの短い間に、有料インストールの供給が縮小した。同様に、モバイルゲームは、iOSとAndroidにおける膨大なマネタイゼーションの可能性を見いだした―彼らは、最大インストールごとに数ドルまで、インストール単価を著しく引き上げた。

以下は、2012年の前半にかけてCPIが上昇するのを示している表だ。ちなみに、今はこれよりも高くなっていると聞いている:

プラットフォーム独自の戦略目標

AppleおよびGoogleストア内のエディトリアルチームは、確実にいくつかのアプリを助けることができるし、実際にそうしている。しかし、それらは、消費者のニーズ、そしてプラットフォームの目標に向けて歪められている。

Appleに関しては、ストア内にある全100万のアプリのニーズを保守点検することよりも、ユーザーがインストールする最初の25のアプリが有名ブランドからの素晴らしい体験であることにより関心を持っているという印象だ。消費者としては、もちろんこれを高く評価するが、それは新しい無名のデベロッパーが市場に参入する助けにはならない。

Googleに関しては、ここ数四半期に彼らと会ったいずれのチームも、彼らがタブレットデバイスに多くの関心をはらっていると言う。彼らは携帯電話でのマーケットシェアを獲得しているが、iPad対Androidタブレットの数字は異なるストーリーを見せている。もしあなたがGoogle Playで取り上げられたいのなら、たとえ市場が小さいとしても、彼らはタブレットアプリを作ることを強く推奨する。また、彼らは、Google+にも多くの関心をはらっているが、それはまた別の話だ。

実験的なモバイルアプリに対する投資が枯渇

投資家たちはモバイル市場全体に対しては今でも楽観的な展望を持っているが、リスクの高い新しい消費者モバイルのスタートアップに資金を展開することには多くの確信があるようには見えない。私の感覚では、‘2009年~2012年の優れた消費者モバイルの実験’が実施され、そこではたくさんのシードキャピタルが幅広いモバイル企業に投入された感じがするが、今そのモチベーションは変化した。

YCombinator Demo Dayの企業の構成がいかに変化したかを見てみるのだ―私が参加した2011年後半のイベントでは、50%以上が消費者モバイルだった。今ではそれは、SaaSやコンシューマーハードウェアや、マーケットプレイスなどだ。モバイルは時々登場するが、もはや主要な焦点ではないのだ。

希望の兆し

上で述べた困難にもかかわらず、私は今でもモバイルの未来に関して非常に楽観的だ。それは今でも、新しい会社を築く上で最高のプラットフォームであるが、私たちは、自分たちが2013年に直面している新しい困難を受け入れて取り組むことを選択しなければならない。過去に機能したことを単に繰り返すだけでは十分ではないのだ―さもなければ、私が以前に書いたように、1999年のように失敗するモバイル企業の新しい世代を持つことになるだろう。

それはますます困難になっているが、モバイルにあるチャンスは今でもコンピュータ業界の始まり以来最大だ。Nielsenが先月(2013年6月)レポートしたように、アメリカ国内のスマートフォン所有は辛うじて過半数を超えている。いくつかのアプリが1億以上のインストールを達成したことは素晴らしいが、数十億のマーケット全体においては、まだ私たちは始まったばかりなのだ。私たちには、今後10年にわたって期待することがたくさんある。


この記事は、@andrewchenに掲載された「Mobile traction is getting harder, not easier. Here’s why.」を翻訳した内容です。

どれも納得ではありますが、よくよく考えるとInstagramやZynga等、一部スマホベースで成功した(Zyngaは微妙ですか)サービスも多いですが、スマホ・モバイル発のビッグ・プレイヤーは余り存在していないですよね。AppleやGoogleがプラットフォームを牛耳っていることもあるでしょうし、FacebookやTwitter等の既存勢力もスマホ化を頑張っていますし。記事では触れられていませんが、スマホ・モバイル初の圧倒的プレーヤーでいえば、LINEやWhat’sApp等のモバイルアプリベースのインスタントメッセンジャーがどこまで成長できるのか、ということでしょうか。記事の最後にもあるようにまだまだ始まったばかりのスマホ・モバイルシーン。今後の展開からまだまだ目が離せません。 — SEO Japan [G+]

AdWords 管理画面にて、グラフのインターバルを変更可能に

AdWords 管理画面のグラフにて、今までは日別の間隔しか表示できませんでしたが、週別・月別・四半期別も選択して表示できるようになりましたという発表が AdWords チームの Google+ (英語) でありました。

日別・週別・月別・四半期別のグラフ選択

下記イメージのように、特に長期間を選択した時にグラフのトレンドが今まで以上に見やすくなると思います。

日別・週別グラフの比較

マイナーチェンジですが、良いですよね♪

内気な僕がプレゼン恐怖症を乗り越えた経緯

サーチエンジンランドから何故か?!プレゼンの仕方に関する記事を。サーチ界隈といえばネット業界でも関連イベントが多く、スピーチやセミナーを頼まれる検索マーケッター&SEOマニアの方も多いでしょう。とはいえ、元々人間より検索エンジンと向き合い続けてきたオタク気質な人種が多いこの分野、人前で話すことが苦手という人も多いでしょう。そんな悩めるあなたのために、かつて同じ道を歩いてきた筆写が語るプレゼン恐怖症を克服する極意を。私もかつてそんな一人だっただけに、共感&参考にできること記事なことは請け負います! — SEO Japan

2011年、私はSMX Advancedでリンク構築に関する講演を行った。私にとっては、初めての講演であった。リンク構築講座を10人前後の前で行ったことはあったが、大勢のオーディエンスの前で話をするのは、初めての経験であった(200-300名のインターネットマーケッターが参加)。私は内気であり、SMXで発表を行うと友達に伝えると、「カンファレンスでお前が講演するのか?!信じられない!」と本気で驚いていた。普段の私を知る人にとっては、当然のリアクションであった。

私はオーディエンスの前でローカルリンク構築に関する15分間のプレゼンを行った。そのプレゼンの最中に、SMXの主催者に事前に送ったスライドが使われていない点に気づいた。私は無理やりプレゼンを進めた。声は震え、緊張はピークに達した。しかも、スライドには、過剰な量の情報が詰め込まれていた。

最低のプレゼンだっと認めざるを得ない。そして、セッションの質が低いことを、他のSMXの講演者にオーディエンスの前で言われ、私は意気消沈した。この人物の友人が講演者に選ばれなかったことが、怒りを買っていた原因だったようだ。当然、実際に他の講演者と比べ、下手なプレゼンに終始した私は、恥ずかしい思いで一杯であった。私は完全に自信を失い、うなだれて家路についた。

さらなる失態

Screen Shot 2012-12-11 at 11.54.52 AM

悲劇はこれで終わらなかった。SMXカンファレンスの翌日、私はホワイトボードフライデー(Mozが主催するホワイトボードを使った、対話形式のプレゼン)でトム・クリッチロー氏と話をする機会を得た。このプレゼンは通常の講演とは異なるものの、オーディエンスは存在する – 私のパフォーマンスを見れば、一目瞭然だ。このインタビューでは、よく話すトム・クリッチロー氏とは反対に、私は「そうですね」を24回連発し、頷いているだけであった。Mozがこの動画を投稿したのは金曜日の午後3時であり、私はお蔵入りになるのではないかと思った。

Screen Shot 2012-12-11 at 11.51.40 AM

本社に戻った私は、自分がプレゼンに向いているとは思えないとCEOに告げた – 私のように、オーディエンスの前で話をすることを苦手としている人もいる。私はキーボードで文章を作るギークなライターであった。ハッキリ言って、プレゼンは私の手に負えなかった。これは、ウィル・レイノルズ氏やランド・フィッシュキン氏のような、外向的な人物が得意とする分野である。

その数ヶ月後、私のもとに、ブルーグラス社の共同ファウンダー、クリス・ウィンフィールド氏からeメールが届き、ブルーグラスタンパでの講演を依頼された。私はプレゼンに関して消極的になっていたが、断ることは出来ず、結局、優秀なマーケッター達の目の前で25分間という長時間のプレゼンを行うことになった。

1年後

1年後、私は再びブルーグラスのイベントに招待され、リンク構築に関するプレゼンを発表した。セッションの終了後、ウィンフィールド氏から、今までで最高の賛辞を受けた ?

「今年は君のプレゼンを何度も拝見させてもらったよ – 昨年と比べて、プレゼンが大幅にうまくなったね。」

私が尊敬するウィンフィールド氏からの言葉は、重みが違う。さらに、参加者からも多くの前向きなフィードバックを頂いた。最高の気分だった。SMXでは軽蔑され、そして、その翌日のホワイトボードフライデーでも失態を犯した頃とは、正反対の気持ちになった。

2011年にブルーグラスタンパで講演を行った際、私はSMXカンファレンスほどの惨敗ではないにせよ、オーディエンスの前で話をするには、多くの改善が必要とされる素人であった。憧れているクリス・ウィンフィールド氏から認められたことで、「パネルに不釣り合いな人物がいた」と罵られる屈辱から解放されたような気分になった。

スピーチを改善した経緯

ross hudgens

ワークショップや鏡の前で話すことで、私は講演のスキルを改善したわけではない。また、特別な治療を受けたわけでもない。今回は、私が得た教訓を伝えたいと思う。皆さんがプレゼン恐怖症を乗り越える上で役に立つことを願っている。

1. 熟知しているトピックのプレゼンのみ引き受ける

SMX Advancedで、私は自分自身が確信を持てない、もしくは、実施したことがない戦略を宣伝していた。このイベントで利用したスライドにも問題はあったが、当時最高の戦略ではなく、パネルをアピールすることに力を入れた私がいけなかった。私は、講演者がトピックを選ぶ権利を持つカンファレンスを信頼している – 講演者は頭の中でいろいろなことを考えており、内容面で最高のプレゼンをオーディエンスに提供することが出来るからだ。SMX Advancedでは、確信が持てないトピックを、未経験者の状態で発表してしまった。その結果、これは、プレゼンの出来に反映されることになった。

ブルーグラスのイベントで発表を行った際、自分が自信を持っているトピックを選ばせてもらった。また、講演経験は浅いものの、当時、このイベントに招待されるきっかけを作った、ブログの記事をプレゼンに活用することが出来た。

1年後、今度はSMX Eastに招かれた際、セッションの説明を行う役目を担っていたが、当初、SMXに提出したプレゼンの内容を修正した – 半年近く前のWPMU.orgのペンギンアップデートからの回復について話をする予定であったが、データの大半は古く、何度も取り上げられたことがあったため、そのまま利用していたら、退屈で、面白味にかけたプレゼンになっていたはずだ。

2. 前向きなフィードバックを吸収した

ブルーグラスタンパのプレゼンの後、前向きなフィードバックが寄せられた。オーディエンスを圧倒するようなプレゼンではなかったが、参加者からの反応は悪くはなかった – 先ほども申し上げた通り、私は自分が重要視し、熟知し、実際に有益なトピックに関する発表を行ったためだ。ちょっとした嬉しい出来事、そして、前向きなツイートによって、講演者は大きな自信を得ることが出来るのだ。

ブルーグラスタンパのプレゼンで「そこまで悪くはない」点を知るようになると、過去の取り組みを改善することが出来るようになった。マルコム・グラッドウェル氏の著書「Outliers」を読み、1万時間ルール(繰り返しが重要)の存在を知った私は、過去の取り組みを反復するようになった。

しかし、「ひどい、とにかく、ひどい」パターンにはまると、トンネルの向こう側が見えなくなってしまう – そのため、改善が見られる点を指摘するフィードバックを吸収する必要がある。ブルーグラスタンパで再びネガティブなコメントを聞いていたら、とっくにプレゼンを諦めていたはずだ。

3. ネガティブなフィードバックから教訓を得た

良質なカンファレンスの主催者は、プレゼン/イベントに関するフィードバックを集める。フィードバックを集めていなくても、自分が失敗した点をカンファレンスの終了後に把握するのは簡単だ。ツイッターの反応が悪い、あるいは、前向きなコメントが少ないのは、失敗した証拠である。また、イベントのツイートを調べていくと、名指しはしていないものの、プレゼンに失望した理由を具体的に挙げる、ネガティブなフィードバックを見つけることが出来るだろう

- 「宣伝色が強過ぎる」と言われる、事実と明言した主張に反対される、あるいは、プレゼンに関する反応がないと言う形で現れることが多い。この断片的な情報から、プレゼンが失敗した理由に関して、有益な見解が得られる。

「宣伝色が強過ぎる」と言われたら、賢く宣伝を行う方法を学んでから、売り込もう。反対意見が出ているなら、自分の知識を見直そう(反対意見が浸透しているようなら – 意見が間違えている可能性はある)。通常、沈黙は、オーディエンスが「使えない、もしくは、実用的な情報ではない」と考えていることを示唆している。

カンファレンスが終わった後、主催者側からフィードバックが送られてくることもあれば、問題を自分自身で感じられることもある。例えば、SMX Advancedの後(そして、前)、情報量が多過ぎたことに私は気づいた – プレゼンを行う直前にこの点を悟り、これが、表示するスライドを間違えるミスの原因となった。完璧ではないが、ブルーグラスタンパでは、このミスを回避するべく全力を尽くした。Distilledが主催するイベント「Linklove」でプレゼンを行う頃には、ほぼこの問題を完全に克服することが出来るようになった。

Screen Shot 2012-12-11 at 12.30.31 PM

Distilledのカンファレンスでは、主催者経由で、下を向く回数が多過ぎると言う指摘を参加者から得ることが多かった。下の写真、そして、Distilledが提供する動画を見れば、よく分かるだろう。Distilledのイベントを統括するリンゼイ・リトル氏からは、次のフィードバックを頂いた:

セッションの内容の評価はとても良かったのですが、スピーチの評価はイマイチでした。この点に関してフィードバックを与えることが出来るとしたら、オーディエンスと直接交流することを心掛け、床を見たり、スクリーンを振り返る回数を減らすことを薦めます。

スピーチに対して自信がない点は明白である。私はこのフィードバックを深く心に刻み込んだ。そして、最近プレゼンを行ったブルーグラスXでは、メリッサ・ファッチ氏から、私のプレゼンのスタイルについて、次のようなフィードバックをもらった:

Screen Shot 2012-12-11 at 12.36.20 PM

前回のカンファレンスのフィードバックを考慮すると、大きく改善していることが分かる。前回のフィードバックを吸収し、行動に反映させることで、次のプレゼンでポジティブなフィードバックを得ることに成功したのだ。

4. 内容に力を入れた

ブルーグラスタンパの後、私は自分のプレゼンがデザインの面で劣っていることに気づいた。私は実際にデザインする作業は嫌いであったため(ただし、デザインを好み、人一倍気にする)、外部のデザイナーを雇い、デザインに投資するしかないと考えた。幸い、才能豊かなPPTのデザイナー、デビッド・クランドール氏と付き合いがあり、LinkLoveで発表するプレゼンのデザインを担当してもらった。決して安くはないが(インフォグラフィックと同等の金額)、金額に値する作品に仕上げてもらった。



確かに、通常のプレゼンテーションに費やす金額よりも高いが、優れたデザインに投資することで、プレゼンの効果を改善し、以前のスピーチに見られた不備をカバーする効果がある点を私は理解していた。絶対に見返りはあると確信しており、実際にその通りになった。

LinkLoveでの講演をきっかけに、クライアントから問い合わせが増える、その他の多数のカンファレンスに招待される等、様々な機会が転がり込んできた。何よりも、ポジティブなフィードバックを得ることが出来た点は大きかった。

LinkLove以降のプレゼンでは、外部のデザイナーを雇っていないが、優秀なメリッサ・コワルチャック氏を含む数名の手を借り、またランド・フィッシュキン氏ジョナサン・コールマン氏等のエキスパートのプレゼンを参考にする努力をしている。 この分野はまだ苦手だが、欠点だとは考えなくなった。

5. 技術を学んだ

スピーチは、経験がない状態で、そして、練習を通して学習することが出来ない状態で、非常に困難な状況に追い込まれる、数少ない取り組みの一つである。そのため、繰り返し実施しなければならなくなるまでは、手探りの状態でスピーチに挑むことになる。当然ながら、その結果、プレゼンを始めたばかりの人は問題を抱えることになる。

プレゼンを行う前に、スピーチに関する記事を読むことは出来るが、それだけでは、効力において重要なポイントを見逃し、効率の悪いプレゼンに終始するのが関の山である。以下に、以前は知らなかったものの、プレゼンを実際に行うことで学んだポイントを幾つか挙げていく :

  • 箇条書きをほとんど、または、全く利用しない。信じられないかもしれないが、実際に、初めてのプレゼンテーションで全力を尽くしたものの、私自身がこの問題を抱えていた。
  • スライドを丸読みしない。スライドの内容、主張する全体的なポイントを反映する程度に留める必要がある。先ほども申し上げた通り、「自分が確信している」点のみを取り上げ、スライドに記載するワードは、20ワード以下に収める努力をしてもらいたい。
  • PPTの完成版をUSBドライブで用意する。SMX Advancedでこの教訓を学んだ。最高のスライドのバージョンを確実に提供したいなら、自分で持ち込むべきである。
  • デザインは骨の折れる作業だが、苦労する価値はある。SEOのエキスパートをはじめ、デザインを苦手にしている人は多い。スライドのデザインは時間のかかる作業だが、実施するべきである。プレゼンテーションの内容とは関係がないものの、確実にプレゼンをパワーアップさせる。自分でデザインすることが出来ないなら、誰かに頼もう。また、- 大きなイメージを1列のテキストと一緒に表示する等 – 簡単な方法でスライドを改善するべきである。ただし、 プレゼンを「優れたコンテンツを作る」でまとめるのだけは止めてもらいたい。個人的にそれだけは許せない。
  • ステージに上がる前に、スピーチを確認する。私は講演の前にプレゼンの練習を行い、3-5回ほど録音している。こうすることで、カンファレンスの制約に関して、無理することなく、流れとタイミングを確認することが可能になる。 また、先ほど申し上げた、Mozのホワイトボードフライデーがサイトにアップされるまで気づかなかった「そうですね」の連発のように、不自然な表現を見つける上でも有効である。今でもプレゼンでは早口で話す傾向があり(2度ほど指摘されている)、今後のプレゼンでは改善していきたいと思っている。ただし、スピーチの内容を大事に考えているため、どうしても少し早口になってしまう。
  • 身動きせずに話す。今でも大勢の人達がこの過ちを犯している。演壇の後ろに立ち、スライドを切り替える度にコンピュータをタップするスタイルは、薦められない。活力に欠け、オーディエンスの注目を失ってしまうからだ。私はブルーグラスXでこのスタイルに少し染まってしまった。ステージが狭かったためだ。それでも、スライドチェンジャーを持ち運んだだめ、両手を動かして、トピックに関して感じたエネルギーを表現することが出来るように工夫した。 講演者側は、ステージ上を移動し、オーディエンスと視線を合わせ、トピックに関して感じるエネルギーと情熱を体現するべきである。

6. スピーチではなく、自分に自信を持つことが出来た

ここ数年の間に様々な出来事に遭遇したが、ステージ上で堂々と話す力は、トピックについて熟知していると確信することで得られている – 傲慢だと感じた方には申し訳ないが、良質なプレゼンを行う上では、絶対に欠かせない要素である。ステージ上で屈辱を味わい、自信を粉々に粉砕する質問を受けるのではないかと怯え、自信を持つことが出来ない、あるいは、人前で話すことが出来なくなることがある。

もっともな懸念であり、心の片隅に置いてもらいたいが、実際にプレゼンを行って、修正することは可能である。

クライアントのサイトを上位にランクインさせているだろうか?ブログの記事を共有し、いいね!してもらっているだろうか?クライアントから問い合わせを受けているだろうか?その全てが全体的な自信につながる。ステージに上がる前に、この自信を築き上げ、確立しておくべきである。

昨年、私はこの自信を得ることに成功し、また、自分の人生においても、自信が持てるようになった。素敵な恋人が見つかり、仕事を辞める勇気が湧き、会社を始めた。また、継続して投稿するブログの記事は、評判が良く、オーディエンスは増加している。その結果、SEOで成功を収めていると言う考えを常に持つことが出来るようになったのだ。

当然、皆さんも同じ概念、少なくとも各自の状況に合わせた概念を再現することが可能である。ただし、壁の前で50回リハーサルするのではなく – ステージではなく、自分自身の生活を改善しなければ、この自信は湧いてこないだろう。

改善は気持ちいい

確実に改善したと私は感じているものの、優秀な講演者だと宣言しているわけではない。この記事は、私が10段階の1から3、あるいは、それ以上に改善していることを宣言するものである。いずれにせよ、改善していることが分かると良い気分になる。過去の私と同じように、人前で話すのが苦手な人達にも同じ気分を味わってもらいたい。

ウィル・クリッチロー氏やランド・フィッシュキン氏のような達人の域に達することが出来るとは思わないが、このインターネットマーケティングと呼ばれる分野を他の人達に教えるために精進していくことだけは間違いない。

興味があるなら、ブルーグラスXで利用した「リンク構築戦略 – 2013年版」のスライドが公開されているので、参考にしてもらいたい。ちなみに、2013年2月22日にポートランドで開催されるSearchFestで、EコマースのSEOに関するプレゼンを私は行う予定である。Inbound.orgでもこの件を取り上げている。


この記事は、Ross Hudgensに掲載された「How I Improved My Public Speaking」を翻訳した内容です。

プレゼン初心者が経験と試行錯誤を通してプレゼンの達人になっていく過程が書かれていて、読み物としても面白かったですし、参考になる点も多かった記事だったと思います、「プレゼンを「優れたコンテンツを作る」でまとめるのだけは止めてもらいたい。」には苦笑してしまいましたっ。後、確かにプレゼンやスピーチに自信を持てるようになると、仕事につながるのはもちろん、様々な心理的・社会的影響が関連してくるのだとは思いますが、何故か自分自身にも自信を持てるようになり、日々の活動がよりアクティブになっていく気もします。筆者のように彼女までできるかはわかりませんが?! — SEO Japan [G+]

起業家のための11のビジネス哲学

米国を代表するカリスマウェブマーケッターの一人、ニール・パテルの上級者向けSEOガイドを絶賛翻訳中ですが、そんなSEOオタクな彼が起業家として成功するためのビジネス哲学を書き下ろした記事を合わせてご紹介。SEOの記事だけ読んでいるとギークを超えた究極ギークにしか思えない彼ですが、そんな彼の起業家としての一面が垣間見え、また何故彼が今日カリスママーケッター、そして成功した起業家でいられるのかも感じ取ることができる興味深い内容です。 — SEO Japan

起業家としてあなたは自分独自の生き方を見つけなければならない…仕事と私生活の両方で。私は、今自分が知っていることを学ぶまでに何年もかかったし、今もまだ学ぶことは終わっていない。

信じられないかもしれないが、私が学んだ最も起業家的な教訓はとてもシンプルなものだ。毎日あなたの目の前にあるのに見逃しているものだ。

それでは、私の起業家人生を変えた11のシンプルな哲学を紹介する:

1.言い訳をせず、改善する。

大抵、物事は自分が思うようにはいかない。売上予測の的を外すことから、時間通りに製品をローンチすることや、取るに足りないことで訴えられることまで。

なぜ物事が思うようにいかなかったのかについて言い訳をするのは自然なことだ。しかし、それでは問題を解決することにはならないため、あなたの役には立たない。

言い訳をする代わりに、問題を解決することに焦点を合わせるのだ。すぐには修正されることはないかもしれないが、あなたが改善をしている限りは、そのうちそこに到達するだろう。

2.自分が疲れた時に止めるのではなく、終わった時に止める。

あなたは起業家であることに疲れ、特に物事がうまくいっていない時には、うんざりすることさえあるかもしれない。長年にわたって私が成功するのに役立ったことは、私が粘り強いことだ。

自分が疲れ切っていようと、今日はもう十分に時間を費やしたと感じようと関係なく、私は物事が終わるまでは止めない。

あなたが止める時は、あなたが失敗する日だ。シュッシュッポッポと音を立てながら進み続ける限り、次第にあなたはゴールに到達するだろう。

3.正直さはとても高価なギフトだ。それをせこい人々に期待するな。

起業家としてあなたは、他の人にフィードバックやアドバイスを期待しなければならない。長年にわたって、私は、一部の人は他の人よりも良いアドバイスをくれるため、全てのアドバイスが同等ではないことを学んだ。

あなたが得ることになる最高のアドバイスは、真実だ。真実は痛みを伴うかもしれないが、それがあなたの時間とお金を節約するだろう。

ただし、あなたの感情を救うことに注意を向ける人々に真実を期待しないこと。それはあなたが自分のゴールを達成するのには役立たないし、単にあなたを引き戻すことになるだけだ。

4.黙って一生懸命働き、成功を自分の胸にしまっておく。

私は、何かを始めた時には見せびらかしたかった。人々に自分の成功について語ったり、友達に見せびらかすためにしゃれた物を購入したり、どうやって“自分がそれを成し遂げた”のかを伝えるのだ。

長期的に見ると、物質的な物の購入は私を幸せにはしなかった。そして、人々に自分の成功について語ることは、私が傲慢であると人々が考える結果となり、さらに悪いことにはそれがより多くの競合相手をもたらした。

自分の成功について人々に語ることについて心配しないことだ。それはあなたの役には立たない。ただ自分の仕事に焦点を合わせ、黙っているのだ。あなたが一番必要としないのは、より多くの競合相手なのだから。

5.順調に進んでいない人々に脱線させられるな。

他の人々によって、脱線させられることは簡単だ。もしも自分の中心となるビジネスモデルに焦点を合わせなければ、あなたは自分が無駄なことをしてどこにも到達していないことに気が付くだろう。

これを避ける一番良い方法は、生活が軌道に乗っていない人々にあなたのビジネスの決定に影響を与えさせないことだ。上手くやりたいのなら、同じような考え方を持った人々と付き合い始める必要がある。生活が軌道に乗っていて成功している人々の周りにいることによって、あなたが脱線させられる可能性は低くなる。

6.全ての成功している人間の裏には、数多くの成功していない時期がある。

人々が私の成し遂げたことに目を向ける時、多くの場合彼らは私が過去数年にわたってそれを成し遂げたように思う。彼らが認識し忘れていることは、私が10年以上起業家をやっているこということだ。

そして、その10年の間に、私は何百万ドルも失い数えきれないほどの間違いをおかし、自分のビジネスに数えきれないほどの時間を注いだ。

大部分の起業家は、最初のスタートアップで大儲けすることはない。多くの人が成功の前に失敗をするのだ。だから、あなたが起業家として前に進み続ける限り、成功の確率は次第に高くなるだろう。

7.誰かがあなたのことを悪く言うとしても、誰もそれを信じないような生き方をする。

ビジネスは現れては消えるが、他の何よりもあなたが守るべきことは、自らの評判だ。あなたの評判は、あなたが将来獲得するかもしれない仕事や新しいビジネスベンチャーに影響を与える。

自分の評判を金よりも価値があるかのように扱うのだ。常に他の人を助け、他の人について決して悪く言わないこと。もし誰かがあなたについて悪く言ったとしても誰もそれを信じないくらいに、親切であり、人の役に立つこと。

8.時に、あなたが自分の夢に従う時、それが他の人が自分の夢に従うことができる扉を開く。

起業家精神はあなたについてのことが全てではない。あなたは、他の人の手助けをせずに自分の夢を叶えることはできない。

あなたが自分の夢に従う時は、あなたがそこに到達するのを手助けしてくれた人々のことを忘れないこと。彼らの夢とゴールが何であるかを見つけ出し、彼らがそれを達成する手助けするのだ。

私とビジネスパートナーは、過去10年にわたって、私たちのチームメンバー全てがそれぞれの夢に手を伸ばすことを継続して手助けしてきた。そして、これが私たちの価値あるチームメンバーの大部分を維持することに役立った。優れた才能を見つけることはとても難しいため、これは重要なことだ…だからあなたも彼らの面倒を見た方がよい。

9.あなたがもがいているからといって、失敗しているというわけではない。

全ての大きな成功は、ある種のもがきを必要とする。価値のあることは簡単ではないのだから、自分の起業家のキャリアが簡単であると期待しないことだ。

あなたは一生懸命に働き、大変な時間を苦労して進み、前に進み続けなければならないだろう。もしも起業家であることが簡単で、どんな困難も必要としないのなら、誰にでもなれる。

だから、あなたがもがいている時には、あきらめずに、トンネルの向こうの光が見えるまで前に進み続けるのだ。

10.開けるのが最も難しいのは、閉ざされた心。

あなたがどんなに優れたセールスマンであろうと、あなたの話を聞きたがらない人もいる。彼らは閉ざされた心を持ち、自分は全てのことを知っていると思っている。

あなたはこのような人々に対して粘り強く挑戦することもできるが、私は開けるのが最も難しいものは閉ざされた心だということを知った。だから、私は自分の時間を無駄にする代わりに、ただ次へと進むのだ

あなたは起業家として、特に始めたばかりの頃は十分なお金や助けてくれる人々もないために、時間に貧窮することになる。だから、いいかい、心を閉ざした人々で自分の時間を無駄にしないことだ。

11.人々が求めるものを手に入れる手助けをすれば、あなたは自分が求めるものを手にすることができる。

私にとって学ぶのに最も長い時間がかかった教訓は、自分が欲しいものを手に入れるためには人々の役に立たなければならないということだ。ビジネスは人間関係が全てで、お返しをせずに人に頼みごとをし続けることはできない。

長年にわたって私は、自分が人々を手助けすると、彼らは私を助けるために全力を尽くしてくれるということを学んだ。そして、もしあなたが見返りを何も期待せずに人々を助けると、人々はあなたを助けるためにさらに多くの力を尽くしてくれるだろう。

全ての人を助けることによって恩送りをし続けるのだ…それが大きな事であろうと小さな事であろうと構わない…。遅かれ早かれ、宇宙がそれを10倍にして返してくれるだろう。

結論

これらは、私が指針としているビジネス哲学のほんの一部にすぎないが、これらがあなたの起業家の旅を通して役に立ってくれると嬉しい。これらは私の人生を変え、実際にそれをもっと素晴らしいものにしたのだ。

あなたはこれらの哲学についてどう思うだろうか?私たちが従うべきその他の哲学はあるだろうか?


この記事は、Quick Sproutに掲載された「11 Business Philosophies to Live and Die By」を翻訳した内容です。

起業家問わず、ビジネスに関わっている人であれば、共感できる部分の多い内容だったのではないでしょうか?成功するには知識や経験だけは足りない、それと同等、いやそれ以上に情熱と信念が重要なんだな、と思わせるアドバイスでした。 — SEO Japan [G+]

上級者向けSEOガイド2/9 : サイトスピードとパフォーマンス改善

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを紹介する記事シリーズ第二弾。今回はランキングへの影響はもちろん、それ以上にサイト内のユーザーアクションにも大きな影響があるといわれるサイトスピードやパフォーマンスの確認&改善方法について。この種の記事はこれまでにも様々な所で紹介されていますが、その中でも網羅度&マニアック度はNo.1クラスの充実した内容です。 — SEO Japan

チャプター 1では、サイトをクロール可能 & アクセス可能にするための方法を伝授した。チャプター 1を完了し、ウェブ上のその他の多くのサイトよりも優れたサイトにすることが出来れば、まずまずの出だしと言えるだろう。

次にさらにレベルを上げ、サイトをスピードアップさせて、より効率良く動かす上で役に立つテクニックを紹介していく。効率を高めることが出来れば、ユーザーエクスペリエンスだけでなく、検索エンジンにとってもプラスに働くはずだ。

このチャプターを読み進めていけば、サイトを期待通りの早さで動かす方法に関するアドバイスを得られるはずである。


1. サイトのスピードを計測する

ページスピード、または、ページのロード時間は、ランキングを少し押し上げる効果が期待できるだけでなく、ユーザーもサクサク動くサイトを好むため、欠かせない要素の一つである。ビジターに早さを提供する取り組みは非常に重要度が高い。

サイトスピードを計測する2つの方法を紹介する。

1. グーグルのPageSpeed Online

2. グーグルのクローム向けPageSpeedプラグイン

1. PageSpeed Onlineを利用する

ステップ 1 – Google PageSpeed Onlineにアクセスする

 https://developers.google.com/pagespeed/にアクセスする

ステップ 2 – ホームページでツールを実行する

すると総合スコアが得られる。ホームページのスコアは、サイト全体の基準として、有効である。

次に、優先順位がつけられた課題のリストを詳しく見ていくことが出来る:

まずは優先順位の高いアイテムと中ぐらいのアイテムに絞るべきである。アイテムをクリックすると、詳細が表示される。

このツールを利用すると、各アイテムに対する詳細な提案が得られる。一般的な問題の解決策に関しては、このガイドの後半で紹介する。とりあえず、ここではツールを使って、問題を診断する。

ステップ 3 – 内部のページでツールを実行する(特にホームページとはスピードが異なる可能性が高いページ)

私のサイト クイックスプラウトには、その他のページとは毛色が完全に異なるページが1つある –  http://www.quicksprout.com/pro/

そのため、PageSpeedツールをこのページで実行し、違いを見つけておく。なぜなら、これはセールスのページであり、重要度が高いためだ。

ステップ 4 – モバイルのサイトスピードをテストする

右上の“mobile”タブをクリックする

内部のページのテストも忘れずに実施すること


2. ページのロードをアナリティクスで追跡する

ページのロードスピードをアナリティクス内部で測定することが出来る点は、ご存知の方も多いだろう。しかし、その他にも幾つかこのアプローチを活用する方法があることは、あまり知られていない。

2つの方法で手順を紹介していく:

1. ワードプレスで計測する

2. ワードプレス以外のサイトで計測する

パート 1 – ワードプレスで追跡を設定する

ステップ 1 – 通常の追跡コードをインストールする

通常の分析追跡コードをワードプレスにインストールする方法、さらには、ページスピードのコードのスニペットをインストールする方法に関しても、既にご存知なのではないだろうか。

ここではGoogle Analyticator プラグインを利用する。

これは基本中の基本だが、ヒントになるはずである。ここに追跡コードをインストールする。

次に、ページスピードを設定する前に、ユーザーの追跡を正確に設定しているかどうかを確認する。念には念を入れよう。

以下のシンプルな3つの手順に従う必要がある:

1. “no”を選択する

2. トラフィックを追跡したくないユーザーにチェックを入れる(私ならadminのみにチェックを入れる)。

3. “Remove”を選ぶ – これが一番簡単な方法だ。

次にサイトスピードの設定に移る。この分析プラグインでは、とてもシンプルな設定方法が用意されている。

“enabled”になっていることを確認する。

簡単過ぎると思った方もいるのではないだろうか。しかし、これはあくまでも上級者向けのガイドである。これで基本の設定はカバーしたので、幾つかさらに重要な機能を加えていく。

ステップ 2 – Sample Rateを設定する

あまり知られていないが、sample rateを設定することが出来る。通常、グーグルアナリティクスは、サイトスピードのデータの大半を測定の対象から外している(デフォルトでは1%のみ)。そのため、、小規模なサイトを運営しているなら、多くの重要なデータを見失っている可能性がある。

Sample Rateは、トラッカーの初期設定の前にインストールする必要があり、適切なボックスを利用する必要がある点に注意してもらいたい。

以下にコードのスニペットを掲載する(Asyncのスニペット):

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字の‘5’に注目してもらいたい。これは、新しい sample rateである – 全ての訪問の5%を指す。一ヶ月に訪問が1万回以下の小規模なサイトの場合、この数字を50、もしくは100に上げても問題ないが、理に適った量のデータの収集に徹してもらいたい。

しかし、サイトが、1日に10000回以上訪問される場合、グーグルは、自動的に1%のサンプルのみを集める可能性がある点を留意しておこう。

出来るだけサイプルの規模を抑えつつも、データを集める上で十分な量に指定することを薦める。

ステップ 3 – ソースコードを確認する

適切に動いていることを確認するため、常にソースコードを確認する癖をつけるべきである(adminとしてコードを閲覧することが許可されないため、ワードプレスにログインしている間は、チェックするべきではない)。

次のスクリーンショットのように、Track Pageviewの上にSample Rateのコードが表示されているはずだ。

パート 2 – ワードプレス以外のサイトで設定する

基本的に同じようなプロセスだが、全ての手順を説明していく。

ステップ 1 – グーグルアナリティクスを探し出す

サイトの設定によっては、ヘッダーを処理する.phpファイルを持っている人もいれば(ワードプレスのように)、ヘッダーが用意された静的なHTMLファイルを持っている人もいる(この場合、全てのファイルをアップデートしなければならない)。

私たちの例ではheader.phpを利用している。

ステップ 2 – ページロード時間のコードを加える

基本的なことだが、ページロード時間のコードを忘れずにアナリティクスに加えておこう:

以下にアナリティクスのコードを掲載する。ページロード時間のコードは太字で表記しておく:

<script type="text/javascript">

 var _gaq = _gaq || [];

 _gaq.push(['_setAccount', 'UA-1589983-1']);

 _gaq.push(['_trackPageview']);

 _gaq.push(['_trackPageLoadTime']);

 (function() {

   var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;

   ga.src = ('https:' == document.location.protocol ? 'https://ssl' : 'http://www') + '.google-analytics.com/ga.js';

   var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);

 })();

ステップ 3 – Sample Rateコードを加える

次に同じようにsample rateコードを加えていく:

再び、次のコードを利用する:

_gaq.push(['_setSiteSpeedSampleRate', 5]);

数字を使って(今回は5)ページスピードを計測するサイトの割合を調節することが出来る。

レポートの場所

次の順にアクセスしていくと、このデータを見ることが出来る:

Content->Overview->Site Speed

次の手順を見過ごす人達が多いので注意してもらいたい。“page timings” ->にアクセスし、“technical”をクリックする。

この画面は、サイトのスピードに何が影響を与えているのかを示している。

アナリティクスの設定をテストする

最後にアナリティクスのクローム用プラグイン Debuggerを使ってテストを行う -

https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna

以上


3. ヤフー!のYSlow プラグインを利用する

ステップ 1 – YSlowをインストールする

 http://yslow.org/にアクセスする。

ブラウザにYSlowプラグインをインストールする(インターネットエクスプローラ以外)。

ステップ 2 – YSlowを開き、実行する

rulesetには3つの選択肢が用意されている:

1. YSlow (V2) – 23 ruleのフルセットを実行する

2. Classic (V1) – 初めの13のruleを実行する

3. Small Site or Blog – 小規模なサイトに適用される14のruleを実行する

1ヶ月間の訪問が1万以下の場合に限って、small site or blogを利用するべきである。1万を超えるなら、YSlow (V2) を選ぶことを薦める。

テストしたページを読み込む。“Run Test”をクリックする。

ステップ 3 – 結果を確認する

Overall performance score – 85(B)を目指そう。

また、結果のタイプでレポートを絞り込むことも出来る。

優先順位付けの戦略として、私ならまずはFに力を入れる。

各レポートには、簡単な説明、そして、ヤフー!のディベロッパーサイトに掲載されている詳細へのリンクが記載されている。

YSlowに返された一つ目のエラーを確認する。

Make Fewer HTTP Request

“This page has 23 external Javascript scripts. Try combining them into one.

This page has 7 external stylesheets. Try combining them into one.

This page has 19 external background images. Try combining them with CSS sprites.”

これは一般的なエラーであり、CSSとJSファイルが最適化、そして、縮小されていないために起きている。

この分野の改善に関しては、”LESSを使ってCSSを最適化する”セクションを参考にしてもらいたい。

それでは、特に簡単な分野の一つ – 大きなイメージの縮小に取り掛かろう。


4. 大きなイメージを見つけて縮小する

大きなイメージは、サイトスピードの低下の要因となっていることが多い。そこで、大きなイメージを見つけ、縮小するための方法を紹介していく。

メソッド 1 – グーグルの画像検索

グーグルの画像検索を使って、大きなイメージを発見することが可能だ。これは、手っ取り早く、簡単に見つけられるイメージを探し出すメソッドとしてうってつけである。。

ステップ 1 – グーグルの画像検索にアクセスする

images.google.com

ステップ 2 – サイト検索を行う

site:quicksprout.comで検索をかけると、グーグルがインデックスした私のサイトのイメージが全て表示される:

ステップ 3 – セーフサーチをオフにする

確実にすべてのイメージを表示させる必要がある。

ステップ 4 – サイズで絞り込みを行う

まずは控えめなサイズ – larger640×480以上を選び、絞り込みをかける。

ステップ 5 – 結果を見る

結果を見る際は、「大きな」イメージになるべきではないにも関わらず、最終的にサイズが大きくなっているイメージを見つけてもらいたい。CSSやHTMLで、望む大きさにサイズが変更されている可能性がある。

以下に結果ページを掲載する。私はこのイメージが気になった:

写真をクリックすると、実際のサイズは遥かに大きいことが分かる。


これは明らかに大きなイメージを手っ取り早く探す手法である。続いて、スケールに応じて、より効果が高いアプローチを紹介していく。

メソッド 2 – スクリーミングフロッグ SEO スパイダーを利用する

スクリーミングフロッグを使って、サイトをクロールし、ファイルサイズごとに大きなイメージを表示させていく。

ステップ 1 – サイトをクロールする

チェックしたいサイトをクロールする。

次にイメージをクリックする。

Over 100kbで絞り込む。

サイズで絞り込みをかける。

.csvにエクスポートする。

スプレッドシートを使って、イメージの縮小プロセスの進捗状況を記録していく。大きなイメージを大量に抱えているなら、この作業には時間がかかるかもしれない。


5. グーグルクロージャーを使って、スピードを最適化する

JavaScriptを縮小して、単一のファイルに変えることで、ウェブサイトのスピードを改善することが出来る。なぜなら、多くの大きなファイルではなく、単一の小さなファイルをダウンロードすれば済むようになるためだ。これから、グーグルのクロージャーツールをインストールし、JavaScriptを全て縮小する方法を伝授する。

  1. グーグルのコンパイラークロージャーサイトにアクセスする
    ウェブサイトのURL: http://code.google.com/p/closure-compiler/
  2. downloadをクリックする
    リンク「compiler-latest.zip」をダウンロードする。
  1. ZIP ファイルを開く

    Mac:
    ZIP ファイルをダブルクリックする。すると、「JAR」ファイルが含まれる同じ名前のフォルダが生成される。

  2. JAR ファイルを全てのJavaScriptが存在するフォルダにコピーする

    この例では、compiler.jarファイルをJavaScriptがあるフォルダにドラッグしている。

  1. コマンドラインのウィンドウを開く

    Mac:
    Finderにアクセスし、 Applications > Utilities > Terminalの順に開いていく。ウィンドウズ:
    Startをクリックし、“command prompt”を入力し、“command prompt”をクリックする。
  2. JavaScriptが保存されているフォルダに変える

    Mac:
    “~/” を入力すると、JavaScriptのフォルダの場所が特定される。

    この例では、私のJavaScriptが、code、os2、public、JavaScriptと言うフォルダのホームディレクトリに存在することが判明している。

    ウィンドウズ:
    “cd \”を入力すると、JavaScriptのファイルが存在するフォルダが明らかになる。
  3. Javaのコマンドを入力して、縮小したJavaScriptのファイルを生成する

    ウィンドウズおよびMac:
    次のコードを入力する: “java -jar compiler.jar –js jquery.js jquery_spinner.js –js_output_file output.js

    “jquery.js”と“jquery_spinner.js”を縮小したいJavaScriptのファイル名に置き換える。順番が重要なら、適切な順序で入力していく。

    output.js”を置き変える

    この例では、jquery.jsと“jquery_spinner.”と呼ばれるプラグインをコンパイルした:

4. 縮小したJavaScriptファイルをプロジェクトに戻す

この例では、列 8を加え、JavaScriptをHTMLファイルに追加した。

5. 最後にテストして、全て動作するかどうかを確認する


6. CSSファイルとJSファイルを最適化する

二つ目のセクションと三つ目のセクションでは、サイトのパフォーマンスを評価する方法を取り上げた。次に、CSSファイルとJSファイルを、「LESS」を使って最適化する上級者向けの方法を伝授する。

LESSは動的なスタイルシートの言語であり、CSSを作成する。ここでは、LESSコンパイラーに自動的にCSSファイルを縮小させ、ユーザーがページをダウンロードするスピードを上げる、高度なテクニックを紹介する。

  1. Lessのアプリケーションをダウンロード & インストールする
    Lessは、CSSファイルを圧縮するための無料のアプリケーションを用意している

    Mac:
     http://incident57.com/less/を訪問し、Less.Appをダウンロードする。

ウィンドウズ:
 http://winless.org/を訪問し、WinLessアプリケーションをダウンロードする。

  1. Lessをコンピュータにインストールする。
    Mac: ダウンロードをダブルクリックし、LessアプリをApplicationのフォルダに移動する。
  1. Lessアプリケーションを開く
    Mac:
    Applicationフォルダをクリックし、Lessをダブルクリックする。
  1. CSSファイルが保存されているフォルダを開き、CSSファイルの名前を「.less」に変える。
    この例では、ワードプレスのテーマのCSSファイルを取り上げ、すべて「.less」に変更している。

    変更前:
    変更後:

  1. Lessファイルを持つフォルダをLessアプリケーションにドラッグする

    この例では、Lessファイルを含むフォルダをアプリケーションにドラッグして移動している:
  1. Click、そして、Compileをクリックしていく
    すると、ダウンロードのスピードアップにつながる、新しいCSSファイルが生成される。
  1. Lessは、開いている間に、自動的にLessファイルをCSSファイルに縮小する。
    アプリケーションが開いている時は、Lessファイルを変換する度に、自動的に縮小版CSSがアップデートされる。

Lessのファイルは通常のファイルと同じように表示されるため、編集することが出来る:

しかし、縮小したCSSファイルは次のように表示される:

この例では、ファイルサイズを2000削減した。大きな違いではないが、小さな最適化を重ねていくことで、ユーザーはより早くサイトをダウンロードすることが可能になる


7. グーグルのApache向けMOD_SPEEDをインストールする

  1. グーグルのApache向けMOD_SPEEDをインストールする

Apacheサーバーでウェブサイトを運営しており、サーバーの設定をモジュールレベルで変更する権限を持っているなら、MOD_PAGESPEEDをインストールして、容易にスピードアップを実現することが可能だ。

警告: このテクニックは難易度が非常に高く見えるが、実際にはサーバーレベルでApacheを設定した経験がある人にとっては、割と簡単である。しかし、経験のない人が自力でこのアプローチを実施してしまうと、ウェブサイト全体がダウンする事態になりかねない。Apacheのモジュールをインストールし、ウェブサーバーをコマンドラインから設定する方法を知っていることが前提である。この方法が分からないなら、経験豊かなプロのウェブ開発者かシステム管理者に任せるべきである。 

MOD_PAGESPEEDの詳細は次のURLで確認してもらいたい: https://developers.google.com/speed/docs/mod_pagespeed/using_mod

Debianベースのサーバーを利用している場合(DebianやUbuntu等):

  1. サーバーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする。

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.deb

    64-bitのマシンの場合は、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_amd64.deb

  3. .debパッケージをインストールする

    コマンドラインに次のコードを入力する:
    dpkg -i mod-pagespeed-*.deb
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    apt-get -f install

RedHatベースのサーバーを利用している場合(RedHat、Fedora、またはCentOS):

  1. サーバーサーにSSHで接続する
  2. mod-pagespeed .debパッケージをダウンロードする

    サーバーが32-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_i386.rpm

    サーバーが64-bitのマシンなら、次のコマンドを利用する:
    wget https://dl-ssl.google.com/dl/linux/direct/mod-pagespeed-beta_current_x86_64.rpm

  3. Yumパッケージマネージャーを使って、“at”をインストールする

    次のコードをコマンドラインに入力する:
    yum install at
  4. 壊れた依存性を修正する

    次のコードをコマンドラインに入力する:
    rpm -U mod-pagespeed-*.rpm

MOD_PAGESPEEDを設定する

  1. 編集するApacheの設定ファイルを開く

    UbuntuまたはDebianを利用しているなら、ファイルは次の場所にある:

    /etc/apache2/mods-available

    CentOS、Fedora、または、Redhatを利用しているなら、ファイルは次の場所にある:
    /etc/httpd/conf.d
  2. pagespeed_moduleのディレクトリを探す。
    IfModuleディレクティブの内側にある。

module per folderを有効または無効にする
サイトの.htaccessファイルに次の列を加える:

ModPagespeedを有効にするには:
ModPagespeed on

ModPagespeedを無効にするには:
ModPagespeed off


8. ブラウザのキャッシング(ワードプレス以外のサイト)

恐らく、皆さんの多くがワードプレスのサイトを運営しているはずである。そこで、パフォーマンスをスピードアップする上で役に立つプラグインを幾つか紹介していく。

しかし、まずは、ワードプレスを利用していない人達のために、スピードを最適化するための技術的な情報を提供する。

ここでは、ブラウザのキャッシングを活用するため、.htaccessファイルを利用する高度なテクニックを幾つか取り上げる。グーグルのPageSpeed Onlineで警告を受けたなら、以下のテクニックを利用して、問題を解決してもらいたい。

注記: .htaccessファイルの編集に慣れている必要がある。編集するべきかどうか分からないなら、ウェブマスターに声をかけるべきである。

ステップ 1 – FTPサーバーにログインして、.htaccessファイルをバクアップする

好きなFTPクライアントを利用するか、または、FileZillaをダウンロードして、利用する: http://filezilla-project.org/

FTPを介してログインする方法をご存知だとは思うが、念の為に簡単に説明しておく:

Host: ウェブサイトの名前

Username

Password

Port: 大抵の場合、ここは空白のままにしておく。

ステップ 2 – .htaccessファイルを探す

このファイルはルートディレクトリに存在する。隠れているファイルを見られる状況にしておく。さもないと、気づかない可能性がある。

注記: 場合によっては、.htaccessファイルを持っていない可能性もあるが、その場合は、新しいファイルを作成すればよい。テキストエディタで新しい文書を作り、名前を.htaccessにする。

ステップ 3 – .htaccessファイルをダウンロードして、バックアップする

次に、.htaccessファイルをダウンロードし、バックアップを保存する。安全に編集するためだ。万が一、ミスがあったら、復元しよう。

FileZillaで、右クリックし、ダウンロードする:

テキストエディタで開く。

次に、‘save as’をクリックし、テキストファイルとしてバックアップのコピーを保存する:

これで、編集する準備が整ったことになる。

ステップ 4 – コードを加える

手順ごとにコードを紹介していく。最後に切り取り & 貼り付けすることも出来るが、手順を追うことで、仕組みを理解することが可能になる。また、個人的に、実際に入力することを薦める :-)

写真ファイル

1. RewriteEngineを有効にする – .htacessファイルでまずこの作業を行うべきである

2. <file>のラッパータグを加える

3. ラッパー内にファイルのタイプを加える

4. キャッシングを生成し、最長時間を1週間に設定するコードを加える

5. 同じコードをその他の写真ファイルのタイプにも加える – .png & .gif

– ここでは、写真のキャッシュの時間は1週間に設定している。写真が変わる頻度、そして、ユーザーが訪問する頻度に応じて、自分のサイトに適切な時間の枠を指定する必要がある。

CSS

コードは基本的に同じだが、CSSでは異なる時間の長さを選んでいる。

するとCSSは1日でキャッシュされるようになる。繰り返すが、期間は、CSSファイルを変更する頻度、そして、ユーザーがサイトを再び訪問する頻度に左右される。

Javascript

JavaScriptのキャッシングのコードも基本は同じだが、ここでは、1ヶ月に設定する。

この期間は、サイトのJavaScriptへの依存の度合い、そして、変更される頻度に左右される。

時間の早見表

以下にそれぞれの時間の枠を秒数で計算した値を挙げていく:

  1. 5分間を秒数にすると = 300
  2. 1日を秒数にすると = 86,400
  3. 1週間を秒数にすると = 60,4800
  4. 1ヶ月間を秒数にすると = 2,629,000
  5. 6ヶ月間を秒数にすると = 15,774,000
  6. 1年間を秒数にすると = 31,536,000(無限に近い)

先程も申し上げた通り、サイトにとって妥当な時間枠をファイルのタイプで組み合わせることも、マッチさせることも出来る。自信がないなら、安全を優先させ、若干時間の枠を短くすることを薦める。


このチャプターで紹介したアドバイスに従い、伝授したテクニックを実行すれば、サイトのスピードは確実に上がるはずである。次のチャプターでは、検索の新しい & 画期的な領域を取り上げていく。競合者に遅れを取りたくないなら、これから紹介するアドバイスに従ってもらいたい。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 2: Site Speed and Performance」を翻訳した内容です。

Pagespeedはもちろん各種ツールのマニアックな解説からして凄かったですが、Google画像検索を使った画像サイズのチェック方法のアイデアなど、筆者のニール・パテル、探究心の塊というかオタク中のオタクというか、、、正にSEOはもちろんウェブマーケを追及するために生まれてきた人間といっても過言ではないような?今後の記事も期待できそうでワクワクしてきた適度なSEOオタクの私でした。 — SEO Japan [G+]

創業者が失敗する最大の理由:プロダクトCEOのパラドックス

創業者が会社を軌道に乗せた後、大きく成長させる上で大きな課題となるのが、創業者が製品開発にいつまでも関わりすぎることによる弊害「プロダクトCEOのパラドックス」。世の中にはスティーブ・ジョブスみたいな製品開発の詳細の詳細までこだわって成功した人もいるわけですが、ジョブス自身がカリスマとなりジョブス=Appleブランドとなった余りに特殊な例でもありますし、現実的にはその拘りが中長期的な成長の足かせになることが多いようです。今回はそんな創業者への製品への拘りにまつわる興味深い話を全米No.1クラスのVCが語ります。 — SEO Japan

If I knew what I knew in the past
I would have been blacked out on your a**
?Kanye West,?Black Skinhead

私は、創業者が自分の会社を経営することを支持していることで有名なため、創業者がスケールに失敗したり、プロのCEOに取って代わられたりするといつも、人々が多くのEメールを私に送ってくる。Ben、何が起きたんだ?創業者の方が優れているのかと思っていたけど?“私が創業者CEOを好む理由”をアップデートするつもりがあるのか?

これらのEメールへの返答:いいや、私はその投稿を書き直すつもりはないが、私はこの記事を書くつもりだ。創業者が自分の作った会社を経営するのに失敗する理由は主に3つある:

  1. 創業者が本当はCEOになりたくない全ての発明家が会社を経営したいわけではない。そして、もしあなたが本当にCEOになりたいわけじゃないのなら、あなたが成功する確率はひときわ低くなる。CEOのスキルは習得するのが非常に困難なため、そうしたいという強い願望がなければ、創業者は失敗するだろう。もしあなたがCEOになりたくない創業者なら、それは構わないが、それを早い段階で把握して自分自身と他の全ての人達を多くの痛みから救うべきだ。
  2. 役員会がパニックになる時には、創業者はCEOになりたいのだが、役員会は創業者が間違いを犯すのを目にして、パニックになり、時期尚早に取り換える。これは痛ましいが、よくあることだ。
  3. プロダクトCEOのパラドックス多くの創業者は、プロダクトCEOのパラドックスにぶつかる。これについて以下に説明する。

プロダクトCEOのパラドックス

ある友人は、容赦なく自分のプロダクトビジョンを追求することによって、記録的な速さで自分の会社を利益ゼロから10億ドル以上に導いた。彼は、自らの会社のプロダクトプランニングと実行の複雑な詳細に密接に関与することによってそれを成し遂げたのだ。これは、従業員およそ500人に至るまでは見事にうまくいった。その後、会社が拡大し続けると、物事は悪化し始めた。彼は、複雑な製品ラインにわたって団結と文脈を維持した明確なビジョンを持つプロダクト創業者から、気まぐれに思える意思決定者および製品の障壁へと変貌した。これが従業員を苛立たせ、開発を遅くした。その問題を受けて、さらには会社を拡大するのを助けるために、彼は身を引き、全ての主要製品の決定と指示をチームへと委任し始めた。そして彼はプロダクトCEOのパラドックスにぶつかったのだ:プロダクトCEOが製品に大いに関与することにもまして早く会社を破たんさせる唯一のことが、CEOが製品から離れることなのだ

これはよくある話だ。創業者が飛躍的なアイディアを練り、それを築くために会社を始める。そして、そのアイディアを最初に思いついた人として、休むことなく働き、製品の出来栄えがビジョンに合っていることを確実にするために製品の細かいこと全てに関与することによってそれを実現する。製品は成功し、会社は成長する。すると、いつの間にか、CEOは自分なしで従業員がより上手にできることに注意を払い過ぎて、会社の他のことに十分に注意を払っていないと、従業員が文句を言い始める。役員会もしくはCEOコーチが、“従業員を信頼して委任する”ことを創業者にアドバイスする。そして、製品は焦点を失い、ラクダ(委員会によって作られた馬)のように見え始める。そうこうしているうちに、CEOが製品において唯一の世界クラスだったために、彼女が素晴らしい製品指向のCEOからくだらない汎用CEOへと事実上変身したということが判明する。私たちには新しいCEOが必要なようだ。

どうすれば私たちはそれを防ぐことができるのだろうか?製品指向の優れた創業者/CEOのほぼ全てが、そのキャリアを通して製品に関与したままであることが分かっている。Bill Gatesは、リタイアするまでMicrosoftでの全ての製品レビューに出席した。Larry Ellisonは、今もOracleで製品戦略を実行している。Steve Jobsは、Appleで全ての重要な製品のディレクションに介入していたことで有名だ。Mark Zuckerbergは、Facebookで製品ディレクションを行っている。彼らはどうやって会社を粉々に吹き飛ばさずにそれをやっているのだろうか?

長年にわたって、どの人も、個々の一連のプロダクト・ディシジョンへの関与のレベルを減らしたが、必要不可欠な関与は維持した。製品指向のCEOの必要不可欠な関与は、少なくとも以下のアクティビティから構成される:

  • プロダクトビジョンを維持し推進する – CEOが、全部のプロダクトビジョンを作る必要はないが、製品指向のCEOは自分が選択したビジョンを推進しなければならない。何が為されるべきかを見て、それを適切に準備するという立場にある人間なのだ。
  • クオリティ・スタンダードを維持する – 十分に良い製品とはどれくらい良くあるべきなのだろうか?これは、応えるのが非常に難しい質問であり、それは一貫していなければならないし、文化の一部でなければならない。Steve JobsがAppleを経営していた時、彼は素晴らしい顧客ロイヤルティを作ったスタンダードを推進したため、これを正しく行う力を見るのは簡単だった。
  • インテグレーターになる – Larry PageがGoogleのCEOを引き継ぐと、彼は全てのプロダクトグループに共通のユーザープロフィールに着手することを強いてパラダイムを共有することにたくさんの時間を費やした。なぜか?彼がそうしなければならなかったからだ。CEOがそれを起こさなければ、決して起こらなかった。それは他の誰かの優先事項ではなかったのだ。
  • 人々に自分が持っていないデータを検討させる – 今日の世界では、プロダクトチームは自分たちが作った製品に関する未曾有のデータを持っている。彼らのやりたいようにさせると、彼らは自分が持っているデータの周辺で製品を最適化する。しかし、彼らが持っていないデータはどうなのだ?顧客が想像することのできない作られる必要のある製品や機能はどうなのだ?CEOの出番だ。

しかし、これまでずっともっと深いレベルで製品に関与してきたのなら、あなたはどうやってそんなことをするのか?どうやっていくつかの分野では全く身を引かずに、総体的には体裁良く身を引くのか?ある時点で、あなたは自分の製品関与を正式に構造化しなければならない。密接に関与した動きから、チームから力を奪ったりチームの気を狂わせることなく自分が貢献することを可能にするプロセスへと移行しなければならない。厳密なプロセスは、あなた自身とあなたの強みとあなたのワークスタイル次第だが、通常は以下の要素から恩恵を受ける:

  • 言うのではなく、書く。 製品に求めることがあるのなら、それを完全に書き出すのだ。簡単なメールではなく、正式なドキュメントとして。これが、あなたが最初から最後まで考えたそれらのことへのあなたの関与を制限する働きをしながら、明確さを最大限にする。
  • 製品レビューを正式なものにして参加する。 もし、チームが、ビジョンとの一貫性やデザインの質や統一ゴールに対する進捗などをあなたがチェックする定期的なレビューを予期すべきことを知っているのなら、あなたが廊下で方向転換する場合よりも、力を奪われる感じは少なく感じるだろう。
  • 正式な過程以外で指示を伝えない。個々のエンジニアやプロダクトマネージャーとその場しのぎで話すのは構わないし必要なことだ。あなたは何が起こっているのかの自己理解を継続してアップデートする必要がある。しかし、これらの状況に飛び込んで指示を与えようとする試みは我慢することだ。上で説明したような正式なコミュニケーションチャネルを介してのみ指示を与えること。

必要とされる場所では関与したままで、必要不可欠ではない関与から手を引くのは本当に難しいということは留意すべきことだ。これがほとんどの人が自爆する場所なのだ:手放さないことによって、もしくは手放すことによって。もしあなたが、私の友人が気付いたこと―全てを手放さずに少しを手放すことはできない―に気付いたなら、CEOの変更を検討すべきかもしれない。しかし、そうするのではなく、これをする方法を学ぶのだ。


この記事は、ben’s blogに掲載された「Why Founders Fail: The Product CEO Paradox」を翻訳した内容です。

私も、零細ベンチャーの経営者なりに参考になる話でした。最も私の場合は、最初の成功が不十分なのでそちらを頑張らないといけないわけですが・・・汗 創業者なりの製品への愛情や拘りは製品や事業の成功には絶対不可欠とは思いますが(米国で大手に買収されたベンチャーの製品がその後飛躍的に進化する例って余りないですよね)、成長過程でいかに社員・チーム全体の意思を統一し、全員の力を発揮することによってより優れた製品に育てていくことができるのか、というのは成長前のスタートアップにとっても大事なこととは思いますし、スタートアップ経営者にとっても参考になる記事だったのではないでしょうか? — SEO Japan [G+]

上級者向けSEOガイド1/9 : インデクセーションとアクセシビリティの深い関係

米国のカリスマウェブマーケッター、ニール・パテルが書き下ろした上級者向けのSEOガイドを今日から一章ずつ紹介していきたいと思います。どの記事もその辺のSEO関連書籍を凌駕しかねない充実の内容ばかり。第一回目は検索エンジンにクロールされるための究極のサイト作りと手法についてページネーションから.htaccess、サイトの正しい移行方法から各種ツールの使い方まで徹底解説。 — SEO Japan

上級者向けSEOガイド チャプター 1へようこそ。このチャプターでは、インデクセーションおよびアクセシビリティを考慮してウェブサイトを評価 & 最適化する上級者向けの手法を伝授していく。

ただし、検索エンジンに対するアクセシビリティだけでなく、実際のユーザーに対するアクセシビリティにも配慮する。要するに、このチャプターには、エンジンとユーザーに対するベストプラクティスが網羅されていることになる – まるで、グーグル翻訳をインストールして、AJAXをクロール可能にするようなものだ。

このチャプターで取り上げた手法をウェブサイトに必要に応じて適用すると、並外れてクロール可能 & アクセス可能なウェブサイトに生まれ変わるだろう。

1. 検索エンジンのようにサイトを閲覧する

SEO目的でサイトを最適化する際、検索エンジンの視点に立って考えるべきではないだろうか?また、検索エンジンが見ているように、サイトを見るべきである。ご存知のように“ソース”を閲覧して、ブラウザ向けのHTMLソースを見ることが可能である。しかし、検索エンジンの視点でサイトを閲覧し、技術的なSEOの穴を見つける上で効果が高く、すぐに利用することが可能なメソッドを私は発見した。

ステップ 1: プラグインをインストールする

ここではファイヤーフォックスが便利である。以下にプラグインを挙げる:

ウェブディベロッパー - https://addons.mozilla.org/en-US/firefox/addon/web-developer/

ユーザーエージェントスウィッチャー - https://addons.mozilla.org/en-US/firefox/addon/user-agent-switcher/

ステップ 2: ファイヤーフォックスでJavaScriptを無効にする

「preferences」 & 「content」にアクセスし、「Enable JavaScript」のチェックを外す。

メニュー、リンク、そして、ドロップダウン等のアイテムをJavaScriptを使わずにグーグルボットに提供する必要があるため、この作業を実施する。JavaScriptに埋められていると、グーグルはクロールすることが出来ないのだ。

ステップ 3: ウェブディベロッパープラグインを使ってCSSを無効にする

グーグルボットがHTMLの順番でコンテンツをクロールするため、CSSを無効にする必要がある。CSSのスタイリングは、コンテンツの順序を曖昧にしてしまうことがあるためだ。

ステップ 4: ユーザーエージェントをグーグルボットに設定する

ステップ 5: ウェブサイトを立ち上げ、閲覧する

クイックスプラウトはグーグルボットの目にはどのように見えているのだろうか?

これはページの上部のみである(すべてページを掲載すると、とても長くなってしまう)。しかし、クリック可能なリンクとしてメニューが表示されており、その他のテキストやリンクはグーグルボットに全て公開されている点は伝わるはずだ。

このようにして、ウェブサイトを閲覧すると、思わぬ発見をすることがある。

チェックするべきポイントを幾つか挙げていく:

  1. メニューのリンクはすべて表示されているだろうか(ドロップダウンも)?
  2. すべてのメニューアイテムとリンクは、プレーンテキストとして表示されているだろうか?
  3. すべてのリンクはクリック可能だろうか?
  4. この手法を利用することにより、以前は隠されていたテキストが表示されるだろうか(隠されたテキストは、グーグルボットに警告を送る。悪意があって隠しているわけではなくても、グーグルボットから隠すべきではないはずだ)?
  5. サイドバーやウィジェットのコンテンツは、上部に掲載されているだろうか?忘れないでもらいたいことがある。特に重要なリンクやコンテンツは、HTMLの上部に掲載されているべきである。この点は、大規模なサイトにとっては特に重要である。

それでは、問題のあるサイトの例を以下に掲載する。

このサイトの問題点は、メニューのテキストが実際にはテキストではなく、イメージである点である。要するに、グーグルボットに与えるテキストのシグナルが存在しないのだ。被リンクに対するアンカーテキストの重要性は皆さんもご存知のはずである。内部リンクにとってもテキストは同じように重要である。上のウェブサイトでは、ホームページから注がれるリンクジュースの価値を余すところなく受けている内部のページは存在しないことになる。

検索エンジンの視点でオンサイトの調査を実施したら、次にウェブスパイダーを使ってサイトをクロールする段階に移る。


2. スクリーミングフロッグを使ってサイトをクロールする

スクリーミングフロッグとは?

スクリーミングフロッグ SEO スパイダーを利用すると、ウェブサイトをクロールし、見るだけで、サイトを今までよりも遥かに簡単に且つ素早く構築する方法に関して、重要な情報を得ることが出来るようになる。数分後には、サイトの見え方に関して新たな見解を得ているはずである。

これは実践ガイドであるため、自分のウェブスパイダーを利用するメリットの詳細を知りたいなら、次のスクリーミングフロッグの文書を参考にしてもらいたい:

http://www.screamingfrog.co.uk/seo-spider/

注記: スクリーミングフロッグは無料で1度に500ページまでクロールすることが可能である。そのため、500ページ以上持つ大きなサイトでこのツールを利用する場合、年間ライセンスを購入する必要がある。ここでとっておきの次善策を紹介しよう。サブディレクトリを入力してクロールさせることが出来る – 例えば http://www.quicksprout.com/2012/では、2012年の投稿のみを対象にしている。 複数のサブディレクトリでこの作業を実施すると、少しずつではあるが、サイト全体をクロールすることが出来る。

ステップ 1: サイトをクロールする

ステップ 2: クロールを保存する

ステップ 3: ページレベルをチェックする

ステップ 4: クロールのエラーを確認する

ステップ 5: 長いタイトルを探し、修正する

ステップ 6: 長いデスクリプションを探し、修正する

ステップ 7: インデクセーションの設定を確認する

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

ステップ 1: サイトをクロールする

スクリーミングフロッグを立ち上げ、サイトでクロールを実施する。

このタスクには、サイトの大きさに応じて、2 – 20分間を要する。

ステップ 2: クロールを保存する

ファイルフォーマット.seospiderでサイトのクロールの結果を保存するべきである。こうすることで、プログラムを閉じてしまった場合、または、後に見直したい場合でも、再びクロールを行わなくても済む。ただし、サイトに大きな変更を加えたら、再びクロールする必要がある点を忘れないでもらいたい。いずれにせよ、このデータがあれば、クロールを記録しておくことが出来る。

ステップ 3: ページレベルをチェックする

これはあくまでも上級者向けのガイドであり、SEOを確実に改善する、本当の意味での変化をウェブサイトにもたらすことを目標に掲げている。そのため、サイトに適用することが可能なスクリーミングフロッグの情報を獲得する取り組みに焦点を絞って説明させてもらう。

ウェブサイトの奥深くに埋められたページを持っているなら、ユーザーにとっても、SEOにとっても、マイナスに働いてしまう。そのため、スクリーミングフロッグを使って、簡単にこのようなページを見つけ、行動を起こすことが出来るようにリストアップする方法を紹介する。

クロールを行った後、サイトの内部で集められた全てのデータを表示するメインの「Internal」ページに移動する。

ドロップダウンメニューの下のHTMLを選択する。

右端までスクロールする。

「level」をクリックして、ページレベルごとにコンテンツをソートする。

クイックスプラウトでさえ、4-7ページの深さにある過去の投稿が幾つか存在する。

因みに、crosslinker(http://wordpress.org/extend/plugins/cross-linker/ )等のワードプレス用のプラグインの利用を検討してもらいたい。内部でリンクを張り、投稿をリンクで結ぶ上で役に立つためだ。

スクロールして左端に戻ると、新しい投稿を作成する際に、優先的にリンクを張っておきたいページのリストが完成しているはずだ。

リストをCSVフォーマットにエクスポートする:

これで、エクセルから直接、新しい投稿でリンクを張ることが可能な、優れた実用的なURLのリストを手に入れたことになる。

また、リンクを張る際は、当該のリファレンスが、関連しており、有益であり、そして、記述的なキーワードが豊富に詰まったアンカーテキストである点を確認してもらいたい。

ステップ 4: クロールのエラーを確認する

次に、上部のメニューのその他の項目を調べていく。スクリーミングフロッグには多くの掘り出し物が眠っているものの、探し出す方法を知らなければ宝の持ち腐れである – これからその方法を伝授する。

もちろん、グーグルウェブマスターツールでもクロールのエラーに関するデータを得ることが可能だが、データが不完全、または、古い可能性がある。また、この方法は、リンクを張っている全てのリンク切れを起こしている外部 リンクを見つけることも出来る。加えて、自分のツールでサイトをクロールする度に、最新の正確なリストを得られるメリットがある。

  1. 「Response Codes」をクリックする
  2. フィルタードロップダウンメニューから「Client Error 4xx」を選択する
  3. CSVでエクスポートする

こうすることで、400レベルのエラー(通常は404)を返すページのみのリストを得ることが可能になる。

ステップ 5: 長いタイトルを探し、修正する

タイトルタグとメタディスクリプションには、推奨される長さがあることは、皆さんもご存知のはずである。やはり、ウェブマスターツールからこの類のデータを手に入れることが出来る。

スクリーミングフロッグで入手可能なデータは完全であり、ソート & フィルターすることが可能である。

  1. 上部のメニューで「Page Titles」をクリックする。
  2. メニューから「Over 70 Characters」を選択する。
  3. CSVにエクスポートする。

CSVファイルを開く。

アドバイス: すぐに「名前を付けて」保存することを薦める。さもなければフォーマットにより変更を失う可能性がある。

このエクセル文書で、新しいタイトルに対して新たにカラムを作成しておこう。また、長さに対するカラムも作成するべきである。

エクセルで、新しいタイトルタグを作る度に、自動的に文字数をカウントする容易な手段が欲しいだろうか?それなら、このシンプルな数式を「new length」のカラムに加えよう。

=LEN(E3)

当然だが、新しいタイトルを入力したセルを参照する必要がある。

次に

  1. 数式のセルを選択する。
  2. 数式のセルの右下にカーソルを合わせる。
  3. カーソルが十字型に変化するまで待つ。
  4. スクエアをコラム全体に下方向にドラッグする。

これで全ての新しいタイトルタグの長さをカウントしてもらえるうようになる。

ステップ 6: 長いデスクリプションを探し、修正する

長いデスクリプションを探し、修正する作業は、一つ前の作業に似ている。

デスクリプションのメニューにアクセスする。

フィルタードロップダウンメニューから「Over 156 Characters」を選択する

CSVにエクスポートする

新しいタイトルタグと同じように、エクセスで新しいディスクリプションの作成に取り掛かることが可能だ。ここでも、新しいカラムを作り、数式 =LEN(E2) を使って、自動的に新しいデスクリプションタグの長さをカウントさせよう。

ステップ 7: インデクセーションの設定を確認する

「meta and canonical」メニューにアクセスして、インデクセーションの設定を確認する必要がある。次のようなエラーを探すべきである:

  1. カノニカルタグの欠如
  2. 誤ったカノニカルタグ(異なるページに向けられている等)
  3. インデックスされるべきなのにも関わらず、「noindex」タグがつけられているページ。
  4. インデックスされるべきではないにも関わらず、メタタグが欠けている、あるいは「index」がつけられているページ。

おまけのアドバイス: 何らかのHTMLを持つ全てのページを見つける方法

さらにテクニカルな内容に踏み込む。特定のHTMLを持つ全てのページを探し出したい状況を想像してもらいたい。例えば、クイックスプラウトで、新しいタブやウィンドウで開くリンクを持つページを全て見つける必要があると仮定する。

1: Configurationメニューから「Custom」を選択する

2: 探したいHTMLを「Filter 1」に入力する。

注記: 入力したHTMLを含まないページを探すことも可能だ。最高で5つのフィルターを入力することが出来る。

3: サイトを再びクロールする

4: メニューで「Custom」を選ぶ

5: フィルタードロップダウンメニューから「Filter One」を選択する

これで、新しいタブまたはウィンドウで開くリンクを持つページが全て判明したことになる。

このメソッドは、何も変わらないなら、既存のサイトにとって大きくプラスに働く。しかし、サイトのデザイン変更を準備している場合はどうすればいいのだろうか?それなら、デザイン変更に備えて、自己評価するべきである。


3. サイトのデザイン変更を自己評価

次にサイトのデザイン変更を行う際の評価プロセスを、手順を追って説明していく。これは、ウェブサイトを進化させる上で、そして、オンラインでのオーソリティをアピールする上で重要なステップとなる。また、このステップでも、トラフィックを取り逃さないことを心掛けてもらう。

上級者向けSEOガイドのこのセクションが対象にしているのは、新しいサイトを作りながら、次のようなベストプラクティスに従っている人達である:

  1. クロール可能なことを確かめる
  2. 新しいXMLサイトマップを投稿する
  3. 301リダイレクトを導入する

進捗状況を確認するためのスプレッドシートを作成する

以下に、新しいサイトを立ち上げる際に、このようなメトリクスを測定する方法を示すモデルのスプレッドシートを掲載する。


日付

インデックスされたページ数

キャッシュの日付

PR

DA

WMTのエラー

注記

4/1/2012

4,200

3/23/2012

6

71

525

新しいサイトを立ち上げる

4/8/2012

3,750

4/7/2012

5

67

679

新しいサイトのキャッシュが行われる

4/15/2012

4,150

4/12/2012

6

70

482

エラーの修正作業を開始

インデックスされたページ数を測定

グーグルの site: searchを利用する

キャッシュの日時を測定する

グーグルのcache:sitename.com検索をここでも利用する。

キャッシュの日時は、アルゴリズムでグーグルがサイトのどのバージョンを利用しているのかを判断する上で、最も役に立つ。

ページランクを測定する

PRはメトリクスとして重要視されているわけではないが、今でもサイトの価値の目安を得る上では有効である。

SEOquakeのツールバーは、ページランクを手っ取り早くチェックすることが可能である。次のURLからインストールしてもらいたい: http://www.seoquake.com/

SEOmozのドメインオーソリティーを測定する

このメトリクスは、SEOmozがリンクスケープのインデックスをアップデートするタイミングによって、遅延が生じることがある。それでも測定する価値はある – ツールバーは次のURLで入手することが可能だ:: http://www.seomoz.org/seo-toolbar

DAのオーソリティでは次のポイントに注目してもらいたい

「not found」エラーを測定する

ウェブマスターツールを利用し、「not found」のエラーを確認し、スタッツを入手する。

このツールおよびステップを介して、出来るだけサイトをスムーズに移行することが可能になる。  


4. 公開する前に新しいサイトをテストする

このチュートリアルでは、URLを入力すると、テストウェブサイトに向かうようにコンピュータを設定し、本当のURLを使って、サイトを公開する前にテストすることが出来る状態を作っていく。

  1. 新しいウェブサイトのIPアドレスを取得する。 
    ウェブサイトをホスティングしている場所によって、方法は大幅に変わるが、基本的に、管理者パネルのどこかに掲載されているはずである。見つけられなかったら、ホスティングサービスに電話して、尋ねよう。
  2. ホストのファイルを編集して、IPアドレスに向ける
    Macを利用しているなら:

    A. Application folder > Utilities > Terminalの順にアクセスしていく

  1. terminalアップの中で、「sudo nano /etc/hosts」と入力する。
    ユーザー名とパスワードを必要に応じて入力する。
  2. ファイルの最後に、以下の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、www.newdomain.comを新しいドメインに置き換える。
    Control-Oを押し、エンターを押す。

    E. Control-Xを押し、エディターを終了する。 

    F.

    terminalウィンドウを閉じる

    ウィンドウズのコンピュータを利用しているなら:

    A. Startをクリックし、「notepad&quot」を検索ボックスに入力し、スタートメニューでノートパッドを表示させる

    B. ノートパッドで右クリックし、「run as administrator」を左クリックする。
    許可を求められたら、「はい」を選択する

    C.

    ファイルをクリックし、開く

    D. ファイル名のボックスで、「\windows\system32\driver\etc」を入力し、Enterを押す。sp;

    E. ファイルのタイプのプルダウンを「text file」から「all files」に変更する。

    F. 「hosts」をダブルクリックする。

    G. ファイルの最後に、次の列を入力する:
    111.222.333.444 www.newdomain.com
    111.222.333.444をステップ 1で入手した実際のIPアドレスに、 www.newdomain.comを新しいドメインに置き換える。
  3. ブラウザを開いて、ウェブサイトをテストし、思い通りに表示されているかどうか確認する。新しいウェブサイトに対するURLを入力する。すると、hosts fileエディターは、テストのサイトにアクセスさせるようになる。
  4. テストを行ったら、ステップ 2で加えた変更を戻す必要がある。単純に、ファイルに戻り、加えた列を削除するだけでよい。

5. ダウンタイムなしで新しいサイトに移行する

警告: 何か誤るとサイトをダウンさせる可能性があるので、細心の注意が必要である。

新しいウェブサイトに移行する際は、以下のガイドラインに従い、ダウンタイムを出すことなく、安全な移行を心掛けてもらいたい。アップデートされたIPを世界中のサーバーが入手するには約1日を要するため、少なくとも、新しいサイトの運営を開始してから1週間は新旧のサーバーを両方とも稼働させる計画を立てておこう。

  1. 新しいドメインのTTLを5分間に設定する
    方法はホスティングサービスやドメイン登録サービスによって異なる。通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡し、サポートを要請しよう。

    GoDaddyを利用しているなら:

    A) GoDaddyのウェブサイトにログインする

    B) My Accountをクリックする。Domainsを探し、Launchをクリックする

    C) ドメインの1つをクリックする

    D) DNS Managerまで下にスクロールし、Launchをクリックする

    E) ホストの下で「@」を探し、「TTL」の下にある鉛筆のアイコンをクリックする

    F) メニューをプルダウンして、最短の時間(1/2時間)を選択する

    CNAMEがつけられた「www」を持っているなら、同じように1/2時間に変更しておくべきである。

  2. ドメインのDNSの設定を見つける
    これでサイトのテストの実施 & TTLの変更を終えたことになる。次に、ドメイン名のDNSの設定を変える作業に移る。

    まず、現在のドメイン登録サービスにアクセスし、現在のDNSの設定を探す。次に、新しいホスティングサービスにアクセスし、現在のドメイン登録サービスに入力する必要のある新しいDNSの設定をメモする。

    手続きはホスティングサービスによって、そして、ドメイン登録サービスによって異なる。

    通常は、ドメインのコントロールパネルに設定が用意されているはずだが、見つからなかったら、ドメイン登録サービスに連絡を取り、テクニカルサポートを要請しよう。

  3. 現在のドメインのDNSの設定を変更する。
    双方の登録機関の設定を新しいホスティングサービスでメモしたDNSのアドレスにしたら、どこを変えればいいのかは検討がつくはずだ。既にステップ 3で見つけている。
  4. ステップ 1で加えた列を削除して、hosts ファイルを解除する。
    元々加えた列を削除する作業以外は、基本的にステップ 1の手順に従ってもらいたい。
  5. 5分間待ってから、新しいウェブサイトにアクセスしてみよう。
    ブラウザのキャッシュとクッキーをクリアする必要があるかもしれない。新しいウェブサイトがアップしたら、これで完了。アップしなかったら、ステップ 4の作業をリバースし、古いウェブサイトに戻そう。

6. クロール可能なAJAX(JQuery GETを利用)

この例では、jQueryのpostメソッドを使って、クロール可能なAJAXを作る方法を紹介する。このチュートリアルでは、「XMLHttpRequest POST」メソッドを利用する。

このベストプラクティスに関する詳細は次のURLで確認してもらいたい:

http://googlewebmastercentral.blogspot.com/2011/11/get-post-and-safely-surfacing-more-of.html

  1. HTMLテンプレートを作成する。

  2. jQueryをサイトに加える
    この例では、列 4が加えられている。

  3. 「DIV」タグを固有のIDと共に、本文の動的なコンテンツが向かう場所に加える。
    この例では、列 8が加えられている。

  4. サイトに「DIV」タグにコンテンツを読み込むJavaScriptを追加する。
    この例では、列 10-15が加えられている。

  5. PHP スクリプトを作成する。
    例のコードは、例のブログの投稿をアウトプットする。
  6. ウェブサーバーでスクリプトを試す。
    次のようなページが表示されるはずである:

  7. ページのソースを確認する。
    このHTMLテンプレートと同じようなソースになるはずである。
  8. Inspect Elementをチェックする。
    DOMに動的なコンテンツが読み込まれているはずである。次のようなソースが表示されるはずだ:

7. クロール可能なAJAX(ハッシュなし)

このチュートリアルは、更新することなく、動的なコンテンツを読み込むものの、URLを変更するウェブサイトを対象にしている。グーグルは、HTMLのスナップショットに対するクエリの文字列内で、ルーティング「_escaped_fragment_」を推奨している。HTMLをグーグルボットに、JavaScriptをユーザーに表示するためだ。

同じ成果をもたらす方法は他にも多くある。方法はウェブサイトの設定に左右される。この例では、PHPを使って、何を表示するべきかを判断する。

次のようなURLを持っているなら: “http://www.example.com/index.php” スピードアップを図るため、コンテンツを動的に、そして、非同期的に読み込むJavaScriptでページを作るPHPが理想である。

次のようなURLを持っているなら: “http://www.example.com/index.php?_escaped_fragment_” インデックス & クロール可能な通常のHTMLのページを作るPHPが必要である。

この方法のベストプラクティスに関する詳細は次のページで確認しよう: https://developers.google.com/webmasters/ajax-crawling/docs/getting-started

  1. まず、ヘッダーに適切な「meta」タグを加えるPHPスクリプトを作成する.  
    こうすることで、クエリの文字列「_escaped_fragment_」を用いて、ページをクロールすることが可能な点を検索スパイダーに伝えられる。この例では、「head」タグ全体を生成する関数を作成した。 

    注記:  列 10に、スパイダーに「espcaped fragment」を使ってクロールするよう伝えるメタタグが記されている。
  2. 次に、ページを表示させる関数を作成する。
    この例では、「render_post」は因数「$render_snapshot」を持つ。デフォルトの状態では、このページは通常のページをユーザーに対して表示する。「render_snapshot」が正しい場合、グーグルボットに対して同じコンテンツのHTMLページを表示する。

    注記:
    このPHPの列 25は、ページがHTMLか動的かの判断を行う。
    列 26-29は、コンテンツを取得し、DIVタグ内にHTMLを返す。
    列 31-37は、jQueryを使ってコンテンツを返し、動的にHTMLをDIVタグ内に加える。


  3. 次に、「escapted fragment」のクエリの文字列を処理するコードを加えていく
    この例では、_escaped_fragment_が見つかった場合、HTMLを使って投稿を表示する。

  4. 次に、content.phpファイルを作成する。
    この例では、コードはJSONをHTMLに変換する。
  5. 最後に、ajax_crawling.jsonを作る。
    これはあくまでもデモに過ぎないが、複雑な設定のウェブサイトにもこの原則を当てはめることが出来る。通常、コンテンツはデータベースから届けられる。このデモでは、単一のファイルである。

  6. ユーザーによってレンダリングされるページをテストする:
    次のようなページが表示されるはずだ:
  7. view sourceを確認する
    コンテンツはJavaScriptを使って動的に加えられているため、表示されていないはずである。

  8. Inspect Elementsのビューを確認する。
    Inspect Elementのビューでは、JavaScriptが実行された後のHTMLに似ているため、コンテンツは表示されている。


  9. ボットのビューを「_escaped_fragment_」をURLの最後に加えてチェックする。
    ダイナミックなページと同じページが表示される:

  10. ボットのビューを確認しよう。
    JavaScriptのない通常のHTMLのようなソースが表示されるはずである。

8. クロスドメイン Rel=canonical

いつクロスドメインを利用するべきか

これは大勢の人達が混乱するポイントであり、実装する前に、このタグを利用するべきタイミングについてを説明していく。

  1. 古いサイトのコンテンツ、または、重複するコンテンツを新しいサイトにを動かす必要がある時 – そして、古いサイトがサーバーサイドのリダイレクトを提供していない時。
  2. ただし、出来るだけ古いサイトでオンサイトの重複を削減した後、利用するように心掛けてもらいたい。
  3. 代わりに301リダイレクトを実装することが可能であり、ユーザーエクスペリエンスの面で好まれるなら、301リダイレクトを利用しよう。
  4. また、ページでrel = canonicalとnoindexを併用するべきではない。このページは、リダイレクトを拾ってもらうため、インデックス可能でなければならないためだ。
  5. 両方のページでコンテンツが同じ場合、または違いが僅かな場合に利用しよう。

実装する方法

通常のcanonicalタグを実装する方法と基本的に同じである。

1. ページを準備する

2. (オリジナルの)1つ目のページでソースコードを編集可能な状態にする

3. 古いページの「head」セクションにタグを加え、新しいページに向かわせる:

        <link rel="canonical" href="http://www.example.com/example-page-name/>

「example-page-name」は新しいページのURLである。

以下のインフォグラフィックの投稿をクイックスプラウトから…

http://www.quicksprout.com/2012/06/11/5-ways-to-get-your-infographic-to-go-viral/

…KISSmetricsに移動するケースを想定する。現実的ではないかもしれないが、とりあえず、移動することにする。次のURLに移動するプロセスを説明する:

http://blog.kissmetrics.com/5-ways-to-get-your-infographic-to-go-viral

その他のアドバイス

  1. リンクをrelativeではなくabsoluteにする(http:// etcを丸ごと含む)
  2. 301と同じように、canonicalの連続を避ける
  3. これは絶対的なルールではなく、あくまでもグーグルに対するヒントであるため、グーグルのインデックスとウェブマスターツールでグーグルがこのタグに従っているかどうかを確認しておきたいところだ。

9. httpsの重複するコンテンツのエラーを修正

皆さんもご存知だとは思うが、httpsとはプロトコルであり、ページをワールドワイドウェブに安全に転送する規約である。ショッピングカート等のページ、ログインページ、そして、その他の安全なページには、httpsのアドレスを設定するべきである。しかし、この取り組みでは、URLに「s」を加えるため、コンテンツの重複を生む可能性がある。

通常は、httpsは、インデックスに含めるべきではない。基本的には公開しないページであり、検索結果に返す必要がないからだ。

クロールレポートやサイト評価で、httpsを持つURLがサイトで重複していることが明らかになったなら、この問題を解決するために以下の3つの手順を踏んでもらいたい:

1. インデックスされているページを特定する

2. インデックスされている理由を診断する

3a. 存在するべきではなページを301リダイレクトする

3b. 存在するべきではないなら、インデックスから削除する

ステップ 1 – インデックスされているhttpsのページを探す

httpsを持つ、インデックスされているページを探し出す次のグーグル検索を実施する

  1. site:yourdomain.com inurl:https

crazyeggのウェブサイトは何の問題もないように思える。flash loaderを除けば、htttpsのページはインデックされていない。

KissMetricsはインデックスにhttpsが存在するサイトの典型的な例である。

この2つ目のページは通常のブログの投稿であり、インデックスされるべきではない(このページで3つ目)。

また次のページは、httpsを利用するべきではあるものの、インデックスに含まれるべきではないページである

それでは、インデックスされるべきではないページを発見したら、どのように対処すればいいのだろうか?インデックスから削除したい、不要な古いページと同じように、そもそもなぜインデックスに含まれたのかを解明する必要がある。

ステップ 2 – インデックスに含まれた理由を診断する

例として上のブログの投稿を利用する。それでは、ページを詳しく見ていこう。

グーグルクロームは、URLにhttpsが存在するものの、このページが安全が保証されていないことを指摘している。これは、当該のページが、このこのような方法でインデックスに含まれるべきではない点を裏付けている。

内部または外部からリンクが張られたことが原因でインデックスに含まれた可能性が高い。そこで、複数のツールを使って、リンクのソースを発見する試みを行う。

まずは、スクリーミングフロッグを利用する。サイトを完全にクロールする必要があるためだ。

スクリーミングフロッグで、ウェブサイトのルートドメインを入力する(なぜなら、KissMetricsのように、中にはwww/blog等異なるサブドメインで運営しているサイトもあるからだ – ウェブサイト全体が完全にクロールされている点を確かめる必要がある)。

サイトをクロールする際は、当該のページのURLを検索し、表示されるまで待つ。

その後、クロールが完了するまで待ち、「In Links」を精査する。

「to」カラムをチェックし、「https://」を利用しているリンクがあるかどうか確認する

この例では、ページのhttps://版に向けられる内部リンクは見つからなかった。

内部リンクが見つかったら、内部リンクを変更し、httpsバージョンをhttpバージョンに301リダイレクトする必要がある。

内部リンクが見つからなくても、外部リンクが見つかる可能性がある。この場合、必ずしも設定を変える権限を持っているとは限らない。そのため、httpバージョンに301リダイレクトする。すると、ユーザーをhttpバージョンにリダイレクトし、最終的に、httpsバージョンをインデックスから削除/置き換えることが出来る。

ステップ 3a – 内部リンクを修正する

ベストプラクティスとして、常にサイトで「absolute」の内部リンクを利用してもらいたい。

例えば、次のURLにリンクを張る代わりに: /2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

私なら次のURLにリンクを張る: http://www.quicksprout.com/2012/04/30/6-ways-to-generate-more-traffic-out-of-your-images/

http://を含むURLのパス全体が含まれている点に注意してもらいたい。

ワードプレスを利用しているなら、自動的にこの作業は行われるはずである。しかし、一部のカスタムサイトまたは他のCMSのサイトでは、自動的に修正してもらえない可能性があるので、自分で修正しなければならない。

エラーを修正する

httpsのリダイレクトに関する指南については、「htaccess hacks」のセクションを参照にしてもらいたい。


10. Rel=nextを用いるページネーション

ページネーションは、オンページのSEOおよびアーキテクチャにおいて、処理が最も難しい取り組みの一つに数えられる。しかし、現在、グーグルは、「next」および「prev」の利用を認めており、一連のページを持っていることを伝えやすくなっている。

ワードプレスのようなCMSを利用している場合、Yoast SEO等、様々なプラグインが提供されている。しかし、自分でサイトを作った人のために、あるいは、ピュア HTMLで自力でコーディングしたサイトを運営している人のために、上述した新しいタグを使って、ページネーションを是正する方法を紹介する。実は割と簡単である。インターネットでは最高のリソースを見つけるのは難しいが、ここでは万全の対策を伝授する。

ステップ 1 – 一連のページを特定する

Zapposを例に説明していく。以下に男性用のスニーカーのページ 1を掲載する。

メニューでページ 2、3等が確認できるため、一連のページ数が振られたページの中で、このページが1ページ目であることを特定した。

以下にページ 1のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dA

続いてページ2、ページ3のURLを記載する

http://www.zappos.com/mens-sneakers-athletic-shoes~dB

http://www.zappos.com/mens-sneakers-athletic-shoes~dC

注記: ページを変更するため、Zapposは文字(a、b、c)を利用している。

ステップ 2 – rel=”next”を1ページ目に加える

このように、一連のページを特定すると、ページ 1のみに「next」タグがつけられているはずである。なぜなら、一連のページの最初のページだからだ。そのため、ページ 1に対して、「head」セクションで次のコードを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dB”>

ステップ 3 – 中間のページにrel=”next” とrel=”prev”を加える

1ページ目と最後のページを除く全てのページに「next」と「prev」タグが必要である。前後のページが存在するためだ。ページ 2(mens-sneakers-athletic-shoes~dB)に次のタグを加えることが出来る。

<link rel="prev" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dA”>

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dC”>

ステップ 4 – rel=”prev”を最後のページに加える

一連のページの最後のページには、そのページの一つ前のページのみを参照すればよいため、次のタグを加える:

<link rel="next" href="http://www.zappos.com/mens-sneakers-athletic-shoes~dY”>

Zが最後のページであると仮定している。

注記

cannonicalタグをnext/prevと関連させて含めることが出来る。

absoluteまたはrelativeのURLを利用することも可能だが、個人的には出来る限りabsoluteの利用を薦める。


11. .htaccessを使ってエラーページをリダイレクトする

以下のプロセスに従う必要がある:

1. エラーページを作成する – このページには特別なスクリプトを与える。

2. .htaccessファイルを設定し、エラーページへリダイレクトする。

ステップ 1 – エラーページを作成する

エラーが返されるページを作成する – 名称は何でも構わない – error.phpを薦める。

このページで、上部に次のコードを加える:

<?php
switch($_SERVER["REDIRECT_STATUS"]){
        case 400:
                $title = "400 Bad Request";
                $description = "The request can not be processed due to bad syntax";
        break;
        case 401:
                $title = "401 Unauthorized";
                $description = "The request has failed authentication";
        break;
        case 403:
                $title = "403 Forbidden";
                $description = "The server refuses to response to the request";
        break;
        case 404:
                $title = "404 Not Found";
                $description = "The resource requested can not be found.";
        break;
        case 500:
                $title = "500 Internal Server Error";
                $description = "There was an error which doesn't fit any other error message";
        break;
        case 502:
                $title = "502 Bad Gateway";
                $description = "The server was acting as a proxy and received a bad request.";
        break;
        case 504:
                $title = "504 Gateway Timeout";
                $description = "The server was acting as a proxy and the request timed out.";
        break;
}
?>

このPHPコードは、それぞれのタイプ別に異なるタイトルを作成する。こうすることで、異なるファイルを大量に作らなくても済む。すべて一つのファイルで実施することが出来る。

この例では、それぞれのエラーページに対して、固有のタイトルとディスクリプションを一つだけ作成している。しかし、変数を加えて、好きな固有のコンテンツを作成することが出来る。

ステップ 2 – .htaccessを設定する

多くのエラーコードをエラーページにリダイレクトしなければならない。以下の列を.htaccessに加えてもらいたい。

ErrorDocument 400 /error.php
ErrorDocument 401 /error.php
ErrorDocument 403 /error.php
ErrorDocument 404 /error.php
ErrorDocument 500 /error.php
ErrorDocument 502 /error.php
ErrorDocument 504 /error.php


12. RSS フィードを最適化する

RSS フィードはブログで大きな役割を担っている。しかし、このフィードを最適化することで得られるメリットの大きさを見過ごしてしまうことがたまにある。以下の実践的なアドバイスに従ってもらえば、RSS フィードを最大限まで活用することが出来るようになるだろう。

ここではフィードバーナーを利用していると仮定する。

ヘッダーでデフォルトのRSS フィードを置き変える

フィードバーナーを利用していると仮定した場合、ウェブサイト上の全てのリンクは適切なフィードに向けられているだろうか?クイックスプラウトのヘッダーセクションは、フィードバーナーのフィードに向けられている。

この作業を実施していないなら、header.phpファイル(ワードプレスの場合)、または、利用しているCMSが認める場所で、フィードのURLを変更する必要がある。

header.phpファイルでRSSのリンクを見つける

フィードバーナーのフィードのURLに置き換える

フィードバーナーでは早さが命

フィードバーナーには簡単に有効にすることが出来る機能が幾つか存在する。全て利用していることを確認してもらいたい。

Activate SmartFeed

SmartFeedは、あらゆるリーダーとの互換性を確立させる上で便利である。

Optimize->Smartfeedの順にクリックする

Activateをクリックする

FeedFlareを有効にする

Feedflareはリンクをフィードの下に掲載し、フェイスブックでの共有、eメール、deliciousでのブックマーク等の行動をユーザーに要請する手段である。

これは、あらゆるRSSフィードにとって絶対に欠かせないアイテムである。

Optimizeタブで、FeedFlareをクリックする。

表示したいリンクを選択する。 フィードは、フィードをウェブサイトに送信した際に、RSS フィードに表示されるアイテムを意味する。サイトは、ウェブサイトに表示されるアイテムを意味する。

Activateボタンは見にくい位置に掲載されているので注意してもらいたい。一番下に用意されている。

次に、「パーソナル」なフレアを幾つか加えていく。これは、ユーザーが作成したクエリであり、一連のデフォルトのフレアのセットには存在しない。

「Browse the Catalog」をクリックする。

利用可能なフレアを閲覧する。好きなフレアを見つけ、「Link」をクリックする。

するとこのフレアのタブが開く。URLをコピーする。

最初のスクリーンに戻る。フレアのURLを貼り付ける。次に「Add New Flare」をクリックする。

フレアが上に表示される。表示する場所を選ぶ(フィード、サイト、または、その双方)。

下でフレアのプレビューを見ることが出来る。アイテムをドラッグ & ドロップして順番を整えることが出来る。

忘れずに「Save」をクリックすること。 見過ごしやすいので注意してもらいたい。

PingShotを有効にする

PingShotは、アップデートが発生するとフィードバーナーに通知する機能である。PingShotにはフィードの提供をスピードアップする効果が見込める。

Publicize->PingShotの順にアクセスし、「Activate」をクリックする。

フィードのオリジナルのソースにリンクを張る

RSSフィードが許可なく利用され、別のサイトで重複する事態に直面したことはあるだろうか?(このガイドの恩恵を受け)人気の高いサイトを運営しているなら、常にこの問題を抱えているはずだ。グーグルボット、またはユーザーは、どちらがオリジナルのソースなのか分からず混乱している可能性がある。

そのため、これからRSSフィードの下に「自分」こそがコンテンツのオリジナルのソースである点を伝えるリンクを加える方法を伝授する。この手法を実行すると、検索エンジンとユーザーにとって格好の判断材料になるだけでなく、被リンクを得られる可能性がある。

1. RSS ソースリンクをブロガー(ブログスポット)に追加する

Settings -> Site Feedの順にアクセスする

以下のコードを加える:

<hr />
<a href="http://www.myblog.com">My Blog Name</a>

2. RSS ソースリンクをワードプレスに追加する

Appearance -> Editor -> functions.phpの順にアクセスする

次のコードを加える:

function embed_rss($content) {
 if(is_feed())
    $content .= "<p><a href='". get_permalink() ."'>'";
    $content .= get_the_title() ."</a></p>";
 return $content;
 }
add_filter('the_content', 'embed_rss');

これでコンテンツのオリジナルのソースに対するリファレンスをRSSフィードに用意することが出来る。それでは、いつものように正しく表示されているかテストしよう。

Thank Youを作成する

パーソナライゼーション、そして、読者への感謝のメッセージは大いに効果がある。以下にシンプルなメッセージをフィードに設定する方法を紹介していく。

Optimize->BrowserFriendly->Content Optionsの順にアクセスする

‘enable’をクリックして、個人的なメッセージを入力する。

RSSのeメールを送るタイミングを決める

送信する時間を管理して、より多くのRSSのeメールを開けてもらう。

Publicize->Email Subscriptions->Delivery Optionsにアクセスする

時間帯、オーディエンスにとって最善の時間を選択する。午前9-11時を薦める。

ワードプレスのRSSをフィードバーナーにリダイレクトする

ワードプレスに内蔵されている標準のRSSフィードを利用している人がいてもおかしくはない。そのRSSフィードを購読している人がいる可能性もある。「フィードバーナーリダイレクト」と言うプラグインを利用すると、すべてのフィードがフィードバナーを経由するように設定することが出来る。

プラグインは次のURLで手に入れることが可能だ - http://wordpress.org/extend/plugins/tentbloggers-feedburner-rss-redirect-plugin/

1. ワードプレスのセットアップでインストールする。

2. 有効にする。

双方のフィールドにフィードバーナーのURLを入力する。これで完了。


13. 動画のサイトマップ

動画をサイトまたはブログに投稿しているなら、とりわけ、メタデータでマークアップしているなら、動画のサイトマップを用意するべきである。こうすることで、グーグルやビングが動画のコンテンツに気づき、処理し、インデックスするプロセスが大幅にスピードアップする。

オプション A – 自力で作成する

サイトの規模が小さく、投稿する動画が2、3本しか存在せず、また、たまに投稿する程度なら、自分で動画のXMLサイトマップを容易に作成することが可能である。/span>

まず、XML構造のスケルトンのテンプレートを提供する。後はデータを加えていけばよい。

これは必要なフィールドを持つだけの最もベーシックなテンプレートである。

ステップ 1: 空のXMLファイルを作成する

  1. ファイルを作成する。名前は何でも構わないが、個人的に好きなファイル名を挙げておく: sitemap_video.xml
  2. 次に以下のようにルートディレクトリに保存する: http://www.quicksprout.com/sitemap_video.xml

先程も申し上げた通り、ファイル名、そして、保存場所は何でも構わないが、サイトマップをウェブマスターツールに投稿する際にこの情報が必要なので忘れないように気をつけてもらいたい。

ステップ 2: 次のコードをXMLファイルに貼り付ける

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"

       xmlns:video="http://www.google.com/schemas/sitemap-video/1.1">

 

  <url>

    <loc></loc>

    <video:video>

      <video:thumbnail_loc></video:thumbnail_loc>

      <video:title></video:title>

      <video:description></video:description>

      <video:content_loc></video:content_loc>

      <video:player_loc allow_embed="yes" autoplay="ap=1"></video:player_loc>

    </video:video>

  </url>

</urlset>

上のコードを説明しておく:

テンプレート内のプロパティの大半は任意だが、とりあえず全てを紹介したかったので掲載しておいた :-)

必要なフィールド

  1. ページのURL
  2. 動画ファイルのURLまたはプレイヤーのURL
  1. タイトル
  2. ディスクリプション
  3. サムネイル

それでは、例のテンプレートに情報を記入していく。このテンプレートでは、その他のプロパティは省略し、必要な要素に絞る:

動画1本に対するXML動画サイトマップの基本的なコード

<url>

<loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

<video:video>         <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

<video:title>Advanced SEO for Bloggers</video:title>

<video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous amounts of leads to your blog and learn the 7 secrets of conversion rate optimization.</video:description>

<video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

</video:video>

</url>

その他のプロパティを追加する

次のように、動画のサイトマップに追加することが可能なプロパティが数多く存在する:

<video:duration>

<video:expiration_date>

<video:rating>

<video:view_count>

<video:publication_date>

<video:tag>

<video:tag>

<video:category>

<video:restriction>

<video:restriction>

<video:restriction>

<video:gallery_loc>

<video:gallery_loc>

<video:price>

<video:requires_subscription>

<video:uploader>

<video:uploader>

<video:platform>

<video:platform>

<video:platform>

<video:live>

例のテンプレートに上のプロパティを幾つか加え、動作を確認しよう。

 <url>

    <loc>http://www.quicksprout.com/videos/neil-patel-video-1.html</loc>

    <video:video>

      <video:thumbnail_loc>http://www.quicksprout.com/thumbs/thumbnail.jpg</video:thumbnail_loc>

      <video:title>Advanced SEO for Bloggers</video:title>

      <video:description>An exclusive video with SEO expert Neil Patel. Drive ridiculous

                      amounts of leads to your blog and learn the 7 secrets of

                      conversion rate optimization.</video:description>

      <video:content_loc>http://www.quicksprout.com/video.flv</video:content_loc>

      <!–optional properties–>

      <video:duration>750</video:duration>

      <video:rating>4.1</video:rating>

      <video:view_count>54321</video:view_count>    

      <video:publication_date>2012-04-01T19:20:30+08:00</video:publication_date>

      <video:family_friendly>yes</video:family_friendly>  

      <video:restriction relationship="allow">IE GB US CA</video:restriction>

      <video:requires_subscription>no</video:requires_subscription>

      <video:live>no</video:live>

    </video:video>

  </url>

これは一目見れば分かる類のプロセスである。認められている個別のフィールドの詳細は、グーグルの文書で確認してもらいたい。

ステップ 3: グーグルウェブマスターツールにサイトマップを投稿する

オプション A – ウェブマスターツールに直接投稿する

グーグルにXMLサイトマップを投稿する手法としては、この手法を薦める。

- ウェブマスターツールにサインインする

- ウェブサイトのプロフィールを見る

- Site Configuration->Sitemapsにアクセスする

- 右隅の“Add/Test a Sitemap”をクリックする

- サイトマップの名前を入力し、投稿する。

オプション B – robots.txtファイルに以下の列を加える -

サイトマップ: http://www.example.com/sitemap_video.xml

あらゆるXMLのサイトマップに共通することだが、robots.txtファイルが適切に設定されていると、グーグルはrobot.txtの情報を基に動画を発見し、処理していく。


14. .htaccessのテクニック

これから紹介するアドバイスは、クライアントがApacheを利用している場合のみ有効である。ウィンドウズ IISを利用しているなら、IISのテクニックを参照すること。

  1. サーバーで.htaccessファイルを探し出す。
    (“サーバーで.htaccessを探す方法”を参照)
  2. .htaccessを見つけたら、テキストエディタを使ってファイルを編集する。
    ウィンドウズを利用しているなら、 Notepadを薦める。Macを利用しているなら、  TextWrangler等の無料のテキストエディタをダウンロードしよう。
  3. .htaccessファイルで何をしたいのかを決め、コードの列を加える:

自分で404ページを作るには

“ErrorDocument”を利用し、最後にオリジナルの404ページへのURLを加える。例:

ErrorDocument 404 http://www.example.com/my-custom-404-page.html

フォルダーをパスワードで保護するには

A. まず、htpasswdファイルを作成する。オンラインツールを利用すると簡単に作成することが出来る: http://www.tools.dynamicdrive.com/password/

B. 左側に希望するユーザー名を、そして、当該の人物に与えたいパスワードを右側に入力する。

C. “path to .htpasswd”ボックスで、公開しないフォルダーを記入する。通常は、次のように、ホームのディレクトリを入力すると安全である:“/home/myusername”

D. submitをクリクし、ダウンロードした.htpasswdファイルを“/home/myusername”に置く。

E. 次にこの情報を.htaccessファイルに入力する。

AuthUserFile /home/myusername/.htpasswd

AuthName EnterPassword

AuthType Basic

require user some_users_name

some_users_name”をこのフォルダで許可されるユーザーネームと置き換える。

IPアドレスでユーザーをブロックするには

次の4つの列を.htaccessファイルに入力する:

Order allow, deny

Deny from 111.222.333.444

Deny from 555.666.777.888

Allow from all

“deny from,”の列で、例のIPアドレス“111.222.333.444”をブロックしたいIPアドレスに置き換える。

リファラーでユーザーをブロックしたいなら

以下の3つの列を.htaccessファイルに加える:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC]

RewriteRule .* – [F]

複数のリファラーをブロックしたいなら、次のようにRewriteCondの列を増やす必要がある:

RewriteEngine On

RewriteCond %{HTTP_REFERER} somedomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} anotherdomain\.com [NC,OR]

RewriteCond %{HTTP_REFERER} 3rdDomain\.com [NC]

RewriteRule .* – [F]

最後の列を除く全ての列が“[NC,OR]”で終わっている点に注目しよう。

index.html以外をデフォルトのページに指定するには

“home.html”をデフォルトのページに指定したいと仮定する。その場合、次の列を.htaccessファイルに利用してもらいたい:

DirectoryIndex. home.html

古いドメインを新しいドメインに301リダイレクトするには

以下の列をhtaccessファイルに加える。

RewriteEngine on

RewriteCond %{HTTP_HOST} ^olddomain.com [NC,OR]

RewriteCond %{HTTP_HOST} ^www.olddomain.com [NC]

RewriteRule ^(.*)$ http://www.newdomain.com/$1 [R=301,NC]

"olddomain.com"を古いドメイン名に置き換える。すると、古いドメインからWWWで始まる新しいドメインにリンクを301リダイレクトするようになる。

ウェブサイト上のリソースへの直リンクを防ぐには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{HTTP_REFERER} !^$

RewriteCond %{HTTP_REFERER} !^http://(www\.)?mydomain.com/.*$ [NC]

RewriteRule \.(gif|jpg|js|css)$ – [F]

mydomain.comをドメイン名に置き換える。この列によって、GIF、JPG、JS、そして、CSSファイルへの直リンクを阻止することが可能になる。

HTTPS://からHTTP://へ全てのページをリダイレクトするには

次の列を.htaccessファイルに加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^80$

RewriteRule ^(.*)$ https://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

HTTP://からHTTPS://へ全てのページをリダイレクトするには

.htaccessファイルに次の列を加える:

RewriteEngine on

RewriteCond %{SERVER_PORT} !^443$

RewriteRule ^(.*)$ http://www.domain.com/$1 [NC,R=301,L]

domain.comを実際のドメインに置き換える。

1つのURLをHTTPS://からHTTP://にリダイレクトするには

URLがhttp://www.domain.com/mypage.htmlだと仮定する

RewriteEngine on

RewriteCond %{HTTP_HOST} !^80$

RewriteCond %{HTTP_HOST} ^www.domain.com/mypage.html [NC]

RewriteRule ^(.*)$ http://www.domain.com/mypage.html [NC,R=301,L]


15. グーグルボットを検知する

ユーザーエージェントとしてグーグルボットを検知しておくべきである。その理由は数多くあるが、皆さんの想像に任せておく。 :)

1.  次のコードを文書の「body」のどこかに切り取り & 貼り付けする

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{

   // what to do

}

2. Replace with your content

“// what to do”を好きな指示に置き換える。

アドバイス: To make it HTML

次のコードを加える:

if(strstr(strtolower($_SERVER['HTTP_USER_AGENT']), "googlebot"))

{?>

          <h1>Put your HTML here</h1>

<p>anything you’d normally do</p>

<?php

}

PHPの各パーツを分ける。

if(condition){} - this is just a simple function that says “if x is true, do y”.

次にネスト化したステートメントの内側から作業する。

‘HTTP_USER_AGENT’ - これはブラウザ特有のIDの文字列を引き出す

$_SERVER – これはヘッダー、パス、スクリプトのロケーション等、ウェブサーバーによって生成される情報を持つ配列である

strtolower – 全てのアルファベットを小文字に変えた状態で文字列を返す

strstr – 最初のneedleの発生からhaystackの最後までを含むhaystackの文字列の一部を返す

{

        // what to do

}

フォワードスラッシュ // はコメントを残すためだけに用いられる。つまり、波括弧の間に望む動作を挟めばよい。

ビジュアルを好むなら – このコードは分かりやすい:


16. サイトにカスタム検索エンジンを加える

グーグルのカスタム検索エンジンは強力なツールになり得るものの、このツールを利用していないサイトは意外と多い。それでは、サイトにカスタム検索エンジンをインストールする手順を説明していく。

- http://www.google.com/cseにアクセスする

ステップ 1: タイトルとディスクリプションを作成する

ステップ 2: 検索に含めるサイトを加える

ここでちょっとしたテクニカルなノウハウが役に立つ。

サイトのURLをただ単に加えるのではなく – アスタリスク (*) をURLの後ろに加えて(例

http://www.quicksprout.com/*)サイト全体を検索することが出来るようにしなければならない。

ステップ 3: Editionを選択して、確認する

この作業を完了すると、カスタム検索エンジンをサイトに実際にインストールする前に試す機会が得られる。

Let’s check it out!

カスタム検索エンジンで[twitter tips]を検索すると、良質な検索結果が表示された。また、エンジン内のサイトのバラエティも申し分ない(プレミアム版を購入しない限り、広告が表示される点に注意)。

それでは、これからサイトにインストールするプロセスを説明する。

カスタム検索エンジンをサイトにインストールする

このタイプのインストールは、新しいページか新しい投稿のいずれかに行うことになる。例では新しいページを利用するが、新しい投稿にも同じ方法を用いることが可能である。

ステップ 1: “new page”にアクセスする

ステップ 2: HTMLモードで編集する

JavaScriptのコードをページに貼り付けるため、HTMLモードで編集を行う。

ステップ 3: コードを貼り付ける

プレビューを見る


17. 複数の言語のマークアップとグーグル翻訳

グーグル翻訳をインストールして、別の言語を話すビジターにもサイトを楽しんでもらう方法をこれから伝授する。これは割と新しいテクニックであり、利用している人はまだ少ない。そのため、早い段階で導入しておくことを薦める。

 http://translate.google.com/translate_toolsにアクセスする

段階 I – コードを取得する

翻訳をサイトに実装するため、まずはオプションを選択し、コードのスニペットを生成する。

ステップ 1: ページ全体またはページの一部を翻訳するかを決める

大抵、ページ全体を翻訳したいのではないだろうか。しかし、一部のテキストを異なる言語に翻訳したい場合でも、ページの一部のみを翻訳する選択肢があるので心配しないでもらいたい。

ステップ 2: ウェブページの言語を選択する

大抵の場合、英語を選択することになる。

ステップ 3: Optional Settingsを表示させる

十字マークをクリックして、optional settingsを開く。

optional settingsを使って、サイトの翻訳を完全にカスタマイズすることを私は薦める。

翻訳される言語を選択することが出来る。

翻訳ボックスの表示方法を選択することが出来る。個人的には、「inline」と「dropdown only」が良いと思う。

さらに上級者向けの設定も用意されている。ここでは、ページを翻訳する必要がある読者に自動的にバナーを表示する。また、グーグルアナリティクスで利用を追跡する。

アドバイス: グーグルアナリティクスのIDを早く見つける方法

1. 自分のウェブページにアクセスする

2. ソースを見る

3. Control F(クロームの場合)を押して、テキストを探す

4. “ua-”(ダッシュ付き)を検索する

選択を終えたら、完成したスニペットのコードが表示されるはずだ。

ページのプレビューを見る

コードをコピーして、サイトに加える前に、翻訳ボタンのプレビューを見ることが出来る。

段階 II – コードをサイトにインストールする

これでコードの準備が整ったので、これからサイトに実際にインストールしていく。ワードプレスのようなコンテンツ管理システムを利用しているなら、割と簡単にインストールすることが可能だ。ここでは、コードを挿入するスポットを探す作業のみ説明する。

ステップ 1: 翻訳ボックスを表示する場所を決める

翻訳ボックスをインストールする基本的な場所は次の2つである。

オプション A – クイックスプラウトのように、ヘッダーのどこかに表示する:

オプション B – クックスプラウトのこのページのようにサイドバーのどかに表示する:

ステップ 2(オプション A): コードをヘッダーにインストールする

再びソースコードを確認すると、コードを挿入する必要のある場所が見えてくる:

検索ボックスとロゴの間に挿入する必要がある。

1. ワードプレスにログインする

2. 「editor」にアクセスする

3. 「Header」を選択する

4. header.phpファイルの翻訳コードを貼り付ける

翻訳ボックスを表示させる場所をコードで探し出し、header.phpファイル内でスニペットを貼り付け、保存する。

ステップ 2(オプション B): サイドバーにコードをインストールする

新しいテキストのウィジェットを作成することが出来るため、このオプションの方が少し難易度は低い。

1. ウィジェットにアクセスする

2. サイドバーに新しい「Text Widget」を加える

3. 翻訳コードをウィジェットに貼り付ける

これで完了。今後は異なる言語のユーザーにもサイトを楽しんでもらえる。


18. 悪意のある、または害をもたらす可能性のあるリンクをブロックする

時折、ハッカー、または、悪意のない経験の浅い人達が、クエリパラメータを最後に加えたリンクを送ってくることがある。例を以下に挙げる:

http://www.quicksprout.com/?neilpatelscam

(このような方法でリンクを張ってもらいたくない)

また、悪意のあるクエリの文字列が異なるページに向かわせてしまうこともある:

http://www.quicksprout.com/page/2/?neilpatelscam

http://www.quicksprout.com/page/3/?neilpatelscam

このページはそのままインデックスされ、本物のページをインデックスで置き換えてしまう可能性がある。可能性こそ低いものの、万が一の時は、修正する必要がある。以下に、そのための.htaccessのコードを掲載する:

# FIX BAD LINKS
<ifModule mod_rewrite.c>
RewriteCond %{QUERY_STRING} querystring [NC]
RewriteRule .* http://example.com/$1? [R=301,L]
</ifModule>

単純に次の手順に従ってもらいたい:

1. .htaccessがルートディレクトリに存在することを確認する。

2. このコードを.htaccessファイルの一番下に掲載する。

3. “querystring” を利用されている悪意のあるクエリ文字列と置き換える。

4. example.comをサイトのURLと置き換える。

5. 複数のクエリ文字列を加えるには、“pipes” ( | )を“or”を表現するために用いる:    

           例えば、neilpatelscam|quicksproutripoff|badblogger

6. 最後に1週間後または2週間後にグーグルで、次のようなsite: queryを実行して、インデックスから削除されている点を確認する:

        site:quicksprout.com/?neilpatelscam


19. オンサイト分析向けのブラウザプラグイン

ブラウザプラグインは、ワークフローと効率を大幅に改善するポテンシャルを秘めている。そこで、グーグルクロームのプラグインを幾つか紹介し、高度な使い方も幾つか伝授していく。

このセクションでは、サイトのアクセシビリティおよびインデクセーションを最適する上で役に立つプラグインを取り上げる。

以下にリストを掲載する。

  1. Broken Link Checker - https://chrome.google.com/webstore/detail/ojkcdipcgfaekbeaelaapakgnjflfglf
  2. Web Developer - http://chrispederick.com/work/web-developer/
  3. Redirect Path Checker - https://chrome.google.com/webstore/detail/aomidfkchockcldhbkggjokdkkebmdll
  4. SEOmoz Toolbar - https://chrome.google.com/webstore/detail/eakacpaijcpapndcfffdgphdiccmpknp
  5. Chrome Sniffer - https://chrome.google.com/webstore/detail/homgcnaoacgigpkkljjjekpignblkeae
  6. Google Analytics Debugger - https://chrome.google.com/webstore/detail/jnkmfdileelhofjcijamephohjechhna
  7. Microformats for Chrome - https://chrome.google.com/webstore/detail/oalbifknmclbnmjlljdemhjjlkmppjjl
  8. Rulers Guides and Eyedropper Color Picker - https://chrome.google.com/webstore/detail/bjpngjgkahhflejneemihpbnfdoafoeh
  9. Word Count - https://chrome.google.com/webstore/detail/kmndjoipobjfjbhocpoeejjimchnbjje
  10. Source Kit - https://chrome.google.com/webstore/detail/iieeldjdihkpoapgipfkeoddjckopgjg?hl=en-US

次に、高度な利用方法を紹介する。

Broken Links Checker

このプラグインは、リンク切れを手っ取り早く確認することが出来るだけでなく、リンクの構築および獲得に関するアイデアを得るため、他のサイトに利用する手もある。

例えば、競合者のウェブサイトのサイトマップでこのプラグインを実行してみよう。手順は以下の通りだ:

1. 競合者のHTML sitemapを探す。例えば、ランダムに www.bizchair.comを取り上げ、サイトマップを探し出してみる: http://www.bizchair.com/site-map.html

2. Link Checkerを実行する

エクステンションのアイコンをクリックする

リンク切れが見つかるまで待つ – この例では、多くのリンク切れが見つかった。

特に目立つのは、“resources” ページである。リソースのコンテンツを再現する、または、リンクを得るために利用することが出来る。

Chrome Sniffer

このプラグインは、ウェブサイトが利用しているCMS、または、スクリプトのライブラリを自動的に表示する。例えば、ワードプレスのサイトのオーナーのみに接触したい際に、とても便利である。

ウェブを閲覧している際に、利用されているCMSやライブラリに合わせて、URLの右端のアイコンが変化する。

例えば、私のサイトはワードプレスで構築されていることが分かる

そして、ドルーパルで構築されているサイトの場合このように変化する

Redirect Path Checker

このプラグインは、リダイレクトでページに移動される際に自動的に警告を発する。ウェブを閲覧している際に、内部(または外部)で期限切れのURLにリンクを張っている場合、非常に役に立つ。

例えば、私は、たった今、Gizmodo 302リダイレクトにリンクを張っていることに気づいた:

このプラグインが302を通知してくれたため、リダイレクトに気づいたのだ。

アイコンをクリックすると、ブラウザがページに向かう上で経由したリダイレクト(または一連のリダイレクト)を表示する。

SEOmoz Toolbar & Plugin

Mozのプラグインは、様々な用途で利用することが可能である。より高度な方法を幾つか紹介する:

followedとnofollowedのリンクを早く発見する

ウェブサイトの国またはIPアドレスを発見する

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 1: Indexation and Accessibility」を翻訳した内容です。

圧巻の質と量を誇る記事でした。英語圏のツールを中心に紹介されていましたが、大半が日本語でも問題なく使えるものばかりですし(というか、日本で使える同種のツールは余りないですし)、日本のウェブマスターにも十分に役立つ内容だったと思います。ここまで徹底してSEOに取り組んでいるサイトも余り無いと思いますし、全てを行う必要があるわけでもないとは思いますが、ここという時に参考になる情報が満載でした。 — SEO Japan [G+]

Webマスターは自衛を考えるべき


昨今、Googleが変調をきたしているように思う。

変調のきっかけは不正リンクに対して積極的にペナルティを課すようになったことだ。
不正リンクに対して、ペナルティを課すことは間違いではないしやるべきことである。

しかし、残念なことにGoogleは不正リンクと、自然リンクを正しく見分けることができていない。

ではいつになったら、見分けられるようになるのだろう?

私は永遠にならないと思っている

コンピューターの処理能力やアルゴリズムが進歩するとスパムの検出精度は向上するが、あくまで検出精度が上がるだけである。
スパムをゼロにすることは不可能だ。

私が子供の頃、天気予報は当たらないものの代名詞だった。

しかし、現代では天気予報はかなり信頼されており、確かに当日、翌日の天気予報はかなり当てになると思っている人が多いだろう。
これも気象予測のアルゴリズムの進歩、コンピューターの処理能力の向上によるものだ。

これを突き詰めていけば、天気予報は100%的中するようになるのだろうか?

答えはNOである。

この問題にスパムの検出は似ている。

結局は確率や可能性でしか判断できないからだ。

これは不正リンクのチェックをしたことがあればよくわかるだろう。
ウェブマスターツールから被リンクをダウンロードして、一本一本全てのリンクを目視で精査する。

明らかにSEO業者による不正リンクであると判別できるケースは多い。
しかし、判別が難しいものがあまりに多いことに気がつくだろう。
このようにグレーな被リンクは、人間が見ても不正リンクかどうかわからない。

全く同じようなリンクであっても、あるものは不正リンク、あるものは自然リンクだったりする。
そもそもリンクを貼った動機が、

リンクポピュラリティの上昇を狙ったものなのか?
純粋にリンク先のページを紹介したいと思っているのか?

なんてことは神でもなければわかるわけはないのである。
ましてやアルゴリズムで正しく判断するということは不可能だ。

しかし、私は今まではリンクを貼った動機を問う必要はないと思っていた。
何故ならば、そのリンクに価値があるならば、そのリンクは正しいリンクであるからだ。

言い換えてみよう。

  • リンクが存在するサイト自体に何らかの価値がある
  • リンクが存在するページにも何らかの価値がある
  • リンク自体をクリックする意味がある

この3つをクリアするリンクには正しいリンクであり、正しいのであればそれがリンクポピュラリティの上昇を狙ったものであろうがあるまいが関係ない。
という考え方でよいはずだ。

また、私は原則的にSEOをWebマスターは意識する必要はないと思っている。
一般のWebマスターは取り立ててSEOを考えなくても、サイトの運営を続けていれば検索エンジンからそれなりに評価を得られるはずである。

しかし、誰もがSEOにおける危険性を考慮しなければならなくなってきたのだ。

それはなぜか?

いくつかのGoogleの公式発表から危険性を列挙してみる。

  1. ブログパーツからのリンクに危険性
    WEB戦略ラウンドナップの中山氏のこの記事を紹介したい。

    ブログパーツ(ウィジェット)内のリンクはnofollowをつけるべきとGoogleが回答

    当ブログでも現時点においてZenbackというブログパーツを導入してる。



    私はこのZenbackというブログパーツを導入するにあたって、危険性はほとんどないと判断した。
    Zenbackからリンクされる記事と、当ブログの記事には高い関連性があり、ユーザーにとっての利便性がある。
    私の記事を読んで物足りない場合、Zenbackのリンクをクリックしてより深い情報を得ることもできる。
    実際に私もZenbackから広い知見を得ることができているのだ。

    このようなリンクは正しいリンクだ。

    それにもかかわらず、nofollowであるべきというGoogleの発表には納得がいかない。

  2. プレスリリースの危険性
    海外SEO情報ブログの鈴木氏の記事を紹介する。
    「プレスリリースは広告と同じ、リンクにはnofollowを付けるべき」とGoogleのジョン・ミューラー氏

    プレスリリースももしそれが有名なWebの媒体でなされたものであれば、そのページを見て来訪する人もたくさんいるかもしれない。
    それであれば、そのリンクには評価すべき価値があるといってよかろう。
    そうでなければ、そのリンクは価値がないとGoogleが評価すべきである。

    アンカーテキストにSEO対象のキーワードが含まれなければ問題ないということではあるのだが、それでも危険は回避できるとは言えない。
    プレスリリースを配信する際にサイト名や企業名やURLを情報として提供するが、サイト名や企業名にSEO対象の文字列が入っていることも往々にある。

    例えば、私が「新鮮カニ通販サッポロ屋」という屋号で通販をやっているのであれば、アンカーテキストに「カニ通販」なんて文字列が入ってくる危険性がある。

    そんなわけで、プレスリリースにもnofollowをつけるべきだというのだが、実際には無理だ。
    プレスリリースは様々なインターネット媒体が勝手に配信するものなのだから、自分のコントロール下に置くことは不可能である。

    唯一の安全策はプレスリリースを発信しないこととなってくるかもしれない。これってどうなんでしょう・・・。

  3. リンクの否認について
    リンクの否認ツール:Q&A のご紹介
    ここから引用しよう。

    Google では、各サイトの掲載順位が他のウェブマスターによって操作されることのないよう対策に努めています。しかしながら、そのような第三者からの悪意のあるリンクがサイトの評価に悪影響を及ぼしていると思う場合は、リンクの否認ツールを使用して、それらのリンクを無視するよう Google に指定することができます。繰り返しになりますが、Google では独自のアルゴリズムを開発してネガティブ SEO へ対策を実施していますので、ほとんどのウェブマスターの皆さまはネガティブ SEO について心配する必要はありません。

    なんだか今ひとつ歯切れが悪い。

    「そのような第三者からの悪意のあるリンクがサイトの評価に悪影響を及ぼしていると思う場合は、リンクの否認ツールを使用して、それらのリンクを無視するよう Google に指定することができます」
    ではなく、
    「そのような第三者からの悪意のあるリンクがサイトの評価に悪影響を及ぼしていると思う場合では、リンクの否認ツールを使用する必要はありません」
    と言い切って欲しいものだ。

    それもそのはずで、誰の意思で不自然リンクを付けたかなんてことはリンクをつけた人以外わからないからだ。

不自然リンクをペナルティの大きなファクターとして計算するペンギンアップデート以降、私はリンクについてWebマスター側に責任を負わせすぎていると感じている。

  1. 不自然リンクによってペナルティを課すようになった
  2. 無実のサイトにもペナルティが発動する
  3. アルゴリズムで精度を上げようとするも限界に
  4. Webマスター側に対応を依頼するしかない状況に・・・

こんな感じである。
そもそもリンクが人工か天然か?誰が貼ったのか?なんてことはわかりっこないので、それをペナルティの大きな判断基準にしようという考え方にそもそも無理がある。その無理を承知でそのまま何とか運用しようとすることが現在の状況を招いていると思う次第だ。

そもそもスパマーが存在しなければ、こんなことをしなくてもいいのだろうが、スパマーのために善良なWebマスターまでまきぞいになるのは正直勘弁して欲しい。
そうはいっても、まきぞいになるわけにはいかないので自衛するしかないと思う。

ブログパーツの導入は慎重に
プレスリリースの導入も慎重に
リンクは定期的にできればチェックする

といった自衛策は考えなければならない。

最後に、「バカに毛が生えたブログ」さんの記事を紹介して終わりたい。

リンクにnofollowが付与されていない。「風立ちぬ」の公式サイトにGoogle苦言

最近のGoogleの何でもかんでもnofollow入れろという雑な対応をなんか表現できないかなと思って

と書かれていたが、本当にその通りだとしみじみ思う。


※追伸

当ブログを始めてから早いものでもう2年になりました。
どこまでやれるかわかりませんが、とりあえず3年を目指して頑張ります。
応援いただけると幸いでございます。