Googleが道順を検索順位の要素にするかもしれない話

Googleでご近所情報やお店の場所を検索した際に地図情報が同時に表示されることは普通にありますよね。これがスマホ、Google Glass等のモバイルデバイス、または諸にカーナビともあれば、場所はもちろん、その場所へのルートが同時表示されるようになることは普通に想像がつくでしょう。その際、同じような店が多数ある場合、どの場所から表示すべきなのでしょうか?エリアをある程度絞り込んだ後は、レビュー数や評価ポイントを参考に表示順を決めるべきでしょうか?それとも、より自分の現在値に近い店から表示すべきでしょうか?全ての人に最適な答えを返したいGoogleの選択肢とはいかに。久々のSEO by the SeaからGoogleの進化を考える上でも興味深い問いを。 — SEO Japan

大学生の頃、私は現地のレストランで調理のアルバイトをしていた(腹を空かせた大学生にとっては、食事付きのバイトは魅力的であった)。私がバイトをしたレストランの1つは、街の中心地、メインストリートの終わりにあり、地元の常連客でいつも賑わっていた。評判は高く、口コミで店の噂は広まっていった。私は別のレストランでもアルバイトをしていた。このレストランは、街の中心からは遠く、州間ハイウェイの傍で営業していた。評判はあまり良くなく、常連の客も少なかった。客の大半は、食事時に、休憩するドライバー達であった。そのほとんどは、ハイウェイから見える「食事」の標識に吸い寄せられてやって来ていた。

前者のレストランの常連客の多くは、場所を調べることなく、地図を見ることなく店に来ていた。それだけ、有名なレストランだったのだ。 後者のレストランの客は、初めて店を訪れる客ばかりであり、ハイウェイの標識を頼りに、足を運んでいた。現在、この場所には、別のレストランがあるが、この店の客も同じように、モバイルデバイスの地図やナビゲーションアプリ、もしくは、車載のカーナビで発見し、店にやって来ているはずである。何でこんなことを話したかと言うと、実は最近グーグルに付与された特許について、納得できない点があったためだ。

A screenshot from the patent that shows the different parts of a ranking system for local search that includes directions and reviews.

今週、グーグルに付与された特許は、検索エンジンが、実際に訪問することが可能な店舗に対するルートを探す頻度等、「人気」のシグナルを検索エンジンが検証する仕組みを描いている。また、この特許は、ルート検索が少ないケース等、場合によっては、グーグルが、店舗のレビュー等、代わりのシグナルを使って、ページのランキングを行う可能性も指摘している。

この特許の4名の発明者は、数年前にブログの記事「グーグルマップ、そして、地域の検索ランキングの要素としてのルートをGPSを使って是正」の中で触れたグーグルの報告書を綴っていた。その報告書とは、「ハイパーローカルなルートベースの店舗のランク付け」(PDF)である。

ルートのリクエストとレビューの数の相関関係

グーグルのルートをランキングシグナルとして利用する技術を説明するため、この報告書に言及していたが、記事では、店舗のレビューの数とルートの利用を比較する点を指摘するセクションは取り上げていなかった。この結論は、とても刺激的であった。

店舗に寄せられるレビューの数と店舗へのルートを検索する回数の間に、相関関係があると考えられているようだ。グーグルが実行した調査の詳細は省略したが(興味がある方は、上のリンクをクリックして目を通してもらいたい)、比較の結論を以下に掲載する:

この実験では、ルートの記録をその場所の人気/重要性の代わりに利用することが出来るかどうか評価している。私達は、ルートベースのシグナルと、場所に対するレビューの数(通常、人気を計測する要素として受け入られている)との相関関係を比較した。レビューの数は、グーグルのビジネスディレクトリから抽出し、ウェブ上の各種のデータソースに掲載されているレビューの総数を用いている。

…結果のランキングと場所に寄せられたレビューの数の間には明確な相関関係が見られた。よって、ルートのログは、場所の人気を示唆すると言うことが出来る。

この報告書は、この結論の重要性も説明している:

  • ルートのログは安価な金額で集めることが出来る。
  • ルートは、ユーザーによるレビューが場所に投稿される頻度よりも、遥かに多くリクエストされる。
  • ルートのログは、「ほぼリアルタイム」で、レビュー、さらには、ページランク等の他のタイプのシグナルでは、把握しにくい感情の変化を示す。
  • ルートのログは、レビューよりも広範なタイプの場所に対して提供されている。

この特許と報告者が同じ人物によって作成されている点以外にも、この2点の文書の間には、一致する部分が数多く見られる。

それでは当該の特許を紹介する:

地域の検索クエリによって返される場所のルートベースのランク付け

発明者: Hector Gonzalez、Petros Venetis、Christian S. Jensen、Alon Y. Halevy

付与先: Google

米国特許番号: 8,538,973

付与日: 2013年9月17日

申請日: 2010年6月4日

概要

地域の検索クエリの検索結果をランク付けするシステムおよびメソッド。地域の検索クエリ、そして、ユーザーの現在地の情報が、送信されてくる。次に、地域の検索クエリを満たす2ヶ所、または、2ヶ所以上の場所が特定され、それぞれの場所に対して、ユーザーの現在地から、それぞれの場所への距離が算出される。

続いて、少なくとも部分的において、2ヶ所、または、2ヶ所以上の場所の人気、そして、ユーザーの現在地からの距離を基にしたスコアに応じて、ランク付けが行われ、一連の場所に対するランキングの結果を生成する。その後、場所に対するランキングの結果が、ユーザーに提供される。

この特許は、ルートのリクエスト数が、地域の結果に対する人気を計測するランキングシグナルとして、そして、より望ましい結果を検索エンジンのユーザーに提供する上で、有益である別の理由も用意している:

  • ルートのリクエスト数は、特定の距離以内のページを格付けするためだけに用いられる — 食事するために、一定の距離を超えてドライブする可能性は低い。ただし、アンティークショップや、史跡を訪ねるためには、さらに長い距離をドライブすると思われる。
  • 歩行ルートのリクエストが行われる場合、さらに距離が短いと推測される。
  • ウェブページへのリンクの本数等をベースとしたランク付けは、実際に訪問することが可能なスポットの実際の人気を正確に反映しない可能性がある。

ルートリクエスト検索機能

この特許は、固定のルートのリクエストとモバイルのルートのリクエストの違いを明記している。モバイルのリクエストに対して集められる距離は、検索エンジンのユーザーの実際の位置を、デスクトップを経由した場合よりも、遥かに正確に特定することが出来る。モバイルのロケーションは、WiFiの位置特定、または、携帯電話の中継塔まで遡ることが出来るためだ(三角測量を介して)。

ルートに関する情報が集められると、リクエストが行われた時間、曜日、さらには、提示された距離に関する情報も保存される。すると、朝食の人気が高いレストラン、夕食、または、夕食後にフードの注文が増えるナイトクラブ等を表示することが出来るようになる。また、異なるタイプの店舗に向かうために、ユーザーが進んで移動する距離を把握することも出来る。

時間などの特徴を検討する際、次のような、その他の人気に関するシグナルも考慮される可能性がある:

  • 場所に関するユーザーによる評価
  • 場所のに関するーザーによるレビュー
  • 場所に関連するウェブページのクエリに依存しないランキング

ある場所よりも別の場所に移動することをユーザーが好むなら、その点も、そのスポットに対するローカル検索のランク付けにおいて考慮される。

結論

この記事の冒頭で述べた例の中で、私は二軒のレストランに言及した。一軒目は、とても見つけやすく、口コミによる宣伝によって、大勢の客を集めていた。二軒目のレストランよりも、遥かに多くのレビューが寄せられるはずである。また、とても分かりやすい場所で営業を行っていた。

二軒目のレストランは、一軒目のレストランと比べると、評価は落ちるものの、交通量の多いハイウェイの傍で営業するメリットを享受し、レストランのことを一度も聞いたことがなく、また、二度と戻ってこないであろう一見の客を獲得していた。このレストランは、州間ハイウェイから数百メートルの距離にあり、ハイウェイを移動するドライバーがルートをリクエストする際に、取り上げてもらえる確率は高い。

二軒目のレストランにやって来る客は、レビューを残す可能性が低い — 食べ物はこれと言って美味しいわけではないが、手っ取り早く腹を満たしたいドライバーにとっては、十分なレベルであった。交通流の多い州間ハイウェイの近くに位置することが、人気の源であった。

数日前、友達が、最高のハードウェアストアを探している人物に対して、32キロほど離れた店を紹介していた。数キロ以内にもハードウェアストアは存在するものの、品質の高い製品の在庫の量は、遠い店と比べると、遥かに少ない。

このように、素晴らしいレビューが一貫して寄せられるスポットは、移動距離で人気を獲得しているスポットよりも、場合によっては、良い選択肢となる。しかし、大半の個人的なニーズを満たす上では、わざわざ遠い店までドライブすることはない。

グーグルが、スポットへのルートのログ等、人気のシグナルを実際に利用しているかどうかは定かではないが、大勢のユーザーはレビューを求めているため、グーグルが店に対するレビューを集め、提供したがっていることは確かである。

グーグルは、ルートの情報のみを使って、あるいは、レビューの情報と合わせて、地域の検索結果のランク付けを行っている可能性がある。恐らく、店を検索するために時間を割くことを考慮すると、ユーザーは双方のタイプの情報を調べていると考えられる。モバイルデバイスで検索を行っているなら、レビューの情報を得る余裕はないだろう。


この記事は、SEO by the Seaに掲載された「Driving Directions vs. Reviews as Ranking Signals for Google Maps」を翻訳した内容です。

もちろん「絶対的回答はない」ということは簡単ですし、「切り替えられるようにすればいい」のもまた事実ですが、できるだけより多くの人にとって満足度が高い回答を提供したいのがGoogle魂。例えば「渋谷 ラーメン屋」1つをとっても、その人の過去の履歴はもちろん、検索の時間帯によっても、人気店から表示するか近場の店から表示するか、絶妙な加減で適度に両者をブレンドした順番で表示するか、無限の可能性がありそうです。夜中、さらにはその数時間前に飲食店検索をしていれば、「限りなく酔っ払っており締めのラーメンを食べたいに違いない」と判断し、レビュー無視で近場の店から順番に表示させるといいかも?車で移動中で検索中には刻々とロケーションが変化するようであれば、そのスピードに応じて進行方向**kmまでを追加検索対象にし「10分我慢してでも食べたい」人気店を表示するなんてことも?こういうことを考えていくと、サーチマーケティングやそれこそ新サービスの需要まで新たな発想が浮かびそうですね。 — SEO Japan [G+]

2014年に実現したい14点のリンクの誓い

Googleのアルゴリズム&取締り強化で意図的な外部リンク施策がペナルティにつながりかねない最近のSEO。そうはいっても、順位向上にリンクが必要なのもまた限りなく絶対的な事実。余計なトラブルを抱え込まずに被リンク対策に取り組みたいあなたのための2014年版リンク構築のアドバイス集。 — SEO Japan

2013年のリンク構築業界を一言で表すなら、「刺激的」と言う言葉がピッタリである。大きな変化に関しては、大勢のエキスパートが既に語り尽くしているので、ここでは取り上げない。代わりに、2014年の新年の誓い候補となる14点の決意を挙げていく。

1. 被リンクのプロフィールを精査する

リンクレポートを自分で実施したことがないなら、今すぐに実施するべきである。素晴らしいツールが提供されている(独自のデータベースを利用するツールもあれば、他のソースからデータを引き出すツールもある)。人気の高いツールは、有益なものばかりだ。お試しアカウント、無料の1日有効アカウント、あるいは、リンクプロフィールが小さいなら、単純に無料版を利用するだけでも良い。リンクプロフィールが莫大なら、適切な有料のリンク分析ツールの利用を検討してもらいたい。有料ツールは、極めて有益である。

グーグルとビングのウェブマスターツールから情報を得ることは可能だが、検索エンジン以外の情報源を用意しておくと良いだろう。また、リンクを評価する方法も学んでおいてもらいたい。

問題を抱えていると思うなら、あるいは、ペナルティーを与えられたなら、リンクの専門家に相談することを薦める。しかし、プロのようにデータを徹底的に調べることは出来なくても、リンクをリストアップする方法、そして、リンクプロフィールの基本的な分析を行う方法に関しては、すべてのウェブマスターが知っておく必要がある。

以下に、私が利用したことのある人気の高いツールを挙げていく:

2. リンクを常にチェックする

特に疑わしいリンク構築が行われている場合、あっと言う間に、収拾がつかなくなることがある。誰もが、メソッド、そして、関連するリスクを包み隠さずに明らかにしているわけではない — そのため、リンク構築のスタッフが何をしているのか知らない状態で、突然、全く関係のないフォーラムのコメントから、500本のネットワーク化されたリンクが姿を現したなら、さらに1500本のリンクが追加される前に急ブレーキをかけるべきである。 すべてのリンク先を訪問し、詳細に分析する必要はない。しかし、誤った方向に進みつつあるなら、感じ取ることが出来るはずである。

3. グーグルとビングのウェブマスターツールを設定する

ウェブマスターツールのアカウントを作らない状態で、見極めることが出来ない問題に遭遇するウェブマスターは、意外に多い。ウェブマスターツールは、数分間で設定することが可能であり、無料で利用することが出来るので、各サイトにアカウントを用意するべきである。ウェブマスターツールでは、被リンクに関する情報を得ることが可能であり(ただし、全体像としてこの情報に頼ることは出来ない)、また、グーグルで手動ペナルティーを受けた場合、通知してもらえる。ただし、ウェブマスターツールを設定したものの、全くアクセスしない状態は好ましくない。ウェブマスターツールには、サイトを分析する上で役に立つ素晴らしい機能が搭載されている。

4. 店舗/オフィスを持っている利を活かす

フォースクエアとフェイスブックのアカウントを作り、利用するべきである。少なくとも、グーグルとビングの地域のセクションで、会社のアカウントを作成しておこう。

注記: ローカルに真剣に取り組んでいるなら、アンドリュー・ショットランドが綴った「利用するべき5つの信頼されるアカウント」を参考にしてもらいたい。

5. 数字に執着しない

数字を軽視するべきだと薦めているわけではない。それはあまりにも割り切り過ぎであり、誤った見方だと言わざるを得ない。ただし、実際に、数字に過剰に執着するクライアントが存在する。
metrics

サイトが、数字以外のすべての点において、リンクを獲得する価値があると思うなら、行動に移すべきである(ペナルティーを受けているサイトを除く)。全く関係のないPR 4のページからは、ランキングの押上げ以外(もちろん、それはそれで有効ではあるものの、この点だけに固執するのは良くない)、何もメリットが期待することが出来ない。そのため、例えば、ソーシャルネットワークで勢いを得つつあるものの、裏付ける数字を得ていない新しいブログからリンクを得るチャンスがあるなら、是非、リンクを獲得してもらいたい。

6. eメールを接触するために使うなら、巧みに実施する

この誓いは様々な意味を持つ。まず、eメールを受信するのが男性だと仮定するべきではない(事実、私の下には「Sir」を用いるメールが多数寄せられる)。また、全く同じサービスを提供する人物にサービスを提案する必要はない(リンク構築を提案するメールもまた多数寄せられる)。eメールリストへの登録を解除するオプションも忘れずに提供してもらいたい。

eメールによる接触は、現在も主力のメソッドであり、実際に効果は高い。しかし、時間を割いて、接触のメールをパーソナライズし、メールを送る際に相手の時間を無駄遣いしないように細心の注意を払う必要がある。また、二度とメールが送られてこないオプションも用意するべきである。

7. SERPにページがどのように表示されているのか確認する

自分のサイトのSERPのリスティングをクリックしたいと思うだろうか?SERPで2位を獲得しているものの、トラフィックが少ないなら、上下のサイトを確認してみよう。自分のサイトではなく、上下のサイトをクリックしたいと思うだろうか?クリックしたいと思ったなら、何かしら対策を練る必要がある。オーソリティの高いサイトのリンクは、ランキングを高める効果があるものの、ランキングが上がったら、トラフィックも増えるように工夫するべきである。マジシャンではないので、実際に対策を講じなければならない。

8. サイトでゲスト投稿を募集する

eメールを使って、相手のサイトでのゲスト投稿を呼び掛けるだけでなく、自分のサイトでゲスト投稿を募集する、もしくは、サイトでインタビューに応じてもらえるように交渉しよう。すると、若干「利他的」なアプローチとなり、ギブ & テイクの関係が生まれる。事実、他の人達に関心を示すことで、素晴らしいリンクを獲得することに私は成功している。

9. アイデアを出す

私はブレインストーミングを 多用している。アイデアを重要視してもらえた感じると、素晴らしいアイデアが生まれてくる。実際にすべてのアイデアが功を奏するかどうかを心配する必要はない。バカバカしいと思う時こそ、有効なアイデアが生まれるものだ。スタッフの人数が多いなら、オフィス以外の場所で、ブレインストーミングセッションを開催する手もある。外に出ることが出来るなら、是非、実行に移してもらいたい。デスクとは異なる環境に身を置くことで、創造力が高まる場合もある。例えば、コンテンツに関するアイデアを考える、問題や解決策に関して話し合う、接触するための新しい手段やサイトの交流を活発にする方法を提案する等が出来るはずだ。

10. リスクの許容範囲を見直す

自然のリンクを大量にもたらす巨大なサイトを運営していても、悪徳リンク構築サービスを用いているケースも考えられる。今までは、効果があり、一度もペナルティーを課されていないとしても、2013年の大規模な取り締まりを考慮すると、確証は持てない。リンク構築の手法におけるリスクを受け入れられるなら、これ以上とやかく言うつもりはないが、ペナルティーから復帰したばかりであり、問題の元凶となった手法に再び手を出すつもりなら、次に捕まった際は、さらに厳しいペナルティーが待っていることを理解するべきである。

network busted

11. ペナルティーを受けた場合、もしくは、インデックスから除外された場合の対策を練る

フォロワーの多いツイッターであれ、顧客に大々的な最新のプロモーションに関する情報を提供するeメールリストであれ、あるいは、ファンの多いフェイスブックページであれ、どこか別の場所でアピールする必要がある。一時的であれ、インデックスから誤って除外されてしまうこともある。事実、robots.txtファイルで誤ってグーグルをブロックしたため、インデックスから姿を消してしまうサイトは、両手では数えきれないほど多い。何が起きてもおかしくはないので、準備をしておくべきである。

12. ソーシャルメディアを利用するなら、維持する

1年半以上、ツイートを投稿しない企業ほど迷惑な存在はない(この行為よりも迷惑だと思うのは、会社のアカウントで、自分のコンテンツに向かうリンクしかツイートしない行為ぐらいだ)。ソーシャルメディアを利用するつもりなら、適切に利用してもらいたい。話しかけられたら反応し、批判に対応し、そして、注目を集めるだけでなく、注目を返すことに時間を注ごう。また、ブランドに関する発言に目を光らせるべきである。グーグルは、発言の内容をリストアップし、カスタマイズすることが可能な無料のアラートツールを用意している。Talkwalkerのアラートもまた無料であり、グーグルアラートの代わり、または、バックアップとして活躍するはずだ。ブランド、少なくとも、URLを監視してもらいたい。

13. グーグルウェブマスターツールの「その他のリソース」を確認する

グーグルがサービスを閉鎖する行為を嘆く度に、このタブで提供されているツールの素晴らしさを思い出す。例えば、Page Speed Insightsは、たとえ利用料を支払ってでも(実際は無料)使うべきサービスであり、サイトの一部にこのサービスの提案を実施したところ、パフォーマンスが大きく改善された。

other resources

14. 最新の状況に対応する

SEO業界のあらゆる最新情報を消化するのは、とても時間がかかる。しかし、オンラインマーケティングを実施しているなら、– 自分で作業しているのであれ、賃金を支払って代行してもらっているのであれ — 少なくとも基本を押さえておく必要がある。グーグルは、時折、ウェブマスターガイドラインを更新しており、侵害に該当する行為をリストに加えている。そのため、このページをブックマークし、最低でも月に1度は訪問するよう心掛けてもらいたい(特にリンクプログラムのページ)。毎日15分間、メジャーなSEOのサイトのヘッドラインに目を通すか、週に一度のリンクに関するコラムを購読しよう。メジャーなSEOサイトをツイッターでフォローする手もある。

以上、すべて妥当な決意だったのではないだろうか?(あとは私自身のサイトでも、この決意を実現させれば、完璧である)

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「14 Link Resolutions for 2014」を翻訳した内容です。

どれも基本、王道の内容ばかりでつまらないと思う人もいるかもしれませんが、2014年の外部リンク構築は、こういう話なのもまた事実。とはいえ、全く意識的にリンクを獲得する手法が一切語られていないのは実践的でないというか、「理想論はわかったから」といいたくなるのもまた真実。過去に何度も語られてきたような戦略(リンク構築で「コンテンツ・イズ・キング」は絶対か?)や具体的手法(11のクリエイティブなリンク構築戦略これからのSEOに勝利するリンク構築の10手法)から自分なりのリンク獲得法を考え実践していくしかないですかね。 — SEO Japan [G+]

2014年版 SEOの計画書 – 外部リンク構築編

2014年版 SEOの計画書、内部最適化編に続いていよいよ外部リンク構築編を。これまでの意図的な被リンク施策が全く通じなくなったといわれる今日のGoogleですが、それでもやっぱり無視はできない外部リンク対策。2014年にあるべき被リンク構築の姿を探ります。 — SEO Japan

2014-seo-playbookAre you ready for 2014?

今回は、毎年恒例のSEOの計画書の最終章となる、パート 3をお届けする。パート 1(日本語)では、2014年に、ハミングバードがマーケッターに与える影響、とりわけコンテンツおよびオーソリティに関連する影響を主に取り上げた。パート 2では、コンテンツ、HTML、そして、アーキテクチャを含む、オンページのSEOの要素を最新の情報を交えて、振り返った。

そして、ラストを飾るパート 3では、SEOの関係者が、2014年を迎えるにあたって、考慮する必要のあるオフページの要素を取り上げていく。最後まで楽しんで読んでもらえると嬉しい。

リンク: 品質

リンクに関して、伝えておきたいことはたくさんある。グーグルは、2014年も引き続き、識別する取り組み、そして、ペナルティーを与える取り組みを積極的に行うはずだ。忌憚のない意見を言わせてもらうならば、リンク分析は、さらに精度を増し、検索およびスパム対策チームが持つ「不当に無実のウェブサイトをターゲットにしない」と言う自信は、さらに深まるだろう。

2013年は、「リンク構築が滅亡したと言う主張が、繰り返した行われた1年であった。言い過ぎだと私は思う。人為的な手段や要望に訴えることなく、リンクを促す取り組みは数多く存在する。リンク構築プログラムは、インフルエンサーマーケティングプログラムに組み入れられ、ネットワーキングを重視する動きが見られる。私個人は、リンクを張るかどうかの判断が、完全に相手に委ねられているなら、新しいコンテンツに関するネットワークを通知するeメールを送信すること自体は、問題はないと考えている。

多様性 — つまり各種のソースからリンクが寄せられる — もまた重要である。すべてのリンクが自分のネットワークから向けられているなら、あるいは、同じウェブサイトから何度も何度も寄せられているなら、注意が必要だ。コンテンツを自動化し、編集カレンダーのチェックボックスにチェックを入れるだけの方針は認められない。実際にオーディエンスを増やすことが出来るくらい、積極的にコンテンツを宣伝しなければならない。すると、リンクの多様性は、自ずと実現する傾向が見られる。

既に大量の質の低いリンクを獲得しているウェブサイト(リンク構築サービスを利用したことがあるなら、絶対に調査を行うべきである)を運営し、まだペンギンによるペナルティーを課されていないなら、今後、難しい選択を迫られることになる。今後のアルゴリズムのアップデートにより、サイトが狙われることを恐れ、リンク一掃プログラムを必死に実施すればいいのか、もしくは、何もせずに待てばいいのだろうか?

これは難しい判断であり、プロに相談するべきである。リンクの40%以上が質が低いなら、特に悪質なリンクを削除し、より広範なキャンペーンに従事することを私なら勧める。ただし、40%は科学的な裏付けがあるわけではなく、あくまでも推測である。ウェブサイトを見て、被リンクの40%以上が、質が低いと判断した場合、むしずが走る。

ペナルティーを受けていなくても、リンクを整理する取り組みを積極的に記録するべきである。手動ペナルティーを今後受けた場合、この記録が、既にリハビリに務めている証となり、再審査のプロセスをスピードアップすることが出来るかもしれないからだ。

また、多数の外部のリンクが、同じアンカーテキストを用いているケースも注意する必要がある。これは、他のサイトが、記事のタイトルやタイトルタグを使ってリンクを張ることで、割と自然に発生する。この事例に関しては、基本的に心配する必要はない。危険なのは、個別のキーワードやキーフレーズが不自然に繰り返されているケースだ。これまで、グーグルは、古いリンクを除外する意思は見せていないため、アンカーテキストをリンクスパム分析の一環に盛り込んでもらいたい。

グーグルのリンク否認ツールに関しては、確実にペナルティーを課されている場合を除き、私なら利用を控える。予防策として、オフサイトのリンクのリハビリを行っているなら、必要になった際にすぐに否認ツールに情報を加えることが出来るように、やはり記録を取っておくことを薦める。

リンク: 量

リンクの本数、ドメインのオーソリティ、あるいは、ページのオーソリティについては、昔から「質と量」を重視する傾向がある。この傾向は今後も続く。キーワードにおける競合者よりも、新しく、優れたリンクを早いペースで獲得することが出来ないなら、多くのランキングのバトルで負けを見ることになるだろう。

リンク: 有料

ランキングを上げることを願って、リンクを買う行為は慎んでもらいたい。昨年SEOのカンファレンスに足を運んだなら、リンクの販売業者が、展示フロアから姿を消していた点に気づいたのではないだろうか。この現象には理由がある。グーグルは、トリックを完全に理解している。リンクを買うべきではない。

信頼性: オーソリティ

信頼性は、検索エンジンのランキングの要素、または、一連の要素として、進化し始めている。ドメインエイジ等の昔のシグナルの重要性は、もともと有意義ではなかったため、そして、検索エンジンが、新しく、より質の高いアルゴリズム主体のシグナルを今まで以上に信頼することが出来るようになったため、低下している。

現在、whitehouse.govやadobe.com等の信頼されているサイトからリンクに加え、信頼は、ブランドの知名度や作者の知名度以上の価値を持つようになっている。グーグルとビングは、ブランドのデータベース、そして、このデータベースに新たなにブランドを加える自動的な手段を持っている。ブランドは重要だが、知名度の高さではない。ブランドの強みは、インターネットユーザーが話題に上げ、リンクを張るため、ランキングで上位を獲得することが出来る点である。

ライターに本格的にソーシャルネットワークを駆使するよう指示し、オーサーやパブリッシャーのタグを採用する戦略は、信頼を確立する上で有効である。また、私自身は、信頼されているインフルエンサーを招く、または、雇用して、会社のブログに寄稿してもらう手法を好んでいる。 有料のコンテンツに関して、賛否両論があることは理解している。一つハッキリさせておく。私は、ウェブサイトのスペースを埋めるために、有料のコンテンツを求めることには反対する。しかし、有名なエキスパートに優れたコンテンツを作ってもらい、作品に見合った報酬を与える方針は支持する。

会社のブログの見解として、核となるライターを用意することで、信頼を確立する手もある。一名のスタッフに時間を割いてもらい、優れたコンテンツを作り、ソーシャルメディアで宣伝させると、大勢の寄稿者に順番にコンテンツを投稿してもらうよりも、遥かに効果は高い。オーサー(作者)の信頼は、育てるものであり、信頼が高まると、過去の記事にもこの信頼が反映されるようになる。

信頼: 著作権侵害

そのコンテンツ管理システムは、最新の状態に保たれているだろうか?大半のCMSのアップデートには、乗っ取りと著作権侵害を予防するセキュリティパッチが盛り込まれている。そのため、後れを取ることがないよう注意してもらいたい。

サーバー、または、ウェブサイトがハッキングされた場合、もしくは、マルウェアに感染した場合、すぐにオフラインの状態にして、503ページを提示しよう。こうすることで、サイトが一時的にオフラインの状態であり、間もなく復帰する点を、検索エンジンに伝えることが出来る。万が一、このような状況に遭遇し、ユーザーを守るために、検索エンジンにサイトをブロックされた場合は、問題を解決し、再審査請求を提出するまで、サイトをオンラインの状態に戻すべきではない。無料の検索に関する支援を、グーグルやビングの有料広告の担当者に求めてはいけない、と言うのが鉄則である。ただし、うまくいくかどうかは別として、ウェブサイトの問題を修正し、再びSERPに掲載するプロセスをスピードアップすることが出来るなら、どんなことにも手を出す価値はあり、このルールの例外に該当すると私は考えている。有料検索を用いており、マルウェアを理由にSERPから外されたなら、ウェブサイトを修正した後、広告にも再び仕事をしてもらいたいはずだ。

ソーシャル: つながり & 交流

検索エンジンのランキングの要素としてのソーシャルメディアは、検索エンジンや最適化のエキスパートが大々的にアピールするほどの実力には達していない。ソーシャルメディアは、確かにランキングの要素の一つであり、今後、重要度は高くなるだろう。しかし、近いうちに、ソーシャルがリンクのオーソリティに取って代わることはない。また、この切り換えは、予想していたよりも遅いペースで進んでいると見られている。

フェイスブックのいいね!やシェアの数、ツイッターの言及やリツイート等のソーシャルメディアのスタッツは、上位のランキングと相関関係がある。それでも、検索エンジンの代表者が強調するように、相関関係は、因果関係にはならない。現時点では、人気の高いウェブサイトやインフルエンサーは、ソーシャルの票として、リンクを獲得しており、やはり因果関係には該当しない。

検索エンジンとソーシャルメディアサイトの関係を理解し、この類のサイトで積極的に活動することが肝要である。例えば、グーグルは、グーグル+を運営している。ビングは、ツイッターとフェイスブックと提携している。パーソナライズの結果は、今後もソーシャルネットワークのつながりの影響を受けるはずだ。ユーザーが個人やブランドとつながりを持っている場合、検索エンジンは、ソーシャルメディアのつながりを使って、適切なコンテンツを表示するようになるだろう。

パーソナライゼーション: 国 & 地域

数年前から、世界の検索結果と地域の検索結果に対する注目が高まっている。サブドメインやカントリーコードのトップレベルのドメインを適切に利用する、言語コードを使ってページをタグ付けする、グーグルウェブマスターツールで地域のターゲットを設定する、あるいは、グーグル+とビングの会社向けプレイスに登録する等、世界の結果および地域の結果に対する、様々な最適化の取り組みが存在する。このような取り組みを無視するのは危険である。

ここで再びリンクの話をする。ターゲットにしている地域に関連するサイトからリンクを獲得しているなら、その地域の結果で上位に食い込む可能性が高い。検索エンジンは、ユーザー中心のシグナルを計測する精度を上げており、IPアドレスやサーバーの位置等の要素は、今後さらに影響力を高めていくと見られる。

これは、ソーシャルメディアが、やがて、重要な役割を担うようになる領域だと私は考えている。例えば、ポルトガルで大勢のユーザーが、グーグル+のサークル内に企業 Aを登録しているなら、企業 Aはポルトガル国内の検索結果で登場する可能性は高い。このタイプのシグナルは、サーバーがポルトガル国内に置かれているか、または、ポルトガル語(複数の国が利用している)がウェブサイトで用いられているかどうかよりも、遥かに大きな意味を持つ。

パーソナライゼーション: 履歴

ソーシャルメディアと同様に、過去の履歴は、ランキングの要素として、徐々に頭角を現しつつある。現在、グーグルにログインしている状態で、または、クロームを利用している状態で、ウェブのドキュメントにアクセスすると、そのページ、または、サイトは、今後の検索結果に登場する確率が高くなる。ソーシャルメディアの友達が、あるページを訪問したなら、そのページ、または、サイトは、今後の結果に盛り込まれる可能性は高い。個人の体験に左右されるため、非常に流動的だが、検索エンジンは、この領域において、常に進化を続けていると言えるだろう。

そのため、今後、大勢の人々が訪問するウェブページを信頼するのは、検索エンジンにとって、理に叶った方針だと言えるだろう。データベースに集めた検索の履歴データを使って、容易に評価することが出来るはずだ。

結論

結局、すべてのランキングの要素は、品質、オーソリティ、そして、信頼に行き着く。検索エンジンが、データを集める新たな方法を編み出し、既に持っているデータを評価する能力をレベルアップするにつれ、アルゴリズムが、容易に計測することが可能ではあるものの、あまり役に立たないシグナル(ドメインエイジやサーバーの場所)から、計測するのは難しいものの、より有効なシグナル(ユーザーの場所やオーサーの信頼度)に切り換えるのは、当然の成り行きである。

事実、過去2年間、パンダ、そして、ペンギンをきっかけに、この傾向は既に現れており、検索エンジンが、ポリシーやガイドラインを強制することが出来る環境が整いつつある。 もはや、SEOは、技術的なトリックを用いて、グーグルとビングを出し抜く取り組みではない。オーディエンスを増やし、信頼を獲得し、求められている有益な情報を提供することが、SEOに相当する。

新たなSEOの時代の幕開けだと指摘する人もいれば、SEOの終わりであり、インバウンドマーケティングの黄金期の始まりだと主張する人もいる。いずれにせよ、現在のテクノロジーにより、うまくいく取り組みと失敗する取り組みに関するデータを、今まで以上に得ることが出来る点は、確かである。最終的に、新しい現実を受け入れ、この現実に対して、行動を起こすウェブサイトと企業が成功する。

キーワードのランキングから、リンクの獲得、そして、インフルエンサーの招待に至るまで、何もかもがコンテンツをベースとしているため、私はコンテンツの利用を大々的に支持している。ただし、万能型の戦略など存在しないことを理解してもらいたい。目標と目的を踏まえて、ビジネスにとって最高の取り組みを理解し、実施する必要がある。優れたオンラインマーケティングプログラムのおかげで、SERPで上位にランクインすることが出来るのであり、SEO自体は、優れたオンラインマーケティングを作り上げるわけではないことを肝に銘じておいてもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「2014 SEO Playbook: Off-Page Factors」を翻訳した内容です。

今ある外部リンク構築の姿をキレイにまとめてくれた記事でした。結局はコンテンツが重要という話に行きつきそうですが、具体的な手法や日々の取り組みとしてコンテンツ以外にも色々できることはあるのでしょう。特効薬はほぼ皆無、SEOも地道に努力を続けた者だけが勝てる世界になりつつありますね。 — SEO Japan [G+]

2014年版 SEOの計画書 – 内部最適化編

昨年末の2014年版 SEOの計画書 – ハミングバード、コンテンツ、オーソリティに注目という記事を紹介しましたが、今回はその続編に位置する内部最適化に焦点を当てた記事をご紹介。項目毎に簡潔に書かれており、SEO初心者はもちろん上級者も2014年のSEO始めの際に頭の整理に記事です。 — SEO Japan

2014 SEO Playbook今回は、毎年恒例、SEO計画書のパート 2(パート 1はこちら(日本語))をお届けする。まずは、SEO計画書のパート 2を作る上で最高のアイデア(SEOを成功に導く要素の周期表)を与えてくれたことを、ダニー・サリバンおよびサーチエンジンランドのスタッフに感謝したい。

パート 2では、コンテンツ、HTML、そして、アーキテクチャを含む、オンページの要素を取り上げていく。間違いなく、思考回路を刺激するはずだ。また、行動に移すことが可能な提案も行う予定である。これは、手順を追ってSEOを説明するガイドではなく、形式には全くこだわっていない。そのため、SEOキャンペーンに取り掛かる前に、自分でリサーチを行うか、エキスパートに相談することを薦める。

Periodic Table of SEO

コンテンツ: 品質

2013年は、ワード数や奥深いコンテンツ等、品質に関する議論が多く行われた。

パンダアップデートが行われると、短い「薄っぺらい」記事を作る行為に終止符が打たれたと誰もが感じた。しかし、新鮮なコンテンツを投稿することに苦労していたウェブサイト、特に企業のウェブサイトは、この行為を継続している。最近、ある企業が、10点の必読書を紹介するブログの記事を投稿していた。この記事は、本のサムネイルのイメージとタイトルを挙げ、オンライン書店にリンクを張っていただけであった。このような安っぽい記事は、パンダによるペナルティーの格好のターゲットであり、何度も投稿するのは危険過ぎる。

反対に、推奨されているのは、1500ワード以上で構成される詳細なコンテンツ(ページ & 記事)である。このタイプのコンテンツを持つウェブサイトは成功しており、多数の短く、「安っぽい」記事を作成するための時間を、少数の長く、より有意義なコンテンツを作成するために利用する方が無難である。いずれにせよ、文法、および、誤字脱字に注意して、まともな文章を綴る必要がある。意見を出すだけでなく、思慮に富んだ見解、または、リサーチして発見したデータで裏付けを行ってもらいたい。肉付けをする必要があるのだ。私個人は、450ワード以下のコンテンツに関しては、その他のコンテンツと組み合わせるか、あるいは、書く価値がないコンテンツと位置づけるようにしている。

以前、Eコマースのデスクリプションには、250ワードが最適だと考えていた。しかし、現在は、ワード数よりも、優れたリストを作成し、メリットと機能のマッチングさせることに力を入れている。

コンテンツ: キーワード

キーワードリサーチは、今後も姿を消すことはなく、今も尚オンサイトSEOの基盤として健在である。ハミングバードアップデートが導入された後、エンティティの役割を取り上げるようになり、結果ページでキーワードに代わり、トピックが表示されるようになった。グーグルは、類義語の検知とコンセプトの分類において飛躍的に発展を遂げている — ロングテールキーワードの終焉を宣言する専門家もいる(しかし、SEO業界のあらゆる終焉宣言に共通することだが、この主張もまた大げさである)。

各ページを、トピックとして、独立させることが出来るようにしてもらいたい。別のキーワードに対する最適化を実施するために、同じトピックに対して、複数のページを作成する行為は慎むべきである。そうではなく、単一の、良くまとめられた、言及に値するトピックページにこだわり、このページを複数のキーワードに対して最適化するべきである。この点もまた、長文形式のコンテンツを用いる理由の一つに数えられる。

コンテンツ: エンゲージメント

ビジターが時間を割いてコンテンツを読んでいるか、もしくは、直帰するかが、エンゲージメント(参加を介した交流)を左右する。ここでも、やはり、有益なコンテンツが鍵を握る。何においても、最終的に品質が運命を決める。オーディエンス、または、ターゲットのユーザー層が読みたいと思うコンテンツを提供しているのか、編集カレンダーを埋めるためだけにコンテンツを配信しているのか、もしくは、最近、記事の投稿が滞っていたため、罪悪感からコンテンツを抵抗しているのか、どのタイプに当てはまるのか考えてもらいたい。

また、エンゲージメントは、テキストのコンテンツだけに限定されるわけではない。ウェブページのデザインも大事である。エンゲージメントを活性化するだけでなく、見た目も重要である。読みやすさには、ページのレイアウト、フォントの選択、文字と行間のスペース等が含まれる。さらに、ナビゲーションと他のコンテンツへ向かうリンクの表示にも注意してもらいたい。このような要素は、直帰率や滞在時間等のビジターエンゲージメントのスタッツに大きな影響を与える。

コンテンツ: 広告

広告を配置するレイアウトにも気を配る必要がある。検索エンジンは、広告を掲載することに対して、罰を与えるわけではない。そこまで厳しくはない。検索エンジンがペナルティーを与えるのは、過剰な量の広告を掲載する行為、または、不適切な位置に広告を掲載する行為である。

現行の検索エンジンのポリシーが強化される以外は、この領域において、2014年に大きな変化が起きることはないだろう。 ただし、広告の表示に加え、テキストリンク広告に関して、特に注意が必要である。コンテンツに適切である点、または、コンテンツにマッチしている点、nofollow化している点を確認してもらいたい。今でもコンテンツ内に自動フレーズリンク広告を利用しているなら、削除することを強く薦める。インタースティシャル広告やポップアップ広告を利用しているなら、検索エンジンによるページのクロールを妨げないように気をつける必要がある。

コンテンツ: 新鮮さ

私は新鮮なコンテンツを大々的に支持している — と言っても、人気のあるトピックに関するコンテンツを投稿するだけでなく、定期的、または、頻繁に新しいコンテンツを投稿するべきである。新しいコンテンツは、読者を集めるだけでなく、クロールの頻度と深さを改善する上でも重要である。先程、投稿カレンダーを埋めるためだけに、コンテンツを作るべきではないと指摘した。しかし、投稿カレンダーを用意していないなら、まずはこの予定表を策定し、コンテンツの作成に取り掛かる必要がある。

コンテンツを、知名度と信頼度を高めるためのツールと考えるとよい。つまり、会社、そして、製品やサービスに関する記事を投稿するだけでは、不十分である。活動範囲を広げ、– ターゲットのマーケット、そして、ターゲットのマーケットに属する消費者や企業にとっての情報源になることを目指すべきだ

この広範なアプローチにより、さらに多くのトピックが生まれ、ターゲットのマーケットが関心を持つトピックに焦点を絞ることが出来るようになる。これが、オーディエンスを増やすことが可能なコンテンツのタイプである。マーケティングファンネルの上部の層でオーディエンスを獲得する試みを行っていないなら、方針を誤っている可能性がある。当然ながら、例外はある — ただし、例外に該当する会社よりも遥かに多くのの会社が、この試みに失敗している。

HTML: タイトル & ヘッダー

現在、タイトルタグに注目が集まっている。最適化したタグとヘッダーを作成する基本的なルールは、変わっていない。検索エンジン(特にグーグル)が、より多くのタイトルタグをアルゴリズムを基に書き換えるようになると私は予想している。グーグルにタイトルタグを書き換えられているなら、試しに、HTMLをグーグルがSERPに表示するテキストと同じテキストに変えてみよう。「試しに」と言ったが、あくまでも賢明に変更するテキストを選び、パフォーマンスのスタッツの変化をチェックしてもらいたい。改善が見られたら、より広い範囲でタイトルタグを最適化する価値があるかもしれない。

エンティティの検索、そして、複数のキーワードに対する最適化に話を戻す — トピックの最適化を行う際は、タイトルタグおよびH1タグでどのキーワードを利用しているか、認識する必要がある。確実な公式を紹介したいところだが、そんなものは存在しない。類義語を検討する際は、完全に一致する検索を最も獲得しているワードとフレーズに留意し、人気の高い言葉に関しては、自分の直感に従おう。

HTML: デスクリプション

メタデスクリプションタグの最適化に関しては、特に変更は見られない。各ページに固有のデスクリプション(記述)を用意する必要がある。ランキングを変動する力はないものの、質の高い記述は、クリックスルー率を高める効果がある。

私は長さが150ワード前後になるように心掛けている。現実として、実際の長さは、文字の画素幅に左右されるものの、結果に表示された際に、全文が記されるように工夫する必要がある。

サイトリンクで表示されるページに対しては、各リンクの下に現れるデスクリプションの部分が、分かりやすく表示されるように工夫するべきである。これは、多くの企業のサイトやブランドが改善する余地のある領域である。

HTML: 構造化データのマークアップ

毎年のように、構造化データのマークアップが重要なトピックとして挙げられている気がする。

まず、自然なSEOに利用するべきかどうかについて、意見が分かれる。この業界の一部のベテランは、構造化マークアップ、または、コンピュータが読み取れる言語の利用を嫌う。なぜなら、訪問を活性化しない形式で、検索エンジンに情報を提示してもらいたくないためだ。

例えば、好きなNFLのチーム名を入力すると、グーグルは、次回の試合の予定を含むこのチームの情報をSERPで提供する。例えば、今でもよく覚えているのだが、動物園のウェブサイトを運営する際、検索結果の上部に営業時間を表示してもらった方が良いのか、あるいは、ウェブサイトに訪問してもらい、現在の動物の展示および催しを知ってもらった方が良いのかと尋ねられたことがある。もっともな質問である。そして、動物園により多くの来園者をもたらす方法を選べ、と言うのがもっともな答えであった。

グーグル、ビング、そして、ヤフー!は、気に入ったデータを、ウェブサイトのオーナーやビジターの気持ちを考慮せずに、好きな形式で表示する。個人的には、たとえウェブサイトの情報がSERPに表示されたとしても、情報源として信頼してもらうことを選ぶ。そのため、私はschema.orgやRDFa等の構造化データマークアップの利用を推奨している。

なかには、authorタグやpublisherタグ等、問題視されず、ベストプラクティスとして評価されつつある構造化マークアップの形式もあるので、是非、利用してもらいたい。

HTML: キーワードスタッフィング & 要素隠し

キーワードスタッフィングや隠しテキスト等、ランキングにマイナスの影響を与える要素は、一昔前の用法であり、大半のSEO業者は、利用していない。しかし、残念ながら、この問題は割と奥が深い。

キーワードスタッフィングは、Eコマースサイトのショッピングカートを最適化する上で、絶対に欠かせない要素として君臨している。同じワードやフレーズが、カテゴリや製品の説明欄で利用されている場合、繰り返しを避けるのは非常に難しい。ショッピングカートによって、ウェブマスターが管理することが可能な領域も異なる。容易に最適化することが出来るカートもある。一方、カテゴリページで、各ページに表示する製品の数を制限することしか出来ない可能性もある。ショッピングカートの最適化を詳しく説明するつもりはないが、これだけは言っておく — 過去2年間、一度もショッピングカートの見直しを行っていないなら、今すぐチェックしてもらいたい。eコマースのプラットフォームが時代の流れと共に進歩しているかどうか確認する必要がある。

また、意図的ではないクローキングを、驚くほど多く見かける。通常は、テンプレートのライターが、コンテンツ管理システムの予測のつかない事態を避けようとした結果、この問題が発生する。しかし、一部のページでdisplay: noneを使ってクロークしたテンプレート内に静的なリンクが掲載されており、カテゴリ等、何かしらの要素によって、リンクが表示されるケースに遭遇することもある。

アーキテクチャ: クロール

クロールに十分に注目しているSEOの専門家は少ない。大ざっぱな表現である点は百も承知だが、この業界の関係者の大半は、その他の取り組みに忙殺されており、赤い、ど派手なエラーメッセージが表示されない限り、まずクロールを軽視する。検索エンジンが、ウェブサイトの全てのページ(少なくともクロールしてもらいたいページ)をクロールすることが出来る状態を維持しなければならない。サイト全体のページランクの流れを台無しにしたくないなら、ページを除外する際は、robots.txtではなく、メタのnoindex、followタグを利用しよう。

検索エンジンのクロールおよびキャプチャのアップデートが、タイミング良く行われているかどうかを確認することも重要である。タイミング良く行われていないなら、ドメインオーソリティの問題、もしくは、十分な量のページランクがサイトの隅々まで行き届いていない可能性が考えられる。

更新したレベル 2以降のページに到達するまで、ホームページ、または、レベル 1のページから更新したページにリンクを張る等、この問題を解決する手法が幾つかある。しかし、より健全なアプローチを求めているなら、更新されるコンテンツを、よりオーソリティの高いコンテンツ、または、コンテンツのセクションに自然に近づけるか、あるいは、オフサイトのページランクを持つ関連するコンテンツから妥当な内部リンクを構築する手法を勧める

すべてのコンテンツが常にクロール可能な環境を作れと命じているわけではない。それ相応の理由があって、検索エンジンは、クロールの頻度と深さを重視している。要するに、ウェブサイトのクロールの量を管理し、適切に利用する必要があるのだ。成り行きに任せるべきではない。

アーキテクチャ: 重複するコンテンツ

2013年の始め、マット・カッツ氏は、重複するコンテンツに関して心配する必要はないと述べ、SEO業界を震撼させた。 カッツ氏は、グーグルは重複するコンテンツを特定し、分配されたオーソリティを組み合わせ、SERPに1本のURLを表示すると断言していた。

グーグルは随分と前からこの方針を採用しており、実は、驚くような展開ではなかった。ウェブマスターツールには、自動パラメータ確認機能が用意されており、グーグルの代表者は、重複するコンテンツの統合について、以前から説明を行っていた。

以前指摘したことを繰り返すが、検索エンジンはグーグルの他にも存在し、グーグルの指摘と現実が異なることもある。つまり、重複するコンテンツを、出来るだけ、予防、もしくは、削除することで管理し、残ったものに関しては、カノニカルタグを利用するべきである。

カノニカルタグと言えば、1つのカノニカルなURLを、不適切に、複数の記事の全てのページで利用する手法がよく見受けられる。カノニカルの手法は他にもある。この手の手法には注意する必要がある。 カノニカルタグ、検索エンジンが読み込めるコンテンツ、もしくは、高度なメタタグを利用しているなら、ウェブサイトが技術を駆使しており、SEOを活用していることを、検索エンジンにアピールしているようなものである。要するに、特に吟味して欲しいと自ら望んでいることになる。

グーグルが、このタイプの技術的な誤りに対して、ウェブサイトの取り締まりを強化する可能性はある。検索エンジンは、無実のウェブサイトを葬ってしまうことを恐れて、アルゴリズム主体でペナルティーを課す行為には躊躇する傾向がある。しかし、パンダとペンギンで身をもって学んだように、積極的に行動することもある。クライアントのサイトを最適化しているなら、清廉潔白なサイトを維持するべきである。

アーキテクチャ: スピード

ウェブサイトのスピードアップによって得られるSEOのメリットを理解するウェブサイトは少ない。グーグルは、ランキングアルゴリズムのこの領域の影響を受けるサイトはごく僅かだと常に指摘している。この見解は、相関関係の調査によって裏付けられているように思える。近場のカフェに行って、ウェブサイトを実際に閲覧すると、スピードを実感することが出来る。ページがスムーズに読み込まれるなら、問題はないと見てよい。

ただし、大企業のサイトとeコマースサイトは例外である(つまり、スピードに気を配る必要がある)。このタイプのサイトを最適化しているなら、読み込みにかかる時間を数ミリ秒短縮するだけで、直帰率を下げ、コンバージョンとセールスを高める効果が見込める。

アーキテクチャ: URL

URLの現在のベストプラクティスは、2014年も活用することが出来るはずだ。シンプルで、読みやすいURLは、SEO以外のメリットももたらす。現在のブラウザは、複数のタブを用意しているため、ウェブユーザーは、タイトルタグよもURLを目にする機会の方が多い。

また、検索エンジンの結果ページに表示される際に、読みやすいURLは、無意味なURLよりもクリックされる可能性が高い。利用しているコンテンツ管理システム(CMS)が、タイトルタグをベースに分かりやすいURLを作る機能を提供していないなら、そのCMSを見直すべきである。これは基本的なSEOの機能であり、この機能すら提供されていないなら、残りのSEOの機能の効き目も疑わざるを得ない。

アーキテクチャ: モバイル

2013は、モバイル SEO(日本語)にとって、刺激的な1年であった。グーグルとビングは、全てのデバイスに対して、単一のURLを用意し、デバイスに合わせてサイトを表示するためにレスポンシブなウェブデザインを利用する構造が理想的だと認めた。現実として、全てのCMSが、この構造に対応しているわけではない。また、ウェブデザイナーのコミュニティによって、検索エンジンのスタンダードが、現実的でもなければ、望ましくもないことを示すケーススタディが提示されている。

グーグルとビングが推奨する取り組みを実施することが出来るなら、実施するべきである。しかし、実施することが出来ない、もしくは、実施しないまっとうな理由があるなら、各ページの最も完全な形に近いバージョン(恐らくデスクトップ版が該当する)に向かうカノニカルタグを利用し、スクリーンのサイズごとにブラウザのプラットフォームを基にリダイレクトを採用しよう。

ウェブサイトが全てのデバイスのユーザーを同様に扱い、検索エンジンのスパイダーを特別扱いしていない限り、検索エンジンからペナルティーを課される危険はない。基本的に、言語の好みにおいて、場所を基に、ビジターを自動的にリダイレクトする取り組みに似ている。

2014年に注目するべきオンページ SEOの要素は、これで全て紹介した。パート 3では、リンク構築に関するオフページのSEOの要素、ローカル検索、そして、ソーシャルメディアを取り上げる予定なので、楽しみに待っていてもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「2014 SEO Playbook: On-Page Factors」を翻訳した内容です。

 

基本的な概要まとめ記事かと思いきや、意外と参考になる点も多かった良記事でした。内部最適化を語る時、コンテンツ、HTML、アーキテクチャとカテゴリを分類するのは分かりやすくていいですね。次回は外部最適化を取り上げるということで、ますます見逃せません! — SEO Japan [G+]

2013年に姿を消した5つのSEOの常識

コンテンツ、オーソリティ、セマンティック、、、2014年のSEO戦略の方向性はわかっていても、実際にその具体的戦術を考える上で大事なのがSEOの基本ルール。最近のGoogleの急激な進化と共に既に消え去っていると思われる過去のSEOの常識を再確認した記事をサーチエンジンランドから。 — SEO Japan

grill-seoSEOの基礎は、過去15年間、大きく変化したことはない。それでは、合言葉「質の高いコンテンツを作り、質の高いリンクを得る」も変化していないのだろうか、あるいは、変わったのだろうか?

今回は、2013年に使命を終え、永遠の眠りについた5つのSEOの「基礎」を挙げていく。いまだに利用しているものがあるなら、今こそ卒業し、2014年に見合う取り組みに改めるべきである。

1. キーワードは検索結果にとって鍵になるワード

2013年に9月23日、グーグル経由のリファラーの文字列内のキーワードが反映されなくなり、「not provided」化が完了すると発表されると、大勢のウェブマスターが一斉に落胆した。しかし、検索において、キーワードではなく、意図が最も重要である点を見過ごしている人達が多い。過去においても、意図は重要であったものの、SEOの関係者は、キーワードを意図の代わりに用いていた。

誰かがキーワード「buy」(買う)を使っているなら、そのビジターは、何かを買おうとしているはずである。これは理に叶った推測である。しかし、検索エンジンのアルゴリズムが進化を遂げる中、平均的な検索エンジンのユーザーは、クエリに「買う」を入れなくてもよい点に気づくようになった。都合よく表示された買い物の結果をクリックする、あるいは、いっそのこと、検索エンジンをスキップし、Nextag等の(買い物)専門の検索エンジンを用いればよい。

まだ信じられないなら、グーグルトレンドを確認してもらいたい。キーワード vs 買う + キーワードを比較すると、製品(キーワード)に対する関心は高まっているものの、製品に「買う」を加える傾向は下火であることが分かる。以下に分かりやすい例、「power tool」(赤)と「buy power tools」(青)を紹介する。その気になれば、このようなデータは容易に掘り起こすことが出来る。

Google Trends for "Buy Power Tools" and "Power Tools"

「Buy Power Tools」と「Power Tools」をグーグルトレンドで確認

2. ジオロケーションのキーワードは重要

サイトを特定の街の検索結果に表示させたい場合は、キーワードを使って街、または、街と州を特定するページを作ればよかった。その結果、次のようなページが、インターネット上に次々と姿を現すことになった:

SERP for a site with geo-located pages

この手法は、「薦められない」どころではなくなった。パンダアルゴリズムに、狙われるようになったのだ。そのため、今後は、地域の認証した住所に対するプロフィール(グーグルプレイス/ページ等)を用意しなければならない。

また、schema.orgのタグ(またはHcard等)を使って、住所をマークアップする作業も求められる。どういう風の吹き回しか、検索エンジンは、オフィスの住所が、ノースカロライナ州のローリーだと、その他の地域よりもこの場所に対して関連性が高いと考えるようになった — クライアントの大半は、ノースカロライナ州の会社ではないにも関わらず。そのため、ここでも常識が通じなくなっている。

この問題がすぐに解決されることを望む。やはり、検索エンジンのユーザーは、さらに経験を積み、街の名前を入力することなく、地域の結果を得る方法を習得しつつあるためだ — ただし、当然ながら、現在の場所とは異なる地域の結果を求めている場合は、話は別である。…少し脱線してしまったようだ。この問題はやがて解決されるとは思うが、今のところ、有益な代わりの解決策は見当たらない。

3. 302 リダイレクトはSEOの役に立つ

かつて、検索エンジンは、四六時中サイトをクロールしているわけではなかったため(現在のように1日に数回ではなかった)、302 リダイレクトがSEO目的で使われることがあった。長期間にわたって維持するつもりではない変更をページに加える際は、302 リダイレクトを投稿して、検索エンジンが、過去のURLに戻る前に、リスティングを変えないように指示していた。

検索エンジンに新しいURLに全ての被リンクを更新してもらいたくないことが、SEOにおける本当の理由であった。この点は、w3.orgでも示唆されている: 「302 Found… リクエストされたリソースは一時的に別のURLに格納されている。リダイレクトは、時折変わることがあるため、クライアントは、今後のリクエストのためにRequest-URIの利用を継続するべきである。Cache-Controlヘッダーフィールド、または、Expiresヘッダーフィールドで指示されている場合のみ、このレスポンスはキャッシュ可能になる。」

その後、今度は、グーグルが、2012年の8月、ジョン・ミューラー氏の発言を通して、302に関する処理を明言した: 「302には今でもページランクを回すことがある。要するに、リダイレクトされたURLを維持し、リダイレクトされたURLのコンテンツを利用する可能性がある。」

2013年では、サイトに質の低いリンクが向けられていることを理由にペナルティーを課されるサイトが増え、実際にこの取り組みの成果が表面化するようになった(特に目立ったのは、302を使って、ページランクの流れを止めようとすることが多いアフィリエイトリンク)。

4. 404 エラーページは期限切れのページに取っておくべき

スパマーの息の根を止めるグーグルの取り組みにおいて、これもウェブマスターにとって迷惑な展開の一つに数えられる。多くのサイトが、コントロールすることの出来ない被リンクに対処し、目的地のページを404または410の結果に向かわせなければならなくなった。グーグルの強制的なペナルティーにより、ウェブ上には大量のリンク切れが発生するようになった。

ユーザー体験においては好ましくないものの、サイトに入ってくるリンクをコントロールすることが出来ないなら、そして、ウェブマスターに削除してもらえないなら、グーグルに再び認めてもらうには、404ページを利用するしかない。質の低いリンクを否認することが出来るとグーグルは言うが、その一方で、リンクを削除するために、まずは努力しなければならないとも言っている — しかも、経験上、スプレッドシートで「反応なし」を立て続けに報告するだけでは、十分な努力とは認めてもらえない。

site: レベルで検索結果を見てみると、この問題がどれだけ大きくなっているのかが、よく分かる — とりわけ、多数のプレスリリースを配信したものの、後になって、そもそもプレスリリースを同時配信した側のウェブマスターからプレッシャーを受け、削除せざるを得なくなったニュースサイトはひどい目に遭っている。

リンク切れは深刻な問題であり、グーグルがさらにこの問題に拍車をかけている。リンク切れの数が、今後の数ヶ月間でどのように変化するのか興味深い。しかし、(今月リリースされたばかりの)この調査結果から、ハッキリとした傾向を見ることが出来る:

Linkrot Study by the Chesapeake Digital Preservation Group - 2013

Chesapeake Digital Preservation Groupが行ったリンク切れ調査 2013年度版

5. 被リンクは害にはならない

これは2012年および2013年に姿を消したSEOの常識の中で、恐らく最も規模が大きいと言えるだろう。2007年10月、Wysz(当時有名なグーグルのスタッフ)は、このように述べていた : 「スパムサイトにリンクを向けられることで、ランクが落ちるのではないか?と心配する必要はない。(大方)サイトにリンクを張る行為をコントロールすることが出来ない点は、グーグルもよく理解している。」

しかし、今週、グーグルのスパム対策を統括するマット・カッツ氏は、次のように指摘していた: 「スパムを本気で止めたいなら、少し意地悪に思えるかもしれないが、スパマーを再起不能になるまで叩きのめす必要がある。」このメッセージに対して、「hGn」が分かりやすいコメントを残していた: [グーグル]の実験の巻き添えを食らった犠牲者は、アルゴリズムが止めようとした、あるいは、失望させようしたスパマーだけではない

SEOコンサルタントとしての立場から言わせてもらうなら、徹底的に打ちのめされたのは、何をするのか分からない状態で、スパマーを雇ってしまった会社である。スパマーはとっくに次の犠牲者にターゲットを移している。

と言うわけで、今回は、憂慮すべき2013年のSEOの変化を紹介した。確かに、ビジターが活用し、シェアしたくなるような質の高いコンテンツを作る取り組みは、美しく、利他的で、理想的な目標ではある。しかし、検索エンジン(特にグーグル)が、新たなSEOのベストプラクティスが、意図した通りの効果を発揮するまで、スパマーとの抗争を中断してくれるとは、私にはどうしても思えない。2014年こそは、良い年になることを願っている。

イメージはライセンス契約の下Archology Inc.から利用した。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「5 “Foundations” Of SEO That Were Torched In 2013」を翻訳した内容です。

キーワードやジオロケーションなど消え去った常識と言い切るにはまだ早すぎる気もしますが、そういう流れであることは意識しつつ、今後のSEOに取り組みたいものです。404ページや302リダイレクトも下手に取り扱うと逆効果になりかねないですし、またしかり。しかし最後の「徹底的に打ちのめされたのは、何をするのか分からない状態で、スパマーを雇ってしまった会社である。スパマーはとっくに次の犠牲者にターゲットを移している。」という一言には、ある意味納得できてしまうところが怖すぎます。 — SEO Japan [G+]

Google、スパムSEOのRap Geniusへの制裁を解除―ツールを開発して17万以上のURLを削除して謝罪

Googleはスパムを処罰するより一般ユーザーの利便性を優先することにしたようだ。SEOスパム行為があったとして検索ランキングを大幅にダウンされていた歌詞等の注釈共有サイト、Rap Geniusが10日ぶりに以前の位置に返り咲いた。

このまま続けばRap Geniusにとって「死の宣告」になりかねない制裁だったが、意外に早く解除されたのは不当なリンクをすべて削除するなど真剣な反省の態度が認められたものだろう。今日(米国時間185)、RapG eniusは、どういうスパム行為をしたのか、またスパムリンクをどのようにして一掃してGoogleから制裁解除を取り付けたのかについて詳しく公表した

問題はRap Geniusが始めたブログ・アフィリエイトというプログラムだった。これはブロガーがRap Geniusの注釈投稿へのURLを多数含む記事を公開すれば、見返りにその記事のURLをRap GeniusがTwitterなどのソーシャルメディアに投稿してプロモーションするというものだった。たとえばRap Geniusはメール・フィルタリング・サービスのファウンダーのMarbachにJustin Bieberの新曲に関する注釈投稿のURLを末尾に多数埋め込んだ記事を公開するよう依頼した。

しかしGoogleは「記事内容と無関係に検索アルゴリズムに影響を与える目的でリンクを操作する」ことを検索スパムとして厳禁している。Marbachがブログ記事で公表したRap Geniusのブログ・アフィリエイト・プログラムはまさにこれだった。

Rap Geniusはただちに謝罪したが、Googleは 検索ランキングを劇的に下げる制裁を発動した。それまで常に検索順位のトップ近くを占めていた注釈投稿や歌詞の検索結果は5ページ目から6ページ目に転落し、た。制裁はクリスマスを直撃し、Rap Geniusのトラフィックには壊滅的打撃を与えた。Quantcastよると、それまで毎日70万前後だったユニーク訪問者が制裁によって10万以下になったという。

このときRap GeniusはTechCrunchに「われわれはGoogleと協力して問題解決を図っている」と語ったが、その交渉は最後には成功したようだ。今日公開された長文のブログ記事でRap Geniusは詳しく事情を説明している。

その記事によると、共同ファウンダーのMahbod Moghadam、Tom Lehman、Ilan Zechoryは当初ブロガーにリンク入り記事を書いてもらうよう依頼することは問題ないと考えていたようだ。しかし「すぐにわれわれはやり過ぎをしたと気づいた。制裁を受けたのは当然だった。馬鹿をやったことについてGoogleとわれわれのファンにお詫びしたい」と述べている。460万人分のデータ流出を起こしても絶対に謝らないSnapchat流とは対照的な危機管理だ。

Googleは「Rap Geniusのサイトに対して不自然、人為的、欺瞞的なリンクが多数発見された」廉でその検索順位を手動で下げる制裁を課した。その解除のためにRap Geniusはスパムと認定されたリンクをすべて削除し、記事のソースにnofollow属性を付加しなければならなかった。 しかしブログ・アフィリエイトで収集したリンクは何十万にも上りウェブ中に散らばっていた。そこでRap Geniusは知り合いの優秀なウェブマスターに応援を求め、スパムリンクを発見して削除するスクレイパー・ツールを開発してもらった。そのリンクうちでRap Genius側で削除したりnofollow属性を付与したりできない分についてはリストにしてGoogleのDisavowツールに引き渡した。このツールはリンクが検索結果に影響を与えないようにすることができる。.

イェール大学で学んだくせにマーク・ザッカーバーグに「くたばれ」などと悪態をつく 連中がAndreessenから1500万ドルも集めた秘密がスパム問題の処理によく現れている。RapGeniusはNokogiri、Typhoeus、Herokuのツールと巧妙なコーディングによって急遽、きわめて効率的なスパム削除ツールの開発に成功し、15分間ですべてのURLを突き止めたという。そのコードのスニペットはブログで公開されているが、こうした対応RapGeniusが採用を狙っているギークな人材に好印象を与えるかもしれない。

結局、ツールが発見し、処理したスパムURLは17万7000に上った。そしてこれでGoogleを満足させることができたらしい。

とはいえ、Rap Geniusがシリコンバレー最強のベンチャーキャピタル、Andreessen Horowitzの支援を受けていることも有利に働いたはずだ。なんのコネもない無名のスタートアップだったら、こう素早く許してはもらえなかったのではないかという声も出ている。

なにかまだ制裁の影響が残っているかどうか詳細には調べていないが、当面Rap Geniusのサイトは“Kanye West Blood On The Leaves Lyrics”などをキーワードに検索するとトップに表示されるようになった。.

結局Googleは一般ユーザーの利便を第一にしたのだろう。Rap GeniusのSEO戦術は遺憾なものだったが、ライバルに比べればはるかに良質なサイトだ。いつまでも制裁を続けるとユーザーは他の、もっと品質の劣るサイトに流れてしまう。AZlyricsやMetrolyricsなどのライバルのサイトは月額9.99ドルなどという法外な料金の着メロ広告が満載だ。さらに怪しげなSEOをしていることも疑われている。たとえば上のスクリーンショットはAZLyricsだが、ミュージック・プレイヤーのように見えるのは別のサイトにジャンプさせるための偽装ボタンだ。ご用心あれ。

For more on the absurdity of Rap Genius, check out:

When Growth Hacking Goes Bad

スパムSEOを働いた人気歌詞注釈サイトのRap GeniusにGoogleが厳しい制裁

Video Interview: Ben Horowitz And The Founders Explain Why A16Z Put $15M Into Rap Genius

Rap Genius Is Getting Into Breaking News Analysis With News Genius

Rap Genius Reveals One Of Its Business Models Will Be ‘Enterprise Genius’ Collaborative Tool

[Image Credit: Danny Ghitis]

[原文へ]

(翻訳:滑川海彦 Facebook Google+


SEOの最適化を考える

「SEOの最適化」?「SEO対策」ばりに意味不明な言葉の使い回しだろ、、、と思われた方もいるかもですが、いえいえ、全く正しい使い方です。Googleの進化と共に消え去りつつある従来のSEOに変わる今後のSEOモデルの形を考えてみようという記事をお久しぶりのSEO Bookから。今後の方向性に悩むSEO担当者とSEO業者の皆さんは読むべし?– SEO Japan

SEOは、常に獲得に焦点を絞って行われる。

キーワードでの上位へのランクインを目指すマーケティング戦略は、新たにビジターを獲得するために行われる。競合するサイトよりも上位にランク付けされると、新たなビジターの獲得が上位のサイトにプラスに働き、下位のサイトにマイナスに働くようになる。

SEOは強力なセールスポイントを持つ。クライアントは、ランクを維持する限り、新たなにビジターを着実に獲得し、競争におけるアドバンテージを満喫することが出来る。

SEOの密接なパートナーとされているのが、PPCである。SEOと同じように、PPCは、新たなビジターをサイトに呼び込み、巧みに入札を行い、適切な広告を用意している場合、競争上のアドバンテージを得ることが出来る。PPCとは異なり、SEOは、クリックごとに課金されることはなく(正確に言うと、SEOの料金を考慮した場合、クリックの単価が遥かに低い)、SEOの方が強固なセールスポイントを持っていると言える。また、検索エンジンのユーザーが、自然な検索結果を有料の結果よりも信頼している点も大事なポイントの一つである。

インターネットで製品やサービスを購入する際、91%のインターネットユーザーは、自然な検索結果を好む。[情報源: Tamar Search Attitudes Report -- Tamar 2010年7月]

台無し

しかし、偶然、そして、意図的に行われる、グーグルによるアルゴリズムの変更によって、SEOの立場が揺らぐようになった。

上位にランクインするメリットはそのまま残っているが、結果が以前ほど確実ではなくなった。また、さらに多くの取り組みが必要とされるものの、コストが高くなってしまった。結果を得る上で、SEOを行うリスクはますます高まっている。その一方で、十分に資金を投じている限り、結果は保証されているため、アドワーズが一層魅力的に映るようになっている。

グーグルにとって、アドワーズは優れたシステムである。競争が激しくない分野を見つけた広告スポンサーにとっても、良いシステムである。問題は、通常、競争のレベルがとても高い点である。

競争が激しく、また、オークションモデルが採用されているため、入札額は自然に高騰する。入札額が高騰すると、高いクリック単価でもROIを達成することが可能な会社のみ、入札に参加するようになる。理論的には、ROIが高ければ高いほど、入札価格も高くなる。後れを取ることを嫌う場合、競合者も同じ行動に出る。

そのため、業績を伸ばす手段として、顧客の獲得に力を入れたPPCの広告スポンサーは、クリック単価が上がるにつれ、より多くの収益をグーグルに渡すことになる。 検索チャンネルを介して、顧客の獲得を狙う場合、やがてコストの高騰に直面する。PPC経由では、時間の経過と共にROIの維持は難しくなる。だからこそ、SEOが魅力的に映る。グーグルが、SEOに狙いを定めるのは、当然と言えば、当然である。

アドワーズ、そして、SEOの根本的な問題点は、顧客の獲得のみを成功の基準にしていることであり、これは、長期的な戦略には向かない。

この点に関しては、後ほど詳しく説明する。.

ホワイトハットSEOは滅亡した

「ホワイトハットSEO」と言う用語が、一度でもあっても重要視されたことは、意外である。

検索エンジンのアルゴリズムを操作する試みは全て、検索エンジンの怒りを買う。検索エンジンのランク付けの基準を分析して、通常よりも上位にランクインするための取り組みは、操作に該当する。一方、検索結果で上位にランクインすることを意図して、リンクの獲得、キーワードに焦点を絞った記事の作成を行う取り組みもまた、ランキングを操作する取り組みに値する。要は程度の問題である。

マーケッターは、全く問題があるとは考えていない。

検索マーケティング業界は、「悪意のある行為」を慎めば、上位にランクインするチャンスがあると考えている。リンクを求める試み、トラフィックをもたらすキーワードを探す試み、そして、このキーワードに焦点を絞ったページの投稿 — かつては、より確実に利益を得ることが出来た。

サイトが確実にクロールされるものの、成果が保証されないなら、SEOを行う必要はあるのだろうか?ページを投稿して、グーグルがどの位置にランク付けするのか確かめるしかない。SEOがランキングを操作しないなら、単純にクロール可能なコンテンツを配信する以外にメリットはあるのだろうか?SEOは、「システムを操作する」を礼儀正しく表現しているだけである。

グーグルに役割を決めさせてしまった人達は、慌てて、役割を決め直している。「インバウンドマーケッター」は人気が高い。もちろん、この肩書きに問題があるわけではない。SEOと呼べることが出来ずに苦労しているのだ。SEOは、PRであり、マーケティングであり、コンテンツの作成である。このようなアクティビティの副作用として、検索エンジンの結果ページで上位にランクインする(と言うことも出来る)。映画「ファイトクラブ」のようなものだ。ファイトクラブのルール その1…

数年前、最後に残るSEOはブラックハットだと予測したことがある。どうやら、この予測は現実のものになろうとしている。SEOと言う用語は、予想通り、恣意的に用いられるようになり、軽視されるようになった。 今でも、使い捨てのドメインを使うことで、キーワードを積極的に狙うことで、そして、大量のリンクを買う/構築することで、システムを巧みに操作することが出来る。しかし、グーグルには、到底受け入れてもらえない。完全に情報を公開することなく、この取り組みをクライアントに売るのは難しい。たとえ何もかも打ち明けたとしても、やはり、なかなか首を縦に振ってもらえないはずである。

話を本題に戻そう….

新しい環境での最適化とは

ブラックハットは、今後も活動を続けるはずである。そもそも、ブラックハットは、検索エンジンの指示に従うはずがない。

大勢のSEOの関係者が、様々なイニシアチブをまとめて、検索から焦点を外そうと試みている。インバウンドと呼ぶ業者もある。実際には、マーケティング、コンテンツの作成、そして、PRを組み合わせた取り組みであり、アルゴリズムのハッキングとは距離を置いている。

インバウンドを成功に導き、検索で良い結果を得るには、SEOモデルを正反対に捉える必要がある。サイトにアクセスしてもらう点は同じだが、サイトを訪問してもらうためのコストが上がったため、ビジター一人一人を重要視する必要がある。検索の価値を維持するためには、クリックの後の行動に力を入れるべきである。

オファーが適切ではないなら、そして、オファーへのルートが適切ではないなら、全くリハーサルを行っていないバンドのコンサートにオーディエンスを呼び込むようなものだ。オーディエンスが姿を現したら、オーディエンスが求めるものを提供しなければならない。さもなければ、二度と足を運んでもらえなくなる。当然、バンドの人気は一気に落ちてしまうはずだ。

SERPで上位にランクインするためのコストが安価であった時代は、この点はあまり重要ではなかった。若干トピックが外れたトラフィックが多く寄せられたら、一大事ではあるが、コストが(大幅に)増加するわけではなかった。しかし、最近は、上位にランクインするためのコストが上がったため、「獲得をベースに成長」する方針は、苦戦を強いられつつある。

次の二つの分野での最適化を検討してもらいたい(まだ着手していないなら)。

1. 最適化のオファー

検索エンジンのユーザーは、欲しい情報を見つけられない場合、SERPに戻る — これはSEOの関係者なら誰でも知っている。クリックバックは、2つの問題をもたらす。まず、ビジターをサイトに導くために費やした時間と資金が無駄になる。そして、グーグルは、関連性の判断材料として、クリックバックの回数を数えている。

オファーがユーザーにとって適切かどうかを把握するには、どうすればいいのだろうか?

実績のある方法を一つ紹介する。幾つか4つのP — Product(製品)、Price(価格)、Promotion(宣伝)、Place(流通)を精査すると良い。あくまでもインターネット上の取り組みであるため、Place(流通)はそれほど関係ない。しかし、地域をベースとした製品やサービスを販売しているなら、Placeにも力を入れると良いだろう。Promotion(宣伝)はSEOの取り組みそのものである。Promotionによって、サイトに訪問してもらえるようになる。

しかし、特に注目してもらいたいのはProduct(製品)とPrice(価格)である。製品を最適化するには、幾つか根本的な疑問に答える必要がある:

  • 顧客はこの製品またはサービスを求めているのか?
  • この製品はどんなニーズを満たしているのか?ページを見て数秒間でその点は伝わるのか?
  • このニーズを満たすには、どのような機能を用意する必要があるのか?その点を説明しているか?
  • 見過ごしている機能はあるか?ニーズを満たす機能を全て説明しているか?
  • 顧客が利用しないコストの高い機能を盛り込んでいるか?
  • 顧客は製品をどのように、そして、どこで利用するのか?
  • 顧客の目にはどのように映るのか?顧客はどのような体験するのか?
  • どのサイズ、色を用意するべきか?
  • 何と呼ぶべきか?
  • どのようにブランドを位置付けているか?
  • 競合者の製品との違いは何か?
  • 提供するために最もコストが高く、それでも、十分に利益を得られるものは何か?

特にクライアントのビジネスに手を貸している場合、上述した領域に対して、SEO業者がコントロールすることが出来る取り組みは限られている。それでも、この質問を問い掛ける価値はある。クライアントが質問に答えることが出来ないなら、競合者に対して、アドバンテージを何も持っていないことになる。恐らく、競合者と同じようなサイトを運営しているのだろう。このタイプのサイトは、そもそもプロモーションに向かない。

歴史があり、かつては、競合者との差別化に成功していたものの、利益の少ない一般的なサイトに位を下げてしまったサイトもある。アマゾンやeBay等の大きなサイトが持つカタログは日に日に拡大していくためだ。

アグレッシブに攻めない限り、右に倣えのサイトを担当すると、苦戦を強いられることになる。そのため、クライアントを検査する際は、戦略的なアドバンテージを考慮すると良い。根本的なビジネスのアドバンテージを持っていないなら、SEOに取り組むガッツがあるかどうか自分自身に問いかけてもらいたい。

Price(価格)に関する質問:

  • 買い手にとっての製品またはサービスは何か?
  • この分野で、製品やサービスに対して、確立された価格は存在するか?
  • 顧客は価格に敏感か?価格を少し下げると、マーケットのシェアを増やすことは出来るか?それとも、少額の値上げなら、認識されず、利益を増やすことは出来るか?
  • 販売会社、または、業界のその他の特定の業界にどのようなディスカウントを提案するべきか?
  • 競合者の価格と比べ、自分の会社の製品の価格は、遜色がないか?

繰り返すが、上に挙げた領域に対して、ほとんど、または、全くコントロールすることが出来なくても、質問を投げ掛ける価値はある。活用することが可能なビジネスの潜在的なアドバンテージを見つけ出してもらいたい。

オファーを最適化したら、次にコンバージョンを詳しく見ていく。

2. コンバージョンの最適化

大半の検索マーケッターが認識している、明らかなコンバージョンのルートが存在する。インターネットユーザーがランディングページに到着する。 オファーされているものを購入するユーザーもいれば、ランディングページを去るユーザーもいる。コンバージョン/閲覧回数 x 100が、コンバージョン率として導き出される。

しかし、SEOにおいては、ランディングページのコンバージョン率だけに注目していればいいわけではない。PPCとは異なり、エントリーページを思い通りにコントロールすることが出来ない。そのため、コンバージョンを最適化するには、サイトにアクセスしたページを全て調べ、エントリーポイントと考えて、最適化する必要がある。

ページに到着したら、何をしてもらいたいのか考えるべきである。

全てのページに対して、理想の行動を思い描いてほしい。登録かもしれないし、ブックマークかもしれない。何かを買ってもらうことかもしれないし、あるいは、ツイートしてもらうことかもしれない。それが何であれ、各ページで、ビジターに対して、分かりやすいエンゲージメント(参加を介した交流)のメッセージを大きく、目立つように掲載しなければならない。。グーグルが直帰率をチェックしていることを忘れないでもらいたい。つまり、サイトの全てのページにコンバージョン率があり、ページによって、異なる可能性が高い。

例えば、買い物カゴのプロセスについて考えてもらいたい。買い手(モバイルデバイスのユーザー)は、複数のフォームを全て記入するだろうか?数回のクリックで、購入を行う環境は整っているだろうか?ペイパルやアマゾンの支払いシステムの統合は、コンバージョン率を改善するだろうか?サイトのスピードはどれぐらいだろうか?当然だが、早ければ早いほど良い。コンバージョンの多くは、プロセスから、ナビゲーション、そして、サイトのスピード等 — 簡素化が重要な鍵を握っている。

ここで、このようなコンバージョンを計測し、数量化するにはどうすればいいのか、そして、大きなサイトではコンバージョンのファンネルをどのように計測することが出来るのか、気になっている方が多いのではないだろうか?確かに難しい。通常、十分なサンプルのサイズを得るのは、不可能に近い。

しかし、だからと言って、コンバージョンの最適化を避けるのは賢明とは言えない。広範囲で計測を行い、時間の経過と共に、徐々に計測する項目を増やしていくことが出来るはずだ。ページ全体における1点の変更、ルートにおける1点の変更が、当該のページやルートにおいて小さな変化を導き出すことがある(見つけにくい変化も含む)。それでも、コンバージョンの最適化を行う会社が、とりわけ過去にこの取り組みを実施していない場合、大きなメリットを得られる点は十分に立証されている。

すべてのステップを数値化することは可能であり、実際に一部の企業は実施しているが、今回紹介した2つの総合的なコンセプト — オファーの最適化を行い、続いて、オファーに導くページとルートを最適化(簡素化)する — に従うだけで、様々な利益を容易に得られる。曖昧なことがあるなら、ハッキリさせれば良い。ビジターに行動を起こしてもらいたいなら、求める行動を明記する必要がある。動きが遅い要素があるなら、スピードアップさせるべきである。

すべてのオファー、ページ、そして、ルートでこの取り組みを行い、結果を計測してもらいたい。


この記事は、SEO Bookに掲載された「Optimizing SEO Model」を翻訳した内容です。

前半は若干のSEO Book節が顕在でしたね。後半は、もはやSEOか?という議論はありますが(実際、私もコンバージョン施策は別会社で行っています)、それがすべてでは無いにせよ一つの方向性としてはありますよね。従来の形でいう「SEO業界」は瀕死状態に等しい日本の現状ですが、さてさて3年後にはSEOを取り巻く環境はどうなっているのでしょうか。 — SEO Japan [G+]

SEOの新三大要素:ユーザー、意図、そして意味

ペンギン、パンダ、ハミングバード、、、SEOに携わっているとついつい様々なアルゴリズムに踊らされてしまいがちですが、大局的にGoogleの動きを眺めれば、必然的にGoogleが向かっている方向性、そして今後のSEOのあるべき姿もわかるはず。などと偉そうにいってみても、私自身も100%確信があるわけではありませんが、コンテンツにオーソリティ、セマンティックと今後のSEOを占うキーワードは想像がつきます。今回はそういった個別のアルゴリズムや専門用語は無視して、今後のSEOの本質を担う要素を考えてみようという深みのある記事を。 — SEO Japan

どんな未来が待ち受けているのかを推測する方法は2つある。魔法の水晶玉をじっと見つめて、何が起きるのか予想する方法が1つ。そして、もう一つは、冷静に論理的な視点で、事実を直視し、そこから明確な結論を導く方法である。SEO Quote

信頼は王

SEOは王女

二人が力を合わせれば、検索の世界で天下を取ることが出来る

SEO業界の急速な変化を理解するため、推理小説に登場する名探偵「エルキュール・ポアロ」に倣い、「人間の心理」…と言うよりも、SEO業界の話なので「グーグルの心理」を考えることから始めたい。

グーグルの考えを把握する

何らかの理由があって、グーグルは様々な取り組みを行っている。その理由は、ありふれた風景に溶け込んでいる。これは、オンライン検索の多数の変更の裏側にある謎を解決する手掛かりとなる。

グーグルの収益の大黒柱は、広告である。グーグルは、ユーザーに検索エンジンを使って、答えを見つけてもらうことで、利益を得ている。自然の検索結果の周りに掲載されたアドワーズの広告をクリックするであろうユーザーが、グーグルにアクセスしなくなったら、どうなるのか考えてもらいたい。

そのため、グーグルは、スパム対策、そして、関連性の低い検索結果の削除を必死で行い、ユーザーが望む場所で、望むタイミングで、望むものを提供している。これは無理難題のようにも思えるが、グーグルは、積極的に解決に取り組んでいる。

そして、少なくても今までは、成功していると言えるだろう。

グーグルは検索結果をどのように改善するのか?

3本柱の戦略をグーグルは採用している。

グーグルは、検索フレーズだけにこだわらず、クエリの本当の意味を求め、ユーザーの意図を把握している。

1. ユーザーのニーズに合わせて結果を調整する: グーグルは、ユーザーに関する膨大な量のデータを抱えており、有効に活用している。セマンティック検索やトラストランク(信頼度)等をカウントして、結果をユーザーのニーズに合わせて調整している。

ウェブ検索クエリが、発見の出発点であることを理解し、グーグルは、セマンティック検索戦略を介して、人間が世の中をどのように解釈しているのかを描写しようと試みている。検索ボックスに入力する用語 — または携帯電話に問いかける用語(会話型検索(日本語)) — からユーザーが何を求めているのかを判断するためだ。

これで終わりではない。

2. 早く結果を提供する: 答えをすぐに提供する — 場合によっては、SERPで直接与える(特にすぐに行動を起こす結果)

グーグルは、SERPの再編成を行い、さらに多くの情報を盛り込んでいる。ソーシャルネットワーク経由の「リアルタイム」のデータと組み合わせると、インターネットユーザーが検索を行う仕組みを大きく変えるポテンシャルを持っていると言えるだろう。

例えば、パリ、または、シドニーで歩いている時に、近くに自分好みのパブや惣菜店があるかどうか知りたい状況を想像してもらいたい。そんな時、親友が薦める店へのルートが、グーグルに助けを求めた数秒後に、スマートフォンに表示されたら、どれだけ便利だろうか?

実はこの取り組みは既に行われている。グーグルが、信頼の置ける正確なデータソースを微調整した暁には、さらに改善されるはずだ。

3. 関連する結果を提供する: 検索データを暗号化し、そして、操作することが難しいシグナルを多用することで、SEOによる結果の操作を最小限に抑える。

グーグルは何を信頼しているのか?

長年に渡り、グーグルは、ユーザーに関する莫大な量のデータを収集してきた -

  • 誰が何をクリックしたのか
  • ページにどれだけの時間滞在したのか
  • 次に何をしたのか
  • 何を、どこで買ったのか
  • その他諸々

グーグルは、常にユーザーの行動を学んでいる。

なぜグーグルはここまで徹底してデータを集めるのだろうか?

世の中、そして、人物に関するナレッジグラフを拡大して、検索結果を補強し、ユーザーにとってより有意義なサービスにするためだ。グーグルは、人物、場所、ニュース、イベント、セール、そして、データを一瞬で見つけることが出来るように支援している。

ナレッジグラフが拡大し、進化し、そして、学習するにつれ、プログラマーがデザインしたこのアルゴリズムは、世界 — そして、人間の行動を、今まで以上に理解することが出来るようになるかもしれない。

また、サービスのパーソナライゼーションを介して、グーグルは、大勢のユーザーに関する、本質に迫る(そして、相関的な)プロフィールをまとめている。このようなデータは、「トラストランク」のスコアとしてまとめられ、特定のユーザーやリソースに容易に割り当てることが出来る。

グーグルが信頼している対象を挙げていく:

  • グーグルが把握している人物
  • グーグルが利用することが可能なデータ
  • グーグルがコントロールするソーシャルプラットフォーム

だからこそ、グーグルはソーシャルネットワークを立ち上げたのだ。

「ソーシャルネットワークの分野において、フェイスブックを倒すため」ではない。グーグル+はフェイスブックと比較されることが多いが、比較すること自体が誤っている。両者は完全に異なるサービスである。グーグル+は単なるソーシャルネットワークではないが、この点を見誤っている人は多い。

グーグル+は、ソーシャル、ローカル、そして、モバイルのユーザー体験に大きな影響を与える、アイデンティティのプラットフォームである。当然、検索マーケティングにインパクトをもたらす。

検索におけるソーシャルメディアの重要性を言い争っている人達は、グーグルが信頼することが出来るソーシャルシグナルのソースこそが、グーグル+であると言う大事なポイントを見失っている。現段階で、質の低いコンテンツでは、グーグル+を欺くのも、操作するのも難しく、また、居場所のデータとチェックインのスパム対策が実行されれば、このネットワークを操作することは、事実上、不可能になる。

このようにして、グーグルの+1が、ランキングに影響を与えるようになる。数年後には、グーグル+の利用は、上位にランクインする上で、欠かせないアイテムになるだろう。

そしてハミングバードの導入が行われた

2013年9月の下旬に告知が行われた、ハミングバードアップデート(日本語)は、2001年以来、最も劇的なアルゴリズムへの変更であった。検索の「精度とスピードを上げる」ことを目標としたハミングバードは、インデックス内で大量のウェブページをランク付けする前に、グーグルが、検索関連のシグナルを処理する仕組みに影響を与える。

ハミングバードは、ハイパーローカル検索とソーシャルシグナル、モバイル検索とユーザーの意図、そして、トラストランクとナレッジグラフを統合するためのイノベーションであり、究極のアンサーエンジンになるための取り組みが、急ピッチで進んでいる。

既にSEO業界は影響を受けているのだろうか?

その可能性はある。SEOとトラフィックのログのデータを分析した後でなければ、ハッキリしたことは言えない。しかし、サイトのビジターの意図を分析することなく、特定のキーワードに対するランクを上げるための最適化を行っているだけなら、影響を受けている確率はとても高い。

ハミングバードアップデートは、シグナルの処理自体を改善し、スマートフォンやモバイルデバイス経由の音声による「会話型検索」のクエリを含め、検索結果の質と関連性を高めている。このアルゴリズムは、ワードやフレーズだけにとどまらず、その意味を理解することに全力を注いでいる。

以下に、ハミングバードのメカニズムを解説していく。改良が加えられたアルゴリズムは、恐らく次の試みを行うと思われる:

  • セッション内で実行された、密接に関連する検索を整理する
  • 検索で用いられた用語を分析する
  • 用語や類義語を別のワードと置き換えるためのルールを策定する
  • 精度と関連性に対して、表示された結果を評価する
  • より良い選択肢を反映する最適なページを探す
  • このページをSERPで維持し — 残りは却下する

要するに、ハミングバードの恩恵を受けたいなら、最高のユーザー体験を提供しなければならない — そして、そのためには、ユーザーの意図を深く理解する必要がある。その意味において、ハミングバードは、ページを巧みに、あるいは、早くインデックスするよりも、クエリを書き直すことを重要視していると言えるだろう。

上位にランクインするための最適化を行うだけでは不十分である。フレーズに狙いを定めて、ランキングを維持する取り組みに固執するわけにはいかない。手っ取り早くメリットを得る行為、そして、応急処置は、効かなくなる。ハミングバードによって、オンラインとオフラインの間にある壁は、崩れていくだろう。検索戦略をその他のビジネスの領域と統合しなければならない — さもなければ、今後、大打撃を被ることになる。

奇妙に思えるかもしれないが、経験豊かなマーケッターでさえ、この変化に戸惑っている。だからこそ…

SEOは健在だ

…と自信を持って私は言うことが出来る。検索コンサルティングのマーケティングは、無限に広がっている。今までのSEOコンサルタントの取り組みは、この業界のポテンシャルの氷山の一角でしかない。

一歩下がって、全体像を見る必要がある。

かつて、SEO業者は、キーワードを意識して、ウェブサイトを最適していた。その後、ロングテールのフレーズに対する最適化に着手した。当時は、グーグルの検索結果で、コンテンツを上位にランクインさせることだけを考えていた。

しかし、上位にランク付けされたサイトが、ユーザーの質問/問題を解決する上で適切ではないなら、次の関係者にとって、良い傾向だとは言えない:

  • 求めている情報を見つけることが出来ない検索エンジンのユーザー
  • 質の低い作品に対して、SEOに資金を投じた会社
  • 不満を持つユーザーの信頼を失い、マーケットシェアを逸するグーグル

そこで、何かを変える必要がある。

  • ハミングバードや枠組みの変化を「活用」し、短期および長期において、メリットを得るにはどうすればいいのか?
  • コンテンツマーケティングとインフォメーションアーキテクチャは、この変化した環境において、どれぐらい重要なのだろうか?
  • ハミングバードは、リンク構築やコンテンツマーケティング等の「時代を問わない」戦略にどのような影響を与えるのか?

他にも、不安を抱えている、または、熱心なクライアントから様々な質問が寄せられている。適切な答えを与えられるかどうかは、SEOのエキスパートの実力次第だ。 今こそ、検索マーケッターは、検索やソーシャルだけでなく、PR、コミュニケーション、分析のスキルを兼ね備えたハイブリッドなマーケッターに生まれ変わる必要がある。

SEOの技術的な要素は、今後も重要である。しかし、会社から顧客に焦点を移さなければならない。「キーワード」と「リンク構築」中心の戦略から卒業する必要がある。ウェブ上で容易に見つけてもらえる環境を作り、消費者が利用しているスクリーンに姿を現すことが求められる。顧客候補のニーズを満たす取り組みに全力を注ぐ必要があるのだ。

そこで次の問いを自分自身に投げかけてもらいたい:

  • 顧客候補はどこにいるのか?
  • どのように情報を検索しているのか?
  • グーグルで何を見つけるのか?

この問いに対する答えを見つけなければ、暗い未来を迎えることになるだろう。なぜなら、新しいSEOの世界では:

  • 信頼が王であり、SEOは女王である。そして、ソーシャルメディアが、戦士を輩出するからだ。

この記事は、Search Engine Landに掲載された「The New SEO – It’s About People, Intent, & Meaning」を翻訳した内容です。

2012年から続くSEO業界激動の2013年を締めくくり、来年を考える上で、改めて検索エンジンの基本に立ち戻って考えられる良い記事でしたね。ハミングバードについてイマイチぴんと来ていなかったSEOに染まりすぎの方にもその意味と重要性を再認識できる記事だったのではないでしょうか。この記事をベースに考えていけば、今後のSEOも自然に見えてくるはず、、、って結局はセマンテックマークアップ、コンテンツマーケティング、オーソリティ構築、みたいな話になりそうで怖いのですが 汗、全体像を把握し落とし込んだ上での日々の地道な作業が大事ということで。 — SEO Japan [G+]

Eコマースの売り上げを倍増する17のSEOベストプラクティス

クリスマスシーズンを前に日本のEコマース業界も盛り上がってまいりました!今年も(こそ?)クリスマスを自社のEコマースサイトの 売上拡大にフル活用したいウェブマスター&マーケッターにお送りするEコマースの売上を倍増するためのベストプラクティス集をSEO Japanからのクリスマスプレゼントとしていち早くお届け。この手のリスト記事は良くあると思いますが、かなり具体的でEコマースをやりこんでいる方にもヒントになる内容が多くありそうです。 — SEO Japan

SEOを活用すると、Eコマースの売り上げが2倍に増えるとクライアントに初めて伝えた時、なかなか信じてもらえなかった。しかし、ノルウェーで、8つの効果的なSEOのテクニック(日本語)を用いて、SEOでEコマースの収益を2倍に増やした具体例(日本語)を挙げると、態度は一変した。

実感が湧かないかもしれないが、事実である。EコマースSEOとコンバージョンの最適化を行うと、トラフィックと売り上げを2倍に増やすことが出来る。証拠を見せたところ、トラフィックを増やす方法、コンバージョンを高める方法、買い手と交流し、ファンになってもらう方法等について、次々と質問が寄せられた。以下に、特に一般的な疑問、そして、私なりの答えを挙げていく。

Best Practices In E-Commerce SEO

質問 #1:在庫切れの製品にはどう対処すればいいのか?

複数の要因に左右されるが、個人的に推奨する対策を紹介する。

そのままにしておく。 後で在庫が回復するなら、そのままの状態にしておくと良い。削除したり、隠したり、あるいは、交換したりするのはやめよう。また、別の製品を加えたり、ビジターを別のページにリダイレクトする行為も薦められない。

別のアイテムを提案する。 ある製品が売切れたら、その製品との関連性が高い製品をサイトのウィジェットを介して、提案してみる手がある。幾つか例を挙げていく:

  • 別の色の同じ製品
  • 新しいモデルや新しいバージョン
  • その他のブランドの同一の製品
  • 質と価格が一致する同じカテゴリーの別の製品

顧客に素晴らしいサービスを提供すれば、顧客は満足する。また、検索エンジンは、関連するページを発見し、サイトの構造をより正確に理解するようになる。

在庫が回復する日をユーザーに伝える。 製品が在庫に戻る予定日を伝え、ユーザーがいつサイトに戻り、製品を買えばいいのか分かるように工夫しよう。

取り寄せを提案する。取り寄せ注文を行い、製品が届いた時点で送ることを約束する。製品を喉から手が出るほど求めている買い手候補は、数日間余分に待たなければいけないとしても、飛びつくはずだ。

ダメージを和らげる。 在庫が届いたら、値引き価格で提供する等、何らかの慰めを用意する。こうすることで、後で買う気が起きるかもしれない。

質問 #2: 旧品種/期限切れの製品にはどのように対応すればいいのか?

頻繁に新しいモデルやスタイルの製品が届く家電製品やファッション衣料品店のように、あらゆるオンラインショッピングサイトに、二度と入荷しない製品が必ず存在する。

多くのEコマースサイトは、ページを削除して、後は何もしない。SEOの観点では、この行為は薦められない。SEOのバリューを失い、URLをブックマークしてくれたユーザーに、エラーメッセージを与えてしまうからだ。

適切な解決策は、ケースバイケースである。

  1. 期限切れの製品を掲載しているページのURLを301リダイレクトにする。 期限切れの製品が、新しいモデルに差し替えられているなら、301永久リダイレクトを古い製品のページから新しいページに用いる。すると、新しいページをランク付けしてもらいたい旨をグーグルに伝えることが出来る。 この処理のおかげで、SEOのバリューを維持する効果が見込める。
  2. 親カテゴリーにリダイレクトする。 この手法は、ビジターの問題を解決することを意図している。期限切れの製品と同じ意図を持つ関連製品があるなら、その製品の親カテゴリーにビジターを導くことが出来る。
  3. 期限切れの製品のページ、コンテンツ、URLを永久に削除する。 期限切れの製品に密接に関連する製品がないなら、410ステータスコードを使って、当該のページを削除する手もある。このステータスコードは、ページが永久に削除され、二度と戻って来ないことをグーグルに伝える。
  4. URLを再び利用する。 技術の仕様とモデルの番号がバラバラのノーブランド製品を販売しているなら、URLを再び利用することも可能である。こうすることで、ページのオーソリティを維持し、また、グーグルで上位にランクインする確率を高めることが出来る。
  5. 残す必要のある製品に注意する。 特定の製品のページは、既存の顧客、または、リサーチを望む人達に対して、情報を提供するページとしての存在意義を持つ。このタイプの製品のページは残すべきだ。以前購入した買い手が戻り、ページを介して、情報、アドバイス、そして、サービスを得るためだ。

質問 #3: 季節商品にはどのように対応すればいいのか?

製品のカテゴリーを強化することを目指すべきである。製品のカテゴリーに力を入れ、製品ページの説明欄のブレッドクラムおよびリンクを使って、季節商品を製品のカテゴリーに結びつけよう。最もポテンシャルが高く、最も重要な製品のページを最適化し、残りのSEOの予算を使って、製品のカテゴリーを強化しよう。

人気の高い製品を売り出し、その製品に対して大きな需要があることが分かっているなら、URLに「coming soon」(発売間近)ページを加えて、独自のコンテンツを提供し、さらに、通知プログラムおよび予約注文フォームを作成してもらいたい。また、ソーシャルメディアをこのページに統合して、ユーザーが作成したコンテンツを介して、買い手候補を盛り上げる手もある。

1年ごとにリリースし、製品を入れ替えることが分かっているなら、[website.com/category-sub-category/product-name-2012/]のようにURL内に年を加えて、新しいバージョンをリリースしたら、[website.com/category-sub-category/product-name-2013/]に301リダイレクトしよう。

質問 #4: 新製品に対するSEOはどのように行えばいいのか?

良質なインフォメーションアーキテクチャ、ウェブサイトの構造、そして、内部のリンクの構造は、新しい製品のページを上位にランクインさせる上で、絶対に欠かせない。ホームページからカテゴリーのページに、そして、カテゴリーのレベルから製品のページにリンクを張ろう。こうすることで、グーグルに早くコンテンツをインデックスしてもらえるようになる。また、親のカテゴリーのページからもリンクを張るべきである。

ウェブサイトのテーマ(テンプレート)を最適化して、新製品が、必ずホームページに掲載され、見つけてもらい、インデックスしてもらえる環境を作る必要がある。優れた内部リンクの構造により、新製品のページを早い段階でインデックスし、ランク付けしてもらえる。

質問 #5: 固有のコンテンツがほとんどない、または、全くない製品ページにはどのように対応すればいいのか?

Eコマースビジネスには、製品ページのコンテンツを重要視する会社が非常に少ないと言う問題が見られる。多くの会社は、データベースから製品の情報を引き出し、その結果、コンテンツが重複する問題に直面する。

製品の写真しか掲載されていないページもある。これでは、検索エンジンは、ページの内容も、検索エンジンのユーザーに対する関連性も把握することは出来ない。

  1. 特に人気が高い製品にコンテンツを加える。 ウェブ分析ツールを使って、売り上げが多く、人気の高い製品のページを特定し、コンテンツを介して手動で更新していく。
  2. 製品のカテゴリーを強化する。 10万点の製品に対して、テキストを作成することは不可能である。そのため、製品の親のカテゴリーを強化するSEOの取り組みに焦点を絞るべきである。内部リンクの構造、ブレッドクラムを改善し、関連する製品を加えて、検索ボットにサイトの内容を伝えよう。
  3. ユーザーが作成したコンテンツを追加する。 ウェブ上のその他の重複する製品との差別化を効果的に行うことが出来る。満足したユーザーや顧客による推奨やレビューは、SEOキャンペーンを強化するだけでなく、売り上げへのコンバージョンにもプラスの影響を与える。

質問 #6: メーカー側の製品の説明をどのように表示すればいいのか?

グーグルは、重複するコンテンツを嫌う。メーカーの説明文をそのままコピーするだけでは、コンテンツの重複が起きてしまう。しかし、大規模なショッピングサイトの場合、全ての製品の説明文と仕様を書き直すことは、事実上、不可能である。

ユーザーによるコメントやレビューを加えることで、この問題を回避することが出来る。ユーザーにコメントを求め、ソーシャルネットワークを統合し、ユーザーに体験談を語ってもらうべきだ。満足している顧客は、マーケティングの取り組みを助けてくれる。

  1. 製品ページにコンテンツを加える。 ユーザーの問題を解決することを目指して、コンテンツに個性を与え、コンテンツの質とオリジナリティを高める。情報、画像、動画、または、提案をコンテンツに加えてもらいたい。
  2. コンテンツの「心理」の層を加える。 通常の製品の説明文は、面白味に欠け、専門用語を多用している傾向が見られる。しかし、気持ちや感覚が買い物に大きな影響を与えている。そこで、ストーリーを加え、製品の説明欄に息吹きを吹き込もう。

質問 #7: 製品の多様化にどのように対処すればいいのか?(色やサイズ等)

見た目はほぼ同じだが、色やサイズのバリエーションを持つ製品もある。適切に対処しなければ、コンテンツの重複と見なされてしまい、その結果、ランキングが低迷し、同じ製品のバリエーションの間で共食いが発生する可能性がある。また、誤ったキーワードで、製品が取り上げられてしまう危険もある(レッドジーンズが、キーワード「ブルージーンズ」で格付けされてしまう)。アダム・アウデッテ氏が、このニュアンスについて、レポートの中で分かりやすく説明しているので、参考にしてもらいたい。

ウェブサイトを見直すと、適切なキーワードに対してランク付けされることで、販売数が増える製品が次々に見つかるかもしれない。

質問 #8: カテゴリーページにはどのように対応すればいいのか?

ホームページの次に強力であり、人気の高いのが、カテゴリーページである。

  1. カテゴリーページを個別のホームページとして扱う。 関連性の高い製品ページを含むサイロ、または、ニッチとして対処するべきである。
  2. カテゴリーページにコンテンツを加える。 この記事で取り上げられている優れたアドバイスを参考にしてもらいたい。
  3. ディープリンクを製品ページに構築する。 ソーシャルメディアに加え、ゲスト投稿、コンテンツマーケティング、さらには、広告もプラスに働く。
  4. ソーシャルシェアをタグ付けする。 グーグルプラス、ツイッター、そして、その他のネットワークでのリンクのシェアを狙いを持って実施する。
  5. 見せる/展示する内容をコントロールする。 検索エンジンとユーザーに最高の体験を提供することを意識して、カテゴリーページをデザインする。
  6. 検索フレンドリーなURLを利用する。 検索エンジンに対して、URLの内容に関して分かりやすいヒントを与えつつ、ビジターには有益な情報を提供することが出来るため、この取り組みは、割と早い段階で成果を上げる — ただし、キーワードスタッフィングを避ける必要がある。以下に、カテゴリーページ(および製品ページ)において、特に有効なURLの構造を挙げていく:
  • カテゴリーページ: Website.com/category/
  • サブカテゴリーページ: Website.com/category/sub-category/
  • 製品ページ: website.com/category-sub-category/product-name/

質問 #9: 内部リンク構築と構造をどのように管理すればいいのか?

内部リンク構築は、SEOとランキングに良い影響を与える。しかし、結果を改善するためには、「リンク構築」を行うだけでなく、リンクのアーキテクチャが必要になる。内部リンクは、検索エンジンのスパイダーのみを考慮しているわけではない。ユーザーフレンドリーの度合いもまた重要だ。確固たるリンクアーキテクチャを作成するには、綿密な計画が必要があり、また、時間もかかる

  1. カテゴリーレベルのナビゲーションを用意する。 サブカテゴリーと製品ページの内容をユーザーが判断しやすくなる。周りとの関連性を保つことを心掛けてもらいたい。
  2. カテゴリーレベルで関連する製品にリンクを張る。 意図とニーズを考慮して、ユーザーの視点で考え、さらに、適切なキーワードに対して最適化を行ってもらいたい。
  3. 全てのページとカテゴリーページでブレッドクラムを利用する。 こうすることで、ユーザーとグーグルを、1つ上の階層へとナビゲートし、親のカテゴリーに導くことが出来るようになる。

質問 #10: ユーザーが作成したコンテンツをどのように活用すればいいのか?

製品やサービスに関する正直な意見を恐れているなら話は別だが — 積極的にユーザーが作ったコンテンツを利用するべきである。ユーザーが作ったコンテンツには、SEOのメリットが2点ある:

  • コンバージョン率と売り上げが上がる
  • 独自のコンテンツは上位にランク付けされ、「新鮮さ」をもたらす

ユーザーが作成したコンテンツは、製品ページに盛り込まれると、サイトを活性化し、良いレビューは、売り上げへのコンバージョンを高める。ユーザーは、満足したコミュニティの一員となり、顧客候補は、活気のあるアクティビティを目にすると、製品を買う意欲が高くなる。

  1. 満足したユーザーの「コミュニティ」を作る。 顧客の推薦とレビューを配信する。満足した顧客が投稿したブログの記事をシェアすることも可能だ。また、前向きなレビューを抜粋して、ビジターに信頼してもらうべきである — 信頼は最も重要であり、ソーシャルメディアは、この信頼感を効果的に示す上で役に立つ。
  2. schema.orgを利用する。schema.orgのマークアップ「レビュー」を利用すると、SERP内で個別の製品ページのリスティングの隣に星印を掲載することが出来る。これは、クリックスルー率に影響を与える。
  3. ソーシャルメディアを製品ページに統合する。 インスタグラム、フェイスブックのコメント、ピンタレストのピン、そして、グーグルの+1をサイトに統合して、ソーシャルプルーフ(社会的証明)をアピールすることが可能だ。製品を利用している満足した顧客の写真を投稿することも出来る。

新しいSEO」では、ウェブサイトのテクノロジーよりも、ビジターの気持ちを重要視しなければならない。

質問 #11: SEOをウェブデザインのプロセスに組み込むにはどうすればいいか?

ウェブデザインは、見た目をアピールするだけではない。経験が豊かであり、SEOコンサルタント、アナリスト、コンバージョン率のエキスパート等と協力したことがある、Eコマースサイトのウェブデザインのエキスパートが必要である。エキスパートとして活躍してもらうために、スペースと予算を与えなければならない。

構造をはみ出すページやURLが存在しない状態で、ウェブサイトのデザインとインフォメーションアーキテクチャが、連動するようになると、新しい製品ページを配信する度にサイト全体を強化し、検索スパイダーに早い段階でクロールしてもらえるようになる。また、快適なビジター体験を約束する優れたデザインとコンテンツは、売り上げを増やす。

  1. 計画を怠ると失敗する。 計画の早い段階で、SEOをビジネス/ウェブサイトに組み込む必要がある。サイトがローンチされた後では手遅れであり、ワイヤーフレームやデザインのプロセスに着手する前が理想的だ。良質なカテゴリー/セクションのテンプレートを作り、内部リンクを介して製品ページを宣伝する手法は、とても効果が高い。
  2. Eコマースサイト向けのSEOは、通常のSEOとは異なる。 EコマースSEOには、複数の分野のスキルを持ち、人間の心理、コンバージョン率の最適化、分析、ウェブデザイン、開発、ソーシャルメディアマーケティング、コミュニケーション、コピーライティング、経済、ユーザビリティ、そして、ユーザー体験に造詣が深いコンサルタントが欠かせない。また、最高のEコマースSEOのスペシャリストは、コマースの見解および理解が深く、小売ビジネスの仕組みを十分に精通している。
  3. Eコマースのウェブデザインは、永久に「完成」しない。 A/Bテストを継続的に実施し、最もパフォーマンスの良いバリエーションを探す取り組みが続く。適切な「ツール」も重要だが、最高のコンサルタントやエージェンシーの方が重要度は高い。「安価」なコンサルタントよりも、遥かに多くの売り上げをもたらすことが出来るなら、高価なコンサルタントは高価ではなくなる。

質問 #12: 関連する製品をサイトでどのように整理すればいいのか?

製品ページに関連するアイテムを提示すると、売り上げは増える。Product Information Management(PIM: 製品情報管理)のメタデータは、表示されている全てのアイテムが、関連し、パーソナライズされており、そして、在庫があることを裏付ける。また、ウェブデザイナーとディベロッパーには、内部リンクのアーキテクチャにも力を入れてもらいたい。

  1. 関連させる。 ビジターが、例えば、最新のiPhoneの製品ページに辿り着いたなら、コスト、品質、そして、買い手の特徴に基づき、その他の関連する製品も提案するべきである。最新のグーグルネクサスは、似ているかもしれないが、アップルの愛好家なら、絶対に購入しないはずだ。製品の提案を計測し、最適化する努力が求められる。
  2. 場所と配置。 目立つ、人目を引く場所に製品を掲載する。十分なスペースを与えるべきである。その他の製品の提案で、散らかしてもらいたくはない。また、売り上げが少なく、人気のない製品を目立つ場所に掲載するのもあまり薦められない。

質問 #13: 内部のサイト検索をどのように活用すればいいのか?

信じられないことだが、グーグル検索に対してサイトを最適化するものの、Eコマースサイトのサイト内検索に対する最適化を怠っているサイトがよく見受けられる。内部検索の役割を見過ごす、または、軽視していることが理由だ。スペルをミスした状態での検索、類義語の検索、ハイフンを使った検索、または、誤ったスペースでの検索は、適切な製品ページに導かない。思い当たる節があるなら、改善するべきである。

  1. サイト検索の追跡を有効にする。 サイトでビジターが検索しているキーワードを特定し、当該のキーワードがもたらす収益を計算することが可能なツールを利用する。
  2. 人気の高い検索をカウントする。 これは、製品の人気が高く、収益性が高いことを意味する。また、サイトを尋ねた目的の製品をビジターが見つけていないことを意味する可能性もある。
  3. Crazy Egg等のクリックを計測するツールを使う。 ホームページ、重要なカテゴリーページ、そして、製品ページでのビジターの行動を理解する。
  4. サイト検索の結果ページを「ランディングページ」扱いする。 検索結果は、適切であり、ユーザーの問題解決に貢献している必要がある。検索結果を「noindex」する処理を忘れないように注意してもらいたい。
  5. キーワードリサーチにサイト検索を盛り込む。 ビジターが探している対象を分析し、新製品のアイデアを探そう。また、改善する余地がある領域を見つけ、人気の高い製品を特定し、検索およびユーザビリティの問題点を克服する取り組みも重要である。
  6. サイト検索を試し、エラーを修正する。 発見したキーワードを内部検索に入力し、結果として表示されたページを確認する。誤りを修正すると、売り上げは大幅に増える。
  7. 内部検索を最適化する。 すべての内部検索が、適切な製品を導くことを確認する。そのためには、eコマース内のメタデータを調整する必要がある。メタデータを介して、処理を行うことで、不正確なワードやスペルミスが多く詰まったページを作らなくて済む。

質問 #14: 製品の写真と動画を最適化するにはどうすればいいのか?

写真、画像、そして、動画の質は、製品に対する感情に影響を与える。製品のメリットを顧客候補に感じてもらう取り組みの価値を絶対に軽視するべきではない。

面白い写真は、ピンタレストを含むソーシャルネットワークでシェアされる。写真にタグを付け、コメントを投稿してもらうと、コンテンツをユニークにする効果がある。口コミが広がると、ブランドは力強く成長していく。また、イメージを最適化すると、グーグルの画像検索からトラフィックを引き出すことも可能になる。

  1. 質の高い写真を使う。 ムードを作る写真を使って、顧客候補に何かしらの感情を持ってもらう。このような写真は、売り上げを増やす効果がある。コストは高いものの、人気の高い製品においては、意義のある投資になる。動画はさらに効き目がある。
  2. 画像を最適化する。。ファイル名、altテキスト、キャプション等は、簡潔であり、それでいて、分かりやすい名称を用意する必要がある。イメージの内容の手掛かりをグーグルに与えることが出来るためだ。
  3. オプションをA/Bテストで検証する。 ある写真と別の写真を試し、どちらがコンバージョン率が高いか確認する。

質問 #15: セール中の製品のページをアピールするにはどうすればいいのか?

セール中の製品ページのHTTPヘッダーで、正規のURLを指定する。この処理は、別のURLと重複しており、このページではなく、固有のページをランク付けするようグーグルに合図する効果がある。

質問 #16: モバイルデバイスに対して、どのようにデザインすればいいか?

EコマースSEO戦略において、モバイルは重要な鍵を握っており、決して、無視することは出来ない。MetronetとVaimo NorwayでEコマースの顧客に対して、同僚のケネス・グヴェインが行った調査では、モバイルEコマースは、通常のEコマースよりも、成長率が2-3倍高いことが分かった。生き残りたいなら、モバイル化を推進する必要がある。

すべてのURLのデスクトップ版を提供してもらいたい。一部のユーザーは、モバイルデバイスであっても、通常のウェブ版を好む。モバイル版とウェブ版を切り替えることが出来るように工夫しよう。多くのEコマースサイトに倣って、ホームページに返してしまう行為は認められない

質問 #17: セキュリティはどうすればいいのか?

当然だが、顧客は、インターネットのセキュリティに懸念を持っている。個人情報と金銭的なデータをサイトのオーナーに一任するためだ。そのため、安全であることを保証する必要がある。

ビジュアル面での手掛かりを提供しよう。セキュリティの基準に従っていることを保証するロゴとテキストを表示することが出来る。SSL、Visa、または、その他のセキュリティおよび暗号化の標準や認証の情報を提供するべきである。Eコマースサイトでの買い物が、100%安全であることを分かってもらう必要がある。こうすることで、コンバージョンは大幅に増える。

多くのショッピングサイトが、この情報をページの一番下に隠すか、あるいは、当然だと考え、わざわざ表示する必要はないと誤解している。このような過ちを犯さないでもらいたい。

ベストプラクティスと繰り返し — すべてのEコマースサイトに送る最高のアドバイス

1. 定期的にSEO分析を行う: SEOもEコマースサイトも静止しているわけではない。サイトとコードは変化する。ディベロッパーが、善かれと思って、ある問題を解決するものの、別の問題を作り出してしまうことがある。戦略的なSEOのフレームワーク(日本語)を用いて、全ての取り組みが収益および戦略の目標と一致している点を確かめてもらいたい。

2. グーグルウェブマスターツールを使う: この無料のツールは、SEOの厄介な問題を見つけ、修正する上で役に立つ。次の作業を習慣として行ってもらいたい:

  • 404エラー、ソフト 404エラー、その他の問題を探す
  • SERPでの、ウェブサイト、製品、そして、ページのパフォーマンスを計測する
  • 人気の高いキーワードやフレーズ、人気の高いページ等を把握する

グーグルウェブマスターツール、グーグルアドワーズ、そして、グーグルアナリティクスを活用して、無料で有益な情報を得るべきである。

3. 行動を起こす: データをモニタリングしているだけでは、不十分である。手を加えることが可能なアイテムを探して、改善を続けなければならない。何を探すべきか、そして、その理由を把握してもらいたい。インデックス、コンテンツの重複、グーグルによる手動のペナルティ等の問題点を特定するべきである。その後、すぐに問題の解決に向けて、行動を起こそう。

4. SEOツールに資金を投じる: Moz、Search Metrics、Raven SEO Tools、Deep Crawl等のツールは、問題を特定する上で効果的であり、修正に関する提案を受けることが出来る。行動を起こすことが可能なレポートシステムを策定し、問題を解決するためのルーティンを確立するべきである。すべてのツールが独自の利点を持っている。コンサルタントとして、EコマースSEOを行う際は、幾つかのツールを組み合わせて利用することを薦める。

5. 手動の(サンプル)テストを行う: Screaming Frog SEO Spiderを使って、Eコマースサイトのページとセクションが持つ問題を特定する。特に重要な製品の分野を選び、特定のカテゴリーとサブカテゴリーで分析を行おう。時折、すぐに修正することが可能な、CMSが原因のサイト全体に広がる問題を見つけることが出来る。

6. データ分析は宝の山: あらゆる取り組みを改善することが出来る。しかし、そのためには、リソースが必要である。改善の優先順位を決めるために、分析を行ってもらいたい。ダッシュボードで作業を実施することが可能な情報を整理しよう。

7. モバイル革命を真剣に考慮する: モバイルデバイスは急速に増加している。モバイルサイトの開発の遅れは、オンラインビジネスを滅亡に導く。モバイルユーザーにどのような体験を提供しているのか、どのように改善することが出来るのか、自分自身に問い掛けてもらいたい。

1本の記事でEコマースSEOの全てを網羅するのは不可能である。今回提供したアドバイスは、多くのEコマースサイトが、売り上げと収益を大幅に増やす上で役に立っているものの、あくまでも氷山の一角である。

その他にも有益なアドバイスを持っているなら、コメント欄で提供して頂きたい。どんな意見が飛び出るのか、楽しみにしている。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「17 SEO Best Practices That Could Double Your E-Commerce Sales」を翻訳した内容です。

いきなり在庫切れ製品の対応には驚きましたが汗、最近見たリスト記事の中ではトップクラスの実用度を誇る充実した記事でした。ここに書かれていることの幾つかを徹底的に実践するだけでも売上アップには確実に貢献しそうな雰囲気です。私も幾つかECサイトを運営していますし、早速できることから実践して今年のクリスマスを楽しく過ごしたいと思います! — SEO Japan [G+]

ウケるSEOブログの作り方

海外では以前から多数存在するSEO関連のブログ、SEO Japanでもその多くを紹介しています(最近、更新頻度が少なめで恐縮ですが・・・)。コンテンツマーケティングが普及してきたのか、日本でも最近になってSEOブログが増えてきたと思いますし、その多くは海外ブログに引けを取らない充実の内容なのは、翻訳記事をお茶を濁しているSEO Japanにとっては羨ましくもありますが、日本のSEOシーンにとっては喜ばしいことですね。今回は米国の人気SEOブログの筆者がSEOブログの課題やあるべき姿について書き下ろした非常に興味深い記事を紹介します。盛り上がりつつある日本のSEOブログシーンをさらに盛り上げるヒントが隠されているかも? — SEO Japan

SEOブログはつまらない。インターネット上には、SEOを取り上げるブログが多数存在するものの、その多くは同じ情報を何度も何度も取り上げているだけである。事実上、情報がリサイクルされているのだ。90%が他人の受け売りのこともある ? 私はこのトレンドを「SEO情報のロングテール」と呼んでいる。

このテールは、必要以上に長い。

ある意味、このSEOブログのスタイルは、受け入れられていると言える。正直に言うと、私も同罪である。現在、Single Grain SEO blogの立ち上げに取り組んでおり、このブログでは、出来るだけこの不名誉を回避する努力をしている。しかし、この恥ずべきスタイルのブログは、クライアントにとって有益であり、私達がターゲットにしているオーディエンスの大半を占める、情報を持たない人達に基本的な情報を与えることが出来る。だからと言って、面白くなるわけではない。優れたブログは、情報を紡錘で巻き取り、セーターを編み、その後、裁断して、再び紡錘に巻き込む行為とは一線を画している。

優れたブログは無限に続く

最高のブログは、– 生きている間に、全てのトピックを網羅することが出来ない — 無限、もしくは、無限に近い情報を取り扱っている。無限に近い情報は、必然的にコンテンツが個性的になり、質が高く、面白く、その結果、卓越したブログを生み出す。

残念ながら、無限に続くトピックは、稀である。トピックによって差はある。SEOの範囲は、ブログで取り上げる価値があるものの、SEO業界の人間にとっては、ほとんどの場合、戯言にしか聞こえないほど限られている。 範囲が広くなればなるほど、独自のコンテンツをもたらす変化は増え、そして、独自のコンテンツが出来上がる確率は高くなる。SEOから、インターネットマーケティング、そして、マーケティングへと幅を広げていくと良い。

しかし、ジレンマを抱えることになる。範囲を広げていく際に、広げる範囲が狭過ぎることもあれば、あまりにも広げ過ぎて、誰にも気に留めてもらえなくなることもある。近寄り過ぎると、結局、同じことを何度も繰り返すことになる。中間に位置することが、個性を出す上で、意見を混合する上で、そして、ブログを改善する上で、有効に働く。

ブログで無限に宣伝を行いたいなら、「人」を取り上げるべきだ。60億人が、ランダムに一度に交流する混沌とした環境が生まれているため、「人」の話題は、ブロガーにとって、無限大の可能性を秘めている。人をトピックに取り上げれば、差別化を行うことが出来る。なぜなら、例えば、ジョージア州のアトランタで、ピーナッツバタートーストをミームとして、CDを宣伝するパンクロッカーに出会ったストーリーのように、ブロガーが属する世界において、記事の取り上げる話題は、必然的に独自の話題になる。

反対に、SEOの基本やSEOのみを取り上げれば、退屈なブログが出来上がってしまう。 SEOは無限ではないためだ

この分野で取り上げるトピックには限りがある。検索エンジンは、特定のアルゴリズムのレベルを除いて、特に心配する必要があるテーマではない。リンク構築の手法は、分野によって異なる。しかも、大半のリンク構築の業者が、利用することが出来ないものばかりである。SEOブロガーとして、オーディエンスの好奇心を誘い、斬新なストーリーを提供し、認められるには、「人」を意識する必要がある。

最新のニュース企業批判自社のアプリを作り、記事で取り上げる取り組み有名なSEOのプロへのインタビュー…このような取り組みによって、印象に残り、紹介する価値のあるブログを作り出されている。ベストプラクティスを何千回も繰り返す行為に甘えていたSEOブログの世界では、「人」を取り上げる以外の選択肢は見当たらない。

それでも、重要であることに変わりはない

「人」は大事だ。話をするのも重要だ。その結果、新鮮さを維持することに成功し、ネットワークが生まれ、最終的にリンクにつながる。作業を中断して、ある程度関連性があり、創造力を多少刺激する記事を読む行為は、考えている以上に重要度が高い。MozSEOBookOutspoken Mediaが新しい記事を投稿すると、ワクワクする。それぞれ、独特のスタイルを持っている。このようなサイトの記事を読むと、1日を乗り切る力が湧き、創造力が活性化されていく — 無限のポテンシャルを秘めていると言える。

「人」を取り上げるには、割と勇気がいる。反論される可能性があるためだ。しかし、それも、面白味の一つだと言えるだろう。言い返す必要がある。なぜなら、言い返すたびに、新しい何かが生まれる。オーディエンスは、その「新しさ」を求めている。

そして、この「新しさ」こそが、ブログで取り上げる価値があるトピックだと言える。


この記事は、Ross Hudgensに掲載された「The Real Reason SEO Blogging Sucks」を翻訳した内容です。

タイトルと比較して、いきなり世の中のSEOブログにダメ出しな冒頭でしたが汗、これからSEOブログを立ち上げようと思っている方、現状のSEOブログの方向性に悩んでいる方に何かヒントになる点はあったでしょうか?実際、アプローチ次第ではまだまだ開拓の余地があるSEOブログ界隈だと思いますし、新たなライターの登場に期待したいですね。

私の場合は、2002年初めに勢いで20~30ページの(多分日本初の)SEO情報サイトとしてSEO Japanを立ち上げましたが(当時の記事)、その頃はブログ自体存在しなかったですし、その後も旬な情報を提供し続けるのは結局海外情報の受け売りな部分が多く更新も大変だし辛いな、、、と考え10年近く(汗)全く更新していませんでした。2010年から志向を変えて海外イベントのリアルタイムレポートという形で復活させましたが、すぐに記事ネタに枯渇し海外ブログの引用記事に走ろうかと思いましたが、そもそも単純に海外の人気ブログを翻訳紹介すればいいのでは?と思い立ち、幾つかのブログに連絡を取ってみた所、意外と快諾されたので今に至る次第です。ただの翻訳ブログのくせに偉そうにするな!と文句をいわれることもありますが、まぁ、この路線は路線でそれなりに需要もありますし、自分自身が勉強を続ける源にもなるので良いかとは思っています。

と、何故か自身の告白になってしまいましたが、日本オリジナルの素晴らしいSEOブログも次々と生まれているようですし、今後の発展に期待したいですね! — SEO Japan [G+]

Googleがリンクのコンテキストを介してスパムを特定する方法

人口リンクを活用したSEO、Googleにとっては全て「スパム」の一環と見なされ、実際その多くがペナルティや順位下落を受けるようになってきた最近。その中でも様々なリンクスキームを考案して果敢にチャレンジを続ける人もまだまだ多くいるわけですが、、、今回はマニアック度に関してはトップレベルを誇るSEO by the SeaからGoogleがリンクスパムを特定する手法に関しての特許技術を紹介。人口リンクを見破られないためのヒントが隠されているかも、、、って悪用はあくまで自己責任でお願いします。 — SEO Japan

グーグルは、ペンギンアップデートを介して、リンクスパムを、ページに向かうリンクとアンカーテキストを操作する試みと見なし、今までよりも遥かに警戒しているように思える。ペンギンアップデートが導入されたのは、2012年4月24日であった。その際、併せて、公式のグーグルウェブマスターセントラルのブログでは、「良質なサイトをより高く評価するために」が投稿されていた。

この記事は、グーグルのウェブマスターガイドラインを違反するサイトのウェブランキングを下げるために、グーグルが着手している取り組みを紹介している。この記事を作成したのは、グーグルのウェブスパムチームを統括するマット・カッツ氏であった。同氏は記事の中で次のように説明している:

変更の詳細を明かすことは、抜け道をくぐり抜けたサイトが検索結果にあふれ検索ユーザーの利便性を損なう可能性があるためできませんが、ウェブマスターのみなさんにお伝えしたいことは、ユーザーにとって利便性の高い 良質なサイトを作ること(英語)に専念し、ウェブスパムを駆使することなく “ホワイトハット” SEO を心がけてください、ということです。

この記事は、キーワードスタッフィング、「不自然なリンクのパターン」、そして、コンテンツのスピン等、ペンギンがターゲットにする類のウェブスパムを挙げている。先月、私はグーグル、意味不明のフレーズを採点し、ページのランキングを格下げする」の中で、グーグルがコンテンツのスピニング(同意語を用いた書き換え)を特定すると思われる方法を描写した特許を取り上げた。

2004年、グーグルは、検索エンジンが、リンクの前後のワード等、リンクのコンテキストに留意し、リンクのコンテキストを正確に理解することが出来る仕組みを記した特許を申請している。ウェブマスターセントラルのブログの記事で挙げられていた例では、リンクのコンテキストが意味を成さない手口で、リンクが作られる経緯が、例として挙げられた記事の中で明確に示されている:

Examples of link spam from the Google Blog

リンクを介して人為的に文書のランクを水増しする

この特許は、「人為的に文書のランクを水増しして、検索結果の質を下げる」手法を幾つか挙げている:

リンクベースのスパム行為 – この取り組みは、ページのランクを上げるために、大量のリンクを獲得する行為を伴う。グーグルは、リンクファームの例を挙げ、「一部のスパマーは、上位に格付けされている文書の持ち主に料金を支払い、文書内でリンクを張ってもらうことで、自分の文書のランキングを高くしている」と説明している。

アンカーテキストのスパム – 多数のページから、同じアンカーテキストを使って、特定のページに向かうリンクを手に入れ、当該のテキストに対する検索結果のランキングを高くする行為を指す。

グーグル爆弾 – アンカーテキストのスパムにとてもよく似ている。このアプローチは、商業的な利益を得るためではなく、冗談目的、もしくは政治的なメッセージを伝えるために検索結果を破壊することを念頭に置いている。

オンサイトのフレーム化 – 多くのサイトが、「製品」リンク、「募集職種」リンク、「投資家向け」リンク等を使って、サイト上のページを「フレーム」で囲んで、リンクに関連するページのラキングを「人為的に水増し」する試みを行っている。

このような手法に対抗するため、ページ上のリンクの「コンテキスト」に注目し、ページのランキングを下げる、または、上げる手法がこの特許では描かれている。

それでは当該の特許の情報を提供する:

参照のコンテキストに応じたランク付け

発明: アンナ・パターソン、ポール・ハー

付与先: グーグル

米国特許番号: 8,577,893

付与日: 2013年11月5日

申請日: 2004年3月15日

概要

文書に関連するコンテキストに応じて、文書をランク付けするシステム。本システムは、1つ目の文書内の参照情報を特定する。この参照情報は、2つ目の文書に関連する。本システムは、参照情報に関連する1つ目の文書の一部を分析し、この部分からレアなワードを特定し、レアなワードを基にコンテキストの識別子を作成し、その後、このコンテキストの識別子に応じて、2つ目の文書のランク付けを実施する。

この特許の発明者欄には、アンナ・パターソン氏が名を連ねている。パターソン氏は、グーグルのフレーズベースのインデックスに関する特許にも参加している。

リンクのコンテキストに基づくランク付けの仕組み

An example from the patent of window around a link where Google might look to find context identifiers for a link.

検索エンジンがページをクロールする際、ページ上のリンクを特定し、例えば、リンクの前の5つのワード、リンクの後の5つのワード等、リンクを囲むウィンドウのテキストを抽出する可能性がある。上の画像では、アンカーテキスト「SATURN」が用いられたリンクが用いられている。このアンカーテキストの左側には「BEAUTIFUL OF ALL THE PLANETS」、そして、右側には「IS SURROUNDED BY AN ELEGANT」が記されている。

次に、グーグルは、逆文献頻度(IDF)による重みづけの手法や従来の言語学的なモデリングによる手法等のプロセスを使って、既にウェブでインデックスした全ての文書と比較して、 リンクに関連するテキストのそれぞれの部分から「最もレア」だと思われるワードを抽出する。

この場合、左側のウィンドウで最もレアなワードは「PLANET」、右側のウィンドウでは「ELEGANT」が該当する。この特許は、ウィンドウで用いられるワードの数は、5ワード前後であり、また、リンクが掲載されているページの他のコンテンツが用いられる可能性があると指摘している。

また、このプロセスでは、「実在」するワードのみが用いられるようだ。「実在」の判断は、当該のワードが記載されているウェブ上の文書の数で決められる — 例えば、異なる50点の文書に用いられていなければ、実在するとは見なされない。これは、記号や数字を含むテキストの塊が利用されるのを防ぐ効果がある。

同じページにリンクを張る文書が多いケースが考えられるため、このコンテキストのアプローチでは、大量のページからコンテキストの情報をすべて抽出することも考えられる。リンクの近くのワードを含む文書の数が多い場合、コンテキストの情報に文書の数が含まれる。SATURN「土星」は惑星「PLANET」であることを考えると、このページに向かうリンクのアンカーテキスト「SATURN」の傍に「PLANET」が掲載されたリンクが、大量に存在する可能性がある。また、SATURNは、「ELEGANT PLANET」(エレガントな惑星)と評されることが多く、アンカーテキスト「SATURN」を用いる「SATURN」に関するページに向かうリンクの近くに「ELEGANT」が用いられている可能性も高い。

リンクの近くのレアなワードに対する、この「コンテキスト」スコア(この特許では、「コンテキストの識別子」と呼ばれている)は、各リンクに対するスコアを生成するために用いられ、各文書のランキングスコアを判定する。このスコアをつける上で用いられると思われるその他の要素を挙げていく:

  • 文書に向かうリンクの本数
  • 文書にリンクを向けている文書の重要度
  • 文書にリンクを向けている文書の新鮮さ
  • その他の既知のランキングの要素

グーグルウェブマスターセントラルの記事(英語版)で、不自然なリンクのパターンとして挙げられている例を見ると、この例のリンクの周りのワードが、定期的にこのリンクの近くに現れるワードではないことが分かる。

同じコンテキストの識別子が少ないなら、あるいは、疑わしいほど多く存在するなら、リンクが向けられているページに送られるべきランキングの価値は、スルーされることもあり得る。この特許は、この要素をページランクのシグナルとも、ハイパーテキストの関連性のシグナルとも呼んでいないものの、どちらにも属する可能性がある。

このコンテキストの識別子のカウントは、時間の経過と共に計測され、リンクに対して急激にカウントが増えると、特定される仕組みが採用されると見られる。短期間で、同じコンテキストの識別子を含むリンクを複数獲得したページは、疑わしいページと考慮され、リンクを張るページのランキングにおいてカウントされないこともあり得る。反対に、各種の妥当なコンテキストの識別子を持つページは、検索結果において、押し上げられる可能性がある。

教訓

この特許が認められたのは最近だが、申請が行われたのは10年近く前である。グーグルが、この特許で描写されているプロセスを利用したことがあるかどうか、利用したものの、別のアプローチに変えたかどうか、あるいは、今でも利用しているかどうかは不明である。

リンクスパム、アンカーテキストのスパム、グーグル爆弾、フレーム化等、このアプローチが解決を試みる問題は、グーグルが今でも対応に苦戦している問題である。しかし、ペンギンアップデート、そして、ウェブマスターツールでの手動のペナルティの通知等の対策によって、グーグルは積極的に問題の解決に乗り出している。グーグルは、このコンテキストの識別子によるアプローチを、不自然なリンクを特定するために用いているのだろうか?上の例のペンギンのウェブスパムにおいては、有効に働きそうだ。

今後は、リンクの周りのワードにも注意を払うべきなのかもしれない。


この記事は、SEO by the Seaに掲載された「How Google Might Use the Context of Links to Identify Link Spam」を翻訳した内容です。

10年前に申請が行われていた特許だけに、スパム認識技術としてはかなり古めの部類に入るとは思いますし、今ではこの数段上の技術を数多く投入しているとは思いますが、多少の参考にはなったかもしれません。普通に真っ当なSEOのみを行っていれば、この内容を参考にする必要はないわけですが、、、Googleを理解するという意味でも気になる記事ではありました。 — SEO Japan [G+]

被リンクでペナルティを受ける前に絶対に知っておくべき知識のまとめ

SEO業者に頼んで対策をしていたが、ペナルティを受けてしまった。 業者に連絡をしても、「色々頑張ってやっているので見守るしかありません」とはぐらかされる。 最近、急にこんな相談を頂くことが増えた。 おそらく、あなたもSE […]

ブログのアクセスアップの為に SNS を活用する方法 ~ 初級編

今や、Web サイトのアクセスアップに関して言えば SNS の存在は無視出来なくなりました。 検索エンジンの重要性は依然変わりありません。 しかし、SNS での施策というのも非常に重要になっています。 SNS で行うアク...

ブログのアクセスアップの為に SNS を活用する方法 ~ 初級編 is a post from: Room 402

Googleアルゴリズムの進化 – ソーシャル、リンク、そして、民主主義

数々のスパム検出アルゴリズムやハミングバードアップデートで進化を続けるGoogleですが、大きな流れでいえばリンクベースの評価基準をよりソーシャルベースの評価基準へと移行させつつある、ということがあるようです。リンクはSEOにより濫用され続けてきた歴史がありますし、ソーシャルメディアの普及でリンクを評価軸の中心に置くのはそもそも良いのか?という話もあります。今回はマット・カッツが今後のGoogleについて語った話を元に筆者がGoogleのアルゴリズムの進化について考えた次世代SEOを占う記事を。 — SEO Japan

ハロウィーンの当日に行ったハングアウトオンエア(HOA)のライブ放送イベントにダニー・サリバンに参加してもらった。このイベントでは、ハミングバード、そして、ソーシャルシグナルに関して、意外な新事実が幾つも明らかになった。このイベントをスコット・スカウクラフト氏が、大事な箇所を5分間の動画に見事にまとめてくれたので(スコットマジックと私は呼んでいる)、是非、視聴してもらいたい:

YouTube Preview Image

整理すると、以前、グーグルは、ソーシャルシグナルをランキングの要素として利用する点に関して、技術的に大きな欠点を抱えていたようだ。しかし、ハミングバードの導入により、グーグルは、(その他のシグナルに加え)ソーシャルシグナルを巧みに処理するためのインフラが整備されたことになる。

これは、先日行った調査で、グーグル+のシェアのリンクがランキングに影響を与えていない点が判明した理由なのかもしれない — しかし、同時に、グーグルプラスがランキングインパクトを与える日が、間近に迫っていることを示唆している可能性もある。

ダニー・サリバンは、HOAで幾つかの比喩を用いていたが、その中でも、米国が誕生した頃の投票制度の例えは特に分かりやすかった。票を投じるためには、資産家の白人の男性でなければならず、民主主義とはほど遠いシステムであった。

時代の流れと共に、白人以外の人種、裕福ではない者、そして、女性にも投票権が与えられるようになった。米国は進化を遂げ、基本的には18歳以上の全ての市民が投票することが出来るようになった。

この民主主義は検索でも行われているのか?

その問いに対して、簡潔な答えを提供する必要があるなら、イエスでもあり、ノーでもあると私は答える(あまり単純ではないが…)。もう少し細かく状況を解説していこう。

今まで、SEOを動かしていたのはリンクであった

これは、大地主の白人男性のみが投票権を得ていたシステムに相当する。ウェブでは、リンクを実装するには、ウェブサイトを持っている必要がある。土地の所有と比べると、大した投資ではないが、それでもある程度の投資が求められる。ソーシャルメディアのアカウントを開設する際の投資と比べると、遥かに犠牲は大きい。

グーグルは、今後、ソーシャルシグナルをランキングの要素として利用するようになる

冒頭の指摘を再び整理すると、次の2つのポイントが浮かび上がってくる:

  1. グーグルは、現在、ソーシャルシグナルを利用していない(または大々的には利用していない)
  2. 今後は利用するつもりである

スパムが支配する世界

これが現実だ。そのため、あるタイプの票を無効にする必要がある。自分自身への投票も無効扱いされる。自分に票を投じるための行為は、認められず、単純にカウントの対象外になる。

当該の分野の専門家の票は重要視されるべきである

あるトピックにおいて、エキスパートと認められる人物であり、そのトピックにおいて、優れたコンテンツを作成したと評価されているなら、当該の人物の意見は、何も知らない人の意見よりも重視されるべきである。リンクベースのアルゴリズムは、常にこの方式を介して、運営されてきた。ソーシャルシグナルにおいても、同じ方式が用いられることになる。

ウェブにおいて、リンクは、社会的証明の最初の形式であった。優れたコンテンツに対して人々(この比喩では、裕福な白人の地主)が票を投じる手段であった。元々のグーグルのアルゴリズムでは、ページランクは、誰がトピックのエキスパートなのかを示す手段であり、リンクのページランクが高ければ高いほど、低いページランクのサイトのリンクよりも、重視されていた。このシステムも時間の経過と共に進化し、関連性が大きな要素として定着した。

ソーシャルメディアの世界では、トピックのエキスパートの評価は、関連するコンテンツが、言及される、シェアされる、そして、+1される等のアクションを介して、決められていく。

ソーシャルでの投票は、労力と関与のレベルがリンクよりも低い

ウェブサイトのオーナーのみが票を投じる世界(ウェブサイトを持っていなければ、リンクを埋め込むことが出来ないため)が民主的とは言えないと指摘することも出来るが、リンクを使ってコンテンツに「票を投じる行為」には、ソーシャルメディアでコンテンツを共有する行為よりも多くの労力、そして、関与が求められる。

Social Media Signals Lack Commitment

票の重み付け

いいね!や+1ボタンのクリック — 労力のレベル(とても低い)関与のレベル(低い)

コンテンツのシェア — 労力のレベル(低い)関与のレベル(並)

リンクの掲載 — 労力のレベル(高い) 関与のレベル(高い)

ウェブサイトのパブリッシャーは、まったく信頼されていない低レベルのサイトから距離を置き、ブランドの評判を守らなければならない。スパム丸出しのアフィリエイトサイトにリンクを張ってしまうと、ターゲットのオーディエンスからの評価は落ちてしまう。ソーシャルメディアでも同じことがいえるが、ソーシャルメディアでのコンテンツの共有は、数分間で消えてしまうものの、ウェブサイトにリンクを張ると(削除するまでは)その場所に残る違いがある。

いずれのシナリオにせよ、ろくでもないサイトにリンクを張る気にはならないが、本当の問題は、曖昧な領域に属する。ソーシャルメディアでコンテンツをシェアする前に、どの程度、当該のコンテンツの質をチェックするだろうか?時間がないものの、何かを推薦したいなら、見たところ質が高そうなコンテンツを見つけたら、さらに数分間を割いて、質を吟味しようと思うだろうか?誰よりも早くシェアしたい欲求が強く、最後のチェックをスキップしてしまうだろうか?用心、そして、努力に影響を与える可能性があるシナリオは、他にも多く考えられる。

このように、曖昧な領域が存在するものの、二流のコンテンツのシェアがもたらすリスクは低い。一方、ウェブサイトでは、低レベルのコンテンツにリンクを張ることで、ブランドおよび評判が被るダメージは大きい。

解決策

あくまでも個人的な意見だが、堂々と発表させてもらう。次のような公式が採用される確率は非常に低いと私は考えている:

Social Signals and Link Signals Together

ソーシャルメディアでの証明のシグナル – シナリオ 1

ウェブリンク、グーグル+でのリンクのシェア、+1 -> ソーシャルシグナルの選別 -> 票

先程申し上げた通り、ソーシャルメディアを介して、ユーザーが投票(シェア、+1、コメント)に投じる投資は、ウェブサイトにリンクを掲載する際の投資とは異なる。そのため、若干、異なる仕組みで、票が処理されるのではいだろうか。次のような仕組みの方が、有効に働くと私は思う:

Social Signals and Link Signals Separately

ソーシャルメディアでの証明のシグナル – シナリオ 2

ウェブリンク -> リンクのシグナルの選別 -> リンクベースの票

グーグル+でのリンクのシェア -> グーグル+でシェアされたリンクの選別 -> グーグル+の票

+1 -> +1の選別 -> +1の票

コメント -> コメントシグナルの選別 -> コメントの票

ソーシャルシグナルの選別を行う仕組みは、シグナルによって大きく異なることを強調するため、2つの表を提供した。「ソーシャル票とリンク票を足して、それで終わり」と言うわけにはいかない。どのような形で投票が行われるにせよ、コンテンツに「票を投じる」人物/ブランド/パブリッシャーの信頼性に応じて、重みづけが行われるはずである。

しかし、上の表には、シグナルによって、ランキングに与える影響が大きく異なる点が反映されていない。特定の種類のシナリオでは、リンクが強い影響力を持ち、ソーシャルシグナルは全くインパクトを与えない(あるいは、その逆)ケースも考えられる。

まとめ

リンクとソーシャルシグナルは、ともに社会的証明の形式の一つだが、どのように動くか、そして、何が関わるのかに関しては、全く異なる。そのため、グーグルが適用する仕組みにも、違いが生じると私は考えている。いずれにしても、多くのプラットフォームで評判を確立し、様々なタイプの社会的証明のシグナルを得ることが、オンラインマーケティングの中心的な取り組みになることに変わりはない。

大きな企業では、大きなスケールで行われる。零細企業では、一部の分野、または、地域のマーケットに絞って、この取り組みが行われる。企業の規模に関係なく、やることは同じである。自分が所属するマーケットで、リーダーとしての地位を確立する必要がある。これは、最終的なゴールである。また、最後になるが、グーグルは、グーグル+のシグナルを何かに対して、カウントする試みを始めようとしているようだ。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「What Everybody Missed About Hummingbird: Social Signals」を翻訳した内容です。

ソーシャルシグナルの重要性がさらに叫ばれる最近ですが、記事の筆者の分析は中々面白かったですし、なるほどそんなに単純な話ではないことも改めて理解できました。もちろん今の時点でも例えば「いいね!」数が多ければよいものではないことは自明の理ではあるでしょうが、「ソーシャルシグナルが大事(オーソリティに限る)」といわれた時点で、その手のサービスがまた大量に登場し無作為に電話営業され販売されそうなことは容易に想像はついて怖い面もあります。ソーシャルシグナルの場合、現状のリンクペナルティのように外すことも難しそうですし。さらなる混乱を巻き起こさないためにも、Googleも簡単には検索結果に影響力があるとはいえなそうなソーシャルシグナルですが、さて2年後3年後の検索結果にどこまで影響を与えているのか興味深い限りです。 — SEO Japan [G+]

robots.txtの書き方|内部SEOの改善に必要な27の基礎知識と具体策

SEOは既に「良質なコンテンツ」のみが検索上位を独占するようになりつつある。 そして、良質なコンテンツばかりになってくるとサイト内部がどれだけ最適化されているかが結果を分けるようになってくる。 robots.txtはその […]

2014年はセマンティックマークアップの年になる

2013年も12月に入り、来年のトレンドを考える時期になってしまいました。SEOに関しては今年大きな動きが色々ありすぎて逆に来年の動向が読めてしまう雰囲気でハミングバード、コンテンツ、オーソリティなどが筆頭で上がりますが、それらを実践するにも欠かせないのがセマンティックの正しいマークアップ。今までやった方が良いとはいわれつつも、まだまだ実践できているサイトは少なかった状況とは思いますが、デバイスの多様化、検索の多様化でそろそろ実践が不可欠な時代に入りつつあります。そんな状況の中、ウェブサイトの構造化=セマンティック化の基本について、現状、そして今後の動向を見据えつつわかりやすくまとめてくれた記事をサーチエンジンランドから。– SEO Japan

世界中の情報を整理することを目指した、グーグルによる終わることのない取り組みの中で、今年、最も刺激的だったのは、何と言ってもコンテンツ(ナレッジグラフ経由)とクエリ(アルゴリズム「ハミングバード」経由)の「意味」を理解することが出来るようになった点である。

以前だと、グーグルは、ページ上のワードをユーザーが検索したワードとマッチさせることに依存せざるを得なかった。現在、クエリの意図を、意図に合うページの適性と一致させる革命が起ころうとしている。

Semantic Search & Knowledge Graph: Information Architecture & Website StructureこれはSEO業界に大きな影響をもたらす。この変化について、優秀なSEOのエキスパートと話し合ったところ、セマンティックSEOを新たな視点で評価し、焦点を絞る取り組みが、何度も話題に上がった。

賢明なマーケッター達は、2012年と2013年の戦略において、構造化データマークアップが重要な鍵を握ると考えていた。構造化データのマークアップのトレンド、そして、このトレンドを推す動きは大幅に高まり — 調査の参加者の3人に2人が、構造化データマークアップを2014年にさらに実装する、もしくは、最優先課題に格上げすると答えていたほどだ(2013年9月に行われたClarity Global SEOカンファレンスにて)。

しかし、企業が、セマンティックマークアップの実装または拡大に時間と労力を投じるべきかどうか考えるようになると、次の疑問が浮かび、なかなか前に進めないケースが多い。

セマンティックSEOによってランキングは改善されるのか?

これは誤った疑問であり、マーケッターとしてSEOにアプローチする考え方としても誤っている。

1位になるよりも、2位につける方が、トラフィックは2倍多いと言ったら、1位になることに固執するだろうか?

マーケッターとしての私の最終的な目標は、ランキングで1位に輝くことではない。トラフィック、コンバージョン、そして、収益を最大限まで高めることである(ビジネスに対する「成功」の定義は会社によって異なる)。

この点は意外と忘れられることが多い。なぜなら、過去の検索エンジンの限界によって、ランキングをトラフィック/収益/コンバージョンを同意語として考えるようになっているためだ。これは正しい考え方ではなく、以前から誤っていた — そして、優秀なマーケッターはこの誤りに既に気づいている。

それでは、2014年の計画に留意して、構造化データについて考える際に、考慮してもらいたい3点の疑問を挙げていく:

1. 構造化マークアップは、ユーザー体験とブランドとの交流を改善するのか?

答えは、確実に「YES」である。構造化データによるマークアップは、ビジターには見えないものの、マークアップがSERPに提供するリッチスニペットは、ユーザーに魅力的な体験をもたらす効果がある。

次の2つのリスティングを比較してもらいたい:

regular SERP listing

vs

SERP with structured data

下の結果では、より優れたユーザー体験を提供するために、マークアップが用いられている。クリックする必要もなければ、長い文章を読む必要もなく画像、評価、そして、レビューを一目で見ることが出来る点は、ユーザーにとって大きなメリットである。SERPでのランキングに関わらず、このリッチなリスティングが、上位のランキング競争において、どれだけ目立つか考えてもらいたい。

2. 検索エンジンが今後検索と検索結果を処理する方法と一致しているか?

ここでは推測する必要があるが、答えはYESである。

検索結果の過去の形式 — 関連性の高い順番にサイトを並べていくリスト — は、根本的に欠陥がある。これは、10年間に渡って、検索エンジンが解決を試みてきた課題である。グーグルは、キーワードとの一致を基にしたリストから、様々な意見と感情、新鮮さ、パーソナライゼーション、地域、そして、その他の要因を考慮したリストへと切り換える取り組みを大幅に進歩させている。

セマンティック検索は、クエリの裏側にある意味に応じて、間接的なクエリと直接的なクエリの双方に対応するための取り組みである — つまり、クリックと検索の数を減らし、また、多くのケースでは、クリックを必要としない状態で、ユーザーを質問から答えに導くための挑戦である。

グーグルのナレッジグラフ、インスタトアンサー、そして、グーグルナウから検索愛家の未来を垣間見ることが出来る。このようなテクノロジーを用いることで、間接的なクエリ(行動や環境に応じるクエリ)、そして、直接的なクエリ(入力、または、音声による検索)に応じて、関連する情報を提供することが可能になる。検索エンジンは、リンクのリストではなく、適切な答えを提供する。構造化マークアップの利用によって、検索エンジンは、コンテンツが、現在、そして、今後進化する中で、クエリに対するソリューションをどのように提供しているのか、より正確に理解することが出来るようになる。

3. 収益の改善にプラスに働くのか?

この質問に対しては、「ケースバイケース」と答えておこう。ビジターのコンバージョンに対して適切な取り組みを行い、上位にランクインしているなら(つまり、1ページ目から2ページ目のランキングを確保するための基盤を確立しているなら)、構造化マークアップは、クリックスルー率 — 検索結果ページからのクリックのシェア — を改善する上で確実に有効に働くはずだ。

リッチスニペット(構造化データのマークアップで動く)は、SERPでのクリックスルー率に大きな影響をもたらす。ちなみに、私がSMX Advancedカンファレンスで発表した、グーグル+のオーサーシップのテストでは、作者のマークアップを用いたブログの記事が、マークアップを利用しないブログの記事に比べて、クリック数が2倍以上多かった。

no author markup SERP

2x Lift in Traffic with Authorship Markup!

オーサーシップのマークアップを利用しないページよりもトラフィックは2倍多かった

SEOの基本を押さえる

サイトで技術的な問題、または、コンテンツの問題(ページタイトルが欠けている、リンク切れ、コンテンツの重複)を抱えているなら、まずはこの問題を解決することに力を入れるべきである。検索体験を効果的に変える取り組みに参加する前に、まずはサイトを正常な状態に整理しなければならない。

今すぐに行動を起こしてもらいたい。既存のデジタルなアセット — 動画、レビュー、製品、イベント、地域の店舗の情報 — は、ウェブマスターの代わりに一生懸命働いてくれる。そのためには、検索エンジンに理解してもらえるように、少し手を貸す必要がある。競争に負けたくないなら、2014年のSEO計画には、絶対にセマンティックマークアップを盛り込むべきである。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「2014 SEO Roadmap: Adopting Semantic Markup」を翻訳した内容です。

何故、セマンティック化を行うべきか?という疑問にその効果から答えてくれた記事でした。さらに学びたい方にはこちらのセマンティックの全体を描いた記事、セマンティック実際のマークアップ方法についてはschema対応、マニアックなあなたにはGoogleとセマンティックの関係等の記事が追加でおススメです。 — SEO Japan [G+]

SEO 対策として自動的に “title” と “alt” を記述してくれる WordPress プラグイン 『SEO Friendly Images』

昨日、Google の Matt Cutts 氏が教える 『画像』 に施す SEO 対策とその効果という記事をアップしましたが、今日はそれに関連した WordPress のプラグインをご紹介したいと思います。

自動的に title と alt を記述してくれるプラグイン

前述の記事の中でも言及している通り、画像に対しての SEO 対策の施策のひとつとして、“title” と “alt” タグをきちんと記述するというものが挙げられます。

しかし、これが中々面倒なもの。

理想としては、それぞれの画像にユニークな(重複しない) "title""alt" タグを記述する事が望ましいですが、ブログ等のコンテンツが増え続けるタイプの Web サイトではそれも難しいのが実状ではないかと思います。

そこで、このプラグインを活用します。

『SEO Friendly Images』 概要

『SEO Friendly Images』は、インストールして有効化しておくだけで、後述する設定の通りに "title""alt" タグを自動的に記述してくれるプラグインです。
理想的な SEO 対策とまではいかないですが、何もしないよりはベターです。

ある程度の SEO 効果は欲しいけど、完璧に行うのは面倒だという、私のような方に是非おすすめしたいプラグインです。

『SEO Friendly Images』 の設定

『SEO Friendly Images』では、"title""alt" タグに自動記述する書式を、以下の 4 つから選択する事が可能です。

  • %title – 記事タイトル
  • %name – 拡張子を含まない、画像ファイル名
  • %category – カテゴリー名
  • %tags – タグ名

これらを組み合わせて、"title""alt" に記述する内容を決めていきます。勿論、これらの他にご自身で入力した固有のキーワードを追加する事も出来ます。

上記の画像はクリックで拡大出来るので、実際にご覧頂くとイメージが掴みやすいでしょう。

『SEO Friendly Images』 の使用例

『SEO Friendly Images』 は実際に公開した記事のソースコードを見る事で、"title""alt" タグが書き換わっているのを確認できます。

かなり見辛いですが、今ご覧頂いているこの記事を例にとって画像を用意してみました。


青いアンダーラインの部分が、画像の "alt" タグです。
WordPressSEOFriendlyImagesWordPressPlugins という、画像名そのままで記述されています。


そして、こちらが実際に公開された記事のソースコード。ピンクのアンダーラインの部分が、画像の "alt" タグです。
WordPressSEOFrienlyImagesSetting 636x541 SEO 対策として自動的に title と alt を記述してくれる WordPress プラグイン 『SEO Friendly Images』という、長くてキーワードが詰め込まれた記述に書き換えられていますね。

"alt" タグが書き換えられた事によって、この画像自体も Google の検索や画像検索でヒットする可能性が少しは出てきました。こうした要素を積み重ねて出来上がったサイトが、いわゆる SEO に強いサイトに育っていくのです。

まとめ

如何でしたでしょうか?
今回は、ベストとは言えないものの、ベターな SEO 効果を得る事ができる WordPress プラグインのご紹介でした。

この記事が、何かの参考になれば幸いです。

SEO 対策として自動的に “title” と “alt” を記述してくれる WordPress プラグイン 『SEO Friendly Images』 is a post from: Room 402

Google の Matt Cutts 氏が教える 『画像』 に施す SEO 対策とその効果

今回は、Web サイトにアクセスを呼びこむための『SEO 対策』についてのお話です。さらに言えば、『画像』に対しての『SEO 対策』についての技術をご紹介したいと思います。

この記事は Google がフォトグラファーの Web サイトに向けた SEO 対策について解説したビデオと、それに関連する記事を交えながら話を進めています。特にフォトブログやギャラリーサイトなどの、文章が少なく、SEO 対策を施す余地が少ないサイトで効果を発揮することでしょう。勿論、ブログ等のサイトであっても、その効果は期待できます。

それでは早速見てみましょう。

『画像』 への SEO 対策という意識

世の中に SEO 対策についての記事は多くあれど、『画像』への SEO 対策について言及している記事は圧倒的に少ないような気がします。(勿論、私の知らないところではきっとあるのでしょう。)
また、「画像に SEO 対策」と言われても、いまいちピンと来ない方も少なくないかと思います。その効果についても。

そこで、一枚の画像をご用意しました。

このアクセス解析結果は、私が先日作成した或るギャラリーサイトの初月のデータです。
作成したギャラリーサイトには文章が殆ど無く、一記事に記述出来る文字数はほんの一文か二文程度でした。ちょうど画像から、ここまで程度の文章です。

この結果を見てどう感じるかは人それぞれかも知れませんが、画像に施す SEO 対策について少しでも興味を持って頂けたなら、この記事は役に立つかと思います。

Google の Matt Cutts 氏が教える画像への SEO 対策効果

How can a photographer’s image-focused site gain PageRank? – YouTube

画像に施す SEO 対策については、上記のビデオで全てが語られています。最初にアクセス解析結果をお見せしたギャラリーサイトについても、ここで言われている SEO 対策を行ったのみになります。

このビデオは、「文章のないフォトサイトで、PageRank を上げるにはどうすれば良い?」という、カリフォルニアの写真家からの質問に Google の方が回答している内容になります。

内容が英語になりますので、意訳を交えつつ簡単に内容をご紹介したいと思います。

SEO に大切な 5 つのポイント

このビデオで Matt Cutts 氏は 5 つの話題を挙げて話を進めています。

  1. SEO 対策という観点から見た画像の名前の付け方
  2. 画像を記述する title, alt タグの活用
  3. 画像の『周囲』に施す SEO 対策への手助け
  4. Matt Cutts 氏がおすすめする 1 つの工夫
  5. 画像ファイルへの SEO 対策がもたらす効果

それぞれ順番に見て行きましょう。

SEO に有利な画像のファイルネーム

まずはじめに、画像ファイルそのもの『名前』に注目してみましょう。

例えば、あなたの Web サイトのロゴ画像があるとします。
その画像のファイル名を、決して logo.png とはしないでください。以下の内容を参考にして、あなたの最切なロゴ画像にきちんと名前を付けてあげて下さい。

  • 画像の内容に関連した単語を交えて
  • 人間がファイル名を見て画像を推測できる

この 2 つの点を意識してファイル名をつけるとよいでしょう。

  • 良い例 … room402-wordpress-blog-logo_01.png
  • 悪い例 … logo.png

こうする事で、検索エンジンが画像の内容をより正確に把握するデータが増えると共に、画像検索に載る可能性も出てきます。

また、画像の扱いに関しては Google が公式に見解を出していますので、併せて下記の記事も読んでおくと良いでしょう。

title タグと alt タグの活用

ビデオでは、画像を記述する際の titlealt についても触れています。これは非常にシンプルな内容です。

  • title タグには画像のタイトルを面倒でも記述しよう
  • alt タグには人間が読んで分かるような画像の説明を記述しよう

この 2 点だけです。要するに、「titlealt は少し面倒でも記述するのを忘れずにね!」という事です。勿論、それぞれの箇所で記述内容が重複しないのがベストです。

画像の『周囲』に施す SEO 対策

また、可能であれば画像の回りに『その画像を説明するようなキーワード』を散らばしておくと効果的です。出来ればページ全体に配置しておくと良いでしょう。

例えば、あなたがとても可愛い猫の写真を撮って、それを記事にするとしましょう。
それだけでは、Google も、記事を読んでいるあなたも、そして私も、その写真が「猫の写真(らしい)」という事までしか分かりません。

そこで、画像の周囲に、その画像の理解を深めるための『キーワード』を散らばしておくのです。

例えば、

  • どんな種類の猫?
  • 何匹写ってる?
  • 何してる?
  • 周りの状況は?
  • どういうシチュエーションで撮った?

などです。この他にも、まだまだ沢山思いつきますね。

話が長くなって恐縮ですが、上記の要素を使って幾つか例文を用意しました。画像の周囲に配置されている文章から、どれだけの違いが生まれるかを体感して頂ければと思います。

仲良くご飯を食べる二匹の猫

「さっき近所のスーパーまで買い物に行ったら、二匹のキジトラが仲良さそうに家の軒下でご飯食べてた!かわいい!」

雨宿りしている孤高の猫

「会社から帰ってくる時、マンションの玄関で雨宿りしている黒猫が居たよ。じーっと外見てて、退屈そうだった。かわいい。」

めっちゃ威嚇してくる猫

「綺麗なアメショが居たから撫でさせて貰おうとしたのに、めっちゃ威嚇されて逃げていっちゃった…。かわいい…。」

この違いによって、Google はより画像への理解を深めるという訳です。
「ちょー可愛い猫」から一歩進んで、どの様にちょー可愛いのか説明しましょう。

Matt Cutts 氏がおすすめする 1 つの工夫

先ほど挙げた、画像の周囲にキーワードを配置するための一助として、Matt Cutts 氏は 1 つの施策を薦めています。

それは、画像ページにコメント欄を設けることです。

例えば Flickr を御存じですか?
Flickr はプロの写真家も愛用する写真の共有サイトで、素晴らしい写真が沢山あります。そして、そのページにはコメント欄があって、ユーザーが自由に会話出来るようになっています。

コメント欄を設ける事によって、少なくとも 2 つの SEO 的なメリットを得る事ができます。

  1. コメントがその写真を説明してくれる役割を果たす
  2. キーワードが貯まっていく事でコンテンツを獲得できる

これは、ギャラリーサイトやフォトサイトが『文章』というコンテンツを得るための、優れた施策の一つになるかもしれません。

画像ファイルへの SEO 対策がもたらす効果

ビデオの冒頭で Matt Cutts 氏は以下の様に述べています。

Googleはかなり正確に画像の内容を理解する事が出来るようになってきているよ。けど、その内容を完璧にするのは、現在のコンピューター工学では、まだ少し難しいんだよね。

その為に、上記で挙げたような画像ファイルへのSEO対策を行う事によって、Googleはより正確に画像の内容を判断する事が出来るようになると述べています。また、それに伴って適切なSEO対策を施せばPageRankも相応のものになるとも述べています。

全部をやる必要は無いかもしれないけど、検索結果にランキングさせたい画像なら時間をかければ大きな違いが出る筈だよ。


このアクセス、殆ど Google 検索からなんです。

まとめ

思いの外長くなってしまいましたが、ここまで読んで頂いて有難う御座います。
SEO 対策はきりがない部分もあるので、負担にならない程度で気楽な範疇で行うのが良いと思います。

SEOは何かをやったら劇的な効果が出るというものではなく、こつこつと積み重ねて劇的な結果が出る所が面白いですよね。
今回のビデオは、私にとっても少し画像ファイルに対する意識が代わった内容でした。

あなたにとっても、何かのご参考になれば幸いです。

Google の Matt Cutts 氏が教える 『画像』 に施す SEO 対策とその効果 is a post from: Room 402

プレスリリースのリンクよりも遥かに大きな問題

プレスリリースをSEOに活用する戦術は、英語圏では一般的な手法として使われてきましたが(日本ではそこまで使われていなかったと思います)、意図的なアンカーテキストリンクを盛り込んだ内容の薄いリリースが大量生産され続けた結果、Googleが公式にプレスリリース内のリンクを実質スパム認定するような見解を述べる始末。質の高いコンテンツを生産することが大事なのはわかっていても、それにはコストも手間もそれなりにかかり、結果も保障されるものではないのもまた事実であり、意図的なリンク構築に頼れないウェブマスターの悩みはつきません。今回はSEO Bookが久々のGoogleとウェブマスターを取り巻くSEO事情に関するエッセイ的記事を。– SEO Japan

ご存知の方も多いかとは思うが、グーグルが、ウェブマスターガイドラインを更新した。

グーグルのガイドラインへの違反にあたる不自然なリンクの例としてよくあるケースを次に紹介します:….他のサイトに配布される記事やプレスリリース内の最適化されたアンカーテキストリンク。

次に例を示します。
市場には多くの婚約指輪が流通しています。結婚式を開くなら、最高の指輪を選ぶべきです。また、ウェディング ドレスを購入する必要もあります。(註:イタリックがアンカーテキストリンク)

とりわけ、グーグルは、他のサイトに配布される記事やプレスリリース内の最適化されたアンカーテキストを用いたリンクに焦点を絞っている。今回もグーグルらしく、若干ルールが曖昧に定められている。「最適化されたアンカーテキスト」とは何を意味するのだろうか?提供されている例では、アンカーテキストにキーワードが含まれており、アンカーテキスト内のキーワードが“最適化”されている。よって、グーグルのガイドラインの違反に当たる。

実に曖昧な表現である。

プレスリリースの変更点を考慮して、グーグルのガイドラインは次のように説明している:

ページランクやグーグルの検索結果でのサイトのランキングを操作することを意図したリンクは、リンク プログラムの一部と見なされることがあり、グーグルのウェブマスター向けガイドライン(品質に関するガイドライン)への違反にあたります。これには、自分のサイトへのリンクを操作する行為も、自分のサイトからのリンクを操作する行為も含まれます。

SEO目的 – つまりランキングを操作する目的 – で獲得したリンクは、グーグルのガイドラインに違反することになる。

グーグル vs ウェブマスター

あるチャットを紹介する…

このチャットの中で、グーグルのジョン・ミューラー氏は、ウェブマスター側から行動を起こしたなら、それは自然なリンクではないと指摘している。安全を第一に考えているウェブマスターに対して、ミューラー氏は、nofollowの利用を薦めている。

グーグルの方針は一貫しているが、画面に映っていた数名のウェブマスターは、完全に食い違っており、見ていて面白かった。グーグルは、プレスリリース自体は問題視していないものの、グーグルのガイドラインにおいて安全を重要視したいなら、リンクをnofollowにした方が無難である。

その通りだ。SEO目的でリンクを構築するのではなく、純粋なプレスリリースなら、リンクをnofollow化することに異論はないはずだ。

当然である。

しかし、一部のウェブマスターは、実際の自分達の取り組み関して、自覚していないようであった。この点は、質問の内容にも反映されていた。恐らく、「プレスリリース内のキーワードのリンクは、許される」と言う言葉を聞きたかったのだろう。今度もリンク構築の取り組みの一環として、プレスリリースもどきを配信することが出来るためだ。

要点を理解していないとしか私には思えなかった。

私はグーグルの味方なのか?

どちらか一方に肩入れしているわけではない。

もっと大きな問題に注目してもらいたいだけだ。

ウェブマスターの行動の良し悪しが、今後もグーグルによって決められていくなら、いずれ、完全に蚊帳の外に置かれてしまうことになるだろう。グーグルがウェブマスターの味方ではない点は明らかだが – 残念ながら多くのSEO関係者が誤解しているようだ。グーグルは、グーグルの味方である。たまにユーザーの味方だと主張することもある。そして、その言葉に嘘はない。

ウェブマスターは、グーグルにとって、コントロールし、好ましくない場合は排除し、整理し、そして、分類しなければならない存在である。人一倍“アグレッシブ”なウェブマスターに対しては、「友は近くに置き、敵はもっと近くに置く」ポリシーを採用している。

一部のウェブマスター、つまり、SEO業者は、ユーザーのためだけにコンテンツを配信するのではなく、グーグルの収益システムと争っている。SEOは、グーグルの金の卵とも言える、質の高いクリックのトラフィックをもたらす、クリックベースの広告と競合するサービスを提供しているのだ。

SEOが成功を収めると、グーグルに料金を支払う人がいなくなるのは目に見えている。当然 – 代わりにSEOに投資するようになるだろう。そのため、グーグルの立場から見ると、SEO業者は敵であり、コントールしなければならない。私がグーグルでもSEOに「質の高いコンテンツの提供」へと見直しを迫るだろう。

グーグルは、単純にプレスリリースのリンクを無視すればいいのではないだろうか?決して難しいことではない。なぜ公にしたのだろうか?グーグルは、アルゴリズムに関して、ウェブマスターに聞かせたいトピックを除き、徹底した秘密主義を採用している。それでは、なぜグーグルは、ウェブマスターに対して、プレスリリース内のリンクに関する情報を公開する気になったのだろうか?真っ先に浮かぶのは、リンク構築、そして、SEOの効果を弱めるためだ。

巨大なミサイルが、グーグルから発射されている。

ガイドラインに従う人達

グーグルに行動の条件を決めさせると、SEOの戦いから放り出されてしまう可能性がある。

(常に変化する)ガイドラインを守っていると言いつつ、実は違反すると、法的な責任問題に発展する可能性がある。最近、次のような訴訟が進行している:

先週、Seilay & Stewartが、RICO法(違法行為による利益の獲得を罰するアメリカの法律)を根拠に、法律事務所のマーケティングに特化したRainmaker Institute社に対して、$49,000のSEO料金の返還、そして、懲罰的損害賠償を求めて、訴訟を起こした。

…..SEO業者が情報を明らかにしているなら話は別だが、「グーグルのガイドライン違反」が、今後、訴訟に発展しやすくなる可能性は否定できない。

気軽にSEOをキャリアにするべきではないのかもしれない。

この最新のグーグルの取り組みに対して、正当なPRエージェンシー、メディア対応部門、そして、広報は感謝している可能性がある。ここで、ウェブマスターワールドのコメントを紹介する:

大半の正当なPRエージェンシー、メディア担当部門、そして、広報は、グーグルのガイドラインに喜んで従うのではないだろうか?なぜなら、「プレスリリース」が「SEOスパム」になってしまうと、この重要なツールが役に立たなくなってしまうためだ。

本物の広告スポンサーが、広告にページランクの転送を期待していないように、本物のPRエージェンシーもまた、プレスリリースにページランクを転送してもらうことなど期待していない。パブリックリレーションとは、検索結果を操作するのではなく、メディアにメッセージを埋め込む取り組みである。

ただし、プレスリリースが、信頼されていると言い切ることも出来ない。プレスリリースは、SEOが台頭する前から、そもそもあまり評判が高くなかったからだ。それでも、今回の措置により、ライバルは減り、PRエージェンシーは、クライアントのプレスリリースをアピールしやすくなったのではないだろうか。

ターゲットに焦点を合わせるガイドライン

上の動画の中で、グーグルのコアのランキングチームを統括するアミット・シンガル氏が作成した記事が、参考資料として取り上げられていた。2011年に作成された記事であり、最新の情報ではない。この記事は、品質を特定について次のように説明している:

アルゴリズムで用いられている、実際のランキングシグナルを私は公開するわけではない。検索結果を操作されたくないからだ。しかし、グーグルの考え方を知りたいなら、次の問いに答えていけば、グーグルがこの問題をどのような視点で見ているのか、自ずと分かってくるのではないだろうか:

  • その記事に提示されている情報を信頼しますか?
  • その記事は、エキスパート、または当該のトピックを熟知する熱心な人物によって書かれていますか?あるいはそれよりも質が低いですか?
  • そのサイトには、同じ、または同様のトピックで若干異なるキーワードのバリエーションを用いた、重複する、一致する、もしくは余分な記事がありますか?
  • そのトピックは、サイトの読者の紛れもない関心によって選ばれていますか?それとも、検索エンジンで何が上位にランクインするかを推測することで、コンテンツを作成していますか?
  • その記事は、オリジナルのコンテンツや情報、オリジナルのレポート、オリジナルのリサーチ、またはオリジナルの分析を提供していますか?
  • そのページは、検索結果のその他のページと比較して、十分な価値を提供していますか?
  • コンテンツにどのぐらい質の管理を実施していますか?

…等々。グーグルは、常に「品質の高いコンテンツの作成」を重要視している。グーグルのユーザーが、この品質の高いコンテンツを求めている。そして、グーグルのユーザーが求めているものは、同時にグーグルの株主が求めているものでもあるのだ。

もちろん、品質の高いコンテンツを求めること自体は問題ない。質の低いコンテンツを求めている人などいるだろうか?しかし、SEO業界の関係者のほとんどが理解しているように、品質の高いコンテンツを作ったところで、成功が保証されるわけではない。グーグル、そして、ユーザーにとっては、プラスに働くのかもしれないが、パブリッシャーにとっては、不利な環境である。リスクを全て背負うのは、パブリッシャーだけだからだ。

ニューヨークタイムズは、大量のコンテンツを持つボストングローブを、買った当時の金額のよりも大幅に低い金額で売却した。コンテンツの質が高いことは間違いないが、大きな利益をもたらすビジネスとは程遠い。適切なマーケティングを行うことなく、コンテンツばかりに力を入れる戦略は、信頼に欠ける。最近、アマゾンのCEO、ジェフ・ベゾス氏が、ワシントンポストを買収していたが、コンテンツを最優先している可能性は低い。

質の高いコンテンツは、作成コストが高い上、ウェブ広告の手数料が雀の涙しか期待できない点、オーディエンスに見てもらえない点、コンテンツがはぎ取られ、盗まれる点を考慮すると、ウェブマスターが、上位のランクを確保するために、その質の高いコンテンツを売り込むのは致し方ないと思える。その他に一体どんな選択肢があるのだろうか?

SEOを実施しない方がよっぽどリスキーである。

安価なコンテンツファクトリーとして有名なeHowでさえ、購読会員制に移行しようとしている。

さらに大きな問題

グーグルは、ゴールポストを自分の好きな場所に動かすことが出来る。現在行っている取り組みが、今後、グーグルの怒りを買う可能性はある。コンテンツが誰にも見てもらえなくなり、やり直す以外は、他にどうすることも出来ない状況に身を置かれるかもしれないのだ。

このような不測の事態に備えて、計画を練っているだろうか?

Johnonは的確にこの問題を表現している:

大事なことは、現在、検索エンジンから、どれぐらいのトラフィックを獲得しているのか、そして、今後、グーグルがこのトラフィックの流れを遮断した際に、どれだけ準備をしているのかだけである。

グーグルのポリシーとガイドラインの細かいところに気を取られていると、大事なポイントを見失ってしまう。グーグルが、ゴールポストの位置を動かし、トラフィックの流れを断ち切った際に、どれだけ準備が出来ているかが鍵を握る。

グーグルの方針の細部に気を取られていると、本当に、重要なポイントを見過ごしてしまうだろう。

これはリスク管理の問題だ。メインのサイト、または、クライアントのサイトが、グーグルのポリシーの変更に巻き込まれ、大打撃を受けてしまったら、どうなるだろうか?他にもサイトを運営しているだろうか?片方では、積極的にSEOをプッシュし、もう片方では、SEO抜きでサイトを運営しているだろうか?ガイドラインに従い、それで十分だと自分を納得させていくのだろうか?ガイドラインを守るものの、上位にランクインしていないなら、全くオーディエンスの視界には入らないため、ペナルティーを受けたようなものではないだろうか?検索トラフィックをメインコースではなく、ボーナスとして扱っているだろうか?

グーグルのニーズを自分のニーズよりも優先する方針は、慎重に判断してもらいたい。そして、自分のリスクは自分で管理するべきである。


この記事は、SEO BOOKに掲載された「Google: Press Release Links」を翻訳した内容です。

特に結論がある話ではありませんでしたが(いや、あるのか)、集客や収益の多様化が重要とはいえ、SEOはもちろん、検索エンジンに依存しないウェブビジネスは、限りなく一部でしょうし、成功しているウェブビジネスの多くはSEOにトラフィックを相当依存しているケースが多いのもまた事実。もちろん、その多くはペナルティを受ける確率は限りなく低い正攻法のSEOを長年続けてきたサイトとは思いますが、ちょっとしたアルゴリズム更新でがロングテールワードの平均順位が1ページ目から2ページ目に下がるようなことがあれば、トラフィックへの影響は莫大なものがありますよね。特にGoogleが余りに圧倒的な検索プラットフォームとして君臨している今日、わかっていても、どうしようもできない現状のような気もします。無理せず地道にSEO以外のことも考慮しつつコンテンツ作りに励んでいくしかないのでしょうが、ウェブマスターの仕事と悩みは募るばかりです。 — SEO Japan [G+]

SEO担当者向け : これだけは知っておきたい検索エンジンの基本 【2013年度末版】

ますます高度化、専門家する検索マーケティング、SEO Japanもついついマニアックな記事が多目になってしまいますが、意外と変わりそうで変わらないのが検索エンジンの基本的構造。今回はそんな検索エンジンの基本を改めて整理した記事をサーチエンジンランドから紹介します。基本というには、若干高度な内容も含まれており、SEO担当者向けの基本といった感じではありますが、いわゆる「初心者向け」記事とは一線を画す納得の内容。混沌のSEOの時代、基本を再度理解した上で、来年のあるべきSEOを考えてみてはいかがでしょう? — SEO Japan

SEO業界の関係者(または参入を望む人達)は、様々な細かい仕事に追われている。サーバーの構造、301 リダイレクト、404 エラー、タイトルタグ等々、数えれば切りがない。

そのため、じっくりと腰を落ち着け、それぞれの作業がどのような意味を持っているのか考えることを怠ってしまう。また、大半のSEOのスタッフは、一度もトレーニングを受けたことがなく、「その場」で何とかしなければならないため、検索エンジンの仕組みを知らないSEOのスタッフが多いのは致し方ないのかもしれない。

(グーグル等の)検索エンジンの仕組みを時間を割いて考えたのは、何年前のことだろうか?私は、先日のグーグルウェブマスターハングアウト、そして、このチャットで明らかになったリンク否認ツールの情報を記事(日本語)にまとめていた先月、久しぶりに検索エンジンの仕組みを真剣に考える機会を得た。

しかし、正直に言うと、否認ツールに関する記事を書くまで、8-10年間のブランクがあったと思う。そこで、この記事を通じて、悪習を断ち切っていく。この記事では、上級者に向けて、検索エンジン(グーグル)の仕組みを説明していく。用語や運用の順番は若干異なるかもしれないが、ビングとヤフー!も同じ様なプロトコルを利用している。

クロール vs. インデックス

グーグルがサイトを「インデックス」した、とは何を意味するのだろうか?SEOの関係者は、グーグルで[site:www.site.com]検索して、サイトが提示されたと解釈する。これは、グーグルのデータベース内のページがデータベースに加えられたことを意味するものの、必ずしもクロールされているわけではなく、そのため、次のメッセージが時折表示されるのだ:

の結果の説明は、このサイトのrobots.txt により表示されません ? 詳細

インデックスはクロールとは全く異なる。簡単に言うと、URLはクロールされる前に、発見されなければならず、「インデックス」される前に(より正確に表現するなら、グーグルのインデックス内のワードに関連付ける)前にクロールされなければならない。

最近仲良くなったエンリコ・アルタヴィラは、次のように説明していた。私にはこれ以上分かりやすく説明することが出来ないため、引用させてもらう :

インデックスは、文書ではなく、ワードやフレーズのリストを持ち、その一つ一つに、当該のワードやフレーズに関連する全ての文書への参照情報が与えられている。

私達は「文書がインデックスされた」とよく言うが、実際には、「文書に関連するワードの一部が、文書に向けられるようになった」ことを意味する。文書は、そのままの状態で別の場所にアーカイブされている。

また、古くから付き合いがあり、グーグルに務めた経験を持つ ヴァネッサ・フォックスは、次のように説明している:

グーグルは、URLについて学び…その後、URLをクロールのスケジュールシステムに加える。リストを推測し、それから、優先度を考慮してURLのリストを再編成し、その順番通りにクロールしていく。

優先度は、様々な要因により左右される…ページのクロールが終わると、グーグルは、別のアルゴリズムのプロセスを実行し、インデックスに当該のページを保存するかどうかを決定する。

要するに、グーグルは、把握しているページを全てクロールするわけでも、クロールするページを全てインデックスしているわけでもないと言うことだ。

以下に、グーグルが提供したルート図を簡素化したものを掲載する:
how-search-engines-work

その他にも幾つか注意してもらいたい点がある:

- robots.txtは、ページのクロールをブロックするだけである。そのため、グーグルは、上の例のようなページをたまに検索結果に表示する。内部リンク等のアイテムを基にページとワードを関連付けることが可能であっても、ページのコンテンツをクロールすることは出来なかったからだ。

- ページレベルのnoindexコマンドは、確定的ではない。グーグルはページをクロールして、ページ上のワードをインデックスと関連付けることが可能だが、検索結果に当該のページを盛り込むことを意図しているわけではない

しかし、グーグルは、noindex処理したページを、誰でも見ることが出来る記録に含めることがある。実際に、グーグルは、その他のシグナルにより、インデックスされるべきだと判断される場合、noindexコマンドを無視することもあると明言している。これは、グーグルが、その他の検索エンジンとは一線を画する重要な領域である、ヤフー!とビングは、noindexのコマンドに従い、インデックスすることも、検索結果に盛り込むこともない。

また、カノニカル、パラメータの除外を含むその他の要素もまた、グーグルがページについて把握し、クロール/インデックスする間に処理されていく点も注目に値する。

リンクとリンクグラフ

次に理解してもらいたいのは、リンク、そして、リンクが処理される仕組みである。ここで最も重要なことは、リンク(そして、その延長線上にあるページランク)は、クロールの最中に処理されるわけではない点である。つまり、グーグルは、先ほど説明したようにクロールを行うものの、クロールを行う間は、ページランクの検討を行わずに、別の段階で対処しているのだ。

このポイントはどのような意味を持つのだろうか?

  • ページランクは、誰が何と言おうと、リンクの量と質の計測値である。ページ上のワードとは何の関係もない。
  • 大勢のSEOの関係者は、ページランクには 2つの要素(ドメインレベルとページレベル)が存在すると考えている。ドメインレベルのページランクは、ドメインのオーソリティを特定し、大勢のSEOの当事者が、サイトのランク付けに用いられていると考える要素である。私自身も、グーグルがドメインオーソリティの一部の要素を利用していると思うものの、グーグルがこの点を認めたことは一度もない。
  • ページランクは、クロールとは別に処理されるため、「noindex」や「disallow」等の指示やリファラーベースのブロックが、ページランクの流れを止めることは出来ない。
  • リファラーベースの追跡を用いて、ページランクをコントロールすることは出来ない。要するに、(例えば).htaccessでリファラーをブロックして、nofollowのような影響をgooglebotに与えることは不可能である。
  • 一般的な考えとは異なり、302 リダイレクトはページランクを転送する。
  • 以下にページランクの流れを遮る4つのアイテムを挙げていく:
    1. リンクのソース上でのnofollow
    2. リンクの起点となるページのrobots.txt内でのdisallow。robots.txtコマンドは、当該のページのコンテンツのクロールを拒否し、検索エンジンがリンクを見ることはないため、効果がある。
    3. リンクの起点となるページでの404エラー 。
    4. リンクの終点となるページでの404エラー。 404の効果があるのは、このコマンドがサーバーサイドで発生するためである。リンクグラフの処理が行われると、検索エンジンは、再びページにアクセスすることが出来なくなる。反対に、robots.txtでブロックされたページは、実際には存在し、インデックスに加えられていないだけであるため、ページランクを引き続き獲得する。

2012年8月20日に行われたウェブマスターハングアウトで、この点を指摘するためにグーグルが用いたスライドのスクリーンショットを以下に掲載する:

page-rank-slide

劣悪なリンクを処理する方法として、もう一つ挙げられるのが、リンクのソースを否認する方法でる。これは、グーグルが受け入れた場合、ソースリンクに「nofollow」を加えるのと同じ技術的な影響をもたらす。

このようにして検索エンジンは動いている

これだけでは、検索エンジンの仕組みを完全に理解することは出来ないだろう。とりあえず、覚えてもらいたい重要な点を以下に挙げていく:

  1. クロールとインデックスは同じではない。
  2. ページランクは、クロールとは別に処理されている。
  3. ページランクの転送をブロックする方法は4つのみであり、それ以外だと否認しかない。

知らなかった情報はあっただろうか?私自身は、リンクのリファラーを.htaccessでブロックし、ページランクの流れを断ち切ることが出来ると(誤った)考えていた。皆さんにも、どのような誤った考えの下、SEOに取り組んでいたのか、振り返ってもらいたい。

事実確認作業に協力してくれた、エンリコ・アルタヴィラに感謝の意を伝えたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Search Engines Work ? Really!」を翻訳した内容です。

SEO初心者に勉強になることはもちろん、検索エンジンと関わって15年以上の私でも、改めて気づきがある記事でした。「インデックスされたとうことは、Googleでsite:で検索して表示されることではない」という一言にはしびれましたね。SEOを実践するにおいて考えるべき要素は様々ありますが、迷った時はここに書かれている基本の基本を見失なければ大きく外れることはないはず。「より簡単になる」ことは決してないSEOの世界ではありますが、2014年のSEO、地道に迷わず取り組んでいきましょう! — SEO Japan [G+]