テクノロジーを過大評価し、言葉の力を過小評価する理由

アドテクノロジーの進化と活用が加速化する一方、改めて人が産み出すコンテンツの大切さも問われているウェブマーケティングの世界。どちらかというと、革新的でビジネスとしてもスケールし、関連スタートアップやGoogleなど大手企業による買収話も多いアドテクに注目が集まりがちですが、本当に役に立つのはどちらなのか?そんな疑問にコンテンツマーケティングを5年以上に渡って啓蒙してきたCopybloggerに答えます。 — SEO Japan

Image of Victorian Machine

大勢の専門家が、アマゾンのソーシャル推薦機能は、心強い味方になると考えている。しかし、なぜこの機能が役に立つのだろうか?

そもそも、アマゾンの究極のソースとは何だろうか?

当然だが、様々な変化する要素を把握する上で、幾つか予測値が存在する。恐らく、この値は、アマゾンのトップシークレットなのだろう。しかし、このソースは、アマゾンの内部にも存在するのではないだろうか。

このソースの最も重要な材料は、コピーだと私は思う。

優れたアルゴリズムによって、ユーザーに対して、それぞれのユーザーが好む(買うことを望む)製品が提示される。推奨エンジンは、ユーザーが本当は何を求めているのか理解している。大量の変数を演算することが、消費者の行動を予測する上で鍵となる…と言われている。

私にはそうは思えない*。ブラックボックスは確かに影響を与えているとは思うが、確実にコピーも影響を与えている。

ちょっとした言葉の力

「この商品を購入したお客様はこの商品も購入しています」と言うフレーズは、社会的証明の手掛かりとなる。

これは、社会心理学の有名な原則である。社会的に証明するメッセージ付きのオファーは、どっちつかずのメッセージが添えられたオファーよりも効果が高い。

アマゾンが、推奨テクノロジーを用いて、「この商品もいかがですか」と表示したらどうなるだろうか?これは中立的なメッセージになる。「この商品もいかがですか?」と「この商品を購入したお客様はこの商品も購入しています」をテストすれば、アマゾンのソースにおけるテクノロジーとコピーの割合が見えてくるだろう。

このテストを行いつつ、さらに、信頼性の手掛かりと共に「編集者は…を推薦します」を試してみよう。中立的なメッセージよりも効果が高いはずだ。

テクノロジーが後押しすると見られるコマースの中で、心理が受け持つ重要な役割を理解する科学者が増え続けている。テクノロジーによって、不公平な競争上のアドバンテージが与えられているなら、その裏にある本当の仕組みを把握することが肝要である。ブラックボックスが秘密のソースだと言うだけでは不十分だ。

テクノロジーだけのために、テクノロジーに大金を投じるべきではない…と私は思う。

推奨システムを購入した人達は、ヨットも買っています。**

コンピュータが主役になるのは、まだ時期尚早だ。

私は技術者ではない。だから、テクノロジーを批判することが好きなのだ。

そんな私は高級なソフトウェア専門店を運営している。また、多くの企業が、これでもかと思えるぐらいテクノロジーを求める現実に驚かされている。大方、大した理由はないように思えるのだが。

少し脱線する…

なぜヨットを買いたくなるのだろうか?A地点からB地点に移動するための、頼りになる移動手段が欲しいのだろうか?その可能性は低い。破廉恥なパーティーを開催する場所を必要としているからだろうか?

正解に近づいてきた…

仲間に自慢したい欲求が、豪華なヨットを購入する主な理由だと言えるだろう。「ねぇ、あなた、ヘンリーが奥さんにヨットを買ってあげたんだって。私達も買おうかしら?」

A地点からB地点に行きたいなら、資金の投入先として、推奨システム(テクノロジー)が最も適しているだろうか?製品を買ってもらいたいなら、私ならブラックボックステクノロジーに望みをすべて託すようなことはしない。

本当の有効なアプリ

消費者の行動の心理を深く理解してもらいたい。

製品を購入する理由を把握することで、テクノロジーが頻繁に約束する、あの「不公平な競争上のアドバンテージ」を得ることが出来るのだ。

消費者の行動を理解することで、推奨システムを購入する理由、そして、破廉恥なパーティーを開く理由が見えてくるかもしれない。

コメント欄で皆さんの意見を聞かせてもらいたい。

*このトピックにおいて学術的な見解を導いてくれたシナン・アラルディーン・エッケルズマッツ・エイナルセンの3名に感謝の意を伝えたい。

**2013年#DataGothamでのK ヤングの発言。


この記事は、copybloggerに掲載された「Why We Overestimate Technology and Underestimate the Power of Words」を翻訳した内容です。

言葉の力を信じるコピーブロガーライターの愚痴とは言いませんが独り言のような記事でした。わかるといえばわかりますし、アドテクの世界は時に人の心を全体のプロセスの中の一部分として無機質にとらえてしまうような傾向が無い気がしなくもありません。とはいえ、最適な結果を改善・追求するという意味では、アドテクで回すPDCAサイクルと効率化に勝るものは無いと思いますし、過大かはともかく評価されてしかるべきものという気もします。同時に、言葉の力、人の力はそういった効率化の追求を超える部分にある気もしたりする最近です。最近、私が仲間と新たに設立したデータアーティストという会社のスローガンが「論理をシステム化し、“ひらめき”に集中する」という一文なのですが、これもアドテクを駆使して言葉や人の力を最大限活用していこう、というコンセプトに基づいています。両者を団結させて、最強タッグ実現を目指したい。 — SEO Japan [G+]

2014年はセマンティックマークアップの年になる

2013年も12月に入り、来年のトレンドを考える時期になってしまいました。SEOに関しては今年大きな動きが色々ありすぎて逆に来年の動向が読めてしまう雰囲気でハミングバード、コンテンツ、オーソリティなどが筆頭で上がりますが、それらを実践するにも欠かせないのがセマンティックの正しいマークアップ。今までやった方が良いとはいわれつつも、まだまだ実践できているサイトは少なかった状況とは思いますが、デバイスの多様化、検索の多様化でそろそろ実践が不可欠な時代に入りつつあります。そんな状況の中、ウェブサイトの構造化=セマンティック化の基本について、現状、そして今後の動向を見据えつつわかりやすくまとめてくれた記事をサーチエンジンランドから。– SEO Japan

世界中の情報を整理することを目指した、グーグルによる終わることのない取り組みの中で、今年、最も刺激的だったのは、何と言ってもコンテンツ(ナレッジグラフ経由)とクエリ(アルゴリズム「ハミングバード」経由)の「意味」を理解することが出来るようになった点である。

以前だと、グーグルは、ページ上のワードをユーザーが検索したワードとマッチさせることに依存せざるを得なかった。現在、クエリの意図を、意図に合うページの適性と一致させる革命が起ころうとしている。

Semantic Search & Knowledge Graph: Information Architecture & Website StructureこれはSEO業界に大きな影響をもたらす。この変化について、優秀なSEOのエキスパートと話し合ったところ、セマンティックSEOを新たな視点で評価し、焦点を絞る取り組みが、何度も話題に上がった。

賢明なマーケッター達は、2012年と2013年の戦略において、構造化データマークアップが重要な鍵を握ると考えていた。構造化データのマークアップのトレンド、そして、このトレンドを推す動きは大幅に高まり — 調査の参加者の3人に2人が、構造化データマークアップを2014年にさらに実装する、もしくは、最優先課題に格上げすると答えていたほどだ(2013年9月に行われたClarity Global SEOカンファレンスにて)。

しかし、企業が、セマンティックマークアップの実装または拡大に時間と労力を投じるべきかどうか考えるようになると、次の疑問が浮かび、なかなか前に進めないケースが多い。

セマンティックSEOによってランキングは改善されるのか?

これは誤った疑問であり、マーケッターとしてSEOにアプローチする考え方としても誤っている。

1位になるよりも、2位につける方が、トラフィックは2倍多いと言ったら、1位になることに固執するだろうか?

マーケッターとしての私の最終的な目標は、ランキングで1位に輝くことではない。トラフィック、コンバージョン、そして、収益を最大限まで高めることである(ビジネスに対する「成功」の定義は会社によって異なる)。

この点は意外と忘れられることが多い。なぜなら、過去の検索エンジンの限界によって、ランキングをトラフィック/収益/コンバージョンを同意語として考えるようになっているためだ。これは正しい考え方ではなく、以前から誤っていた — そして、優秀なマーケッターはこの誤りに既に気づいている。

それでは、2014年の計画に留意して、構造化データについて考える際に、考慮してもらいたい3点の疑問を挙げていく:

1. 構造化マークアップは、ユーザー体験とブランドとの交流を改善するのか?

答えは、確実に「YES」である。構造化データによるマークアップは、ビジターには見えないものの、マークアップがSERPに提供するリッチスニペットは、ユーザーに魅力的な体験をもたらす効果がある。

次の2つのリスティングを比較してもらいたい:

regular SERP listing

vs

SERP with structured data

下の結果では、より優れたユーザー体験を提供するために、マークアップが用いられている。クリックする必要もなければ、長い文章を読む必要もなく画像、評価、そして、レビューを一目で見ることが出来る点は、ユーザーにとって大きなメリットである。SERPでのランキングに関わらず、このリッチなリスティングが、上位のランキング競争において、どれだけ目立つか考えてもらいたい。

2. 検索エンジンが今後検索と検索結果を処理する方法と一致しているか?

ここでは推測する必要があるが、答えはYESである。

検索結果の過去の形式 — 関連性の高い順番にサイトを並べていくリスト — は、根本的に欠陥がある。これは、10年間に渡って、検索エンジンが解決を試みてきた課題である。グーグルは、キーワードとの一致を基にしたリストから、様々な意見と感情、新鮮さ、パーソナライゼーション、地域、そして、その他の要因を考慮したリストへと切り換える取り組みを大幅に進歩させている。

セマンティック検索は、クエリの裏側にある意味に応じて、間接的なクエリと直接的なクエリの双方に対応するための取り組みである — つまり、クリックと検索の数を減らし、また、多くのケースでは、クリックを必要としない状態で、ユーザーを質問から答えに導くための挑戦である。

グーグルのナレッジグラフ、インスタトアンサー、そして、グーグルナウから検索愛家の未来を垣間見ることが出来る。このようなテクノロジーを用いることで、間接的なクエリ(行動や環境に応じるクエリ)、そして、直接的なクエリ(入力、または、音声による検索)に応じて、関連する情報を提供することが可能になる。検索エンジンは、リンクのリストではなく、適切な答えを提供する。構造化マークアップの利用によって、検索エンジンは、コンテンツが、現在、そして、今後進化する中で、クエリに対するソリューションをどのように提供しているのか、より正確に理解することが出来るようになる。

3. 収益の改善にプラスに働くのか?

この質問に対しては、「ケースバイケース」と答えておこう。ビジターのコンバージョンに対して適切な取り組みを行い、上位にランクインしているなら(つまり、1ページ目から2ページ目のランキングを確保するための基盤を確立しているなら)、構造化マークアップは、クリックスルー率 — 検索結果ページからのクリックのシェア — を改善する上で確実に有効に働くはずだ。

リッチスニペット(構造化データのマークアップで動く)は、SERPでのクリックスルー率に大きな影響をもたらす。ちなみに、私がSMX Advancedカンファレンスで発表した、グーグル+のオーサーシップのテストでは、作者のマークアップを用いたブログの記事が、マークアップを利用しないブログの記事に比べて、クリック数が2倍以上多かった。

no author markup SERP

2x Lift in Traffic with Authorship Markup!

オーサーシップのマークアップを利用しないページよりもトラフィックは2倍多かった

SEOの基本を押さえる

サイトで技術的な問題、または、コンテンツの問題(ページタイトルが欠けている、リンク切れ、コンテンツの重複)を抱えているなら、まずはこの問題を解決することに力を入れるべきである。検索体験を効果的に変える取り組みに参加する前に、まずはサイトを正常な状態に整理しなければならない。

今すぐに行動を起こしてもらいたい。既存のデジタルなアセット — 動画、レビュー、製品、イベント、地域の店舗の情報 — は、ウェブマスターの代わりに一生懸命働いてくれる。そのためには、検索エンジンに理解してもらえるように、少し手を貸す必要がある。競争に負けたくないなら、2014年のSEO計画には、絶対にセマンティックマークアップを盛り込むべきである。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「2014 SEO Roadmap: Adopting Semantic Markup」を翻訳した内容です。

何故、セマンティック化を行うべきか?という疑問にその効果から答えてくれた記事でした。さらに学びたい方にはこちらのセマンティックの全体を描いた記事、セマンティック実際のマークアップ方法についてはschema対応、マニアックなあなたにはGoogleとセマンティックの関係等の記事が追加でおススメです。 — SEO Japan [G+]

プレスリリースのリンクよりも遥かに大きな問題

プレスリリースをSEOに活用する戦術は、英語圏では一般的な手法として使われてきましたが(日本ではそこまで使われていなかったと思います)、意図的なアンカーテキストリンクを盛り込んだ内容の薄いリリースが大量生産され続けた結果、Googleが公式にプレスリリース内のリンクを実質スパム認定するような見解を述べる始末。質の高いコンテンツを生産することが大事なのはわかっていても、それにはコストも手間もそれなりにかかり、結果も保障されるものではないのもまた事実であり、意図的なリンク構築に頼れないウェブマスターの悩みはつきません。今回はSEO Bookが久々のGoogleとウェブマスターを取り巻くSEO事情に関するエッセイ的記事を。– SEO Japan

ご存知の方も多いかとは思うが、グーグルが、ウェブマスターガイドラインを更新した。

グーグルのガイドラインへの違反にあたる不自然なリンクの例としてよくあるケースを次に紹介します:….他のサイトに配布される記事やプレスリリース内の最適化されたアンカーテキストリンク。

次に例を示します。
市場には多くの婚約指輪が流通しています。結婚式を開くなら、最高の指輪を選ぶべきです。また、ウェディング ドレスを購入する必要もあります。(註:イタリックがアンカーテキストリンク)

とりわけ、グーグルは、他のサイトに配布される記事やプレスリリース内の最適化されたアンカーテキストを用いたリンクに焦点を絞っている。今回もグーグルらしく、若干ルールが曖昧に定められている。「最適化されたアンカーテキスト」とは何を意味するのだろうか?提供されている例では、アンカーテキストにキーワードが含まれており、アンカーテキスト内のキーワードが“最適化”されている。よって、グーグルのガイドラインの違反に当たる。

実に曖昧な表現である。

プレスリリースの変更点を考慮して、グーグルのガイドラインは次のように説明している:

ページランクやグーグルの検索結果でのサイトのランキングを操作することを意図したリンクは、リンク プログラムの一部と見なされることがあり、グーグルのウェブマスター向けガイドライン(品質に関するガイドライン)への違反にあたります。これには、自分のサイトへのリンクを操作する行為も、自分のサイトからのリンクを操作する行為も含まれます。

SEO目的 – つまりランキングを操作する目的 – で獲得したリンクは、グーグルのガイドラインに違反することになる。

グーグル vs ウェブマスター

あるチャットを紹介する…

このチャットの中で、グーグルのジョン・ミューラー氏は、ウェブマスター側から行動を起こしたなら、それは自然なリンクではないと指摘している。安全を第一に考えているウェブマスターに対して、ミューラー氏は、nofollowの利用を薦めている。

グーグルの方針は一貫しているが、画面に映っていた数名のウェブマスターは、完全に食い違っており、見ていて面白かった。グーグルは、プレスリリース自体は問題視していないものの、グーグルのガイドラインにおいて安全を重要視したいなら、リンクをnofollowにした方が無難である。

その通りだ。SEO目的でリンクを構築するのではなく、純粋なプレスリリースなら、リンクをnofollow化することに異論はないはずだ。

当然である。

しかし、一部のウェブマスターは、実際の自分達の取り組み関して、自覚していないようであった。この点は、質問の内容にも反映されていた。恐らく、「プレスリリース内のキーワードのリンクは、許される」と言う言葉を聞きたかったのだろう。今度もリンク構築の取り組みの一環として、プレスリリースもどきを配信することが出来るためだ。

要点を理解していないとしか私には思えなかった。

私はグーグルの味方なのか?

どちらか一方に肩入れしているわけではない。

もっと大きな問題に注目してもらいたいだけだ。

ウェブマスターの行動の良し悪しが、今後もグーグルによって決められていくなら、いずれ、完全に蚊帳の外に置かれてしまうことになるだろう。グーグルがウェブマスターの味方ではない点は明らかだが – 残念ながら多くのSEO関係者が誤解しているようだ。グーグルは、グーグルの味方である。たまにユーザーの味方だと主張することもある。そして、その言葉に嘘はない。

ウェブマスターは、グーグルにとって、コントロールし、好ましくない場合は排除し、整理し、そして、分類しなければならない存在である。人一倍“アグレッシブ”なウェブマスターに対しては、「友は近くに置き、敵はもっと近くに置く」ポリシーを採用している。

一部のウェブマスター、つまり、SEO業者は、ユーザーのためだけにコンテンツを配信するのではなく、グーグルの収益システムと争っている。SEOは、グーグルの金の卵とも言える、質の高いクリックのトラフィックをもたらす、クリックベースの広告と競合するサービスを提供しているのだ。

SEOが成功を収めると、グーグルに料金を支払う人がいなくなるのは目に見えている。当然 – 代わりにSEOに投資するようになるだろう。そのため、グーグルの立場から見ると、SEO業者は敵であり、コントールしなければならない。私がグーグルでもSEOに「質の高いコンテンツの提供」へと見直しを迫るだろう。

グーグルは、単純にプレスリリースのリンクを無視すればいいのではないだろうか?決して難しいことではない。なぜ公にしたのだろうか?グーグルは、アルゴリズムに関して、ウェブマスターに聞かせたいトピックを除き、徹底した秘密主義を採用している。それでは、なぜグーグルは、ウェブマスターに対して、プレスリリース内のリンクに関する情報を公開する気になったのだろうか?真っ先に浮かぶのは、リンク構築、そして、SEOの効果を弱めるためだ。

巨大なミサイルが、グーグルから発射されている。

ガイドラインに従う人達

グーグルに行動の条件を決めさせると、SEOの戦いから放り出されてしまう可能性がある。

(常に変化する)ガイドラインを守っていると言いつつ、実は違反すると、法的な責任問題に発展する可能性がある。最近、次のような訴訟が進行している:

先週、Seilay & Stewartが、RICO法(違法行為による利益の獲得を罰するアメリカの法律)を根拠に、法律事務所のマーケティングに特化したRainmaker Institute社に対して、$49,000のSEO料金の返還、そして、懲罰的損害賠償を求めて、訴訟を起こした。

…..SEO業者が情報を明らかにしているなら話は別だが、「グーグルのガイドライン違反」が、今後、訴訟に発展しやすくなる可能性は否定できない。

気軽にSEOをキャリアにするべきではないのかもしれない。

この最新のグーグルの取り組みに対して、正当なPRエージェンシー、メディア対応部門、そして、広報は感謝している可能性がある。ここで、ウェブマスターワールドのコメントを紹介する:

大半の正当なPRエージェンシー、メディア担当部門、そして、広報は、グーグルのガイドラインに喜んで従うのではないだろうか?なぜなら、「プレスリリース」が「SEOスパム」になってしまうと、この重要なツールが役に立たなくなってしまうためだ。

本物の広告スポンサーが、広告にページランクの転送を期待していないように、本物のPRエージェンシーもまた、プレスリリースにページランクを転送してもらうことなど期待していない。パブリックリレーションとは、検索結果を操作するのではなく、メディアにメッセージを埋め込む取り組みである。

ただし、プレスリリースが、信頼されていると言い切ることも出来ない。プレスリリースは、SEOが台頭する前から、そもそもあまり評判が高くなかったからだ。それでも、今回の措置により、ライバルは減り、PRエージェンシーは、クライアントのプレスリリースをアピールしやすくなったのではないだろうか。

ターゲットに焦点を合わせるガイドライン

上の動画の中で、グーグルのコアのランキングチームを統括するアミット・シンガル氏が作成した記事が、参考資料として取り上げられていた。2011年に作成された記事であり、最新の情報ではない。この記事は、品質を特定について次のように説明している:

アルゴリズムで用いられている、実際のランキングシグナルを私は公開するわけではない。検索結果を操作されたくないからだ。しかし、グーグルの考え方を知りたいなら、次の問いに答えていけば、グーグルがこの問題をどのような視点で見ているのか、自ずと分かってくるのではないだろうか:

  • その記事に提示されている情報を信頼しますか?
  • その記事は、エキスパート、または当該のトピックを熟知する熱心な人物によって書かれていますか?あるいはそれよりも質が低いですか?
  • そのサイトには、同じ、または同様のトピックで若干異なるキーワードのバリエーションを用いた、重複する、一致する、もしくは余分な記事がありますか?
  • そのトピックは、サイトの読者の紛れもない関心によって選ばれていますか?それとも、検索エンジンで何が上位にランクインするかを推測することで、コンテンツを作成していますか?
  • その記事は、オリジナルのコンテンツや情報、オリジナルのレポート、オリジナルのリサーチ、またはオリジナルの分析を提供していますか?
  • そのページは、検索結果のその他のページと比較して、十分な価値を提供していますか?
  • コンテンツにどのぐらい質の管理を実施していますか?

…等々。グーグルは、常に「品質の高いコンテンツの作成」を重要視している。グーグルのユーザーが、この品質の高いコンテンツを求めている。そして、グーグルのユーザーが求めているものは、同時にグーグルの株主が求めているものでもあるのだ。

もちろん、品質の高いコンテンツを求めること自体は問題ない。質の低いコンテンツを求めている人などいるだろうか?しかし、SEO業界の関係者のほとんどが理解しているように、品質の高いコンテンツを作ったところで、成功が保証されるわけではない。グーグル、そして、ユーザーにとっては、プラスに働くのかもしれないが、パブリッシャーにとっては、不利な環境である。リスクを全て背負うのは、パブリッシャーだけだからだ。

ニューヨークタイムズは、大量のコンテンツを持つボストングローブを、買った当時の金額のよりも大幅に低い金額で売却した。コンテンツの質が高いことは間違いないが、大きな利益をもたらすビジネスとは程遠い。適切なマーケティングを行うことなく、コンテンツばかりに力を入れる戦略は、信頼に欠ける。最近、アマゾンのCEO、ジェフ・ベゾス氏が、ワシントンポストを買収していたが、コンテンツを最優先している可能性は低い。

質の高いコンテンツは、作成コストが高い上、ウェブ広告の手数料が雀の涙しか期待できない点、オーディエンスに見てもらえない点、コンテンツがはぎ取られ、盗まれる点を考慮すると、ウェブマスターが、上位のランクを確保するために、その質の高いコンテンツを売り込むのは致し方ないと思える。その他に一体どんな選択肢があるのだろうか?

SEOを実施しない方がよっぽどリスキーである。

安価なコンテンツファクトリーとして有名なeHowでさえ、購読会員制に移行しようとしている。

さらに大きな問題

グーグルは、ゴールポストを自分の好きな場所に動かすことが出来る。現在行っている取り組みが、今後、グーグルの怒りを買う可能性はある。コンテンツが誰にも見てもらえなくなり、やり直す以外は、他にどうすることも出来ない状況に身を置かれるかもしれないのだ。

このような不測の事態に備えて、計画を練っているだろうか?

Johnonは的確にこの問題を表現している:

大事なことは、現在、検索エンジンから、どれぐらいのトラフィックを獲得しているのか、そして、今後、グーグルがこのトラフィックの流れを遮断した際に、どれだけ準備をしているのかだけである。

グーグルのポリシーとガイドラインの細かいところに気を取られていると、大事なポイントを見失ってしまう。グーグルが、ゴールポストの位置を動かし、トラフィックの流れを断ち切った際に、どれだけ準備が出来ているかが鍵を握る。

グーグルの方針の細部に気を取られていると、本当に、重要なポイントを見過ごしてしまうだろう。

これはリスク管理の問題だ。メインのサイト、または、クライアントのサイトが、グーグルのポリシーの変更に巻き込まれ、大打撃を受けてしまったら、どうなるだろうか?他にもサイトを運営しているだろうか?片方では、積極的にSEOをプッシュし、もう片方では、SEO抜きでサイトを運営しているだろうか?ガイドラインに従い、それで十分だと自分を納得させていくのだろうか?ガイドラインを守るものの、上位にランクインしていないなら、全くオーディエンスの視界には入らないため、ペナルティーを受けたようなものではないだろうか?検索トラフィックをメインコースではなく、ボーナスとして扱っているだろうか?

グーグルのニーズを自分のニーズよりも優先する方針は、慎重に判断してもらいたい。そして、自分のリスクは自分で管理するべきである。


この記事は、SEO BOOKに掲載された「Google: Press Release Links」を翻訳した内容です。

特に結論がある話ではありませんでしたが(いや、あるのか)、集客や収益の多様化が重要とはいえ、SEOはもちろん、検索エンジンに依存しないウェブビジネスは、限りなく一部でしょうし、成功しているウェブビジネスの多くはSEOにトラフィックを相当依存しているケースが多いのもまた事実。もちろん、その多くはペナルティを受ける確率は限りなく低い正攻法のSEOを長年続けてきたサイトとは思いますが、ちょっとしたアルゴリズム更新でがロングテールワードの平均順位が1ページ目から2ページ目に下がるようなことがあれば、トラフィックへの影響は莫大なものがありますよね。特にGoogleが余りに圧倒的な検索プラットフォームとして君臨している今日、わかっていても、どうしようもできない現状のような気もします。無理せず地道にSEO以外のことも考慮しつつコンテンツ作りに励んでいくしかないのでしょうが、ウェブマスターの仕事と悩みは募るばかりです。 — SEO Japan [G+]

SEO担当者向け : これだけは知っておきたい検索エンジンの基本 【2013年度末版】

ますます高度化、専門家する検索マーケティング、SEO Japanもついついマニアックな記事が多目になってしまいますが、意外と変わりそうで変わらないのが検索エンジンの基本的構造。今回はそんな検索エンジンの基本を改めて整理した記事をサーチエンジンランドから紹介します。基本というには、若干高度な内容も含まれており、SEO担当者向けの基本といった感じではありますが、いわゆる「初心者向け」記事とは一線を画す納得の内容。混沌のSEOの時代、基本を再度理解した上で、来年のあるべきSEOを考えてみてはいかがでしょう? — SEO Japan

SEO業界の関係者(または参入を望む人達)は、様々な細かい仕事に追われている。サーバーの構造、301 リダイレクト、404 エラー、タイトルタグ等々、数えれば切りがない。

そのため、じっくりと腰を落ち着け、それぞれの作業がどのような意味を持っているのか考えることを怠ってしまう。また、大半のSEOのスタッフは、一度もトレーニングを受けたことがなく、「その場」で何とかしなければならないため、検索エンジンの仕組みを知らないSEOのスタッフが多いのは致し方ないのかもしれない。

(グーグル等の)検索エンジンの仕組みを時間を割いて考えたのは、何年前のことだろうか?私は、先日のグーグルウェブマスターハングアウト、そして、このチャットで明らかになったリンク否認ツールの情報を記事(日本語)にまとめていた先月、久しぶりに検索エンジンの仕組みを真剣に考える機会を得た。

しかし、正直に言うと、否認ツールに関する記事を書くまで、8-10年間のブランクがあったと思う。そこで、この記事を通じて、悪習を断ち切っていく。この記事では、上級者に向けて、検索エンジン(グーグル)の仕組みを説明していく。用語や運用の順番は若干異なるかもしれないが、ビングとヤフー!も同じ様なプロトコルを利用している。

クロール vs. インデックス

グーグルがサイトを「インデックス」した、とは何を意味するのだろうか?SEOの関係者は、グーグルで[site:www.site.com]検索して、サイトが提示されたと解釈する。これは、グーグルのデータベース内のページがデータベースに加えられたことを意味するものの、必ずしもクロールされているわけではなく、そのため、次のメッセージが時折表示されるのだ:

の結果の説明は、このサイトのrobots.txt により表示されません ? 詳細

インデックスはクロールとは全く異なる。簡単に言うと、URLはクロールされる前に、発見されなければならず、「インデックス」される前に(より正確に表現するなら、グーグルのインデックス内のワードに関連付ける)前にクロールされなければならない。

最近仲良くなったエンリコ・アルタヴィラは、次のように説明していた。私にはこれ以上分かりやすく説明することが出来ないため、引用させてもらう :

インデックスは、文書ではなく、ワードやフレーズのリストを持ち、その一つ一つに、当該のワードやフレーズに関連する全ての文書への参照情報が与えられている。

私達は「文書がインデックスされた」とよく言うが、実際には、「文書に関連するワードの一部が、文書に向けられるようになった」ことを意味する。文書は、そのままの状態で別の場所にアーカイブされている。

また、古くから付き合いがあり、グーグルに務めた経験を持つ ヴァネッサ・フォックスは、次のように説明している:

グーグルは、URLについて学び…その後、URLをクロールのスケジュールシステムに加える。リストを推測し、それから、優先度を考慮してURLのリストを再編成し、その順番通りにクロールしていく。

優先度は、様々な要因により左右される…ページのクロールが終わると、グーグルは、別のアルゴリズムのプロセスを実行し、インデックスに当該のページを保存するかどうかを決定する。

要するに、グーグルは、把握しているページを全てクロールするわけでも、クロールするページを全てインデックスしているわけでもないと言うことだ。

以下に、グーグルが提供したルート図を簡素化したものを掲載する:
how-search-engines-work

その他にも幾つか注意してもらいたい点がある:

- robots.txtは、ページのクロールをブロックするだけである。そのため、グーグルは、上の例のようなページをたまに検索結果に表示する。内部リンク等のアイテムを基にページとワードを関連付けることが可能であっても、ページのコンテンツをクロールすることは出来なかったからだ。

- ページレベルのnoindexコマンドは、確定的ではない。グーグルはページをクロールして、ページ上のワードをインデックスと関連付けることが可能だが、検索結果に当該のページを盛り込むことを意図しているわけではない

しかし、グーグルは、noindex処理したページを、誰でも見ることが出来る記録に含めることがある。実際に、グーグルは、その他のシグナルにより、インデックスされるべきだと判断される場合、noindexコマンドを無視することもあると明言している。これは、グーグルが、その他の検索エンジンとは一線を画する重要な領域である、ヤフー!とビングは、noindexのコマンドに従い、インデックスすることも、検索結果に盛り込むこともない。

また、カノニカル、パラメータの除外を含むその他の要素もまた、グーグルがページについて把握し、クロール/インデックスする間に処理されていく点も注目に値する。

リンクとリンクグラフ

次に理解してもらいたいのは、リンク、そして、リンクが処理される仕組みである。ここで最も重要なことは、リンク(そして、その延長線上にあるページランク)は、クロールの最中に処理されるわけではない点である。つまり、グーグルは、先ほど説明したようにクロールを行うものの、クロールを行う間は、ページランクの検討を行わずに、別の段階で対処しているのだ。

このポイントはどのような意味を持つのだろうか?

  • ページランクは、誰が何と言おうと、リンクの量と質の計測値である。ページ上のワードとは何の関係もない。
  • 大勢のSEOの関係者は、ページランクには 2つの要素(ドメインレベルとページレベル)が存在すると考えている。ドメインレベルのページランクは、ドメインのオーソリティを特定し、大勢のSEOの当事者が、サイトのランク付けに用いられていると考える要素である。私自身も、グーグルがドメインオーソリティの一部の要素を利用していると思うものの、グーグルがこの点を認めたことは一度もない。
  • ページランクは、クロールとは別に処理されるため、「noindex」や「disallow」等の指示やリファラーベースのブロックが、ページランクの流れを止めることは出来ない。
  • リファラーベースの追跡を用いて、ページランクをコントロールすることは出来ない。要するに、(例えば).htaccessでリファラーをブロックして、nofollowのような影響をgooglebotに与えることは不可能である。
  • 一般的な考えとは異なり、302 リダイレクトはページランクを転送する。
  • 以下にページランクの流れを遮る4つのアイテムを挙げていく:
    1. リンクのソース上でのnofollow
    2. リンクの起点となるページのrobots.txt内でのdisallow。robots.txtコマンドは、当該のページのコンテンツのクロールを拒否し、検索エンジンがリンクを見ることはないため、効果がある。
    3. リンクの起点となるページでの404エラー 。
    4. リンクの終点となるページでの404エラー。 404の効果があるのは、このコマンドがサーバーサイドで発生するためである。リンクグラフの処理が行われると、検索エンジンは、再びページにアクセスすることが出来なくなる。反対に、robots.txtでブロックされたページは、実際には存在し、インデックスに加えられていないだけであるため、ページランクを引き続き獲得する。

2012年8月20日に行われたウェブマスターハングアウトで、この点を指摘するためにグーグルが用いたスライドのスクリーンショットを以下に掲載する:

page-rank-slide

劣悪なリンクを処理する方法として、もう一つ挙げられるのが、リンクのソースを否認する方法でる。これは、グーグルが受け入れた場合、ソースリンクに「nofollow」を加えるのと同じ技術的な影響をもたらす。

このようにして検索エンジンは動いている

これだけでは、検索エンジンの仕組みを完全に理解することは出来ないだろう。とりあえず、覚えてもらいたい重要な点を以下に挙げていく:

  1. クロールとインデックスは同じではない。
  2. ページランクは、クロールとは別に処理されている。
  3. ページランクの転送をブロックする方法は4つのみであり、それ以外だと否認しかない。

知らなかった情報はあっただろうか?私自身は、リンクのリファラーを.htaccessでブロックし、ページランクの流れを断ち切ることが出来ると(誤った)考えていた。皆さんにも、どのような誤った考えの下、SEOに取り組んでいたのか、振り返ってもらいたい。

事実確認作業に協力してくれた、エンリコ・アルタヴィラに感謝の意を伝えたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How Search Engines Work ? Really!」を翻訳した内容です。

SEO初心者に勉強になることはもちろん、検索エンジンと関わって15年以上の私でも、改めて気づきがある記事でした。「インデックスされたとうことは、Googleでsite:で検索して表示されることではない」という一言にはしびれましたね。SEOを実践するにおいて考えるべき要素は様々ありますが、迷った時はここに書かれている基本の基本を見失なければ大きく外れることはないはず。「より簡単になる」ことは決してないSEOの世界ではありますが、2014年のSEO、地道に迷わず取り組んでいきましょう! — SEO Japan [G+]

超有名作家は元コピーライター&デビッド・オグルヴィの弟子だった

元広告マンの作家は日本でも数多く存在しますが、エンタメ小説分野では良く見かけますが、純文学の分野では限られてる気もします(スミマセン、ただの偏見かも)。海外文学を代表する名作の一つであるインドの独立動乱時代を描いた「真夜中の子供達」の筆者が実は元広告業界で活躍するコピーライターだった、しかもあのダイレクトマーケティングの神様デビッド・オグルヴィの元で働いていた、という驚きの事実と、そんな彼のルーツに名作の秘訣を探る記事をコピーブロガーから。「真夜中の子供達」を知らずとも(正直、私も若い時、名作といわれて読むには読んだものの、余りピンと来なかった過去があります)、十分に面白い内容です。 — SEO Japan

Image of Vintage Schoolhouse Interior

サルマン・ラシュディは、現役の小説家の中で、5本の指に入る名作家である。

ラシュディは、1981年に真夜中の子供達でマンブッカー賞を獲得した。そして、2008年には、この作品は、ベスト・オブ・ブッカーに輝き、この賞が設立されて以来、最高の名作として、称えられている。

しかし、サー サルマン・ラシュディは、ナイトの称号が与えられるほどの作家になる前は、実は、ダイレクトマーケティングの草分け、デビッド・オグルヴィの下で、コピーライターとして働いていた。優秀な小説家は、優秀なコピーライターから教訓を得ていたのだ。

コピーライティングとクリエイティブライティングには、どのような共通点があるのだろうか?「何もない」と主張する人もいるかもしれない。オグルヴィ & メイザーのロンドンのオフィスで働いていた時代を、単に小説を書きながら、「会社勤め」していただけだと指摘するのは容易である。

しかし、コピーライターとしてラシュディが学んだ教訓は、小説家として成長する上で、欠かすことの出来ないものであった。事実、ラシュディが、コピーライティングの仕事の合間を縫って、真夜中の子供達を書き上げていたことを考えると、もしかしたら、仕事を辞めるべきではなかったのかもしれない。

それでは、小説家であり、コピーライターでもあるサルマン・ラシュディから、効果的なライティングの手法を学んでいこう。

1. ヘッドラインに途方もない時間を割く

真夜中の子供達を書き終えようとしていた頃、ラシュディは、小説のタイトルを選ぶために長時間を費やし、最終的な二つの候補「Children of Midnight」と「Midnight’s Children」を何度も何度もタイピングしては、悩んでいたようだ。

現在、至る所にタイトルとヘッドラインが存在する。

フェイスブックやツイッター、そして、eメールの受信箱でも、誰かが魅力的なタイトルを用いて、注目を手に入れようと試みている。 ブログの記事や本を誰かに読んでもらいたいなら、時間を割いて、明確で、好奇心をそそるタイトルを作る必要がある。

サルマン・ラシュディは、本のタイトルがいかに重要かを理解しており、何時間もタイトルの選択に割いていた。

皆さんは、ヘッドラインにどれだけ時間をかけているだろうか?

2. ピンチを成功に変える

チョコレートバーの味を1つのワードで伝えなければいけない仕事があるとする。もちろん「Delicious」(おいしい)では、報酬をもらえない。

これは、ある日の午後に、実際にラシュディが遭遇した状況である。エアがふんだんに詰まったイギリスのチョコレート菓子、エアロの新しいスローガンがなかなか浮かばず、パニック状態の同僚から、アイデアを求められたのだ。アイデアを出し合うなかで、信じられないことが起きた。クライアントから電話が寄せられ、すぐに結果を聞かせてほしいと言われたのだ。

この同僚は、ラシュディ曰く、「パニック状態に陥ると、やたらと汗をかき、何度も口ごもる癖がある」ようだ。クライアントから電話がかかってきた時、この人物は、「impossib-ib-ib-ible」(む、む、む、む、むりです)」と言った。

その瞬間、ラシュディに妙案が浮かんだ。同僚が汗をかきながら、モゴモゴと話を続ける中、「able」や「ible」で終わるワードを次々に紙に書き出し、「bubble」に置き換えていった。最終的にラシュディが選んだのは「Irresistibubble」であった(Irresistible(抵抗できない)+bubble)。このキャッチフレーズは、この電話から30年以上が経過した今もなおエアロのスローガンとして利用されている。

パニックが、創造力を活性化することがある。以下に、パニックを創造に活用する容易な方法を2つ挙げていく:

  1. 責任を持つ: ラシュディは、電話の向こう側にはクライアントが、そして、後ろを振り向けば、上司であるデビッド・オグルヴィがいたが、通常のブロガーは、このように誰かから責任を課されているわけではない。しかし、ブログにはオーディエンスがいる。そのため、オーディエンスが目の前で、次の投稿を今か今かと待ち、なぜ時間がかかっているのか訝しむ状況を想像してもらいたい。オーディエンスは、本当にそんなことをしているのだろうか?その可能性は低い。それでも、想像することは可能だ。
  2. 期限を決める: フィードバーナーをeメール購読サービスとして使っていた頃、朝の11時までに記事を作成することが出来なければ、次の日まで購読者に配信されない設定を私は採用していた。10時55分になると、冷や汗をかき、急いで仕上げにかかった。設定を変更して、時間を遅らせることも出来たが、この方がパニックに追い込み、生産性を高めることが出来るような気がしたのだ。文章を書くスピードを上げたいなら、購読の設定を調節して、期限を決めてみてはいかがだろうか?

3. 少ないワードで大きなことを伝える

2008年のIAPI Advertising Effectiveness賞の授賞式で、ラシュディは次のように述べていた:

広告の素晴らしいところは、言葉を多用せずに、多くのことを伝えることが出来る点だ。限られた数の言葉、または、写真で、大きく主張する試みが必要である。しかも、時間も限られている。この全ての条件が、私には、とても、とても、とても、有効だと思える。

短い、シンプルな文章は、効果が高い。事実、読者は、作者の伝えたいことを理解するため、シンプルな文章によって、読者は作者を賢い人物だとイメージするにようになる。

5つの音節を持つワードを使って、複雑な文章を書く方が難しいと思うかもしれないが、現実には、少ないワード数で、言いたいことを伝える能力こそが、名人の証である。

(ラシュディが、もう少しオグルヴィの下で働いていたら、「とても」を幾つか省略していたはずだ)

4. 仕事と考える

オグルヴィ & メイザーに勤務する以前から、ラシュディは優れたライターであった。しかし、コピーライターのキャリアから、作家として成功するために必要であった厳しい規律を学んだ。ラシュディは、次のように説明している:

私は仕事のように小説を書いた。朝から働いた。期限を守った。広告業界に身を置いた経験が、プロとして執筆する上で存分に生かされており、この点には常に感謝している。

執筆においては、才能は関係ないと思っている。実践を積むか、積まないかが決め手となる。

高給取りのコピーライターであれ、楽しむためにブログを運営しているのであれ、ライターとして成長したいなら、仕事のように文章の作成に向かうべきである。

5. 拒否に負けない

ラシュディが、Fresh Cream Cakesの広告の担当者に指名され、「Naughty. But Nice」(やんちゃ坊主。でも、素敵)と言うスローガンを提案したところ、クライアントは首を縦に振らなかった。しかし、一年後、オグルヴィ & メイザーを退社し、小説家になった頃、ラシュディが考えたスローガンは、ビルボードやテレビを含む英国の至る所で、見られるようになった。

ラシュディは、拒絶に負けなかった。また、小説家としての処女作が、出版社に却下されると、作家として成長することを心に誓った。先日行われたインタビューの中で、ラシュディは、このように話している:

私は、長い時間をかけて、学び、作家になった。作家になるには、編集者を見つける必要がある。それがダメなら、作品について正直な意見を述べ、恐れることなく「いまひとつ」だと言える人達を確保しなければならない。「いまひとつ」と言える人がいなければ、「素晴らしい」作品になるまで、どのように改善を重ねればいいのか分からないからだ。

クリエイティブライティングとコピーライティングの共通点

サルマン・ラシュディは、デビッド・オグルヴィの下で働く前は、貧しい、売れない俳優であった。コピーライティングを辞める頃には、既に小説家デビューを飾っており、後世に残る名作を発表する直前であった。

コピーライティングとクリエイティブライティングを別物と考えるのは簡単だが、ラシュディは、この2つの間の境界線は、意外に曖昧だと言う点を教えてくれた。どちらも読者に新たな機会を与え、読者が世の中を異なる視点で見るように促す。

文芸に携わっているなら、コピーライティングに挑戦してみると良い。サルマン・ラシュディのように、かけがえのない経験を得られるかもしれない。

最後に、コピーライティングから、読者の皆さんが、どのような作文術を学んできたのかコメント欄で教えてもらいたい。


この記事は、Copybloggerに掲載された「About Writing from David Ogilvy」を翻訳した内容です。

コピーライティングというと短文に全てを込める世界で、小説とは世界観の構築から具現化まで同じライティングでも全く違う領域に感じますが、トップクラスのコピーライターともなれば、ベースの思考や手法には相当に通じるものがあるのでしょうね。記事自体は、一般論で共通点を絞り出したような何にたいしてもいえそうな内容ではありましたが、アウトプットの形は違えど、その背景で思考する世界やレベルは優秀な人であればある程、実はかなり共通する部分があるのかなぁ、、と、私もこれまで様々な業界の優秀な方にお会いしてきましたが、改めて感じさせられる記事でした。 — SEO Japan [G+]

Bingの売却を検討するマイクロソフトの次期CEO候補

マイクロソフトCEOであるスティーブ・バルマーが引退が引退をこの夏発表してから、その後継者争いが米国では大きな話題となっていました。最近になって、ようやく何人かの最終候補に絞り込まれ、その結果次第でBingの将来にも影響があるかもしれない?ということで、米国の検索シェアを追っている人には特に気になるマイクロソフトの後継者レースに関する微妙に気になる記事を。ダニー・サリバンのコメント付き。 — SEO Japan

Bing logoマイクロソフトの次期CEOを巡る争いが激化している。今週の始めにお伝えしたように、現在、フォードでCEOを務めるアラン・ムラーリー氏、そして、元ノキアのCEO、スティーブン・エロップ氏(デバイス部門の責任者として、マイクロソフトに復帰)を含む数名が、最終選考に駒を進めている。その中で、エロップ氏は、次期CEOレース争いを有利に進める可能性を秘めた大胆なアイデアを持っているようだ。しかし、反対派によって、不適格と見なされる危うさも持ち合わせている。

ビジネスウィーク誌によると、マイクロソフトのCEOとして「エロップ氏は、恐らく、「オフィス製品」を使って、PCおよびモバイルデバイスにおいて、同社を代表する製品であるウィンドウズ OSの需要を高める戦略から距離を置こうとしている」ようだ。それよりも、エロップ氏は、ノキアの地図プラットフォーム「Here」で試みたように、様々なデバイスやプラットフォーム間で「オフィス」の売り上げと利用者を最大限に増やす取り組みを行う可能性がある。

また、ビジネスウィークは、匿名の情報源の話として、エロップ氏が、ビジネスの焦点を絞るため、メジャーな事業を閉鎖、または、売却することを覚悟していると伝えている。その結果、「検索エンジンのビングを用いたグーグルとの覇権争いは、コストが高いため、打ち切り、また、Xbox等の好調なビジネスも売却する」ことになると見られている。

多くの金融のアナリストも、Xboxがマイクロソフトの他のビジネスから切り離されると推測している。また、一部の専門家は、検索の取り組みに関して、ビングが、グーグルからマーケットシェアを奪えないことは明白であり、投資を続けるのは、コストがかかり過ぎると考えている。

どうやら、マイクロソフトの創設者の一人、ポール・アレン氏もまたXboxとビングを断念するべきだと考えているようだ。広報を通じて、アレン氏は、より多くの利益が期待できるビジネスに焦点を絞る上で、ビングとXboxが邪魔になっていると示唆したことがある。

このような考えが、その他のCEO候補にどの程度浸透しているのかは不明である。しかし、金融アナリストや機関投資家からのプレッシャーを受け続ければ、エロップ氏がCEOに任命されるかどうかに関わらず、同じような決断が下される可能性はある。

エロップ氏が、次期CEOに選ばれ、ビングの売却を真剣に考えると仮定する。その場合、どこの会社に、幾らで売ろうと試みるだろうか?また、ヤフー!との契約は、どうなるのだろうか?売却により、ヤフー!との契約は自動的に破棄されるのだろうか?それとも、ヤフー!は、ビングの買い手と引き続き提携関係を維持するのだろうか?

マイクロソフトは、実際にフェイスブックにビングを売却しようと試みたものの、フェイスブックが断ったと言われている。しかし、これは、グラフ検索が導入される前の話である。フェイスブックは、現在、ビングの売却として、最も可能性が高く、オファーがあれば、もっと真剣に検討するだろう。また、フェイスブックが、数十億ドル規模になると見込まれる買収を行う上で、必要な資金を持っている点も注目に値する。

マリッサ・メイヤー率いるヤフー!は、買い手の資格を持っているだろうか?非常に高い買い物になるが — マイクロソフトから検索を買い戻すことが出来れば、大きな勝利だと言えるだろう。ヤフー!が持つアリババの株は、200億ドル以上の価値を持つ。この株を換金すれば、ヤフー!がビングを買うことは不可能ではなくなる。

その他にも買い手はいるだろうか?ヨーロッパの企業、アジアの企業はどうだろうか? ビングにとって、最高の会社、そして、最高に合う場所はどこだろうか?コメント欄で、是非、意見を聞かせてもらいたい。

ダニー・サリバンのコメント: マイクロソフトが、あっさりとビングを放棄することが出来ると考えているなら、現実を見てもらいたい。マイクロソフトにとって、検索は欠かすことの出来ないサービスである。検索は、ウィンドウズフォン、ウィンドウズ OSのプラットフォームに深く統合されている。つまり、マイクロソフトのあらゆる製品に検索が用いられており、その検索を動かしているのは、ビングなのだ。

マイクロソフトが降参し、タオルをリングに投げ入れるとしたら、どのような選択肢がマイクロソフトには与えられるのだろうか?グーグルと手を結ぶことは出来ない。 マイクロソフトが、(アップルのように)敵を受け入れたと仮定しても、連邦取引委員会(FTC)が、ヤフー!とグーグルの提携に待ったをかけた点を考慮すると、同じような規制の問題が、マイクロソフトがグーグルにビングを譲渡する際にも発生するだろう。

マイクロソフトは、グーグル + ヤフー!の提携を遅らせるためにFTCに協力した。しかし、今度は、グーグルとの提携を推し進めるマイクロソフトに対して、FTCが牙をむく構図が生まれる。

グーグルがダメなら、ビングの買い手が現れ、新たなオーナーと提携を組み、ライセンス契約を結ぶしか選択肢はなくなる。この方が可能性は高い。私もグレッグと同じように、フェイスブックが候補に挙がると思う。しかし、ヤフー!の方が魅力は上である。マイクロソフトと同じように検索の名残があり、検索を熟知するマリッサ・メイヤーCEOが率いているためだ。

格安の価格なら、メイヤーCEOは、マイクロソフトからビングを買う可能性はある。もう一つの可能性としては、アップルが、グーグルとの完全な決別を望み、マイクロソフトが運営するビングよりも、ヤフー!が運営するビングに魅力を感じるケースである。

マイクロソフトが、この検索エンジンに用いたコストの内訳を明らかにしていない点を考慮すると(その多くは、過剰なマーケティングに費やされている可能性がある)、ビングの売却が経済的な面で難航すると言わざるを得ない。しかし、ここで思い出してもらいたい点が一つある。ヤフー!の投資家は、「検索をアウトソースして、節約」する取り組みを既に行ったものの、収益が増えるわけではなく、ただ検索のシェアを失っただけであった。

ビングを放棄するだけで、突然、収益が増えるとは考えにくい。しかも、マイクロソフトが抱える、最も革新的な製品の一つを諦めることになる。しかし、ソフトウェアの販売への投資を増やし、ハードウェアの販売に対する新しい方針が、マイクロソフトに明るい未来をもたらすと考えているなら、ビングを手放す決断は、理に叶っているのかもしれない。

グレッグ・スターリングによるコメント: マイクロソフトは、「ビングを放棄」することは出来ないと私も思う。また、ダニー・サリバンが説明してくれたように、検索を必要としているはずである。売却の反対派は、マイクロソフトが、戦略として、検索を製品へ統合している点を挙げるだろう。

しかし、売却先から、マイクロソフトに有利な条件でライセンス契約を結び、ビングを戻すことも不可能ではない。また、ダニー・サリバンも指摘していたように、売却相手として、最もフィットするのはヤフー!だと思う(役割が逆転する)。また、アップルも魅力的な候補であるが、最終的に、検索エンジンを自分で管理するよりも、提携を結ぶ方針をマイクロソフトは望むだろう。

ビングが売りに出される場合、バイドゥやアリババ等のアジアの企業も候補になる可能性がある。また、可能性はゼロに近いものの、ロシアの検索エンジン、ヤンデックスも控えている。


この記事は、Search Engine Landに掲載された「Potential Microsoft CEO Elop Would Consider Selling Bing」を翻訳した内容です。

後継者レースに関してはまだまだ様々な可能性があるようですが、サリバンのコメント読むに誰がなっても簡単には売られないだろう、という話でした。デバイスの多様化、OSの多様化、コンピュータの利用シーンの多様化、、、検索サービスの重要性はユーザーにとってもプラットフォーマーにとっても増していると思いますし、私自身も簡単には巨額の投資を続けてここまでどうにか育て上げた検索サービスを簡単には手放さない気もするのですが。そんなことを考えてしまうのは常人の思考レベルであって、次期マイクロソフトCEOの頭にはもっと壮大で先見性のある考えがあるのかもしれませんが。Bingがマイクロソフトに残るにしろ他社に売却されるにしろ、Googleの圧倒的シェアは脅かすような存在に育ってくれるとそれはそれで検索マニアの傍観者としても、検索マーケティングに関わる実務者としてもよりエキサイティングな話ではありますし、良い形で継続・進化していってくれることを願うばかりです。 — SEO Japan [G+]

2014年版 SEOの計画書 – ハミングバード、コンテンツ、オーソリティに注目

気づいてみれば2013年も後わずか、そろそろ来年のSEO戦略について考える季節がやってきました。ということで、サーチエンジンランドが来年SEOに取り組んでいく上で重要視すべきポイントをわかりやすくまとめてくれた記事を。2013年の振り返り記事としても使えそうな内容です。 — SEO Japan

もう11月である。つまり、来年のSEO計画を練る時期がやってきた。グーグルのハミングバードのおかげで、インターネットマーケッターとSEOのエキスパートは、コンテンツとオーソリティに力を入れるようになり、また、この新しいアルゴリズムが、キーワードの関連性とリンク構築に与える影響について真剣に考えるようになった。

同時に、SEOの関係者は、ビングに対する有効な戦略を見出すことが出来ずに苦労しているようだ。今年は、SEO計画書を2度に渡って提供する。本日は、ハミングバードとコンテンツ戦略について、来月は、ソーシャル、ローカル、モバイル、インターナショナル、そして、その他の検索のバーティカルを取り上げていく。

それでは、早速始めよう。

アルゴリズム

グーグル自体、そして、大勢の優秀なリサーチャーのおかげで、グーグルの検索アルゴリズムについて、多くの情報を知ることが出来る。しかし、グーグルは、検索マーケッターに知ってほしい情報だけ明かし、後は、秘密にしている。現実として、クエリを投稿し、検索結果が表示されるまでのあらゆる出来事に関して、表面上のことしか分かっていない。

input query

3つの情報源

1. グーグル経由の情報

グーグルは、ウェブマスターの役に立ちたいと本気で望んでいる。実際に、効果的なSEOを行うために欠かせない、多くの率直で、有益な情報を提供している。グーグルのビジョンは、良質なマーケティングの取り組みと一致しているため、グーグルのアドバイスに耳を傾ける価値はあると言えるだろう。また、かつて、グーグルは、ベストプラクティスを推奨した結果、悪意のある最適化の手法によって打ち負かされた過去を持つ。そのため、グーグルは、スパムするサイト、ランキングの信頼性を悪用するサイト、質の低いコンテンツを配信するサイト、もしくは、グーグルの利用規約を違反するサイトを特定し、ペナルティーを課す取り組みを改善してきた。この点からも、やはりグーグルの意見には、注目する価値があると言えるだろう。

その一方で、– とどめの一撃になるかもしれないが — グーグルの広報が、アルゴリズムに関する情報を明らかにする、あるいは、ベストプラクティスに対する提案を行う際は、必ず意図があると推測するべきである。

グーグルは、特定のタイプの検索結果を提供し、それ以外のタイプの結果を阻止することを目指したビジョンを広めようとしている。出来るだけ質の高い結果を提供するためにアルゴリズムを作る取り組みも重要だが、グーグルは、独自のプロパガンダを用いて、グーグルが求めるタイプのコンテンツ(トピック、記事の質、そして、クローラビリティ)を作るよう企業に促している。

グーグルの広報は、海千山千であり、明かす情報と明かすべきではない情報の判断を巧に下すことが出来る。個人的なアイデアと意見を持って会議室に入り、合意したメッセージのみを持ち帰る能力を持っているのだ。

2. 観察

検索エンジンのランキングの改善に関する情報の多くは、経験と観察から得ている。だからこそ、SEOを、科学と芸術で構成される技術だと私は考えている。SEOに携わる者として、私達はお互いの有益な体験と不利益な体験に依存し、トレンドを見つけ、その影響を理解している。例えば、リンクやソーシャルメディアでの言及を獲得しやすいコンテンツのタイプを理解するには、積極的な実験よりも、個人の体験、そして、共有する経験が重要になる。

今までは、グーグルの自然検索アルゴリズムを打ち負かすために観察が行われることが多かった。その結果、リンクホイール、コンテンツネットワーク、そして、コンテンツのスピニング等の手法が編み出された。今後の観察の焦点は、トリックではなく、ベストプラクティスに注がれるだろう。B2BやB2Cのサイトにはどのタイプのコンテンツが有効なのか、「上位のランキングに相応しい」製品ページを作るにはどうすればいいのか、あるいは、SEOにマイナスの影響を与えずにビジターを追跡するにはどうすればいいのか等の質問に対する答えが求められている。

3. 相互関係

相関関係テストは、有益な情報をもたらす。リサーチャーは、検索に関するグーグルのメッセージ、そして、数値化できるものなら手当たり次第、SEOの観測結果を調査する。HTML、ソーシャルメディアサイト、コンテンツのパターン等を調査し、特定し、計測可能な要素を見つけようと試みる。

あらゆる潜在的なシグナルを整理し、多数のデータポイントの計測データをまとめ、ランキングの結果やサイトのトラフィックと比較し、最後に、成果を発表する。相関関係が原因を保証するわけではないが、相関関係テストがもたらす見解が、評判が高く、有益である理由は明白だ。

ハミングバード

それでは、グーグルの最新のアルゴリズム、ハミングバードに注目する。ハミングバードは、検索結果の90%に影響を与える。グーグルは、ユーザーに伝える1ヶ月前から、これまでのアルゴリズムをハミングバードに取り換えていたが、そのことに誰一人として気づかなかった。

SEOの関係者が気づかなかった理由の一つとして、大きな変化が起きていたのは、ロングテールのクエリであった点が挙げられる。ロングテールは、検索クエリの大きな部分を占めるものの、クエリが入力される頻度は少ない。検索量が少なく、また、グーグルはリファラーデータを(not provided)として提供していないため、マイナーな結果が目立たないのは致し方ないと言えるだろう。

これは、クエリ内の個別のワードを文書にマッチさせるよりも、フレーズの意味をコンセプトにマッチさせるグーグルの方針と一致している。

しかし、ハミングバードに気づかなった本当の理由は、全く新しいアルゴリズムではあるものの、基本的に過去のアルゴリズムと同じだったからではないだろうか。グーグルの検索アルゴリズムに触れる際は、基本的に数式のセットに言及していることになる。毎年、グーグルは、数百点の変更をアルゴリズムに対して加えている。数年間でどれだけ多くの変更が行われるのか想像してもらいたい。過去のセクションを書き直すものもあれば、完全に新しいセクションを加えるものもある。変更が構築されていくと、アルゴリズム全体は、より複雑になり、最適ではなくなっていく。

そのため、グーグルがすべてのピースの再編成を行い、最適化を行い、今後の改善のための道を確保することは理に叶っていると言えるだろう。メンテナンス、または、春の大掃除のようなものだ。これは、個人的な憶測だが、特にグーグルが積極的にテストを行った上で、アルゴリズムのアップデートを実施している点を考慮すると、過大な解釈ではないと思う。

また、アルゴリズムに対する、今後のアップデートの追加およびテストを行いやすくする特徴をハミングバードは持つ。いかなる環境においても、あまりにも多くの変更点を試すと、混乱を起こし、結果を評価することが出来なくなってしまう。グーグルは、望む改善点をリストにまとめているはずであり、ハミングバードはこのリストを意識して、構築されたのではないだろうか。ハミングバードによって、グーグルは、今後の変更をより早く、そして、より多く実施することが出来るようになると推測される。

そのため、ハミングバードは、確かにコンテキストを特定する力に幾つかアップデートを加えているものの、基本的には、再編成、最適化、そして、今後の改善への下準備だと私は考えている。

現在の検索エンジンのアルゴリズムを活用するには

SEOの関係者は、コンテンツとオーソリティに対して関心を持っている。

コンテンツ

コンテンツに関しては、コンセプトを利用し、各コンセプトを目立たせ、そして、4つの領域のコンテンツ戦略を採用することが、鍵になるだろう。

コンセプトの利用

現在のコンテンツを確認し、ユーザーが考え、検索を行う構造にマッチするフレーズを利用しているかどうかを確かめると手っ取り早い。例えば、Centurylink – Quick Bill Payの代わりに、Pay Your Centurylink Bill Onlineを利用する方が良い(実際には、Centurylinkは、Pay Your Bill Onlineのヘルプページを持っているが、言いたいことは分かってもらえるはずだ)。

多くのサイト、特に企業のウェブサイトは、フレーズではなく、タイトルとヘッドラインのキーワードを強調する近道を採用している。総合的なタイトルを試して、トラフィックが増加するかどうかをチェックしている。しかし、ウェブサイトの間で人気が高い、フレーズを省略するこの取り組みは、検索エンジンが、自然な言語をより正確に理解することが出来るようになるにつれ、マイナスの影響を与えるようになるかもしれない。

すべてのピースを目立たせる

あらゆるコンセプトにおいて、コンテンツの全てのピースに力を入れるべきである。キーワードやキーフレーズに対する支柱となるページを作成し、このページに最適化したアンカーテキストを用いてリンクを張るコンテンツを投稿していく手法が、コンテンツ戦略としてSEOの関係者の中で浸透している。確かに効果的ではあるが、サポートするコンテンツの全てのページが、独自のコンセプトに焦点を絞っている点を確認する必要がある。

同じトピックを5つの異なる形式で書き、支柱の記事にリンクを張り、このページを上位にランク付けさせようとしているなら、最も適切な文書を特定する検索エンジンの取り組みを難しくしている可能性がある。

プロジェクト管理を例にとって考えてみる。プロジェクト管理のベストプラクティスに対する支柱ページを作成したとする。サポートするページで重複を完全に避けることは不可能かもしれないが、それでも明確に分離し、各ページが独り立ちすることが出来るように工夫する必要がある。アジャイルプロジェクト管理の基礎ウォーターフォールプロジェクト管理の基礎等の記事を盛り込むことも可能だ。

ただし、プロジェクト管理のベストプラクティスプロジェクト管理の基本プロジェクト管理の基礎等の記事でサポートするべきではない。なぜなら、全て基本的に同じだからだ。今までは、それぞれのページが異なるキーワードをターゲットにしていたとしても、現在、グーグルは、事実上、同じである点を理解している、あるいは、理解しつつあると言えるだろう。

検索エンジンは、ワードとフレーズから距離を置き、コンセプトを重要視しつつあるため、同じトピックを異なるキーワードを使って何度も取り上げる取り組みの効果は、低下の一途をたどる。事実、優れたユーザー体験とは言えないため、このタイプの戦略が、今後のパンダの標的にされるかどうか、よく考える必要があるだろう。

4つの領域のコンテンツ戦略を利用する

自然の検索トラフィックを、良質なコンテンツと人気によって得られる二次的なメリットだと考えると、4つの領域のコンテンツ戦略 — それぞれが独自の目的を持つ — の仕組みを容易に理解することが出来るはずだ:

SEO Content Plan

SEO コンテンツ計画

左上: 製品またはサービスの販売 右上: カスタマーサポート 中央: コンテンツ計画 左下: 会社の情報 右下: 教育、情報、リソース

万能型のコンテンツ戦略が理想的だが、ビジネスによっては、5つ目、または、6つ目のコンテンツの領域が有効に働く場合もある。

多くのウェブビジネスは、3つの領域で健闘しているものの、教育、情報、リソースに欠けるサイトがあまりにも多い。この4つの領域は、キーワードをターゲットに選び、オーソリティを獲得しつつ、同時に知名度と信頼度を高めることが出来る領域である。適切に実施すれば、SEOおよびマーケティングファンネルの一番上の層に力を与える。

オーソリティ

リンクは、SEOにおいて、今も尚最高のオーソリティのシグナルとして君臨している。過去3年間、検索エンジンとSEOのエキスパートは、ソーシャルメディアのオーソリティのシグナルを繰り返し強調してきた。ソーシャルは確かに重要であり、検索エンジンはソーシャルシグナルを重要視する方向に向かっているものの、約束を果たしているとは言い難い状況である。グーグルの広報は、かつての意気込みと比べると、トーンダウンしていると言わざるを得ない。どうやら、グーグルが思い描いていたほど、順調には進んでいないようだ。

私は今後も、自分の会社にとって理に叶うメジャーなサイト(フェイスブック、グーグル+、リンクトイン、ピンタレスト、ツイッター、そして、ユーチューブ)で、強固な存在感を確立する方針を薦めている。ターゲットのオーディエンスに接触することが出来るなら、小さなネットワークやサイトにも参加するべきである。しかし、ソーシャルメディアでリンク構築を代用させてもらいたくない。やはり、コンテンツの作者とパブリッシャーに接触し、自分の記事とコンテンツを言及してもらい、リンクを張ってもらえるように要請するべきだ。リンクに値するコンテンツを一定して提供しよう。

  • ソーシャルメディア => オーディエンスの構築
  • 関係の構築 & 要請 => リンク構築

ツイッターのツイートやフェイスブックのいいね!が、リンクをもたらすなどと期待するべきではない。ソーシャルメディアユーザーの大半は、コンテンツのパブリッシャーではない。業界または分野によっては、ソーシャルメディアのインフルエンサーが含まれない可能性もある。運良く、ニュースメディアが、最新の製品のリリースを取り上げる時しか、リンクを得ることが出来ないなら、オーソリティを巡る戦いで競合者に敗北を喫することになる。

グーグルは、ブランドを贔屓し、ソーシャルメディアでの言及の回数に応じて、オーソリティを与えていると言う指摘を耳にしたことがあるかもしれない。私自身、グーグルが、ブランド名の巨大なデータベースを維持し、人気が高まりつつあるブランドを特定する方法を編み出していると確信している。しかし、ブログの記事やプレスリリースを配信する度に、安定してツイートを獲得することが出来ないなら、この方法で十分なランキングオーソリティを獲得するには、ブランドが小さい、または、弱いと言わざるを得ない。私はこの取り組みを知っていて損はない取り組みに分類し、読者とリンクを獲得する作業に精を出すようにしている。

意図的なリンク構築プログラムを実施してもらいたい。

アーキテクチャ & URL

現時点では、ウェブアーキテクチャに対する推奨事項に変更はない。シンプルで、論理的なアーキテクチャ、組織図のようなアーキテクチャが理想である。巨大なエンタープライズサイト、または、メディアサイトではないなら、ホームページから4回のクリックで、全てのページにアクセスすることが可能な構造を採用してもらいたい。

URLにも同じことがいえる。特に変化は起こらないだろう。シンプルに、そして、人間のユーザーが読めるようなURLを利用するべきだ。パラメータの利用を最低限に抑える、または、削除してしまおう。利用するなら、順番において一貫性を保つように工夫してもらいたい。

カノニカル

昨年の夏、グーグルは、重複するコンテンツについて心配する必要はないと指摘していた。しかし、グーグル以外にも検索エンジンは存在することを忘れないでもらいたい。そのため、カノニカルの問題を無視するとある程度のリスクが発生する。各ページが独自のURLを持つように、または、正しいURLを示すカノニカルの指示を出すよう今後も心掛けてもらいたい。パラメータを利用するなら、グーグルおよびビングのウェブマスターツールの設定を確認し、全てのリンクでパラメータが同じ順番になるように注意する必要がある。

来月のコラムでは、各種の検索バーティカルを取り上げ、推奨事項を紹介していく。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「2014 SEO Playbook: Google Hummingbird, Content & Authority」を翻訳した内容です。

SEO Japanの読者の方にはかなりシンプルな内容だったかと思いますが、前段のアルゴリズムの情報源についての文章は、混沌のSEOの時代に改めて道筋を失わないためにも噛みしめて読みたい内容でした。各項目の具体的内容については今後新たな記事が出てくるようですし、追って紹介していきたいと思います! — SEO Japan [G+]

3秒で消える写真、6秒動画、140文字が世界を征服している理由

写真が数秒で消滅することで米国で大人気の写真共有サービス「Snapchat」がFacebookから3000億円の買収オファーを受けて断ったニュースに衝撃を受けて、以前訳して寝かせていたこの記事を紹介したくなりました。インターネットの今を理解し、そしてウェブサービスの成功の秘訣を考えるにはヒントになる記事かもしれません。 — SEO Japan

制約メディア。それは、ユーザーにプラットフォーム上でコンテンツを作成することを勧めるが、意図的な制約が付いている革新的な製品カテゴリだ―恐らく、Twitterの140文字が最も有名な例だろう。

今ではこういったアプリは非常にたくさんあり、中でも成功しているのが以下のようなものだ:

  • 140文字以下で書く(Twitter)
  • 6秒の動画を作る(Vine)
  • 最大400X300のサムネイルをアップロードする(Dribbble)
  • 3秒後に消えてしまう前に写真を見る(Snapchat)

なぜコンテンツ制作に制約を強いることによって、製品をより成功させるのだろうか?多い方が良いのでは?これらの製品はどれも制約をなくしたらもっと良くならないだろうか?さらには、全ての制約が機能するのか、それともそれは全て気まぐれなのだろうか?

私は、制約とは製品を機能させるのに欠かせないものであると主張するつもりだ。制約メディア製品における高いエンゲージメントは、コンテンツ制作にとっての1%の障壁を打ち破る能力に基づいている。この1%ルールは、WikipediaやYouTubeのようなユーザー生成コンテンツサービスの有名な経験則で、ユーザーの1%がコンテンツを作成し、9%が編集とキュレートをし、90%がただ座って見るだけだと言われている。

もちろん、ユーザーのたった1%だけに積極的にコンテンツを作らせることは最悪だ。そこで、それを解決する方法について話そう。

摩擦のないコンテンツ作成
明白なのは、制約メディアアプリがコンテンツの作成を簡単にするということだ。誰でも140文字で入力することができるし、写真を撮ることができるし、ボタンを押して6秒ループ動画を作ることができる。これを、従来のブログのような大きな空欄のテキストエリアやPhotoshopのような高度なフォトツールと比較してみるのだ。それらを使用するためには、もっとクリエイティブなエネルギーが要求される。

もっと興味深いことは、これらの制約が製品UIのシンプルさにどのような影響を与えるかだ。これらの制約は、製品をよりおもちゃのように使い易くして、より少ない数の使用事例をサポートできることを意味する。時には、SnapchatやVineのように、あなたは1つのボタンで全てのやり取りを実行することができる。ただボタンを押すだけでコンテンツを作成し、リミットに達したなら、全て終了だ―コンテンツを編集したり再アレンジする心配はない。

コンテンツと製品UIの両方のシンプルさが、全ての体験をより方向性を持ったより高いコンバージョンにするのだ。

配信することよりもコミュニケーション
簡単なコンテンツ作成を構築したなら、次のステップは、コンテクストを配信することではなくコミュニケーションにシフトすることだ。それが高いレベルの参加を促す。1%ルールは、紙面上は聞こえが良いが、コミュニケーション製品のコンテクストの中でそれについて考えてみるのだ。Eメール、IM、Skype、携帯メールのコンテンツ作成のパーセンテージはどうだろうか?それは1%より高いのは確かだし、もしかすると100%に近いかもしれない。コミュニケーションのポイントは、全関係者が他の人に向けられたコンテンツを作成し、全ての人が参加するということだ。

Twitterには@メンションがあり、Dribbbleにはリバウンドがあり、Snapchatはコミュニケーションが全てだ。メディアは他の人に対して向けることができ、お互いに話をするための本質的なコンテクストがあるため、これが人々に参加を促す。これが、健全なユーザー同士のエンゲージメントに基づいたメール通知をもたらす。そして、これが、頻繁な参加、バイラリティー、その他様々な良いことを活発にする。

返信は作成より簡単
ゼロからコンテンツを作るのは難しい。同様に、コミュニケーションの発端になることも難しいことがある―見知らぬ人に自己紹介をしたことのある人ならその気持ちを知っているだろう。しかしながら、返信をするのは簡単だ。もし誰かがSnapchat上で変顔をした写真を撮れば、自然な反応は変顔をやり返すことだ。さらには、もしあなたがその写真が自分に対して特別に送られたものだと知っていれば、あなたは返信する義務があるように感じる。

どちらかといえば、これが制約を増大させる―あなたには、自分が誰に返信すべきかを知っているという制約、およびあなたに送られるコンテンツの種類という制約がある。そして、驚いたことに、これらの制約が送り返すものを思い付くのをより簡単にするのだ。

分散を減らすことによってカジュアルなコンテンツをOKとする
見せびらかしを好きな人などいない。実際、あまりに見せびらかしの多すぎるプラットフォームは、人々が参加しない傾向があるというおかしな社会規範を導く。人は、よりスキルのあるもしくはより時間のある人たちと競いたくないからだ。

一方、制約されたコンテンツ制作は、スキルの低いユーザーとスキルの高いユーザーの入力における分散を減らし、それによって全ての人が楽しむことができるようにする。これの最も良い例えは、キックボールとプロ野球の違いのようなものかもしれない。前者は、勝つことではなく、スポーツのレベルを下げることによって全ての人を参加させることが全てだ。Dribbbleは、自分が今取り組んでいる作品を400×300の“ショット”で投稿することが規範の一部になっているデザイナーのコミュニティだ―つまり、より頻繁でエンゲージメントが多いことを意味する。これを最大でも年に一度しか更新しないポートフォリオサイトと比較するのだ。

コンテンツの発見可能性も重要な因子だ。もしあなたが、より努力を要するコンテンツもしくはスキルの高いコンテンツを見つけるのを簡単にしすぎると、コンテンツ消費体験は向上するかもしれないが、コンテンツ制作を妨げるスコアボードのようなものを作り出す。それは、両立しないのだ。Snapchatのプライベートで一時的なコンテンツは、くだらない自分撮り写真を投稿しても安全な唯一の場所であることを意味する。

さらなるエンゲージメントを使って何をするのか?
上の全てのことは、より頻繁で誰でも受け入れるコンテンツ制作へとつながる。これがトラクションの原動力となる。より頻繁な使用は、リテンションの原動力となる自然なユーザー間の通知を後押しすると同時に、ユーザーにバイラルループを体験させるより多くの機会を意味する。例えば、Snapchatの場合、あなたが返信した後に写真の受取人を追加で何人か含めることをユーザーに要求するのは簡単になる。もしくは、あなたが6秒動画を作った後に、それを異なるソーシャルネットワークで共有することをユーザーに要求するのは簡単だ。

だから、今度あなたが新しいソーシャル製品をデザインする時には、制約を追加することを検討しよう。それは独裁的な制約ではない。コンテンツ制作を簡単でよりコミュニケーション指向にし、あなたの求める社会規範を生み出す制約にするのだ。それが、1%を打ち破る一番の方法だ。


この記事は、@andrewchenに掲載された「Constrained media: How disappearing photos, 6 second videos, and 140 characters are conquering the world」を翻訳した内容です。

かつては、より豊富な機能、高度な機能が良しとされ、それを追い求めた結果、崩壊してしまったウェブサービスは多数ありますよね。日本の携帯電話や家電が世界市場で敗因した理由に限りなく近いものもありそうですが、あえて制約をつけ単純化することにより、より多くのユーザーの参加を促し、そこからさらに多くのコミュニケーションを発生させ、短期間に爆発的な人気サービスに育て上げる。まさにソーシャルメディア時代の流れですね。その中には一時のファッド的流行で廃れてしまうものもありそうですが、Twitterのように一大プラットフォームとして成長したものもありますし、PinterestやSnapchat、Instagramが今後どこまで成長し、それを持続できるのかは気になるところではあります。そしてこれからサービスの立上げを考えている起業家にもこの「制約」の考え方はサービスを軌道に乗せる上でヒントが多く隠されている気がします。 — SEO Japan [G+]

セマンティック検索を無視できない10の理由

最近、エンティティ検索やセマンティック検索関連の話題を多く紹介しているSEO Japanですが、今回はセマンティック検索が今後ますます流行るであろう理由を具体的な事例もふまえて考えてみた興味深い記事をサーチエンジンランドから。いまいちセマンティック検索を理解しきれていない人にも分かりやすい内容となっています。 — SEO Japan

検索が、Vogueの9月号で特集されている。9月号は是が非でも読んでもらいたい — なんとグーグルグラスを装着するモデルが10ページに渡り掲載されているだけでなく、ヤフーのCEO、マリッサ・メイヤー氏が大々的に取り上げられ、モデル顔負けの存在感を放っているのだ。

Search Is In Vogue

Vogueの検索特集

グーグルグラス、そして、検索業界の最新のトレンドは、「ホット」である。もはやギーク特有の領域ではなくなり、オシャレで流行の最先端に位置する存在となった。

テクノロジー(そして、ファッション)は、「今後、絶対に欠かせなくなるアイテムを提供する」と言う意味では同じである。今月のVogueを検索業界で絶対に必要になるアイテムの兆しと考慮すると、次世代の検索 — つまり、セマンティック検索 — は、間もなくマーケッターにとって欠かせないツールになると推測することが出来る。

1. セマンティック検索 = アンサーエンジン

ナレッジグラフ(または、あらゆるエンティティグラフ)は、検証され、確認が取れた、内部の構造化されたデータで構成されている。そして、このデータが、アンサーエンジンの潤滑油となる。

アンサーエンジンへの進化は、自然であり、検索エンジンの長期的な目標である。なぜなら、アンサーエンジンは、結果のリストを通した検索よりも、優れたユーザー体験をもたらすためだ。また、答えは、通常のコンピュータのスクリーンではなく、代替的なデバイス(グーグルグラスや時計等)での表示に向いている。

適切な形式で、適切なタイミングに、適切な情報が提供されるようになれば、大幅に利便性が向上するはずである。これは、グーグルナウおよびグーグルナウのカード形式で提供されている — ちなみに、グーグルグラスは、この形態のデバイスの最終的な製品ではない(実際に、グラスオミックスを始めとする取り組みが行われている)。

近い将来、エンティティグラフの検索結果で「見つけてもらえる」ように、ナレッジグラフでエンティティとして存在することが必須になる。

Answer Engines

アンサーエンジン

2. セマンティック検索 = コンピュータが判読可能

セマンティックウェブ、つまり、HTMLのページに埋め込まれた構造化マークアップは、特定のトピック/テーマに関する情報を検索エンジンのクローラーが読むことが出来るようにする役目を持つ。

このマークアップをウェブサイトに盛り込んで(まずはschema.orgから着手する)、ターゲットのオーディエンスが検索エンジンに尋ねる質問の答えを提供するように心掛けてもらいたい。

3. セマンティック検索 = SERPの表示の強化 & 支援

検索エンジンは、セマンティックテクノロジーを活用して、より優れたユーザー体験を作り出す。グーグルのリッチスニペット、ビングのタイル、そして、ヤフー!のサーチモンキーの結果は、全て「表示を強化」することをモットーに掲げており、SERPをユーザーにとって魅力的にする — その結果、とりわけクリックスルー率が改善される効果が見込まれる。カルーセルおよびナレッジグラフの結果もまた、目覚ましいユーザー体験を作り出す「表示の強化」に貢献している。

デバイスごとに最適化するのが、理想的な表示のメカニズムである。このユーザーインターフェースは、A/Bテストタイプの実験をリアルタイムで実施し(グーグルは、通常、24点のテストを一度に実施している)、それぞれのGUIに対する最適なユーザー体験/レスポンスを特定することが可能である。

(最も正確であり、最も細かく、しかも)最新、そして、最高のセマンティックマークアップを利用する必要がある。こうすることで、新たなスニペット、または、強化された構造化デ-タが検索結果に反映される度に、何もしなくても後押ししてもらえるようになる。

4. セマンティック検索 = ウェブページの認証

検索エンジンは、適正な構造化データを抽出して、ページの内容が妥当である点を認証する。この認証は、ウェブページに対する信頼をさらに高める効果がある。

ページのコンテンツと構造化マークアップは、データフィードやAPIを介して提供する情報と一致させる必要がある。その結果、コンテンツの認証をさらに進めるだけでなく、さらにデータソースが増え、ウェブページ上で機械の学習/トレーニングが可能になる。

schema.orgのマークアップが、人間のユーザーに提供しているコンテンツと一致していること、そして、APIやデータフィードを介して提供している情報と一致することを確かめてもらいたい。

5. セマンティック検索 = ソーシャルメディアの採用

グーグルの検索エンジンは、セマンティック検索を通して、会社に対して、グーグルプラスへの加入を促している。

ブランドや会社に対してグーグルプラスのページを作成すると、知名度や認知度が上がり、また、グーグルプラスのページを高く評価すると、ナレッジグラフでその会社が存在することを裏付ける効果が見込める。

もはや絶対に必要ではなくなったが、rel=publisherをウェブサイトに実装し、グーグルプラスのページにリンクを張ろう(詳細はこのページで確認してもらいたい)。

You need to be defined as an Entity to be found in an Entity Graph search

エンティティグラフ検索では、エンティティとして認めてもらう必要がある。

6. セマンティック検索 = グーグル+オーサーシップ リッチスニペット

グーグル+は、オーサーシップのおかげで、個人による利用が進んでいる。

オーサーシップマークアップを使うと、認証済みのオーサーに対するビジビリティが上がるだけでなく、オリジナルのコンテンツの功績を直接作者に認めることが出来るようになる。その結果、別のサイトからコンテンツを盗用するサイトは、最終的にオーソリティが減っていく(その結果、ランキングに影響が出る可能性がある)。

パブリッシャーは、時間を割いて、オーサーシップマークアップとschema.orgのarticleマークアップを適切に実装するべきである(articleは、SERPで「in-depth article」(詳細な記事)として提示される確率を上げる)。

7. セマンティック検索 = 内部の構造化データ

内部の構造化データ(信頼されているソースによって検証され、認証されたデータ)は、推測や推奨等、様々な用途に活用される可能性がある。グーグルは、この手の「ビッグデータ」の利用を極めている。ただし、結果に対して活用する際のあらゆるデータの法則 — GIGO(ゴミを入れたら、ゴミしか出てこない)を忘れないでもらいたい。

そのため、スパム丸出しの手法を利用する行為も、グーグルに無効な情報やゴミのような情報を与える行為も認められない。こんなことをしていては、グーグルに信頼してもらえなくなる。SEOに携わる者として、どのようなマイナスな影響が押し寄せるか、よく理解しているはずである。劣悪な情報ほどひどいものはない。

8. セマンティック検索 = 検索の未来

内部の既に明らかになっている事実、そして、「コンテキスト」または「知識ベースの区分」により、コンピュータ(および検索エンジン)は、新たな情報を引き出すことが可能になる。また、有望な推論メカニズムと共に用いることで、未来の知的な「スタートレック」型コンピュータが誕生する。最低でも、既にグーグル等の検索エンジンは、「セマンティックネットワーク」またはナレッジグラフを行き来して、基本的なつながりを導いている。

このポテンシャルについてよく考えてもらいたい(SFの世界の話と思われていたこと)。そうすれば、検索の未来が見えてくるかもしれない。

9. セマンティック検索 = schema.orgのオントロジー

検索エンジンが、schema.orgのオントロジー(または、コンピュータ内のボキャブラリーやコンセプトの描写)を活用する際、このようなコンセプトは、事実上、言語には依存していないことになる。

その良い例がDARPA TIDES プログラムである。また、グーグルは、様々な言語で「リッチスニペット」をサポートしている — このページを参考にする限り、中国語、チェコ語、オランダ語、英語、フランス語、ドイツ語、ハンガリー語、イタリア語、日本語、韓国語、ポーランド語、ポルトガル語、ロシア語、スペイン語、そして、トルコ語に対応しているようだ。

そのため、別の言語圏の消費者をターゲットにしているなら、リッチスニペットの対応言語を確認するべきである(ターゲットのオーディエンスなら、その国の言語で構造化マークアップを実装することが可能だ)。

10. セマンティック検索 = ユーザーの意図を理解する

検索エンジンは、セマンティック検索を使って、ユーザーの意図をより正確に理解する。これは、最も重要なポイントの一つに挙げられる。

ユーザーの居場所、検索履歴、デバイスのタイプ、日常的な習慣等は、ユーザーが質問した際に、検索エンジンがその意図を理解する上で、全て役に立つ。

「コンテキスト」が追加されると、検索エンジンは、クエリを絞り込み、抽出した情報を明確に定義し、答えに対する検索のスペースを限定し、そして、当然ながら、適切なタイミングで、適切な答えをユーザーに提供しやすくなる。

台頭著しいインターネットならではなの「物事」等の要素を加えていくと、検索エンジンにとって、どれだけ有益であるか、そして、検索の要素として、どれだけ重要なのかが見えてくるのではないだろうか?これ自体、記事のトピックになる。

Both Search & Social Entity Search Engines want to precisely define user intent and output (attractive) structured data displays

検索 & ソーシャルのエンティティ検索エンジンは、共にユーザーの意図を正確に明示し、(魅力的な)構造化データを出力することを望んでいる

ユーザーの意図をより正確に特定すると考えられているシグナルは他にも数多くある。このタイプの(または、少なくとも、さらに分かりやすい)シグナルを意識し、オーディエンスをターゲットにする際に考慮してもらいたい。

まとめ

要するに、セマンティック検索は、検索業界の一大ムーブメントとして頭角を現しており、SEOのベストプラクティスを活用したいと望むなら、絶対に理解してもらいたい。恐らく、セマンティックSEOは、SEOの関係者がこのコンセプトを活用する仕組みを描写する用語として、使われるようになるのではないだろうか。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「10 Reasons Why Search Is In Vogue: Hot Trends In Semantic Search」を翻訳した内容です。

セマンティック検索の関連記事を多く紹介してきましたが、ここまでセマンティック検索の基本を理解できる記事は初めてかもしれません。これを読めば中長期的には無視できないどころから、検索の主流となっていくことが容易に想像できるセマンティック検索、その基本概念を理解しつつ、サイトで対応できる所は少しずつ取り組んでいきたいところです。– SEO Japan [G+]

エンティティ&セマンティック検索が導く未来のSEO

今後の検索マーケティングを乗り切る上で欠かせないのがエンティティ/セマンティック検索の概念と理解。少し前に紹介したエンティティを制する者が未来のSEOを制すというセマンティック検索の専門家へのインタビュー記事の続編を今回はご紹介。もはや従来の「検索」を超える様々な場面でユーザーに最適な回答を提供する「アンサー」エンジンに進化しつつあるGoogleの本質を理解できる素晴らしい内容。 — SEO Japan

先月、私はベテランのセマンティック検索のストラテジストであるバーバラ・スターにインタビューを行った。この記事の中で、エンティティ検索に焦点を絞り、検索の未来を想像してもらいたいと読者の方々にお願いした。スター氏と私は、関連性の高い、コンピュータが認識可能な「エンティティ」を利用して、具体的で、よく絞り込まれたクエリに対する答えを提供する「アンサーエンジン」について議論を行った。

ハミングバード

10月26日、グーグルは、ハミングバードアップデートを実施し、アンサーエンジン化をさらに進めた。ダニー・サリバンは、ハミングバードアルゴリズムに関するライブブログの中で、古いアルゴリズムのパーツを維持しながらも、グーグルが、急速にセマンティックウェブのテクノロジーを採用していると指摘していた。これは、「テキストリンク」から、「答え」に進化するためのグーグルのソリューションである。このシステムは、検索用語ではなく、ユーザーの意図に焦点を絞るセマンティックテクノロジーに重点を置いているため、より正確な結果を、より早く提示することが可能になる。

グーグルのアンサーエンジンへの方針転換を振り返ってみよう。まず、ナレッジグラフを導入し、続いて、音声検索、そして、グーグルナウが登場した。全て答えを提供するための取り組みであり、時には質問を予測することも出来る。答えを提供するため、グーグルは、キーワードではなく、エンティティに頼る。

そもそも「エンティティ」って何?

エンティティとは、人物、場所、そして、物事を指す。エンティティを紹介する上で、グーグルのナレッジグラフがエンティティグラフであり、これは、セマンティック検索(あるいはエンティティ検索)を活用する最初の試みであったことを理解してもらいたい。

それでは、「エンティティ検索」とは何なのだろうか?簡単に言うと、エンティティ検索とは、検索クエリに答えるために、認証された情報源を割り当てつつ、ボットが、ユーザーの意図を正確に理解するためのメソッドである。

data_humans_machines

非構造化データ vs 構造化データ

過去20年間、インターネット、検索エンジン、そして、ウェブユーザーは、非構造化データに対処しなければならなかった。非構造化データとは、所定のデータモデルによる整理、もしくは、分類を行っていないデータのことである。このように、検索エンジンは、ウェブページ内のパターン(キーワード)を理解することは可能だったものの、ページに対して意味を与えることは出来なかった。

セマンティック検索は、各情報をエンティティとしてラベル付けして、データを分類するためのメソッドを提供する — これが、構造化データと呼ばれるものだ。 大量の非構造化データを含む小売の製品データを例にとって考えてみよう。データの構造化を進めると、小売店やメーカーは、非常に詳細で正確な製品データを検索エンジン(マシン/ボット)に見てもらい、理解してもらい、分類してもらい、そして、認証した情報の文字列として、まとめてもらえるようになる。

セマンティック検索やエンティティ検索が、改善するのは、小売製品のデータだけではない。schema.orgのschemaの種類に注目してもらいたい — このschemaは、構造化されたデータによるウェブ(固有の識別子を持つエンティティ)を作るための技術的な言語であり、機械による認識が可能になっている。機械が理解することが可能な構造化データは、曖昧ではなく、信頼性が高い — ウェブ上のその他のつながりを持つデータソースと比較して、照合を行うことも可能である。

構造化データ、 トリプル & トリプルストア

セマンティック検索は、フェイスブックのオープングラフプロトコルのようなボキャブラリ、もしくは、RDFaやマイクロデータのようなシンタックスを使って、構造化データを作成する。構造化データは、トリプルストアからのインポートおよびエクスポートが可能である。この点を詳しく説明していこう…

トリプルストアとは、トリプルの保存および回収を行うためのデータベースである。トリプルストアには、大量のトリプルを保存することが出来る。

トリプルとは何だろうか?簡潔にまとめると、Subject(主語)、Predicate(述語)、そして、Object(目的語)を含む、あらゆる文を構成する3つのパーツの組み合わせである。トリプルとは、基本的に、主語-述語-目的語で構成された、リンクで結ばれたエンティティのことである。主語は、人物/物事であり、動詞が示す行動を遂行する。述語は、主語が実行する行動である。そして、目的語 は、行動の対象となる人物/物事である。

トリプルの例を挙げる: ケラー夫人は、代数を教えている。

ケラー夫人 → 主語 → エンティティ

代数 → 目的語 → エンティティ

教えている → 述語または関係 → エンティティを結びつける

トリプルは、Uniform Resource Identifier(URI: 情報資源の場所を示す記述方式)として表現される。アンサーエンジンは、トリプルストアの大規模なデータベースにアクセスし、無数の主語、目的語、そして、述語を結び、関係を形成する。その結果、内部で認証されたデータ、そして、信頼された文書(構造化データ)を結ぶ関係を確認して、クエリに対する正確な答えが提供されるようになる

リンクから答えへ

グーグル、ビング、ヤフー!等の機械が理解することが可能なschemaタイプを使って、この論理とテクノロジーを拡大していくと、IBMのワトソンコンピュータのような、キーワードやアンカーテキストリンクを利用することなく、質問に答えることが可能な「アンサーエンジン」が生まれる。

構造化データは、ページのコンテンツの意味に関する詳細な情報を、容易に処理して、ユーザーに提示することが可能な方法で、検索エンジンに提供する力を持つ。

データの理解 vs データのインデックス

ここで、再び、「エンティティとは何か?」と言う質問に戻ろう。グーグルのナレッジグラフにおいて、エンティティとは、セマンティックデータのオブジェクトであり(schemaのタイプ)、それぞれのエンティティが固有の識別子を持つ。また、意味を表す現実の世界のトピックの属性に基づいた、特性の集合体であり、当該のトピック、そして、その他のエンティティとの関係を現すリンクでもある。

2010年7月、グーグルがメタウェブを買収した時、データベース「フリーベース」には、1200万点のエンティティが存在した。2012年6月の時点で、グーグルのナレッジグラフは、5億点のエンティティを記録し、エンティティ間の関係は35億点に達していた。その後の16ヶ月間で、大幅にボリュームはアップしているはずだ。

機械が認識することが可能な構造化データをウェブに加えることで、データを「インデックス」する能力に対して、データを「理解」する検索エンジンの能力は大幅に高まり、アンサーエンジンを介して、質問に対してより正確な答えを獲得する上で、2つの大きな進歩をもたらすようになる:

  1. ユーザーの意図を理解する上で、遥かに優れたメソッドを用いることが出来るようになる
  2. 巨大な構造化データのデータベースから、ユーザーに対して最も信頼性が高く、最も正確な答えにマッチする、認証された構造化データを引き出すことが出来るようになる。

キーワードのインデックス vs 自然な言語の理解

SEOのエキスパート、セマンティックのストラテジスト、そして、検索エンジンは、– 「ウェブサイトを支援して、非構造化データをインデックスさせる」取り組みから「機械が認証することが可能な構造化データをウェブ上で提供して、ウェブサイトを支援する」取り組みへと移ろうとしている。

エンティティの抽出

例を挙げるため、そして、少し深く掘り下げるため、以下にイメージを掲載する。このイメージから、「Place」(場所)に対するschemaのタイプの階層、そして、そのバリエーションを多少見ることが出来る — Courthouse(裁判所) vs. Embassy(大使館) vs. Apartment Complex(アパート) vs. Canal(運河)。このように、エンティティの抽出が、セマンティック検索を動かす中心的な取り組みであることが、このイメージには鮮明に表れている。そのため、エンティティこそが、検索のビジビティの未来そのものだと言っても過言ではない。オーソリティ、信頼性、ファインダビリティ等もその中に含まれる。

schema.org Place hierarchy

schema.org “Place” 階層 – Protege

セマンティックコミュニティ、学界、W3C、情報学者、グーグル、ビング、ヤフー!、企業の優れたウェブサイト、SEOのエキスパート、ウェブディベロッパー、ウェブデザイナー、インタラクティブエージェンシー等は、セマンティックテクノロジーを使ってツールを作り、セマンティックマークアップをウェブに実装して、セマンティック検索の改善に既に着手している。

セマンティックマークアップを使ってデータとコンテンツを見えるようにする

過去3年の間に口を酸っぱくして言ってきたことだが、セマンティックマークアップを使って、全てのビジネスのデータとデジタルコンテンツに検索エンジンが容易にアクセスすることが可能な環境を作るべきである。

ビジネスのデータは、リッチメディアの動画コンテンツ、製品のレビューや評価、場所や連絡先情報、専門分野の詳細、特売、製品の情報等で構成されている。繰り返すが、schema.orgのschemaのタイプをチェックしてもらいたい。

セマンティックマークアップをサイトに実装すると、ビジネスのデータを検索エンジン、ウェブアプリ、カーナビ、タブレット、モバイルデバイス、アップルの地図アプリ、Siri、イェルプの地図、リンクトオープンデータ等のマシンが読めるようになるためだ。

セマンティックマークアップは、ビジネスのデータをまるでチョコレートのように検索エンジンに提示する — 検索エンジンは、大いに気に入り、最後まで食べきる。検索エンジンは、データを隅から隅まで理解し、SERPでのユーザー体験を向上させるため、データを集める情報を心得ている。また、検索エンジンが、構造化データを使って、より関連性の高い検索結果を提供する一方で、CTRが上がるため、ウェブマスターもまたメリットを得ることが出来る。

最後に

セマンティック検索が、浸透するにつれ、セマンティックマークアップを利用することで、グーグルがナレッジグラフに対して必要とするエンティティの情報をグーグルに与えることが出来るようになり、その結果、検索エンジンは、様々なデバイスでユーザーのクエリに、より適切な答えを提供するようになる。セマンティックマークアップの採用が増加しても、キーワードに焦点を絞ることは可能だ。ただし、未来のSERPでビジビリティを確立するには、セマンティック検索を理解し、そして、受け入れて、正しく構造化データを利用する能力を高めていく必要がある。

検索エンジンは、ユーザーのクエリに対して、より正確な答えを提供するため、機械が読むことが可能なコンテンツを求めている。 ユーザーは、デスクトップ/ラップトップよりもスマートフォン/タブレットを優先し、パーソナライズドされた答えを求めている(Monetate – 2013年第一四半期 ショッピングサイト)。

そのため、SEOの関係者は、セマンティックテクノロジーおよびエンティティ検索のコンセプトを理解しなければならない。まずは、バーバラ・スターが投稿した「検索が台頭する10の理由」を参考にして、すぐに実行に移せる10点の作業に取り掛かってもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Future SEO: Understanding Entity Search」を翻訳した内容です。

部分的に理解が難しい点もありましたが、パラグラフ毎にトピックが整理されており初心者にも理解しやすい記事だったと思います。検索エンジン自体が 「ウェブサイトを支援して、非構造化データをインデックスさせる」取り組みから「機械が認証することが可能な構造化データをウェブ上で提供して、ウェブサイトを支援する」方向性に移りだしているとはいえ、ウェブサイトの構造化対応は今後必須となっていくのでしょう。進化し続ける検索エンジン、我々も頑張って勉強して最前線の検索マーケッターとして走り続けていきたいものです(大変ですが・・・)。– SEO Japan [G+]

上級者向けSEOガイド9/9 : YouTube&スライドショー、モバイル&ローカル、ソーシャルメディア連携

少し前に連続して紹介した上級者向けSEOガイド、全て投稿したと思っていたら、最後の1本を忘れていました汗。ということで、慌ててここに紹介したいと思います。これまで紹介してきた内部最適化、外部リンク構築等のダイレクトなSEO手法に限らない、YouTubeからプレゼン資料、モバイルにローカル、ソーシャルメディア連携までトラフィック増加に役立つ様々な手法とティップスを一挙に紹介してくれている最後にふさわしい記事になっています。 — SEO Japan

ウェブだけでなく、その他の検索のバーティカルで、サイトを運営しているなら、良質なトラフィックを活用することが出来る立場にいる。バーティカルは、SEOにおいては頻繁に取り上げられるトピックではないが、コンバートしやすい、ターゲットの絞られたトラフィックを獲得することが可能である。

このチャプターでは、ローカル、モバイル、スライドショー、ユーチューブ等をピックアップして、説明していく。


1. モバイルフレンドリーなウェブサイト – CSS

モバイルのユーザー専用のレイアウトを表示するための選択肢が、数多く存在する。ただし、「m」のサブドメイン等、重複するページを利用する問題が消えるわけではない。

そのため、重複するコンテンツの問題を解決し、より良いモバイルのユーザーエクスペリエンスをもたらす、動的なCSSを利用するメソッドを手順を追って説明していく。主に2つのプロセスに分けられる。

1. ユーザーエージェントを特定する

2. 正しいCSSファイルを提供する

注記: このメソッドは、ワードプレス、またはその他のPHPベースのCMSに利用することが出来る。

ステップ 1 – ユーザーエージェントを検出するコードを作成する

a. まずは、通常、ヘッダーに表示される、次のコードの列を利用する。

<link rel="stylesheet" type="text/css" media="all" href="" />

‘href’の部分は空である。ここにPHPを加えていく。

b. このPHPを利用する。

<?php

if(preg_match('/(up.browser|up.link|mmp|symbian|smartphone|midp|wap|phone|android)/i', strtolower($_SERVER['HTTP_USER_AGENT']))) {

echo "**LINK TO MOBILE CSS FILE**";

}

else {

echo "**LINK TO NON MOBILE CSS FILE**";

}

?>

このPHPコードはベーシックなコードであり、モバイルブラウザを検知すると、モバイルのCSSファイルを供給する(次のステップで作成する)。検知しない場合(“else”)、通常のCSSファイルを供給する。

c. コードをまとめる – すると次のようなコードになる:

<link rel="stylesheet" type="text/css" media="all" href="<?php

if(preg_match('/(up.browser|up.link|mmp|symbian|smartphone|midp|wap|phone|android)/i', strtolower($_SERVER['HTTP_USER_AGENT']))) {

echo "**LINK TO MOBILE CSS FILE**";

}

else {

echo "**LINK TO NON MOBILE CSS FILE**";

}

?>" />

上のコードをコピーし、header.phpファイル(または、利用しているCMSに応じて、同じような場所)に貼り付ける。

その際は忘れずに“LINK TO … FILE” を実際の絶対パスに置き換えること。

ステップ 2 – 固有のモバイルCSSファイルを作成する

ここでは2つの選択肢が用意されている。

オプション 1 – CSSファイルを新たに作成する。サイトがどれだけ複雑なのか、そして、CSSにどれだけ精通しているかに左右される。全てのクラスとidの要素を一から特定しなければならず、そのため、個人的には、この選択肢はお薦めしない。

オプション 2 (最善のオプション) – 既存のCSSファイルをコピーして、モバイルで利用することが出来るように変更を加える。この作業は、次のような基本的な作業を行うだけで済むことがある:

基本的な再設定

html, body {
        background: #fff;
        padding: 3px;
        color: #000;
        margin: 0;
        }

フロートを削除する(アイテムを単一のカラムで表示する)

* {
        float: none;
        }

フッターやサイドバーを隠すことが出来る

#sidebar, #footer {
        display: none;
        }

ヘッダーを正規化することが出来る

h1, h2, h3, h4, h5, h6 {
        font-weight: normal;
        }

イメージの大きさをコントロールする

#content img {
        max-width: 250px;
        }

全てのアイテムを中央に集める

.center {
        width: 100% !important;
        text-align: center;
        }

モバイル向けにリンクをフォーマットする

a:link, a:visited {
        text-decoration: underline;
        color: #0000CC;
        }
a:hover, a:active {
        text-decoration: underline;
        color: #660066;
        }

iPhone特有のスタイルを加えることが可能

@media only screen and (max-device-width: 480px) {

        html {
                -webkit-text-size-adjust: none;
                }


2. オンラインスライドショーの最適化

スライドは、オンラインであまり利用されることがないコンテンツの一つに数えられる。動画、イメージ、ニュース、そして、ブログのコメントを最適化している人は大勢いる。しかし、スライドショーは競争の激しいマーケットで、実は上位にランク付けされるポテンシャルを持っている。

「startup」で7位に表示されているランド・フィッシュキン氏のスライドショーを確認してもらいたい。

スライドショーを上位にランクインさせるために、できることが幾つかある – そして、スライドショーへのビジターを増やし、ことによると、リファラーのトラフィックをサイトにもたらすことが出来る。

1. ターゲットのキーワードを選ぶ)

フィッシュキン氏は、次のキーワードを選んでいる:

[marketing for startups]

[inbound marketing for startups]

2. タイトル、URL & オンページの要素を最適化する

スライドをアップロードする際は、タイトルのフィールドが<title>タグとURLになる。そのため、必ずターゲットのキーワードをタイトルに組み込む必要がある。

フィッシュキン氏が作成したタイトルは、個性的ではあるものの、キーワード「inbound marketing for startups」が含まれている。

ご覧のように、タイトルとURLにこのキーワードが含まれている – 長さも理想的である。

3. スライドショーをクリック可能にする

スライドの一番下にリンクを組み込む必要がある。SEO的な価値はないものの、大量のリファラーのトラフィックをもたらす可能性がある。

4. ウェブサイトにスライドショーをエンベッドする

ランド・フィッシュキン氏は、スライドショーをSEOmozのブログにエンベッドしている。

5. プレゼンテーションをSlideshareのホームページに掲載する

Slideshareを利用すると、初日に大勢のユーザーに共有され、見てもらえた場合、プレゼンテーションをホームページに掲載してもらえることがある。その結果、さらに多くのページビューとトラフィックを獲得することが出来るようになる。

  1. 共有する準備が整ってからスライドをアップロードすること。
  2. スライドを投稿したらすぐにソーシャルネットワークで共有し、当該のネットワークの知り合いに共有してもらおう。
  3. bitly.comを使って、容易に共有することが可能なリンクを作る。

6. プロフィールを最適化する

スライドショーのプロフィールには、リンクを加えることが出来る。これはfollowedリンクではないが、それでも、リファラーのトラフィックをもたらす価値がある。

おまけのアドバイス: その他のプレゼンテーションサイトを試してみよう:

Slideshare以外にも多くのスライドショーのサイトが存在する:

www.slideboom.com

www.authorstream.com

www.sliderocket.com

www.prezi.com

www.scribd.com

www.myplick.com

Slideshareほどユーザーは多くないが、それが故に目立つことが出来る可能性もある。


3. ユーチューブを使ってサイトにトラフィックをもたらす

注記: このセクションで紹介するアドバイスの一部は、「ホワイトハット」の範疇を若干超えている。リスクの許容範囲および判断については、皆さんにお任せする。私は単純に技術的な事実を指摘しているだけであり、このような利用を常に推奨しているわけではない。しかし、オプションがあることを知っておく点は重要である。

それでは、ユーチューブで動画の視聴回数を増やし、リファラーのトラフィックを呼び込む方法を紹介する。

また、質が高くない動画を使って、アカウントを埋めたくなる気持ちは分かるが、長い目で見ると、出来るだけ質の高いコンテンツを利用した方が望ましい結果を得られる。

順番は重要ではないので、以下の手順を「パート」と呼ぶことにする。

パート 1 – 複数のアカウントを作る

リフォーム業界に関連するサイトを運営していると仮定する。会社の名前は「Quality Hardware」である。

その場合、次のブランドページを用意しておきたいところだ:

  1. /qualityhardware

また、その他の人を形容するアカウントも作る:

  1. /diyguy
  2. /homerepairman
  3. /toolshandyman
  4. /hammersandnails

1つのスプレッドシートにまとめ、アカウントと進捗状況を記録していく。

パート 2 – 3-4本動画を作成する

宣伝しているウェブサイトの要点を表現する動画を3-4本作成する。

質が高く、短い動画を心掛ける。

パート 3 – 動画に少し変更を加える(アカウントごとに変更する)

次に同じ動画を複数のアカウントに投稿していく。その際、ユーチューブの自動検出システムに同じ動画としてフラグを立てられることがないように、少し変更を加えていく必要がある。変更を加える方法は幾つかある:

  1. 音楽を変える
  2. 背景の色を変更する
  3. タイミングを少し変える(こうすることで、異なるプレビューのイメージを得ることが出来る)
  4. キャプションの色を変える

パート 4 – アップロードする

準備が整ったら、若干変化を加えた動画を全てのアカウントに投稿する。同じ動画を利用するのは3つのアカウントに留めておこう。

つまり、7つのアカウントを運営し、4本の動画を持っているなら、7つのアカウントに展開していくことになる。

  1. 最適化されたタイトル、ディスクリプション(概要)、そして、タグを利用する – 最適化のベストプラクティスを用いて、キーワードを絞る。
  2. また、クリック可能なリンクを動画自体にオーバーレイ表示させるアイデアも検討してもらいたい。
  3. 動画を文字に起こす(ユーチューブの自動文字起こし機能は、通常、質が低いため、自分で作成し、アップロードするべきである)。

キャプションをアップロードする

1. 既にキャプションがあるかどうかを確認する。

a. ユーチューブのアカウントにサインインする。

b. 動画にアクセスする。

c. 「Caption」(字幕)にアクセスする

2. キャプションが既に存在するなら、クリックして、読んでみる。

フレームごとに分割されている – 通常、自動文字起こしツールによる作業は質が低い(笑えるぐらい)。

次のように「Download」をクリックする。

4. 編集して、新しい字幕ファイルをアップロードする。

パート 5 – リファラーのリンクを組み込む

リファラーのリンクを組み込む際は、ディスクリプション(概要)内に掲載することになる。次の手順に従って、リンクを動画に含めよう:

  1. ディスクリプションの冒頭に導入する。さもなければ、奥深くに埋まり、ユーザーに見てもらえなくなる。
  2. 「http://」を含む全てのURLを掲載する – こうすることで、クリック可能になり、nofollowリンクとして有効になる。
  3. グーグルのURLビルダー - http://support.google.com/googleanalytics/bin/answer.py?hl=en&answer=55578を使って、各リンクの成果をより具体的に計測する。
  4. サイト内の深いページにリンクを張る場合は、URL作成のベストプラクティスを採用し、キーワードと記述的なワードをURLに組み込む努力をしてもらいたい。

パート 6 – 再生回数を早く増加させる。

オーガニック & 自然なマーケティングを私は常に提案している。そのため、以下のウェブサイトの利用を薦めているわけではない。しかし、実在することは確かであり、利用するかしないかは皆さん自身で判断してもらいたい。

次の無料のサービスは、手っ取り早く視聴回数を増加させる上で役に立つ。動画の視聴回数はユーチューブにおいて、重要な要素の一つに数えられる。

http://vagex.com/

http://view2.be

http://enhanceviews.net

http://u2bviews.com/

当然だが、公正ではないオプションを利用する前に、自然且つ長期的なメソッドを一通り用いて、動画への注目を高める努力をしてもらいたい。

パート 7 – その他のユーチューブのランキングの要素

  1. お気に入り
  2. コメント
  3. 共有
  4. グッド!
  5. 登録
  6. ページ/動画への外部リンク

おまけのアドバイス:

次の方法は事前に準備する作業が少し多いものの、ユーチューブの動画の再生回数を速やかに増やす上で効果が見込める。

  1. 再生回数が多く、また、ランキングの高い、似ている動画を探す。
  2. 当該の動画のタイトル、ディスクリプション(概要)、そして、タグを確認し、自分の動画にフィットするように少し変更を加える。
  3. Post your video
  4. 次に自分の動画、そして、参考にした動画へのコメントを要請する。ユーチューブが、2本の動画のつながり、そして、願わくば価値を見出してもらうことを期待する – ユーチューブが、再生回数の多い動画と新しい動画を関連付け、新しい動画のランクを上げる可能性がある。

また、動画をウェブサイトにエンベッドしているなら – 自動再生を回避するべきである。ユーザーに嫌がられるだけでなく、エンベッドされた動画の再生回数がカウントされないと言うデメリットがあるためだ。


4. ローカル検索のテクニック

多くのローカルSEOのガイドは、リスティング全体で同じNAP(名前、アドレス、電話番号)を利用する、または、サイテーションの数を増やす等の一般的なアドバイスを終始している – このガイドでは、この手の基礎を皆さんが既に心得ていると仮定して、話を進めていく。

アドバイス #1. WHOISの情報 – NAPと一致していることを確認する。

 http://whois.domaintools.com/を使って、whoisを確認する。

アドバイス #2. ローカルのリスティングに登録する際は、実際のビジネスの場所から登録する。

アドバイス #3. GPSのデータサービスを使って、リスティングを修正する。以下に私が知っているサービスを幾つか挙げる。

http://mapreporter.navteq.com/

http://mapinsight.teleatlas.com/mapfeedback/index.php

それでは各サイトのプロセスを説明する

NAVTEQ

まず、加えたいリスティングが既に存在するかどうかチェックする。シアトルにあるこのピザレストランを例にとって説明する。

次に新しいリスティングを加える、または、既存のリスティングを編集していく。

情報を入力する。

TELEATLAS

Teleatlasでも同じようなプロセスを実施する。

アドバイス #4 – マイクロフォーマットのhCardを使って、連絡先の情報を表示させる。

hCardsは、人物や団体に関する情報をセマンティックに表示するために幅広く利用されている。

http://microformats.org/wiki/hcard

hCardをこのピザレストランのために作るとしたら、次のようなコードを用いることになるだろう:

<div class="vcard">

 <a class="fn org url" http://www.piecoras.com/">Piecoras</a>

 <div class="adr">

   <span class="type">Work</span>:

   <div class="street-address">1401 East Madison Street</div>

   <span class="locality">Seattle</span>,  

   <abbr class="region" title="Washington">WA</abbr>&nbsp;&nbsp;

   <span class="postal-code">98101</span>

   <div class="country-name">USA</div>

 </div>

 <div class="tel">

  <span class="type">Work</span> +206-322-9411

 </div>

 <div>Email:

  <span class="email">info@piecoras.com</span>

 </div>

</div>

hCardを作るため、このコードをテンプレートとして利用してもらって構わない。


5. フェイスブックのオープングラフをインストールする

これは高度なガイドである点を思い出してもらいたい。大半のウェブサイトは、残念ながら、フェイスブックのいいね!ボタンをウェブサイトに完全に統合しているとは言えない。ここからは、細部にこだわり、基本的なアプリのアカウントの作成、そして、オープングラフのメタタグの導入等、いいね!ボタンを完全にインストールする方法を手順を追って説明していく。

このガイドでは、いいね!ボタンをウェブサイトに導入するメリットを理解していると仮定する。詳細な説明はフェイスブックの文書で確認してもらいたい –  http://developers.facebook.com/docs/reference/plugins/like/

このプロセスは6つのステップに分けられる:

        1. フェイスブックアップ IDを作成する

        2. いいね!ボタンのコードを取得する

        3. オープングラフのタグを入手する

        4. いいね!ボタンのコードを統合する

        5. オープングラフのコードを統合する

        6. デバッガを使って確認する

尚、このセクション全体で、フェイスブックにログインする必要がある点に注意してもらいたい。 :-)

ステップ 1: フェイスブックアップ IDを作成する

フェイスブックページのアプリにアクセスし、“create a new app”をクリックする。

https://developers.facebook.com/apps/

ここでは、アプリを作成するための基本的な情報を入力する。アップ ID #のみを獲得する。

アップの名前にウェブサイトの名前を利用することも出来る。Continueをクリックする。

次の画面にアップ ID #が表示されているはずだ。番号をテキストエディタに保存しておこう。

アップを作成する残りのプロセスに取り掛かる。先程も申し上げたように、目的はあくまでもアップ IDを獲得することだが、フォームの入力を最後まで行う必要がある。

アイコンを加えることが出来る。

フォームの入力を完了し、変更を保存する。これでアップのIDを取得するステップは終了した。続いて、いいね!ボタンのコードを取得する段階に進む。

ステップ 2: いいね!ボタンのコードを取得する

いいね!ボタンおよびオープングラフのフォームは次のURLに用意されている:

http://developers.facebook.com/docs/reference/plugins/like/

はじめに、いいね!ボタンのコードを獲得する。非常に簡単に手に入れることが可能である。

“URL to Like”を空白にしておく(ボタンがどのページに配置されているにせよ、フェイスブックに動的にこの欄を埋めさせるため)。後はデザインと機能の選択を行うだけだ – ボタンのサイズ、顔を見せるかどうか等、皆さんの判断に任せる。

次にコードを取得する。

「Get Code」をクリックすると、次のウィンドウが表示される。

(私がこの記事を綴っている時点では)ワードプレスはHTML5と完全に互換しているわけではないため、XFBMLフォーマットを選んでおきたい。 恐らく、皆さんの多くがワードプレスを利用していると思うので、このフォーマットが現時点では最善の選択だと言える。

正確なアップ IDをドロップダウンメニューから選択する必要がある(ステップ 1で作成したID)。

ここでは、コードの3つのセクションを全てコピーし、テキストエディタに保存しておく(アップ IDと共に)。

アップ IDがマッチしていることを再確認しておこう。

これでコードを保存した。次にオープングラフのタグを取得する工程に移る。

ステップ 3: オープングラフのタグを入手する

オープングラフのタグは、ウェブサイトのヘッダーに挿入する。オープングラフのコードを獲得したページ(スクロールダウン)と同じページを利用する。

http://developers.facebook.com/docs/reference/plugins/like/

ここでは3つのフィールドに記入する。残りは空白にしておく(やはりフェイスブックに動的に記入してもらうため)。

ドロップダウンからウェブサイトのタイプを選択する。ウェブサイトの名前を入力する。

アップ IDを覚えているだろうか?IDを「Admin」に貼り付ける。

ステップ 4: いいね!ボタンのコードを統合する

繰り返すが、皆さんがワードプレスを利用していると仮定して話を進める。コードの導入部の大きな塊を「body」のすぐ下に配置していく。 ワードプレスの大半のユーザーにおいては、Editor -> header.phpファイルを採用することになる。

まず、Appearance -> Editorにアクセスする。

そこから、header/phpファイルに向かう。

オープニングの<body> タグを見つける。

一つ目のコードの塊をコピーして、[body]タグのすぐ下に貼り付ける。

次に、htmlタグ内に2つ目のコードを貼り付ける。フェイスブックの文書によると、このコードは、インターネットエクスプローラの一部のバージョンでの互換性を確立する効果があるようだ。

3つ目のコードはいいね!ボタンの部分である。今までのコードはいいね!ボタンを助ける補足のコードである。

Quicksproutでは、いいね!ボタンを右側のサイドバーに用意している。

大半のワードプレスのユーザーは、ワードプレスのウィジェット内に搭載することになる。そこで、Appearance -> Widgetsにアクセスしていく。

テーマによっては、“right sidebar”、“post sidebar”、あるいは、“pages sidebar”と呼ばれるサイドバーが用意されている可能性がある。基本的に、いいね!ボタンを掲載したいページの全てのウィジェットに対して、同じ作業を実施しておきたい。一つのサイドバーにボタンを加えれば済む人もいれば、2つ、または3つのサイドバーを利用する必要がある人もいるだろう。

“Text” ボックスを“available widgets”からドラッグして、落とす。テキストボックスを使うと、HTML等を使って、コードを挿入したり、作成したりすることが可能になる。これは多目的のウィジェットであり、いいね!ボタンのコードに最適である。

タイトルを入力することも出来る。すると、テキストエリアに見出しが加えられる。

いいね!ボタンの3つ目の部分をコピーし、“Text”ウィジェットに貼り付ける。

- ツイートボタンやピンタレスト等、その他の要素をテキストボックスに加えることも可能である。

ステップ 5: オープングラフのコードを統合する

最後のステップは最も技術が要求される手順である。しかし、ここまで辿りついたなら、諦めないでほしい。完全にオープングラフを導入することで得られるメリットを考えると、努力する価値はある。

PHPを統合するため、オープングラフのコードを新しいファイルに移し、php.fileの拡張子を使って名前をつける。このファイル自体を利用するわけではないものの、こうすることで、テキストエディタは、シンタックスとマッチさせるために色をつけるため、コードが見やすくなる。

心配する必要はない。基本的に、オープングラフのタグを完成させるために切り取り & 貼り付けを繰り返し、最終的にワードプレスのheader.phpファイルに配置するだけだ。

次のような.phpファイル内のコードが表示される。

1. テーマのタイトルタグのコードを取得する。

当然だが、タイトルタグと同じオープングラフのタイトルタグを作成する。いいね!ボタンが利用される際に、ウェブでページが表示される構造をコントロールする必要がある。

これはワードプレスのテーマのheader.phpファイルである。<title>と</title>の間のアイテムをコピーする。

テーマのheader.phpファイルに再びアクセスし(Appearance -> editor)、<title>タグを探し出す。タイトルタグの間のコードをクリップボードにコピーする。実際のコードは重要ではない。タイトルがウェブサイトで正しく動いていると仮定する。このコードは、テーマまたはSEOプラグインによって、若干異なる可能性がある。正確にコピーすることが肝要だ。

これは、コードが割と標準的であり、Yoastのワードプレス用のSEOプラグインを利用している典型的な例である。Yoastの素晴らしいプラグインを利用すると、タイトルタグのコードは常に次のように表示される:

<?php wp_title(‘ ‘); ?>

タイトルタグのコードを、次のように、オープングラフのタグ内のタイトルのプロパティの間に貼り付ける:

これは、オープングラフのタグのタイトルのプロパティにYoastのタイトルタグのコードを貼り付ける方法である。

2. 次にURLのプロパティを埋めていく必要がある。ここでは、現在のページのURLを動的にこのフィールドに挿入していく。

以下のコードのスニペットを利用する:

<?php echo $_SERVER[“HTTP_HOST”] . $_SERVER[“REQUEST_URI”] ?>

このコードを切り取り、オープングラフのタグのURLのプロパティにそのまま貼り付ける。

3. 次に、フェイスブックの指示に背き、イメージのフィールドを空白のままにしておく。なぜかと言うと、こうすることで、コンテンツを共有してくれる人には(大抵)表示させたいイメージを選ぶオプションが与えられるためだ。

4. サイトの名前を入力する。

5. アップ IDを覚えているだろうか?ここでも“app_id”フィールドにIDを入力する。

これでオープングラフのタグの準備が完了した。

7. オープングラフのコード全体をウェブサイトの<head>に貼り付ける。

再びheader.php (Appearance -> editor)にアクセスする。コードの<head>エリア内でその他のメタタグ(メタディスクリプション等)のすぐ下に貼り付ける。

これで最も難しいステップはクリアした。次にデバッグを実施する。

ステップ 6: オープングラフのテスト & デバッグ

このステップは絶対に必要なわけではないが、テスト用のツールが存在するので紹介しておく。また、オープングラフのコードのソースを確認し、ざっと目を通し、全て適切に表示されているかどうかチェックすることを薦める。

デバッガにアクセスするには、次のURLを訪問する:

http://developers.facebook.com/tools/debug

デバッグを実施したいページのURLを入力して、実行する。


6. Click to Tweetを作成する

引用または短いアイデアをリストアップした文書を持っていると仮定する。その場合、ボタンをクリックするだけで、そのまま引用をツイートすることが出来たら、言うことはないはずだ。実は、 http://clicktotweet.com/と呼ばれるツールを利用すると、その願望を実現することが出来る。

ステップ 1 – コンテンツを準備する

短いアイテムのリストなら何でも構わない。例えば、私は「ツイッターのパワーユーザーになるための100通りの方法」を取り上げた記事を投稿している - http://www.quicksprout.com/2012/01/30/100-ways-to-become-a-twitter-power-user/

この記事の中で、私はツイッターの事実を並べたリストを提供している:

  1. Seventy-two percent of power users publish a blog post once a month.
  2. Seventy percent comment on other blogs.
  3. Sixty-one percent write at least one product review a month.
  4. Sixty-one percent will leave comments on news sites.
  5. Power users are six times more likely to guest post.
  6. Five times more likely to run a blog.
  7. Seven times more likely to post to Wikis.

このリストをツイート可能なツイートに変えていく。一緒に試すことが出来るように、コンテンツを準備してもらいたい。

ステップ 2 – Click to Tweetを使って、リンクを作成する

1. ツイートを組み立てる。

  1. Quote
  2. Link
  3. Author

ここでは、それぞれ次のアイテムを利用していく:

  1. Quote – "Seventy-two percent of power users publish a blog post once a month."
  2. Link – http://bit.ly/JlMcWi  <–bitlyのリンク
  3. Author – via @neilpatel

すると次のようなツイートが出来あがる:

"Seventy-two percent of power users publish a blog post once a month." http://bit.ly/JlMcWi via @neilpatel

2. このツイートをClick To Tweetにつなげる。

3. Generate Link!をクリックする。

ステップ 3 – コンテンツ内にリンクを加える。

次のように各引用の後にハイパーリンクを加えるだけでよい:

<li>Seventy-two percent of power users publish a blog post once a month.</li>

<a href="http://clicktotweet.com/tL79h">Tweet this fact!</a>

どのように表示したいかに応じて、次のように、引用自体をクリック可能にすることも出来る:

<li><a href="http://clicktotweet.com/tL79h">Seventy-two percent of power users publish a blog post once a month.</a></li> – Click to Tweet This Fact!

全ての引用、または、事実に対してこの作業を行おう。


7. ユーザーがソーシャルネットワークにログインしているかどうかを確認する

次のコードを利用すると、サイト内で直接、ユーザーが、ツイッター、グーグルプラス、または、グーグルにログインしているかどうかを把握することが出来るようになる。フェイスブックについては、APIを介して作業を行う必要があるが、その他のネットワークに対しては、特殊な次善策が必要になる。

このメソッドを用いると、ログインしているソーシャルネットワークに応じて、コンテンツを異なる方法で表示させることが出来る。判断は皆さんにお任せする。

ユーザーのプライバシーを留意し、不安を与えるような行為は慎むべきである。また、このコードは第三者のソースに左右され、いつ壊れてもおかしくない。この点はその他のメソッドにも言えることだが、今のところ問題なく動作している。

ステップ 1 – ヘッダーにコードを加える

この例では、htmlの文書をテキストエディタを使って、設定する。機能を説明していくので、状況に応じて利用してもらいたい。

このコードを<head>セクションに加える。

注記: ワードプレスを利用しているなら、このコードをheader.phpファイルに貼り付けることが可能である。

それではコードを一つずつ見ていこう:

これは単純に基本のスタイルシートを呼ぶ:

<link rel="stylesheet" href="styles.css">

このセクションはツイッターとグーグルのAPIを呼び出す:

<script src="https://ajax.googleapis.com/ajax/libs/jquery/1.7.1/jquery.min.js"></script>        

<script type='text/javascript' src='http://platform.twitter.com/widgets.js?ver=1.1'></script>

このセクションは、ログインしているかどうかを表示する関数を加える:

<script type="text/javascript">

                

                        function show_login_status(network, status)

                        {

                                if (status)

                                {

                                        $("#" + network + "Status").html("Currently logged into <span class='red'>" + network + "</span>");

                                }else{

                                        $("#" + network + "Status").html("Not currently logged into <span class='green'>" + network + "</span>");

                                }

                        }

        </script>

次に<body>を加えていく。

ステップ 2 – ログインしているかどうかを表示するためのHTML

次のコードをHTMLに加える。

重要な部分を赤線で囲んだ。これは、ユーザーがログインしているかどうかを表示するidとクラスである。

以下にコードを掲載する:

<div class="container">

        <section>

                <div class="row">

                        <div class="page-header">

                                <h1>Detecting Social Networks Logged Into</h1>

                        </div>

                                

                        <p>You can see below it is detecting if I am logged into Twitter, Google or Google Plus.</p>

                        

                        <div id="TwitterStatus" class="outputStatus"></div>

                        <div id="GoogleStatus" class="outputStatus"></div>

                        <div id="GooglePlusStatus" class="outputStatus"></div>                

                                

                </div>

        </section>

</div>

加えるコードは残りあと一つだ。

ステップ 3 – ログインしているかどうかをチェックする機能

このコードをHTMLの下の方に追加する。

この部分は、グーグルとツイッターにユーザーがログインしているかどうかを答えさせる力を持つ。

コードを掲載していく:

<img style="display:none;" onload="show_login_status('Google', true)"

onerror="show_login_status('Google', false)" src="https://accounts.google.com/CheckCookie?continue=https://www.google.com/intl/en/images/logos/accounts_logo.png" />

<img style="display:none;" onload="show_login_status('GooglePlus', true)"

onerror="show_login_status('GooglePlus', false)" src="https://plus.google.com/up/?continue=https://www.google.com/intl/en/images logos/accounts_logo.png&type=st&gpsrc=ogpy0" />

<img style="display:none;" src="https://twitter.com/login?redirect_after_login=%2Fimages%2Fspinner.gif" onload="show_login_status('Twitter', true)" onerror="show_login_status('Twitter', false)" />

このコードは、イメージ(実際にイメージを表示するわけではない)を呼び出すことで、動作している。ユーザーがログインしている場合、‘true’を返し、ログインしていない場合は、‘false’を返す。

これが最終的なアウトプットだ。


8. グーグルプラスのバッジをインストールする

次に、グーグルプラスのバッジをサイトにインストールする手順を紹介する。このバッジから、個人のグーグルプラスのページにリンクを張ることになる。

準備: グーグルプロフィールのIDを探す

グーグルプラスのプロフィールページ - http://plus.google.com/ にアクセスし、ログインする。URLにプロフィールのIDが掲載されている。私のページのURLで確認してみよう:

この長い数字の列が私のIDだ。

IDを探し、保存しておく。

ステップ 1: バッジのプロフィールの設定ツールにアクセスする

次のURLを訪問する - https://developers.google.com/+/plugins/badge/personal-config

大勢の人達が、グーグルバッジのページにアクセスしようとする - https://developers.google.com/+/plugins/badge/  – しかし、実際には役に立つどころか混乱を招く可能性がある。

そのため、私はプロフィールの設定ツール - https://developers.google.com/+/plugins/badge/personal-configに直接アクセスすることを進める。

このページでは、容易にグーグルプラスのバッジに加える必要があるアイテムを作成することが出来る。

ステップ 2: プロフィールのIDを入力し、コードを取得する

準備段階で見つけたIDを覚えているだろうか?そのIDを下のボックスに貼り付けよう:

チェックマックと“looks good”がIDの隣に表示されている点を確認してもらいたい。

“badge”と言語を選択する。

上級者向けのオプション

グーグルはこの情報を明らかにしていないが、実は幾つか異なる表示のオプションを利用することが出来る。

オプション A – 名前を表示させる

幅 260が最適だと私は判断した。名前を掲載する場合、最も小さなサイズが260ある。

オプション B – 2つのバッジを並べて表示させる

このオプションはあらゆるサイトに利用することが出来るはずだ。最低限の余白付きで2つのバッジを維持する上で、最適なサイズは170である。

オプション C – 2つのバッジを重ねて表示させる

幅 100ピクセルは許容される最小のサイズであり、最低限の余白付きで2つのバッジを重ねて表示させるレイアウトとして、最も望ましい。

どのサイズを選んだにせよ、自動的にコードが生成されるはずだ:

このコードは2つのセクションで構成されている:

1. 全てのページの[head]に掲載されるJavaScript(全てのページにバッジを掲載すると仮定)。

2. 実際のボタンのコード。HTML内でボタンを表示させたい場所に挿入する。

それでは、実際にコードを加えていこう。

再び(このガイドで何度も実施してきたように)ワードプレスでAppearance->Editorの順にアクセスし、header.phpファイルを見つける。

ステップ 3: サイトにコードを加える

コードの最初の部分を<head>に貼り付ける。

出来れば、その他のJavaScriptのコードのそばに配置したいところだ。

コードの2つ目のパーツをボタンを表示させたい場所に貼り付ける。私のサイト(Quicksprout)の場合、グーグルプラスのバッジを掲載するなら、次の場所に表示させるだろう:

私はこの部分をウィジェットを使って管理しているため、ワードプレスでウィジェットにアクセスして、コードを加える。その方法を紹介する。

Appearance->Widgetsにアクセスする。

ボタンを置く場所に応じて、既存のテキストウィジェットまたは新しいウィジェットを使う。

コードをテキストウィジェットに貼り付ける:

注記: 貼り付けたものの、サイトにフィットしないなら、このステップでもサイズを調整することが出来る。


結論

最後まで辿りつき、このガイドで紹介したテクニックを実装することに成功した皆さんには、お祝いの言葉をかけてあげたい。SEOは、大変な仕事になることもあるが、見返りは得られるはずだ。優れたコンテンツを作成し、ソーシャルネットワークで活発に交流を行う取り組みに加え、このガイドのアドバイスの大半に従ってきたなら、きっと無我夢中で作業に打ち込んできたのだろう。しかし、その努力は必ず報われるだろう。

上級者向けSEOガイドの記事一覧はこちらから


この記事は、Quick Sproutに掲載された「Chapter 9: Search Verticals」を翻訳した内容です。

相変わらずの濃すぎる内容でした。。。かなりマニアックな世界に入りつつありますが、1つ1つどれもチャレンジする価値(=トラフィックが増える)は確実にあるはず。最後に少し間が空いてしまった今回のSEOガイドですが、新シリーズもありますので今後また新たに紹介していきたいと思います! — SEO Japan [G+]

マーケティング・ファンネルをSEOに活用する方法

ファンネルといえばガンダムを思い出す人も多そうですが、本来の意味は「じょうご(漏斗)」、集客から申し込みまでのコンバージョンプロセスを考える時に常とう手段で使われるメタファーですね。その過程で様々なチャンネルや手法が利用されるわけですが、今回はマーケティング全般に幅を拡げた上でユーザーとの関係性をファンネルに落とし込み、かつSEOに焦点を当て、その価値と活用法を探ってみようという大人な記事を。 — SEO Japan

今月のコラムでは、コンテンツマーケティング戦略について探っていく — SEOに関連しているためだ。多くの企業が、マーケティングファンネルの購入の部分に必要以上に焦点を当てているが、これは間違いである。

PPCでは現金が配置を買う

SEOを取り上げる前に、まずは、対照的なアプローチとして、PPCを見ていく。有料検索の世界では、検索エンジンのオーディエンスにアクセスする権利を借りていることになる。つまり、ブランディングが目的ではないなら、コンバージョンとROIが最も優先される。そのため、購入する意思が高いキーワードから始めるのが妥当な方針だと言えるだろう。販売目的のキーワードをシリンダーの全ての段階に展開したら、セールスファンネルを上に移動し、欲望にマッチするキーワードを狙って、入札を始めるプロセスに移る。

限界まで入札を行ったら、信頼に密接に関わる検索クエリを購入する。このPPCのキーワードの選出プロセスは、マーケティングファンネルの一番上 — 認知 — にたどり着くまで継続する。セールスファンネルから着手し、上に向かって進むのは、ファンネルの下のセクションを初めに限界まで活用しない状態では、ROIの低いキーワードに入札するしか、選択肢がなくなってしまうためである。

潤沢な予算を持っていると仮定しても、購入向け、そして、キャンペーンやランディングページを最適化するためのキーワードには、限りがあるはずだ。そのため、 いずれ、支出を減らし、また、セールスに出来るだけ大勢のユーザーを向かわせることを目指したマーケティングファンネルの高い位置でのキャンペーンに歯止めを掛けなければならなくなる。現金が配置を買うため、PPCの場合はこの戦略が功を奏する。

Marketing Funnel

様々なマーケティングファンネルやセールスファンネルが考案されており、その中には非常に複雑なものもある。

上から、認知、信頼、欲望、セールス、顧客のサポート、維持 & アップセル

SEOにおいてはオーソリティが必要

自然な検索においては、現金でビジビリティを買うことは出来ない。その代り、オーソリティと関連性が貨幣の役割を果たす。オーソリティは、リンク、そして、ソーシャルメディアでのシェアから得られる。ここで注意してもらいたい点がある — 有料検索では現金とキーワードを結びつけることが出来るものの、リンクとキーワードの間には相互的な関係はほとんど存在しない。事実、最もコンバートする自然のキーワードは、リンクの価値がもっとも低い可能性がある。

最高のPPCのキーワードに対して、ページのコンテンツをSEOするほど、容易ではない。オーソリティが欠ける状態では、コンテンツは上位にランク付けしてもらえない。

オーソリティを理解する

自然検索では、– ページとドメイン — の2つのタイプのオーソリティが存在する。ページのオーソリティは、文書に向けられたリンクの本数から得られる。オーソリティの要素を幾つか挙げていく:

  • 文書に向けられた内部リンクの本数
  • サイトのウェブの構造における、文書の配置
  • 文書に向けられた外部のリンクの本数
  • 文書にリンクを張るドメインの数
  • 文書にリンクを張るページそれぞれのオーソリティの量(外部リンクの本数で割る)

ドメインのオーソリティ、または、サイトワイドのオーソリティは、ページのオーソリティの総計である。同じように、このタイプのオーソリティにおいて重要な要素を挙げていく:

  • ウェブサイトが持つ全てのページオーソリティの合計
  • 外部からのリンクを受けているページの合計
  • ウェブサイトが新たにリンクを受け、人気が高くなっている点を証明する、新鮮さや速さ等のトレンド

ソーシャルメディアのリンクおよびブランドの言及の回数もオーソリティの構築に貢献する。コンバージョンの量、そして、メッセーンジャーの影響力が特に重要だと見られているが、インパクトに関して詳しいことは分かっていない。

要するに、オーソリティの大半は、外部から得られる。だからこそ、SEOのプロセスにおいて、リンク構築が重要視されているのだ。

リンクに値するコンテンツ vs コンバージョンの高いコンテンツ

オーソリティとリンクの価値を理解したら、リンクに値するコンテンツについて検討し、SEOの最適化戦略を立案する工程に移る。

eショッピングサイトでは、コンバージョンの高いページは、リンクに値しないと言う不都合な事実が存在する。例えば、ビリヤードの機器を販売しており、ボール、キュー、備品、そして、台が多数掲載されたカタログを持っていると仮定しよう。各製品のページをそのキーワードで上位にランクインさせることは重要だが、大量の被リンクが集まる可能性は低い。

反対に、適切に球を打つ方法等、ベーシックなhow to記事から、トーナメントに向けて、テーブルのサイズを変えていく方法等の上級者向けの情報を含む、記事、そして、参考になる資料が多数提供されたブログをウェブサイトで運営していると仮定する。面白い記事は、多数のリンク、そして、ソーシャルシェアを獲得することが出来るかもしれないが、多数の製品の販売につながる確率は低い。セールスページを上位にランクインさせたいため、ブログの記事をコンバージョンの高いキーワードに対して最適化したくはないはずだ。

次にソフトウェアのスタートアップ会社を例にとって考えてみる。毎年、大規模な製品を1点リリース、または、アップグレードして、オーソリティの高いニュースメディアのリンクを獲得している。それは良い傾向だが、その他の364日間はどんな調子だろうか?このスタートアップが、検索エンジンが見返りを与える、新たなリンクとソーシャルシェアを継続的に獲得するには、どうすればいいのだろうか?

コンバージョン率が最も高いのは製品ページであり、一方、最も多くのリンクが寄せられるのは、製品やサービスを買うかどうかは別として、ビジターが読みたい、参考にしたい記事や参考になる情報である。そして、マーケティングファンネルで、リンク構築のポテンシャルが最も高いのは、ファンネルの最上階に位置する認知レベルである。

SEOがインバウンドマーケティングになる

カタログページの最適化だけ、あるいは、優れたガイドや指南書の作成だけでは不十分であり、ウェブサイト全体のコンテンツと宣伝の双方に取り掛かる必要がある。

マーケティングファンネルの各階層に対して、次の質問に答えていってもらいたい

  • どのキーワードがフィットするか?
  • どのようなタイプのコンテンツをビジターは期待しているのか?
  • どのコンテンツをビジターに見てもらいたいのか?
  • どの検索の意図をビジターは満たしたいのか?(ナビゲーショナル、インフォメーショナル、コマーシャル、トランザクショナル、エンターテイメント)
  • マーケティングファンネルをどのように下ってもらうのか?
  • コンテンツを宣伝することは可能か?どのように宣伝するのか?

次に、各レベルに対するコンテンツ計画を、続いて、獲得および維持計画を策定していく。以下に例を挙げる:

ビジターを「認知」から「信頼」に移ってもらう

  • 参考になる情報、業界のニュース、そして、製品のニュースを通して、ビリヤードの愛好家を集める。
  • テキストの記事、動画、オンラインセミナーを提供する。
  • ホームページとソーシャルメディアのアカウントでコンテンツを宣伝する。
  • リンクの獲得を目指した価値の高いコンテンツに関して、影響力の高い友人にeメールで報告する。
  • eメール経由でブログに購読してもらう、または、限定の勉強になるコンテンツ、そして、特売情報を掲載する週刊のニュースレターに登録してもらって、名前とeメールアドレスを獲得する。
  • ファンネル全体に取り組む。

Marketing Funnel

各レベルに対するコンテンツ計画を作り、その後、SEOを行う。

リンク構築と外部への宣伝を組み合わせるのは、難しい。だからと言って、諦めてもらいたくない。また、SEOに特化したコンテンツの作成も中止してもらいたくない。マーケティングファンネルの全てのレベルで良質なコンテンツを用意し、ビジターを認知から購入に向けて、進んでもらう必要がある。この中には、記事、ガイド、ケーススタディ、ホワイトペーパー、動画、オンラインセミナー、スライドショー等が含まれる。

ドメインのオーソリティのおかげで、リンクがなくても、高いランキングを獲得することが出来る可能性がある。ドメインのオーソリティが確立されていくと、作成し、キーワードを意識して最適化したページは、上位にランクインし、さらに、トラフィックを獲得するようになるかもしれない。時間はかかるかもしれないが、その努力に値する見返りを得られることが出来る。

また、カスタマーサポートを無視するべきではない。充実したヘルプのセクションは、自然なトラフィックの源として貢献する効果が見込める。顧客に参加する機会を与えてもらいたい。投げ掛けられた質問に対する答えをブログで提供したり、コンテストに参加させたり、あるいは、褒美として、参加者限定のコンテンツを用意したりする等、手を打つべきである。そして、リンクを顧客のソーシャルメディアのアカウントで容易にリンクをシェアすることが可能な環境を作って、顧客をファンに変えるべきである。

繰り返すが、まずは良質なオンラインマーケティングプログラムを策定し、次にSEOに取り掛かる必要がある。キーワードのリサーチによって、具体的な記事やページに関するヒントを得られたら、マーケティングに真摯に取り組みつつ、いち早くこのようなコンテンツを配信していく必要がある。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「How To Use The Marketing Funnel For SEO & Inbound Marketing」を翻訳した内容です。

簡潔ながら、中々に「わかった」記事だったと思います。この種のマーケティングファンネルは最近流行のインバウンドマーケティング的発想の根本に位置するものとも思いますが、その中でSEOを単なる検索エンジンでの上位表示手法として捉えるか、またはSEOをより深く理解し、その検索視点の発想を様々な局面で活かせるかどうかで、インバウンドマーケティングの成果も大きく変わってくるんだろうな、、、としみじみ感じた内容でした。 — SEO Japan [G+]

エンティティを制する者が未来のSEOを制す

今後の検索における最重要その一つとしてエンティティ検索に関する記事を何度か取り上げてきましたが、今回はセマンティックウェブの専門家がエンティティやSEO含めた検索エンジンの未来についてインタビュー形式で答えた、わかりやすくて勉強になる記事を。ハミングバードアルゴリズムでキーワードの重要性が薄れるという話がありますが、これを読むともう少し本質レベルで理解が深まります。 — SEO Japan

SEOの未来を想像してもらいたい。– キーワードやその類義語の利用について、考える必要がない未来だ。未来のSEOでは、このような戦略は時代遅れになる。未来の検索エンジンは、内部で、信頼されている文書にリンクする認証済みのデータと照合し、クエリに対する答えをユーザーに提供する。

killer seo new1未来の検索に対してウェブサイトを最適化するには、SEOの当事者は、よく絞り込まれた、焦点が絞られ、あるいは、範囲が限られたクエリに答えるウェブページ上で、関連する、機械が認識することが可能な「エンティティ」を作成する必要がある。

エンティティを作るため、セマンティックウェブのテクノロジー、そして、構造化データの利用が進む。すると、検索エンジンは、ページの内容をより正しく理解し、それぞれのクエリに対して、より妥当な検索結果/答えを提供することが可能になる。

この記事では、未来のSEOを行う理由を説明し、そして、その方法を紹介していく。

検索 & SEOの未来を語る

先週、グーグルグラスやグーグルナウ等、最近のグーグルのイノベーションを考慮した上で、検索 & SEOの未来について、良き友人であり、仕事上の仲間でもあるバーバラー・スターと議論を交わした。その際、その見解をこの記事で紹介することに同意してもらった。

セマンティックストラテジストとしてのバーバラ・スターの経歴は目を見張るものがある。キャリアの早い段階で、バーバラ・スターは、High Performance Knowledge Bases(HPKB)プロジェクト — コンピュータが、知識を取得し、提示し、操作するテクノロジーを進歩させるための国防高等研究計画局(DARPA)のリサーチプログラム — に参加した。また、DARPAにおいては、PAL プログラム(後にSiriになる)を含む、その他のプロジェクトにも貢献してきた。

2009年にスターに出会った時、SEOと検索エンジンのテクノロジーの関係について会話を交わした。時間の経過とともに、この会話は、検索およびセマンティックウェブの過去の事実、そして、今後の可能性を語る議論へと姿を変えていった。その後、この議論は、検索エンジンでキーワードを利用する理由に関する議論へと発展し、最終的に、エンティティ検索、そして、String Entity Optimization(文字列のエンティティの最適化: SEO)のコンセプトが導き出されたのであった。

グーグルやその他の検索エンジンは、IP、シグナル、そして、アルゴリズムにとても敏感であり、次に検索にもたらされる変化を推測することは、SEOの関係者にとって、容易ではなかった。今回の投稿では、スターと私が意見を出し合い、たどり着いた見解を紹介する。当然だが、グーグルが今後どのような取り組みを行うのか、私達には分からない。しかし、グーグルやその他の検索エンジンが、現在、採用している検索およびセマンティックテクノロジーに関しては、基本的なコンセプトを見出すことが可能であり、ここから、検討する価値のある、実現可能な取り組みを明らかにすることが出来る。

検索でキーワードを利用する理由

: なぜ、これほどまで長い間、私達は検索でキーワードを利用してきたのでしょうか?

バーバラ・スター: キーワードは、検索の歴史において、人為的な影響を受けるアイテムとして、進化を遂げてきました。キーワードは、音声検索やジェスチャー検索等のメカニズムが成熟していなかった時代、キーボードのような非効率的な入力メカニズムしか存在しなかったため、利用されていました。当然ですが、音声検索等、行動による結果を機械で提供するには、まだまだ解決するべき課題は残っています。

つまり、キーワードのみのクエリは、最終的になくなると、私は考えています。クエリ全文を入力するのが大変だったため、そして、音声認識、タッチスクリーン等、効果的なテクノロジーがなかったため、キーワードは存在したのです。しかし、現在、検索エンジンは、長い文や本格的なフレーズを好む傾向が見られます。このようなフレーズは、クエリ内の前後の関係、そして、ユーザーの意図に関する情報を(直接クエリの「明確」な要素を介して)得られるためです。私なら、デバイス、居場所等、「状況」に応じて、「黙示的」な要素を様々なサブカテゴリに分類します。

また、ハードウェアの面では、ムーアの法則が関係しています。かつて、源となるコンピュータのパワーが不足しており、また、検索エンジンにはパフォーマンス等を意識させる必要があったため、この奇妙なキーワードシステムを利用せざるを得なかったのです。当時、このシステムに勝るテクノロジーは存在しませんでした。言うまでもないことですが、グーグルが、キーワードの宣伝および収益化に長けていたことも理由の一つです。

delivery search

検索 [delivery]

「キーワード」に答える「アンサーエンジン」など、夢にも思いませんでした。前後の関係がない状態で、どこからともなく突然、誰かに「delivery」(デリバリー)と言ったら、変人扱いされてしまいます。しかし、現在の検索エンジンは、ユーザーが検索の履歴や場所等、コンテクスト(背景)を提供している場合、食べ物に関連するレストランのカルーセルが表示されます。また、ユーザーによってこの結果が有益ではないと判断されると、2番目のアルゴリズムが稼働し、eコマースタイプのデリバリーの結果を提供します。この際、ナレッジグラフのエンティティが用いられます。ここから、グーグルが「コンテクストそのもの」を引き出すのです。

: キーワードが重要ではなくなる日はやって来ると思いますか?

バーバラ・スター: SEOの関係者の間では、キーワードにほとんど依存しない構造は、大きな混乱を招くかもしれません。しかし、多くの検索が、1時間後には対象から外れるクエリを持つ、アンサーエンジンを構築するため、10年間を費やした私にとっては、それほど大きな変化ではありません。

Sindice.com等の検索エンジンを例にとって考えると分かりやすいと思います。Sindice.comは、ウェブ上のページをクロールし、HTMLから構造化データのメタデータを抽出し、そして、その他の部分を捨て、「エンティティ検索」として内部で直接検索を行うため、構造化データを維持します。そのため、エンティティ検索におけるページ上のキーワードは、この場合、関連性がある・ないの問題ではなく、検索エンジンによって、文字通り破棄されてしまうのです。

グーグルは、その他のシグナルを使って、信頼性を特定し、内部のエンティティグラフを確認し、検証します。セマンティックに対する注目は大きく、尚且つ、自然であり、ユーザーの意図を理解する観点から、そして、特定の状況下の特定のユーザーに適切な結果を返す観点から、グーグルは「シグナル」に注目しているのです。エンティティとして考えられていない場合、エンティティ検索では、見つけてもらえません。この点において、 「状況」の領域、そして、グーグルプラスと調和する「ソーシャル」の領域を拡大することが出来るかもしれません。

エンティティ検索 & String Entity Optimization

: これはSEOの関係者が、理解に苦しむコンセプトなのかもしれません。SEOが「エンティティ検索」内にフィットする仕組みを説明してもらえませんか?

バーバラ・スター: グーグルのナレッジグラフがエンティティグラフである点を理解すれば、「エンティティ検索」がSEOに適用される点は、明らかです。そのため、グーグルに「エンティティ」として扱ってもらえない場合、ナレッジグラフ(またはカルーセル)、グーグルナウ、グーグルグラスに存在しないことになります。当然、クエリに対する答えとして結果に表示してもらえなくなります。単純にコンテクストおよび全体像から漏れているのです。

そのため、先程も申し上げた通り、ブランド/クライアントが、グーグル、ビング、そして、台頭するセマンティック・アンサー・エンジンにおいて、見つけて欲しい場所で、必ずエンティティとして認識してもらう必要があるのです。

SEOの関係者なら、エンティティのランク付けにおいて、トレンドのエンティティから発想を得られるかもしれません。これは、計測上の基準において、エンティティにシフトチェンジするグーグルの意向が初めて表面化したサービスであり、新たなセマンティックウェブのツールが開発されるようにつれ、より取り上げられる機会は増えていくかもしれません。

google trends

トレンドの例

グーグルウェブマスターツール内の構造化データの結果も初期の計測基準に挙げられます。このツールは、今後登場するツールと比べると、まだまだ荒削りだと言わざるを得ません — ついでに言うと、ナレッジグラフもまた生まれたばかりです。

私: 今後3年の間に、検索エンジンのユーザーおよび検索エンジンにどのような変化が起きると思いますか?

バーバラ・スター: グーグルを筆頭に検索エンジンは、最終的な目標である未来のスタートレックのようなコンピュータに向けた取り組みを始めています。今後、検索は、ますますセマンティック化し、人工知能に主に関連する本質的なコンセプトを活用するようになるでしょう。

私: 検索エンジンとSEOは、どのような要素を検討するようになるのでしょうか?

バーバラ・スター: 検索結果、そして、ユーザーのクエリにおいて、セマンティック、そして、構造化データの利用がさらに増えるでしょう。

  • 音声検索、そして、この取り組みにおける大幅な改善の影響を受け、キーワードで構成されるクエリはますます減り、質問がそのままキーワードになります。
  • クエリを理解して、より妥当な検索結果や答えを提供する取り組みが強化されます。
  • 装着可能なデバイス、そして、いつの日か、埋め込み可能なデバイス — グーグルグラス等の装着可能なアイテムの検索から、時計等の別の装着可能なアイテムにデバイスにアクセスすることが可能 — が多数登場します。
  • ホームエンテータイメント機器、テレビ等、全てのディスプレイにアクセスする究極の「デバイス」の選択が行われます。そして、恐らく、ユーザーのデバイスで開始された、音楽、TVのチャンネル、視聴可能な映画等、カテゴリー全体に対する検索が行われようになるでしょう。
  • シグナルが、検索エンジンに向けて、ユーザーのデバイスに「プッシュ」されるため、インターネットとのやり取りがより緊密になります。
  • グーグルグラス等のソーシャルプロフィールの活用について、遥かに深い議論が交わされるようになるでしょう。

私: String Entity Optimazation(すなわちセマンティックSEO)は今後どのように展開していくのでしょうか?

バーバラ・スター: ここで再び、ナレッジグラフ、エンティティ検索、そして、「インデックス」から「理解」への関連する方針転換に触れる必要があります。

現在、検索エンジンとソーシャルエンジンの大半が、エンティティ検索を活用しています。そのため、ユーザーの意図の理解が活用される仕組み、そして、エンティティグラフ検索との関係が鍵を握ります。エンティティと見なされていない場合、エンティティ検索では、見つけてもらえません。

: SEOの当事者は、エンジンがこの方向に全力で進む前に、どのように取り組みを改善すればいいのでしょうか?

バーバラ・スター: SEOに対する質問は、次のように言い換えることが出来ます — よく絞り込まれた、つまり、焦点が絞られ、範囲が限定されたクエリに応える、適切なエンティティを作成するにはどうすればいいのでしょうか?このタイプのクエリは、答えとして、具体的な結果/エンティティを求めています。

SEOの関係者は、エンティティへの文字列のマッピングを理解する必要があります。

エンティティのschemaで定義されている、検索エンジンの内部の構造化データにより、エンティティが見つけられ、表示される点、そして、同じく検索エンジン内部の構造化データからエンティティがもたらされる点を理解する動きが活発化しています。つまり、キーワードについて心配する必要はもうないのです。ユーザーに対して、何を「伝える」のか、そして、検索エンジンが興味を持つエンティティや「物事」にどのように関連付けるのかについて、検討する必要があります。検索エンジンは、ある理由のために、このような「物事」に関心を寄せます。

先程挙げたSindice.comを思い出して下さい。この検索エンジンは、ウェブ上のページをクロールし、構造化データのメタデータをHTMLから抽出し、そして、ページの残りを捨て、構造化データを維持します。内部で、直接このデータに検索をかけるためです(エンティティ検索)。

繰り返しますが、今後は、キーワードや類義語を何度もページ上で利用する方法に関して、気を揉む必要はありません。何の役にも立たないからです。エンジンが、ユーザーにクエリに対する答えを提供する文書にリンクする内部で有効なデータを認証すると、このデータを、答えとして、信頼し、認証したソースとして利用するようになります。

: 今回は、貴重なご意見を有難うございました。変化はすぐそこまでやって来ており、セマンティックマークアップを理解することが、今後、ますますSEOにとって、ベストプラクティスとなるのではないでしょうか。 新しいSEOの詳細: String Entity Optimization(文字列のエンティティによる最適化)– 今後、再び二人でコラムを提供する可能性があります。

セマンティック SEOの参照情報

グーグルの公式ブログ: ナレッジグラフの導入

サーチエンジンランド: コンテンツを探す時代から、コンテンツが探す時代へ

アーロン・ブラッドリー氏のブログ: 懐疑的なSEO

デビッド・アマーランド氏の著書: グーグルのセマンティック検索

セマンティックウェブテクノロジーおよびリンクトデータ: SemanticWeb.com

リンクトデータ: LOD クラウド

Mozのブログ: キーワードからコンテクストへ — 新しいクエリのモデル

グーグル+のコミュニティ: セマンティック検索マーケティング

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Future SEO: String Entity Optimization」を翻訳した内容です。

内容も明瞭で具体例も多数上げられ非常にわかりやすい記事でした。「キーワードを意識した文章を書く必要が一切なくなる」日が本当に来るのかも含め、5年後のSEOは今とは全く違ったものになっていることは間違いなさそうですし、サイト全体、各ページ、各コンテンツレベルでの構造化整備がこれまで以上にSEOの基本かつ必須作業になりそうです。そもそも検索の舞台自体もPCやスマホ以外にその幅を拡げ続けていきそうですし、その過程で検索の方法や概念自体も大きく変わっていくのでしょうね。とはいえ、やっぱりPCを前に集中してキーワード検索する時間は一定以上は残ると思うのですが、、、そんなことを考えている時点で時代遅れのSEO屋でしょうか。 — SEO Japan [G+]

ハミングバードはリンク構築を絶滅の危機に追い込むのか?

ハミングバードに関連する多くの記事が出ている米国と比較し、日本ではリリース時はウェブメディア全般的に数多く取り上げられましたがその後はSEO的なインパクトも薄かったとあってか話題になることがありません。とはいえ、従来のキーワードを多分に意識したSEO戦術を駆使してきたウェブマーケッターであれば、その長期的な影響力は気になる所です。今回はハミングバードとリンク構築に関連した考察記事をサーチエンジンランドから。 — SEO Japan

Did Hummingbird Eat Link Building?

ハミングバードはリンク構築を葬ったのか?

パンダが質の低いコンテンツを踏み潰し、ペンギンが質の低いリンクを凍らせ、今度は、ハミングバードがリンク構築を食い散らかそうとしているのだろうか?

ハミングバードは、単なるアルゴリズムのアップデートではない。どちらかと言うと、整備を一新し、見えないところで、グーグルをより早く、そして、より賢くするための取り組みである。また、ハミングバードの導入によって、今後さらに多くの変化が導き出されることになる。

今回は、リンク構築における、ハミングバードの影響について探っていく。

オンラインマーケッターにとってハミングバードとは?

塗装ではなく、新たなエンジンが搭載されたと考えるべきである。このエンジンは、誰も気づかなかったが、30日間にわたって既に稼働しており、検索結果の90%に影響を与えている。ハミングバードは、全てのユーザーに、より早く、より適切な結果を与えることを目指している。この点に関しては、ダニー・サリバンが、分かりやすく説明(日本語)している:

グーグル曰く、ハミングバードは、既存のパーツと新しいパーツで構成された新しいエンジンであり、10年前のテクノロジーを用いて10年前の需要に応えるためではなく、現在の検索の需要に応えることを念頭に置いて、整備されている。

その他のアルゴリズムのアップデートとは異なり、ハミングバードの発表が行われた日、設立15周年に関する記事をブログに投稿したグーグルは、SEOコミュニティを非難することも、是正することも、指導することもしなかった。その代わり、以下のポイントを含む、直感的なユーザー体験の改善を介して、ユーザーの生活を向上させることに焦点を絞っていた:

  • ナレッジグラフのアップデート(比較および絞り込み)
  • 会話型の、異なるプラットフォームをまたぐ検索
  • モバイル検索体験の改善

ハミングバードは、ユーザーを何よりも重要視したアルゴリズムだと言えるだろう。

ハミングバードはSEOを永久に変えたのか?

ハミングバードは、グーグルが設立当初から進んできた方針をさらに(大きく)前進させている — つまり、ユーザーに出来るだけ早く、絶対的な最高の結果を提供する取り組みだ。

このアップデートでは、検索クエリの裏側にある意味をより深く理解し、適切な結果を提供することを目標の一つに挙げている — 例えば、家で[pizza]を検索する場合、レシピを探している可能性があるが、携帯電話で[pizza]と検索を行う際は、近場のピザ屋を急いで探していると考えられる。また、会話型検索も重要視されている — 「グーグルと交わす[会話]をもっと自然に流れるようにする必要がある」(グーグルの設立15周年を祝う記事より)。

つまり、先見の明のあるSEOのエキスパート、そして、オンラインマーケッターは、今までと同じゴールを目指せばよい。オーディエンスが探しているものを、早く、容易に手に入れられる環境を作り出す必要があるのだ。

ハミングバードはリンク構築を完全に葬ったのか?

そういうわけではない。被リンク構築は健在だ。しかし、リンク構築の定義は、変える必要がある。Distilledを設立したウィル・クリッチロー氏が言っているように、「リンク構築と言う名称は、妥当ではない」。その理由を説明していく。

品質の低いコンテンツにペナルティを与え、阻止することを目指したパンダ、そして、質の低い「リンク構築」に歯止めをかけたペンギンを思い出してもらいたい。ハミングバードは、この2つのアップデートとは、一線を画している。ダニー・サリバンが、上述した詳細な記事の中で指摘しているように、ハミングバードが検索結果の特定を行うために利用する200点のシグナルの中には、今もページランクが含まれている。しかし、リンク構築は、今までの取り組みとは姿を変えている。

今までのリンク構築は終わった。それでも、リンク構築は続いていく。

ハミングバードがリンク構築に与える影響

直接的な変化は少ないが、間接的な変化は広範に及ぶ。

SEOの当事者は、リンクを含む要素を利用して、グーグルをだまし、自分のウェブサイトが、実際よりも信頼されており、有益だと考えさせることが可能であった。しかし、ハミングバードによって、検索結果の絶対的なフォーカスが再びエンドユーザーに移り、もはやグーグルを騙すことは出来なくなった。平均レベル以下のコンテンツに対するリンク構築は、失敗する。どれだけ多くのリンクを向けさせたところで、グーグルは、直帰率の高さ、自然なソーシャルシェアの欠如を含む、その他の各種の品質のシグナルに気がつく — 恐らく、ハミングバードによって、グーグルは今まで以上のスピードで、このようなシグナルを検知しているのだろう。

SEOの取り組みは、すべてエンドユーザーに焦点を絞るべきである。リンク構築を行う上で、ユーザーに対して、真の(大きな)価値を提供することに、力を入れるべきである。そのサイトは1000本のリンクを獲得する価値はあるのか?1000サイトのリンクの候補先にメールを送りつけ、リンクを要請することで、価値は得られるのか?リンク構築を活用して、全ての段階でより多くの価値を提供するには、どうすればいいのか?

具体的なニーズ(つまりロングテール)を満たすこと、そして、長期的に信頼してもらう(詳細)ことを意図した、質の高いコンテンツについて考えてもらいたい。

ハミングバードの導入後、グーグル+の重要性は上がったのか?

グーグル+の代表者は、次のように指摘している — 「グーグル+は、グーグルのユーザー体験を改善するソーシャルネットワークの要です。」グーグル+の代表者は、ハミングバードに関する話をした際、グーグル+には触れなかったものの、状況を考慮すれば、両者の間に何かしらの関係があることが見えてくる。好きか嫌いかに関わらず、グーグル+の重要性はますます高くなるはずだ — グーグル+を軽視していたなら、考えを改めるべきである。

ハミングバードの導入後にリンク構築を変えるべきではない理由

ハミングバードの登場を理由に、リンク構築の公式を「更新」する方針は、大きな誤りである。例えば、「50%はブランド名のリンク、30%は部分的に一致するリンク、20%は完全一致のリンク」と言う公式を基にリンク構築を行ってきたと仮定する。しかし、ハミングバードが導入されたことを受け、この公式を「70%はブランド名のリンク、20%は部分的に一致するリンク、そして、10%を完全一致のリンク」のように、多少安全な公式に変えた方が無難だと考えたくなるかもしれない。

このような柔軟性にかけるリンク構築の公式は、危険な時代遅れの考え方に基づいている。そうではなく、次のような新しい「公式」を試してもらいたい:

  • 素晴らしいコンテンツを作成する
  • 業界のインフルエンサーと知り合いになる
  • 適切なオンラインのコミュニティに貢献する
  • 適切な場合、有益なコンテンツのシェアを友達に頼む
  • リンクの大半を受動的に(つまり自然に)獲得することに力を入れる

まとめ

リンク構築は、今でも重要ではあるが、万能型のお決まりの戦略は、危険である。リンク構築を全体的なマーケティング、そして、コンテンツマーケティングの計画に組み込む方針こそが、長期的に有効な唯一の戦略であり — 新たなチャンスを生み出す。

(ストックイメージ: Shutterstock.com ライセンス契約の下、編集を加えて利用)

この記事は、Search Engine Landに掲載された「Did Hummingbird Eat Link Building?」を翻訳した内容です。

変えるべきなのか、変えないべきなのか、わかるようでわからない内容といいますか、1プロフェッショナルの雑感といった記事でしたね。ハミングバード襲来後も、まだまだテクニックに頼った意図的なSEOは内部しかり外部しかり通用する部分は多分にあると思いますが、中長期的にコンテンツ・イズ・キングが建前でなく本音で言い切れる世界にはなっていくのでしょう。短期的にはテクニックに頼ることも重要ですが、Google、そしてユーザーの意図を見極めた上でウェブマーケティングに取り組んでいきたいですね。 — SEO Japan [G+]

ハミングバードがB2Bのサイトに与える影響

Googleのハミングバードアルゴリズムに関する記事を多数紹介してきたSEO Japanですが、今回はB2Bサイトの視点からハミングバードの影響力を考えてみたB2Bマーケッターには気になる記事をサーチエンジンランドからご紹介。 — SEO Japan

先日デビューしたハミングバードアルゴリズム(日本語)は、B2B企業が、検索においてサイトを宣伝する手法を大きく変えることになるだろう。多くの大規模なB2B企業は、SEMよりも、従来的なマーケティングの手法に多くの資金を投資する傾向が見られる。なぜなら、B2B業界は、インターネット上の競争がさほど激しくないためだ。

数千ドルを支払って、基本的なSEOの取り組みを済ませると言う考えは、B2Bの企業にとって、今後、効果的とは言えなくなる(もともと効果的ではなかったのだが)。

前回のコラムでは、SEMを行う価値がないと考えているB2Bに対して、SEMを実施する方法を説明した。また、先日は、自然なCROシステムの構築について、コンバージョンを重要視するクライアントに向けて、コラムを投稿した。 今後は、コンテンツマーケティングとSEO戦略の歩調を合わせ、ハミングバードが注入された検索の世界で、勝負しなければならない。 

google hummingbird

B2Bサイトにとってハミングバードとは?

詳細に入る前に、まずはハミングバードがB2Bサイトに与える影響について説明する。2つの会社、工業オートメーションサービスのプロバイダと工業オートメーション機器のメーカーを例にとって説明していく。

この2つの会社では、ハミングバードが導入される前、キーワード戦略で、ともに[industrial automation](工業オートメーション)をターゲットにしていた。双方の会社に関連する、優先順位の高い、ロングテールのキーワードの多くに、このフレーズが含まれていたためだ。

[industrial automation]に対する最適化を行うことで、[industrial automation services]、[industrial automation equipment]、そして、[industrial automation consulting]等のキーワードフレーズに対して、上位にランクインする効果が見込めた。ロングテールのバリエーションに対して、上位に食い込むことに特に問題はなかった。 

しかし、ハミングバードの導入により、キーワード[industrial automation]は、どちらの会社にとっても、ターゲットにするほどの価値はなくなった。ハミングバードのアルゴリズムは、検索のユーザーの意図を基にサイトを評価し、会話の中で現れる関係に応じて、ページのランク付けを行う。

メーカーの職員が、[industrial automation](工業オートメーションについて話す際、通常は、人件費の削減、稼働時間の向上、運営管理、または、信頼性の回復等に言及している。基本的に、– 工業オートメーションの機器やサービスを提供している会社ではなく、このような目的を達成する方法に関する記事を求めていると言えるだろう。

この点に気づいていない方に知ってもらいたい点がもう一つある。これは、グーグルがハミングバードアルゴリズムを作り出した理由そのものでもある。そもそも、機器やサービスは、別々の会社が提供する完全に異なるアイテムであり、同じ用語で上位にランクインするべきではない。ショートテールの検索結果もまた多様であり、ユーザーを十分に関連するコンテンツに導くことが出来なかった。 

一方、メーカーの職員が、工業オートメーションの機器やサービスについて話をしている場合は、例の2つの会社のいずれかを取り上げている可能性が高い。B2Bサイトがメリットを得られるのは、このケースである。

グーグルは、意図を巧みに見分けることが可能になるため、[industrial automation](工業オートメーション)を取り上げるサイト、そして、サービスや機器に関連するキーワードを狙うサイトの間の競争は少なくなる。ハミングバードは、B2Bの会社が競争する上で、公平な世界を作り出したと言っても過言ではない。ホワイトハットなSEO戦略を実践してきたなら、戦略に少し調整する必要はあるものの、全体的にこの新しいアルゴリズムからメリットを得られるだろう。

キーワードのランキングを維持する

キーワード[industrial automation]に対して、今後も上位にランクインしたいと仮定する。ショートテールのキーワードを検索するビジターに対する関連性は低くなったものの、このフレーズに関するコンテンツを作成することによって、業界を引っ張るリーダーとしての地位を確立する効果は期待できる。しかし、ハミングバードの登場により、ハードルは高くなった。

ここで頼りになるのが、コンテンツマーケティングと分析である。先程も指摘した通り、工業オートメーションを話題に上げている人達は、工業オートメーションのメリットと利用について、会話を交わしている可能性が高い。再び2つの会社の例に注目しよう。過去のコンテンツ戦略は、サービスや製品に関連するコンテンツを主にに取り上げ、同時に、[industrial automation]で上位にランクインすることを狙うものであった。

今後は、[industrial automation]のトピックに関して(製品やサービスとは異なる)新しいコンテンツを作成する必要がある。このショートテールのフレーズを検索し、話題にする人達に対して、品質の高い情報を提供することに力を入れてもらいたい。まずは、アナリティクスを使って、グーグルがキーワードのデータの提供を中止する前に、ユーザーがサイトを探すために用いていたキーワードを確認しよう。また、サイトの検索の利用にも注目してほしい。

[industrial automation]を含むキーワードを探して、製品やサービス以外のユーザーの関心事を発見しよう。次に、このキーワードを使って、新しいコンテンツに対するトピックのリストを作成していく。このトピックは、ブログの記事、ソートリーダーシップ(新たな考えを示すための秘策)、ソーシャルメディアの投稿を含むあらゆるオンラインコンテンツマーケティングの形式に用いることが出来る。

キーワード戦略を多様化する

ショートテールのキーワードに狙いを絞ることに力を入れていたなら、今こそ、方針転換するべきである。タイトルタグ、ヘッダー、そして、コンテンツに調整を行い、ロングテールのキーワードをターゲットにしてもらいたい。

このようなショートテールの用語を、ユーザーに価値を提供するコンテンツに再び割り当て、ロングテールのキーワードを製品ページやサービスページに活用しよう。こうすることで、ハミングバードに準拠するだけでなく、総合的にユーザー体験を改善し、より関連性の高い検索を呼び込むことが出来るようになる。キーワードの方針を評価する上で、直帰率が良い目安になる。直帰率が下がったなら、正しい方向に進んでいると言えるだろう。

結果

このコラムで紹介した戦略とセオリーを私はしばらく実践している。過去1年間に渡って、検索のトレンドが変化するにつれ、私は自分が考える検索の未来を見据えて、戦略を調整するようになった – その未来こそがハミングバードであったのだ。

ハミングバードの告知が行われたのはつい最近であったが、実際にグーグルがこのアルゴリズムを導入したのは約1ヶ月前(日本語)であった。ハミングバードが導入されて以来、私が上述した戦略を実践に移した全てのサイトで、自然のトラフィックが平均して20%増加している。また、ショートテールのキーワードに対するランキングも改善されているが、その一方で、上位にランクインするページは、製品やサービス中心のサイトから、ソートリーダーシップやブログの記事に変わっていた。

(イメージ: Shutterstock.com – ライセンス契約の下、利用している)

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Hummingbird’s Impact On B2B Sites」を翻訳した内容です。

ハミングバードにより、Googleがより文章の意図や意味を理解できるようになったため、単純な特定のキーワードフレーズを意識したSEOやページ制作は意味がなくなった、、、というB2Bに限らない趣旨の内容でした。最終的な検索エンジンの目指す姿、そしてSEOの未来形ではあるのでしょうが、さてさてこれがどこまで現状現実的なのかは正直私もわかっていなかったりもする私でもありました。皆さんの意見はいかがでしょう? — SEO Japan [G+]

年末前にリンクプロフィールを大掃除する5ステップ

Googleからペナルティ警告を受けたサイトも日本で普通に出てくるようになりましたが、ウェブマスターツールの充実とGoogleのサポート強化の結果、リンクプロフィールを整理し、再申請によりペナルティが取り消されるケースも増えてきました。そうはいっても、まだペナルティが解除されず悩んでいるサイトも多いと思いますし、大量に張られたリンクリストを前に諦めているウェブマスターもいるのではと思います。今回は、そんな悩めるウェブマスターのために、ウェブマスターツールを活用してリンクプロフィールを精査し、再申請を成功させるための手法をステップ・バイ・ステップでまとめてくれた素晴らしく実用的な記事をサーチエンジンランドから。 — SEO Japan

長年に渡り、オンラインビジネスを営む中、一人でリンク構築に対応してきた人もいれば、悪徳SEO「業者」に任せっきりだった人もいることだろう。どちらにせよ、リンクプロフィールを整理する必要があるかどうか、悩んでいるのではないだろうか。そこで今回のコラムでは、リンクプロフィールが、問題を抱えているかどうかを特定する方法、そして、問題を分析する方法、そして、問題を解決する方法を5ステップのプロセスを介して紹介する

その前に:

不自然なリンクの警告 = 問題

このメッセージを受け取ったら、問題を抱えていることになる。ステップ 2から読み始めてもらいたい。

An Unnatural Link Warning from Google Webmaster Tools

グーグルのウェブマスターツールに届いた不自然なリンクの警告

ステップ 1: グーグルを使ってチェックする

当然だが、グーグルにeメールを送って、質の低いリンクを持っているかどうか尋ねることは出来ない。しかし、グーグルのウェブマスターツール内のリンクリストから手掛かりを得ることは可能である。以下に新しいナビゲーションからこのリストにアクセスする方法を紹介する:

Webmaster Tools Links List - New Navigation

ウェブマスターツールのリンクリスト – 新しいナビゲーション

ダウンロードする前に、スタッツを確認しよう:

google webmaster tools links to your site

「サイトへのリンク」のサンプル

合計199000本以上のリンクに対して、76000本は、あまりにも多い気がする。このような配分になっているなら、整理する必要があるかもしれない。

また、この画面で、「最も多くリンクされているコンテンツ」にも注目してもらいたい。リンクの大半が、ホームページに直接向けられているなら、問題を抱えている可能性がある。

最後に、最もリンクされているコンテンツの下の詳細をクリックする。ソースのドメインが、リンクの本数に対して、極端に少ないように思えるなら、所謂「ランオブサイト(ROS)」リンクを得ていると思われる。このタイプのリンクは、特に何も価値を加えず、広告、ブログロール、リンクのリスト、あるいは、フッターのいずれかであるため、ペナルティの対象になることが多い。

Look at how many links you have by domain to spot run-of-site links.

ドメインごとにリンクの数をカウントし、ROSリンクを探し出そう。

私が「可能性がある」や「かもしれない」等の言い回しを用いている点に注意してもらいたい。リンクの「良し」「悪し」をを判断する明確な基準がなく、当事者が判断する必要があるためだ。丸で囲ったページは疑わしいが、最終的には、このコンテンツは、302リダイレクトの形式を取ったアフィリエイトリンクであることが(広範のプロセスで)判明した。

ステップ 2: 情報を集める

それでは、問題を抱えている可能性が高い、あるいは、問題を抱えている点を指摘する警告を受け取ったと仮定する。何から手をつければいいのだろうか?グーグルは、グーグルの公式ブログで、まずはグーグルのウェブマスターツール内のリンクリストから着手するよう薦めている。リンク数の最も多いリンク元にアクセスし、次の2つのレポートをダウンロードする:

all-domains-download

エクセルでレポートをまとめ、列Aを昇順で並べ替え、重複をなくす(一つのレポートでしか利用することが出来ないため、First discoveredのチェックを外す 必要がある):

remove-duplicates

これで重複リストが出来上がった。次に2つの作業を実行する:

  1. XenuのLink SleuthやScreaming Frog等のヘッダーチェッカーを利用する。200や301以外のリンクを除外し、別のリストに出力する。後程必要になるので削除しないこと。
  2. 技術に自信があるなら、リンク内の、あるいは、メタrobotsタグ内の「nofollow」コードをチェックするスクリプトをリストに実行してみよう。結果を別のリストにまとめる。

これで、リストは、followedリンクと200と300のステータスコードを持つリンクに絞られたはずだ。ここから手動でチェックしなければならない。

ステップ 3: 自力でリンクをチェックしていく

  1. ページをウェブブラウザに読み込む:Download the Disavow Links Template
    • ページが読み込まれないなら(404/Not Foundエラーが表示されたら)、メモして、次のリンクに移る。先程利用したヘッダーチェッカーが適切に機能していたかどうか再確認する。ただし、リストを集めて、ヘッダーチェッカーをかけてから、リンクを見直すまでに、数日間から1週間がかかることがある。この期間に廃れるリンクが現れる可能性がある。
    • ページが全くコンテンツを読み込まず、また、エラーメッセージも表示されなくても、チェックする必要がある。リンクが同じ色のテキストに隠されていたり、見えないフレームの内側に配置されていたり、CSSを介してページの外側に置かれていることもあるためだ。
  2. ページのソースを見る。大半のブラウザでは、右クリック、または、CTRL + Uでチェックすることが出来る。
  3. ドメイン名で調査/検索を行う。リンクにwwwがない場合、wwwを外して検索する。
    • 見つからなかったら、当該のリンクを「削除したリンク」と記す。
    • 見つかったら、優れたリンクかどうか確認する。
  4. まず、「nofollow」を検索する。
    • 「head」タグ内で見つかったら、「No Follow」と記し、次のリンクに移る。
    • 本文のタグ内で見つかったら、リンクとhrefタグが同じかどうか確認する。
      • 同じだったら、「No Follow」と記し、次のリンクに移る。
  5. リンクがページ上にあり、nofollowedではないなら、リンクの場所を確認し、HTMLタグをチェックする。
  6. 以下の条件のいずれかに当てはまる場合、「否認」と記す。
    • 関係のないリンクの集まりの一つ。
    • 右側または左側のサイドバー、もしくは、フッター(つまり、メインのコンテンツ以外)に掲載されている。
    • リンクがコメント内に掲載されている。
    • リンクがページに表示されていない(つまり、隠されている)。
    • ページのどこかに「リンクを投稿する」や「記事を投稿する」等のリンクが存在する。
    • ページ自体が、チンプンカンプン、スパム、SEO(キーワードを大量に利用している、サイトのPRを表示している、あるいは、SEOフレンドリーと明言している)を行うためだけに存在するように思える。
  7. 最後に、上の全てのテストをパスしたら、次は「嗅覚」テストに移る。
    • リンクは、サイトのビジターに価値を与えているか?それなら、恐らく問題はない。
    • リンクは、他の目的のために記事に押し込まれたように見えるか?見えるなら、恐らく問題あり。
    • 有料リンクのように見えるか?見えるなら、恐らく問題あり。
  8. リンクを「否認」または「OK」と記し、上の条件を基に理由を入力する。入力が終わったら、次のリンクに進む。理由をスキップするべきではない。グーグルのレスポンスを受けた後、同じプロセスを2度、はたまた3度繰り返す可能性があり、再びチェックしなければならない状況は避けたい。

ステップ 4: ドメインかリンクかの判定

ステップ 4は、混乱を招く。これまで、グーグルがレポートしたリンクのリストを全て集めて、チェックを行ったものの、まだ終わりではない。まだ、2つの作業が残されている:

  1. 全てのドメインのリストをダウンロードする:
    all-domains-download2
  2. 既存のリストに照らして、ドメインをチェックしていく。

全てのドメインをダウンロードすると、website.comのように、ベースのURLでリストが構成されている点に気づくだろう。作成済みのリストに照らして、URLのリストをチェックするため、スプレッドシートに新しい列を加え、名前を「ベースドメイン」にする。

新しいワークシートを開き(重要)、リンクのリストをシートにコピーする。[データ]、[区切り位置]、[区切り文字]の順にアクセスし、区切り文字を[/]に指定する。こうすることで、一掃し、場合によっては、見つけて、wwwを置き換える必要のあるベースドメインのリストが生成される。

How to Delimit by / in Excel

区切り位置機能の集中講座

次に最後のリンクまでカーソルを移動する。その下に、グーグルのドメインのリストを貼り付ける。

列 Aを降順で並べ替え、重複を取り除く。すると、リンクのリストでまだ取り上げられていないドメインのみが残る。ステップ 2とステップ 3と同じ要領でドメインをチェックしていく。

ステップ 5: 一掃 & 吟味する

このプロセスを終えると、4つのリストが手元に残るはずである:

  1. 削除したリンク: サイトから削除されたリンクであり、当該のサイトが今も存在する、あるいは、リンクが掲載されていたページは削除されたものの、ドメインは健在であるケース。誰かに連絡を取り、リンクを削除することに成功したら、このリストに掲載する。
  2. 削除したドメイン: もう存在しないドメイン、あるいは、コンテンツがないドメイン。
  3. No Follow: リンクまたはリンクが掲載されていたページがnofollowになっているケース。もしくは、リンクとウェブサイトの間に302 リダイレクトが存在するケース。
  4. 否認: 削除することは出来なかったものの、マイナスの影響を受けたくないリンク。

リンクの削除を助けてくれる様々なサービスが存在する。グーグルは、ウェブマスター自身が行うべきだと指摘している。しかし、大方、ウェブマスターに接触して、リンクを削除して欲しいとお願いするのは、無駄骨に終わる。とても時間がかかり、成功する確率は低い — ウェブマスターが実際に返事をくれるサイトは、リンクを掲載しておきたいサイトであり、nofollowを加えておいてもらうだけで十分かもしれない。

削除することが可能なディレクトリ、または、支払いの中止、nofollowの追加が可能な有料リンクを知っているなら、行動に移してもらいたい。しかし、この選択肢を持つウェブマスターは少ない。また、この手のサービスは、リンクごとに料金を要求するため、最初にリンクを絞り込むことで、チェックする必要のあるリンクの本数に応じて、資金を節約する効果が見込める。

再審査リクエストおよび否認レポートを適切に作成する方法については、リンクの否認に関するデマを一刀両断(日本語)も参照してほしい。リンクプロフィールを整理する取り組みがうまくいくことを、心より願っている。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Five Steps To Clean Up Your Links Like A Techie」を翻訳した内容です。

非常に具体的、かつ再申請を成功させるための情報が満載で、最近増えている「ペナルティ解除サービス」を余裕で凌駕する再申請の準備がこれを実践するだけで実現できそうな内容でした。ウェブマスターツールのインターフェースが英語で解説されていますが、基本日本語もメニュー構成等、ほぼ同じかと思います。私の経験でも一度や二度の再申請でペナルティが解除されるケースは逆に珍しいですし、ここに書かれている内容を地道に行って再申請を繰り返していけば、あなたのサイトのペナルティもいつかきっと解除されるはず・・・そう信じて頑張りましょう。 — SEO Japan [G+]

マニア必見!日本のジーンズの歴史を紐解くインフォグラフィック

ケミカル、ベルボトム、ビンテージ・・・”あの時代”に流行ったジーンズの流行の形や、生産数が減少していると言われる日本のジーンズ産業の現状、日本の「藍染」技術とジーンズ加工技術の歴史的関連性などについて詳しく切り込んだインフォグラフィック。Please Enjoy!– SEO Japan

あの時コレが流行った!日本のジーンズの歴史を紐解くインフォグラフィック※画像をクリックすると「YKKスナップファスナー」のサイトに飛び、全体をご覧いただけます。

まずは日本でのジーンズ流行の歴史から。

あの時コレが流行った!日本のジーンズの歴史を紐解くインフォグラフィック

日本でジーンズが本格的に輸入販売されるより50年以上前に、リーバイスは日本で外国商標登録をしていたとのこと。

あの時コレが流行った!日本のジーンズの歴史を紐解くインフォグラフィック

昨年6月に大手メーカーが倒産したり、今年4月には別メーカーの再建計画が発表されたりと、業界全体の不振がささやかれているなか、2011年の生産数はやや盛り返していました。来月実施される「ジーンズソムリエ資格認定試験」も締め切り前に定員になるほど盛況らしいので、少しずつジーンズへの関心は回復しているのかも?しれません。

あの時コレが流行った!日本のジーンズの歴史を紐解くインフォグラフィック

日本はジーンズ加工先進国。ゴワゴワして縮む輸入ジーンズは、はじめ日本人に受け入れられなかったため、洗い加工をしたジーンズが発売されるようになります。藍染を起源とする日本人の「青の感性」は繊細で、欧米の大手ブランドが勉強に来るくらいなんだとか。

※本インフォグラフィックは弊社がデザインをお手伝いさせて頂きました。

あの時コレが流行った!日本のジーンズの歴史を紐解くインフォグラフィック

日本のジーンズの歴史を紐解くインフォグラフィックいかがでしたでしょうか?記事内では紹介しきれないほど沢山の情報が掲載されているので興味があれば是非全体もご覧ください。 — SEO Japan [G+]

Googleハミングバードと思われる特許を分析

Googleのハミングバードアップデートに関する記事を多数紹介してきたSEO Japanですが、今回はGoogleがハミングバードに関連していると思われる特許を取得していた、ということで、その内容をSEO by the Seaよりご紹介。ハミングバードに関する理解がより深まる?かもしれない記事です。 — SEO Japan

グーグルが15回目の誕生日を祝う中、ハミングバートと呼ばれる新しいアルゴリズムが導入された。ただし、グーグルは、ページランクを含む、その他のランキングシグナルを全て置き換えたわけではないようだ。新しいアルゴリズムの告知では、グーグルが数週間前から既にハミングバードの利用を始め、検索の90%に影響が及ぶ可能性があることが伝えられた。

A screenshot from the patent showing different elements and databases in use to better understand queries.

ハミングバードは、検索ボックスに入力するような短いキーワードのマッチングの代わりに、音声入力で用いる、長い自然の言語のクエリの理解に秀でた、クエリの拡大または拡張のアプローチとして、描かれている。

例えば、[What is the best place to find and eat Chicago deep dish style pizza?](シカゴのディープディッシュスタイルピザを探して、食事する場所はどこが一番いい?)等のクエリは、ハミングバードに最も適していると言える。このタイプのクエリでは、グーグルは、類義語を使って、クエリ内のその他のスキップ不可なワードを分析する取り組みと組み合わせて、クエリのルールを置き換え、クエリの用語のコンテクスト、そして、当該のクエリに取って代わるクエリを理解し、検索された用語を再編成(または交換)することで、より質の高い結果を提供することが出来る。

グーグルは、[What is the best place to find and eat Chicago deep dish style pizza?]を確認し、このクエリの結果を求めているユーザーは、「place」(場所)の代わりに「restaurant」(レストラン)を利用すると、より満足する可能性が高いと理解する。 

「place」の代わりに「restaurant」を利用する判断は、検索結果に共起、つまり、共に現れる用語(当該の用語の検索が行われた場合)、あるいは、クエリのセッションで共起する用語に焦点を絞る、交換ルールに基づき、類義語または代わりのワードとして考慮されると見られる。

あるクエリと別のクエリの関係等、異なる検索のエンティティの分析により、一連の検索結果の中からあるページを選び、そのページに滞在した時間等の基準に応じて、検索結果に対するユーザーの満足度が改善されていると特定されるようだ。

Different elements and aspects of expanding queries are illustrated in the screenshot from the patent.

今週、グーグルは、最近seobythesea.comに投稿した記事(上にリンクを掲載)で取り上げた3点の特許をベースとした特許を公開した。私がこの記事の中で取り上げていた特許は、本日発表されたハミングバードアルゴリズムにとてもよく似ていた:

共起する用語を基に類義語を特定
発明: Abhijit A. Mahabal、Takahiro Nakajima、Zachary A. Garrett、Kenji Inoue
付与先: Google
米国特許番号: 8,538,984
付与日: 2013年9月17日
申請日: 2012年4月3日

概要

以下の目的のために、コンピュータの保存メディアにエンコードされたコンピュータプログラムを含む、メソッド、システム、そして、装置:

  • もともとの検索クエリの具体的なクエリ用語を特定する
  • もともの検索クエリの中では具体的なクエリとは接していない、他の非隣接クエリとの関係における、具体的なクエリの類義語の候補を特定する
  • 具体的なクエリと類義語の候補を含む用語のペアに対して、その他の非隣接クエリの用語のそれぞれの信頼値を識別する、保存されたデータにアクセスする
  • 保存されたデータにおいて、その他の非隣接クエリの用語が、基準を満たしているかどうかに応じて、信頼値を特定する
  • 他の非隣接クエリの用語が基準を満たした信頼値の特定を基に、もともとの検索クエリを変更して、具体的なクエリの類義語の候補を盛り込む判断を下す

この特許は、共起の計測は、候補の用語/類義語のペアを、当該の用語が共に現れる頻度、関連するユーザーのクエリ(クエリのセッション内の続きのクエリ等)に対して現れる頻度、または、関連するクエリの結果で共に現れる傾向の頻度を基に評価するために用いられると説明している。

グーグルは、類義語のデータベースから複数の類義語を検討し、クエリ全体のコンテクストにどれだけフィットするかを確認する。例えば、用語「car」と「auto」は、とりわけ、 [car mechanic]や[auto mechanic]等のクエリで用いられている場合、類義語と考えられることが多いものの、[railroad car]や[railroad auto]等のクエリのコンテクストでは、類義語扱いされない。

[railroad car]を検索した人物が、この用語の結果に加えて、あるいは代わりに[railroad auto]の結果を望んでいる確率は低い。先程リンクを張った「交換ルール」に関する記事の中でも指摘しているように、類義語にも同様のルールが策定され、ともに類義語または代わりのワードのデータベースを作るために用いられる可能性がある。このデータベースには、共起のデータ等を基にした、用語が類義語または代わりのワードに値するかどうかにおける自信のレベル、そして、同じクエリ内のその他の用語に関わるルールを基に、類義語または代わりのワードかどうかにおける自信のレベルに関するデータが含まれると考えられる。

This image from the patent shows how two different candidate synonyms might be compared to other terms within a query to choose the best synonym to expand the original query with.

2005年にグーグルが申請した特許には、同様の領域が多く取り上げられており、また、関連する特許として、特許の審査官によって言及されている — クエリのコンテクスト内でクエリの用語の類義語を特定。この特許に関しては、グーグルに付与された後、 「グーグルがクエリ内のワードの類義語を使って検索を拡大する仕組み」で説明している。このタイプのクエリの拡大における概念は、長年、グーグルで検討されてきた。

ハミングバードとの関係

キーワードを検索ボックスに入力する行為自体は、問題視されていないものの、音声でクエリを入力する際、ユーザーはキーワードのマッチングを諦めているように思える。検索ボックスには[chicago style pizza restaurant]のようなクエリが入力されるものの、携帯電話での音声検索においては[What is the best place to find and eat Chicago deep dish style pizza?]等のクエリが用いられる傾向が強い。

この特許では、前後関係を考慮してクエリが用いられ、当該のクエリ内の別のワードを類義語や代わりのワードで置き換えることが可能な他のワードを正確に理解する仕組みの例が豊富に紹介されている。

ハミングバードのアルゴリズムは、この特許の説明とは若干異なる仕組みで動く可能性はあるものの、共通点は多数見受けられる。これは、ハミングバードの特許なのだろうか?皆さんの意見を聞かせてもらいたい。


この記事は、SEO by the Seaに掲載された「The Google Hummingbird Patent?」を翻訳した内容です。

特許取得者に日本人らしき名前の人が記載されていたのが(日系人かもですが)気になる私でした。ハミングバードのアルゴリズムに直接使われている保証はありませんが、Googleが進化する過程で必要な考え方であり、技術なのでしょうね。記事の最後にも書かれていましたが、今後Googleがその舞台をPCからモバイル、そしてGoogleグラス等のハンドフリーデバイスに拡げ、音声入力がキーワード入力以上に当たり前になってくる時代がいつか来るのでしょうし、ハミングバード、そしてそれを支える様々なGoogleの技術や特許が新時代のGoogle検索の根幹を担っていくのでしょう。 — SEO Japan [G+]

スマホSEO講座完全版(テクニカル編)

スマホとPCユーザーの比率がサイトによっては逆転するようになった今日、スマホユーザーを意識したサイト作りはSEO含めて欠かせません。とはいえ、レスポンシブデザインで対応すればよいという話ではなく、様々な考慮すべき要素がそこには存在します。今回は特にテクニカルな視点からスマホサイトにおいて考慮すべきSEO要素について簡潔かつ詳細にまとめ上げてくれたサーチエンジンランドの素晴らしい記事を紹介します。 — SEO Japan

Google mobile app logo先日、SMX Advancedで、私はテクニカルSEOのパネルの司会進行を務めた。このパネルでは、グーグルのマイリー・オイエ氏は、グーグルがモバイルのコンテンツをクロールし、インデックスし、そして、ランク付けを行い、モバイルデバイスのユーザーに提示する仕組みを基にモバイルサイトのテクニカルSEOのベストプラクティスについて説明した。

また、オイエ氏は、モバイルのユーザー体験が、スマートフォンの検索ユーザーに対して、結果をランク付けする際の要素の一つであることを認めた先日の発表についても、言及していた。

今回は、このモバイルSEOに関する詳細、そして、サイトのモバイルユーザー体験を検索を考慮して、構築する方法(そして、モバイルユーザーに喜んでもらう方法)を紹介していく。

レスポンシブデザイン、ダイナミックサービング、それとも、モバイルURL?

モバイルのユーザー体験を一から構築しているなら、まずは、この問いに対する答えを見つける必要がある。既にモバイル向けのユーザー体験を作り上げているなら、自分のサイトに当てはまるセクションまで飛ばしてもらって構わない。この3つの選択肢は、全てユーザーおよびグーグルに有効に働く。そのため、インフラ、コンテンツ、そして、オーディエンスに応じて、最善のアイテムを採用してもらいたい。

実装するアイテム URL コンテンツ
レスポンシブデザイン デスクトップとモバイルに対して、URLは一つ 基本的に、全てのユーザーに同じコンテンツを提示するものの、デバイスとスクリーンのサイズを検知して、レイアウトを構築していく。スクリーンのサイズが小さくなると、表示するイメージやテキストの量が減る、あるいは、ナビゲーションが簡素化されることもある。
ダイナミックサービング デスクトップとモバイルに対して、URLは一つ 異なるデバイスのユーザーに異なるコンテンツを提供する。
モバイル URL デスクトップとモバイルに対して、異なるURLを利用 モバイルおよびデスクトップのユーザーエクスペリエンスは、全く異なる可能性がある。

 

レスポンシブデザイン

デバイスを検知し、レイアウトを調整するレスポンシブデザインは、万能型の戦略である。デバイスのタイプに関わらず、URLは一つであり、レイアウトの調整は自動的に行われる。これは、スマートフォン、タブレット、ラップトップ、そして、巨大なモニターの全てに有効である。 クロールは効率よく行われ、ユーザーは、リダイレクトがもたらす遅れを経験することはない。そして、検索エンジンは、一つのページをインデックスして、ランク付けを行うことが出来る。

ユーザーにとっても、グーグルにとっても、実用的であり、誰もが得をする。

グーグルは、CSSやJavaScript等のリソースのクロールをブロックする手法を薦めていない。なぜなら、グーグルは、レスポンシブなページの要素を構築する必要があるためだ(このようなリソースをブロックしない方が良いとグーグルは薦めている)。

唯一問題視されるのは、ページの読み込み時間である。モバイルデバイスでページが速やかにダウンロードされる点、そして、重いコンテンツ(動画、結局モバイルユーザーには表示しない広告等)を大量に読み込んでいない点を確かめてもらいたい。サイト上のコンテンツが問題になっているなら、ダイナミックサービングの利用を検討してみるべきである。

コンテンツのフォーカスについても考える必要がある。最終的に、デスクトップバージョンと比べて、モバイルバージョンに表示する/隠す内容が大幅に異なるなら、モバイルのURLを別に用意した方がよいだろう。

ダイナミックサービング

この方式では、サーバーは、コンテンツを返す前にデバイスを特定し、(レスポンシブデザインと同じように)一つのURLで応答する。レスポンシブデザインとの違いは、URLに読み込まれるコンテンツが、デバイスのタイプによって、大きく異なる可能性がある点である。

デスクトップバージョンのコンテンツを全て読み込むと、モバイルページの読み込みが遅くなる場合、ダイナミックサービングをお薦めする。ただし、実装の難易度は高くなる。

ダイナミックサービングの実装に関しては、Vary: User-Agent HTTP レスポンスヘッダーを利用してもらいたい。異なる状況で異なるコンテンツを提供しているためだ(Akamai等、一部のCDNは、このヘッダーを利用するページをキャッシュしない可能性がある。それでも、グーグルはVaryの利用を薦めており、また、このヘッダーを無視するように、Akamaiを設定することが可能だ)。

モバイル URL

馬車に乗り、バターを素手で撹拌し、折り畳み式の電話機を使っていたころ、モバイルデバイスのユーザーにレスポンシブデザインを用いているサイトは一つもなかった。当時の可哀想な折り畳み式の電話機は、ページをリクエストするものの、巨大なコードが向けられていることに気づき、何もできずに降参するばかりであった。

そのため、当時は、モバイルに対するベストプラクティスとして、モバイルページを別に用意する方法が求められており(通常は、m.のサブドメイン)、モバイルデバイス向けにコーディングが行われることが多かった(XHTML mobile profile/WAP 2.0、WML/WAP 1.2、または、cHTML(iMode))。

グーグルのモバイルウェブインデックスは、このようなページを保存しており、フィーチャーフォンのユーザーは、このページを検索することが可能である(今でも可能)。モバイル XML サイトマップは、このタイプのページをリスティングする上で用いられている。

しかし、このような未来志向の時代においては、モバイルのURLを別に持っている場合、マークアップを利用している確率は低い。恐らく、小さなスクリーンで見やすくするために、別にページを作っただけなのだろう。

グーグルは、URLが異なると、異なるページだと判断するため、グーグルに、デスクトップとモバイルのページの関係を理解してもらえるように、複数の作業を実施することが出来る。デスクトップでの検索と同じように、モバイルの検索ユーザーに対しても、サイトのビジビリティを確立することが目標である。

グーグルは、デスクトップのユーザーとスマートフォンのユーザーを単一のインデックスから探す。デスクトップとモバイルのページの双方がインデックスに存在する場合、双方のページを集め、適切なバージョンを採用する(下のランキングのセクションでこの点を詳しく説明する)。

この方法は、新しい選択肢が生まれているものの、今でも有効である。技術的に計測が簡単であり、これから紹介するアドバイスに従っていれば、ユーザーと検索エンジンの双方にとって効果的である。

とりわけ、モバイルユーザーに提供しているコンテンツが、デスクトップのユーザーに提供しているものと大きく異なる場合、このオプションの利用は合理的だと言えるだろう。

モバイル URL & リダイレクトのマッピング

まずは、検索エンジンとユーザーを考慮して、モバイルのページとデスクトップのページが適切にリダイレクトされていることを確認する必要がある。デスクトップのページにアクセスするモバイルユーザーエージェントは、モバイルバージョンにリダイレクトし、一方、モバイルページにアクセスするデスクトップのユーザーエージェントは、デスクトップのバージョンにそれぞれリダイレクトしなければならない。単純なことだと思えるかもしれないが、実際には、多くのサイトが怠っている

私はこの手法を常に薦めているが、モバイルユーザーをモバイルページに、そして、モバイルのデバイス以外のユーザーをデスクトップのバージョンにリダイレクトすることが、なぜ重要なのか、よく問われる。SEOに関係なく、現在は、モバイルデバイスが、コンテンツの利用と共有の主役になっている。例えば、Aさんは、飛行機に乗るために列に並ぶ時、記事を読んでいると仮定する。その後、Aさんは、ツイッターを介して、(モバイル)リンクをシェアし、オフィスで仕事をしているBさんがリンクをクリックする。

もし、このサイトがデスクトップ版にリダイレクトしない場合、Bさんは、モバイルページを見ることになる。これは、Bさんのユーザー体験にとってマイナスであるだけでなく、広告を表示しないため、収益にも良くない影響を与える。

ラップトップで開いた、ABCニュースのモバイルページのスクリーンショットを掲載する:

Mobile URL

Mobile URL

次に、デスクトップのURLで同じ記事を見た際のスクリーンショットを提供する。遥かに、ユーザーフレンドリーであり、広告も表示されている。

Non-Mobile URL

グーグルボット-モバイルのために特別な作業をする必要はない。モバイルブラウザとして、クロールを行うためだ。つまり、グーグルボット-モバイルも、通常のグーグルボットも、リダイレクトが適切に配置されていれば、リダイレクトされる。

デバイスのタイプに応じたリダイレクトを怠るだけでも、言語道断だが、それよりもさらに許せない行為がある。それは、モバイルユーザーをホームページにリダイレクトする行為だ。モバイルバージョンのページを用意していないなら、モバイルユーザーがデスクトップのページにアクセスした際に、デスクトップのページをそのまま見せてあげるべきである。モバイルデバイスのスクリーンを考慮していないページに、モバイルデバイスでアクセスすること自体、既に愉快ではないが、それでも、完全に関係のないページに飛ばされ、全く、情報にアクセスすることが出来ない状況よりは、まだよい。

モバイルページを持っているものの、デスクトップ向けのページを用意していない場合は、どうだろうか?モバイルバージョンのないデスクトップページのケースと同じように、モバイルバージョンを見てもらうべきである。

ちなみに、グーグルは、タブレットのユーザーに関しては、モバイル版ではなく、デスクトップ版にリダイレクトすることを薦めている。これは、グーグルが持つ、ユーザーの好みのデータを考慮した方針である。

また、モバイルページをrobots.txt経由のクロールからブロックするべきではない。こうすると、グーグルは、デスクトップとモバイルのページをクラスタにマッピングすることが出来なくなってしまうためだ。

モバイル URL & メタデータの追加

先ほども申し上げた通り、グーグルは、単一のインデックスを用いて、コンテンツをデスクトップのユーザーとモバイルのユーザーに提供しているものの、デスクトップとモバイルのページをまとめて、適切なバージョンのページをユーザーに与えている。そこで、モバイル版のページとデスクトップ版のページの間のリダイレクトに加え、メタデータを追加して、グーグルにシグナルを送り、マッピングを明確に示すことも可能である。

rel=canonical

モバイル版とデスクトップ版の双方にこのデスクトップのタグを利用することが出来る。このタグは、インデックスおよびランク付けのシグナル(外部のリンク等)を統合して、コンテンツの重複がもたらす混乱を回避する。

<link rel=”canonical” href=”http://www.example.com/desktop-version/my-new-favorite-show-is-scandal/”/>

rel=alternate media

この属性を利用すると、デスクトップとモバイルのURLをマッピングすることが出来るようになる。デスクトップのページでこのタグを使って、モバイル版を特定する(デスクトップ版を特定するために、このタグをモバイル版に用いることはない)。

デスクトップのページに、以下のコードを導入しよう(max-widthには、対応する値を入力する):

<link rel=”alternate” media=”only screen and (max-width: 640px)” href=”http://m.example.com/my-new-favorite-show-is-scandal/”/>”

alternate in the XML サイトマップでalternateを指定することも可能である。

モバイルURLのカノニカル版を指定する必要がある(ブラウザのアドレスバー内のURLを単純に投入するのはやめよう。任意のパラメータを含んでいる可能性があるためだ)。

SMX Advanced Mobile SEO

rel=next/prev

ページ番号を付与したコンテンツを持っている場合、rel=nextとrel=prev属性を利用することが出来る。ただし、ページにリストアップされている項目の数がモバイル版とデスクトップ版で異なる場合、この属性を使って、付随するページをまとめることは出来ない。コンテンツがマッチしないためだ。

SMX Mobile SEO Pagination

Vary: User-Agent HTTP ヘッダー

デバイスのタイプに応じて、リダイレクトを行っているのであれ、単純に異なるコンテンツを表示しているのであれ(ダイナミックサービング)、Vary: User-Agent” HTTPレスポンスヘッダーを返すように、サーバーを設定するべきである(ダイナミックサービングのセクションを参照)。

ランク付け & モバイルデバイス

スマートフォンでグーグル検索を行う場合、デスクトップで検索を行う場合と同じインデックスで情報を探すこといなる。グーグルは、デスクトップとモバイルのページをまとめているため、結果では次のような現象が起きる:

  • ユーザーにURLのデスクトップ版が表示される。
  • ユーザーが結果をクリックすると、グーグルは、デスクトップ版のページではなく、モバイル版のページを読み込む(ページの読み込みが早くなるため、ユーザー体験が改善される)。

(クエリのタイプ、ユーザーの居場所、デバイスのタイプ等)あらゆる要素によって、ランキングのシグナルは異なる。モバイルの検索ユーザーに関しては、ページのモバイルユーザー体験がシグナルに盛り込まれる(ランキングのシグナルを突き止めようとする人がいるが、シグナルは、クエリによって、そして、ユーザーによって大きく異なるため、ランキングシグナルを固定化すると、最終的に負けを見ることになるかもしれない)。

理想的なユーザー体験を阻むモバイルの問題は、モバイルの検索ユーザーに対して、上位にランクインするサイトの力を妨げるものの、デスクトップの検索結果のランキングには悪い影響を与えるわけではない。

これから挙げていくランキングのシグナルは、スマートフォンでの検索特有のシグナルである:

モバイルオンリーのページ

グーグルは、デスクトップおよびモバイル版のページに対して、インデックスおよびランキングのシグナルを統合しているため、モバイルオンリーのページは、シグナルの数が少なく、デスクトップ版のページを持つページほど上位にランク付けしてもらえない可能性がある。

ページの読み込み時間

マイリー・オイエ氏は、スマートフォンで読み込まれるページのローディングが1秒遅れることで発生するインパクトを調査したケーススタディを懲戒していた。この調査は、1秒経過するごとに、ページビューが9.4 %下がり、直帰率は9.3%増加し、コンバージョン率は3.5%下がると指摘している。

グーグルは、最高のユーザー体験をもたらすページにユーザーを導くことを望んでおり、読み込みが遅いページは、ユーザー体験を阻害してしまう。そのため、遅いページも上位にランク付けしてもらえない可能性がある。

オイエ氏によると、1秒以内に上半分のコンテンツを表示することが求められているようだ(現在のモバイルデバイスでの平均読み込み時間は、7秒間)。

リダイレクト

ページのリクエストに対して、モバイルデバイスが接続を確立するまで、0.6秒間かかる。つまり、リダイレクトを行う度に、0.6秒間が読み込み時間に加算されていく。

Mobile Latency Due to Redirects

リダイレクトが絶対に必要なケースもある。しかし、ターゲットのページに直接リダイレクトし、リダイレクトチェーンやループを除去する必要がある。

また、先ほども触れたように、モバイルユーザーをデスクトップのURLから、モバイルのホームページにリダイレクトさせてはならない。モバイルのユーザー体験を考慮すると、これはURLが存在しないことに等しいため、URLのランキングに悪い影響を与えかねない。同様に、ページが存在しない旨を伝えるエラーメッセージを、スマートフォンのユーザーに見せるべきではない。

オーバレイとポップアップ

ユーザーにアプリをインストールしてもらいたい気持ちは分かる。それほど素晴らしいアプリなのだろう。モバイルサイトよりも遥かに優れているのだろう。また、収益も得られるのかもしれない。なぜなら、モバイルの収益モデルはいまだに解明されていないからだ。気持ちは分かる。

しかし、グーグルは、検索エンジンのユーザーに答えを与えようと試みており、アプリのインストールを薦めるオーバーレイ等の障害物は、答えを早く提供する試みを遅らせてしまう。マイリー・オイエ氏は、プレゼンの中で、「“アプリのダウンロードを求める”インタースティシャル広告を用いて、余計なクリックをユーザーに強制する方針を見直す」よう薦めていた。

Mobile Overlays

言いたいことは分かる。アプリのダウンロード数が減ってしまうのだろう。しかし、ページが上位にランクインしなくなると、ビジターは減り、結局、ダウンロードの数は減ってしまう。モバイルページのレイアウトを調整して、もっと上手にアプリを展示してみよう。

下の例では、The Car Connectionは、検索エンジンのユーザーが求めるコンテンツ、そして、アプリのインストールを求めるメッセージ(閉じることが出来る)の双方を上半分に掲載している。

Mobile App Prompt

サポートされているコンテンツ

モバイルページでは、モバイルデバイスでサポートされているコンテンツのみを提供する必要がある。ユーザーが閲覧することが出来ないコンテンツ(あるいは、ユーザーが再生することが出来ない動画)のみをページで提供している場合、グーグルは、ユーザーを速やかに答えに導くことが出来ず、上位にランク付けしない可能性がある。

まとめ

  • モバイルとデスクトップのユーザーに対して、同じURL(レスポンシブデザインまたはダイナミックサービング)、もしくは、異なるURL(モバイル限定のページ)を与える。
  • デバイスに応じて動的なコンテンツを提示するページ、あるいは、デバイス特有のURLにリダイレクトするページに、Vary: User Agent HTTP ヘッダーを利用する。
  • カノニカル属性を利用する(デスクトップ版に対して)
  • モバイルとデスクトップに対して、別々のURLを利用するケース:
    • デスクトップとモバイルのユーザーを共に適切なページにリダイレクトする。
    • 該当するページを持っていない場合は、ユーザーをリダイレクトさせるべきではない。
    • タブレットのユーザーをデスクトップのバージョンにリダイレクトする。
    • デスクトップのURLのカノニカル属性を利用する。
    • rel=alternate mediaをデスクトップ版で使って、モバイル版を指定する。
    • ページが速やかに読み込まれることを確認する。
    • 不要なリダイレクトを減らす。
    • アプリを宣伝するインタースティシャル広告を介して、検索エンジンのユーザーがコンテンツにアクセスする試みを邪魔するべきではない。

以上の内容を踏まえて、モバイルを十分に活用してもらいたい。


この記事は、Search Engine Landに掲載された「The Definitive Guide To Technical Mobile SEO」を翻訳した内容です。

まさに充実の内容、これを80%以上対応できればスマホSEOも基本OKといえるような記事でした。スマホユーザーのアクセス比率が多いことはわかっていても、意外と何もできていないサイトが実はまだまだ大半ではと思います。スマホ対応サイトを用意する際に、ここに書かれてるSEO要素も考慮することでスマホサイトのアクセスも確実に増えるはず。 — SEO Japan [G+]

知らなかった!じゃすまされない「自転車ルール」認知の低さが浮き彫りに(インフォグラフィック)

近年の自転車ブームに比例して、この10年で自転車事故は60%も増加しているそうです。多くの都道府県で自転車に関する交通ルールが厳しくなってきている背景も考えると、自転車利用者に対してルールの認識不足が問われていると言ってよいでしょう。あなたは全部知っていますか?自転車の交通規制や事故に関する詳しい情報をインフォグラフィックで再確認しましょう。– SEO Japan

72%が知らなかった!自転車ルールや事故に関するインフォグラフィック※画像をクリックすると「保険の窓口インズウェブ」のサイトに飛び、全体をご覧いただけます。

まずは自転車利用者が増える背景を考えてみます(上図)。自転車は環境にも健康にもよい、、と思ったら意外と消費カロリーは少ないんですね。東日本大震災以降、節電意識の高まりや公共交通機関のダイヤの乱れがきっかけで自転車に切り替えた人もいるんだとか。

72%が知らなかった!自転車ルールや事故に関するインフォグラフィック

「飲酒運転の禁止」「子どものヘルメット着用義務」などの自転車に関するルールの中で、最も認知度が低かったのは「片手運転の禁止」。3ヶ月以下の懲役又は5万円以下の罰金ですが、全体の72%が「ルールを知らなかった」もしくは「罰則があることを知らなかった」と答えたとのこと。東京都が7月から自転車運転中の携帯電話やイヤフォン・ヘッドフォンの利用を明確に禁止したのは記憶に新しいですね。

※本インフォグラフィックは弊社がデザインをお手伝いさせて頂きました。

72%が知らなかった!自転車ルールや事故に関するインフォグラフィック

インフォグラフィックの最後では、自転車保険の加入率についても調査結果が示されています。厳密には自転車保険専用の保険ではなく、傷害保険や火災保険の特約に含まれている事があるとのこと。特約に含まれていることを知らない人も多いのかもしれませんが、加入率はたったの19%!一度確認した方がよさそうです。 — SEO Japan [G+]