Click Z Live Chicago-パンダ、ペンギン、そしてペナルティ。Googleの最新のアルゴリズムを知ろう。

Googleのアップデートの情報はSEO Japanでも頻繁に掲載していますが、複数のアップデートが行われているため、困惑してしまう方も多いのではないのでしょうか?今回のセッションではメジャーなアップデートの振り返りとペナルティを受けた場合のリカバリー方法を扱います。現在ペナルティを受けているサイトのWebマスターはもちろん、今一度自身のサイトを確認してみてはいかがでしょうか?– SEO Japan

原題:Panda, Penguin, Penalties and More: Staying on Top of Algorithm Updates
Speakers:
Nate Dame, CEO and Founder, Propecta
Matt Koulas, Senior SEO Specialist, Grasshopper

全体的な話と今後起こること

Googleにおける多様化
Googleは収入源を多様化させている。2012年ではGoogelの収益の95%が広告収入であったが、2014年(Q1-3)では90%まで下がっている。

SEOは変化している
Googleは変化している。マーケターはその変化に合わせて最適化しなければならない。しかし、Googleのアップデートが常にあなたにとって良いこととは限らない。

Googleはどこに向かっているのか?
Googleは常に最終目的地を設定している。そして、アップデートがその目的から外れることはない。Googleの最終的な目的とは、最も関連性があり、最も信頼性があり、速く、ベストなソリューションを検索者に提供するためのシグナルだ。

個々のアルゴリズム

Pandaアップデート
アドバイス・・・ゴミくずのようなコンテンツの作成は止め、低品質なコンテンツを破壊しよう。
概念・・・Googleは低品質なユーザー経験を嫌っている。もしも、あなたのサイトが他社のサイトを困惑させるサイトであるならば、すぐにやめよう。
開始時期・・・2011年2月23日(Farmerアップデート)

Penguinアップデート
アドバイス・・・キーワードの詰め込みはやめよう。
概念・・・タイトルでの詰め込み等、ユーザーの利益にフォーカスしていない従来のランキング要素は、今後も重要性が低下していく。
開始時期・・・2012年4月24日

Knowledge Graph
アドバイス・・・Wikipediaでのあなたの会社の情報をすぐに更新しよう。
概念・・・Googleは顧客をGoogleに可能な限り引き留めたい。

Pirateアップデート
アドバイス・・・コンテンツの海賊行為はやめよう。
概念・・・コンテンツの海賊行為は絶対にやめよう。
開始時期・・・2012年8月10日(DMCAペナルティ)

Hummingbirdアップデート
アドバイス・・・リンクビルディングを無効化するのか?SEOの終わりか?
概念・・・Googleはバックエンドでマシンラーニングを使用している。より速く、正確に。
開始時期・・・2013年8月20日

Pigeonアップデート
アドバイス・・・ローカルへの注力。
概念・・・”ローカルSEO”と”スタンダードSEO”の融合。
開始時期・・・2014年7月24日

これからのSEO

ランキング上昇のために
ショートカットやトリックはない。チェックリストを作成して漏れのないようにしよう。また、長期間に継続した成長を目的にすること。テクニカルな要素(ロードの早いサイトと遅いサイトなど)は基本要素。基本ルールを曲げてはならない。

ターゲットキーワードとユーザーインテント
検索者のニーズを満たすようにしよう。そのキーワードでユーザーが何をするか?彼らのためのコンテンツとは何か?を常に考える。

インフルエンスビルディング
構築するべきはリンクではなく、インフルエンス(影響)。インフルエンサーをキャッチするLPを作成しよう。また、ターゲットとなるファネルは単体のレベルではなく、全体のファネルになる。

SEOとペナルティ

1.依存を避ける
リンク、簡易なコンテンツ、完全一致を避ける。内部リンクの構造と不自然な被リンクを見直す。内容が薄く、低品質で、編集されていない、求められていない、キーワードに特化したコンテンツは作成しない。アンカー、コンテンツ、ドメインの完全一致も避ける。

役に立つツール
ScreamingFrog・・・内部リンクの精査。
MajesticSEO・・・被リンクの精査。
Hemingway App・・・コンテンツの精査。
UserTesting.com・・・ランディングページの精査。

2.診断する
ペナルティを受けた際には、アルゴリズムによるものか、手動によるものか判断しよう。

アルゴリズムの診断
アルゴリズムによるペナルティかを判断するためのツールを紹介する。
Panguin Tool・・・パンダ、ペンギン、ローカルアップデートの判断。
Reconsideration.org・・・ペンギンの診断と、競合他社の診断。
Moz’s Google Algorithm Change History・・・Googleのアルゴリズムの変更のまとめ。

マニュアルアクションの診断
Webマスターツールで確認する。不自然なリンクを抽出しよう。その他、クローキングや隠しテキストなどの場合もあるが、こちらの記事によくまとまっている。

3.分析する
データの収集をまず行う。収集元は、Webマスターツール、Majestic SEO、AHREFsなどを使用しよう。

リンクデータをカテゴライズする
WebマスターツールのデータとMajestic SEO(またはAHREFsなど)からデータをエクスポートし、エクセルでマージする。その後、自然リンク、スパムリンク、完全一致のリンクなどにカテゴライズし、リンクの問題を特定する。

不自然なリンクがあった場合
あらゆる情報からリンク元へのコンタクトを試みる。サイト上ではメールアドレス、電話番号、コンタクトフォームなど。WHOIS情報からも確認できる。また、ソーシャルでの連絡先が掲載されている場合は、そちらからのコンタクトも試みる。

4.行動する
上記の方法で連絡を試みる。多くがEメールでの連絡となるが、その際は、正直に、ストレートに依頼する。送付の間隔は1-2日間あける。相手からの連絡方法を記載する。

5.リカバリーする
再審査リクエストと否認リンクのリストを送信する。再審査リクエストには、問題が起こった経緯、リンクの特定方法と除去・維持をした理由、ログ、リンク元にコンタクトを試みた証拠、今後のプランなどを明記する。もし、リンク元がリンクを解除してくれた場合は、リストから外してあげよう。また、あまりにも可能性が低い場合は、新しくサイトを構築することも検討しよう。

資料
1.手動ペナルティの解除プロセス
2.再審査リクエストでのコンタクトリスト
3.再審査リクエストのサンプル
4.否認ファイルのサンプル

まとめ
1.避ける・・・SEOを最適化させすぎない。
2.診断する・・・Webマスターツールや各種診断ツールを活用。
3.解決する・・・プロセスベースの分析、行動、ドキュメント作成。

2014年の9月から10月にかけて、多くのアップデートが更新されました。この記事を書いている時期も、ペンギン3.0の話題は毎日のようにでています。今後も様々な変更をGoogleは加えていくと思いますので、最新情報は常にキャッチしておきたいですね。記事中のツールや資料は全て英語となっており、現段階では全てを細かく確認できてはいませんが、役に立ちそうなものはぜひご活用ください。

インハウスSEOになる前に知っておきたいこと

フリーランスのSEO専門家として活躍していた筆者が、某スタートアップのインハウスSEOとして仕事を始めた経験を元に、インハウスSEOとして考慮すべき点や成功の秘訣をまとめた記事を紹介します。インハウスSEOの重要性がかつてない程認められ、その存在感が増している今日、SEO会社から転職する人も増えているように感じますが、事前に読んでおくとヒントになる点が多いかも。 — SEO Japan

物事には順序がある。それでは背景から説明していこう – 1年前に誰かにインハウスのSEOとして働いていると言われたら、私なら笑って、もっと自分を大切にした方がいいと助言していただろう。

そして、現在、私はインハウスSEOとして働いている。しかも、今まで思いもしなかったこと、つまり「他の誰かのために働こう」と言うこの決断にこれ以上ないぐらい満足しているのだ。

Clicker.com - In House SEO & Audience Development

遡ること1年弱、私がメキシコでのサーフトリップから帰宅中に国境を越えようとしている時だった。電話を通じて私はeメールを受信した。アスクドットコムの元CEO、ジム・ランゾーン氏からのメールであった。ランゾーン氏は同氏が運営するスタートアップ Clicker.com(クリッカードットコム)の情報を簡潔に伝え、近所に来ているので会って話をしたいと望んでいた。しめしめ、これで仕事がまた一つ増えたぞ。私はそう思った。

私は一度話を聞くまでは断らないと言うポリシーを持っており、そして、当時黒字の事業を運営していたため、単なるネットワークの良い機会として位置づけていた。

仕事が必要だったわけでもなければ、お金が必要だったわけでもなかった。 また、私は5年もの間、他の誰にも恨まれていなかった。自分のライフスタイルを気に入っていたし、自分自身に満足もしていた。しかし、その数カ月後、ジム・ランゾーン氏は徐々に私の考えを変え、もし試していなかったら、絶対に後悔するような機会を私に与えてくれた。

私の好奇心を引き寄せたのは給料ではなかった(スタートアップそのものが魅力的だったのだ)。これは、大きな成功を収めると思ったビジネスに参加し、関与するチャンスだったのだ。私を鍛え上げ、スキルを磨き上げてくれる重役の人達と毎日連絡を取り合うためには、私にはキャリアの次のステージに進む必要があった。ベンチャー投資家や経営陣と話しをして、自分の才能を分かってもらう必要がった。

また、私はクリッカーが優れたアイデアであり、ポテンシャルを引き出すことが出来れば、夢のような大金が転がり込んでくる可能性もあると期待している。

インハウスSEOとして想定するべきこと

インハウスSEOが想定することは、企業によって異なる。私は面倒なことは苦手であり、そして、自分の知っていることのみを綴る主義なので、自分の経験を思い返していこうと思う。これは私がたまに考えることであり、真実でもあるのだが、私のライフスタイルは基本的にほとんど変わっていない。

これは働く場所が大きく関連していると思うが、クリッカーは業績ベースの企業であり、毎日出勤するタイプの企業ではない。私はたとえ一時間だけであっても毎日のように今でもサーフィン(ネットサーフィンではなく、波に乗るサーフィン)を楽しんでおり、平常心を保つ自由を謳歌している。

私は別の場所から自分のチームに指示を出し、オフィスに行くのは月に数回である。この環境は、私が業績を上げ、期待を上回っている限り変わらないだろう。

大きな違いは皆さんが想像しているよりも目立たないが、それでも様々な角度で見ると違いがある点は疑いようもない。

まず、他の人に指示および答えを委ねなければならない。運が悪ければ、数人に対して答えを提供しなければならない可能性もある。自分一人で仕事をしたことがあるなら、これは辛いと感じるだろう。

上司を尊敬し、上司と同じ目標を達成することが出来ると信じること、または達成したいと願うことが重要である。それでも、小声で文句を言いたくなるときはやって来るはずだ。

次に、責任が重くなり、焦点を完全に一つのプロジェクトに絞ることになる。 これは良いとも悪いとも言える。私のように注意力が欠けているなら、退屈であり、飽きてしまうこともある。クライアントと仕事をする場合、クライアントは一人ではなく、複数のプロジェクトに同時に取り組めるため、新鮮な気持ちで挑める点は、クライアントと仕事をする上でのメリットと言えるだろう。

もちろん良い点もたくさんある。毎月、同じような“確認”の声を聞かなくても済む。新しいビジネスのために四六時中慌ただしく動き回る必要はない。事務作業はなく、使えるリソースも多い。

自分よりも大きな何かの一翼を担うことになる。自分の戦略を実施するためだけのSEOに特化したチームを持つことが出来る。また、新しく、貴重なスキルを身につけることも出来る。そして、仕事の後片付けが遥かに簡単である。それでも、高い波が来る予報が出ている際に中部に向かうのは気が重い。有給休暇と言われる制度もあるが、ちょっとずつしか使えない。

さて、突然、自分の人気が高まることもある。まるで背中に的を背負っているかのような勢いである。私がクリッカーで働き始めたことを公表してから依頼される仕事の量が10倍以上に増したのだ。良いか悪いかは状況によって異なる。私は自分の勤務先に満足しているし、去るつもりはない。

インハウスSEOになる前に考えておきたいこと

クレイグズリストで初めて見つけた仕事にいきなり応募するのはよくない。インハウスSEOとして成功したいなら、自分の優先事項が加わる会社と一致していることを確かめる必要がある。

私は大企業とは生活が大きく異なるスタートアップに参加した。その点を肝に銘じておいてもらいたい。条件が合わなかったら、自分の仕事を手放すことはなかった。以下に、一大決心をする前に使ってもらいたいチェックリストを用意した。

SEOに対する賛同

CEOおよびその他の重役陣がSEOの効果を疑問視しているなら、諦めた方がいい。上司に自分のアイデアを信じてもらい、賛同を得るために全力を注がなくてはならないなら、インハウスSEOとしての生活はあまり楽しいものにはならないだろう。SEOが優先されておらず、また、リスペクトされていないなら、他の会社を探すべきである。

確固たる信頼

勤務を始めてから数週の間、CEOが私を脇に連れ出し、経営陣に対してもっと断固たる態度を取ってもいいと言われた。当時、私はその他の重役に命令を出す前に自分自身の力を証明する必要がある気がすると答えたのであった。

これは私にとっては新しいテリトリーであり、そっと進むようにしたのだ。するとCEOは「もう充分力を証明しているよ。だから雇ったんだ」と言ってくれた。これが転機となり、自分の専門知識が100%信頼されていることが分かり、私は嬉しかった。

CEOと自分の間の壁は少ない方が良い

重役がSEOに賛同しているからと言って、会社全体が賛同しているとは限らない。なかなか計画を実行することが出来ないときがある。エンジニアが何かを変える意図を理解していないこともあれば、最高財務責任者(CFO)が成功するために必要な予算を拒むことも考えられる。CEOと直接話すことが出来れば、このような障害を容易に乗り越えることが出来るだろう。主要な意思決定者が近くにいてくれるほど心強いことはない。

自分の運営スタイルに合う強力なチーム

人が違えば、運営のスタイルも異なる。そして、既にチームが用意されていても、または新たに雇用するにしても、作業を実行する際の自分のスタイルに合わせておきたいところだ。私は無干渉主義であり、人の行動を細かく管理するのは嫌いだ。

また、賢く、自発的で、事細かい指示を必要とせず、自分で行動を起こせる人物と働くことを望む。私はオフィスで働くわけではないので、何も連絡してこない時は必要な作業を行っていると信じたい。実際に、私のチームは称賛に値する。

順調に仕事を行うために使えるリソース & ツール

この点については細かく説明する必要はないだろう。仕事を行うには、そして、効率よく行うためには、必要なものがある。事前に交渉を済ませておき、何を期待するべきか分かっている必要がある。

自分に何が期待されているのかを把握している必要があるように、会社側も自分が何を期待しているのかを理解しているべきである。雇ってもらったものの、これからの仕事を否定されてしまうことだけは絶対に避けたい。これは印象が悪い。

インハウスSEOとしての仕事はすべての人に向いているわけではないが、クライアントと仕事をする際や自分のウェブサイトを運営する際には見出せないメリットを多く含む新鮮な方向性を味わうことが出来る。

私は皆さんにインハウスSEOになろうと諭しているのではない。しかし、考えているなら、そして、まだ行動を起こしていないなら、いっそのこと試してみてはどうだろうか。期待以上の経験を味わうことが出来る可能性がある。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Making The Jump To In-House SEO」を翻訳した内容です。

極めて全うな考察で、インハウスSEOを検討している人には、というより、インハウスSEOとして働くべき企業であるべきかを見極めるにも、参考になる記事でした。全てが理想的な環境は少ないと思いますが、こういったことを意識することがインハウスSEOとして活躍するためにも大事ですね。ちなみに筆者が勤めたClicker.com、ドメインが既に無かったので一瞬あせりましたが、無事に大手テレビ局に買収されたようです。 — SEO Japan [G+]

地味で退屈な業界で活きるソート・リーダシップを活用したリンク構築戦略

コンバージョン最適化に最近注意が向いているSEO Japanですが、コンテンツマーケティングやリンク構築も忘れていません!これからのリンク構築に欠かせないコンテンツマーケティングですが、B2Cや広告やファッション等、派手な業界ならともかく、地味で派手さのない業界の企業の場合、そもそもコンテンツマーケティングのネタがない!と嘆いている企業も多いのではないでしょうか。そこはアイデア次第、逆にチャンスも大きいとサーチエンジンランドからの素敵なアドバイスを悩めるウェブマーケッターに。 — SEO Japan

現在の検索業界では、大半のSEOキャンペーンが、コンテンツを主体として行われている。実際に、私が参加するキャンペーンの多くは、質の高いコンテンツを作成し、一流のサイトで配信する取り組みを軸に展開している。shutterstock_126540911-content

SEOに対するこのアプローチは、従来のSEOキャンペーンよりも、典型的なPRキャンペーンに似ている — 大半のデジタルエージェンシーは、このPRキャンペーンに近いアプローチを重視する必要があると私は考えている。

要するに — 今後のSEOの鍵を握るのは、コンテンツマーケティングである。

それでは、この流行りのワードを早々に出すことに成功したので、本題に入らせてもらおう。

楽しく、リンクを張りたくなるコンテンツを作成する取り組みは、奇抜な製品を販売するB2Cの企業にとっては、それほど大変な作業にはならない。Red Bull、そして、同社のStratosプロジェクトやOreoのDaily Twist キャンペーンが良い例だ。どちらも秀逸なアイデアであり、コンテンツマーケティングの模範として定着している。

しかし、このようなブランドの価値、または、Red Bull等の企業が持つクリエイティブな姿勢が欠けている場合、苦戦を強いられる可能性がある。

私が協力した企業の約9割は、所謂「面白味のない」業界に属する企業である — 例えば、特定の機械専用のバルブを製造する会社。

刺激的な製品に関連するマーケティングアクティビティとは範囲が異なり、また、Red Bull等の企業が繰り出すキャンペーンは、ブランド志向である。Red Bullのキャンペーンのように「宇宙から人間を落としてみてはどうですか?」と提案したところで、クライアントに納得してもらえないどころか、私個人の人格まで疑われてしまうだろう。

ただし、解決策がないわけではなく、実際に多数のクライアントのサイトで、絶大な効果を上げている。

ソートリーダーのイメージを確立する

私達が行う取り組みの中で、クライアントを当該の業界のソートリーダー(独自の考えを示すことが出来る存在)として定着させる取り組みは、素晴らしい成果を上げている。B2B業界、とりわけ製品/サービスが特定の分野に限定されている場合、特に効果が高い。

ソートリーダーシップを軸としたアプローチでは、社内で重要な鍵を握るスタッフを業界内でエキスパートとしてアピールし、(オンライン/オフラインの)複数の一流のパブリケーションに取り上げてもらい、この確立した評判を使って、リードをもたらす。 検索、ソーシャル、オフライン、または、その他の様々なチャンネルを介して、この取り組みを実行することが可能だが、全て作成するコンテンツを土台にしている。

通常のアプローチを紹介しよう:

  1. 社内で、ソートリーダーシップのコンテンツを活かすことが可能な重要人物を特定する。
  2. ブランドの価値に合致する人物を中心としたメッセージとストーリーを作る。
  3. 伝えようと試みているイメージを反映させるため、インターネット上のプレゼンス(プロフィール等のアイテム)を最適化する。例えば、LinkedInのプロフィールやTwitterの経歴欄等の作成が、この取り組みに該当する。また、オンラインとオフラインのプレゼンスが、届けようとしているメッセージと一致することを確認しておく必要がある。イメージをさらに展開するため、当該の人物専用のブログを開設するケースもある。
  4. 社内の重要人物を取り上げもらい、ブランドを広範なオーディエンスにアピールするため、ターゲットにする一流のパブリケーションを特定する。
  5. 特に力を入れる主要なトピックを網羅するコンテンツ計画を策定し、重要な業界のトピック、イベント、さらに、会社の広範なニュース/キャンペーンと照合していく。
  6. 一流のパブリケーションにアピールして、信頼を得るための評判を高める取り組みに着手する。評判を高めるための取り組みとは、著名な業界のパブリケーションで取り上げてもらい、今後の紹介を促進する試みを指す。
  7. 業界のインフルエンサー、ジャーナリスト、名のあるコンテンツプロデューサーを特定し、関係を構築する。
  8. 仕事に精を出す。

先程も触れたように、全ての取り組みの中心となるのは、コンテンツである。そこで、業界の最新のトピックに関する詳細なレポートを作成し、ターゲットにしているパブリケーションを魅了する視覚的に優れたコンテンツを用意する。

Digital Asset Creation

(クリックして、拡大する)

上の図表は、デジタルキャンペーンに導入する新しいコンテンツを作る際に確認する、大まかなフレームワークである。テキストベースの記事のようにシンプルな作品から、マルチメディアをふんだんに詰め込んだインタラクティブなマイクロサイトのような高度な作品が該当することもあるが、全て同じ原則が適用される。

それでは、SEOの成果を改善するソートリーダーシップキャンペーンを築くステップを詳しく考察していこう…

ステップ 1: ソートリーダーを特定する

会社の規模に関わらず — ソートリーダーシップには、希望通りのイメージに会社を位置づける効果がある。この点を考慮する際に、社内のスタッフをキャンペーンの最前線に送り出す取り組みが、とても重要になる。

製品に重点を置く際は、技術力に優れたスタッフをソートリーダーとして位置付けることになる。すると、製品のスペシャリストとして、製品の仕組みを語ることが可能になる(特にテクノロジー中心の分野で)。

代わりに、取締役やディレクターにソートリーダーになってもらう手もある。この手法では、たとえ、当該の人物が無名であっても、パブリケーションにアプローチする際に、大きな信頼感を与える効果が期待できる。

キャンペーンの重要な目的をまとめ、重要人物が持つスキルを合わせて、ソートリーダーを特定するのが最善の方法である。例えば、製品の長所に対する認知度を高めること、ブランドの社会貢献の実績を確立すること、もしくは、インターナショナルな印象を与えることが目標に該当するかもしれない。目的によって、異なる人物がソートリーダーの候補に上がることもあり得る。

ステップ 2: ストーリーを作る

大半の大きな企業において、戦略的なストーリーテリングは、大きな役割を担っている。世界的に有名な企業は、会社の中心に染み渡る明確なメッセージとストーリーを持っている。

英国の老舗自動車メーカーのAston Martinが良い例だ。いつかAston Martinの車を所有したいと夢見る人は多い。同社は常に高級感がある、玄人好みの、上品なコンテンツキャンペーンを展開し、ジェームズ・ボンド等のつながりを活かし、この圧倒的な豪勢さを生み出している。

innocent-drinksInnocent Drinksも気に入っている。同社は、非常に競争の激しい業界に参入し、誰もが失敗を予想していた。しかし、この悲観的な予想を裏切る結果を同社は達成した。この成功をもたらした要因は、製品と結びつけたストーリーであった。

Innocent Drinksのスムージーを飲むことは、格好良いと言うイメージが定着したのだ。同社は、エコに重点を置き、多くの大手の会社が採用するプロセスに逆行した。

Innocent Drinksは、音楽のイベントで製品を売り始め、ビジネスを続けるべきかどうかを、空のボトルを「YES」と書かれたゴミ箱、もしくは、「NO」と書かれたゴミ箱に捨ててもらうことで、購入した人に尋ねた経緯を詳しく説明している。

同社の全てのマーケティングの取り組みに、何らかの形でこのストーリーが反映されており、新しい物好きの若者のマーケットにアピールしている。また、同じ顧客層をターゲットにしたその他の会社とのコラボレーションを積極的に進めてきた。

面白いことに、Innocentの製品を買うアンチ大企業の人達は、Innocent Drinksが、実はCoca Colaの子会社である事実に気づいていない。これは、Innocent Drinksのストーリーの力強さを証明していると言えるだろう。

この点を踏まえて、ソートリーダーシップをアピールするコンテンツの中で伝えるストーリーを考えてもらいたい。一貫性が重要である。そして、この一貫性こそが、明確に決めた、包括的なメッセージを持っている場合、全ての取り組みを一体となって前進する原動力になる。

ステップ 3: オンラインプレゼンスの最適化

このようなキャンペーンにおいて、このステップは、見落とされることがとりわけ多い。

社内のスタッフをエキスパートとしてアピールするつもりなら、全てのオンラインのプレゼンス(アカウントやプロフィール等のアイテム)に反映させる必要がある。必要な作業の量は、プロジェクトの規模に左右されるが、私は通常次の取り組みを実行する:

  • LinkedInのプロフィールの徹底した最適化 — 写真、プロフィール欄のコピーライティング、肩書きの更新、推薦と認定の追加、実務経験の更新を含む。
  • Google+のアカウントの更新と既存のコンテンツに対するオーサーシップの設定。
  • プロフィールの画像(その他のプラットフォームと同じ写真が理想)、経歴の情報を含む、Twitterのプロフィールの更新。また、既に配信されている既存のコンテンツの詳細な分析も行う。適切なメッセージを伝えていない投稿を削除するためだ。
  • 個人のブログの開設(常にこの作業を行うわけではないが、個人に対する信頼を植え付ける上で効果的な方法であり、リンク構築の武器になる)。

ステップ 4: 一流のパブリケーションの特定

キャンペーンに着手する際、確保したい最高のパブリケーションを特定するため、十分に時間を割いて、クライアントの業界におけるコンテンツの現状を分析する。この取り組みにおいては、分野に特化させる必要があるが、必ずしもオンラインに固執しなくても良い。オフラインでの配布は、ブランドへの信頼性を高め、オンラインでの配信の機会をもたらすことがある — リンクだけにこだわるべきではない。

この取り組みと並行して、同分野のトピックを取り上げる一流のジャーナリストを調査し、分析していく。社会的な実績、連絡先情報、寄稿するメディア、投稿することが多いコンテンツのタイプ等を調べると良いだろう。この情報を使うと、コンテンツを当該のジャーナリストが好みそうな作品に調整することが可能になる。すると、採用してもらう確率は大幅に高くなる。

この分析では、広範なブランドに対する記事にも注目するべきだ。私が良質なターゲットを特定し、コンテンツを配信してもらう際に用いる方法を詳しく知りたいなら、この記事に目を通しておこう。

ステップ 5: コンテンツ計画書の策定

コンテンツ計画書の策定は、恐らく最も重要なステップだと言えるだろう。ここでは、当該の分野に存在するコンテンツのギャップを見つけ、このギャップを埋めるような大作に力を入れる必要がある。

前回、Mozに投稿した記事では、データのスクレイピングを用いて、自分が働きかけている業界をリードするウェブサイトを分析して、成功するコンテンツに欠かせない要素の見解を得る方法を紹介した。この分析結果があると、投資に対して、より大きな見返りを得られるようになる。

多くの壮大なアイデアを考案し、小さなコンテンツで脇を固めるアプローチを私は好む。例えば、専門的なレポートを作り、その後、このレポートを裏付ける複数の記事を作成して、社内のエキスパートの名前で投稿し、コンテンツ攻勢を活用する。

レポートはあくまでも例の一つだが、あまり良い例とは言えないかもしれない。テクノロジーの分野に属していたとしても、特定の形式にこだわる必要はない。より広範なオーディエンスにコンテンツを見てもらい、その一方で、達成しようとするイメージに一致する、ブランドのストーリーの一面を見つけてもらいたい。これはリンクを得る上で最強のコンビになる。

個人的に、全米のトラック運転手の仕事に特化したTruckerClassifieds.comは良い例だと思う。同サイトは、インフォグラフィック Truckpocalypseを作成する際に理想の視点を見出し、その結果、ソーシャルメディアで3,000回以上シェアされ、700本以上のリンクを獲得した — なかなか立派なスタッツだと言えるだろう。このインフォグラフィックを見たことがないなら、是非、見てもらいたい — その価値はある。

Truckpocalypse Infographic

飲酒運転に狙いを絞ったTwonCentreCarParks.comのこのインフォグラフィックも模範的なコンテンツの一つである。このインフォグラフィックは、ブランディングにとってプラスに働き、さらに、サイトにもたらされた大量のトラフィックだけでなく、リンク/ソーシャルシェアにおいても、素晴らしい成果を残した。

Drink Driving Infographic

今回の投稿では、コンテンツを作成するプロセスの詳細に踏み込むつもりはないが(このトピックが自体が記事として成立するため)、様々なフォーマット、トピック、そして、アプローチを試しておくことを薦める。

ついでに、コンテンツの計画書を文書にまとめる際に役立つ良質なExcelのテンプレート(.zip ファイル)を紹介しておく — このテンプレートに救われる人が大勢いるはずだ(パム・ダイアー氏に感謝)。

コンテンツの作成に関して、オンラインで利用するために作成したコンテンツは、オフラインで、販促/マーケティングツールとしても利用することが出来る点を覚えておいてもらいたい。このポイントは、支持を得る上でも有効に働く。Animagraffsが作成したこのインタラクティブなインフォグラフィックを参考にしてもらいたい。

Animated Infographic

ステップ 6: 評判を高める取り組み

評判を高めるための取り組みとは、著者の信頼を高めることのみを目的に掲げ、コンテンツを掲載してもらう取り組みを意味する。この評判を高めるための取り組みは、ソートリーダーシップを得るためのキャンペーンにおいては、欠かすことが出来ない要素である。

評判を高めるための取り組みを実施する方法は幾つかあり、いずれの方法も長所と短所を持っている。以下に、私が通常利用するアプローチを紹介する:

スポンサード投稿: スポンサード投稿とは、単純に有料のコンテンツを指す。投稿内のリンクはnofollowだが、これは大した問題ではない。今後、ジャーナリストに連絡を取る際に、援護してもらうことが、エキスパートとして、コンテンツを提供する主な目的である。先程、「リンクのことばかり考えていると、このタイプのキャペーンに取り組むことが出来ない」と言ったのは、このためだ。

多くの一流のパブリケーションは、スポンサード投稿を認めているが、投入可能な予算に左右される。たとえ数回であっても、スポンサード投稿を実行すると、大きな効果が現れる。

このアプローチの長所は、すぐに実行することが可能であり、残りのキャンペーンに着手することが出来る点だ。

一流のライターに協力を呼び掛ける: 今年の始め、一流のパブリケーションのライターを特定し、関係を構築し、代わりに一流のサイトにコンテンツを投稿してもらう方法を記事の中で紹介した。これは私が実際に何度も実施し、輝かしい結果を残した戦略であり、評判を高めるための取り組みを実施する際に心強い味方となる。

このアプローチの長所は、継続的に活用することが可能な関係を築くことが出来る点だ。この関係から幾つかリンクを得られる可能性がある。短所は、スポンサード投稿等のアプローチと比べ、大幅に時間がかかることだ。

受け身のPR要請を行う: HAROやResponseSource等のサービスには、PRを行うチャンスが数多く眠っている。ジャーナリストは、常にエキスパートによる情報を求めているため、このタイプのサービスは、スピーディーに特集記事を確立する効果が期待できる。

このプロセスに関しては、今年のリンク構築(既に半ばに差し掛かっているが)に関する記事の中で、もう少し詳しく説明しているので、目を通しておこう。

ステップ 7: 関係構築

コンテンツの作成に取り掛かり、オンラインのプレゼンスを最適化し、初期の配信の機会を獲得したら(評判を高めるための取り組み)、次に長期的にリンクを得る上で活躍する関係構築に着手する。

ソーシャルメディアの利用が進んでいない業界では、関係構築は、とても難しく感じるかもしれないが、実際には、競争相手が少ないことを意味する。

この類の企業においては、3つのタイプの人物との関係構築に励むようにしている — 1.ジャーナリスト(出来ればフリーランスのジャーナリストが良い。なぜなら、複数のパブリケーションに寄稿しているため、投じる資金からより多くの利益を得ることが出来るからだ) 2.関連する分野のパブリケーションの編集者 3.業界のインフルエンサー。とりわけ、よりテクノロジーを重視する業界においては、時間と資金を大いに節約する効果が見込めるため、PRのデータベースを活用することを強く薦める。

ただし、ジャーナリストや編集者に接触する際は、良い印象を残すチャンスは1度しかないことを肝に銘じておいてもらいたい。同じメッセージを大勢のターゲットに一度に送る戦略は効果がないため、回避するべきだ。出来るだけ手をかけ、パーソナイズさせるべきである。また、事前にコンテンツを作成して、ジャーナリスト/編集者に売り込む方が、ゲスト投稿を好むかどうかを確認するためにEメールを送信するよりも、効果が高いことを私は実感している。

このガイドは、Eメールで優れたの売り込みメッセージを作成する際に役に立つかもしれない。

まとめ

ソートリーダーシップは、 面白味のない、もしくは、専門的過ぎると言う理由で切り捨てる人が多い業界で、キャンペーンを実施する際に、大きくプラスに働く。このアプローチのみを介してSEOのプロジェクトを実施したことがあるが、経験上、全体的な取り組みの一つの要素と位置づけた方が良い。

固有のコンテンツを介して、そして、社内の重要な人物を業界のエキスパートとして確立する取り組みを介して、構築される関係は、時間の経過と共に、自然な言及を生み出すきっかけとなる。これは、すぐに起きるわけではないが、販促ツールとしても利用可能な優れたコンテンツを作成し、社内の重要なスタッフの評判を高め、オンラインとオフラインのプレゼンスを一貫して活性化することで、ブランドに対する認知度を上げる取り組みを中心としたリンク構築戦略を求めているなら、ソートリーダーシップを確立するアプローチを薦める。

全文に目を通す時間がない方へ

  • 大勢の人達につまらないと見なされている業界であっても、異なる視点で考えるべきだ。チャンスと考えよう。
  • ソートリーダーシップは、単なるゲスト投稿の取り組みではない。
  • リンクを得ることだけを考えて、このタイプのキャンペーンに向き合うべきではない。
  • 評判を高めるための取り組みを行い、今後の接触キャンペーンの効果を上げよう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「A Step-By-Step Guide To Link Building For Boring Industries Or Products」を翻訳した内容です。

元記事のタイトルには「ソート・リーダシップ」というキーワードは入っていなかったのですが、ほぼソート・リーダシップの話だったので、あえて追加しました。ソート・リーダシップ(thought leadership)という言葉、コンテンツマーケティングの台頭と共に米国で出現頻度が増しています。日本ではまだ余り注目されていないとも思いますが、B2B業界で専門的な記事を積極的に書いてその分野の大家になっている人や企業は日本でも多いですし、結果ソート・リーダーシップを構築しているわけですけどね。SEOでもSEO Japanはともかく、そういったブログや人が多くいますし。細かいプロセスが書かれてはいますが、まずは情熱を持って取り組むことが大事なのかな?と思います。 — SEO Japan

SEOの健康度を把握する21のポイント

SEOを日常的に運用する上で、その時その時の変化を瞬時に感じて必要な対応策を打っていくことがSEO成功の1つの鍵ですよね。今回はサーチエンジンランドがまとめてくれたSEOにおける気づくべき・意識すべき可変要素とその察知法をまとめてくれたお役立ち記事を。– SEO Japan

health-computer-keyboard-fix-ss-1920

SEOの健康度を計測する取り組みは、検索マーケティングの効果を維持する上で、不可欠である。ちょっとしたきっかけで、パフォーマンスが低下してしまうため、翌月のレポートを待ってから、低調なパフォーマンスを発見しているようでは、検索マーケティングに多大なダメージがもたらされる可能性がある。

パフォーマンスに良くない影響を与える問題に対処するため、毎日、もしくは、毎週、計測するべきSEOの健康度の目安が幾つか存在する。このような目安は、通常、具体的な問題点を指摘してくれるわけではないが、パフォーマンスの低下の原因を調査する際の手掛かりを得ることが出来る。

この記事で言及するアラートの方法、頻度、そして、条件は、大多数のサイトに適応することが出来るが、特別なニーズを持つサイトや非常にアグレッシブなSEOプログラムを実施しているサイトは、調整する必要がある。

1. 自然なトラフィック

自然なトラフィックの増加は、SEOプログラムが掲げる主な目標の一つであり、自然なトラフィックの量は、SEO戦略の影響を大きく受ける。自然なトラフィックが減少しているなら:

  • 何がうまくいかなかったのかを調べ、対応する
  • 別の健康度のスタッツを用いて、問題の原因を探る作業を強化する
  • サイトの全てのセクションに対する自然なトラフィックをチェックし、パフォーマンスの悪いセクションが存在するかどうか、あるいは、サイト全体がダメージを受けているのか確認する
  • 全てのデータをデスクトップとモバイルに分類し、モバイルSEOのパフォーマンスが低下しているかどうかを調べる
  • 他のチャンネルのマーケティングアクティビティが低下しているかどうか確認する — 例えば、ブランドアウェアネスの低下は、ブランド検索の低下をもたらす

自然なトラフィックの量が増えたなら:

  • 何がうまくいったのかを突き止め、サイト全体への適用を検討する

Google アナリティクスで、前の週と比較して、自然なトラフィックが5%以上増えた、または減った場合、Eメールで警告してもらえるように設定する。

2. ノーリファラートラフィックの変化

自然なトラフィックの増加に力を入れるものの、ダイレクトトラフィック(ノーリファラートラフィック)に関心を示さない人は多い。ユーザーは自然な検索でサイトを発見し、その後、直接戻ってくるケースが多いため、ノーリファラートラフィックは、パフォーマンスの基準として重要度が非常に高いと言える。検索の暗号化とブラウザのセキュリティが強化されるにつれ、アナリティクスでは、多くの検索トラフィックが、ノーリファラートラフィックとしてカウントされるようになった — httpのリファラーのデータは、とりわけモバイルデバイスにおいて、入手不可能になっている。そこで、ノーリファラートラフィックが減っているなら:

  • 同じ傾向が自然なトラフィックにおいても起きているか確認する
  • モバイルデバイスの利用をチェックし、モバイルデバイスの利用が減っているかどうかを確認する — 最近のモバイルブラウザの多くは、http リファラーのデータを渡さないためだ
  • 最近、他のマーケティングのチャンネルをUTMでタグ付けしたなら、ノーリファラートラフィックが減る
  • 他のチャンネルのマーケティングアクティビティが低下しているかどうか確認する — 例えば、ブランドアウェアネスの低下は、ダイレクトトラフィックの減少をもたらす

ノーリファラートラフィックが増えたなら:

  • 何がうまくいったのかを突き止め、サイト全体への適用を検討する
  • UTMのタグ付けが正しく行われているかどうか確認する
  • モバイルデバイスの利用が増えているかどうか調べる
  • 他のチャンネルのマーケティングアクティビティが増加しているかどうか確認する

Google アナリティクスで前の週と比較して、ノーリファラー(ダイレクトトラフィック)が10%以上増加、または、低下している場合、Eメールで警告してもらえるように設定する。

3. 参照トラフィックの変化

参照トラフィックは、リンクを得たか、あるいは、失ったかを知ることが出来る、優れたリンクプロフィールのパフォーマンスの基準である。また、サイトにトラフィックをもたらしているか否かで、リンクの価値を評価するために利用することも可能だ。参照トラフィックが減少しているなら:

  • 被リンクのプロフィールと参照トラフィックを調べて、インバウンドリンクを失ったかどうかチェックする
  • リンクからもたらされるトラフィックが減っているなら、リンクを張るウェブサイトがデザインを変更し、クリック数が低下しているかどうか確認する

参照トラフィックが増加しているなら:

  • トラフィックを送り込むようになったサイトを特定し、当該のサイトからさらにリンクを得る機会を調べる

Google アナリティクスで前の週と比較して、参照トラフィックが10%以上増加した、または、低下した際にEメールで警告してもらえるように設定する。

4. キャンペーンのトラフィックの変化

キャンペーンのトラフィックは、直接SEOのパフォーマンスに影響を与えないものの、参照トラフィック、または、ブランド検索のトラフィックが、変動している理由を知る手掛かりを与えてくれる。Google アナリティクスで前の週と比べて、キャンペーンのトラフィックが20%以上増加した、または、低下した際にEメール警告してもらえるように設定する。

5. Eメールのトラフィックの変化

キャンペーンのトラフィックと同じように、Eメールのトラフィックも、参照トラフィック、または、ブランド検索のトラフィックが変化した理由を知る上での手掛かりとなる。Eブラストを配信する度にGoogle アナリティクスでメモを作成しておこう。また、前の週と比較して、Eメールのトラフィックが、20%以上増加した、あるいは、減少した場合、Eメールで警告してもらえるように設定すると良いだろう。

6. セッションの変化

現代はマルチデバイスの時代であり、各種のデバイスをまたいでユーザーを結びつけるのは容易ではない。また、ユーザーは、各種のマーケティングの手法を通じて、サイトに戻って来る。そのため、セッション全体の増加、または、減少を計測すると、マーケティングの成果を高いレベルで把握することが可能になる。Google アナリティクスで、前の週と比較して、セッションが10%以上増加している、または、減少している場合、Eメールで警告してもらえるように設定しよう。

7. ユーザー数の変化

サイトへの全体的なセッションに加えて、ユーザー数もまた、計測するべき重要な目安である。ユーザー数は、パフォーマンス全体が、本当にトラフィックを増加させているのかどうか、または、ユーザーがサイトを積極的に利用するようになり、より頻繁に戻って来ているかどうかを判断する際に役に立つ。Google アナリティクスで、前の週と比較して、ユーザー数が10%以上増加した、あるいは、減少した場合、Eメールで警告してもらえるように設定しよう。

8. モバイルデバイスの利用

先程触れたが、http リファラーデータは、モバイルブラウザ、および、一部のデスクトップにおいて、取得が制限されるようになっている。さらに、モバイル検索の利用が増えていることもあり、SEOプログラムのROIを計測するのが、ますます難しくなっている。Grouponが最近実施した調査によると、– とりわけモバイルにおいて — 検索トラフィックの最大60%がノーリファラートラフィックとカウントされるようだ。そこで、Google アナリティクスで、モバイルデバイスの利用を前の月と比較し、その結果を毎月Eメールで自動的に配信すると良いだろう。

9. ページ速度の増加

ページ速度は、SEOのパフォーマンス、コンバージョン、そして、ユーザビリティにおいて、重要な役割を担っている。ページが読み込まれる時間が長くなると、検索エンジンは、ネガティブな品質のシグナルと判断し、スパイダーによるクローリングの効率は悪くなり、ユーザーは不快感を持つようになり、そして、コンバージョン率は大幅に低下してしまう。Google アナリティクスで、ページ速度が10%以上上がってしまった場合、自動的に毎日警告を行ってもらえるように設定しておこう。さらに、ページの速度が…秒を上回った際にもEメールを送ってもらうようにすると良い。加えて、ページ速度が遅い50ページを2週間に1回のペースで自動的にEメールで伝えてもらおう — その際は、地域のデスクトップのユーザーとモバイルユーザーに分類すること。続いて、トラフィックの特に多い速度の遅いページを拾い上げ、gtmetrix.comでモニタリングの設定を行ってもらいたい。このツールは、ページを遅くしている原因を評価する際に役に立つ。

10. サーバーが応答する時間

サイトの速度の遅さは、必ずしも、ページの読み込みにかかる時間が長いことが原因になっているとは限らない。サーバーの速度が、サイトの速度を遅くしていることもある。そのため、サーバーの応答時間がXX(ミリ秒)を超えたら、自動的にアラートを送ってもらえるように設定しておくと良いだろう。

11. クロールエラー

Google ウェブマスターツールのクロールエラーレポートは、サイトの健康およびSEOの健康を把握する上で欠かせないアイテムである。バックエンドでバグが存在している可能性があり、その場合は、特定しにくい。また、リダイレクトに誤りがある可能性等も教えてもらえる。このツールは、さらに、外部のサイトが自分のサイトにリンクを張っているものの、URLのエラーが生じているケースも伝えてくれる。ウェブマスターツールで、通知に関するEメールの設定を変更しておこう。タイミング良く通知してくれるわけではなく、また、サイトに大きな問題が発生した場合のみアラートが送られる設定になっているため、Google ウェブマスターツールのAPIで週に1回クロールエラーのレポートを送信してもらえるように調整する必要がある。Raven等のSEOプラットフォームは、この機能を用意している。

12. サーバーエラーのログ

サーバー側の問題は、通常のSEOツールを使うだけでは、なかなか特定することが出来ない。そのため、サーバーエラーのログに変化が起きた際にアラートを送る設定を行っておきたいところだ。

13. 1日あたりのクロールされたページ数 & ページのダウンロード時間

この2つのスタッツは互いを補い、また、共にGoogle ウェブマスターツールで知ることが出来る。1日あたりのクロールされたページ数が減り、ページのダウンロード時間が増えているなら、サイトのパフォーマンスに問題が生じている可能性が高い。このスタッツは週に2回チェックする価値がある。

14. ブランドキーワードのインプレッション & クリック

not providedのおかげで、アナリティクスで、キーワードのトラフィックを計測する作業は大幅に制限されてしまったが、キーワードのデータに関連する主要なスタッツは、ウェブマスターツールで今でも得ることが出来る。トラフィックのスタッツの変化を追跡調査するために、このスタッツを確認しておこう。インプレッションとクリックの変化は、ブランドアウェアネスにおける変化、そして、マーケティングアクティビティにおける変化の存在を把握する上で役に立つ。

15. 非ブランドキーワードのインプレッション、クリック & CTR

非ブランドのキーワードのパフォーマンスは、検索のパフォーマンスだけでなく、(証明するのが困難な)季節性における情報を豊富に伝える。非ブランドキーワードのパフォーマンスは、トラフィックの基準値の変化に対する補足の調査としてチェックするべきである。インプレッションに関して:

  • キーワードのランキングは変化したか?
  • 季節の影響を受けているのか?

クリック数 & CTRに関して:

  • ユーザーと関係のないキーワードのターゲティングを行っているか?
  • ユーザーが関心を持たないメタデータを利用しているか?

16. キーワードのランキング

読んで字の通りであり、SEOのプロにとっては常識である。キーワードのランキングが下がると、トラフィックを失う。ランキングが下がったら、キーワードの戦略を調整する、または、ペナルティを科された可能性があるか調査しよう。

17. 手動による対策

Google ウェブマスターツールは、「手動による対策」機能を加えており、Googleが手動のアクションを起こしたかどうかを把握することが出来る。サイトで手動による対策が行われたら、アラートを送ってもらえるように、Eメールを設定しておこう。ただし、アルゴリズムのペナルティに関する通知は行われない。アルゴリズムのペナルティに関しては、14、15、16に従ってもらいたい。

18. セキュリティの問題

手動による対策と同じような仕組みで、「セキュリティの問題」ツールも、マルウェアが検知された場合、ウェブマスターに通知を行う。検索エンジンは、悪意のあるウェブサイトからユーザーを守るために、多種多様な対策を行っているため、セキュリティの問題が生じたら、迅速に対応する必要がある。

19. インデックスステータス

Google ウェブマスターツールのインデックスステータスツールは、Googleがインデックスでサイトにどのように対応しているのかを知る上でとても有効である。インデックスに登録されたページが増えた場合、次の点を確認しよう:

  • 新しいページが追加されたか?
  • クロールされるべきではないページがクロールされてしまったか?
  • robots.txtのルールが無視されているのか?

減った場合は、次の点を確認しよう:

  • サイトはペナルティを受けたのか?
  • ページは隔離されているのか、あるいは、クロールすることが出来ない状態になっているのか?
  • robots.txtで変化が生じているか?
  • meta robotsタグの利用に変化が生じているか?

20. 直帰率

直帰率の増加は、SEOプログラムの健康度に関連する様々な手掛かりを示す。例えば:

  • 関連性のないコンテンツ
  • 関連性のないキーワードのターゲティング
  • 劣悪なユーザーエクスペリエンス
  • ページの読み込みに時間がかかる
  • メタデータの記述が稚拙

Google アナリティクスで、直帰率が10%以上増加したら、自動的にアラートを送信してもらえるように設定しておこう。

21. 404ページのビュー

.NET等、多くのフレームワークは、404ページのURLにクエリ文字列を加えて、ユーザーがリクエストした404を生じさせるURLをウェブマスターに伝える。この機能は、ユーザーとスパイダーがアクセスしているリンク切れを発見する上で大いに役立つ。そこで、Google アナリティクスで、404ページのURLパラメータを持つページのビューを記載したEメールを週に1回送ってもらえるように設定しよう。最後に、このリストに加えるべき、SEOの健康度を測る上で効果的な基準をご存知なら、コメント欄で是非紹介してもらいたい。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「21 Metrics For Monitoring SEO Health」を翻訳した内容です。

SEOというと、まだまだ順位やそれを元にした単純な検索エンジンからのトラフィックのみに焦点を絞っている方も多いと思いますが、ここに書かれているようなことを少しでも意識して日々の改善に取り組んでいくことで長期的に見ると検索エンジン経由のトラフィックは伸ばしていけるのではないでしょうか?リスティング広告もSEOも、サーチマーケティングは運用が勝負です。 — SEO Japan

ペンギンアップデート3.0は今だ更新中!

ペンギンアップデート3.0が1年ぶりにあったことを報告しましたが、順位変動がなくほっとした皆さんも多かったと思います。しかし実は適応自体はまだ完了していない、ということで、その内容を追加報告。 — SEO Japan

penguins-ss-1920

Googleは、先週の金曜日の夜にペンギン 3.0(日本語)を展開し、アルゴリズムのアップデートを敢行した。ペンギンアルゴリズムは、主に、サイトの被リンクプロフィールに注目し、品質の低い被リンクプロフィールを持っていると思われるサイトを格下げする。

Googleは、ペンギン 3.0のリリースに関する伝達を積極的に行わなかった。アップデートが行われた24時間後に認めただけであり、また、通常、尋ねれば教えてくれるはずの情報を提供してくれなかった。しかし、東部時間の3:50AMになって、Googleのピエール・ファーが、Google+で詳細を明らかにしてくれた。

明らかになった情報を簡潔にまとめた:

(1) これはワールドワイドなアップデートであり、全ての地域のGoogleにインパクトを与える。
(2) 展開はまだ完了していない。「今後数週間」に渡って行われる模様だ。
(3) 影響を受ける英語のクエリは1%以下だが、その他の言語のクエリに与える影響はさらに小さい、または、大きい可能性がある。
(4) Googleは、金曜日に展開を開始したことを認めた。
(5) ピエール・ファーは、今回のアップデートを「更新」と呼んでいた。
(6) 品質の低いリンクプロフィールを持つサイトを格下げし、以前のペンギンアップデートにつかまった後、リンクプロフィールを整理したサイトを助ける。

ペンギンの世界同時展開

パンダアルゴリズム等、Googleのその他のアルゴリズムのアップデートとは異なり、ペンギンアップデートは、通常、世界全体に展開される。つまり、あらゆる言語の、あらゆる地域のサイトが、このアルゴリズムの影響を受ける可能性がある。

ペンギンは、リンクプロフィールを重視しており、言語を精査する必要がないことが理由だ。パンダの場合、コンテンツと言葉を検証するため、地域や言語によって、展開の時期が異なる。ペンギンは、大方、言語に関して注視する必要はない。

ペンギンの展開は現在進行中

ペンギンの更新の展開が完了したか否かに関して、一部で混乱が生じていた。SEOの専門家の中には、一部のサイトがまだ影響を受けていない理由が分からず、展開が一時的に中止された、または、完了したと感じた人達がいた。そんな中、昨日、Googleのジョン・ミューラーは、展開は完了したと述べた。しかし、その数時間後に前言を撤回した。そして、今朝になって、ピエール・ファーが、展開は完了しておらず、「数週間に渡って」続くと発言していた。

つまり、サイトがペンギン 3.0の影響を受けたかどうかを分析する際、ペンギンが数週間に渡って展開されるため、原因がペンギンなのか、はたまた別のアップデートなのかを判断するのは難しいだろう。

ペンギン 3.0の影響を受ける英語の検索クエリは1%以下

アップデートの規模の大きさ、そして、アップデートを実感したウェブマスターコミュニティの大体の割合を判断するため、Googleは、影響を受けたクエリの%を計測し、アップデートのスケールを教えてくれることがある。

ペンギン 1.0では、クエリの~3%がインパクトを受け、1.1では0.1%、そして、1.2では0.3%がインパクトを受けた。その後、ペンギン2.0では、クエリの2.3%、さらに、2.1では、約1%がインパクトを受けた。ペンギン 3.0(2.2だと主張する人達もいる)は、クエリの1%以下に影響を与えていた。

その他の言語では、もっと%は高い可能性があるが、Googleは英語のクエリの計測結果を公表している。

金曜日に登場したペンギン 3.0

Googleは、2014年10月17日の金曜日に、ペンギン 3.0をリリースしたことを認めた。ただし、先程も申し上げた通り、ペンギン 3.0は数週間に渡って展開される点を覚えておいてもらいたい。

ペンギン 3.0はリフレッシュ

Googleのピエール・ファーは、今回のアップデートを「リフレッシュ」と呼び、新たなシグナルが加わったとも、アルゴリズムに変化が加えられたとも言わなかった。リフレッシュ(更新)とは、問題を修正したサイトを解放し、問題を修正することに失敗したサイトを格下げするためにアルゴリズムを再び実行する取り組みを指す。ペンギンに関連するサイトを見つけるために、新たにシグナルがアルゴリズムに加えられたわけではなく、ただ単に更新しただけである。

1年以上待ったにも関わらず、更新されただけなのだろうか?その通りである。SEO業界の関係者の大半は、この事実にショックを受けていた。大勢の関係者は、ずっと前に更新が行われており、Googleが、新たなペンギンアルゴリズムの土台を作っていたと推測していたためだ。

そのため、一部の人達は、3.0ではなく、2.2と呼ぶことを望んでいる。

救われるサイトもあれば、地獄に落ちるサイトもあり

その他のアルゴリズムの更新と同じように、以前摘発された一部のサイトのランキングをは回復される。これは、アルゴリズムの負の影響を受けなくなったためだ。一方、検索結果のランキングが落ちるサイトもある。これは、ペンギンアルゴリズムのインパクトを受けるべきサイトと見なされたことが原因である。

過去のペンギンアップデート:

過去のペンギンアップデートが行われた日付:

  • ペンギン 1.0(日本語)2012年4月24日(クエリの~3.1%が影響を受ける)
  • ペンギン 1.1(日本語)2012年5月26日(クエリの0.1%が影響を受ける)
  • ペンギン 1.2 2012年10月5日(クエリの~0.3%が影響を受ける)
  • ペンギン 2.0(日本語)2013年5月22日(クエリの2.3%が影響を受ける)
  • ペンギン 2.1 2013年10月4日(クエリの1%が影響を受ける)
  • ペンギン 3.0(日本語) 2014年10月17日(クエリの約1%が影響を受ける)

この記事は、Search Engine Landに掲載された「Google Penguin 3.0: Worldwide Rollout Still In Process, Impacting 1% Of English Queries」を翻訳した内容です。

更新中はともかく、英語で1%ということであれば、記事にもあるように日本語サイトへの影響はさらに少なさそうは気はします。とはいえ、その後個別に何らかの調整が入るのかもしれませんが。今回の更新の影響等、何かニュースがあればまた報告したいと思います。 — SEO Japan

Google、ペンギンアップデート3.0をリリース – 1年ぶりのアップデート

最近、出張が多くその度に更新が滞ってしまい恐縮です。今回はそんな最中に、ついにGoogleのペンギンアップデート3.0が発動されたということで、ご存じの方も多いと思いますが改めてレポートします。 — SEO Japan

google-penguin2-ss-1920

Googleは、本サイト、Search Engine Landに対して、10月17日(金)ペンギンフィルターをアップデートしたことを認めた。ペンギンは、スパムと見なされるサイト、とりわけ、Googleのリンクに関するガイドラインを違反したサイトをターゲットにしている。

一部のサイトが、米国現地時間の金曜の夜にGoogleの検索結果に大きな変化が生じたことに気づき、これは、Googleが今月中にアップデートすることを明言していた待望のペンギンアップデートではないかと推測していた。

そして、本日、私がこの件に関して尋ねた際、Googleは、これがペンギンアップデートであると認めた。ただし、Googleは、ペンギンの最新版の影響を受ける検索結果の割合(%)に関して、そして、前回のリリースから大きな変更があったかどうかに関して、詳しい情報は明らかにしてくれなかった。この点においては、詳細が分かり次第、お伝えする。

過去のペンギンアップデート

これで6回目のアップデートが行われたことになる。Googleは、今回のアップデートに番号を与えていない。しかし、Search Engine Landでは、前回のアップデートから随分と時間が経過している点を鑑み、メジャーなリリースとしてカウントする価値があると判断し、ペンギン 3.0と呼ぶことにした。

以下に、今までペンギンがリリースされた日付を挙げていく:

  • ペンギン 1.0(日本語)2012年4月24日(クエリの~3.1%が影響を受ける)
  • ペンギン 1.1(日本語)2012年5月26日(クエリの0.1%が影響を受ける)
  • ペンギン 1.2 2012年10月5日(クエリの~0.3%が影響を受ける)
  • ペンギン 2.0(日本語)2013年5月22日(クエリの2.3%が影響を受ける)
  • ペンギン 2.1 2013年10月4日(クエリの1%が影響を受ける)
  • ペンギン 3.0 2014年10月17日(影響を受ける%は現時点で不明)

私達のサイトでは、ペンギン 1.1とペンギン 1.2を、以前、それぞれ、ペンギン 2、ペンギン 3と呼んでいた。これは、Googleが番号をつけていなかったため、私達が独自で番号を与えたためだ。しかし、4回目のリリースが行われた際、Googleは、ペンギン 2.0と言う名前を与えた。そこで、出遅れたGoogleに従い、番号をつけ直すことにした。

最新のペンギンのリリースは、Googleの歴史の中で、最も待ち望まれたアップデートの一つに数えられる。一部のパブリッシャーは、前回のアップデートから1年余りが経過した段階で行われた今回のアップデートを心待ちにしていた。

ペンギンに捕まり、ペンギンから解放される

パブリッシャー達を不安に駆り立てていた原因は、ペンギンの仕組みにあった。ペンギンに捕まると、変更を加えたとしても、次回のアップデートが行われるまで、その変更が、Googleが求めていたものかどうか分からないのだ。

つまり、前回のペンギンアップデート — 2013年10月 — につかまったパブリッシャーは、スパムリンクの削除等、自分達が取った対応が正しかったどうか、今まで待っていたことになる。正しかった場合、週末、トラフィックに改善が見られるはずだ。正しくなかった場合、再び変更を行い、Googleがペンギンを再びリリースするまで待たなければならない。

因みに、過去3週間以内にリンクの否認を試みていたとしても、今回のペンギンアップデートでは対応してもらえない。理由を知りたい方は、今月の上旬に行われたSMX カンファレンスで、Googleが行ったプレゼンをまとめたこの記事を読んでもらいたい。

また、ランキングが落ちても、実際にペンギンに捕まったとは限らない点を肝に銘じておいてもらいたい。ペンギンによって、様々なリンクが考慮されなくなると、リンクの影響力は継承されなくなり、「票」とは見なされなくなる。

このような(Googleの立場で見た)偽の票からメリットを得ていたサイトは、たとえ直接ペナルティーを受けていなくても、この影響力を失い、その結果、ランクが落ちてしまう可能性がある。

Googleは、今回の最新版のペンギンに関して、より頻繁に更新される新たなシステムを導入したと示唆している。時間が経てば分かるはずだ — カウントは既に始まっている。

最新情報: Googleは、10月20日、月曜日の朝の時点で、ペンギンの展開が完了したと明言した。


この記事は、GSearch Engine Landに掲載された「Google Releases Penguin 3.0 ? First Penguin Update In Over A Year」を翻訳した内容です。

世界の人口リンク業界を壊滅状態にしたペンギンアップデート、それが1年ぶりの更新ということで、その影響が注目されます。今の所、検索結果に大きな変化があるようにも見えませんが(あくまで私の簡易チェック)、実際はそれなりにあるのでしょうね。今後また随時報告していきたいと思います。 — SEO Japan

信じている人が多すぎるSEOの7つの嘘

SEOに関する都市伝説を語る記事は定期的に登場します。SEO Japanでも過去に何度か紹介したことがありますが、今回は天才マーケッターのニール・パテルが2014年版の都市伝説記事を書いてくれたので早速紹介します。SEOの専門家とはまた違った観点で書かれた内容、さらに2014年のSEO状況を反映した内容でとても興味深いです。 — SEO Japan

seo lies

SEOは、随分前から存在するコンセプトであるため、するべき取り組み、そして、するべきではない取り組みを簡単に解明することが出来るはず…

…だと良いのだが

SEOは進化を続けており、それが、SEOのSEOたる所以である。つまり、過去の情報を参考にすることは出来ない。さらに、エキスパートではなくても、ブログを開設して、SEOに関する記事を書くことが出来る、等の誤解が多数生じている。

そこで今回は、信じている人が多いSEOの嘘を7点紹介していく:

嘘 #1: オーソリティのサイトにコンテンツを再配信してもらうと得をする。

通常、有名なオーソリティのサイトにコンテンツを再配信してもらえると、プラスに働くように思える。被リンクを獲得し、トラフィック、さらには、売り上げの増加も期待できる。

しかし、コンテンツの再配信すると、コンテンツが重複する問題を引き起こしてしまう。つまり、オーソリティのサイトがリンクを張っていても、Googleは、オーソリティのサイトを上位にランク付けする可能性がある。最悪の場合、パンダアップデートによって、ペナルティを科されるかもしれない。

KISSmetricsブログが良い例だ。コンテンツの重複が原因でパンダペナルティを受けてしまった

traffic drop

上のグラフにも示されているように、オーソリティのサイトによるコンテンツの再配信を認めたため、トラフィックが29%も減少したことがあった。

しかし、オーソリティのサイトに、1つのルールに従ってもらうことが出来るなら、十分に実施する価値はある。そのルールとは、URLに向かうcanonicalタグを利用してもらうことだ。重複するコンテンツが原因で、ペナルティーを与えられる事態を回避するには、このルールに従ってもらうしかない。

嘘 #2: 質の低いリンクはランキングに良くない影響を与える

Googleがリンクの否認ツールをリリースした頃、大勢のマーケッターが、このツールを過剰に利用した。質の低いリンクは、全てランキングを落とすのではないか、と疑心暗鬼になっていたのだろう。この考え方は、ある程度において、間違えてはいない。劣悪なリンクは、ランキングを落とす可能性がある。しかし、実際にランキングが下がるのは、ごく稀である。

Googleは、リンク構築を介したアルゴリズムの操作を阻止しようとしている。

ウェブサイトに向かう多くの品質の低いリンクは、品質の低いアグリゲータサイトから寄せられている。Cloudflare等のサービスを使って、一部のリンクを食い止めることは出来るものの、被害妄想に襲われ、気に入らないリンクを全て否認するような常軌を逸した行為には走らないでもらいたい。

サイトの規模が大きければ大きいほど、リンクを張るゴミレベルのサイトは増える。このようなリンクを促すべきではないが、取れる対応にも限りがある。リンクを否認しても構わないが、このようなアグリゲータサイトからのリンクが原因で、ペナルティを科されるケースは稀である。

Quick Sproutを例にとって考えてみよう。 Quick Sproutは、144,000本の被リンクを10,000のドメインから得ている。そのうち、581本は、質の低いアグリゲータサイトから寄せられている。しかし、Quick Sproutを開設してから今年で7年が経過するが、それが理由でペナルティを受けたことは一度もない。

そのため、この類の質の低いリンクについて心配するのではなく、良い製品/サービスを作り、優れたコンテンツを作成することに時間を割くべきである。間違えても、ランキングを操作するためにリンクを買う行為は避ける必要がある。

嘘 #3: コンテンツのページが多ければ多いほど良い

コンテンツマーケティングは、全てのサイトに向いているわけではない。例えば、ヘッジファンドを経営していると仮定する。 ヘッジファンドは、ファンドに大金を投資させて、収益の一部を会社が受け取るシステムを採用している。

ブログ、または、コンテンツのページを多数作る点に関してネックとなるのは、トピックが面白味に欠け、つまらない点である。つまり、ソーシャルウェブでコンテンツをシェアする人やリンクを張ってくれる人は、ほとんどいない。

コンテンツのページをサイトに加える前に、オーディエンスが本当にページをシェアし、リンクを張りたいかどうかを考えてもらいたい。どれだけ質の高いコンテンツを作ったとしても、リンクを張ってもらえないなら、あるいは、シェアしえもらえないなら、検索トラフィックの増加は見込めない。反対にトラフィックにマイナスの影響を与える可能性もある。

以前、Advice Monkeyと言うサイトを作ったことがある。誰にも読んでもらえなかったものの、1000を超えるコンテンツのページを私は作った。コンテンツの質は割と高かったが、記事にリンクを張ってくれる人は少なかった。最終的に、検索トラフィックが下がる有様であった。そこで、コンテンツを削除したところ、検索トラフィックは少しずつ増えていった。

嘘 #4: リンクを買うべきではない

ランキングを操作する可能性があるため、検索エンジンは、リンクの売買を嫌う。しかし、リンクを買うべきではない、と言い切ることが出来るわけでもない

リンクは、ビジネスに収益をもたらす優れた手段である。例えば、私は、Crazy Eggを立ち上げる前に、1万ドル相当のリンクと広告をCSS Galleriesから獲得した。その結果、月間の経常利益が2000ドル以上増えた。そのうちの一部は、今でもCrazy Eggを利用しており、このリンク購入アプローチが利益をもたらしたことは、明らかである。

検索エンジンの怒りを買うことなく、リンクを買うにはどうすればいいのだろうか?リンクをnofollowすればよい。すると、SEOにダメージを与えることなく、検索エンジンに対して、リンクのカウントをしないように伝え、尚且つ、トラフィックと収益を獲得することが可能になる。

嘘 #5: 直帰率が高いとランキングが下がる

分析に関する知識には自信がある。私は分析サービスを提供する会社を2つ共同で創設したことがあり、また、分析を介して、大勢の会社が利益を獲得する上で貢献してきた。

大勢のマーケッターは、直帰率が高くなると、ランキングが低くなると指摘している。そのため、直帰率を低くする必要があると考えがちである

直帰率の低さは長所に数えられるものの、ランキングが高くなるわけではない。TechCrunch、Gawker Media、Amazon、そして、Microsoft等の様々なサイトのSEOを担当した経験があるが、直帰率とランキングの間の相関関係が見られたことはない。

私が仕事を請け負った会社の多くは、規模が大きい。この規模が、原因だった可能性は否定できない。しかし、小規模なサイトであっても、直帰率の変化が、検索トラフィックを大きく増減するケースに私は遭遇したことがない。

嘘 #6: A/Bテストはランキングを下げる

A/Bテストがネガティブな影響を与えてしまうなら、GoogleがA/Bテストツールを用意するはずがない。Google アナリティクスの「行動」の項目にあるウェブベストをチェックしてみよう。これはGoogle版のA/Bテストである。

一時的にコンテンツが重複してしまう可能性はあるが、コンバージョン率が上がる可能性があり、最終的に相殺される。また、私は何度もA/Bテストを実施した経験があるが、トラフィックが減ったことは今まで一度もない。

私の個人的なサイトのホームページを見てほしい。下のイメージを見れば分かるように、このページにはほとんどコンテンツが存在しない。それでも、重複するバージョンを幾つも展開している。

neil patel homepage

私はこのサイトで継続的にA/Bテストを実施し、他のビジネスでも同じようにA/Bテストを行っている。テストを行ったために、ランキングが落ちたことは、一度もない。

心配なら、別のバリエーションをインデックスから外し、コンテンツの重複を避ければ良い。

嘘 #7: ベストなコンテンツは自分のサイトで配信するべき

そのウェブサイトは、どの程度のトラフィックを得ているだろうか?恐らく、ForbesやHuffington Postよりも遥かに少ないはずだ。それでは、自分のサイトで素晴らしいコンテンツを投稿したら、どんなことが起きるのだろうか?

運が良ければ、トラフィックは倍増するかもしれない…しかし、その可能性は限りなくゼロに近い。

別のブログ/サイトにコンテンツを投稿する方が、メリットは大きいのではないだろうか?

「コンテンツは王様」と言う表現は正しいが、別のサイトに掲載すると、トラフィックだけでなく、収益まで増える可能性がある。さらに、信頼の高いリンクが作られ、時間の経過と共に、ランキングにプラスの影響を与えるようになる。

一ヵ月に10,000 – 20,000名のビジターがアクセスする小規模なブログを運営しているなら、一ヵ月に100万人がアクセスするブログに最高の作品を投稿する方が、効果は高い。

結論

何らかの指摘をどこかのSEO関連のサイトで目にしたとしても、それが正しいとは限らない。つまり、Quick Sproutで、私が何らかのアドバイスを送ったとしても、常にそのアドバイスが正しいとは限らない。事実、誤りを指摘されたことが何度もある。それは構わない。

とりわけSEOとマーケティングにおいては、それぞれの取り組みが功を奏する仕組みを理解する努力が求められる。SEOは常に進化しており、検索結果を席巻したいなら、常に最新の情報を把握しなければならない。

SEOに関する嘘をその他にもご存知なら、コメント欄で紹介してもらいたい。


この記事は、Quick Sproutに掲載された「7 Lies About SEO You Probably Believe」を翻訳した内容です。

実際に自分でコンテンツサイトやブログを運営して真面目に更新している人なら、あ、そういうことだったんだ、と共感できることも多かったのではないでしょうか?「直帰率が高いとSEOにマイナス」(が嘘)は私も思わず頷いてしまいました。最後に書かれているように、世の中に大量に溢れるSEO情報ですが、鵜呑みにせず自分なりに検証し理解していくことが大事ですね。 — SEO Japan

3分で分かるナレッジグラフ講座

進化し続けるGoogle、パンダアップデート等、最新のアルゴリズムを的確に稼働させるのに欠かせないのがナレッジグラフ。言葉は知っていても内容は余り理解していない人も多いと思われるこのナレッジグラフ、サーチエンジンランドができるだけ簡単に解説してみた記事を紹介します。これであなたもナレッジグラフを語れるようになる?! — SEO Japan

knowledge-graph-brain-ss-1920

検索は変わり続けている — そして、変化のペースは早まる一方である。徐々に、検索結果の自然な要素は姿を消し、その代わりに、ナレッジグラフの情報が登場している。

しかし、文書(ウェブページ)の検索から、データ(ナレッジグラフ)の検索への移行は、まだ始まったばかりである。

ここで、Googleの使命を思い出してもらいたい:

Google の使命は、世界中の情報を整理し、世界中の人々がアクセスできて使えるようにすることです。

この使命を果たすため、ナレッジグラフが構築された。ナレッジグラフには、エンティティ、そして、別のエンティティとの関係に関する情報が含まれており、Googleは、キーワードの文字列としてではなく、明確なエンティティとして、検索クエリを認識することが出来る力を持つ。キーワードベースの検索から、エンティティベースの検索にさらに移行するようになると、サイト内のデータの質が生命線となる。

つまり、未来の検索結果で、サイトを見つけてもらえるようにするためには、ウェブページ上に存在するエンティティを検索エンジンに理解してもらう必要があるのだ。

検索エンジンのテクノロジーは、2つの形式で、コンテンツからエンティティの情報を抽出することが出来る — 1つは、(構造化データマークアップを使って)明示的な形式で、そして、もう1つは、(自然言語を用いて)黙示的な形式である。

Extractingentitiesfromwebpage

明示的 vs 黙示的

明示的 vs 黙示的

検索エンジンが、ウェブページ上の構造化データマークアップを吸収することによって、セマンティックウェブテクノロジーが用いられ、明示的なエンティティの取得が行われる。

黙示的なエンティティとは、エンティティの情報が、ウェブページのテキストから引き出され、もしくは、推測されるケースを指す。このエンティティを取得するために、通常、NLP(自然言語処理)等の確率アルゴリズムや同様の情報検索の手法が用いられる。

(ウェブページ上の明示的なエンティティと黙示的なエンティティの双方を特定する際に役に立つツールをリストアップしているので、興味がある方は、前回の投稿を確認してもらいたい)。

重要: 黙示的なエンティティと明示的なエンティティの双方が、同じシグナルを送る必要がある — つまり同じトピックであり、検索エンジンに送るトピックに関するポジティブなシグナルを強化する。

ナレッジグラフを拡大するschema.org

「ナレッジグラフに取り上げてもらう」ことに懸念を抱いているなら、schema.orgの構造化データマークアップをウェブページに配置することが不可欠である。

schema.orgは、HTMLの文書内に含まれる、様々な構造化データマークアップschemaを提供する。この構造化データマークアップがあると、検索エンジンは、エンティティを特定し、エンティティ間の関係を決めることが可能になり、その結果、質が高く、豊かで、より有益な検索結果が導き出されるようになる。

chemadefinesrelationships

schema.orgはエンティティの関係を明確にする(その他にも様々なメリットを持つ)

つまり、あるトピックにおいて、情報源として信頼され、適切な構造化データマークアップでページをマークアップすると、「ナレッジグラフ入り」の確率は高まる。続いて、schema.orgとJSON-LDを用いて、イベントをGoogleのナレッジグラフに登録する方法の例を紹介する。

イベントをナレッジグラフに送り込むには

注記: これから紹介する手順/例は、Google I/OのチュートリアルGoogle I/O(視聴したい方はここをクリック)、そして、Google I/O 2014の「Cayley」講座のスクリーンショットを参考にしている。

先程申し上げた通り、エンティティを理解すると、Googleが世界の「物事」、そして、ユーザーが検索する対象を理解する上で役に立つ。ナレッジグラフは、Wikipedia、Freebase、Google Map、FDA等、信頼の置ける情報源を活用している。

イベントに関しては、最高で、最も信頼の置ける情報源は、イベントの主催者である。従って、イベントの主催者の公式サイトから信頼の置ける答えを結果ページに表示させる動機を検索エンジンは持っていることになる。

下のイラストでも紹介されているように、「Keith Urban」のナレッジグラフの結果には、今後行われるショーのリストが掲載されている。検索エンジンは、公式サイトの構造化データを吸収し、この情報は、直接、ナレッジグラフに保存されている。

structured-data-keith-urban

イベントの主催者には、イベントを自分のものにして、ウェブサイトをマークアップすることが求められている。ウェブをクロールする際、Googleは、マークアップを読み、ユーザーが当該の情報を検索している場合、結果を表示する。

ご覧のように、ナレッジグラフは、イベントに関する多くの情報、そして、結果を用いる。このケースでは、とりわけ、ナレッジグラフは、次のアイテムを活用する:

  • SERP内のナレッジグラフのエントリ
  • Google Mapのイベントのリスティング
  • Google Nowの通知

structured-data-events

schema.orgは、Googleはもちろんのこと、Yandex、Yahoo!、Microsoftの主要な検索エンジンにサポートされており、このタイプの情報を記述するための語彙/オントロジーとして最適である。

イベントのリスティングをマークアップするために用いるシンタックスに関しては、マイクロデータ、あるいは、JSON-LDのいずれかを好みに応じて選ぶと良い。利用するシンタックスを選び、継続して使う必要がある(個人的な意見ではあるが、JSON-LDの方が簡単だと思う)。シンタックスを選んだら、ウェブページ全体で(そして、マークアップする情報の種類によっては、ウェブサイト全体で)同じものを活用しよう。

microdatajsonldevents

schema.orgのタイプ MusicEventのマイクロデータ(左)とJSON-LD(右)

イベントのタイプにおいては、出来るだけ具体的なサブタイプ、例えば「SportsEvent」を忘れずに利用してもらいたい。具体的なイベントのサブタイプに対して、home teamやaway team等の有益な属性を加えることが出来る。下の例では、Keith Urbanのウェブサイトは、「MusicEvent」をイベントのタイプとして利用している。

JSONLDplacedonOfficialsite

アーティストの公式サイトに記述されたJSON-LD

「offer」の情報に対して、チケットを販売する業者のウェブページのURLを加えている。すると、Googleは、チケット販売サイトを訪れ、当該の情報をチェックする。 それでは、ウェブページをマークアップする方法の例を掲載する。

jsonldforofficialticketorsite

公式のチケット販売サイトに対するJSON-LD

このように、「offer」は、価格の情報、有効な日付、チケットの有無(InStock)、そして、チケットを販売するウェブサイトと共にマークアップされている。

マークアップを記述したら、次に有効かどうかを確認する。GoogleのEvents Markup Testerページで確認することが可能だ(その他のタイプの構造化データについては、Google 構造化データテストツールをチェックしよう)。

EventMarkupTester

GoogleのEvent Markup Tester

これで、Googleは、公式サイトをクロールし、イベントの公式チケット販売サイトをチェックし、この情報をナレッジグラフに保存するようになる。すると、ユーザーがこのデータを求めている時、検索結果で当該の情報を提供することが可能になる。

マークアップするべきイベントを主催するなら、楽しみながらマークアップを加えていってもらいたい。イベントとは関係のない業界でサイトを運営していても、このプロセスを理解しておくと、その他の構造化データマークアップの利用と似ているため、後々、役に立つことがあるはずだ。

モジレツ X、モノゴト O

エンティティをそのままの状態で、 — つまり、Googleも言っているように、文字列ではなく、物事として、考えることを薦める。未来の検索は、「キーワード」ベースのアイデアから距離を取り、「キーワードの密度」の居場所はない。先日、Google Research ブログに投稿された記事から、重要な箇所をピックアップしたので、読んでもらいたい:

ナレッジグラフでは、キーワードではなく、エンティティ、そして、関係を重視します。「バスケットボール」は、単なる文字列ではなく、私達が既に良く知っているアイテムに言及しています。エンティティに関する背景の情報は、重要なエンティティを判断する上で役に立つのです。バスケットボールの記事の作者は、読者が一般的な常識を持ち、また、スポーツに関する知識も多少持っていると推測します。背景の知識を用いることで、Googleは、WNBAが、一度しか現れていなくても、ベッキー・ハモンの記事の中で、重要なエンティティである予想することが可能になるのです。

ダン・グリック – リサーチサイエンティスト & デイブ・オー – プロダクトマネジャー

要するに、セマンティックテクノロジーは、さらに改善されており、コンセプトを1度だけ言及すれば、検索エンジンが残りを推測してくれるのだ。従って、検索エンジンの、黙示的なエンティティを特定する力がアップするにつれ、自然言語は、ますます欠かせない存在になっていく。キーワードスタッフィングは、既に過去の遺物になったと言える。

重要なポイント

ナレッジグラフのために、ウェブページを最適化する上で出来ることは沢山ある。今回の投稿で説明した私の戦略をまとめておく:

  • 狙いを絞るエンティティを特定する。
  • オーディエンスが関心を持つトピックを決定する。
  • 当該のトピックを取り上げいることを、構造化データマークアップを使って、検索エンジンに力強いシグナルを送る(明示的なエンティティ)。
  • 情報を裏付け、サイトに配置するコンテンツを使って、シグナルを強化する(黙示的なエンティティ)。
  • エンティティはキーワードではないので、キーワード扱いするべきではない。適切なコンテキストなら、例えほとんど言及していなくても、強力なシグナルになり得る。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Demystifying The Google Knowledge Graph」を翻訳した内容です。

3分で読めるかはともかく、短い記事ながらポイントが押さえられた良い記事だったと思います。モジレツ X モノゴト ○ という括りはわかりやすかったですね。 — SEO Japan

パンダアップデート4.1でダメージを受けたのはゲームと歌詞サイト

ペンギンアップデートの更新も目前と噂される中、先日のパンダアップデートで特に影響を受けたサイトの傾向が判明したようなのでメモ程度にご紹介します。 — SEO Japan

google-sad-panda-ss-1920

先週、Googleは、パンダ 4.1をリリースした。このプロセスは、今週も継続されているが、SearchMetricsによると、早くも勝者と敗者が出始めているようだ。

パンダ 4.1で最も優遇されたのは、ニュース、コンテンツ、ダウンロードポータルの分野のサイトであった。一方、最も嫌われてしまったのは、ゲーム、歌詞、そして、一部の医療関連のコンテンツの分野に属するサイトだ。

例えば、medterms.comは、SEO ビジビリティの40%を失った(286,956から172,836へ)。パンダから過去に何度も攻撃を受けてきたehow.comもまた、大きなダメージを負った。また、身近なブランド、hallmark.comもパンダに嫌われてしまったようだ。office365.comやhubpages.com等の著名なサイトも被害を受けていたものの、新しいURLに移行しており、SEO ビジビリティが減少した理由が、パンダ 4.1とは関係がない可能性がある。

SearchMetricsの創設者、マーカス・トバーは次のように指摘している:

パンダ 4.1は、以前のアップデートと連動している。ゲームや歌詞のポータルサイト、そして、医療の問題やコンテンツに関連するウェブサイトが、特にネガティブな影響を受けていた — 要するに、(同じことを何度も繰り返すが)薄っぺらいコンテンツを持つページが、パンダの攻撃を受けている。独自の、適切なコンテンツを提供しないアグリゲーションサイトはパンダに狙われていると言える。

Googleにとって、現在、下位に沈んでいるサイト(つまり、アグリゲーションサイト)をユーザーに紹介するのは、理にかなっていないのだろう。この点は、パンダ 4.0で既に判明しており、4.1においても当てはまる。

パンダの最新版の詳細は、この記事で確認しよう。


この記事は、Search Engine Landに掲載された「Are Games & Lyrics Sites Google Panda 4.1′s Biggest Losers?」を翻訳した内容です。

基本的にはコンテンツ量産系のサイトにダメージがあったということですかね。コンテンツマーケティング、地道に継続的に取り組んでいくしか生き残る道はなさそうです。。。 — SEO Japan

パンダアップデート4.1と思われる特許を発見(要N-gramの知識)

私が軽めのお休みいただいている間に、パンダアップデートがついに登場したようです。内容自体は「激変」という程の変化があるようでもなかったので、記事にしませんでしたが、SEO by the Seaが目ざとく?関連特許を見つけて記事で取り上げていたので紹介したいと思います。かなり専門的な内容なのでマニアの方向けです。 — SEO Japan

Googleのピエール・ファーが、Google+のページで、Googleが新たなパンダアップデートをリリースしたと発表した。今回のアップデートには、「品質の低いコンテンツをより正確に特定する」上で効果的な新しいシグナルが含まれているようだ。

ピエール・ファーのGoogle+の投稿によると、今回のアップデートにより、「多様な小規模 – 中規模の品質の高いサイトが、上位にランク付けされるようになる」可能性があるようだ。これは前向きな変化だと言える。

新たに出願された特許には、フレーズに応じて、コンテンツのスコアをつける良質なアプローチが描かれている。この特許は、今回のアップデートと関係がある可能性があり、これから、検証していく。

Flow chart from the patent showing content scoring based upon phrases

サイトで発生しているn-gramを特定する 200
各サイトとn-gramに対して、n-gramを含むページの数をカウントする 202
各n-gramに対して、相対頻度の値を計算する 204
n-gramからサイトへのマッピング生成する 206
各リストのサイトをセグメントに分割する 208
過去にスコアを与えたサイトに対して、基準のサイト品質スコアを取得する 210
各セグメントに対して、セグメント内の品質スコアを持つサイトに平均の基準のサイトひんしつスコアを特定する 212
平均のスコアからフレーズモデルを生成する 214

パンダアップデートの最新版のリリースは、過去にパンダの攻撃を受けた一部のサイトにとっては、朗報だと言えるかもしれない。

そこで私は、バリー・シュワルツがSearch Engine Roundtableに投稿した記事「Google パンダ 4.1の展開が始まる – 小規模なウェブサイトの強い味方」にリンクが張られたフォーラムのスレッドを幾つかチェックしてみた。

あるスレッドで、投稿者は、9月19日にサイトのトラフィックが変化したと報告している。別のスレッドは、スパム & 質の低いコンテンツに狙いを絞っているのではないかと指摘していた。

そんな中、パンダアップデートの名前の由来となったナヴネート・パンダが、先日、新たに特許を出願していた。ナヴネート・パンダが発明者に名を連ねた最初の特許がリリースされた時、パンダに関連するのではないか(日本語)と私は考えた。パンダに対する数回のアップデート(そして、更新されるデータ)を考慮すると、少なくともアルゴリズムにもたらされた変化の1つは、この特許で描かれている可能性があった。また、コンテンツの品質のスコアリングにおける最新の更新は、現在、展開されているアップデートの要因となっていても、おかしくない。

それでは、当該の特許を紹介していく:

サイトの品質を推測する
発明: ユン・チョウ、ナヴネート・パンダ

米国特許番号: 20140280011

発表: 2014年9月18日

付与先: Google

申請: 2013年3月15日

概要

サイト、つまり、ウェブサイトの大体の品質を推測するためのメソッド、システム、コンピュータのストレージメディアにエンコードされたコンピュータプログラムを含む機器。

ある導入のケースでは、複数の過去にスコアを与えられたサイトに対して、基準となるサイトの品質スコアを取得する。

  • 過去にスコアを与えられたサイトを含む複数のサイトに対して、フレーズモデルを生成する。フレーズモデルは、フレーズ固有の相対頻度の値から、マッピングを生成し、フレーズ固有の基準のサイト品質スコアを計測する。
  • 過去にスコアを与えられたことがない新しいサイトに対しては、相対頻度の値をサイト内の複数のフレーズ一つ一つに取得する。
  • フレーズモデルを経由し、新しいサイトのフレーズにおける相対頻度の値を用いて、総合のサイト品質スコアを特定する。
  • 総合サイト品質スコアから、新しいサイトに対する予想品質スコアを特定する。

この特許は、フレーズアルゴリズムの利用を説明している。このプロセスでは、ページのコンテンツが、トークンに分類され(個別のワードと句読点等のアイテム)、ページ上のフレーズの頻度がカウントされ、各ページに対するスコアが計算されていく。

この特許は、フレーズベースのインデックスに関する特許(日本語)と比べると、「フレーズ」の定義を詳しく説明していない。また、実際に、Googleが、こういった特許を使っているかどうかは定かではないものの、その可能性は十分にある。

ページ上のトークンで現れたエラーは、正常化のプロセスで、無視されるのではなく、カウントされる。ただし、非常にレアなトークン(ウェブ上にほとんど存在しないワード)に関しては、この品質スコアの計算において、カウントされない可能性がある。

アンカーテキストは、向けられたページ上に実際に現れるフレーズとして処理される。これは、興味深い記述ではあるものの、特許の中では、その重要性は説明されていなかった。 結局、同じアンカーテキストを使ってページに向けられたリンクが多数存在する場合、特定のタイプのフレーズを数多く加えていることもあり得る。

トークンは、1, 2, 3, 4, 5トークン(ワードと句読点)のグループ、もしくは、n-gram(nには数字が入る)に分割されると見られる。Googleは、n-gram ビューワー等、別の方法にもn-gramを利用している。

Google Researchブログの記事「すべてのn-gramはあなたのもの」は、次のアイテムを含む、Googleで行われているn-gramを用いた複数の実験を説明している:

  • 統計的機械翻訳
  • 音声認識
  • スペル是正
  • エンティティの検知
  • 情報の抽出

特許を読み、別の導入のケースを知りたい方は、特許にリンクを張っているので、確認してもらいたい。この特許は、パンダに対するアップデートとは関係のない、異なるスコアリングアルゴリズムを取り上げているのかもしれないが、それにしてはタイミングが良く、また、考慮する価値があると言える。


この記事は、SEO by the Seaに掲載された「New Panda Update; New Panda Patent Application」を翻訳した内容です。

パンダアップデート関連特許ということで翻訳しましたが、そもそもN-gramを理解していないと内容が全くわからない記事でしたね。N-gram自体はさほど難しくはないのでチャレンジャーな方はウェブ検索で概要を理解した上でお読みください! — SEO Japan

リンクを削除してくれないなら、Googleに言いつけるよ

先日、久しぶりに登壇したイベントで疲れ果てしばらくお休みいただいてしまいました(こちらからご覧いただけます)。当日は「これからのSEOはリンクよりコンテンツマーケティング」的な話をさせていただきましたが、最後の質疑応答でも述べたように人口リンクがまだまだ効く場合があるのもまた事実。時間の問題とはいえ、米国でもリンクにまつわるトラブルは後をたたないようで。。。米国のリンク騒動の一こまをSEO Bookから。 — SEO Japan

リンクを削除する作業は面倒この上ない。

特に、リンクを削除しなければならないサイトのオーナー側にとって、とりわけ面倒である。Googleが、内部でフラグを立てたリンクを無視してくれれば、それで済む話であった。しかし、質が悪いと思ったリンクを削除するよう、たちの悪い「提案」を行ったため、ウェブマスターはフラストレーションを抱えるようになった。

これも「愛のムチ」と言うなら、Googleに対するウェブマスターの愛情は冷める一方である。実は、これは偽装であり、Google自身は、どのリンクが悪いのか分からないため、ウェブマスターに申告させて、より包括的なデータベースを構築しようとしているのだろうか?「愛のムチ」と「偽装」を少しずつかじっているのかもしれない。また、SEOのコストを増やし、小さな会社がSEOに取り組めないようにする意図があるのかもしれない。もしくは、リンクが実際よりも重要だと信じさせるための、囮のような存在なのかもしれない。

残念ながら、何が正しいのか、知る術はない。

巻き添え

SEO業界は、検索エンジンが、口を閉ざし、懲罰を与え、そして、曖昧な表現をすることに慣れている。SEOに携わる者は、この難題を業界の一部として受け入れている。しかし、SEOとは関係のないウェブマスターが、巻き添えを食らうようになり、興味深い展開を迎えている:

先日、リンクを張った会社から、面白いEメールが送られてきた。簡単に言うと、サイトへのリンクの削除を要請するメールであった。 私達は自分達の意思でリンクを張った。頼まれたわけではない。サイトのビジターにとって有益だと感じたため、リンクを張った。通常、リンクを張る行為は、このような理由で行われるはずである。

Hacker Newsでの関連する議論も注目に値する。マット・カッツの最初の投稿は、誠実さに欠けていると言わざるを得ない:

シチュエーション #1は、最も一般的だ。リンクスパムを指摘されると、サイトは、リンクを一掃する試みを行る。その多くは、権利を振りかざし、大量のリンク削除要請メールを送信する。

Googleから通知を受けたウェブマスターは、被リンクの整理を促される。なぜなら、そのままにしておくと、ランキングに損害が出てしまうためだ。


しかし、ウェブサイトに向かう不自然なリンクに関しては、ウェブから実際に削除するために、十分な対策を講じた証拠を見たい、と言うのが本音だ。ただし、自分で削除することが出来ないリンクがある場合、もしくは、削除するためには料金を支払わなければならない場合、否認ファイルにリストアップしても問題はない。

(ボールド体を用いたのは、個人的な判断)

つまり、Googleから通知を受けたウェブマスターは、リンクを削除してもらうために、ウェブサイトに連絡を取る。Googleは、ウェブマスターに、単純に否認ツールを利用するのではなく、リンクを削除するために努力してもらいたいと望んでいる。

その結果、当然、質の低いリンクの通知が届いたウェブサイトにリンクを張っているウェブマスターの下には、最新のEメールスパムとも言える、「僕のリンクを削除して」メールが届く。ウェブマスターによっては、「誰かがナイジェリアの銀行であなたに大金を預けました」の類の詐欺メールよりも、リンク削除メールの方が多くなり、また、粘り強さ、そして、煩わしさに関しては、「ナイジェリア」詐欺に引けを取らない。

ウェブマスターの立場

ウェブマスターは、スパムフィルターにフレーズ「リンクを削除してください」とワード「否認」を加えることが出来る権利を持っている。

ウェブマスターAは、特に問題のある行為は取っていないものの、たまたま、リンクの削除を要請されたとする。リンク先のサイトのSEOの担当者は、誤って、リンクが悪質だと勘違いし、削除の要請を行ったのだろう。ウェブマスター Aは、リンクの削除要請に時間を費やさなければならない。リンクを1本削除するために、数分間を要する — しかし、ちょっと待ってもらいたい — 相手が、不誠実な競合者ではなく、実際のサイトのオーナーなのだろうか?所有者を確かめるには時間がかかる。そもそも、なぜ当該のリンクを削除したいのだろうか?サイトのオーディエンスにとって、有益だと思ったから、リンクを張ったのではないだろうか?あるいは、ボットが、ウェブマスターの希望とは異なり、フォーラムのリンクやブログのコメントのリンクとしてリンクを張った挙句、今度はそのリンクを削除して欲しいとでも言いたいのだろうか?

だとしても、リンクが1本だけなら、まだ許せる。しかし、大きなサイトを運営しているウェブマスターにとっては、面倒な作業になり得る。長期間をかけて、多数のリンクを構築してきたサイトの場合、削除の要請が積み重なっていく。すると、スパムフィルターの力を借りることになる。

すると、遠回しに脅されるようになる。「リンクを張ってくれてありがとう。君のせいではないけど、リンクを削除してくれないと、否認せざるを得ない。すると、君のサイトのイメージが悪くなってしまうかもしれない。出来れば避けたいんだけど…」

何てことだ。

また、SEO業者が実際に否認を行うかどうかは、ウェブマスター側には分からない。あるSEOのカンファレンスでは、リンクを削除するかどうかは別として、SEO業者にこの取り組みを薦めていたような気がする。

つまり、削除を要請されたウェブマスターにとっては、とりわけマット・カッツの提案を聞いている場合、リンクを削除する動機がないことになる:

元々の記事の中に、Googleが、実際にリンクが悪質だと指摘している部分は存在しない。これは、ランダムなサイトからのリクエストであり(詳細は記載されていないため、サイトを特定することは出来ない)、このリンク削除要請を無視しても構わない。

しかし、Googleがリンクを特定することもある:

サイトへのリンクを確認したところ、品質ガイドラインに違反しているリンクが幾つか見つかりました。

サンプルのURL:
ask.metafilter.com/194610/get-me-and-my-stuff-from-point-a-to-point-b-possibly-via-point-c

上のサンプルのURLだけでなく、全ての不自然なリンクを是正、もしくは、削除してください。場合によっては、不自然なリンクを持つサイトのウェブサイトのウェブマスターに連絡する必要があるかもしれません。

また、リンクを特定する際に、Googleはミスすることもある。事実、DMOZ & 同様のリンクに警告を与えたことがあった: 「不自然なリンク」の主張を調べる度に、MetaFilterの昔からの評判の良いメンバーが、他のメンバーを助けようと試みるコメントが見つかる。通常は、Ask MetaFilterで何かを特定しようとしている。

行動の変化

すると、ウェブマスターは、このように考えるようになる。

「リンクを張ると、逆に損をするような気がする。Googleにペナルティーを科されるかもしれないし、「リンクを削除して下さい」メールが大量に送られてくるかもしれない。」

すると、どのような事態が起きるのだろうか?

ウェブマスターは、リンクを張る行為に非常にデリケートになる。デビッド・ネイラーは、「No リンク」ポリシーを採用するサイトが増加していると指摘している。予防措置として、全てnofollow化する可能性もある。ウェブに息吹を与える血管になるどころか、リンクは、有害な存在だと見られている。全てのアウトバウンドリンクが、nofollow化されたら、インデックスから追い出される確率、そして、「リンクを削除して下さい」メールが送られてくる確率は減る可能性がある。しかし、nofollowのリンクであっても、削除を要請されることもある。

リンクを問題視するウェブマスターが増えると、正当なサイトが得られるリンクは減少する。 一方、現在、痛い目に遭うことが多い悪徳サイトは、キュレートしたリンクネットワークによって、全てのリンクを獲得することになり、ランキングを上げていくだろう。

以下のコメントに注目してもらいたい:

Googleのウェブスパム対策チームは、とりわけ最近、問題の解決にテクノロジーよりも心理学を利用することに熱を上げているようだ。過去18ヶ月間のマット・カッツの発言は、ほぼ全て、脅しに近い。
個人的には、事業計画の中に、ペナルティーを科されるケースを想定しているブラックハットによって、「簡単に作れる」ウェブサイトが増加していく気がする。不完全で、熱心過ぎるアルゴリズムにスパムだと思われ、全ての努力が水の泡と化してしまうなら、わざわざ時間と労力を割いて、質の高いウェブサイトを構築する必要はあるのだろうか?インターン、または、Googleの職員ではない人物が、手動のレビューを行い、誤って、ウェブマスターガイドラインに違反していると判断されてしまうケースもある。

熱心なネガティブSEOキャンペーンにより、あるいは、Googleが診断を誤ったことにより、サイトが壊滅的なダメージを受けてしまう状況で、なぜ、わざわざ優れたコンテンツを提供しなければならないのだろうか?トラフィックの大半をGoogleに依存しているなら、ウェブパブリッシングモデルのリスクは、より高くなる。

MetaFilterも同様の問題を抱えている:

Googleは壊れてしまったのだのだろうか?それとも、自分のサイトが壊れてしまったのだろうか?Googleのクリックスルー率が急激に落下すると、誰もがこの疑問を持つ。伝説のインターネットフォーラムサイト、MetaFilterを設立したマット・ホーヒーは、過去1年半にわたって、この疑問を問い続けてきた。その一方で、広告収益の減少によって、数名のスタッフを解雇せざるを得なくなった。

あるいは、Googleは、MetaFilterの取り組みを嫌いになっただけなのかもしれない。

意図(した?)しなかった結末

これは、非競争的なアプローチに該当するのだろうか?ペナルティーを受けているサイトは、圧倒的に営利目的のサイトばかりなのだろうか?営利目的ではないサイトの割合を知りたい。自然な手法では、リンクの獲得が難しくなるため、営利目的のサイトにAdwordsを利用させようとしているのだろうか?SEOのコストを増やすことだけが目的なら、その目的は十分に達成されていると言えるだろう。

答えは分からないが、このような疑問を持つ理由は理解してもらえたのではないだろうか。

例えば、実は善意のある行動であり、Googleは、単純に検索結果を改善することを目指していると仮定しよう。しかし、ウェブマスター達は、リンクを張る行為に二の足を踏むようになる。これは意図とは異なる結果だ。実際にこのシチュエーションが発生したら、リンクを張る取り組みは、今以上に閉鎖的になる。リンクを獲得するのが難しくなり、リンク自体が問題になると、PPCとソーシャルメディアは、遥かに魅力的に映るようになる。


この記事は、SEO Bookに掲載された「Please Remove My Links or Else」を翻訳した内容です。

SEO Bookらしい斜め目線の状況解説ではありましたが、確かにリンク削除依頼メールを偽装することはできますよね。これを悪用すると、競合のサイトの被リンクを調べてリンク元のウェブマスターにリンク解除の依頼メールを一斉配信なんて行為もできてしまいそうです。

私もペナルティの経験は人並み以上にありますが 汗、リンク元を1つ1つチェックして問題ありそうな場合は削除依頼メールを送る作業、相当の時間と労力が必要なのは事実です。悪質な「ペナルティ解除請負業者」であれば、リンク元の精査もそこそこにとりあえず一斉解除依頼メールを送り付けそうな所もありそうですし。

人口リンク頼みのSEOは終焉に近づいているとはいえ、ここまで長年放置してしまったウェブマスターをやらなければいけない状況に追い込んでしまった責任がGoogleに全くないとも思いませんし、この辺りの状況が余り悪い方向に進まないことを望みたいですね。

また、記事の途中にあった「ペナルティーを科されるケースを想定しているブラックハットによって、「簡単に作れる」ウェブサイトが増加」、確かに日本でもこういうケースが増えているような気がしなくもない点は別の意味で怖いです。

現状効果があるリンクへの取り組みを完全に0にすることはすぐには難しい場合もあると思いますが、少しずつコンテンツマーケティングへの取り組みを本格化していきたいと思う今日この頃でした。 — SEO Japan

Google、見ているテレビ番組が検索結果に影響を与える「テレビランク」 を採用?

コンテンツマーケティングワールドのレポート記事連投の真っ最中ですが、Googleがこの度、ユーザーのテレビ番組の視聴動向を検索結果に反映させる新たなアルゴリズム「TVランク」の特許を取得した、との気になるニュースが飛び込んできたので速報させていただきます。 — SEO Japan

google-tv-1920

Googleは、ウェブ上のリンクのパターン、個人の位置情報、検索履歴等、様々なシグナルを使って、検索結果のランク付けを行っている。この要素に、テレビで視聴する番組が、加わろうとしている。

SEOの特許の神様こと、ビル・スラウスキが、ブログの中で、テレビで見ている番組が、検索結果に影響を与えるコンセプトを描いた特許が、Googleに付与されたと伝えていた。

2011年6月30日に申請された当該の特許「電子デバイスの近くにあるテレビで放映されている番組を特定して、ユーザーの検索結果を強化するシステムおよびメソッド」は、2014年9月16日にGoogleに付与された。

以下に、この特許の要約を掲載する:

テレビ番組に関連する検索クエリを利用するコンピュータに実装されたメソッド。サーバーは、電子デバイスからユーザーの検索クエリを受け取る。続いて、サーバーは、検索クエリ、および、特定の期間において、電子デバイスに関連する場所で視聴可能なテレビ番組に関する情報を基に、電子デバイスの近くでユーザーが視聴しているテレビ番組を特定する。尚、テレビ番組に関連する情報には、関連する場所で放映されているテレビ番組の本数に対する記述も含まれる。

この特許は、Googleが、- このプロセスの下 – 現在テレビで視聴している番組を記録することが出来る可能性があると示唆している。そして、ユーザーが検索を実行する際に、検索結果に影響を与えるため、視聴している番組をシグナルとして利用するべきかどうかを判断する。

この特許は、例として、ある特定の自動車に関するテレビ番組を見ているユーザーが、自動車に関する包括的なクエリで検索を行ったケースを紹介している。放映されている番組、そして、番組で言及されている特定の自動車を把握すると、Googleは、より具体的な結果を提供することが可能になる。以下に、特許の一部を抜粋する:

あるユーザーが、コーナーの一つで、ポルシェの特定のモデルを紹介するテレビ番組を見ており、当該のユーザーが、コーナーで取り上げられていた特定のモデルではなく、「ポルシェ」、あるいは、「スポーツカー」で検索をかけたと仮定する。

当該のポルシェのモデルが「911 Turbo」であり、ユーザーが入力した検索クエリが「ポルシェ」の場合、サーバーは、次のいずれか一つに関する情報、または複数に関する情報を返す可能性がある:

1) 「911 Turbo」モデルに関連する情報(「911 Turbo」に関連するPorsche.comのウェブサイトへのリンク)

2) 現在、このコーナーを放映しているテレビ番組に関連する情報

3) 現在放映中、もしくは、今後、放映される予定の同様の番組の提案

こうすることで、このシステムは、番組の視聴者に対して、見ている番組、もしくは、見たいと思うであろうテレビ番組の内容に関連する、改善された検索結果を提供する。

以下に、このプロセスを説明する図を掲載する:

google-tv-process-diagram

検索結果を受信 602

テレビ番組を視聴しているかどうかを特定 604

No -> 修正を加えずに、そのまま検索を実施 620

Yes -> サーバーは、電子デバイスからユーザーの検索クエリを受信する。続いて、サーバーは、検索クエリ、および、特定の期間において、電子デバイスに関連する場所で視聴可能なテレビ番組に関する情報を基に、電子デバイスの近くでユーザーが視聴しているテレビ番組を特定する。尚、テレビ番組に関連する情報には、関連する場所で放映されているテレビ番組の本数に対する記述も含まれる 606

スコアを生成する。受け取ったクエリの用語に関連するスコアを、考えられるテレビ番組のセットにおける各番組に対して生成する 608

検索クエリの用語に関連する最初のセットのカテゴリーを特定する 610

テレビ番組に関連する2番目の一連のカテゴリーを特定する 612

最初のセットのカテゴリーと2番目のセットのカテゴリーにマッチング機能を適用する 614

生成されたスコアに応じて考えられるテレビ番組のセットの順序を決める 618

特定したテレビ番組として最高のスコアを持つテレビ番組を選択する 616

以前も指摘したように、Googleがこの特許を所有しているからと言って、実際に検索結果のランク付けにこのプロセスを利用するとは限らない。

ただし、Googleは、既にこのタイプのプロセスを、ある程度、Google Nowの一環として実際に利用している。

Google Nowとは、Google版の知的パーソナルアシスタント機能であり、ユーザーが求める前に、情報を提供する。その中に、テレビカードも含まれる。このカードは、視聴している番組に関する情報を提供し、その上、今後の番組、そして、見ている番組を基に、ユーザーが見たいであろう番組をリマンドする。

テレビの音声を聞き、見ている番組を理解することで、このカードは表示される(この機能を有効にしている場合)。このシステムを試したいなら、既に活用が進んでいるGoogle Nowを利用すると良いだろう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「TV Rank: Google Gets Patent On Using What You’re Watching To Influence Search Results」を翻訳した内容です。

SEO by the Seaよりサーチエンジンランドの解説付きの記事の方がわかりやすかったので、後者を翻訳紹介させていただきました。実際の検索結果に現状反映されているかは微妙ですが、2011年時点でこういったアルゴリズムを考え特許申請していたという先見性は流石ですね。実際、様々なリサーチを見ても、テレビを見ている人の多くがインターネットにも同時にアクセスする「ながら視聴」を行っているようですし、テレビで気になったことをその場でネット検索という行為は普通にありますよね。スマホファーストの今日、こういったアルゴリズムがテレビはもちろん、様々なユーザー行動が検索結果に反映されていく時代になっていくのでしょう。Googleの進化はまだまだ続きます。 — SEO Japan

BtoBで劇的に問い合わせ率を引き上げるユーザビリティ改善

株式会社アルコの黒須敏行です。 前回BtoBにおけるSEOキーワードの発見方法について書きましたが今回はユーザビリティ改善について話したいと思います。 今回の目的はBtoBサイトにおける問い合わせ率を『劇的に』引き上げる [...]

ペンギンアップデート3.0が年内に導入予定

日本はもちろん世界のリンク構築主体のSEOを風前の灯火に追い込んだGoogleのペンギンアップデート。今年に入って大きな更新がなかったのですが、Googleいわく、年内に次回のアップデートを予定しているということでその内容をさらり。 — SEO Japan

google-penguin2-ss-1920

今日から22日後の10月4日、Google ペンギンアルゴリズムの5回目のアップデート(コードネーム: ペンギン 2.1)がリリースされてから、丁度1年が経過することになる。ご想像の通り、11ヶ月と8日間待機するのは、辛いものがある。とりわけ、この懲罰的なアルゴリズムの制裁を受けたサイトにとっては、拷問に近い。既にリンクを一掃しているはずだが、今は、ただじっと我慢し、次回のペンギンアップデートのリリースにより、ビジネスが復活することを祈るしかない。

その日はもうすぐやって来るかもしれない。Googleのジョン・ミューラーが、今朝行われたGoogle ハングアウトで、ペンギン 3.0、つまり、6度目の更新が、今年中に行われる見込みだと指摘したのだ。事実、ジョン・ミューラーは、後日、妥当な頃合いにリリースする自信がある、と発言していた。

「後日、妥当な頃合い」とは、いつのことだろうか?既に、11ヶ月以上にわたって更新が行われていない点自体、妥当とは言い難いが、個人的には、ペンギン 2.1のリリースから1年が経過する前に行ってもらいたいと願っている。現時点では、それが妥当な頃合いに該当するのではないだろうか。しかし、あくまでも推測に過ぎない。

以前、ペンギンアップデートが行われた、と思ったことがあったが、Google曰く、ペンギンではなかったようだ。また、私は、Googleが、ペンギンアップデートのテストを実際のインデックスで行っていると確信しているが、完全にリリースされているわけではない。

ペンギン 3.0は、大型のアップデートになり、より頻繁に発動することが可能になると見られている。そのため、更新が行われるまで、長期間待つ必要はなくなるようだ。現在、パンダは、1ヶ月に1度の頻度で実施されている。

Googleは、ペンギンアルゴリズムをアップデートする取り組みにおいて、多くの難問に遭遇したと指摘していた。しかし、どうやら、ペンギンの更新は近いうちに行われるようだ。

Googleから、リリースの日時が公表されたら、報告させてもらう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Nearly A Year Later, Are We Finally Going To Get A Penguin Update Refresh?」を翻訳した内容です。

更新したリンクのアルゴリズムを全体的に適用することで、SEOの取り組み有無に関わらず予期せぬ順位変動が起こりうるペンギンアップデート、今回はGoogleもかなり時間をかけて取り組んでいるようですが、果たして年内にリリースされるのでしょうか。そしてその影響は、、、今から気になります。 — SEO Japan

2014年SEOランキング要素レポート – 「コンテンツは王様」の構図が明確に

米国サーチメトリクス社が毎年発表しているGoogleのランキング要素レポート。その詳細を解析し最新の順位決定要素の影響力を探った記事をサーチエンジンランドから。コンテンツが重要といわれる時代ですが、果たしてその真実は? — SEO Japan

searchmetrics-ranking-2014

SearchMetricsが、毎年恒例のSEO ランキング要素レポートの2014年版が完成し、ダウンロードすることが可能になったと告知した。

毎年、SearchMetricsは、この調査結果を公表しているが、2014年版は、100ページ近くに膨れ上がり、また、サイト滞在時間、直帰率、新鮮なリンクの本数等の要素が加えられ、今まで最もボリュームが大きいレポートとなった。

今回の調査では、「コンテンツが本当に王様」として君臨している可能性があることが判明した。SearchMetricsのマーカス・トバーは、コンテンツは「もはやSEOのオマケではなく、中心的な存在に成長した」とレポートの中で指摘している。

それでは、以下にレポート、そして、分析結果を示したチャートを掲載していく。このページからレポートをまるまるダウンロードすることも可能だ。

コンテンツ

  • コンテンツの質とランキングの間には計測可能な相関関係が存在する。この関係は、ワードの共起分析を主にベースとした2点の新しい要素「Proof
    Terms」(証拠となる用語)と「Relevant Terms」(関連する用語)によって、証明されている。
  • コンテンツが長くなる傾向が続いている。
  • 良質な内部リンク構造は不可欠な要素であり、最も軽視されたSEOの要素だと言える。

オンページのテクニカル SEO

  • オンページでは、キーワードが、今でもSEOに対する全体的なコンセプトの大事な部分を占め、タイトル、ディスクリプション、本文のコピー、H1、H2等でのバランスの取れた配置によって表される。言うまでもなく、キーワードスタッフィングは、回避する必要がある。ただし、トピックに対するキーワードを開拓し、総合的なコンテンツを生成するアプローチを目指す明確なトレンドが存在する。
  • サイトスピード(読み込み時間)は、ロボットにとって重要なパフォーマンスの要素である。
  • 良質なサイトアーキテクチャは、効果的なSEOを左右する。

被リンク

  • 被リンクの量、そして、とりわけ品質は、今でも重要だ。
  • キーワードの被リンクの本数は、相関関係は高まっているにも関わらず、減少傾向にある。
  • ブランドに対する被リンクのメカニスズムは、その他のSERPのURLとは異なる働きをするようだ(詳しくは「ブランドの要素」を参照)。

ソーシャルシグナル

  • 昨年と比べ、ソーシャルシグナルと上位のランキングとの相関関係が薄くなったこともあり、昨年から若干変わっている。
  • 平均的な値は少し高くなった。

ユーザーシグナル

  • 上位にランク付けされているサイトでは、クリックスルー率は高く、滞在時間は長い — 当たり前だと思うかもしれないが、多くのURLに特定された平均値を自分のサイトの最適化に対する基準として用いることが可能である。
  • 上位にランク付けされているURLの直帰率は低い。

ブランドの要素

  • 大きなブランドは特別扱いされているように見える。
  • 今年のレポートでは、ブランドの要素、そして、その定義を調整し、複雑化する影響と品質を反映させた。

総合ランキングチャート

searchmetrics-overall

関連する用語/Google+1/被リンクの本数/Facebookのシェアの数/Facebook総合/Facebookのコメント数/Pinterest/被リンクのURLのSEOにおけるビジビリティ/Facebookのいいね!の数/ツイート/rel=nofollowの被リンクの%/証拠となる用語/新たな被リンクの本数/新しいドメインからの被リンクの本数/キーワードの被リンクの%/アンカーとドメインのトップドメインレベルが同じ被リンクの%/内部リンクの本数/ストップワードの被リンクの%/本文内のキーワードの数/HTMLの長さ/テキストの文字の長さ/ワード数/サイトスピード/外部リンク内のキーワード/アンカーテキスト内のワード数/タイトル内のキーワードの位置(文字)/URLの長さ/タイトル内のキーワードの位置(ワード)/内部リンク内のキーワード/外部リンクの本数/同じ国からの被リンクの%/H2/画像の数/H1/ディスクリプション/動画の統合/タイトル内のキーワード/H2内のキーワード/ディスクリプション内のキーワード/URLがサブドメインではない/タイトルの文字数/URL内のキーワード/ドメイン名内のキーワード/AdSenseのブロック/H1内のキーワード/広告リンクの数/AdSense/(AdSenseを除いた)広告リンクの数

スピアマン相関関係 — Googleの検索結果を調査

ソーシャル/被リンク数/オンページ(テクニカル)/オンページ(コンテンツ)

コンテンツのランキング要素:

searchmetrics-onpage

サイトスピード/タイトル内のキーワードの位置(文字)/URLの長さ/タイトル内のキーワードの位置(ワード)/H2/H1/ディスクリプション/動画の統合/タイトル内のキーワード/ディスクリプション内のキーワード/URLがサブドメインではない/URL内のキーワード/Flash/ドメイン名内のキーワード

オンページテクニカルの要素:

Screen Shot 2014-09-08 at 2.19.18 PM

関連する用語/証拠となる用語/内部リンクの本数/本文内のキーワードの数/HTMLの長さ/テキストの文字の長さ/ワード数/外部リンク内のキーワード/センテンスの数/内部リンク内のキーワード/外部リンクの本数/画像の数/H2内のキーワード/フレッシュによる読みやすさ/タイトルの文字数/AdSenseのブロック/H1内のキーワード/広告リンクの本数/AdSense/(AdSenseを除いた)広告リンクの本数/TF-IDF

リンクのランキング要素

searchmetrics-links-factors

被リンクの本数/被リンクのURLのSEOにおけるビジビリティ/rel=nofollowの被リンクの%/新たな被リンクの本数/新しいドメインからの被リンクの本数/キーワードの被リンクの%/アンカーとドメインのトップドメインレベルが同じ被リンクの%/ストップワードの被リンクの%/アンカーテキスト内のワード数/同じ国からの被リンクの%

ソーシャルのランキング要素:

searchmetrics-social-factors

Google +1/Facebookのシェアの数/Facebook総合/Facebookのコメント数/Pinterest/Facebookのいいね!の数/ツイートの本数

インフォグラフィック:

seo-ranking-factors-2014

クリックスルー率/関連する用語/被リンクの本数/Google +1/Facebookのシェアの数/Facebook総合/Facebookのコメントの数/Pinterest/被リンクのURLのSEOにおけるビジビリティ/Facebookのいいね!の数/ツイートの本数/nofollowの被リンクの本数/証拠となる用語/新たな被リンクの本数/新しいドメインからの被リンクの本数/キーワードの被リンクの%/アンカーとドメインのトップレベルドメインが同じ被リンクの%/内部リンクの本数/ストップワードの被リンクの%/本文内のキーワードの数/HTMLの長さ/テキストの文字の長さ/ワード数/サイトスピード/外部リンク内のキーワード/アンカーテキスト内のワード数/タイトル内のキーワードの位置(文字)/URLの長さ/タイトル内のキーワードの位置(ワード)/内部リンク内のキーワード/滞在時間/外部リンクの本数/同じ国からの被リンクの%/H2/画像の数/H1/ディスクリプション/動画の統合/直帰率/タイトル内のキーワード/H2内のキーワード/ディスクリプション内のキーワード/URLがサブドメインではない/タイトルの文字数/URL内のキーワード/ドメイン内のキーワード/AdSenseのブロック/H1内のキーワード/広告リンクの本数/AdSense/(AdSenseを除いた)広告リンクの本数

GoogleのSERPで上位にランク付けされているサイトは、どのような共通点を持つのか、そして、ランキングの低いサイトとどのような違いがあるのか?

この問いに答えるため、SearchMetricsは、特定のサイトの存在と範囲を決め、1万点のキーワードの検索結果を分析し、トップ 30に対して算出した相関関係(スピアマン)とトップ 10を基にした平均値として結果を表した。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「SearchMetrics Released SEO Ranking Factors For 2014: Content Now Really King?」を翻訳した内容です。

被リンクの数もまだまだ重要要素であることには変わりがないようですね。コンテンツ系要素が上位に入っていますが、それ単体の力なのか、他の要素の影響力なのか(そういうコンテンツが被リンクを受けやすい、など)等、気になる点はありますし、単純に順位だけでは推し量れないレポートですね。もちろん今日のGoogleにおいては、何か特定の要素が圧倒的な影響力を持つ、ということはないのでしょうが。。。ただ最後のインフォグラフィック(クリックすると拡大表示されます)のトップに君臨するクリックスルー率、他の要素に比べて圧倒的でかなり関係あるのかな?という気になりました。この記事や元レポートでもそこまで深く解説されていないのですが、関係が深そうと思いつつ、良く考えると順位が高ければクリック率も自然と高まるのが必然ですし、素直にランキング要素の数値として捉えていいものか、という疑問は残りますが。

いずれにしても、大変貴重でありがたいリアルデータでした。 — SEO Japan

Googleオーサーシップは消えてもオーサーランクは健在

Googleのオーサーシッププログラムがまさかの終了というニュースが話題になりましたが、Googleがオーソリティの評価指標を根本的に変えたわけではありませんし、オーソリティ構築は変わらず重要な課題です。ページランクと違ってオーサーランクの概念は今後ますます重要になる、ということで、オーサーランクについて勉強しなおしてみた記事をサーチエンジンランドから。 — SEO Japan

google-authorship-content-writing-ss-1920

Googleは、3年間にわたって実施した実験「オーサーシップ」を昨日終了した。しかし、オーサーランクを使って、検索結果を改善する試みは、今後も継続されるようだ。たった今、「Google オーサーシップがなくても、オーサーランクを持つことが出来るのか?」&「そもそも、Google オーサーシップとオーサーランクは何が違うのか?」と言う疑問を持った方は、読み進めていってもらいたい。なぜなら、オーサーシップとオーサーランクは同じではなく、オーサーランクは今後も生き続けるからだ。

Google オーサーシップとは何だったのか?

Google オーサーシップは、主に、コンテンツのオーサー(作者)が、自分自身を特定し、目立つことが出来るようにするためにGoogleが与えた手段である。 オーサーは、人間には見えない「マークアップ」コードをウェブページ内に配置し、オーサーシップを活用していた。その後、Google自身が、アイデンティティを管理するシステムを作るためのステップとして、Google+に緊密に連携させ、もともとのアイデアをスケールアップさせていた。

Google オーサーシップのユーザーは、コンテンツの隣に名前と画像を表示してもらい、大きな見返りを得ていた。Google自身がオーサーシップ付きのストーリーはより多くのクリックをもたらすと示唆していたこともあり、作者にとっては、大きな魅力であった。以下に、Google オーサーシップの例を掲載する:

google-authorship-image

ご覧のように、オーサーの画像と名前が掲載された署名欄が、リスティングに与えられている。

昨日、Googleは、そのオーサーシップを見限った(日本語)。画像のサポートは6月に終了していたが、現在、署名欄を含む全てのアイテムが姿を消した。完全に閉鎖されたのだ。

Google曰く、過去にページに掲載したマークアップが、今後、害を与えることはないようだ。ただ単に無視されるだけである。それでも削除するつもりなら、マークアップがGoogle以外の会社やサービスに用いられる可能性がある点を肝に銘じておこう。rel=authorrel=me等のマイクロフォーマットは、他のサービスに用いられる可能性がある(注記: 当初、schema.orgと記していたが、訂正させてもらった — アーロン・ブラッドリーがコメントで教えてくれた)。

オーサーシップの追加に力を入れていた場合(今は単なる時間の無駄遣いになってしまったが)、今後、削除する取り組みに力を入れるべきかどうかに関して、今後の記事で、詳しく検証していく予定だ。

オーサーランクとは何か?

オーサーランクは、Google オーサーシップとは異なるアイデアである。オーサーランクとは、Googleがストーリーの作者が誰だか分かっている場合、そのストーリーのランキングを変えるシステムであり、信頼されている人物が作ったストーリーは優先される可能性がある。

オーサーランクは、実はGoogleが公式に用いている用語ではない。SEOコミュニティが、このコンセプトに与えた用語である。Googleのエリック・シュミット会長が、2013年に出版した書籍「The New Digital Age」の中で、認証を受けたオーサーを高くランク付けするシステムのアイデアに触れたことから、改めて注目を浴びるようになった:

認証を受けたオンラインプロフィールに関係する情報は、検索結果の中で、このような認証を受けていないコンテンツよりも高くランク付けされる。すると、大半のユーザーは上位の(認証された)結果を自然にクリックするようになる。無名でいると、相手にされなくなってしまう。

オーサーランク、および、シュミット会長の発言の背景の詳細に関しては、私が昨年投稿した記事「オーサーランク、オーサーシップ、検索ランキング & エリック・シュミットの本の抜粋」を参考にしてもらいたい。

オーサーランクは実在する — 今後も続く

シュミット会長は、本の中で、実際にGoogleで行われている取り組みを説明していたのではなく、あくまでも推測していただけである。Google自身、昨年、オーサーランクを、分野の専門家を特定し、検索結果で優遇するめに利用する手段として何度か取り上げていた:

これはあくまでも机上の論理であった。実際に行動が起こされたのは、今年の3月になってからである。Google 検索を統括するアミット・シンガルが、オーサーランクは、まだ利用されていないと発言した後、ウェブスパム対策を引っ張るマット・カッツが、オーサーランクが用いられる場所に関して、ヒントを与えた — 検索結果に時折登場する「詳細な記事」セクション。

オーサーシップなしのオーサーランク

Google オーサーシップは姿を消してしまったが、Googleは、どのように、オーサーランクを今後も限定された形式で利用していくのだろうか?オーサーランクが用いられていた可能性があるその他の方法も、効力を失ったのだろうか?

Googleは、オーサーシップが終了しても、詳細な記事のセクションの仕組みに影響が及ぶことはないと指摘していた。また、オーサーシップの中止が、オーサーが報われるシステムを調査するその他の試みに影響を与えることもないようだ。

そんなことは可能なのだろうか?事実、Googleは、オーサーシップのマークアップを無視することも明言している。

Googleは、その気になれば、ストーリーの作者を特定することが可能な別の手段を持っている。Googleは、とりわけ、ニュース記事に掲載されることが多い署名欄を探す可能性が高い。 署名欄は、Google オーサーシップが登場する前から存在しており、今後も消えることはない。

従って、オーサーランクの利用が今後増えると本気で考えているなら、署名欄を意識すると良いだろう。署名欄は、ストーリーの作者を合図する後継者の筆頭として注目されている。前任者は既にGoogleによってクビにされている。

オーサーランクのことを必要以上にあれこれと考える必要はない。Google検索の極めて限られた部分に対して、効果が確認されただけである。今後、さらに効果が拡大していく可能性はある。そうなったとしても、Googleのリスティングを構成する数あるSEOのランキング要素の一つに過ぎない。ストーリーに適切に署名欄を記すことも重要だが、それよりも、作者と特定されることに誇りを持てるような質の高いストーリーを作成する取り組みに力を入れるべきだ。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Google Authorship May Be Dead, But Author Rank Is Not」を翻訳した内容です。

Googleが公式に認めた用語というわけでもないようですし、記事自体もそこまで気にする必要はないと結論づけてしまっているのですが汗、オーソリティを測る上での概念として理解しておくことは重要と思いますし、名称が何にしろ、コンテンツ制作者のオーソリティレベルを判断する指標はGoogleが必ず取り入れてくる要素でしょう。オーソリティ構築を通じてオーサーランク向上を目指すことはSEOにもコンテンツマーケティングにもますます重要な作業となっていくのでしょうね。 — SEO Japan

Googleの最新動向よりも大事なSEOの基礎5箇条

ペナルティ警告連発によるリンクSEOの終焉からハミングバードアップデート、オーサーシッププログラムの終了まで激動のSEO業界、コンテンツマーケティングが注目されてはいますが、今だから見直したいSEOの基本をまとめた記事をサーチエンジンランドから。 — SEO Japan

最近、新しいデジタルマーケティングチャンネルが続々と登場している — このようなツールは、イノベーションに優れ、刺激的で、テストしたくなるものの、パフォーマンスを高めるSEOの基礎の徹底を疎かにしてしまうこともある。自然のクリックスルー率(CTR)が良い例だ。

単純にページのタイトルを調整するだけで、ランディングページに到達していた2%の消費者を20%に増やすことが出来る。しかし、自然なCTRは、複数の要素の影響を受ける。それでは、コントロールすることが可能な5つの要素を確認していこう:

1. 検索エンジン結果ページ(SERP)のランキング

マーケッターなら誰もが1ページ目の自然のランクを狙う。しかし、1位と2位、もしくは、1位と6位の間に、大きな違いはあるのだろうか?

Nielsen Norman Groupが実施した調査によると、ウェブユーザーは、F字型のパターンでスクリーンを見ており、80%の時間において上半分の情報に目を通しているようだ(スクロールすることなく見ることが可能な部分 — 通常はランキングの1位から5位)。

このデータを参考にすると、検索エンジンのユーザーは、最初に、そして、より頻繁に上半分に掲載されるランキングを見ていることになる — さらに、移動の習慣により、上半分に掲載されたリスティングをクリックすると推測することが出来る。

その上、Catalystが2013年に行ったGoogleのCTRに関する調査では、平均で1ページ目の自然のクリックの83%は1位から4位に集中することが判明していた。

このように、1ページ目にランク付けされると、より多くのユーザーに見てもらう上でプラスに働く点は明白であり、トラフィックを大幅に増やすためには、上半分にランクインする必要がある。

Google_Desktop_CTR

パフォーマンスを高めるためのアドバイス:

  • より多くのCTRをもたらす効果があるため、検索結果ページのなるべく上位(上半分)にランク付けしてもらえるように努力しよう。
  • eコマースの非有料戦略をコンテンツを基に情報を作り出す取り組みに集中させよう。インフォメーショナルな検索クエリ(情報を求めるクエリ)に対するSERPのリスティングの上半分は、混雑度が割と低く、ユーザーの注目/クリックを獲得することが可能な確率は高くなる。

2. タイトルタグ

タイトルタグはウェブページ(または、その他のタイプのウェブ文書)のタイトルを明示する。タイトルタグは、SERPで青いリンクとして表示されるテキストであることが多い。

ページのタイトルは、検索エンジンのユーザーが、SERPでページをクリックするかどうかに大きな影響を与え、また、自然なCTRのパフォーマンスを左右する力を持っている。そのため、時間を割いて、慎重にタイトルタグを作成してもらいたい。

以下に、The Boston Calendarが作成した良質なタイトルタグを例として掲載する。このタイトルタグが優れている理由を検証していこう:

Boston_Calendar

  • このタイトルは、ターゲットのキーワード(boston calender)をタグの先頭付近に配置している。これは、ユーザーの注目を集める上で効果的であり、また、ランキングを若干押し上げる効力もある。
  • このタイトルは45文字であり、省略される可能性は低い。Googleは、通常、65文字を超えるとタイトルのスニペットを省略する。
  • タイトル内の複数のワードが、ユーザーのクエリと一致する — その結果、SERP内で太字表記される。
  • タイトルがブランドの「トーン」と一致している。これは、マーケティングのチャンネル全体で一貫したメッセージを送る効果がある。
  • テキスト「events that don’t suck」(参加して損をしないイベント)は、感情を刺激し、関心を生み出す。

パフォーマンスを高めるためのアドバイス:

  • タグを作成する際は、文字数、利用するワード、そして、クエリのマッチングに力を入れよう。
  • 自然なクリック数を増やすため、ふさわしく、クリックしたくなるようなタイトルを意識して、調整を行おう。ただし、自然のランキングに影響を与える可能性があるため、ターゲットのキーワードは排除するべきではない

3. メタディスクリプション

メタディスクリプションは、ユーザーが、実際にページを見る前に、コンテンツの内容を理解することが出来るようにするアイテムである。直接自然な検索ランキングに影響を与えるわけではないが、ユーザーがクリックしてウェブサイトにアクセスするかどうかの判断に大きな影響を及ぼす。そのため、特に重要度の高いページには、必ずメタディスクリプションを用意してもらいたい。

メタディスクリプションを無料広告と考えることも出来る — 事実上、SERPにリスティングが表示される度に、メッセージを送る機会を得られるためだ。ただし、Googleが、SERPのスニペットにメタディスクリプションを表示せずに、公開されているデータ等のソースを、ページのコンテンツに利用する可能性がある点を頭の片隅に置いておこう。

Wicked Wine Candlesのメタディスクリプションを見てみよう。このメタディスクリプションの長所について考えていこう。

Wine_Bottle_Candles

  • このメタディスクリプションは、ターゲットのキーワード(wine bottel candles)を盛り込んでいる。これはユーザーのクエリと一致しており、太字で表示されている。
  • 154文字であり、メタディスクリプション全体が表示されている。Googleは、通常、160文字を超えるメタディスクリプションを省略する。.
  • このコピーは、同社のスタイルおよびトーンを維持しつつ、製品の説明を行っている。
  • コールトゥアクションが、ホリデイシーズンの無料配送の宣伝に言及している。

パフォーマンスを高めるためのアドバイス:

  • ページのメタディスクリプションを作成する際は、文字数、利用するワード、クエリのマッチング、そして、コールトゥアクションを慎重に検討しよう。
  • 年末年始等の特別な時期やピークの販売期間には、より妥当な内容になるように、メタディスクリプションを調整し、また、今後のセールや製品の宣伝に言及しよう。
  • 有料検索を使って、広告のコピーを継続的にテストし、最も効果の高いコピーを特定しよう。

4. URL

URLもまたSERPのランキングの位置に影響を与える要素であり、その結果、CTRにインパクトをもたらす。2009年の8月、Googleは、アルゴリズムを調節し、SERPに表示されるサイトの階層(ブレッドクラムナビゲーション等)を作る仕組みを改善した(NewEgg.comの例を確認してもらいたい)。

New_Egg

リッチスニペットのマークアップ(特定のクエリを持つユーザーを支援することを意図した詳細な情報)が導入され、ウェブマスターは、URLのスニペットをより明確に表し、その一方で、SERP内でクエリに対するコンテキストを提供することが可能になった。

例えば、下のWalmart.comのランディングページは、ブレッドクラムナビゲーションに対して、セマンティックマークアップを活用している。その結果、表示されるURLは、有益な情報を与え、また、クリック可能なナビゲーションの選択肢となる。

Mechanical_Keyboards

パフォーマンスを高めるためのアドバイス:

  • URLを作る際は、フォルダの構造、利用するワード、クエリとのマッチング、ブレッドクラムナビゲーションのスニペット等に注意しよう。
  • 良質なフォルダの構造、および、サイトの改造を用いて、ブレッドクラム等の標準的なナビゲーションツールを活用しよう。
  • 検索エンジンを意識して、ブレッドクラムの情報を用いてページをマークアップしよう。
  • 年末年始等の特別な時期やピークの販売期間には、クリスマスプレゼント等のタイムリーなコンテンツ専用のセクションを用意しよう。このセクションをメインのナビゲーションに加えてもらいたい。このセクションは、検索結果のURL内に表示され、クリスマス/タイムリーなアイテムを購入する意図を持つユーザーを引き寄せる可能性があるためだ。

5. リッチスニペット

リッチスニペットは、一時的なブームで終わることはなく、今後も、CTRを引き上げる上で活躍する。

Googleはリッチスニペットを導入し、米国のメジャーな3社の検索エンジン(Google、Bing、Yahoo!)は、schema.orgを共にサポートすることを発表した — つまり、ウェブマスターは、メジャーな検索エンジンが認識する方法で、ページをマークアップすることが出来るようになった。

事実上、ウェブサイトのオーナーは、HTMLのマークアップをウェブページに加えて、検索エンジンにページ上の具体的な要素を特定させ、場合によっては、この要素を検索結果に表示させることが出来る(Googleではリッチスニペットとして表示されることが多い)。Googleは、リッチスニペットを導入して以来、アルゴリズムを何度もアップデートしており、検索結果に表示されるリッチスニペットの数は増加の一途を辿っている。

HTMLをマークアップすると、ランディングページが、検索エンジンのユーザーの注目を集める効果のあるリッチスニペットと共に、SERPに表示される可能性がある。多くの企業が、ウェブサイト全体で構造化データマークアップを既に導入している。

例えば、下のOverstock.comのページは、ブレッドクラム、総合的な製品レビュー、そして、製品の価格を含む、複数の製品関連の構造化データマークアップでマークアップされている。

Office_Star

SERPでブランドを目立たせる効果が見込めるリッチスニペットとして、オーサーシップを挙げることも出来る。コンテンツを目立たせるだけでなく、ウェブで配信したその他のコンテンツを読者が見つけやすくする効果も期待できる。

下に掲載したマット・カッツ氏のウェブサイトは、オーサーシップマークアップでタグ付けされている。オーサーシップにより、Google+の写真が検索結果に表示されている。

Matt_Cutts

パフォーマンスを高めるためのアドバイス:

2014年を通じて、新しく、刺激的なデジタルマーケティングツールが、続々と登場するはずだ。是非、試してみてもらいたいが、まずはSEOの基本を抑えることに力を入れてもらいたい。CTRに対する徹底的な最適化を行うこともその一つである。機転を利かそう — 自分でどうにかすることが出来るCTRの要素に注目し、必要な調整を行っていくべきである。そうすれば、パフォーマンスにプラスの影響が表れるのではないだろうか。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。

この記事は、Search Engine Landに掲載された「Got SEO Basics? 5 Tips To Boost Your Organic CTR」を翻訳した内容です。

オーサーシッププログラムは終了してしまいましたが、改めて基礎を確認できる良い記事だったと思います。Googleの最新動向を追うことも大事ですが、基本を忘れず大事にしたいですね。 — SEO Japan [G+]

Googleの最新ランキングシグナル大全集

常に進化を続けるGoogleですが、Googleの社員以上にGoogleのアルゴリズムに詳しいといわれるGoogle特許オタクのSEO by the Seaが最新のGoogleのランキングシグナル、つまり上位表示の要素についてまとめてくれた記事を。Google+視点で書かれておりソーシャル要素が中心となっていますが、オーソリティプログラム無き今、オーソリティ構築の観点からも重要な項目が目白押しです。 — SEO Japan

最近、Googleのランキングシグナルをリストアップした長文の記事を数本読んだ私は、自分でもランキングシグナルに関する記事を書いてみたくなった。

今回のブログの投稿では、7つ目までのシグナル、そして、8つ目の「フレーズベースのインデックス」特許に記載されていた共起マトリックスを取り上げる。

また、取り上げたシグナルに関連するSEOの取り組みにおいて、特に重要だと私が考えた論文と特許へのリンクも提供する。

それでは、8つ目までのシグナルを紹介していこう:

1. ローカルの相互的なつながり

この連載では、Googleが、過去に、クエリに対する検索結果のランク付けに利用してきた可能性が高い、各種のランキングシグナルを検証していく。

2001年、クリシュナ・バーラトが、米国特許商標局に特許を出願した。この特許は、2年後の2003年に付与された。この技術は、上位の検索結果(トップ 100、トップ 1000等)の中から、「ローカル」の背景において相互に「言及」している、または、「リンク」が張られている頻度に応じて、一部の検索結果のランキングを押し上げるものであった。

本特許によると、検索結果は、関連性や重要度(PageRank)等、通常の順序で並べられる。続いて、再び精査が行われる。そして、ローカルの関連性スコアが加えられ、結果の順序が変更される:

A Local Rank is considered with an old score for Pages

ローカルランクは、ページに対する古いスコアと平行して考慮される

さらに、このメソッドは、生成された一連の文書をランク付けして、各文書に対するローカルスコアの値を計算する。ローカルスコアの値は、生成されたセットの別の文書から言及された回数を数値化している。

クリシュナ・バーラトが、ヒルトップアルゴリズムを適用して、2000年代前半のGoogleの仕組みを書き直したことは、よく知られている。本特許の「その他の参照情報」の欄には、Googleに入社する前に、バーラトが、ヒルトップについて、そして、その仕組みについて説明した論文が言及されている:

ヒルトップ: 専門的な文書をベースとした検索エンジン

Googleは、それ以来、その他のシグナルに応じて、ローカルの結果を押し上げる、または、格下げする仕組みを説明する、複数の特許と論文を発表しており、今後、この連載で取り上げていく予定だ。

ローカルをつながりを基に結果のランキングを変更

2. ハブとオーソリティ

ウェブページに2つのセットのスコアが与えられたと仮定しよう。この2つのセットのスコアは、例えば、「バイクについて詳しく知りたい」、のような「広範なトピック」に与えられる。

1つ目は、オーソリティスコアであり、広範なトピックにどれだけ答えられているかに応じて決められる。2つ目は、ハブスコアであり、リンクの複雑な関係を示す。このスコアは、当該のトピックに対するオーソリティのレベルに高いページを見つけるために用いることが可能である。

リンクを張った特許は、考案者がAltaVistaに務めていた際に作成したものである。その後、OvertureがAltaVistaを買い取り、続いて、Yahoo!がOvertureを買収し、Yahoo!のものになった。考案者の一人は、1つ目のシグナルで取り上げたクリシュナ・バーラトである。そして、この特許には、モニカ・ヘンジンガーも参加している。いずれかの特許に目を通しておくことを薦める。

特許で言及されている論文には、SEOを研究しているなら、そして、ページが検索結果でランク付けされる仕組みを学んでいるなら、読んでもらいたい。この論文を綴ったのは、ジョン・クラインバーグである:

ハイパーリンク環境での信頼できるソース(pdf)

特許に進む前に、出来るだけこの論文を読んでもらいたい — 特許を読み、理解しやすくなるためだ。

この特許は、クラインバーグが綴った論文におけるハブとオーソリティのアルゴリズムを改善し、意味が複数存在する可能性がある用語に焦点が絞られる際に、トピックの脱線を防ぐことを重視している(例えば、Jaguarは、自動車メーカー、動物、または、ジャクソンビルを本拠地にするNFLのチームを指すこともある)。

The content is pruned, and then re-ranked based upon connectivity

コンテンツが取り込まれ、続いて、つながりに応じてランクの変更が行われる

バーラトとヘンジンガーは、共にGoogleに入社したものの、この特許と論文は、Googleが所有しているわけではない。ハブとオーソリティのスコアの要素は、この文書で確認してもらいたい。

コンテンツとつながりの分析を用いて、ハイパーリンク化されたページをランク付けするメソッド

3. 到達することが出来る確率

この特許には触れずにはいられなかった — 100-200点のランキングシグナルを1日に1つ取り上げていくつもりだが、このペースを辛抱強く続けることが出来るかどうかは不明だ :)

始めに取り上げた2、3つシグナルでは、重要な役割を担うオーソリティとハブをGoogleが特定しようとしている点、そして、一部のページは、高くランク付けするべきである点に注目した。

この特許は、他のページからリンクが張られたページに対して、リーチャビリティ(到達することが出来る確率)を特定するため、ユーザーの行動に関するシグナルの確認に焦点を絞っている。良質なハブページは、オーソリティレベルの高いページに導く傾向がある。ある程度、優れたハブとしての役目を持つページのスコア付けに似ている。

本特許は以下の記事で取り上げたことがある:

Googleは文書のランキングにリーチャビリティのスコアを用いているのか?

つまり、その他のリソースに向かうページのリンクの品質の数値を基準として、優れたページは、当該のページのランキングを押し上げることもあり得る。

Initial Rankings Changed by Reachability Scores

リーチャビリティスコアによる当初のランキングの変更

スティーブン・レヴィは、Googleに関する本を綴り、Googleが、品質のシグナルとして「ロングクリック」を重視していると指摘している。本特許でも、Googleがロングクリックを特定する仕組みには触れているものの、直接的なランキングシグナルとして利用しているとは明記されていない。本特許は、ロングクリックを用いて、複数のページにリンクを張り、結果的にロングクリックを実現したページの質を特定する仕組みを描いている。このページは、良質なハブページの可能性が高い。:)

リーチャビリティの特定

4. バースト

ジョン・クラインバーグは、一定の時期に、例えば、中間試験や期末試験が近づいて来ると、テストや業務時間の延長に関するeメール等、特定のトピックに関するeメールが増えることに、ある時、気がついた。

クラインバーグは、この類の行動はウェブ上でも行われており、様々イベントによって、ブログで、ニュースで、そして、検索クエリ等で、特定のトピックの発生を促していることを察知した。そして、大統領のメッセージ、2回目の任期、このメッセージを導くイベント等、アーカイブを調べ、情報の流れについて注目するようになった。

Kleinberg's study included looking at words in Presidential addresses.

クラインバーグは、調査の中で、大統領の演説に用いられたワードに注目していた。

トラフィックがネットワークを通る際は、安定して流れるのではなく、一気に移動する(バースト)。バーストにパターンが見られることもある。人気の高いトピック、既に落ち着いたトピック、季節限定のトピック、または、時間や曜日の影響を受けるトピックを把握しておくと、役に立つかもしれない。

検索エンジンが用いるランキングシグナルを挙げるリストには、「新鮮さ」等の用語が登場することが多い。ニュースやブログ検索等のアイテムに対するアルゴリズムには、「新鮮さ」が重要なシグナルの役割を果たすものの、検索エンジンが、図書館のように情報源の役目を果たす際は、歳月を経た結果が求められている可能性もある。

モニカ・ヘンジンガーが、ウェブ文書の始期に関する特許をGoogleのために作成した際、文書は、初めて配信された日付、また、検索エンジンに初めてクロールされた日付に応じて、始期が決定されると指摘していた。日付によって、このような文書のランキングが決まることもあれば、一連の検索結果の相対的な古さの影響を受ける可能性もある。

「declaration of independence」(独立宣言)を検索し、古い文書が多く返されたら、Googleは、古い文書の表示を求めており、検索結果で優先していると思われる。一方、「Windows 8.1」を検索すると、検索結果には新しいページが多く掲載されているはずである。この結果では、新しい文書が優先されると見られる。

「justin bieber canada」(ジャスティン・ビーバー カナダ)の検索が急激に増えた場合、集中的に情報が流れ、その結果、より新鮮な文書が上位に押し上げられると、Query Deserves Freshness(新鮮さを優先したクエリ)アルゴリズムが発動され、ニュース記事や新しいページが、検索結果で優遇される可能性がある。

ただし、古いページが、上位に掲載されることもあるため、一概に「新鮮さ」と言う用語を使うべきではない。

オンライン情報の一時的な動態(PDF)

5. セマンティックな面での近さ

「セマンティック」と言うワードを聞くと、セマンティックマークアップやschema.orgのマークアップを探す方がいる。このグループに属するなら、この投稿を読む必要はない。

また、ヘッダーの要素を確認し、その他のテキストよりも大きく、そして、濃いため、ヘッダー内の用語における検索結果で、優遇されるのかどうかを考える方もいる。このグループに該当する方もまた、この投稿を読まなくても良い。

その一方で、ページ上でリストを目にした際に、厳密には、HTMLのリストの要素を使う必要がない状態で、リスト内のアイテムをアルファベット順、または、ワードの長さ順、もしくは、適当に並び替えることが可能である点、また、リストのそれぞれのアイテムが、その他のアイテムと同じぐらい重要である点を考える方もいる。そして、ヘッダーのリスト内のワードとその他のリストのアイテムとの距離が同じだと考える。

この「近さ」は、検索エンジンおよびSEOにおいて、魔法のような効力を持つ。「アイスクリーム」で検索を行った場合、フレーズ「アイスクリーム」を含むページは、「店にクリームを買いに行ったら、アイス(氷)の上で転んだ」より関連性が高く、上位にランク付けされるはずである。

I've annotated this patent image to show semantic closeness in a list.

リストでセマンティックの近さを示すため、この特許の画像に注釈をつけた。

このリストのアイテムは、ヘッダーからの距離が等しいだけでなく、ページのヘッダーの要素への距離、そして、ヘッダーの中身の各ワードへの距離も等しい。この点を私が心得ているのは、Googleの「セマンティックの近さの定義で取り上げられていたためだ。

先程も申し上げた通り、セマンティックの近さをもたらす上で、schema.orgのマークアップは、必ずしも必要とされるわけではない。ワードには意味が存在し、そして、一部のHTMLの要素には、意味が刻み込まれている。HTMLのページで、それぞれのアイテムを提示する以上の役割を担っている。

従って、ヘッダーの要素とGoogleでのランキングの間に相関関係が存在しないと誰かが言っていたら、セマンティックの近さを説明してもらおう。考え込んでしまうはずだ。この段階で、答えを出せないなら、永遠に理解することは出来ないだろう。

文書内の用語間のセマンティックな距離を基に文書をランク付け

6. ページの分割

なぜMicrosoftのリンクが?と訝しく思う方もいるかもしれない。それは、ページの分類に関する調査をGoogleやYahoo!よりも本格的に行い、アイデアとコンセプトをより深くし理解しているからに他ならない。

Microsoft's VIPS paper image showing segmentation.

分割を説明するMicrosoftのVIPSの論文。

Googleもページ分割のコンセプトそのものを取り上げた特許を幾つか持っている(「SEOの最重要特許」シリーズで言及している)。

以下に、レポートと特許でMicrosoftが指摘しているポイントの一部を挙げていく:

  • ブロックレベルのPageRank: ページの異なるブロックやセクションのリンクが、PageRankの過去のアプローチでのページのようにPageRankを運ぶ。
  • ページで、とりわけ、複数のストーリーを持つ雑誌タイプのページで、最も重要なブロックを特定する方法 — 最も重要なブロック内のテキストのRelevance Value(関連値)が最も高くなるように。
  • ブロック、または、セクションの言語の特徴を基に、ページの異なるブロックやセグメントを分析し、理解する手法。

ブロックのコンテンツは、基本的に、センテンスケース内の完全な文を用いており、最初の複数のワードのみ大文字で表記されているか?

ブロックは、タイトルケース内で、ワード/フレーズのリストのみであり、主に、別の場所にリンクを張っているか?

ブロックには、著作権通知が、主にフッターに掲載されており、関連性の面で、とりわけ低くランク付けされるようになっているか?

ウェブページの分割に関しては、ブログで何度か取り上げたことがあり、もう少し詳しい情報が欲しい方は、是非、参考にしてもらいたい:

VIPS: ビジョンベースのページ分割アルゴリズム

7. リーゾナブルサーファー PageRank

PageRankは、Googleが、その他の検索エンジンと一線を画すきっかけを作ったアルゴリズムであった。しかし、当初のアルゴリズムと、現在のアルゴリズムは同じではない。90年代後半のPageRankを正確に説明することが出来る自信はないが、異なるモデルに注目してもらいたかった。

リンクによって、重み(重要度)、PageRankの量、さらには、ハイパーテキストの関連性のレベルは異なる。これは、Googleのスタッフが数年前に明らかにしているポイントである。Yahoo!やBlekko等の検索エンジンにおいては、例えばブログのコメント欄のリンク等、リンクによっては、完全に無視されることもある。

Features of Links determine weights

リンクの特徴が重みを決める

この特許でも指摘されているように、Googleは、ページの「利用規約」のアンカーテキストを確認すると、自動的に当該のページにはPageRankを送信しない決断を下すと見られる。

本特許を発明した人物の欄に、ジェフリー・ディーンの名前が掲載されている。この人物の名前は、その他のGoogleの特許にも何度も登場する。ジェフリー・ディーンは、Googleが作っている全世界的なデータセンターに関わる技術的な課題、そして、機械の全体的な仕組みを取り上げることが多い。Googleの特許を読む時間があるなら、ディーンが書いた特許に目を通してみる価値はある。「Googleでのリサーチ活動」ページを見ると、圧倒されてしまうだろう:

ジェフリー・ディーン — Googleでのリサーチ活動

数年の間に、PageRankに関する文書が多数綴られているが、リーゾナブルサーファーに関する文献を読んでいないなら、ランダムサーファーからの移行を理解することは出来ないため、是非、読んでもらいたい。

以下に、手始めに読んでもらいたい記事を紹介する:

Googleのリーゾナブルサーファー: リンク、文書の特徴、ユーザーデータに応じてリンクの価値は異なる

ユーザーの行動/特徴のデータに基づいて文書をランク付け

8. 共起マトリクス

過去10年で、フレーズベースのインデックスに関する記事を多数投稿してきたが、これは当時、SEOのトピックとして、とりわけ重要度が高かった。しかし、無視されることも、軽視されることも多かった。それでも、実際には、フレーズベースのインデックスの仕組み、そして、Googleの転置インデックスの仕組みを指摘する特許は多い。

フレーズベースのインデックスを考案した発明者は、21世紀で最大級の検索エンジン、Recall(インターネットアーカイブでデータとして用いられていた)の発明者にも名を連ねていたアンナ・パターソンである。アンナ・パターソンは、Googleを去り、夫のトム・コステロと共に検索エンジンのCuilをローンチした。Cuilは、ローンチ時に1兆2000億ページがインデックスされていると推定されていた。Cuilは失敗に終わったが、アンナ・パターソンは、すぐにGoogleのリサーチ部門の責任者に就任していた。

フレーズベースのインデックスでは、ウェブページで有益で良質なフレーズが特定され、転置インデックスにおいて、ページにフレーズが散りばめられていく。クエリに対する検索結果では、トップ 100、または、トップ 1000で共起するフレーズの特定が行われると見られる。複数の意味を持つワードやフレーズにおいては、同様のトピックに関するページにまとめられ、共起するフレーズを探し出す。

An overview of the phrase-based indexing ecosystem

フレーズベースのインデックスにおけるシステムの概要

この共起するフレーズは「関連するワード」と呼ばれ、初回のクエリに対して上位にランク付けされている可能性のあるページに表示される際、Googleは、検索結果で優先すると考えられる。「関連するワード」が、統計的に見て、多過ぎる場合、Googleは当該のページをスパムと判断すると推定される。

Googleは、「関連するワード」をアンカーテキストの中で探し、共起するレベルに応じて、アンカーテキストに関連するリンクの重みを別々に判断する可能性がある。以下に、この仕組みを説明する特許に記載されている一節を紹介する。先程述べたHITSアルゴリズムを鑑みると、共起の多い関連するワードを「専門的な文書」と呼んでいる点は注目に値する。

[0206] R.sub.i.Q.関連するフレーズのベクター R*D.Q.関連するフレーズのビットのベクター。

[0207] プロダクトの価値は、アンカーフレーズ Qの文書 Dに対する関連度のスコアで決まる。このスコアを、「インバウンド・スコア・コンポーネント」と呼ぶ。このプロダクトは、参照する文書 R内のアンカーフレーズの関連性ビットベクターによって、現在の文書 Dの関連性ビットベクターを計測する。参照する文書 R自体が、クエリフレーズ Qに関連している場合(そして、関連性フレーズのビットベクターの値が高い場合)、現在の文書 Dのスコアの重要度を引き上げる。本文のヒットスコアとアンカーのヒットスコアを組み合わせて、先程説明した文書スコアを生成する。

[0208] 次に、参照する文書 Rに対して、それぞれのアンカーフレーズ Qの関連するフレーズのビットベクターを取得する。これは、アンカーテキスト Qが、文書 Rに対して、どれだけ関連しているかを計測する値である。この値を、アウトバウンド・スコア・コンポーネントと呼ぶ。

[0209] インデックス 150から、アンカーフレーズ Qに対して、(参照する文書、参照された文書の)全てのペアが抽出される。このペアは、関連する値(アウトバウンド・スコア・コンポーネント、インバウンド・スコア・コンポーネント)に応じてソートされる。実装に応じて、片方のコンポーネントは、第一ソートキーになり、残りのコンポーネントが、第二ソートキーになる。ソートされた結果は、ユーザーに提示される。アウトバウンド・スコア・コンポーネントで文書をソートすると、クエリに対する関連するフレーズを多く持つ文書は、高くランク付けされ、「専門的」な文書として提供される。一方、インバウンド・コンポーネント・スコアでソートを行うと、アンカーの用語において頻繁に参照される文書が上位にランク付けされる。

特許「フレーズベースのインデックス」は、とても内容が濃く、また、詳細を検証する必要のある要素が多数追加されている。この要素については、以下の投稿で多数取り上げているが、残りの特許を見ていくと、Googleが共起マトリクスを活用するその他の多くの手段が明らかになる。

フレーズベースの情報検索とスパム検知

SEOの最重要特許ベスト10 その5 – フレーズベースのインデックス」(日本語)で特許の多くを取り上げているので、是非、目を通しておいてもらいたい。

複数のインデックスをベースとした情報検索システム

エピローグ

このシリーズは今後も継続していく。ただし、裏付ける情報が存在しないため、このシリーズから漏れるシグナルも多数あるだろう。ランキングシグナルのリストの中には、作り話以外の何でもない要素も多く、このシリーズで幾つか言及するかもしれない。

Googleは、複数のアルゴリズムを利用している可能性は高く、また、1年間に約500点の変更をランク付けの仕組みに加えていると明らかにしている。

この点に関しても、詳しく調べていくつもりだが、自分でリサーチしたい方々が、調査に取り掛かることが出来るように、十分な量の特許を紹介していきたいと思う。因みに、リサーチを行うなら、是非、連絡して頂きたい。


この記事は、SEO by the Seaに掲載された「The Incomplete Google Ranking Signals, Part 1」を翻訳した内容です。

余りに濃すぎるその内容、マニア以外は読む気にならないかもしれませんが、改めて考えてみると過去にSEO Japanで紹介してきた様々なGoogleの最新アルゴリズムが適度にまとまった記事でした。これまでの記事を敬遠して読んでこなかった方も、これ一本で十分かも、と記事の最後にいうのもなんですが。 — SEO Japan

未来の検索を導くGoogleのナレッジボールトとは

Googleが過去数年取り組んできたオーサーシップが終了することが発表されました。とはいえ、Googleの進化は決して止まることはありません、ということで、先日、なんと米国の科学誌New Scientistに掲載されたGoogleが新たに構築しているらしい「ナレッジボールト」に関する話題を。「ナレッジ」とあるだけに、Googleのセマンティック検索のベースを担うコンテンツグラフに大いに関係がありそうですが、その内容はいかに。ちなみにどうもまだ研究(論文?)の段階なようですが、オーサーシップ無き後のGoogleに必要な技術の1つともいえるかもしれませんし、紹介したいと思います。 — SEO Japan

google-algorithm-fade-ss-1920

Googleのナレッジグラフは、増え続ける構造化コンテンツをPC、および、モバイルの検索結果に供給する特命を帯びている。これは「ユニバーサル検索」を機にスタートした進化の一環であり、モバイルデバイスで「リンクではなく答え」を提供するため、加速を続けている。

現在、Googleは、コンテンツのナレッジベースの後継者を開発している。これは、最終的にナレッジグラフに取って代わり、遥かに規模の大きな製品になると見られている(追伸を確認してもらいたい)。New Scientistによると、このシステムとデータベースは、「ナレッジボールト」と呼ばれるようだ。Googleは、パブリッシャーへの依存を徐々に軽減している。そのため、時間の経過とともに、ナレッジボールトはパブリッシャーに大きな影響を与える可能性を秘めている。しかし、Googleのビジネスモデルが、この流れにある程度歯止めをかけている。

「人類史上、最大の知識の宝庫」と言うセンセーショナルな称号が与えられたナレッジボールトは、人間による編集を介さず、インターネット中から集められたコンテンツで構成される。「ナレッジボールトは、単独でウェブ上の情報を集め、世界、人物、そして、物事に関する事実のデータで構成される単一のデータベースに統合する」とNew Scientistは指摘している。

Googleは、どうやら、既に16億点の「ファクト」(事実に関するデータ)を集め、精度の確実性に応じて、スコアをつけているようだ。 データベース内の16%の情報が、「確実な事実」と認定されている。

ナレッジボールト、そして、Googleの「自信」が拡大すると、様々な状況、とりわけモバイル(Google Nowを含む)で利用されるようになる可能性がある。これは、Star-Trekの「どんな疑問にも答えを出す」コンピュータとして、究極のビジョンを構築する取り組みの一環だと言える。このビジョンを実現するには、莫大な量の情報が必要になるが、このシステムが構築されると、様々な利用法や演算のシナリオが現実のものとなる。

New Scientistの記事は、ナレッジボールトを未来の人工知能、機械対機会の通信、拡張現実、予測モデル、そして、バーチャルアシスタントのユースケースの土台と位置づけている。以下に、同サイトの記事の中で挙げられていた、このテクノロジーの用途の例を挙げる:

その他のエージェントは、同じプロセスを実施し、医学的症状のナレッジベースを調べ、個人の健康の記録に関するデータとの相関関係を見つけ出すことで、健康に気を配り、指導を行う。IBMのWatsonは、既にニューヨークのメモリアル・スローン・ケタリング病院で、癌に対して、この取り組みを行っている。

被害妄想の度合いによっては、ナレッジボールトは、コンピューティングにバラ色の未来をもたらす刺激的な展開とも、もしくは、アメリカ政府の全情報認知プログラムを思い起こさせる恐怖の展開とも受け止められるだろう。

New Scientistの記事は、Googleだけではなく、全ての主要なインターネット関連の会社が、同じような情報とデータの「ボールト」(保管室)を構築していると指摘している。

追伸: 昨日、Googleは、New Scientistの記事では、「ナレッジボールト」が不正確に伝えられている、もしくは、誤って解釈されていると指摘した。どうやら、ナレッジボールトは研究論文(2014年5月)であり、Googleは開発を進めているわけではないようだ。さらに、Googleは、機械を使ってナレッジベースを構築するモデル、あるいは、テキストから意味を抽出するモデルは、同社にも、そして、他社にも多数存在すると表明していた。


この記事は、Search Engine Landに掲載された「Google “Knowledge Vault” To Power Future Of Search」を翻訳した内容です。

まさに想像を超える未来の話のようにも聞こえますが、Googleならいつか実現しそうな気もしますね。いずれにしても名前や内容に多少違いはあっても、こういったデータベース(ボールトって保管室の意味なんですね、初めて知りました)を独自に構築していくことが最終的には必要になってくると思います。ユーザ依存のやり方では今回のオーサーシップのように難しい点も多そうですし。オーサーシッププログラムが過去の微々たる失敗と笑われそうな日が近い将来確実に来そうな常に進化するGoogleでした。 — SEO Japan [G+]

Googleがオーサーシップを諦めた理由を検証

Googleが導入を積極的に推進していたオーサーシッププログラムがまさかの完全終了となったようです。検索結果上の著者名表示は既に取り止めとなっていましたが、オーサーシップデータを利用すること自体を終了することを正式に発表しました。SEO的にいずれ役立つはずとGoogle+がイマイチ不人気な日本でも頑張って導入を行ってきたウェブマスターの皆さんには衝撃ともいえるこのニュース発表、改めてオーサーシップの歴史を振り返り終了に至った理由を考察した記事をサーチエンジンランドから。 — SEO Japan

end-over-finished-typewriter-ss-1920

3年間に渡って行われた、素晴らしきGoogleオーサーシッププログラムの実験がついに終了した– 少なくともしばらくの間…。

本日、Googleウェブマスターツールを担当するジョン・ミューラーが、Google+の投稿の中で、Googleが、検索結果でオーサーシップを表示する取り組みを終了し、今後は、rel=authorマークアップを利用したコンテンツのデータを追跡することはないと発表した。

マーク・トラファゲンと共同で作成した今回の詳細な記事では、・オーサーシップ終了の告知、・オーサーシップの歴史、・中止の要因として挙げられた理由を裏付けるために行われたStone Temple Consultingによる調査、そして、・検索におけるオーサー(著者)のオーソリティの未来に関する考えを取り上げている。

authorship-ends-experiment-ss-800

消滅へのカウントダウン

オーサーシッププログラムの中止が発表されるまでの8ヶ月の間に、2つの主要なオーサーシップのリッチスニペットが削減されていた。まず、2013年12月には、同年の10月に行われたPubconのキーノート講演で、ウェブスパムの取り組みを統括するマット・カッツが予告した通り、クエリ一つにつき表示するオーサーの写真のスニペットが姿を消した。そして、12月に入ると、一部のオーサーシップの結果のみに写真が掲載されるようになり、残りの結果は署名欄のみになった。

続いて、2014年の6月、世界の検索結果から全てのオーサーの写真が削除され、全ての正規のオーサーシップの結果に、署名欄のみが掲載されるようになった。

当時、ジョン・ミューラーは、Google+の投稿で、Googleがデスクトップ検索とモバイル検索のUXの融合を目指しており、オーサーの写真はモバイルの限られたスクリーンと回線容量では、あまりうまくいかなかった点を理由として挙げていた。また、オーサーの写真があってもなくても、「クリックの行動」に大きな違いがなかった点も明らかにされていた。

Googleオーサーシップの歴史を簡単に振り返る

オーサーシッププロジェクトのルーツにあるのは、2007年のエージェントランクの特許である。Googleの特許に詳しいビル・スラウスキが説明していたように、エージェントオーサーランクの特許には、複数のコンテンツを、一名の(もしくは数名の)エージェント(オーサー)を示すデジタル署名を結びつけるシステムが描かれていた。

この認識システムは、エージェントのコンテンツに向けられた各種の信頼のシグナルおよびオーソリティのシグナルに応じてスコアを与えるために用いられ、さらに、このスコアは、検索のランキングに影響を与えるために利用される可能性があった。

エージェントランクは、実用的に適用する手段がない状態では、理論的な概念でしかなかったが、Googleが、構造化マークアップの基準としてschema.orgを採用するようになったことから、180度運命が変わった。2011年6月に投稿されたブログの記事で、Googleは、オーサーシップのマークアップへの対応を始めると発表していた。そして、rel=author、 & rel=me タグを使って、サイトのコンテンツをマークアップし、コンテンツをオーサーのプロフィールと結ぶ取り組みをウェブマスターに促すようになった。

オーサーシップが、本格的にGoogleに貢献する上で最後のパズルのピースの役目を果たしたのは、2011年6月末にリリースされたGoogle+であった。Google+のプロフィールには、オーサーとコンテツを結びつけるGoogleの共通特定プラットフォームとしての役目が与えられた。

google-matt-cutts-othar-hansson

ハンソン & カッツ

同年の8月に配信されたYouTubeの動画で、当時、オーサーシッププロジェクトを統率していたオサー・ハンソンとマット・カッツは、コンテンツをGoogle+のプロフィールと結びつけた方が良い理由を詳しく説明し、その結果、プロフィールの写真が検索結果に表示されると指摘し、そして、初めて、オーサーシップのデータが、ランキングの要素として用いられる可能性が「今後」あると述べていた。

その後の3年間、オーサーシップには、様々な変更が加えられていったが、ここでは割愛させてもらう(アン・スマーティが、オーサーシップの変更の歴史をまとめているので、興味がある方は目を通すと良いだろう)。マット・カッツを始めとするGoogleの広報は、オーサーのオーソリティに関するコンセプトに、Googleが、長期的に力を入れていると繰り返し言及していた。

Googleがオーサーシッププログラムを終了させた理由

Googleは、同社が始めた取り組みが何であれ、不可侵、または、不死の称号を得ることはないと何度も指摘してきた。あっさりと廃止されたGoogleの製品とサービスをリストアップしていけば、小冊子を作れるボリュームに達する。

このような製品のシャッフルが行われるのは、主に、Googleが、徹底してテストを実施しているためだ。全ての製品、そして、各製品に対する変更、または、工夫に対して、絶えずテストが行われ、評価される。利用者の人数が足りない、ユーザーに大きなメリットを与えていない等、Googleの目標に到達したいものは、見捨てられる。

ジョン・ミューラーは、この記事を共同で綴ったマーク・トラファゲンに対して、3年前から集めてきたデータを参考にする限り、オーサーシップの結果を表示する試みは、データを処理するために用いるリソースを考慮すると、十分なメリットを与えているとは言えないと、述べていた。

ミューラーは、オーサーシップの実験が、期待外れに終わった2つの具体的な領域を挙げている:

1. オーサーとウェブマスターへの普及率が低い。この記事の後半で提供する調査のデータにも表れているが、オーサーシップのマークアップに参加するオーサーは、ひいき目に見ても、まばらであった。また、参加者がゼロの分野も数多く存在した。サイトが参加を試みても、マークアップを誤ってしまうケースも多かった。さらに、大半のテクノロジーに詳しくないサイトのオーナーやオーサーは、マークアップとリンクに対して、あまりにも複雑だと感じており、そもそも、実装を試みる確率は低かった。

このような問題を受けて、Googleは、2012年の始めに、マークアップが存在しないケース、あるいは、不適切に行われているケース、もしくは、オーサープロフィールのリンクが存在しないケースで、オーサーシップを自動的に与える取り組みを始めた。2012年11月、Forbesが作成した50名の影響力の強いソーシャルメディアマーケッターのリストから、30%はオーサーシップマークアップをブログで使っている点、そして、34%はマークアップを使っていないものの、オーサーシップのリッチスニペットを得ている点をマーク・トラファゲンが発見している。これは、エリック・エンゲが実施した調査で得られたデータとも一致している。この調査に関しては、後程詳しく説明する。

しかし、オーサーに対する自動アトリビューションの取り組みは、作家のトルーマン・カポテが、死後28年が経過しているにも関わらず、New York Timesのオーサーとして表示される等、エラーが続出し、Googleは恥をかくことになった。当然だが、ウェブページのオーサーを特定し、コンテンツと結びつけ、続いて、信頼性のレベルとオーソリティのレベルを隠れたランキングの要素として評価するGoogleの願いは、Googleに詳しくない人達との協力に左右される状況では、見通しは明るくなかった。

2. 検索エンジンのユーザーに対するメリットが少ない。今年の6月、検索結果からオーサーの写真を削除する件を発表した際、ジョン・ミューラーは、オーサーシップのスニペットがあるケースとないケースを比較したところ、「クリックの行動」にほとんど違いがなかったと指摘していた。この発言は、オーサーのスニペットが、クリックスルー率を高くすると確信していた人達にショックを与えた(そして、この情報の真偽を疑う人達も多かった)。

マーク・トラファゲンとの今回の変更に関する議論の中で、ミューラーは、Googleが集めたデータを参考にする限り、オーサーシップのスニペットから、ユーザーは十分なメリットを得ていなかったと何度も主張していた。「メリット」が何かは詳しく説明してくれなかったものの、検索ページでのユーザーの行動が、オーサーシップのスニペットの存在の影響を受けているように見えなかった、と推測することが出来る。もしかしたら、ユーザーは、何度も見るうちに、目新しさを感じなくなったのかもしれない。

(この記事を書いている時点で)Google+のアカウント(パーソナライズ検索)にログインしている状態では、Googleのネットワークに参加している人物のGoogle+のコンテンツに対しては、引き続きオーサーの写真が掲載されている。

ミューラーは、この写真の表示を中止する予定は今のところない、と語っていた。しかし、トラファゲンの下には、写真が表示されなくなった点を指摘する報告が幾つか届いている。Googleは、パーソナライズの結果からオーサーの写真を本当に削除しているかどうかに関して、今後も動向を追い、ここで最新の情報を提供していく。

Authorship Photos in Personalized Searchj

Googleが、一部のパーソナライズの結果に対して、引き続きオーサーの写真を表示するなら、個人的な関係持つ人物がコンテンツを投稿している場合、リッチスニペットがユーザーにメリットを与えることがデータに出ていると推測することが可能だ。この件に関しては、最後のセクションで再び取り上げるつもりだ。

rel=authorの実装に関する調査

幸運にも、弊社、Stone Temple Consultingは、rel=authorマークアップの利用に関する調査をまとめるプロセスを行っていた。データを見ると、Googleがこの取り組みで直面していた問題の一部が、浮かび上がってくる。この調査により、利用者が少ないこと、そして、rel=authorを試みたものの、正確に実装されたケースが少ないことが明らかになった。さらに、オーサーによる利用も少なかった。それでは、実際のデータで確認していこう。

オーサーシップの普及

私達は、150の主要なメディアサイトから、500名のオーサーを選んだ。Google+のプロフィール内でのオーサーシップのタグ付けの実施状況に関するデータを以下に掲載する:

G+のプロフィールでの実装状況 人数 全体の%
プロフィールがない 241 48%
プロフィールはあるが、コンテンツを投稿するサイトにリンクを張っていない 108 22%
プロフィールがあり、1本、または、数本のリンクをコンテンツを投稿するサイトに張っている 151 30%

 

なんとオーサーの7割が、オーサーシップをメジャーなウェブサイトで投稿したコンテンツに結びつけていない現状が判明した。もちろん、Googleが、この類の取り組みを宣伝する仕組みにも原因がある。そもそも、Googleは宣伝を行っていない。インターネットの口コミに頼っており、これでは、均等に情報が伝わるわけがない。

パブリッシャーの利用

150サイトのうち50サイトは、オーサーページを用意していない。また、用意しているサイトであっても、実に3/4以上が、オーサーの名前しか、アトリビューションの要素を提供していない。残りのサイトでは、記事の下の方でアトリビューションへのリンクを掲載していたが、オーサーの大半は、この利点を活用していなかった

この投稿のために、オーサーページを持つ20のサイトを選び、オーサーシップの実装における成功を詳しく分析した:

  1. 20サイトのうち13サイトが、オーサーシップのマークアップを実装していた(65%)。
  2. 実装を試みた13サイトのうち10サイトにエラーが見られた(77%)。
  3. 実装を試みた13サイトのうち12サイトが、GoogleのSERPでリッチスニペットを受けていた(92%)。

オーサーシップを実装する方法に関する資料は、ウェブを探せば、山ほど見つかる。しかし、タグの形式が誤っているサイト、そして、オーサーシップを実装しているものの、オーサーのG+のプロフィールにリンクを張っていないサイト、タグが矛盾し、ある記事に対して数名の人物をオーサーとして報告するサイトを私達は発見した。また、2名のオーサーが記事にタグ付けされていたものの、2人目のオーサーのみがGoogle+のプロフィールにリンクを張っており、Googleが2人目のオーサーのみに功績を認めていたケースにも遭遇した。

  1. 20サイトのうち、7サイトは、オーサーシップのマークアップを実装していなかった(35%)。
  2. 7サイトのうち2サイトは、GoogleのSERPでリッチスニペットを受けていた(28%)。

マークアップが存在しないにも関わらず、Googleがリッチスニペットを与えていたケースでは、オーサーは、Google+のContributor Toのセクションからサイトにリンクを張っていた。

調査のまとめ

手短に言うと、適切にrel=authorを実装しているサイトは、極めて少ない。Googleは、多くの問題に直面しつつも、オーサーとパブリッシャーを結びつける試みを徹底的に行った。より大きな視点に立って考えると、パブリッシャーからデータを集めるのが、いかに難しいかが分かる。とても難しく、やっとのことで得たにも関わらず、その情報の質は低い。

結論

Googleは、過去3年間、オーサーのオーソリティを理解することに関心を持っていると何度も述べていた。この点に関するエリック・シュミット会長による発言を忘れることが出来ない:

検索結果で、認証を受けたオンラインプロフィールに結び付けられた情報は、認証を受けていないプロフィールよりも、高くランク付けされる。すると、大半のユーザーは、自然に、上位の(認証済みの)結果をクリックするようになるだろう。その結果、匿名を維持するために支払う対価は、ますます高くなっていく。

エリック・シュミット — The New Digital Age

しかし、この問題を解決するのは、非常に難しいことが判明した。このデータを望むものの、現在のアプローチは有効ではなかった。先程も申し上げたように、これは、オーサーシップの取り組みが見捨てられた2つの大きな理由の1つである。

ジョン・ミューラーが特定したもう1つの問題も同じぐらい重要だ。写真であれ、あるいは、単純に署名欄であれ、何らかの形式のリッチスニペットを取り込むアプローチは、SERPでエンドユーザーにメリットを与えていなかった。Googleは、検索の品質を絶えずテストしており、特別扱いは存在しない。エンドユーザーがメリットを受けていないなら、Googleは、容赦なくその取り組みを終わらせる。

また、この試みに費やす処理能力の影響も無視するわけにはいかない。Googleは、無限の処理能力を持っていると考えたくなるが、それは事実とは異なる。そんな力を持っていたなら、光学式文字認識技術を使って画像内のテキストを読み、画像処理技術を用いて写真を認識し、音声テキスト変換技術を使ってインターネットの動画を文字に起こし、そして、毎日すべてのウェブページをクロールする。しかし、Googleにも限界はある。

Googleは、処理能力の利用に関して、意識的に判断を下さなければならない — つまり、予算を賢く割り当てる必要がある。現時点で、オーサーシップの試みは、与えていた予算の額に見合う結果を残していないことになる。

モバイルの台頭が、この結果に影響を与えた可能性もある。オーサーシップのリッチスニペットを導入したものの、SERPのクリックの行動に大きな変化は見られなかった、とジョン・ミューラーが語っていたが、現在、Googleのトラフィックの半分はモバイルである。モバイルデバイスの貴重なスクリーンのスペースを、このタイプのマークアップで食いつぶしてしまうのは、得策とは言い難い。

それでは、オーサーシップは二度と帰ってこないのだろうか?恐らくその可能性が高いと私達は見ている。コンセプト自体は良かった。トピックに関する知識に差があると言う考えに関しては、間違えていないと思う。この問題を解決するための試みが失敗しただけであり、コンセプト自体は失敗していない。

セマンティック検索への取り組みを強化する上で、Googleは、マークアップ等の人間の行動以外で、例えば、信頼されているオーサー等のエンティティを特定する方法を作り出さなければならない。先日行われたナレッジボールトプロジェクトの告知は、Googleがセマンティック化を進めていることを裏付けている気がする。従って、このプロジェクトを介して、Googleは特定する取り組みにアプローチする可能性があると言えるだろう。

もし、本当にこのデータをGoogleが利用するようになったら、どのような結果になるのだろうか?インパクトがあまりにも小さく、全く気がつかない可能性も十分にあり得る。恐らく、オーサーの写真が結果に表示されることは二度とないだろう。何らかの形式のオーサーランクが現れる可能性はあるが、十分にパーソナライズされた形式で表示されるか、あるいは、その他の多くの要素と組み合わされ、事実上、検知することが出来なくなるのではないだろうか。

つまり、しばらくは、オーサーシップに会うことは出来ない。オーサーシップは、気高く、輝かしい実験であり、我々は寂しい思いをするだろう。しかし、今後、オーサーシップにとってさらに素晴らしい展開になることを願っている。

エリック・エンゲマーク・トラファゲンによる共同作成。


この記事は、Search Engine Landに掲載された「It’s Over: The Rise & Fall Of Google Authorship For Search Results」を翻訳した内容です。

今後のSEOではオーソリティ構築が不可欠であり、その要素として重要視されていたオーサーシップだけに、その突然の終了には正直私も驚きましたが、ダメならダメで次に進むスピード感はGoogleならではですね。今後どのような形でオーソリティの参照データを構築していくのか、Googleの新たな挑戦が気になるところですね。 — SEO Japan [G+]