ローカルビジネスのための、クリエイティブなデジタルマーケティングの10個のアイデア

現在、あらゆるビジネスがデジタルマーケティングに力を入れており、ローカルビジネスもその対象に漏れません。しかし、一般的には、ローカルビジネスが多くの予算を確保することは難しいと言えるでしょう。そのため、デジタルマーケティングに注力する機会がないケースもあると思いますが、多くの予算を使わずとも、デジタルマーケティングを行うことは可能です。今回は、このようなローカルビジネスを対象としたデジタルマーケティングにおすすめの方法を紹介した、Search Engine Journalの記事を紹介します。

予算が少ないため、デジタルマーケティングで何をしたらよいのか分からない。そんな方のために、あなたのローカルビジネスをオンラインで広めるための、10個のアイデアを紹介しよう。

お気に入りのコーヒーショップ、レストラン、アンティークショップ。あなたは、こうしたお店をどのようにして発見しただろうか?

友人に勧められたのかもしれないし、魅力的な看板に惹かれて一回限りの入店をしたのかもしれないし、その店の素晴らしいマーケティングキャンペーンを目撃したからかもしれない。

たった1つのソーシャルメディアでの広告や、1人のインフルエンサーのブログ記事がローカルビジネスにとって驚くべき効果を発揮することがある。

しかし、これには問題がある。ローカルビジネスの場合、マーケティング活動に割く予算を確保することが難しい場合が多い、ということだ。

大手のチェーン店のように、有名人とのコラボレーションや広告に多くのリソースをつぎ込むことは、非常に難しい。

とはいえ、マーケティングは常に高価であるということにはならない。

よりクリエイティブな発想を活かせばいいのだ。

この記事では、少ない予算、もしくは、無料で行うことができる、ローカルビジネスのためのマーケティングのアイデアを紹介したいと思う。

1.ローカルのインフルエンサーとのコラボレーション

フォロワー数が100万にものぼるインスタグラマーにプロモーションを依頼するほどの予算はないかもしれないが、マイクロインフルエンサーもそれと同等(もしくは、それ以上)の効果をもたらしてくれることもある。

そして、あなたの地域に住んでいるブロガーや業界の専門家ほど、コラボレーションにうってつけの存在はいない。

問題は、そのようなインフルエンサーをどのようにして見つけるか、である。

単純にGoogleで検索するだけでは不十分だ。巨大なアカウントや有名人のみが表示され、マイクロインフルエンサーは表示されないだろう。

また、この目的のために、Google検索で特定の地域に焦点を当てることは難しい。

我々に必要なものは、ソーシャルリスニングのソフトウェアである。

こうしたツールを使うことで、特定のトピックについて語っている、任意のフォロワー数を持つアカウントを発見することができるのだ。

加えて、自身に関連した結果だけを得るために、地域を設定することも可能である。

さらに、フォロワー数の下限と上限を設定した上で、プロフィールを閲覧することも可能だ。

あなたの目的にふさわしいと思われる人物を発見し、連絡を取ってみよう。

彼らを自分のお店に招待してツアーをしたり、無料で製品を提供したり、といったアイデアが生まれるはずだ。

これは、お互いにとって利益を生むコラボレーションである。あなたは彼らのコンテンツ作成を手伝うことになり、彼らはあなたと彼らのオーディエンスをつなげることで、ブランドの認知度を上げてくれる。

Awarioのスクリーンショット(2022年1月)

上級者向けアドバイス:あなたのブランド名でソーシャルリスニングのアラートを設定することができる。これにより、あなたの会社について言及しているインフルエンサーを自然に探すことができるのだ。

あなたのお店に頻繁に訪れるブロガーもいるかも知れない。ただ、あなたがそれを知らないだけなのだ。

このような場合は、彼らとの関係を育むことで、あなたのビジネスに大きな効果をもたらすことができるだろう。

2.地域の物語の中に、あなたのビジネスを組み込む

人は物語が大好きである。

物語を創り、消費する。これは、おそらく、人間の経験の中で最も本質的なものの1つである。

あなたのブランドをより強く覚えてもらうために、あなたのブランドの周辺の物語を作成しよう。

あなたのカフェでいつも同じ席に座り、特定の飲み物を飲んでいるというキャラクターを作ったり、あなたの会社が入っているビルについての素敵な逸話を作成したり、などが考えられる。

また、すべてをゼロから作成しなくて良い場合もあるだろう。街の歴史を少し調べるだけで、思いもよらない興味深い物語を発見できるかもしれない。

その地域の歴史家に話を聞いたり、博物館に行ってみたりすると、より多くの顧客を導いてくれる何かを発見できるかもしれない。

Tripadvisorのスクリーンショット(2022年1月)

物語の準備が整えば、あとはそれにあなたのビジネスを組み込むだけである。

Webサイトのディスクリプション、ソーシャルメディア、レビューサイトなどにも記載しよう。

また、こうした物語を発信するためのソーシャルアカウントの開設や、ブログ記事の作成も効果的だろう。

あなたが発信する、すべてのマーケティングメッセージに組み込むことを忘れずに。そうすれば、人々の記憶により強く残るはずだ。

3.あなたの街についての、検索エンジンフレンドリーなコンテンツを作成する

ローカルSEOはより多くの顧客を獲得するための優れた方法である。まず、あなたのWebサイトに多くのトラフィックをもたらし、次に、あなたの店に実際に足を運んでもらえる。

しかし、これはあらゆるビジネスが行うべきことである。そのため、クリエイティブなマーケティングアイデアとは言えないだろう。

多くの企業が、「家具 購入 ナッシュビル」のように、最も明確なリクエストに対してWebサイトを最適化する傾向がある。

ここで言うコンテンツは、よりエンターテイメントの要素が多いコンテンツである。その目的は、地域に住む人や観光客にあなたの地域を紹介し、それと同時にあなたのビジネスを宣伝する、ということである。

この2つの目的は、ソーシャルメディアでの投稿、ブログ記事、動画、などで表現されるべきものだ。

この場合、リストタイプのコンテンツが適したコンテンツであろう。

例えば、あなたの地域の「コーヒーショップベスト5」という記事は、あなたのビジネスについての話題を自然に含め、潜在顧客に価値を与える、素晴らしい方法と言える。

もちろん、競合他社を宣伝することは避けたいため、異なる種類のビジネスを紹介できるようなトピックを選択すべきだ。

例えば、デートスポットについての記事であれば、カフェ、美術館、観光地などを1つにまとめ、その中で自身のレストランだけを紹介するといったことも可能となる。

milwaukeemom.comのスクリーンショット(2022年1月)

タイミングも非常に大事である。

ホリデーマーケティングはより多くの注目を集めるための効果的な方法と言えるだろう。

ホリデー(休日)に関連した製品やアクティビティを提供し、「(休日の名前)に(地域名)で家族とすべきこと」といったガイド記事を公開するのだ。

これは、検索エンジンと潜在顧客の両方にとって喜ばしい記事となるはずだ。

4.地域のFacebookグループに参加し、参加者と関わりを持つ

Facebookのスクリーンショット(2022年1月)

Facebookのグループは、まさに、あなたのオーディエンスが集まる場所である。

あなたの地域のFacebookグループに参加することで、一石二鳥の効果を得られる。つまり、あなたの顧客について知ることができ、それと同時に、あなたのビジネスを宣伝することもできるのだ。

Facebookグループでのプロモーションにおける最大のルールは、あまりセールス目的にならないこと、である。

例えば、1日おきに、割引情報や新しいクーポンの情報などを投稿することは避けよう。

こうしたスパム的な行為が許容範囲内であっても、そこにいる人達があなたのビジネスに興味を持ってもらうことは、まずないだろう。

その代わりにすべきことは、自然にビジネスの話ができるよう、会話に参加することである。

個人のアカウントでこっそりと行うことも可能だが、より本質的な方法として、あなたがビジネスオーナーであることを隠さずに参加することも可能だ。

優れた方法としては、彼らにとって本当に価値のあるものを提供することだろう。

例えば、書店のオーナーである場合、その地域に住む、より多くの人にあなたの書店を知ってもらいたいはずだ。

そこで、読書会への参加に興味があるか、また、どのような本を読みたいと思うか、などを尋ねてみてもいい。

また、本に関連した話題である必要もない。話題は何でもよく、例えば、店内に犬を連れて入ってもよいか、などでも構わない。

ここでの目的は注目を集めることではあるが、議論を呼ぶようなトピックは避けるべきだ。

話題にはなるだろうが、多くの人を遠ざける結果となってしまうだろう。

5.「地域性」をデジタルマーケティングに活用する

ローカルビジネスであることは、大手のチェーン店にはない利点を本質的に備えている。大手の場合、店舗が至るところに存在するため、特定のロケーションに特化することが難しいのである。

この利点を活かし、地域に密着した広告を作成することが可能となる。

ここでは、あなたの地域の人々をターゲットとした広告を作成する上でのいくつかのヒントを挙げてみよう。

  • Search Consoleを活用し、インプレッションの引き金となるものに基づき、新しい広告グループを作成する
  • 広告内に郵便番号や住所を記載し、それを目立たせる
  • 広告内に店舗への距離を記載する

6.すべてのレビューに気を配る

現在、レビューを求めたり、Yelpであなたのビジネスをモニタリングすることは、クリエイティブなアイデアとは言えない。

しかし、多くのローカルビジネスが見過ごしていることは、あなたのビジネスについて語られている場所は、レビューサイトのみではないということだ。

レビューという点においては、ソーシャルメディア、ブログ、フォーラムなども同等に重要なのである。

今日、家族や友人であったとしても、ソーシャルメディアのアカウントを持っている人は、オーディエンスを持っているということだ。

そして、彼らはあなたのビジネスについての意見を投稿するかもしれない。

あなたのことをタグ付けし、それをあなたが目撃すれば、それは幸運と言える。しかし、タグ付けされていなかったり、通知が多すぎるために見過ごしてしまった場合は、どうだろうか?

Twitter1:

ポジティブな投稿の場合、再投稿や将来のマーケティングに使える素材としての保存など、マーケティングの機会を逸してしまっている。

ネガティブな投稿の場合、それを無視してしまうことで、風評利害を受けるリスクがある。

ソーシャルメディアのモリタリングツールを活用し、レビューが集まるプラットフォームやその他の場所で、あなたのビジネスについて言及された場合、すぐに気がつくようにしておこう。

また、GoogleアラートTweetdeckなど、無料のツールを組み合わせるという方法もある。

もしくは、より堅牢なソーシャルリスニングツールを使うことで、リアルタイムの通知、より多くのオンラインソースを対象とする、整理するのに便利なフィルター機能、などを利用することができる。

7.ローカルメディアに連絡する

ほぼすべての街には、ローカルの新聞やオンラインメディアがある。その影響力の大きさに、きっとあなたは驚くだろう。

自身のWebサイトやソーシャルメディア向けのコンテンツを作成する一方で、ローカルメディアとのつながりを作ることも怠らないでおこう。

あなたの地域のローカルビジネスについてのトピックに参加したり、特定のニュースについてローカルビジネスのオーナーとしての意見を提供するのも良いだろう。

また、そうしたWebサイトからリンクを貼ってもらうことは、SEOにとっても良い効果を生むだろう。

さらに、コメントや意見を投稿することで、そのコミュニティにおけるアクティブなメンバーとしての地位を確立し、より多くの注目を集めることができるはずだ。

8.イベントマーケティングに参加する

コミュニティの観点で言うと、可能であれば、地元の人たちに向けたイベントを開催するという手もある。

相互に繋がりを持つ世界を生きている私達にとって、物理店舗に顧客を運ぶことが目的でなくとも、オンラインのイベントを開催することにメリットは存在する。

一番の選択肢は、参加した人々がそれぞれに繋がりをもっていると実感できるイベントを開催することだ。もしかしたら、解決のためにより多くの注目と資金を必要とする問題が、あなたの地域で発生しているかもしれない。その場合、その問題に焦点を当てたチャリティイベントを開催すると良いだろう。

開催するイベントは、Facebookのグループやソーシャルメディアで宣伝すると良い。

イベントの期間は、新しい人々とコミュニケーションを取り、つながりを構築しよう。

こうすることで、参加者は歓迎されていると感じ、再度そのイベントに参加したいと思うことだろう。

またイベントをシリーズで開催したり、定期的に開催したりすることで、長期的なマーケティング効果も期待できる。

9.ソーシャルメディアコンテストの開催

クリスマスは世界で最も人気のあるホリデーと言える。多くの理由を挙げることができるが、そのうちの1つが、ギフトをプレゼントするということだろう。人々はプレゼントが大好きだ。

顧客は、あなたの友人や家族であるというわけではないが、あなたのビジネスの宣伝を目的とし、小さなプレゼントを贈ってみるのもよいだろう。

トラフィックを増加させる方法の1つとして、コンテストの開催が挙げられる。そして、そのコンテストをソーシャルメディアやWebサイトで宣伝しよう。

例えば、特定の日に最初にお店に来た20名に対し、商品やサービスを無料で提供する、といった具合だ。

この戦術は、特に新しくオープンしたビジネスにとって有効だろう。

10.ローカルのパートナーシップを形成する

ローカルビジネスのオーナーとして、あなたはその地域の一員であると言える。

その地域の他のローカルビジネスのオーナーと関係を構築してみよう。

そうすることで、相談したり経験を共有したりする相互補助のネットワークを築くことができるだろう。

他のビジネスオーナーと定期的に交流することで、多くの宣伝の機会を得られるだろう。

類似のオーディエンスをターゲットとしながらも、あなたのブランドを完璧に補完し、サポートしてくれるようなローカルのブランドやビジネスを発見できるかもしれない。こうしたビジネスのオーナーに対し、お互いにとって利益となるプロモーションを行うことを検討してみよう。

これは一石二鳥の戦術と言える。自身のブランドの認知を向上させながら、パートナーの好意をうまく活用できるのだ。

こうした関係を築くことで、ローカルビジネスとのネットワークを形成し、あなたにとっての利益を提供してくれるコミュニティの一員となれるだろう。

まずは、ソーシャルメディアで他のローカルビジネスのオーナーとの関わりを持つことから始めよう。

両者の製品を対象とした共同キャンペーンを行ったり、各店舗でお互いの宣伝をしたり、一緒にイベントを開催したりすることができるだろう。

今回の記事で紹介した10個のアドバイスが、あなたのローカルビジネスの出発点となることを期待している。

自身の強みとリソースをうまく活用しよう。コミュニティのパワーは、広告に投資することよりも、ずっと大きな効果を得られることもあるのだ。

地域に根ざしたビジネスの場合、その地域の人々との交流は重要なポイントであると言えます。その対象は顧客のみならず、その地域の他のローカルビジネスのオーナーも含まれるでしょう。コロナの影響で物理的に関わりを持つことが難しい場面も多いですが、今回の記事で紹介されているように、強固なコミュニティを形成することでビジネスの機会を発見できれば、それは優れたデジタルマーケティングになると感じました。

この記事は、Search Engine Journalに掲載された「10 Creative Digital Marketing Ideas For Local Businesses」を翻訳した内容です。

投稿 ローカルビジネスのための、クリエイティブなデジタルマーケティングの10個のアイデアSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

YMYL領域のコンテンツのE-A-Tを改善する方法

誤った情報である場合、その情報を取得したユーザーの生命や生活に大きな影響を与えるような領域。いわゆるYMYLという領域ですが、この領域の場合、E-A-Tが非常に重要な役割を果たします。SEOに関わっている方にすれば、目新しい言葉ではないはずですが、具体的にYMYLと呼ばれる領域はどのようなものか?E-A-Tを改善するために何すべきか?といったテーマはなかなか答えが出しにくいはずです。記事内でも言及されている通り、その方法は1つではありませんが、Googleの品質評価ガイドラインを読むことで手掛かりを得ることは可能です。今回はYMYLの領域とE-A-Tの改善にテーマを絞った、Search Engine Landの記事を紹介します。

Googleが「Your Money or Your Life」と考えるコンテンツの種類はどのようなものか?また、これらのページに対して、専門性・権威性・信頼性を向上させるために、SEOのどの箇所に注力すべきか?この記事を読むことで、学んでいこう。

不正確な情報が提供された場合、ユーザーの将来の幸福、健康、経済的な安定性や安全などに影響を与えうるトピックやページを指すさい、Googleは「Your Money or Your Life (YMYL)」というフレーズを用いる。

こうした種類のコンテンツは、リスクをはらんでいる。そのため、Googleのアルゴリズムはこうしたページを、より高い基準で選定している。

自身が扱うトピックが、YMYLに該当するかどうかを知っておく必要がある。また、YMYL領域のトピックを公開する場合、Googleが専門性・権威性・信頼性(E-A-T:Expertise、Authoritativeness、Trustworthiness)において、何を評価しているかについても、注意を払うべきだ。

この記事では、Googleがどのような種類のコンテンツをYMYLとみなしているか、また、こうしたページのE-A-Tを改善するために、あなたが何に注力すべきかを判断する目的で、こうした情報を使う方法についても解説する。

YMYLとは何か?

Googleは「Your Money or your Life」の略語である「YMYL」という用語を、2013年6月版の品質評価ガイドラインで使用した。そこには、以下のように言及されている。

PQが特に重要なページが存在する。我々は、このようなページを Your Money or Your Life (YMYL)と呼んでいる。こうしたページは、現在、または、未来におけるあなたの幸福(身体的、経済的、安全性など)に影響を与えうる。YMYLのページは、評価の高いWebサイトのページであるべきで、コンテンツは高いレベルの専門性と権威性を持つものによって作成されるべきである。

2013年版の品質評価ガイドラインのセクション7.2より

PQとは、ここでは、ページの品質(Page Quality)を意味している。

Googleの検索結果とWebページの品質についての評価を行い、Googleのエンジニアへフィードバックを提供する、品質評価者のチームへの教育を目的とし、Googleはこのガイドラインを作成した。当初、このガイドラインは一般に公開されていなかったが、今日では、Googleは誰もがこのドキュメントにアクセスできるようにしている。Googleによる品質評価チームの活用については、こちらで詳しく説明されている。

そのページがユーザーの生活に大きな影響を与える可能性がある場合、高品質なページであるとみなす必要があることを、Googleは評価者に伝えている。このようなページは、高いレベルの専門性と権威性をもって、作成される必要があるのだ。

その後、公式に公開されている文章の中で、GoogleはE-A-Tの重要性を繰り返し述べている。下記は、Googleによる偽情報との戦いについて書かれた文書からの引用である。

評価者がどのようにして優良なコンテンツの評価をしているかを理解できれば、自身のコンテンツの改善に役立つかもしれない。その結果、検索結果でのより良い成果をあげられる可能性がある。

特に、我々が言うところのE-A-Tをそのコンテンツが保持しているかどうかを理解するための訓練を評価者は受けている。E-A-Tとは、Expertise(専門性)、Authoritativeness(権威性)、Trustworthiness(信頼性)を表している。ガイドラインを読むことで、E-A-Tの観点から自身のコンテンツを評価し、改善方法を検討する手助けとなるかもしれない。

Googleの品質評価ガイドラインからの抜粋

ガイドラインには、E-A-Tの評価が可能な多くの側面が、徹底的に書かれている。Googleのアルゴリズムが、品質評価ガイドラインに書かれていることをどこまで再現しようとしているのか。我々がそれを知るすべはないが、Googleのベン・ゴメス氏は、CNBCの記事で、下記のように言及している。

品質評価ガイドラインを、我々がアルゴリズムに求める行き先、と見ることができるだろう。品質評価ガイドラインは、アルゴリズムがどのようにして検索結果を順位付けしているかを伝えてくれるものではない。しかし、基本的には、アルゴリズムが何をすべきかを示している。

検索エンジニアリングのヴァイス・プレジデントであるベン・ゴメス氏(2017年)

品質評価者のようにE-A-Tを理解することで、検索結果での優位性につながることがある。Googleが評価しうるものを知っていれば、自身のページの品質の改善について知ることができるはずだ。

下記は、品質評価者がどのようにE-A-Tを評価するよう教育されているかを示す、ガイドラインの一部である。

この5年間で、私と私のチームのメンバーは、品質評価ガイドラインとGoogleがE-A-Tについて言及したすべてを徹底的に研究してきた。E-A-Tを改善する方法についての完全な議論は、この記事の範囲ではない。それについては、こちらの記事で多くを書いている。

私は、SEO担当者の全てが、品質ガイドラインを読み、記載されている具体例を確認することをお勧めする。それらがあなたのビジネスに適用できるかどうか、自身に尋ねてみよう。こうした質問に答えることで、E-A-Tを改善するための戦略を立て始めることができるはずだ。

E-A-Tを改善するにはどうすればよいか?

数年前、E-A-Tを学び始めた者の多くが、専門家である著者を追加し、著者の経歴やプロフィールを構築することに強くフォーカスしていた。

これは、E-A-Tとユーザーの信頼を改善する方法となりうるが、あらゆるコンテンツやページにとって必要な作業ではない。著者の経歴はユーザーにとって有益であるが、そのコンテンツの作成者の専門性や権威性を示すことができる程度である。

重要なことは、コンテンツ作成者のE-A-Tである。

そのため、さらに深掘りし、検索エンジンが認識できる方法で、ブランドの認知や評判に取り組むことが、E-A-Tに取り組むための優れた方法なのである。

また、Googleのブログ記事にも書いてあるコアアップデート(または、アミット・シンガル氏のパンダについての質問や、スタンフォード大学のWebの信頼性についてのガイドライン)についての質問に対する、より良い回答に取り組むことも、E-A-Tを改善する方法となる。

あなたの業界で権威のあるWebサイトからのリンクやメンションを獲得することも、E-A-Tを改善する方法として重要である。リンクは、ページランク、信頼性、権威性と密接に関係しているのだ。

リンクのないメンションでさえも、Googleがあなたのエンティティについての情報を発見する手助けとなる。また、その情報は、あなたのビジネスについての情報を知るための手助けとなる。

時には、権威のある情報ソースへのリンクを追加することで、そのコンテンツがYMYLに関連するクエリへの答えとなることの手助けとなり、信頼性の改善にもつながる。別のWebサイトにとっては、E-A-Tをベースとした戦略が、Googleがあなたのコンテンツ内のエンティティと、それらがどのように関係しているかを理解するための手助けとして、スキーママークアップから始まることもある。

つまり、E-A-Tを改善する方法は、多く存在するのだ。

品質ガイドラインから引用した上記のパラグラフを見てみよう。このパラグラフをベースとし、クライアントのページの品質の向上に寄与する可能性のある、E-A-Tに関連するいくつかのアドバイスを挙げてみよう。

  • 医療や金融に関するコンテンツの場合、専門家が作成しており、新しい情報が出次第、定期的にコンテンツを更新すること。
  • 偽の情報や、専門家の見解と矛盾する情報は、Webサイトに掲載しない。掲載しなければならない場合は、その情報を専用のフォルダやサブドメインに移動させることを勧める。権威のある、信頼できる参照先がある場合は、それらの情報をすべて記載する。
  • GoogleがYMYLであると認識する領域と、YMYLであると認識しない領域を判断する。こうしたページについては、著者の専門性や参照情報の活用などを検討する。
  • 検索結果に表示されている競合サイトのページと比較し、自身も参考にできる方法でE-A-Tを示しているかどうかを確認する。例えば、あなたがターゲットにしているキーワードで上位に表示されている記事が専門医によって書かれており、あなたの記事は専門医によって書かれていない場合、その競合サイトよりも上位に表示されることは難しいだろう。場合によっては、Googleが適切な著者によって書かれていると判断するために、専門家によるレビューを追加するだけで十分なこともある。Googleのアルゴリズムは、そのコンテンツが専門家によって書かれているか、事実に基づいているか、それらを判断できるであろうと我々は考えている。ここでの目標は、Googleをだまし、あなたのコンテンツが専門家のレベルであると誤認させることではなく、あなたのコンテンツが実際にそのレベルのコンテンツとなることである。

あなたがターゲットにしているキーワードで上位に表示されている競合サイトのページのE-A-Tを分析することで、こうした取り組みをさらに進めることも可能だ。例えば、とあるクエリで上位に表示されているページが、すべてその領域の専門家によって書かれている場合、そうしたページと同等の品質と正確性のコンテンツを作成できれば、あなたのコンテンツが1つも上位に表示されない、といった可能性は低いだろう。また、製品ページの場合、競合サイトの全てがユーザーレビューを掲載しているのであれば、あなたも良いレビューを掲載する必要があるはずだ。

品質評価ガイドラインの事例を参考にし、E-A-Tを改善するための対象をどこに、どのように注力すべきかを判断する

品質評価ガイドラインを何度も読み返しているにも関わらず、今までに見たことのないものを私は発見した。記載されている具体例に、YMYLかそうでないかのラベルが貼られているのだ!例えば、レシピのページはYMYLではない。製品ページはYMYLであるが、ベビーカーの選び方をアドバイスするようなページなど、製品について語るページはYMYLではない。

下記は、2021年10月に更新された、最新版の品質評価ガイドラインのセクション4.6からの引用である。このセクションは、高品質ページの具体例、と呼ばれている。YMYLと表示されているものと、表示されていないものがあることがわかると思う。

品質評価ガイドラインに記載されている具体例の多くを確認することで、GoogleがあなたのページをYMYLとみなしているか、そうでないかを判断することができるようになるだろう。もし、あなたのページをGoogleがYMYLとみなしているのであれば、E-A-Tには細心の注意を払うべきだ。

E-A-Tは、YMYLでないページにも必要ではあるが、YMYLであるページほど重要ではないだろう。また、E-A-Tについての異なる要素が重要となるはずだ。医療系のトピックの場合、専門家によって書かれていることが、E-A-Tが高いと判断される理由かもしれない。エンターテインメント系のページやレシピサイトの場合は、人気や認知度、ユーザーのエンゲージメントやレビューなどによって、事態を改善することができるかもしれない。

ECサイトの場合、専門家である著者を追加するよりも、過去の顧客から有益なレビューを多く得ることが、より改善に役立つだろう。

E-A-Tに取り組むべきかどうかを判断できない場合でも、品質評価ガイドラインに記載されている具体例を確認すれば、Googleが専門性・権威性・信頼性を理解する際に考慮に入れているであろう事柄を理解する手助けとなるはずだ。

E-A-Tが重要であるかを判断できない?品質評価者が行っているように、上位に表示されているページを見ることで、手掛かりを得よう

ここでは、品質評価ガイドラインにはYMYLと記載されていないものの、E-A-Tが不足しているせいで、評価者からは低品質と判断されているであろうページを挙げてみよう。

この記事は、オフィスでの服用について書かれている。医療系のYMYLのクエリのように、ユーザーの安全性や生活に強く影響を与えるコンテンツではない。ある程度、E-A-Tは重要となりうるが、正式な訓練を経て得られる専門知識は、それほど重要ではないだろう。

ファッションにおいて世界的な権威である著者に執筆を依頼することはないはずだ。しかし、このクエリでの検索結果を見てみると、一定の専門性のレベルが価値のあるものと、Googleによって判断されているようだ。

品質評価ガイドラインでYMYLとラベル付けされている、「健康のためにショウガを使う」というクエリとは大違いである。このクエリでは、上位に表示されているページの全てが、権威のある医療の専門家によって書かれている。

下記の「Cleveland Clinic」のページには、著者名が記載されていない。つまり、そのビジネスの権威が広く認識されている場合、著者名(と、その資格名)を記載することが上位表示に必要となるわけではない。多くの場合、YMYLの領域で上位表示を狙うのであれば、そのページが専門家によって作成されている、少なくとも、事実確認はされている、ということを読み手に確信させることが絶対に必要である。

ECサイトにおけるE-A-Tの重要性も、また異なったものである。

下記は、品質評価ガイドラインでYMYLとラベル付けされているページの例である。

YMYLの領域の場合、E-A-Tが重要となる。しかし、ここでも、この領域における専門家が著者であることを示す以上に、権威性と信頼性(全国的に有名なブランドであること)が重要であるようだ。

このWebサイトと競い合う場合、こども用のリュックサックの専門家を集め、著者の経歴を作成し、その専門性を示す記事を書くことが役に立つだろうか?おそらく、そうではないはずだ。それは、ユーザーがこうしたページに期待するものではないからである。

ECサイトにおけるE-A-Tの改善方法は、医療系の情報サイトにおけるE-A-Tの改善方法とは異なるだろう。品質評価ガイドラインを読むことは、あなたの業界において何が重要であるかを理解する手助けとなるはずだ。

下記に、品質評価者が、そのページを高品質なページにしていると述べている要素である。

まず、このページはYMYLである。つまり、このようなページと競合することができれば、優れたE-A-Tを持つということになる。

このページは、複数の選択肢を提供し、ユーザーレビューも記載しているため、ユーザーの意図を満たしている。複数の製品を記載することは検索者にとって有益であるということを示す手掛かりであると言える。また、有益なユーザーレビューを追加することは、ユーザーがそのECサイトの製品ページを信頼し、品質を向上させることに役立つ可能性も示している。

重要なことは、Targetという店そのものが有名であるということだ。このページと競い合うには、権威性は非常に重要となるだろう。

あなたのブランドがリュックサックを販売するブランドとして比較的無名である場合、こうしたページよりも上位に表示されることは、非常に難しいだろう。あなたのブランドのこども用のリュックサックが非常に素晴らしいリュックサックであると、世界中で話題になるほどのPR活動をしない限り、リンク構築によってあなたのブランドをTarget以上に権威のあるブランドにすることは難しいはずだ。

また、カスタマーサービスについての詳細な情報が重要であることも述べられている。品質評価ガイドラインのセクション2.5.3には、評価者がどのようにカスタマーサービスを評価し、ユーザーがカスタマーサービスに何を期待しているかについて、詳細な情報が記載されている。

こうした項目が、Googleのアルゴリズムにどの程度反映されているか、また、そもそも反映されているかについて、我々が知る術はない。しかし、品質評価ガイドラインはGoogleがアルゴリズムを向かわせたい方向を表しているのであれば、品質評価者が行うようにクライアントのWebサイトを評価し、改善の可能性のある個所について議論を行い、優先順位をつけることは、有益な作業と言えるはずだ。

E-A-Tに関連した改善の具体例

SEOやコンテンツの戦略は、下記の問いかけによって形づくられる。

  • このキーワードで上位表示されるレベルのE-A-Tを保持しているとGoogleのアルゴリズムが認識するほど、十分な権威性とブランド(著者)の認知を構築できるか?
  • 問い合わせ先や返金についての情報を明確にすることで、ユーザーによるWebサイトへの信頼を高める余地はあるか?
  • 著者の経歴を記載することが、ユーザーにとっての利益となるようなページであるか?その場合、適切な専門知識を持つ著者がいるか?そうした著者は、専門家としてオンラインで認識されているか?専門家である評価者を追加することで、コンテンツと信頼性を向上させることはできるか?
  • コンテンツに記載されているランキングは最新のものであり、自社以上に優れた参考情報はあるか?
  • Googleは、自社についての良い言及を自社のブランドと結び付けているか?そうではない場合、スキーママークアップを追加する、より多くのブランドについての言及を獲得する、自社や著者についての情報を集めているページを改善する、などの作業を行う必要があるか?
  • 現在、上位表示されている他のページと同程度に、検索者にとって有益なページであるか?より有益なページとなるために、なにかを行うことはできるか?

などである。

重要事項:YMYL以外のコンテンツが、YMYLのコンテンツの品質に影響を与える可能性がある

最近のGoogleのハングアウトにて、ジョン・ミュラー氏は、「とあるWebサイトがたわいのないトピックと慎重に扱うべきトピックの両方を掲載している場合、GoogleのアルゴリズムがこうしたWebサイトをどのように扱うべきかを判断することが、難しくなる場合もある」、と述べている。氏は、こうした2つのトピックを明確に分けることを勧めている。

Webサイト内の低品質なコンテンツは、GoogleによるそのWebサイト全体への信頼に影響を与える可能性がある。品質評価ガイドラインには、そのページが低品質であるとみなされる要因を記載している。下記に、その一部を挙げてみよう。

  • E-A-Tの不足
  • 誇張されたタイトルや見出し
  • 邪魔な広告
  • 不十分な問い合わせ先の情報
  • 専門家が認めたコンセンサスと矛盾する情報の記載
  • コメント欄を含む、攻撃的で憎悪的な言葉

この記事と品質評価ガイドラインに記載されているYMYLの具体例と説明を確認することで、あなたのWebサイト内に低品質とみなされるコンテンツがあるかどうか判断することができるだろう。コンテンツの範囲や性質にもよるが、我々は下記のような方法で改善されたWebサイトを知っている。

  • 物議をかもすコンテンツや低品質なコンテンツをWebサイトから削除する
  • より権威のある参考情報を追加する
  • 議論を呼ぶトピックについては、1つの意見であること明確に記載する
  • 「ささいな」コンテンツや「非科学的な」コンテンツは、サブフォルダやサブドメインに移動させる
  • 専門家である著者を追加し、著者の経歴とスキーママークアップを改善する
  • YMYLページへのコメントを注意深く監視する

まとめ

YMYLのクエリでは、Googleは最も権威があり有益なコンテンツのみを上位表示させることに、大きな努力をしている。あなたが上位表示をかなえたい領域と、Googleの品質評価者がそれをどのように評価すべきであると考えていることを理解することで、E-A-Tを改善するためにはどこに、どのような労力をつぎ込むべきか、それを判断する手助けとなるはずだ。

YMYLにしろ、E-A-Tにしろ、一昔前のSEOでは広く普及していなかった概念ですが、今ではSEOにおいて不可欠な概念となっております。自身のWebサイトがYMYLの領域を扱っている場合は特にですが、そうでなくとも、品質評価ガイドラインを読むことはSEO担当者にとって非常に有益となるはずです。初めて公開されてから、大きなものも小さなものも含め、何回かの更新も行っております。数年前に読んで以来、品質評価ガイドラインを読み返していないという方がいらっしゃいましたら、これを機会にもう一度読み進めていただくのもよいかもしれません。

この記事は、Search Engine Land に掲載された「How to improve E-A-T for YMYL pages」を翻訳した内容です。

セミナーの告知

4月26日(火)に「『このSEO施策って、効果ありますか?』セカンドオピニオンセミナー」を開催します。

下記のような疑問に弊社SEOコンサルタントが回答します。

  • 「既存のSEO業者の施策が正しいものなのか?」
  • 「自社で行っているSEO施策が正しいものなのか?」

ぜひご興味ある方は、コチラからお申込み下さい。

投稿 YMYL領域のコンテンツのE-A-Tを改善する方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

SEOコンサルタントが必死で止める、間違ったSEO施策

こんにちは、SEOコンサルタントの谷藤(@go_tanifuji)です。
SEOの情報はネット上に溢れかえっています。

しかし、その中には間違った情報もあり、その見極めが難しいのが現状です。

効果がない施策を行ってしまうのはまだいいのですが、逆効果になる施策を行ってしまい、順位を大幅に落としてしまうケースをよく見かけます。

今回はその中でも影響度が大きいものをピックアップしましたので、あなたのサイトが間違った施策をしていないか確認してみてください。

*この記事は2021年7月1日に社員ブログで公開した記事をブラシュアップした内容になります。

noindexの誤使用

noindexはGoogleにインデックス対象外、つまり評価対象外にしてほしいと伝える際に使用します。

強力なシグナルをGoogleに伝えるため、誤った使用をしてしまうとSEOに与えるダメージはかなり大きいものになります。

カテゴリーページにnoindexを設定

「カテゴリページは重複コンテンツになるからnoindexを設定しましょう」という情報をよく見かけます。

これは誤りです。

Googleはカテゴリページをインデックスさせることを推奨しています。

Make Category Pages Indexable & Internal Search Pages Non-indexable


カテゴリページはインデックスさせ、サイト内検索ページはnoindexさせるのがいい

●引用元:Google Webmaster Hangout Notes: November 12th 2019 – DeepCrawl

カテゴリページは関連性のある記事を束ねているページですので、Googleからの評価は高いです。

例えばGoogle検索で「ポロシャツ」と検索すると、1位が「ZOZOTOWNのカテゴリページ」です。

カテゴリーページの例

ZOZOTOWNのカテゴリページが獲得しているトラフィックは、サードパーティツールで計測すると月間 約1,200,000です。

ZOZOTOWNのカテゴリーページのトラフィック

仮にカテゴリページにnoindexを設定してしまった場合、このすべてのトラフィックを失うことになります。

「All In One SEO Pack」でのミス

WordPressの人気のプラグインで「All In One SEO Pack」があります。

この中に「noindex設定」があるのですが、下記のように「カテゴリにnoindexを使用する」にチェックを入れることを推奨しているサイトをよく見かけます。

noindex設定

この設定をしてしまうと、カテゴリページにnoindexが設定されてしまいますので、設定しないようにして下さい。

●参考:「All In One SEO Pack」でよくある、SEOの致命的なミス

noindexで正規化を行う

正規化とは、重複コンテンツがある場合に正規ページを指定することで、Googleからの評価を1つに統一することをいいます。

こうすることで、検索結果に出したいページを決めることができます。

Googleが推奨している正規化の方法は下記の4つです。

  1. rel=”canonical”を使用する
  2. canonical HTTP ヘッダーを使用する
  3. 301 リダイレクトを使用する
  4. sitemap.xmlを使用する

しかしnoindexを非正規ページに設定して正規化をするケースを見かけます。

これを行ってしまうと、非正規ページから正規ページへ評価が引き継げなくなります。

Googleも下記のように、正規化にnoindexを使用することを推奨していません。

重複コンテンツに対しては noindex よりも rel=”canonical” を使うことを私は勧める。

noindex というのは、「このページは何もインデックスしてはいけない」と私たちに指示することになる。
rel=”canonical” は、「このページは実際は、別のこちらのページと同じだ」と私たちに指示することになる。

両方のページのすべてのシグナルを集めて1つに統合できるから、rel=”canonical” は私たちの助けになる。

●引用元:重複コンテンツ対策にはrel=canonicalを推奨、noindexタグではシグナルがすべて失われる | 海外SEO情報ブログ

実際に相談された内容で、「○○というキーワードでAページを上げたいんですど、Bページが上がってしまいます。そのためBページにnoindexを入れてみました。そうしたら、順位が前より下がってしまいました。なぜでしょうか?」というものがありました。

下記は実際に下落したキーワードの「順位」と「ランディングページ」の推移です。

重複コンテンツの誤った対象方法

グラフの色の違いは、ランディングページの違いを意味しています。

元々は黒色のグラフが示しているBページが6位にランキングしていました。しかし、Bページにnoindexを入れた後に順位が下落。

その後、青色や水色などが示すページが代わる代わるランキングしているのは、正規ページを失ったために、Googleがどのページを代わりに正規ページにしたらいいかわからなくなり、混乱している状態を表しています。

そしてGoogleがBページ以外のページを代わりにランキングさせようとしますが、Bページの評価がどのページにも引き継がれていないために順位が下がってしまうのです。

●参考:重複コンテンツがSEOに与える影響と対処方法

テスト環境にnoindexを使用する

テスト環境で作業中の際、インデックスされないように「noindex」を入れる方法があります。

しかし、ローンチの際にnoindexを外し忘れ、そのまま本番環境へ反映させてしまったときにミスが起きることがあります。

すべてのページにnoindexが入っている場合、サイト自体がインデックスされなくなるため、すべてのキーワードで下落します。

このようなことがないように、そもそもnoindexを使用するのではなく、Googleが推奨している「ユーザー認証」か「IP アドレス制限」を検討してみてください。

●参考:English Google Webmaster Central office-hours from September 4, 2020

被リンクが張られているページを無効化させてしまう

Googleはランキングシグナルのトップ3に「被リンク」が入っていることを明言しています。

Google’s Andrey Lipattsev reveals links, content and RankBrain are the top three ranking signals in Google’s search algorithm.

GoogleのAndrey Lipattsevが、被リンク、コンテンツ、RankBrainがGoogleの検索アルゴリズムで上位3位に入っていることを明らかにした。

●引用元:Now we know: Here are Google’s top 3 search ranking factors | Search Engine Land

しかし、被リンクが張られているページを無効化してしまうことで、被リンクの力を有効活用できていないケースをよく見かけます。

被リンクが張られているページにnoindexを設定

noindexはGoogleに評価対象外にしてほしいと伝えるものですので、そのページに張られている被リンクの効果を無効化されてしまいます。

よくあるケースは「終了したイベントページ」です。

イベントを行う際にキャンペーンを行い、イベントページに被リンクが多く張られたのにも関わらず、イベント終了後にイベントページを検索結果に出ないようにするためにnoindexを設定してしまうというものです。

対応策としては下記のようなものが挙げられます。

  • イベントが終了した旨を記載してnoindexを外す
  • イベント一覧ページに301リダイレクトを行う

被リンクが張られているページを削除(404ページ)

404エラー(削除されたページ)の場合、しばらくするとnoindexを設定したのと同じ状態、つまりインデックスから削除されます。

そのためnoindexのケースと同様に、被リンクが張られていても、 その効果を失うことになります。

対応策としては、移行先のページが存在するのであれば そのページに「301リダイレクト」をします。

もしなければ、下記のように「上位階層のページへ301リダイレクト」を行います。

事例紹介:大手出版社のオウンドメディア

被リンクを受けているページが削除されていることで、被リンクの力を失っていることがわかりました。

そのため「被リンクを受けているページ」を「移行先のページ」へリダイレクトすることで、被リンクの力を復元しました。

その結果、自然検索流入が「40%増加」し、

下落していた主要キーワードが「1位」に回復させることに成功しました。

削除ツールの誤使用

Search Consoleに「削除ツール」というものがあります。

削除ツール

この機能は「一時的にGoogleの検索結果から、指定したページを表示させなくさせる」ものです。

そのため利用用途としては、機密情報を誤って検索結果に出してしまった場合に、早急に検索結果から削除したい場合などが想定されます。

削除ツールで正規化を行う

「削除ツール」と聞くと、指定したページをインデックスから削除するように聞こえますが、これは間違いです

あくまでGoogle検索結果から一時的(6か月間)に表示させなくするものであって、インデックスを削除するものではありません。

そのため、約6か月後には検索結果に表示されるようになります。

リクエストによってページがブロックされる期間は約 6 か月間です。この期間が経過すると、ブロックされていた情報が再び Google 検索結果に表示されるようになります

●引用元:削除ツール – Search Console ヘルプ

しかし、この機能を勘違いして正規化で使用されてしまうケースがあります。

例えばSSL化を行った際に、『「http」はもう使用しないから削除ツールでなくしてしまおう』 という内容です。

これを行う人のイメージは下記のようになっているはずです。

削除ツールで正規化を行う

しかし、実際は下記のように「http」だけでなく「https」も削除対象になります。

削除ツールで正規化行う2

なぜかといいますと、この削除ツールは1つのバージョンのみを削除するものではなく、すべてのバージョン(httpとhttps、www有りとwww無し)を削除するものだからです。

残したいバージョンが残ることはなく、URL のすべてのバージョン(http と https、www ありと www なし)が削除されてしまう可能性があります。

●引用元:削除ツール – Search Console ヘルプ

削除ツールの誤使用(?)でサイトが消滅した事例

2020年5月に大手ソーシャルメディア「LinkedIn」がGoogleの検索結果から消滅するという出来事が起きました。

アメリカのWEBメディア「Search Engine Roundtable」の記事では、削除ツールの誤使用が原因ではないかと推測しています。

LinkedIn側から正式な発表はなかったため、真相はわかりませんでしたが、実際に起こりえる内容です。

仮にこのような事態になった場合は、「リクエストキャンセル」を行うことで元に戻すことができますので、あわてず下記の手順で行ってください。

検索結果からの一時ブロックをキャンセルするには:

1.削除ツールを開きます。

2.履歴テーブルでリクエストを見つけます。

3.リクエストの横にあるメニューボタンをクリックして、[リクエストをキャンセル] を選択します。

●引用元:削除ツール – Search Console ヘルプ

robots.txtでリソースをブロック

robbotx.txtはクローラを制御する機能を持ちます。

大規模サイトでは重要なページにクローラが効率にクロールするように、不必要なページをクロールしないようブロックさせることがあります。

この考えから下記のようにCSSやJavaScriptまでもブロックしてしまうケースがありますが、これは誤りです。

robots.txtの設定ミス

これを行ってしまうと、CSSやJavaScriptが読み込まれないページでの評価をGoogleがしてしまい、本来の順位より低くなる可能性があります。

新しいガイドラインでは、最適なレンダリングおよびインデックス登録のため、ページ内で使用している JavaScript、CSS、画像ファイルに Googlebot がアクセスできるようにする必要がある、としています。サイトの robots.txt を使って Javascript や CSS ファイルのクロールを拒否するように設定すると、Google のアルゴリズムによるコンテンツのレンダリングとインデックス登録を妨げ、最適な結果が得られなくなる可能性があります。

●引用元:技術に関するウェブマスター向けガイドラインを更新しました  |  Google 検索セントラル ブログ  |  Google Developers

「サブディレクトリ」から「サブドメイン」への移行

Googleはサブドメイン(あるいは、サブディレクトリ)で区切られた部分は、状況によっては別のサイトとして認識されることがあると説明しています。

そのため別サイトとしてGoogleに認識されていたサブドメインをサブディレクトリに移行した場合、別々だったサイトが1つのサイトと認識されることで、ランキングが上昇することがあると述べています。

別サイトとして Google に認識されていたサブドメインをサブディレクトリに移行した場合、別々だったサイトが 1 つのサイトとして認識されるようになり検索結果での状態がよくなることがありうる

●引用元:ドメインオーソリティに似ていなくもない指標をGoogleは持っている。サブドメイン vs. サブディレクトリは「サイト」の区分けに依存する | 海外SEO情報ブログ

逆をいうと、1つサイトとして認識されていたサブディレクトリをサブドメインへ移行することで別々のサイトとして認識されてしまうことがあるということになります。

例えばサブディレクトリで運営していたコラムをサブドメインへ移行するというケースです。

実際にあった例で、 サブドメインへ移行後は下記のように順位が下落しました。

サブディレクトリからサブドメインへの移行

まとめ

noindex」、「削除ツール」、「robots.txt」はどれもSEOに強い影響を与えます。

SEO歴11年の私でも、この3つを使用するときは緊張します。

そのため正しい使用方法を理解してから活用しましょう。

セミナーの告知

4月26日(火)に「『このSEO施策って、効果ありますか?』セカンドオピニオンセミナー」を開催します。

下記のような疑問に弊社SEOコンサルタントが回答します。

  • 「既存のSEO業者の施策が正しいものなのか?」
  • 「自社で行っているSEO施策が正しいものなのか?」

ぜひご興味ある方は、コチラからお申込み下さい。

では、また次の記事でお会いしましょう!

投稿 SEOコンサルタントが必死で止める、間違ったSEO施策SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

SEOに効果的な「canoncial(カノニカル)」の使い方

こんにちは、SEOコンサルタントの谷藤(@go_tanifuji)です。

今回のテーマは「canoncial(カノニカル)」です。

SEOでとても重要なものですが、間違った使い方をして、順位が下落してしまっているケースをよくみかけます。

そのため「正しい使用方法」と「間違った使用方法」の両方を解説しますので、SEOに役立てて頂ければ幸いです。

canonicalの役割

「URLの正規化」をするために使用します。

URLの正規化とは重複コンテンツがある場合に、どちらが正規ページ(オリジナルのページ)かをGoogleに伝えることをいいます。

例えばオリジナルページとは別に、印刷用のページが別にある場合ですね。

具体的な使い方は、下記のように非正規ページ(複製されたページ)から正規ページへcanonicalを向けます。

canonicalの正しい使用方法

canonicalの正しい使用方法

canonicalを使用する際にはルールがあります。

ルール通りに使用しないと、Googleにcanonicalを無視されることがありますので注意して使用しましょう。

 <head> タグ内にcanonical を入れる

 <head>タグのできるだけ上部に記載することで、より正確にGoogleに認識してもらえます。

一方で、 <body>タグ内にある場合はcanonicalが無視されるので注意しましょう

rel=canonical 属性タグは、HTML ドキュメントの タグ内にのみ記述します。さらに、HTML の構文解析時に問題が発生しないようにするには、 タグ内の上部に、rel=canonical を配置し、できるだけ早い段階で読み込まれるようにしましょう。rel=canonical の指定が  <body>タグ内にあると Google では無視されます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い

canonical先を「絶対URL」で記述する

「絶対URL」とは下記のようにURLを省略せずにすべてを記載するものです。

    <a href=“http://example.com/cupcake.html”>

それに対し「相対URL」は、下記のように現在いる場所を起点として位置関係を表す記述方法で、URLを短縮して記載します。

    <a href=“/cupcake.html” />

canonicalのルールでは「絶対URL」で記述しなければいけません。

例えば下記のように「http://」を省略した相対パスで記述した場合は

    <link rel=canonical href=“example.com/cupcake.html” />

下記のように「/example.com/」の前に「http://example.com」が付け足されたURLとしてGoogleに認識されてしまいます。

    <link rel=canonical href=“http://example.com/example.com/cupcake.html

そのためcanonicalで指定するURLは「絶対URL」にしましょう。

●参考:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い

canonicalは1ページに1回のみ使用する

仮に複数使用した場合は、すべてのcanonicalが無視されます。

rel=canonical を 1 つのページで 2 つ以上指定することは避けましょう。2 つ以上指定されていると、すべての rel=canonical が無視されます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い  

 

ケース別の使用方法

canonicalは様々な場面で使用します。

ケースごとに使い方が違うものもあるので、1つ1つ説明していきます。

「並べ替えページ」の正規化に使用する

商品一覧ページなどで「価格の安い順」や「入荷順」などデフォルトの並びを替えただけのページがあります。

これらは重複コンテンツとして扱われるため、下記のようにcanonicalを設定することでURLの正規化を行います。

並べ替えページの正規化

コンテンツシンジケーションに使用する

コンテンツシンジケーションとは、コンテンツを自サイトだけでなく、第三者のサイトにも配信や提供する仕組みのことをいいます。
ニュースサイトがいい例ですね。

例えば、あなたのサイトがコンテンツを「提供する側」でしたら、「提供される側」のページにcanonicalを設定してもらいましょう。

そうすることで、あなたのサイトがオリジナルであることをGoogleに伝えることができます。

For syndication, using rel=canonical is the best approach

シンジケーションの場合、rel = canonicalを使用するのが最善策です。

●引用元:Google Search Central Twitter

これを行わないと、提供された側のページがオリジナルと見なされる可能性があるので注意しましょう。

シンジケーションは注意して行う: コンテンツを他のサイトにシンジケーション提供している場合、あなたの判断とは無関係に、Google で最適と判断されたバージョンが常に表示されます。

●引用元:重複コンテンツの作成を避ける | 検索セントラル | Google Developers

PDFファイルにはHTTP ヘッダーで使用する

PDFファイルのようにHTML上にcanonicalを設定できない場合は、HTTPヘッダーにcanonicalを設定します。

例えば「HTMLページ」と「ダウンロード用のPDFページ」がある場合ですね。

記述方法は下記の通りです。

GET /white-paper.pdf HTTP/1.1
Host: www.example.com
(…以下、他の HTTP リクエスト ヘッダー…)

HTTP/1.1 200 OK
Content-Type: application/pdf
Link: <http://www.example.com/white-paper.html>; rel=”canonical”
Content-Length: 785710
(…以下、他の HTTP レスポンス ヘッダー…)

●引用元:Google ウェブマスター向け公式ブログ [JA] : HTTP ヘッダーでの rel=”canonical” 属性に対応しました

A/B テストを行うときに使用する

A/B テストとは、オリジナルページとは別にテストページ(ボタンの色を変えたページなど)を別URLで作成し、ランダムにページを出し分けて、どちらのページがユーザー行動がいいかをテストすることです。

ただ、この際にテストページが重複コンテンツになってしまいます。

そのため下記のように、テストページからオリジナルページへcanonicalを設定することでURLの正規化を行います。

ABテストでのcanonicalの使用方法

複数の URL を用いた A/B テストを行っている場合は、各パターンの URL にリンク属性 rel=“canonical” を使用して、オリジナル URL が優先する URL であることを示すことができます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : ウェブテストが Google 検索に与える影響

誤った使用方法

canonicalを誤って使用してしまうと、SEOに大きな悪影響を及ぼすことがあります。

その中でよくあるケースをピックアップしました。

「分割されたページ」で1ページ目にcanonicalを向ける

分割されたページは自己ページにcanonicalを向けるのが正しい方法です。

しかし、2ページ目以降のcanonicalをすべて1ページ目に向けてしまうと、2 ページ目以降のコンテンツがインデックスされない上に、2ページ目以降の評価が無くなります。

canonoicalを1ページ目に向ける誤り

2 ページ目(またはそれ以降のページ)に 1 ページ目への rel=canonical リンクを指定するのは rel=canonical の正しい使用法ではありません。このようなページは重複ページではないからです。このように rel=canonical を使用すると、2 ページ目以降のコンテンツがまったくインデックスに登録されなくなってしまいます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い  

「すべて表示しているページ」がある場合

すべてて表示されているページにcanonicalを向ける

もし、すべて表示できるページが存在する場合は、そのページに分割されたページからcanonicalを向けます。

Google に対してより明確なシグナルを送りたい場合は、個々の構成ページにて rel=”canonical” に「すべて表示」ページを指定することで、一連のページを適切に検出する可能性を高めることができます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : 検索結果に「すべて表示」ページを優先的に表示する方法

canonical先が「404ページ」

404ページは評価対象外になるため、そのページにcanonicalを向けてしまうのは誤りです。

canonical先が404ページ

こういう場合は移行先のページがある場合はそちらにcanonicalを向け直し、移行先がない場合は1つ上の階層へcanonicalを向けます。

canonicalを1つ上の階層に向け直す

rel=canonical のリンク先ページが確かに存在すること(エラーや ソフト 404 ページではないこと)を確認しましょう。

●引用元:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い  

canonical先がnoindexページ

Googleはnoindexページにcanonicalを向けている場合、canonicalを向けているページもnoindexページとして扱うと説明しています。

そのため 下記のような状態になることから、被リンクをもらっていたいとしても効果を失うことになります。

canonical先がnoindexページ

rel=canonical のリンク先ページに noindex メタ タグがないことを確認しましょう。

●引用元:Google ウェブマスター向け公式ブログ [JA] : rel=canonical 属性に関する 5 つのよくある間違い

●参考:English Google Webmaster Central office-hours from December 10, 2019

SSL化において「https」から「http」へcanonicalを向ける

SSL化を行う際は「https」から「http」へ301リダイレクトを行うことで移行を行います。

しかし、その際にcanonicalの向き先を「http」のままにして「https」のソースを作成してしまうケースがあります。

これを行ってしまうと、下記のように「① 301リダイレクト」で「https」を正規ページに指定した後に、「②canonical」で 「http」を正規ページとして指定してしまうことになるので、「https」へ移行できなくなります。

SSL化において「https」から「http」へcanonicalを向ける

要するに、正規ページがグルっと一周回って元に戻ってしまうということですね。

全てのページのcanonicalをTOPページへ向ける

canonicalを意識せず、canonical先をTOPページのままソースをコピーして他のページを作成した場合に起きるケースです。

これを行ってしまうと、このサイトはTOPページのみしか存在しないことになり、SEOへの影響は重大なものになります。

全てのページのcanonicalをTOPへ向ける誤り2

「canonical」と「noindex」の優先順位

「URLの正規化を行うcanonical」と「インデックス削除を行うnoindex」は併用することは通常ありません。

例外として、CMSの仕様により自動ですべてのページに自己参照のcanonicalが設定されてしまい、canonicalとnoindexが両方存在するページが発生してしまうケースです。

この場合、Googleは「noindex」を優先させます。

補足

canonicalは強いシグナルではありますが、Googleは「命令」ではなく「ヒント」として扱います。

rel=”canonical” は Google に対する命令 (directive) として機能しますか、それとも参考情報 (hint)として機能しますか?
参考情報ですが、重要な参考情報として受け止められます。検索結果に表示する最適なページの判定を行ううえで、他の情報と共に、この canonical 指定の指定も考慮に入れます。

●引用元:Google ウェブマスター向け公式ブログ [JA] : 検索結果に優先的に表示させたいページの指定について

そのため必ず正規化ができる保証はありません。

どうしてもcanonicalで正規化ができない場合は、より強いシグナルの301リダイレクトを使用しましょう。

ただ、Googleがcanonicalに従わないのは、canonical先が正規ページとして相応しくないと判断している可能性が高いので、本当にcanonical先が正規ページとして正しいか確認をしてみましょう。

セミナーのお知らせ

4月26日(火)に「『このSEO施策って、効果ありますか?』セカンドオピニオンセミナー」を開催します。

下記のような疑問に弊社SEOコンサルタントが回答します。

  • 「既存のSEO業者の施策が正しいものなのか?」
  • 「自社で行っているSEO施策が正しいものなのか?」

ぜひご興味ある方は、コチラからお申込み下さい。

では、また次の記事でお会いしましょう!

投稿 SEOに効果的な「canoncial(カノニカル)」の使い方SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

たった2日で上位表示したSEO事例。ユーザー行動とSEOについて

こんにちは、SEOコンサルタントの谷藤(@go_tanifuji)です。

2020年10月13日に公開した記事「Google Search Consoleで「低品質コンテンツ」を見つける方法と対処方法」が、公開してから2日後に「低品質コンテンツ」で3位にランキングしました。

その後は一時的に順位が下がったことがあるものの、現在でも2位前後をキープしています(2022年4月17日 現在)

私はSEO歴11年ですが、ここまで短期間に上位表示されるケースは初めて見ました。

今回はなぜ短期間で上位表示ができたのか、私の推測を記事にしましたので、ぜひご覧ください。

*この記事は2021年3月19日に社員ブログで掲載されたものをブラシュアップしたものになります。

なぜ短期間で上位表示できたのか?

結論からいいますと、「良質なユーザー行動」を短期間で集めることができたためだと考えています。

具体的には下記の4つです。

  1. SNSでのユーザー行動
  2. 記事内でのユーザー行動
  3. Google Discoverでのユーザー行動
  4. 検索エンジンでのユーザー行動

1.SNSでのユーザー行動

公開して間もない記事は、どのキーワードでも上位表示していないので、検索エンジンからの流入はありません。

そのため、短期間でアクセス数を集めるにはSNSを起点に拡散する必要があります。

当社もSEO JapanのTwitterアカウント(@ioixseo)を起点にしています。

Googleはソーシャルシグナルを評価しているのか?

よくお客様から「ソーシャルシグナル(Twitterのいいね等)はSEOの効果はありますか?」という質問をいただきます。

しかし、Googleのジョン・ミューラーは英語版オフィスアワーで「ソーシャルシグナルをランキングシグナルには使用していない」と述べています。

そのため、この段階においてはソーシャルシグナルではなく、SNSから多くのユーザーを記事に流入できるかが重要になります。

下記のGoogleアナリティクスのデータ(左)は、公開初日のものです。

上位表示できなかった記事のデータ(右)と比べると多くのユーザーが流入しているのがわかります。

Googleアナリティクスのデータ3

2.記事内でのユーザー行動

この段階では、流入したユーザーが記事をしっかり読んでくれているかが重要になります。

「平均ページ滞在時間:5:41」でしたので、じっくり読んでいただいているのがわかります。

Googleアナリティクスのデータ5

ここまでの条件が揃うとGoogle Discoverに掲載されやすくなります。

3.Google Discoverでのユーザー行動

「Google Discover」とはGoogleアカウントから収集した情報をもとに、ユーザーの興味に合うコンテンツを「おすすめの記事」として表示してくれる機能です。

スマホのみで見ることができ、GoogleアプリやChromeのホーム画面に表示されます。

下記は私のGoogle Discoverに「Google Search Consoleで「低品質コンテンツ」を見つける方法と対処方法」が掲載された時のスクリーンショットです。

Google Discoverの例

Google Discoverに取り上げられると、一気に流入数が増加するため、別名「Google砲」とも呼ばれています。

このGoogle Discoverにおいては、下記のようなユーザー行動がプラスに評価されると私は予想しています。

  • クリックされる
  • シェアされる
  • 否定的な行動が少ない

クリックされる

Google Discoverに表示されても、クリックされなければ評価されないはずです。

そのためクリック率が高い記事は評価されると推測できます。

もちろんクリックされた後に、記事をしっかり読んでくれることも重要です。

シェアされる

Android 版「Google」アプリの「Google Discover」には下記のようにシェアボタンがあります。

Google discoverのシェアボタン

こちらをクリックすると、下記のようにSNSやメールでシェアできます。

discoverのシェアボタン2

記事をシェアするということは、それだけ良い記事だったといえるのでプラスに評価されていると思います。

補足として、下記のようなハートマークがありますが、これはTwitterのように「いいね」や「お気に入り保存して後で読む」という機能ではありません。

これは記事の元となるトピックに対する興味を示すボタンです。

discoverの「ハートマーク」

上記の例ですと記事自体に興味があるのではなく、「ビリヤード」に興味があることを示すことになります。

興味があるトピックをGoogleに伝えることで、そのトピックの記事をDiscoverに多く表示させる機能になります。

記事自体の評価ではないため、プラスに評価されているとは考えづらいです。

否定的な行動が少ない

下記の3つのような否定的な行動がマイナスに評価されると推測しています。

  1. 「関心がない」が選択された
  2. 「〇〇の記事を表示しない」が選択された
  3. 「コンテンツを報告」が行われた
1.「関心がない」が選択された

記事に興味がない場合、下記の手順でGoogleに伝えることができます。

discoverの「関心がない」

この行動が多い場合、マイナス評価されると推測しています。

2.「〇〇の記事を表示しない」が選択された

サイト自体に興味がない場合、下記の手順でGoogleに伝えることができます。

discoverの「〇〇の記事を表示しない」

こちらに関しても、多い場合はマイナス評価されると推測しています。

3.「コンテンツを報告」が行われた

不適切なコンテンツの場合、下記の手順でGoogleに伝えることができます。

こちらに関しても、多い場合はマイナス評価されると推測しています。

Google Discoverでのユーザー行動がいい場合、短期間でGoogle検索に上位表示される傾向にあります。

4.検索エンジンでのユーザー行動

上位表示されれば それ以降も安定するかというと、そうではありません。

検索エンジンでのユーザー行動としては「ポゴスティッキング」が重要です。

ポゴスティッキング

検索ユーザーがサイトを訪問したものの、求めいている内容と違ったために、検索結果に戻って違うサイトを見に行くというような行動をポゴスティッキングといいます。

ポゴスティッキングの例

Googleのゲイリー氏は当社のインタビューで、ポゴスティッキングをランクブレインを育てるためや、アルゴリズムの評価に使用していると述べています。

ランクブレインを育てるために使ったりはできる。あとはアルゴリズムの評価のために使えることは、言うまではないね。

引用:SEO Japan(アイオイクス株式会社) | Facebook 

今回の事例は順位が安定しているので、ポゴスティッキングが少なかったことが推測できます。

以上のような4つの良質なユーザー行動が集まると、短期間で上位表示されるのではないかと私は考えています。

補足1.QDFとの比較

私が最初に考えたのは「QDF(Query deserves freshness)」でした。

「QDF」とは最新の情報をユーザーが求めているクエリに対して、タイムリーなページを一時的に上位表示させるアルゴリズムです。

例えば「アメリカ大統領選挙」で検索すると、下記のように数時間前に出たニュースが上位表示されています。

QDFの事例

しかし、QDFは一時的に上位表示させるものなので、今回のように順位をキープし続けることはありません。

そのため、QDFとは別の現象だと考えました。

補足2.Googleはどのようにユーザー行動を集めているのか?

Googleアナリティクスのデータが使われているといわれることがありますが、Googleのゲイリー氏は使用していないと答えています。

SEOJapan:GoogleアナリティクスでWebマスターのサイト内データは取られてますよね?

ゲイリー氏:Google検索において、Googleアナリティクスのデータはまったくもって使用していない。約束するよ。

引用:SEO Japan(アイオイクス株式会社) | Facebook 

そのため私は「Chromeのユーザー行動」を使用していると推測しています。

Net Applicationsの調査によるとChromeはPCで「約7割」、モバイル・タブレットで「約6割」のシェアを握っています。

PCのブラウザの占有率
スマホ・タブレットのブラウザ占有率

ここまで高いシェアを獲得しているブラウザであれば、収集できるユーザー行動の量は他社の比ではありません。

仮にChromeのユーザー行動を使用していると、下記のようなものがプラスに評価されていると考えられます。

  • 高いスクロール率
  • 高い読了率
  • ブックマークに入れた
  • 再度読み直した

Googleはどこからユーザー行動を取っているかは明確にしていませんので、これはあくまで私の推測になります。

まとめ

短期間で上位表示し、順位を維持しているのは、下記の4つのユーザー行動が良質だったからではないかという話でした。

  1. SNSでのユーザー行動
  2. 記事内でのユーザー行動
  3. Google Discoverでのユーザー行動
  4. 検索エンジンでのユーザー行動

どれか1つでも欠けてはいけないので、かなりハードルが高いですよね。

ただ、今回の話は私の推測の域を出ないので、参考程度にして下さい。

ちなみに私の上司はユーザー行動をよくするために、部下の記事を最後までゆっくりスクロールしてくれているのは、ここだけの話。
※ジョークです

上司

セミナーのお知らせ

4月26日(火)に「『このSEO施策って、効果ありますか?』セカンドオピニオンセミナー」を開催します。

下記のような疑問に弊社SEOコンサルタントが回答します。

  • 「既存のSEO業者の施策が正しいものなのか?」
  • 「自社で行っているSEO施策が正しいものなのか?」

ぜひご興味ある方は、コチラからお申込み下さい。

では、また次の記事でお会いしましょう!

投稿 たった2日で上位表示したSEO事例。ユーザー行動とSEOについてSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

【無料セミナー】「このSEO施策って、効果ありますか?」セカンドオピニオンセミナー

 概要

当社に頂くお問い合わせの中に、

「既存のSEO業者の施策が成果に繋がっていないので、正しい施策内容なのか見てほしい」
「自社で行っているSEO施策が、成果に繋がる内容になっているか見てほしい」

というご相談を受けることがあります。

もし現在行っているSEO施策が誤ったやり方で、効果が無かったり、逆効果になってしまうと時間と労力が無駄になってしまいます。

しかし、ネットで調べようとしても、どれが正しい情報で、どれが間違っている情報なのか見極めるのは難しいものです。

そこで今回のセミナーは、セカンドオピニオンセミナーと題しまして、当社のSEOコンサルタントがSEO施策の正誤判定をいたします。

事前に誤った施策だと分かれば、時間と労力を無駄にすることを未然に防ぐことができます。

また既存のSEO業者へ抱いている疑念をはっきりさせることもできます。

事例紹介

    【質問】
    半年前から主要キーワードの順位が下落し始めて、1位だったキーワードが2ページ目まで下がってしまいました。

    既存のSEO業者に相談したところ

    「健康系の記事がYMYL領域になるため、ペナルティを受けた可能性が高いです。そのため健康系の記事を削除すれば順位が回復します」

    という提案を受けました。

    そこで記事を削除したのですが、一向に順位が回復しません。このSEO施策は合っているのでしょうか?

    【回答】
    結論からいいますと、誤ったSEO施策です。

    順位が下がった原因は、「robots.txt」がサーバーエラー(ステータスコード「500」)になっているためです。

    Googleは「robots.txt」のステータスコードが「200(正常)」か「404(存在しない)」のいずれかを返さないと、クロールが遅くなるか停止すると述べています。


    Google はこのファイルを頻繁にリクエストし、リクエストが有効なファイル(入力されているか空の状態)または 404(ファイルが存在しない)レスポンスを返さない場合は、有効な robots.txt レスポンスが取得できるまで、Google によるサイトのクロールが遅くなるか停止されます。

    ●引用:クロールの統計情報レポート – Search Console ヘルプ

    【結果】
    「robots.txt」を作成し、ステータスコードを「200(正常)」にしたところ、順位が1位に回復しました。

登壇者

谷藤 剛
go tanifuji

Google Search Console 実践マニュアル」の著者 。

インハウスSEO担当を経て、アイオイクスに入社。

SEO歴は11年。

SEOコンサルを行う傍ら、SEOの研究や実験を行う。

最短で上位表示をさせる実験を行った結果、たった2日間で上位表示に成功する。

 

このような実験内容や最新のSEO情報をオウンドメディア(SEO Japan社員ブログ)を通じて情報発信を行っている。

【保有資格・認定】

・中小企業診断士

・米国semrush社 テクニカルSEO試験合格

・米国CXL社 テクニカルSEO試験合格

Twitter:@go_tanifuji

セミナー詳細

日時

2022年4月26日(火)13:00~ 13:45
※ご質問がなくなり次第、終了となります。

参加人数

80名まで
(応募者多数の場合は、抽選を行います。)

対象となる方

  • SEOに取り組まれている事業会社様
  • 今後SEOへの取り組みを検討されている事業会社様

※恐れ入りますが、同業他社の方・個人の方・広告代理店の方の応募はご遠慮ください。

参加費

無料

会場

Zoomによるオンライン配信となります。
当選された方には、視聴可能なリンクをお送りいたします。

募集期間

4月22日(金)17:00まで

申し込みフォーム


投稿 【無料セミナー】「このSEO施策って、効果ありますか?」セカンドオピニオンセミナーSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

100万ドメインの調査を実施。バックリンクAPIベンダーのTOP4社を徹底比較。

SEOツールを使用する目的は数多くありますが、バックリンクを調査する目的でもしばしば使用されることでしょう。もちろん、最終的なSEOへの影響はGoogleのみぞ知るところとなりますが、競合他社とのざっくりとした比較を行うケースも考えられます。こうしたバックリンクのデータを提供しているベンダーの中で、特に多くのデータベースを保有している4社を比較した調査記事となります。最終結論を出すには難しいトピックではありますが、内容としては非常に興味深いと言えるでしょう。

バックリンクのインデックスが最大であるベンダーは、どのベンダーだろうか?我々は、Ahrefs、Majestic、SEO PowerSuite、Semrushの各ベンダーを比較し、その結果をまとめた。

SEO PowerSuiteはここ数年、SEO PowerSuiteのbacklink APIとSEO SpyGlass backlink toolを活用し、バックリンクのインデックスを強化してきた。2021年6月に大規模なインフラのアップデートが行われ、クロール速度は3倍に増加した。

我々の状況をより良く理解するために、バックリンクのトップベンダーである、Ahrefs、SEO PowerSuite、Semrush、Majesticの4社比較を行うことを決意した。

この記事では、今回の調査で得られた主要な結果をすべてまとめているが、より詳細な情報は、こちらのページを参照してほしい。

免責事項:今回の調査のために、各ベンダーからAPIキーを購入している(総額6,200ドル)。また、このレポートではSEO PowerSuiteのローデータも公開している。使用されるデータがあらゆる方法で修正されていないことを確認するため、各ベンダーに連絡を取り、同様の統計データを購入し、それぞれを比較いただくことも可能だ。

分析方法

今回の調査を行うために、我々はMajestic Millionのデータセットを使用することにした。

なぜ、このデータセットなのか?Majestic Millionは、Web上のトップに位置する100万のWebサイトのリストであり、他のWebサイトからのサイテーション(つまり、リンク)数に基づいている。そのため、これらのドメインは十分な量のバックリンクを保有しているはずであり、今回の比較を統計的に優位なものとすることができるはずだ。

そのため、我々はこのデータセットを用いて、下記のバックリンク・インデックスのプロバイダーからの結果を分析したのである。

SEO PowerSuite

SEO PowerSuiteのバックリンク・インデックスは3兆6千億の外部のバックリンクと2億6千400万のインデックスされたドメインのデータを保有している。

100万ドメインのバックリンクを確認する費用は、899ドルである。

Ahrefs

公式サイトによれば、Ahrefsは3.2兆の外部のバックリンクと1億9300万のインデックスされたドメインのデータを保有している。

100万ドメインのバックリンクを確認する費用は、2,000ドルである。

Semrush

Semrushは、43兆以上のバックリンクと16億のドメインのデータを保有していると、述べている

100万ドメインのバックリンクを確認する費用は、2,500ドルである。

Majestic

Majesticのバックリンク・インデックスが保有するバックリンク数とドメイン数に関する情報を見つけることはできなかった。公式サイトで公開されている統計情報によると、4,340億のURLをクロールし、1兆以上のURLを発見している、とのことである。

100万ドメインのバックリンクを確認する費用は、800ドルである。

アカウントをセッティングし、100万ドメインのデータを確認した後、我々は下記の計算を行った。

  • 参照元ドメインによる、勝利数の合計
  • バックリンク数による、勝利数の合計
  • リンク数とドメイン数の比較において、各ベンダーが1位、2位、3位、4位、であった頻度
  • 上記に加え、他のいくつかの指標に基づく比較はこちらのページで行っている

この調査は、2021年秋に実施された。

発見

参照ドメイン数での勝者はどこか?

まず、我々は各プロバイダーが返す、参照ドメインの数に注目した。これは、バックリンクのインデックスの網羅性を評価する指標となる。

バックリンクのドメイン数が最大であったのは、SEO PowerSuiteであり、44.4%で勝利していた。

バックリンクのインデックス数では、Semrushは2位であり、勝率は36.3%であった。また、Ahrefsは14%、Majesticは5.3%となっている。

上記のグラフは、勝率に焦点をあてたグラフであることを留意していただきたい。参照ドメインの絶対数は下記の通りとなっている。

勝率と絶対数の違いとは何か?簡単な例を挙げてみよう。同一のURLに対し、分析を行った各データベースがレポートする参照ドメインの数を見てみたとしよう。

  • SEO PowerSuiteは、100ドメイン。
  • Ahrefsは、101ドメイン。
  • Semrushは、99ドメイン。
  • Majesticは、100ドメイン。

この場合、Ahrefsが「勝ち」に対する「ポイント」を獲得することになる。そして、我々は残りの999,999ドメインに対し、この作業を行ったのである。

その結果、参照ドメインの比較では、勝者はSEO PowerSuiteであった。

バックリンク数における勝者は誰か?

バックリンク数のトータルの数では、Semrushが47.65%の勝率であり、トップだ。そして、SEO PowerSuite(21.38%)、Ahrefs(16.25%)と続く。Majesticはバックリンク数が最も少ない数であり、勝率は14.73%であった。

バックリンク数を絶対数で表したグラフは下記である。

バックリンク数の比較での勝者は、Semrushであった。

比較対象の順位分布はどのようなものか?

さらに、それぞれの比較の中で各ベンダーが1位、2位、3位、4位を獲得した頻度を計算してみた。

参照ドメインの順位分布は以下の通りである。

また、各ベンダーのバックリンク数の採点は、下記の通りである。

重要事項

あらゆるテストには限界があり、今回のテストも、その例外ではない。バックリンクのデータベースの調査を行い、完全に偏りの無い結論を出すことは、非常に困難である。

下記に、どんなバックリンクの調査においても、あなたが留意すべき重要な点をまとめてみた。

バックリンクのインデックスの種類

バックリンクのデータをカウントし、保管するために、各社がクロールに対する異なるアプローチを採っているため、あらゆるバックリンクのインデックスはユニークなものとなる。そのため、バックリンクのインデックスを比較するという行為は、本質的に異なるデータベースを分析するという、大きな欠点を含むことになってしまう。

我々の調査では、APIを介してデータにアクセスしたが、それらが返すデータは下記の通りだ。

  • Ahrefs Live index(現存しているあらゆるリンク。再クロールされ、リンクがないと判断されるまで、そのリンクは現存のリンクとみなされる)
  • Semrush Fresh index(過去6か月間でクロールされたあらゆるリンク)
  • Majestic Fresh index (過去4か月間でクロールされたあらゆるリンク)
  • SEO PowerSuite backlink indexは、あらゆる現存するリンクを含む(Ahrefsと同様、我々のインデックス内のリンクは、再クロールされ、リンクがないと判断されるまで、現存するリンクとして扱う)

AhrefsやSEO PowerSuiteと異なり、SemrushとMajesticは現存するリンクと現存しないリンクをレポートに含む。その結果、多くの場合で、バックリンクの数に大きな差異が生まれてしまう。

例えば、SemrushでAmazon.comのバックリンクを確認すると、このドメインは180億以上のバックリンクを獲得していることがわかる(これは、API経由でも確認できる数字だ)。しかし、アクティブリンクのモードに切り替えると、僅か700万リンクしか表示されない。

Ahrefsのインデックスは現存するリンクを含めているが、それでもいくつかの不一致は確認できる。AhrefsのAPIは1億1400万のバックリンク数を返すが、これはサマリーダッシュボードに表示される数字と近しい。しかし、バックリンクのレポートに切り替えると、僅か3500万件のリンクしか表示されない。

この不一致の背景には十分な説明があるはずだが(低品質なリンクや、なくなったリンクがフィルタリングされたのかもしれない)、このことから2つの重要な結論を下すことができる。

  1. APIによって獲得できるバックリンクのインデックスについて、100%の確信を持つことはできない
  2. こうした不一致を調査から排除することはできない

リンク数の算出方法の違い

バックリンクのインデックスを比較する際に直面する別の課題として、リンク数の算出方法の違いが挙げられる。例えば、同一ページ内の重複リンクを1つのリンクとして算出することもできるし、複数のリンクとして算出することもできる。これは、リダイレクトやカノニカルについても同じことが言える。これらすべてが、総数の算出に影響を与えるため、バックリンクのインデックスを比較する際は、数値を鵜呑みにすることができないのである。

IPを記録する方法の違い

同様に、バックリンクのAPIのプロバイダーが、IPのデータをどのように記録しているかも、問題となる。多くのプロバイダーが、バックリンクを探す際に発見した最新のIPだけをカウントしている。つまり、各ドメインにつき、1つのIPしか記録されない。しかし、Semrushは過去6か月で検出したあらゆるIPを記録しているようである。そのため、同一のドメインに対し、数十のIPを記録している可能性がある。

IP/サブネットの統計は、ローデータ内に含まれている。当初、我々は、この数をレポートに使用する予定であった。しかし、IPの計算における決定的な差異に気付いたため、この統計データは意味のある結論を導くために使用すべきではないと考えたのだ。

参照ドメインに対する理解の違い

ドメインは、もちろん、ドメインである。しかし、我々の調査によると、バックリンクのインデックスの場合、事態は少々複雑になるようだ。

ベリサイン社によると、「2021年の第二四半期では、全てのトップレベルドメイン数は、3億6730ドメインであった」とのことである。

そして、多くのデータプロバイダーが、インデックスされているドメイン数を一致させている一方で(Ahrefsは1億9340万ドメイン、SEO PowerSuiteは2億6400万ドメイン)、Semrushは16億ドメインを保持していると主張しており、これは懐疑的な数字である。

このように、Semrushがユニークなドメインとして算出しているものは、一般的な概念とは異なるようである。

結論から言うと、この種の比較においては、勝者も敗者もないだろう。前述の通り、あらゆる要素や異なるアプローチが影響するからである。

しかし、我々がこうした調査を行うにつれ、バックリンクのインデックスデータのプロバイダーは、長期的に、自社のデータに対する透明性を高めていくと考えている。そして、企業やAPIを活用しているユーザーが、自身が何に対して支払いを行っているのかを、より良く理解できることを意味している。

記事内でも言及されている通り、そもそものデータベースの内容が異なることもあり、単純に比較するには難しいトピックと言えます。しかし、こうしたベンダーが提供するデータが絶対的なものではなく、あまりに固執してしまうと間違った結論を導いてしまうかもしれません。各ベンダーはデータの透明性を高めるための工夫を今後も行っていくと思いますが、ユーザーとしては歓迎すべき傾向であると考えています。

この記事は、Search Engine Landに掲載された「Top 4 backlink API vendors compared (1 million domain study)」を翻訳した内容です。

投稿 100万ドメインの調査を実施。バックリンクAPIベンダーのTOP4社を徹底比較。SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Search Consoleで「低品質コンテンツ」を見つける方法と対処方法

こんにちは、SEOコンサルタントの谷藤(@go_tanifuji)です。

今回のテーマは「低品質コンテンツ」です。

低品質コンテンツに対してとても神経質になられているお客様が多く、「このコンテンツは低品質かもしれないので、ペナルティを受ける可能性がありますか?」という質問をよく受けます。

その際に回答する内容をまとめましたので、ぜひ参考にしてみてください。

*この記事は2020年10月13日に「アイオイクスの社員ブログ」に掲載されたものをブラシュアップした内容になります。

低品質コンテンツとは(定義)

SEOにおける低品質コンテンツとは、下記の2つを指します。

  1. ユーザーにとって価値のないコンテンツ
  2. Googleのガイドライン違反に当たるコンテンツ

とあるページが低品質とみなされた場合、Googleはそのページをインデックスせず、結果として検索結果に表示されないことになります。

しかし、すべての低品質コンテンツに改善の必要があるかというと、そうではありません。

●参考:質の低いコンテンツがサイトのランキングに与える影響 | Google 検索セントラル | ドキュメント | Google Developers

低品質コンテンツの対応が必要なサイト

対応が必要な場合は下記の2つです。

  1. サイトの大部分が低品質コンテンツの場合
  2. Googleのガイドラインを違反しているコンテンツの場合

そのため低品質コンテンツが数ページしかなく、ガイドライン違反をしていないサイトに関しては対応の必要はありません。

低品質コンテンツが与えるSEOの悪影響

下記の2つのリスクがあります。

  1. パンダアップデートを受けるリスク
  2. Googleから手動対策(ペナルティ)を受けるリスク

パンダアップデートの影響を受けるリスク

パンダアップデートとは2011年に導入された低品質なサイトの順位を下げるアルゴリズムのことです。

このアルゴリズムの変更では、低品質なサイトの掲載順位を下げ、同時に、良質なサイトの掲載順位をより適切に評価します。

●引用元:Google 検索が、高品質なサイトをよりよく評価するようになりました | Google 検索セントラル ブログ | Google Developers

低品質なサイトとは、低品質コンテンツがサイトの大部分を占めているものを指します。

Googleから手動対策(ペナルティ)を受けるリスク

手動対策(ペナルティ)とは、Googleが目視でガイドライン違反をしていないかチェックをし、違反している場合は手動で対策を施すものです。

その際には下記のようなメッセージがGoogle Search Consoleに送られてきます。

手動ペナルティ

なお、手動対策は通称ペナルティと呼ばれていますが、Google自身はペナルティという言葉を使用していません。

低品質コンテンツをなくすことによるSEOの好影響

下記の2つが期待できます。

  1. クロール効率の改善
  2. サイト全体の品質の改善

クロール効率の改善

低品質コンテンツがサイトの多くを占めている場合、無駄なクロールが発生しています。

そのため低品質コンテンツを削除することで、重要なページへクロールされやすくなり、クロールの効率が改善されます。

サイト全体の品質の改善

低品質コンテンツがサイトの多くを占めている場合、サイト自体が低品質だと判断されてしまいます。

そのため低品質コンテンツを減らし、高品質なコンテンツの割合を増やすことで、サイト全体の品質を改善することができます。

低品質とみなされているコンテンツを見つけるには、Google Search Consoleを活用します。

クロール済み-インデックス未登録

低品質コンテンツの可能性があるページは「カバレッジ > 除外 > クロール済み-インデックス未登録」に表示されます。

クロール済み - インデックス未登録

●参考:ウェブマスター オフィスアワー 2018 年 12 月 17 日

●参考:「クロール済み – インデックス未登録」とSearchConsoleで表示されたときの対処方法

低品質コンテンツには大きく分けて4種類がある

低品質コンテンツの種類に対して、それぞれどのような対応が必要か解説していきます。

何をもって低品質コンテンツかというのは人によって意見が分かれますが、Googleが公式に明言しているのは主に下記の4つです。

  1. 内容の薄いコンテンツ
  2. 無断複製されたコンテンツ
  3. 自動生成されたコンテンツ
  4. コメントスパムがあるコンテンツ

●参考:質の低いコンテンツがサイトのランキングに与える影響 | Google 検索セントラル | ドキュメント | Google Developers

●参考:コメントスパムを防止する方法 | Google 検索セントラル | ドキュメント | Google Developers

①内容の薄いコンテンツ

ありきたりの内容で、ユーザーに有益な情報を与えていないコンテンツを指します。

私が担当したサイトの例ですと、社員が持ち回りで「今日の一言」と題して「石の上にも三年!」というように一言書くという企画がありました。

これらのページはことごとく「クロール済み-インデックス未登録」に表示され続けており、明らかに低品質コンテンツとしてGoogleに扱われていました。

対処法は以下の3つです。

  1. 高品質に改善
  2. 削除
  3. noindexを設定

高品質に改善

ユーザーに有益な情報を与えるコンテンツを追加することにより、高品質化させるという対応です。

例えばそのテーマの専門家に監修に入ってもらうことで、高品質化することができます。

削除

高品質化できない場合は、削除することを推奨します。

noindexを設定

高品質化も削除もできない場合は、noindexを設定します。

どのような場合に行うかというと、サイトのテーマとはまったく関係のない「社長ブログ」がよくある事例です。

社長ブログ

サイトのテーマに関係がないので高品質化が難しく、「社長のブログなので削除はちょっと・・・」ということで削除もできないというケースがよくあります。

そういうケースでは、そっとnoindexを設定することを推奨しています。

②無断複製されたコンテンツ

無断で転載している場合はGoogleの品質ガイドライン違反にあたります。

無断複製されたコンテンツの例としては、次のようなものが挙げられます。

・他のサイトのコンテンツをコピーし、独自のコンテンツや付加価値を加えることなく転載しているサイト

・他のサイトのコンテンツをコピーし、(語句を類義語に置き換えたり自動化された手法を使用したりして)若干の修正を加えた上で転載しているサイト

・何らかの独自の体系付けやユーザーへの利便性を提供することなく他のサイトからのコンテンツ フィードをそのまま掲載しているサイト

・ユーザーに実質的な付加価値を提供することなく、他のサイトの動画、画像、その他のメディアなどのコンテンツを埋め込んだだけのサイト

●引用元:無断複製されたコンテンツ | Google 検索セントラル | ドキュメント | Google Developers

以前流行っていたキュレーションサイトもこれにあたります。

しかし、当時のキュレーションサイトは検索意図の網羅性が評価されてしまい、上位表示されて問題になっていました。

それに対し2017年2月にGoogleはアルゴリズムの変更を行い、キュレーションサイトの評価を下げました。

ウェブサイトの品質の評価方法に改善を加えました。

今回のアップデートにより、ユーザーに有用で信頼できる情報を提供することよりも、検索結果のより上位に自ページを表示させることに主眼を置く、品質の低いサイトの順位が下がります。

その結果、オリジナルで有用なコンテンツを持つ高品質なサイトが、より上位に表示されるようになります。

●引用元:日本語検索の品質向上にむけて | Google 検索セントラル ブログ | Google Developers

他のサイトからの転載を行うのであれば、転載の許可をもらったうえで、下記の2つの対処方法を検討しましょう。

  1. 高品質に改善
  2. canonicalの設定

高品質に改善

転載するだけでなく、独自の見解を加えることで付加価値を与えて高品質化させます。

canonicalの設定

高品質化が難しい時はcanonicalの設定を行います。

転載元のページに向けてcanonicalを設定し、自社ページが非正規ページであることをGoogleに伝えます。

「ドメインをまたいでcanonicalを設定できるんですか?」と質問を受けることがありますが、Googleはサポートしています。

we’re announcing our support of the cross-domain rel=”canonical” link element.

クロスドメインのcanonical設定をサポートすることを発表します。

●引用元:Official Google Webmaster Central Blog: Handling legitimate cross-domain content duplication

③自動生成されたコンテンツ

機械的に作られたコンテンツのことで、これもGoogleの品質ガイドライン違反にあたります。

自動的に生成されたコンテンツ(「自動生成コンテンツ」)とは、プログラムによって生成されたコンテンツのことです。

Google では、検索ランキングを操作することを目的としている、ユーザーの役に立たないコンテンツに対し、措置を取ることがあります。

●引用元:自動生成されたコンテンツ | ドキュメント | Google Developers

昔のGoogleはページ数が多いサイトを評価していたため、記事を量産するための自動生成ツールが流行りました。

その記事にはキーワードは入っていますが、文章としてなりたっておらず、通称「ワードサラダ」といわれていました。

対処法としての選択肢は1つで、コンテンツを自動生成せずに人が書くことです。

ユーザーに付加価値を与えるコンテンツ制作に路線を切り替えていきましょう。

④コメントスパムがあるコンテンツ

ブログなどにあるコメント機能に、広告のようなコメントや関係のないサイトへ誘導するリンクがあるものはスパム行為と判断されます。

そしてそのページが低品質コンテンツとGoogleに認識されるとランキングに悪影響を及ぼすことがあります。

コメントを活用すれば、コミュニティを形成し、読者を獲得することができます。

しかし残念なことに、スパマーなどに悪用されることも頻繁にあります。

スパマーは多くの場合、スクリプトやその他のソフトウェアを使用してスパムを生成し投稿します。

広告のようなコメントや関係のないサイトへのランダムリンクはコメントスパムです。

この種類のスパムは次のような悪影響をサイトに及ぼす可能性があります。

・ウェブサイトの一部に低品質なコンテンツがあると、サイト全体のランキングに影響を与えることがあります。

●引用元:コメントスパムを防止する方法 | Google 検索セントラル | ドキュメント | Google Developers

そのため下記のようなコメントスパム対策を行う必要があります。

  1. コメントを承認制にする
  2. スパム対策ツールを導入する
  3. リンクにnofollow属性を設定する

コメントを承認制にする

コメントを即時に公開するのではなく、管理者がスパムコメントではないことを確認してから承認する方法です。

Word Pressなど多くのCMSにデフォルトである機能です。

ただ、コメントが多い場合は管理者の負担が増えてしまうのがデメリットです。

スパム対策ツールを導入する

ユーザーに対し、悪意のあるスパムスクリプトではない本物の人間であることを証明するよう求めるツールです。

下記はGoogleが無料で提供する「reCAPTCHA」簡単にサイトに実装できます。

 reCAPTCHA

●参考:reCAPTCHA

リンクにnofollow属性を設定する

下記のようにリンクにnofollow属性を設定すると、リンク先を評価しないことをGoogleに伝えることができます。

<a href=”http://www.example.com/” rel=”nofollow“>

またugc属性でも代替可能です。

<a href=”http://www.example.com/” rel=”ugc“>

これによりユーザーが作成したリンクであることをGoogleに伝えることができます。

低品質とは限らないコンテンツ

下記の5つは一概に低品質コンテンツといえません。

  1. 文字数の少ないページ
  2. 滞在時間が短いページ
  3. 検索トラフィックが少ないページ
  4. フィード
  5. カテゴリーページ

①文字数の少ないページ

例えば「多幸とは」と検索すると、1位にランキングしているのはgoo国語辞書で、メインコンテンツは「非常にしあわせなこと。また、そのさま。」の1行です。

「多幸とは」と検索する人の検索意図は、言葉の意味を知りたいだけですので、1行だけでも十分なのです。

そのため文字数が少なくても、「クロール済み – インデックス未登録」に表示されておらず、ユーザーの検索意図に応えているのであれば低品質コンテンツではありません。

②滞在時間が短いページ

Googleアナリティスクで滞在時間が短いページが低品質コンテンツになっているという話をよく聞きます。

しかしこれは一概に低品質コンテンツとはいえません。

例えば①で上げた文字数の少ないページは必然的に滞在時間も短くなるためです。

そのため滞在時間は文字数にあったものかどうかという観点でみなければいけません。

③トラフィックが少ないページ

お客様からよく「トラフィック(検索流入数)が少ないページは、低品質コンテンツだから削除した方がいいですよね?」という質問を受けます。

これは誤りで、Googleのジョン・ミューラー氏は「トラフィックが少ないからという理由だけで低品質コンテンツと判断しない方がいい」と述べています。

気を付けることがひとつあるとしたら、検索トラフィックが少ないという理由からそのコンテンツが悪いに違いないと考え、削除しようとすることだ。

たいした検索トラフィックがなかったとしてもまったく問題ないときもある。検索するユーザーが単に少ないだけかもしれない。

(中略)

昔の天気予報のコンテンツを残しておいたとして、10年後にだれかが調査目的で見つけて役に立ててもらえるかもしれない。

10年前の天気予報というのは、もはや内容の薄いコンテンツとも言えそうだが、固有の情報を持っているし、もし存在しなければ検索で発見してもらえなかっただろう。

●引用元:低品質コンテンツがわずかに存在していても検索では問題にならない。検索トラフィックがないことは価値がないことを意味しない | 海外SEO情報ブログ

そのため「クロール済み – インデックス未登録」に表示されておらず、誰かの役に立つコンテンツであれば低品質ではないのです。

④フィード

フィードはいわゆるRSSフィードのことで、RSSリーダーに登録するときに使われる仕組みです。

Googleは下記のようにフィードを推奨しています。

Google では、最適なクロールを行うために、XML サイトマップと RSS/Atom フィードの両方を使用することをおすすめしています。

●引用元:XML サイトマップと RSS/Atom フィードのベストプラクティス | Google 検索セントラル ブログ | Google Developers

また、世界中で使用されているWordPressにデフォルトで設定されているので、仮にフィードを低品質コンテンツとGoogleが見なした場合、WordPressで作成されているサイトは軒並み順位を下げるはずです。

そのような現象は起きていないことから、Googleはフィードを低品質コンテンツと見なしていないといえます。

しかし、下記のようにGoogle Search Consoleの「クロール済み – インデックス未登録」にフィードが大量に出ていると心配されるお客様もいらっしゃいます。

feed

また表示できるURLが1,000件までのため、フィードが邪魔して他のURLが見れないという場合もあります。

そういう時は、HTTPヘッダーに 「X-Robots-Tag: noindex」を追加すればフィードにnoindexが設定され、「クロール済み – インデックス未登録」から「noindex タグによって除外されました」に移動します。

 X-Robots-Tag

●参考:robots メタタグの指定 | Google 検索セントラル | ドキュメント | Google Developers

⑤カテゴリーページ

カテゴリーページは重複コンテンツなので低品質コンテンツになるという話をよく聞きます。

しかしこれは誤りです。

カテゴリーページは関連する記事を束ねているページですので、個々の記事よりもSEOに強いページになります。
例えばGoogleで「ポロシャツ」と検索すると、1位が「ZOZOTOWNのカテゴリページ」です。

カテゴリーページの例

よくあるミスとして、カテゴリーページにnoindexを入れてしまうケースです。

WordPressのプラグインである「All In One SEO Pack」を入れているサイトでよく見かけます。

詳しくは「All In One SEO Pack」でよくある、SEOの致命的なミスを参考にして下さい。

タグページも同様の理由でSEOに強いページですので、noindexを入れないようにしましょう。

最近の傾向

Googleは「サイト運営者」の専門性、権威性、信頼性(E-A-T)を重要視する傾向にあります。

Low quality pages often lack an appropriate level of E-A-T for the purpose of the page.

低品質なページはしばしば、そのページの目的に対してふさわしいレベルの専門性、権威性、信頼性(E-A-T)が欠けています。

Understanding who is responsible for a website is a critical part of assessing E-A-T for most types of websites. High
quality pages should have clear information about the website so that users feel comfortable trusting the site

ほとんどのウェブサイトにとって、誰がウェブサイトの責任者であるかがわかることが、ウェブサイトの専門性、権威性、信頼性(E-A-T)を評価するために決定的な部分を占めています。

●引用元:General Guidelines

まとめ

低品質コンテンツの特定方法と、その対処法について解説してきました。

低品質コンテンツに関しては様々な噂があり、判断に迷う方も多いと思います。

この記事を参考に、Search Consoleを用いて正しい対応をしていただければ幸いです。

もっとSearch Consoleを使いこなしたいという方は、3月31日(木)にSearch Consoleのセミナーを行いますので、ぜひ参加して下さい。

お申し込みは下記からお願いいたします。

>>「【再演】Google Search Console 実践セミナー ~プロが使用しているノウハウ10選~

では、また次の記事でお会いしましょう!

投稿 Search Consoleで「低品質コンテンツ」を見つける方法と対処方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

GoogleのEATにおける、10の誤解を解く

ここ数年間でもはや必須の概念となったと言えるE-A-Tですが、概念であるが故、様々な誤解も生まれています。SEOにとって非常に重要であることは間違いないのですが、正確に理解をしなければ、不要な施策や作業を生み出しかねません。今回は、E-A-Tにまつわるよくある10の誤解を説明した、Searh Engine Journalの記事を紹介します。

E-A-Tの仕組みとGoogleの使用法について、多くの混乱と誤解がある。この記事では、GoogleのE-A-Tにおける、10の誤解を紹介していく。
E-A-T(専門性、権威性、信頼性)は、2014年度版のGoogleの品質評価ガイドラインで初めて用いられた概念である。

このガイドラインは、Googleによる検索結果の品質評価の際に使用される。検索結果の品質評価では、何千人もの評価者が雇用され、Webページを手動で評価し、そのWebページの品質に関するフィードバックをGoogleに送信する。

品質評価者によるフィードバックはベンチマークされ、Googleのアルゴリズムの改良に用いられる。E-A-Tは、該当のWebサイトが信頼に足る専門的なコンテンツを提供しているかどうかを測定するための基準として機能している。

ガイドラインには、以下の記述が見られる。

「有益な目的のある全てのWebページにとって、専門性、権威性、信頼性(E-A-T)は非常に重要である。」

Googleは、品質評価者に対し、以下を考慮するよう、求めている。

  • 分析しているWebページのメインコンテンツのE-A-T
  • Webサイト自体
  • Webサイトのコンテンツの作成者

現行の品質評価ガイドラインでは、E-A-Tという言葉は、175ページ中137回、用いられている。

この1年間、特に、2018年8月1日にロールアウトされたGoogleのコア・アルゴリズム・アップデートによるオーガニックトラフィックのパフォーマンスの変化と関連して、E-A-TはSEO業界における大きな話題となった。

SEOの専門家はE-A-Tがこのアップデートにおいて重要な役割を果たしていると推測し始めた(Googleは後にウェブマスター セントラル ブログでこれを認めている)。特に、E-A-Tに大きな問題を抱えるYMYL(Your Money, Your Life)の領域のWebサイトに大きな影響があったようだ。

SEOの業界で様々な意見が交わされることはよくあるが、E-A-Tについての議論はすぐに混乱、誤解、事実誤認をもたらした。

こうした誤解の大半は、その理論とGoogleの現状のアルゴリズムへの反映との間に存在するズレが起因している。

優れたE-A-Tを持つWebサイトを検索結果画面に表示させることがGoogleの目標であり、アルゴリズムによってそれを実現しようとしている。しかし、E-A-T自体は、現在のアルゴリズムがどのように機能しているかを説明するものではない。

この記事は、E-A-Tにまつわる10の都市伝説や誤解を解くことを目的としている。また、E-A-Tがどのように機能し、Googleがどのように利用しているかも明らかにしたい。

1.E-A-Tはアルゴリズムではない

E-A-T自体がアルゴリズムであるわけではない。

パブコンのQ&Aセッションにて、ゲイリー・イリェーシュ氏は、「Googleは何百万もの小さなアルゴリズムの集まりであり、それらが一体となり、ランキングスコアを算出している。こうしたベイビー・アルゴリズムの多くは、Webページやコンテンツ内にある、E-A-Tとして概念化が可能なシグナルを探している。」と述べている。

つまり、E-A-Tは特定のアルゴリズムを指すわけではないが、Googleのアルゴリズムは、サイトの内外で、E-A-Tの良し悪しに関連するシグナルを探しているのだ。これは、「Web上のリンクを活用して権威性を理解する」ページランクのようなものだ。

2.E-A-Tスコアというものは存在しない

前述と同様のQ&Aセッションにて、イリェーシュ氏は、「内部的なE-A-TスコアやYMYLスコアといったものは存在しない」ことを認めている。

GoogleのアルゴリズムがE-A-Tスコアを付与しているということはなく、評価過程でE-A-Tを分析している品質評価者が個々のWebサイトのランキングに直接影響することもない。

3.E-A-Tは直接のランキング要素ではない。専門性、権威性、信頼性も、それぞれが直接のランキング要素ではない。

これは、E-A-Tがランキングにおいて重要ではない、ということよりも、セマンティックについて関連する議論である。

ページスピード、HTTPS、タイトルタグ内のキーワードなど、Googleは少なくとも200のランキング要素を用いており、これらは特定のページのランキングに直接影響する。

E-A-Tはこのような影響を与えるものではなく、ランキングにおける役割はより間接的なものである。

E-A-Tはランキング要素なのか?スピードのように直接測定可能な技術的なものであるか、という意味では、そうではない。

人間が算出するように、そのコンテンツがE-A-Tと合致しているかどうかを判断するためのプロキシとして、複数のシグナルを用いている。

この意味においては、ランキング要素であると言える。
引用元:Danny Sullivan氏のTwitter

「E-A-Tの要素が現在のアルゴリズムにどのように組み込まれているか?」という質問に対し、AJ・コーン氏は下記のように答えている。

多くのSEO担当者が、専門性、権威性、信頼性がランキング要素であると考えているようだ。しかし、それらはアルゴリズムがどのように機能しているか、ということではなく、アルゴリズムがすべきことを近似的に示しているに過ぎない。例えば、これらに影響を与えるために、Googleがアルゴリズムとして何を行うか、といった議論のほうがはるかに良いはずだ。健康関連のトピックにおいて、価値の高い医療系のテキストとの関連性を図るために、GoogleがBioSentVecを使用するだろうか?確信があるわけではないが(Googleはこれらを実験していると個人的には考えているが)、こうした議論のほうが、「専門性をより良く伝えるために、署名欄にDr.を含めるようにすべきか」といった議論よりも、はるかに有益だろう。

4.E-A-TはすべてのWebサイトが注力すべきものではない

Googleは、品質評価ガイドラインにて、特定のWebサイトに期待されるE-A-Tのレベルは、そのWebサイトのトピックや、どの程度YMYLの領域であるかによると、明言している。

例えば、「高いE-A-Tが求められる医療系のアドバイスは、適切な医療の専門家や認定を受けた人や組織によって書かれ、作成されるべきである」、としている。

しかし、写真やギターの弾き方といった、趣味の領域のWebサイトにおいては、専門性をそこまで必要としていないため、E-A-Tの分析としては、低い水準となる。

読者の幸せ、健康、経済状況、幸福などに直接の影響を与えうる、YMYLのトピックを扱う企業の場合、E-A-Tは最重要項目となる。

また、クレジットカードの情報を受け付けるため、ECサイトもYMYL領域に分類されることには、注意が必要だ。

eat-6-2-6116715b9b7a5-sej-768x478.png (768×478)

このE-A-Tメータは、異なるカテゴリのWebサイトで、どの程度E-A-Tが求められるかを、端的に表している。

5.E-A-Tに注力をすることが、テクニカルSEOの監査やその他のSEOの目的の代替となるわけではない

E-A-Tに対応することだけで、SEOのパフォーマンスが向上するわけではない。

オンページの最適化、品質の高いリンクの獲得、テクニカルSEOなど、SEOを成功に導くための従来の施策も、E-A-Tの取り組みの成功にとっては重要なのである。

アルゴリズムのアップデートによってネガティブな影響を受けたWebサイトにとって、E-A-Tは検討すべき事柄の1つに過ぎない。

コアアップデートからの回復には、Webサイト全体の品質の向上、ユーザー体験における課題への取り組み、テクニカルSEOの問題の解決、Webサイトのアーキテクチャの改善など、複数の異なる領域の改善が求められるのである。

さらに、ページスピードが遅い、クローリングやレンダリングに課題がある、など、技術的な課題を抱えるWebサイトは、Googleに適切にインデックスされることすら叶わない可能性もある。

他の課題も含め、Webサイトのパフォーマンスに与える度合いによって、E-A-Tへの取り組みに優先度をつけるべきだ。

6.E-A-Tは新しい概念ではない。また、誤った情報に対するGoogleの戦いも、新しいものではない。

E-A-Tについての新しいコンテンツが数多く公開されているが、その中には、E-A-Tは2018年8月1日のコア・アルゴリズム・アップデートの時期に始まった、Googleによる新しい取り組みであると主張する記事もある。

しかし、E-A-Tは2014年度版の品質評価ガイドラインで初めて導入されている。

さらに、E-A-Tに注目した調査を行ったところ、2018年から2019年の間のコアアップデートでネガティブな影響を受けたWebサイトの51%が、2017年3月の「フレッド」アップデートでも、ネガティブな影響を受けていたことがわかった。

誤った情報を減らし、高品質で信頼できるコンテンツを表示させようとするGoogleの取り組みは、8月1日のアップデートよりも以前から行われているのである。

eat-6-3-61167156768c7-sej.png (512×198)

また、Googleは、検索結果の信頼性と透明性を改善し、フェイクニュースを減らすことを目的とした複数の取り組みを行っている。具体例を挙げてみよう。

7.2018年8月1日のアップデートは、Googleが公式に「メディック」や「E-A-Tアップデート」と名付けたものではない

8月1日のアップデートは、バリー・シュワルツ氏によって、非公式に「メディック」と名付けられた。しかし、Googleはコアアップデートに正式な名前をつけることは、もはや、ないようである。

8月1日のアップデートを「E-A-Tアップデート」と呼ぶマーケターもいるが、これは不正確だけなく、誤解を招く可能性もある。なぜなら、このアップデートによってパフォーマンスが低下した要因は、E-A-Tだけとは限らないからである。

8.著者の経歴を記載すること自体がランキング要素であるわけではない(Googleはあらゆる著者についての情報を認識し、取得することはできない)

E-A-Tを改善するための最もよくある推奨事項の1つに、全てのコンテンツにその著者についての署名を書くことが挙げられる。また、理想的には、その著者が誰であり、高品質なコンテンツを作成できると信頼すべき理由を説明した、経歴や固有のページを作成することが求められている。

その著者が該当のトピックに対してどの程度の専門家であるかを判断するための手段として、著者の経歴を見るべきであると、Googleは品質評価ガイドラインで品質評価者に対し繰り返し推奨している。

しかし、ウェブマスターハングアウトにて、ジョン・ミュラー氏は、著者の経歴は技術的な要件ではなく、その効果を得るために特定のスキーママークアップを必要とするわけでもないと、述べている。その代わり、ジョン・ミュラー氏は、下記の推奨事項を伝えてくれている。

著者のページと、専門性・権威性・信頼性について、私が推奨することは、ユーザーを確認したり、ユーザー調査を行うことである。特に、そのコンテンツを作成している人物がどれほど優れた人であり、その分野についてよく知っている人であり、その資格があり、その分野について関連している人物であるということを伝えるための最適な方法について、Webサイトの設定を確認してみよう。

また、パブコンのQ&Aセッションで、イリェーシュ氏は次のように述べている。

Web検索では、我々は非常に人気のある著者のエンティティを保持している。もし、あなたがワシントンポスト紙のエグゼクティブであれば、あなたについてのエンティティを持っているだろう。つまり、著者ではなく、エンティティが重要と言えるのだ。

つまり、Googleは、定評のある著者をナレッジグラフで認識することができるのだ。しかし、あらゆる著者を認識できるほどのものではない可能性がある。

ただし、過去数年間、Googleはオーサーシップに関する様々な取り組みを行っているため、これの機能についての取り組みも開始しているかもしれない。

9.YMYLのWebサイトのみがコア・アルゴリズム・アップデートによる影響を受けるわけではない。また、E-A-Tのみがアルゴリズムのアップデートにるパフォーマンスの低下の要因であるわけではない。

ここ最近のコア・アップデートの影響を受けるWebサイトは、特に健康や医療の領域などの、YMYLのWebサイトであることが圧倒的に多い。しかし、他の領域でも影響を受けるWebサイトもある。

例えば、2018年8月1日以降のコア・アップデートのたびに、レシピ系のWebサイトは影響を受けている。しかし、これらのWebサイトの多くは、E-A-Tのレベルはほぼ同一である。こうしたWebサイトは、料理愛好家によって運営されており、彼らは皆、レシピをオンラインに投稿する資格を有していると言えるだろう。

eat-6-4-61167158a8b57-sej.png (512×208)

競合する4つのWebサイトを見る限り、E-A-Tのレベルはほぼ同一であるにもかかわらず、ここ最近のコア・アップデートによってパフォーマンスが大きく変化している。

しかし、レシピ系のWebサイトの多くは、それぞれ固有のSEOの課題を抱えている。それらはE-A-Tにとどまるわけではなく、アーキテクチャの課題、過度な広告、ページスピードの遅さなどである。

こうした課題は、アルゴリズムのアップデートによるパフォーマンスの低下の要因となりうるのだ。

10.E-A-Tは、対応してすぐに結果を得られるものではない。E-A-Tへの対応には時間が必要だ

SEOの施策の中には、メタデータの最適化や技術的な課題の修正など、更新されたコンテンツをGoogleが再クロールし、インデックスすればすぐに効果を期待できるものもある。

しかし、E-A-Tはこうした類の施策とはならない。なぜなら、直接のランキング要素ではないからである。

Webサイトの信頼性を向上させるには、多くの時間と労力が必要となる。

ユーザーからの信頼を得るには時間がかかり、検索エンジンがその変化を処理するには、さらに時間がかかることもある。これは、E-A-Tの課題が原因で、アルゴリズムのアップデートによるネガティブな影響を受けたWebサイトにとっては、特に当てはまるものだ。

Googleは、次のコア・アップデートがロールアウトされるまで、Webサイト全体の品質の再評価を行わないこともある。そのため、E-A-Tを改善するために行った取り組みへの再評価が行われるまで、少なくとも数か月かかる可能性もある。

しかし、E-A-Tの改善による効果は、SEOのみに見られるものではない。E-A-Tの改善を行うことでユーザー体験の向上が期待できる。その結果、ユーザーはあなたのWebサイト、著者、そしてブランドを信頼することができると、さらに確信を持つようになるのである。

E-A-TはSEOにとって重要です。しかし、唯一の対象項目であることはなく、従来のSEOの取り組みも同時に必要となります。また、Webサイトの領域によって、必要とされる度合いが異なる点についても注意が必要でしょう。数値化することが難しく、また、すぐに効果を期待できるものでもないですが、ユーザー体験の向上につながる可能性のあるWebサイトにとっては、長期的に取り組むべき内容であると再確認することができました。

この記事は、Search Engine Journal に掲載された「Google’s E-A-T: Busting 10 of the Biggest Misconceptions」を翻訳した内容です。

投稿 GoogleのEATにおける、10の誤解を解くSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Googleのジョン・ミュラー氏による、57のSEOについてのアドバイス

SEOの情報は日々、誰かが、どこからか発信しておりますが、Googleからのアナウンスは特に注意して追っていきたいものです。特に、ジョン・ミュラー氏は、Q&A動画やTwitterなどで有益な情報を発信してくださっています。今回の記事は、ジョン・ミュラー氏によるアドバイスの中でも特に重要なものをまとめたSearch Engine Journalの記事を紹介いたします。

この記事は、Googleのサーチ・アドボケートのジョン・ミュラー氏によるアドバイスの総まとめである。これらを参照し、ぜひ、あなたのSEOに関する知識に磨きをかけていただきたい。

Googleのサーチ・アドボケートとして、ジョン・ミュラー氏は多くのSEOに関するアドバイスを共有してくれている。その量は、全てを把握することに困難が生じるほどだ。

毎週、ミュラー氏は、SEOの担当者に手を差し伸べており、Q&Aセッションで多くの質問に答えている。この記事で紹介するアドバイスの多くは、オフィスアワーのハングアウトで紹介されたものだ。

また、ミュラー氏が不定期に公開している検索についての解説動画からも、アドバイスを抜粋している。

この記事では、Googleの内部から提供されるこれらの情報を、ランキング要素をはじめ、いくつかのカテゴリーに分類して紹介している。

あなたが見過ごしたアドバイスも含まれているかもしれないため、ぜひ、ご参照いただきたい。

ランキング要素

1.Googleは200以上のランキング要素を保持しているわけではない

かつてGoogleは、コンテンツを順位付けする際、アルゴリズムが考慮する要素は200以上ある、と述べていた。

しかし、アルゴリズムの仕組みについて誤解を招いたり、誤った印象を与える可能性があるといった理由で、公式にこの数字を使わないようにするとしている。

我々は、200以上のランキングシグナルといった表現を用いないようにしている。なぜなら、このような数字を用いることで、誤解を招くこともあると感じているからだ。すなわち、「Googleはあらゆるランキングシグナルが記載されているスプレッドシートを持っており、それを重要度ごとにソートし、その結果を見ている」といったような誤解だ。これは、実情とはかけ離れている。

2.被リンクの数は重要ではない

Webサイトに向けられたリンクの総数は、Googleとは関係がない

関連するWebサイトからの1本のリンクが、品質の低い何百万ものリンクよりも、大きな影響を持つことは考えられる。

やろうと思えば、何百万ものWebサイトから何百万ものリンクを設置することは可能だろう。そして、Googleはそれらをすべて無視する。

もしくは、1つのWebサイトから1つの良質なリンクが設置されてるかもしれない。Googleにとって、それは非常に重要なサインとなる。なぜなら、その1つのリンクがあるからこそ、このWebサイトは関連性のあるWebサイトであると扱うべき、となるからだ。このように、総数は全く関係のないものであるのだ。

3.日付を変更しても、順位は上昇しない

Webページの公開日を変更したところで、大きな変更がなければ、Googleの検索結果における順位の改善にはつながらない。

検索においては何の変更もなく、そのページの日付と時間を変更したからといった理由で、こうしたページの順位が変わることは絶対にない。

4.重複コンテンツはネガティブなランキング要素ではない

検索結果の順位において、重複コンテンツがWebサイトにとって悪影響となることはない。Googleは、それらのコンテンツの片方を検索結果に表示し、もう片方を無視する、といった対応を取る。

複数のページで同一のコンテンツがある場合、それら全てを検索結果に表示することはない。それらの中から1つのコンテンツを選び、それを表示させる。そのため、重複コンテンツはネガティブなシグナルというわけではないのだ。多くの場合、いくつかのページでコンテンツが共有されることは、普通のことと言える。

5.プレゼンテーションはランキングに影響を与えうる

Webサイトの見せ方は、検索結果でのビジビリティに影響を与えうる。

こうした小さな違いが、ユーザーがあなたのWebサイトをどう認識するかにおいて、重要な役割を担うこともある。例えば、あなたのWebサイトが金融関連のWebサイトであるとしよう。そして、ユーザーが「情報は良いが、見せ方が素人のようだ」と思った場合、これは、あなたのWebサイトがどのように認識されているかを反映している。そして、長期的に見れば、検索結果にも反映されることが考えられるのだ。

6.カスタマーレビューはランキング要素ではない

Googleのアルゴリズムによる検索結果のランキングに、カスタマーレビューは使用されていない。

カスタマーレビューはローカル検索のランキングには使用されているが、オーガニック検索のランキングには使用されていない。

私が知る限り、Web検索のランキングにおいて、Googleは顧客の数やレビューを使用していない。もちろん、こうした情報を使用して、リッチリザルトとして検索結果に表示させるということはあるが。

7.ランキングの変化が見られるのに1か月かかることもある

Webサイトの品質に関わる課題を修正した後、Googleの検索結果に変化が表れるまで、1か月ほどかかる場合もある。

どのくらいの期間がかかるか。そうだね。答えることが難しい質問だ。大規模なWebサイトのすべてのページを再クロールするには時間がかかるだろう。特に、Webサイトの構造を変更するなど、Webサイト全体にかかわる大きな変更の場合は。

純粋にテクニカルな視点から考えてみても・・・。そうだね、1か月ほどではないだろうか。

8.ブログのコメントを削除することがランキングに影響を与えることもある

Googleは、他のコンテンツと同様、ブログのコメントもインデックスする。つまり、ブログのコメントが検索結果のランキングに貢献していることも考えられる。

それゆえ、ブログのコメントのすべてを削除してしまうと、ランキングに影響を与える可能性もある。

最終的には、あなたの考え次第であると思う。我々の視点から話すと、我々はコメントをコンテンツの一部として見ている。多くの場合、それらがコメントであるということは認識できているため、扱い方は変える必要がある。しかし、最終的には、ユーザーがこうしたコメントに基づいてあなたのページを発見した場合、あなたがこうしたコメントを削除してしまうと、そうしたコメントに基づいて我々があなたのページを発見することはできなくなる。

9.Core Web Vitalsはタイブレーカー以上のものである

これまでの認識とは異なり、ミュラー氏は、Core Web Vitalsはランキング要素として、ただのタイブレーカー以上のものであると認めている。

Core Web Vitalsはランキング要素であり、タイブレーカー以上のものではあるが、関連性に置き換わるものでもない。Webサイトによっては、それを強く感じる場合もあるし、弱く感じる場合もあるかもしれない。。。

Core Web Vitalsについて留意しておくべきこととして、Core Web Vitalsはランダムなランキング要素以上のものであり、ランク付けされた後(ユーザーが実際にWebサイトを訪れた際)、Webサイトのユーザービリティに影響を与えるものであるということだ。

10.Core Web Vitalsのランキング要素の算出には遅れが生じる

Core Web Vitalsのデータは、28日ごとに収集され、更新される。これは、Search ConsoleやPage Speed Insightsのようなツールでレポートされるスコアは、Googleが過去(およそ)28日間で測定したレポートということを意味している。

それゆえ、Core Web Vitalsのスコアが改善された場合も、ランキングシグナルとしての影響が見られるには、時間がかかる。ミュラー氏は、これについての変更があるのか、タイムラグは常に発生するものになるか、まだ決定していないと述べている。

完全に決まったかどうかは把握していないが、つまり、データにはタイムラグが発生することもある。我々が十分なデータを収集するまで、一定の期間、待たなければならない。

そのため、スピーディーなアップデートのための最適化ではなく、全体図を明確に理解するといった類のものになるはずだ。私としては、リアルタイムの変更ではなく、もっとゆっくりとしたものになると考えている。

11.トラフィックはCore Web Vitalsに影響を与えない

Core Web Vitalsのスコアは実際のトラフィックから算出されるが、トラフィック自体がスコアに影響を与えることはない。

数百万人のユーザーが見ているか、そうではなく、例えば、数千人のユーザーが見ているか、そうしたことは関係がない。Webサイトへの純粋な訪問数は、Core Web Vitalsの要因とはならず、また、一般的にランキングの要素にもならない。

12.Google マイビジネスはローカル検索のランキングにおいて、非常に重要

ローカル検索で良い順位に表示されるために、Googleマイビジネスは、Webサイトの最適化と同じくらい重要である。

ローカルサービスやローカルビジネスを主に見ているようだね。そうであれば、しっかりとしたGoogleマイビジネスのエントリーの設定が必要になるはずだ。なぜなら、こうしたクエリの場合、検索結果にわずかながらも表示されやすくなるからである。

実際、「近くの○○」といったクエリの場合、「近くの〇〇」といったワードでの上位表示を狙う必要はない。なぜなら、「近くの○○」といったクエリは、世界中で発生するからであり、あなたのWebサイト独自のものではないからだ。

そのため、あなたがすべきことは、ページ内で明確にロケーションを記載することである。こうすれば、そのロケーションの場合、あなたのWebサイトやページが関連しており、さらに、ユーザーがそのロケーションにいるということを、我々が認識できるのである。

13.商品価格はランキング要素ではない

競争力のある価格は顧客を引き付けるかもしれないが、検索結果におけるECサイトのランキングには影響を与えない

純粋にWeb検索の観点から言うと、Webページの内容から価格を認識し、ランキング要素として我々が使用するということはない。

そのため、価格が安い方のページの順位を上げる、といったことは起こらない。そんなことは、本当に意味のないことだと思っている。

14.単語数はランキング要素ではない

単語数が検索結果における順位に影響を与えるといった説は、事実ではない。

記事が短かったとしても、長い記事と同様の情報を提供しているのであれば、検索者に対し同程度の価値を提供していると、Googleは認識する。

ミュラー氏が言うように、とあるページが他のページよりもコンテンツの単語数が多い、といった理由で順位をつけることは、まったく意味をなさない。

我々は、単語数をランキングに使用していない。もしそれが、ライターがより良い記事を書けるようになるものであれば、あなた自身のガイドラインとして、単語数を使用するのは問題ないだろう。

15.オリジナルのページタイトルは、今でも、ランキングに使用されている

Googleは、検索結果で表示されるページタイトルを生成する方法をアップデートしたが、オリジナルのタイトルの重要性が以前よりも低下していないことを、ミュラー氏は認めている

十分に練られたページタイトルは、Googleが検索結果で書き換えたとしても、検索結果のランキングに使用される。

将来的にどのようになるかはわからないが、少なくとも現時点においては、タイトルタグに書かれている内容を、我々はランキングに使用する。

Webサイトのすべてを置き換えるようなものではないが、我々は一つの要素として使用している。検索結果に表示される際、あなたが対策しているキーワードが見切れてしまったとしても、我々がそれを使用していることについては変わりはない。

16.E-A-Tはランキング要素ではない

品質評価ガイドラインでE-A-T(専門性、権威性、信頼性)が紹介された以降、E-A-Tは直接のランキング要素である、という考えが生まれた。

それは事実ではないことを、ミュラー氏は認めている。また、「E-A-Tスコア」というものがないことも、認めている。

GoogleはE-A-Tスコアを持っており、それは、5つのリンクと、これとこれと・・・、に基づいている、といったことはない。

そうではなく、我々は時間をかけてアルゴリズムを改良しようとしており、品質評価者が我々のアルゴリズムをレビューしてくれるようにしており、彼らはまさにそれを行っている。

つまり、重複する箇所はあるかもしれないが、特定の要素をSEOの要素として使用するといった、技術的な要素であるわけではないのだ。

17.検索において、唯一の決定要素は存在しない

何か特定の要素が、他の要素以上に、何かを決定するというような、単一のランキング要素は存在しない。

あるランキング要素は、特定のクエリにおいて大きな比重を占めることはある。しかし、その要素が、他のクエリではそれほど重要ではないといった場合もある。

この巨大なネットワーク内で、特定の要素が決定的な要素であると言うことはできない。また、特定のWebサイトやクエリによっては、まったく異なる役割となることもあるため、単純に、この要素は10%の役割を果たしている、と言うこともできない。

他のWebサイトやクエリでは、決定的な要素となる場合もある。しかし、これらをまとめ上げることは、非常に難しいことなのだ。

18.Hタグは強力なシグナル

見出しタグ内のテキストは、Googleに強力なシグナルを送る。そのページが何についてのページなのか、何を上位に表示させたいのか、などを伝えるものだ。

ページ上のテキストに関して言えば、見出しは強力なシグナルであり、そのページのどの部分が、このトピックについてのものであるのか、といったことを伝えるものだ。

H1タグ、H2タグ、H5タグ。それらをどのように使ってもかまわない。それほど大きな問題ではない。

それよりも、このトピックについてはこのページのここの部分である、というような、一般的なシグナルを伝えてほしい。また、このページの他の個所は別のトピックである、というようなことも伝えてほしい。

19.ドメイン内のキーワードは順位に影響しない

特定のキーワードがドメイン内に含まれているからといって、そのWebサイトが、そのキーワードで上位に表示される可能性が高くなる、といったことはない。

ドメイン内のキーワードはランキング要素ではないのだ。

あなたの会社名やブランドに関連する言葉を含めたドメインのほうが、ずっと良いだろう。

ドメインにキーワードが含まれているWebサイトである、ということが、そのキーワードにおいて他のWebサイトよりも関連性がある、といったことを意味することはない。

つまり、ドメイン内にキーワードを含める必要はない、ということだ。

メインコンテンツ

20.注力するキーワードは、可能な限り露出させる

ミュラー氏は、タイトル、見出し、小見出しなどの目立つ個所に、注力しているキーワードを含めることを強く推奨している。

そのページが何についてのページなのかを伝えたいのであれば、それらを可能な限り露出させることを勧める。

記事の最下部に一言だけ含める、といったことはやめよう。タイトル、見出し、小見出し、画像のキャプション、などを活用しよう。

こうしたことは全て、ユーザーとGoogleがあなたのページに訪れた際、そのページのトピックを明確に理解できるようにするための作業だ。

21.改善か、削除か

品質の低いコンテンツを改善するべきか、削除するべきか、という質問を受けた際、ミュラー氏は、改善するのが最善だろう、と述べている。

しかし、そうしたコンテンツを改善するつもりがないのであれば、そのまま削除すべきだろう。

自身のWebサイト、自身の名前と共に公開したいと思う、良いコンテンツであれば、そのまま残しておくべきだろう。そのコンテンツが古いということが、そのコンテンツの内容が悪いということを意味するものではない。

しかし、該当のコンテンツを読み、それが自身にとって恥ずかしいものであり、オンライン上に残しておきたくないと思うほど内容が悪いのであれば、改善するか、削除するかのどちらかを選択すべきだろう。

22.ユニークなコンテンツをアバブ・ザ・フォールドに配置する

Webページは、アバブ・ザ・フォールドに、少なくとも、いくらかのユニークコンテンツを掲載すべきだ。

異なるページ間で重複したコンテンツがあることは致し方ないが、少なくともページの上部にはユニークなコンテンツを掲載するようにしよう。

我々にとって重要なことは、アバブ・ザ・フォールドに、ある程度のユニークなコンテンツがあることだ。パナーや一般的なヒーロー画像をページの上部に掲載することは、まったく問題ではない。しかし、アバブ・ザ・フォールドのコンテンツは、そのページ固有のものであるべきだ。

23.スペルや文法の優先度は高い

ユーザー体験に直接の影響を与えるため、スペルや文法のミスをGoogleは品質における問題であると認識する。

我々はそのページが何についてのページなのかを理解しなくてはならないため、スペルや文法のミスについてはグレーゾーンであると言える。

ページ内のテキストに多くのエラーがあるため、我々がそのページの内容を認識できない場合、より大きな課題となる。

また、我々は本当に品質の高いコンテンツを発見しようとしているが、多くの文法や技術的なミスがあることが理由で、低品質なページに見えてしまうこともある。

多くの場合において、壊れたHTMLよりも、スペルや文法のミスのほうが優先度が高いかもしれない。

24.ほとんどのコンテンツは1週間以内にインデックスされる

新しいページが公開された場合、そのページがインデックスされるまでにかかる時間は、数時間から数週間の間である。

ミュラー氏は、優れたコンテンツであれば、多くの場合、1週間以内でインデックスされると考えているようだ。

25.同一のコンテンツでも、フォーマットが異なれば、重複ではない

例えば、動画とブログ記事など、異なるフォーマットで公開された同一のコンテンツは、重複コンテンツとはみなされない。

Googleは、動画で話されている内容を文字に書き起こし、それをブログ記事の文章と比較する、といったことはできない。

まず、我々は動画内のテキストを分析し、それらをWebページにマッピングする、といったことは行っていない。ブログ記事と同じ内容の動画があったとしても、それらは別物である。ユーザーは何かを読む目的でGoogleを利用するかもしれない。また、何かを視聴したり、聞いたりするためにGoogleを利用することもある。これらは、それぞれ異なるものである。

我々は、この動画のテキストはこのブログ記事と同一であるため、どちらかを表示させない、または、片方だけを表示させる、といったことをしていない。そのため、ブログ記事と同じ内容の動画があったとしても、まったく問題ないことだ。

26.コンテンツに価値があれば、多くのアフィリエイトリンクがあったとしても、問題ない

メインのコンテンツが価値を提供するものであれば、そのページに多くのアフィリエイトリンクがあったとしても、問題はない。

コンテンツの内容が有用であれば、Webサイトは1つのページに対し、自由にアフィリエイトリンクを設置することができる。

上限はない。我々からすれば、アフィリエイトリンクが悪いものであったり、問題があったりするものであると言っているわけではない。重要なことは、そのページに有益なコンテンツを掲載する必要がある、ということだ。こうした観点で我々は考えている。

Webサイト内にどの程度のアフィリエイトリンクが設置されているか、ということは全く関係がない。また、記事の長さに対するリンクの数の比率といったものも、まったく関係がない。

27.埋め込みの動画と、アップロードされた動画の価値は同じである

他のソースから埋め込まれた動画と、Webサイト上でネイティブにホストされた動画は、同一の価値である。

基本的には同一だ。例えば、動画用のCDN(content delivery network)を持つことは一般的であるが、技術的には、それらは別のWebサイトとなる。我々の観点では、ユーザーにとって上手くいく仕組みであり、コンテンツがアクセス可能で適切にインデックスされるのであれば、問題は全くない。

28.内部リンクの数が多すぎると、その価値を下げてしまう

1つのページの内部リンク数が多すぎる場合、その価値が薄れてしまうことがある。

多すぎる内部リンクは、効果があるよりも、害となる場合が多いのか?という質問に対し、ミュラー氏は次のように述べている。

Yesでもあり、Noでもある。我々は、ページの構造をより良く理解するために内部リンクを活用する。Webサイトの構造を理解しようとする際、様々なページが存在しており、その全てのページがWebサイトの他の全てのページへのリンクが設置されていたとしよう。その場合、全てのページに完全な内部リンクが設置されていることになり、そこには構造といったものが存在しなくなる。

そのため、ページランク、オーソリティ、その他のシグナルとは関係なく、Webサイトの明確な構造を提供できていない、ということになる。この場合、検索エンジンがそのWebサイト内の個々のページのコンテキストを理解することが難しくなる。以上が、この件についての私の見解である。

29.チャートにはHTMLではなく、画像を用いる

ミュラー氏が、テキストではなく、画像の使用を推奨することは珍しいが、その例が、メインコンテンツ内にチャートを掲載する場合である。

HTMLでチャートをコーディングすることによるメリットは存在しない。わかりやすいalt属性を付けた画像であれば、まったく問題ない。

そのチャートでやりたいことによって異なるが、こうした類のものは、画像を追加し、わかりやすいalt属性を付与することで問題ないだろう。

そのチャートに重要な情報が含まれているのであれば、その情報をAlt属性に記載しよう。そうすれば、我々はテキストとして認識することができ、画像を見ることができないユーザーに対しても、その情報を提供することができる。しかし、一般的に、画像を使うことで問題はないはずだ。

30.アンカーテキストはコンテキストを提供すべきだ

内部リンクは、GoogleがWebサイト内でより多くの記事を発見する手助けとなる。そのため、アンカーテキストは、リンク先のページが何についてのページなのかを伝える、コンテキストを提供すべきである。

内部リンクは、我々にコンテキストのシグナルを与えてくれるものだ。つまり、基本的には、私のWebサイトのこの個所ではこのトピックについての情報を発見できますよ、と伝えるものなのである。そして、それが、内部リンクのアンカーテキストとして、あなたが使用すべきものだ。

外部リンクにおいても、他のWebサイトへのリンクを設置するのであれば、同じことが言える。つまり、なぜユーザーはこのリンクをクリックし、そのWebサイトへ行くべきなのか、そこでどのような情報が追加で得られるのか、といった内容を提供するのである。

31.長いアンカーテキストはより多くのコンテキストをGoogleに伝える

ページ内で長いアンカーテキストを使用することは問題ではない。むしろ、役に立つこともある。

Googleは、リンク先のページについての理解のために、アンカーテキストを用いている。

アンカーテキストが長いほど、より多くのコンテキストをGoogleに伝えることができる。

その情報は、そのページのランキングの際、考慮される情報となる。

我々は、アンカーテキストの長さについて、特別なことは行っていないと思う。しかし、我々は、アンカーテキストを、個々のページに対しての追加のコンテキストを提供するための方法として使用している。

長いアンカーテキストを使用することで、我々に僅かながらもより多くの情報を提供する場合もある。ただの、異なるキーワードの集合、という場合もあるだろう。

32.Googleは皮肉を理解しない

皮肉を交えた調子でコンテンツを作成することで、読者の興味を引くことは出来るかもしれないが、Googleのポイントにはならない。

Googleのアルゴリズムは、皮肉を誤解することもあるため、重要な情報を伝えるためのコンテンツを作成する際には、使用を避けた方が良い。

皮肉を含めた表現があった場合、我々がそれを誤解したり、理解ができないといったリスクは明らかに存在する。

特に、Googleとユーザーに対し、正確なメッセージを伝えることが重要である場合は、可能な限りわかりやすい文章にするべきだろう。

例えば、医療系の情報を伝えるような場合、皮肉を含めた表現は避けた方が良いかもしれない。

エンターテインメント系の話題などの場合は、それほど大きな問題とはならないはずだ。

テクニカルSEO

33.いくつかのスキーママークアップは、組み合わせることができない

Googleのリッチリザルトは、特定の種類の構造化データのマークアップを組み合わせることができるが、それ以外のものは組み合わせることができない。

検索結果において、組み合わせることができるリッチリザルトの種類と、そうでない種類がある。例えば、レシピとレーティングの場合、1つのリッチリザルトのタイプで組み合わせることができる。

しかし、私の記憶が正しければ、FAQとハウツーの場合は1つのリッチリザルトのタイプで組み合わせることができないため、どちらか1つを選んで表示しなければならないはずだ。

34.フラットなURLの構造にメリットはない

あらゆるページがトップページから1クリックで到達できるような、人工的なフラットなURLの構造は必要ない。

URL内のスラッシュがいくつあるか、Googleがそれを考慮することはない。GoogleはURLをコンテンツの識別子として扱うのであり、Webサイトの構造を理解するための手段としては扱っていない。

人工的なフラットなディレクトリ構造にする必要はない。この観点から述べると、ユーザーが認識できるディレクトリ構造であり、ユーザーが入力出来たり、一部をコピーして貼り付けたりできるようなものであれば、問題はない。URLを書き換えたりするなどして、ユーザーからそうしたURL構造を隠す必要はない。

35.404エラーは珍しいことではない

404エラーのあるWebサイトは珍しいことではない。そのため、Googleは、404エラーをネガティブなランキング要素として扱っていない。

例え、Search ConsoleがそのWebサイトの40%のページが404であると表示したとしても、心配する必要はないだろう。

我々は、それを異常とはみなさない。品質のシグナルのようなものとして扱うことはないだろう。404エラーを我々が問題として見るのは、トップページが404エラーを返す場合だろう。この場合、そのWebサイトが本当に存在しているかどうかわからない、と我々は考えるかもしれない。

しかし、Webサイトの一部が404であっても、致し方ないことだろう。技術的な問題であり、仕様がないことだ。

36.CCTLDはジオターゲティングにおいて必須ではない

ドイツの場合では.deのような、国別コードトップレベルドメイン(CCTLD)は、その国の検索者のジオターゲティングのために絶対に必要なものではない。

いや、絶対に必要とされるものではない。

一般的に、ジオターゲティングを行う場合、2つの方法が存在する。

1つ目は、国別コードトップレベルドメインを使う方法であり、ドイツでは.deとなる。

2つ目は、ジェネリックトップレベルドメインを使用する方法であり、Search Consoleでジオターゲティングの設定を行う。

例えば、.com、.net、.info、.euなどである。

この中でどれを選んでも問題なく、あとは、ジオターゲティングをドイツに設定するだけで良い。

37.品質の課題の修正のためのテクニカルな方法はない

技術的な修正のみで、検索結果の順位を改善することは難しい。

Googleによる評価を得るためには、一定のレベルの品質が求められ、それは技術的な修正のみで達成できるものではない

Webサイトの品質は、技術的な修正で達成できるものではない。あなたのWebサイトをGoogleにもっと真剣に見てもらいたいのならば、本当に、本当に、品質の改善が必要となるのだ。

38.URLの長さは、正規化のための軽微なシグナル

URLの長さは、どちらのバージョンのURLが正規のURLであると決定するために、Googleが使用する軽微なシグナルである。

他の条件がすべて同一であれば、Googleは短いバージョンのURLを選択する可能性が高い。
非常に僅かではあるが、我々はURLの長さを正規化のために使用している。例えば、url.htm?utm=greencheeseandhamとurl.htmの場合、他の全てが同一であれば、我々はurl.htmを正規のURLとして選択するだろう。そのため、短いURLのほうがSEOにとってはより良いように思えるかもしれないが、実際は、副次的な効果に過ぎない。

39.Webサイトをリニューアルする際、URLは同一のままにする

Webサイトをリニューアルする際、URLを変更してしまうと、改良よりも害になってしまうこともある。

Webサイトに変更や改善を加える際、URLを同一のままにするようにしよう。

URLを変更する場合、Googleは新しいページとしてクロールする可能性があり、検索結果でのランキングという意味では、ゼロからのスタートとなってしまう。

Webサイトを改善する際、同時に発生する複数の事柄がある。そのため、そこで起こっているすべてを正確に把握することが難しい場合もある。

しかし、Webサイトをリニューアルする際、気をつけてほしいことは次の事項だ。

つまり、可能な限りURLを同一に保ち、URLの構造を変更させないということだ。

また、内部リンクも可能な限り同一の状態を保とう。

さらに、ページのコンテンツとレイアウトも可能な限り同一な状態を保とう。

40.構造化データは、非常に軽微なシグナルである

構造化データはそのページが何についてのページであるのかを、Googleに伝えるための手助けとなる。しかし、SEO担当者は検索結果のランキングに大きな影響があると、構造化データに頼りすぎるべきではない

何故だろうか?

なぜなら、構造化データは軽微なシグナルだからである。

そのページをどのようなキーワードで表示させたいのか、それを明確にGoogleに伝えるためには、メインコンテンツを通じて伝えるべきだ。

構造化データによるヒントのみで、どのようにして順位付けをするのだろう?構造化データは非常に軽微なシグナルである。構造化データについて心配するのではなく、よりわかりやすいコンテンツを作成するようにしよう。

41.1つのページに複数のH1タグを使用しても、問題ではない

GoogleはH1タグの使用を1回のみにすることを推奨しているのだろうか?いや、そんなことはない。

パブリッシャーは、自由にH1タグの使用回数を決めることができる。

1つのページに対し、H1タグは何度使用してもかまわない。制限はなく、上限や加減も存在しない。

H1タグが1つであれ、5つであれ、そのWebサイトの順位においては、まったく問題がない。

42.ゲスト記事におけるNofollowリンク

他のWebサイトにゲスト投稿する際、自身のWebサイトへのバックリンクも設置するのであれば、そのリンクにはnofollowタグを設置する必要がある。

これは、他のWebサイトからのゲスト記事を自身のWebサイトに掲載し、そのWebサイトへのバックリンクを設置する際も同様だ。

Googleは、ゲスト記事を、そのWebサイトのプロモーションとみなすため、そのコンテンツ内のリンクを自然なリンクとはみなさない。

それゆえ、リンクスキームへの関与をGoogleに疑われることを防ぐために、nofollowタグを設置すべきだ

問題となる箇所は、リンクについてである。コンテンツやリンクを提供しているのであれば、それらのリンクはシグナルを渡すべきではなく、rel-sponsoredやrel-nofollowを付与すべきだろう。より広範囲のオーディエンスにリーチするための手段として考えることは、問題ない。

基本的に、そこに設置されているリンクが「自然な」リンクであっても、ゲスト記事内にリンクがある場合は、nofollowを付与すべきだ。

これは、まったくもって、新しいことではない。これについての手動アクションについて、新しい計画を練る必要もない。こうしたことを、我々はアルゴリズムによって把握することができている。

43.Googleのおススメの構造化データはJSON-LD

Webサイトにマークアップする構造化データには、主に2つの種類がある。

1つはJSON-LDであり、もう1つはmicrodataだ。

Googleはそのどちらもサポートしているが、おススメはJSON-LDである。

現在、我々はJSON-LDを好んでいる。新しい構造化データの多くが、JSON-LDを支持しているように思う。そのため、我々もJSON-LDを好んでいるのだ。

44.キーワードリッチなメタタイトルはGoogleのガイドラインに違反していない

Googleは推奨してはいないが、ページのメタタイトルにキーワードを詰め込むことは、検索エンジンのガイドラインに違反しているわけではない。

かつては、このような施策はキーワードスタッフィングとみなされ、検索結果の順位の下落を招く、という考えがあった。

ミュラー氏によると、それは事実ではないようだ。

ウェブマスターガイドラインに違反しているわけではなく、問題を引き起こすようなものでもない。我々が関連性を少しばかり良く理解することができるため、より適切なタイトルが設定されれば、ものごとが改善されるかもしれない、といった程度だろう。

タイトルにおける最大の改善点は、ユーザーが実際に探しているものと合致するタイトルを作成することだろう。そうすれば、「これは私が探していたものと完全に一致する」とユーザーが思うため、検索結果で実際にクリックされやすくなるのではと思う。

SEO全般

45.SEOは廃れることはない

ミュラー氏は、SEOが廃れてしまうほど、検索エンジンが進歩することはないと考えているようだ。

Googleが機械学習を駆使し、SEOがなくても良いコンテンツが上位に表示されるようになるのではないか、という懸念は、彼のこの言葉により払拭されている。

機械学習を駆使し、Googleのアルゴリズムが進化し、あらゆるWebサイトを自動的に理解するようになり、その結果、SEOが廃れて誰も必要としなくなると、多くの人が懸念していると思う。しかし、そういったことは実際には起きないだろうと私は考えている。

46.SEOを副業にする最適な時期

ページエクスペリエンスアップデートがローンチされた今、Webサイトの最適化を行う正しい時期であると、ミュラー氏は述べている。

Webサイトを手助けできる優秀なコンサルタントは、多くの対価を得られるだろう。もし、あなたがこうした仕事を好み、CDN、プラグイン、フレームワークのセットアップなどを習得しているのであれば、自身のスキルを磨き、高い報酬を得る最適な時期であるはずだ。

47.SEOの解決策がない場合もある

Webサイトの順位を上げるための解決策が、SEOではない場合もある。ミュラー氏は、下記のように述べている。

SEOの解決策がない場合もある、ということは覚えておいてもらいたい。6年間は長い時間であるし、Webも、Google Newsも、その他のあらゆることも大きく進化している。

技術的な問題でない場合も、リンクを大量に購入するだけでは解決しない場合も、Webサイトの戦略が時代遅れであるという場合も、全て考えられる。

48.Googleはモバイル版のページをデフォルトでインデックスする

モバイル・ファースト・インデックスへの移行は、Googleが、デスクトップ版ではなく、モバイル版のページをデフォルトでインデックスすることを意味している。

別々のURLのWebサイトの場合は、m-dotのバージョンがインデックスされるようになる。

モバイル・ファースト・インデックスへの移行は、デスクトップ版ではなく、モバイル版のページを我々がインデックスに用いるということだ。多くのWebサイトで、この変更はすでに発生している。すでにモバイル版のWebサイトがインデックスされている場合は、特に何もすることはない。

49.Google Discoverのトラフィックに依存すべきではない

Google Discoverからのリファラルトラフィックは可変する。そのため、安定した供給減としてそれに依存しないことが重要である。

Discoverは特定のクエリとは結び付かないものである。どれほどのユーザーがこのトピックに興味があるのか、どこで表示される可能性があるのか、などはわからないため、Google Discoverに期待すべきことを述べるのは非常に難しい。

Google Discoverでの多くのビジビリティを獲得できたのであれば、それは素晴らしいことだ。ただし、それはすぐに変化してしまうものだということを認識することが重要だろう。

50.「デジタルPR」でリンクを獲得する

デジタルPRによってリンクを構築することを、ミュラー氏は肯定的に見ている。スパムではないことも明言している。実際、テクニカルSEOと同程度に重要である可能性もある。

デジタルPRの取り組みは好意的に見ている。それが、スパム的な手法のリンクビルディングと同じように見られることは残念である。おそらく、多くの場合において、テクニカルSEO以上に重要かもしれない。

51.モバイルとデスクトップのランキングは、その状況によって、パーソナライズされる

モバイルからの検索か、デスクトップからの検索かによって、個々のユーザーのニーズが異なる検索もあり、これはランキングにも影響する

デスクトップとモバイルのランキングが異なるのは、普通のことである。

スピードが要因であるかもしれないし、モバイルフレンドリーが要因であるかもしれない。

また、検索結果に表示される様々な要素が要因であることもある。

例えば、モバイルで検索している場合、ローカルの情報をより求めることだろう。なぜなら、あなたは外出中であるからだ。

一方、デスクトップで検索している場合は、検索結果画面に画像や動画が表示されることが求められるだろう。そのため、我々は、異なる検索結果のタイプを組み合わせて表示させる傾向があるのだ。

こうした理由により、モバイルとデスクトップでは、個々のページにおいて、順位やビジビリティが異なることもある。

これは正常な状態であり、我々のランキングの仕組みの一部である。コンテンツのインデックスに関わるテクニカルな側面と結び付けて考えることではない。

52.シンジケーションはランキングに影響を与えうる

他のWebサイトでのコンテンツの再公開やシンジケーションによって、ターゲットキーワードであなたのWebサイトが表示される可能性を低くしてしまうこともある。

シンジケーションや再公開は悪いアイデアである、とミュラー氏は述べている。

コンテンツを再公開する場合、それは重複コンテンツとなる。多くのオーディエンスにリーチすることが目的である場合は、問題はないだろう。しかし、特定のクエリであなたのWebサイトだけを上位表示させることが目的である場合は、シンジケーションと再公開は悪いアイデアである。目標を設定し、その目標を達成する手助けとなる方法を選択しよう。

53.検索は科学ではない

上位表示を達成するために全てのWebサイトが同じステップを踏む必要がある、といった意味では、検索は厳密な科学ではない

Googleで上位表示を達成するためには、複数の方法が存在する。あらゆるWebサイトが同じ設計図に従う必要はない。

どのページがどのクエリでランキングされるべきか、といった意味で、絶対的な真理は存在しないということを覚えておいてほしい。

つまり、あらゆるWebサイトが同じことをする必要があるわけではなく、上位表示を達成するためには複数の方法が存在し、たった1つのランキング要素に盲目的に従うことはないのである。

54.コア・アップデートはGoogle Discoverにも影響する

Googleがロールアウトするコア・アップデートは、Google Discoverで表示されるコンテンツにも影響する。

コア・アップデートがローンチされた後にトラフィックが増減した場合、検索結果の順位に変化がなければ、Google Discoverでの変化が要因であるかもしれない。

我々は、Web検索で使用している品質アルゴリズムと同様のものをGoogle Discoverでも使用している。Web検索でコア・アップデートが発生した場合、Google Discoverでも変化が見られることはよくある。これらは、まったく無関係なものではない。

55.Googleは全てのページをインデックスするわけではない

例え、それらを検知していたとしても、GoogleはWebサイトの全てのページをインデックスするわけではない。

20%のページがインデックスされないという状況はいたって普通のことである、とミュラー氏は述べている

インデックスに関して覚えておいて欲しいことは、Webサイトの全てをインデックスしないことは普通のことである、ということだ。

大規模なWebサイトであれ、中規模や小規模のWebサイトであれ、インデックスは変動するものである。

インデックス数は上がることもあるし、下がることもある。しかし、Webサイトの全てを100%インデックスすることはないだろう。

そのため、100ページのWebサイトの80ページがインデックスされているといった場合、なにか修正が必要な問題というわけではないだろう。

56.「サンドボックス」や「ハネムーン」と呼ばれる期間は存在しない

意図的に新しいページを検索結果に表示させないようにする、「サンドボックス」なるものは存在しない。

また、Googleは新しいコンテンツを好むという理由で、新しいページの順位を上げるといった「ハネムーン」も存在しない。

新しいページが公開されると、Googleはそれをどの順位に表示させるべきかを推測する

この推測が不正確な場合もあり、その結果、最初は上位に表示されていたが、突然、順位が下がってしまうといった状況が起こりうる。

Googleは新しいページを検索結果に表示させないようにしているという、SEOの業界でサンドボックスと呼ばれる状況である。しかし、これは事実ではない。

また、ハネムーンと呼ばれるものもある。新しいコンテンツが公開され、それをGoogleが気に入り、上位に表示させようとするものだ。

これも事実ではなく、Googleが新しいコンテンツの評価を上げたり下げたりすることはない。

ただし、我々にもわからないことであるため、仮説を立てなければならないのだ。

その仮説が正確であり、時間が経っても変わらないことはある。

しかし、仮説の順位から少し上げたり、下げたりして、落ち着くこともある。

57.トラフィックが低いからといって、品質が低いわけではない

トラフィックが低いことが、そのページの品質が低いということを意味しない。

他のページほどにトラフィックを獲得していなくとも、そのページは有益であり、高品質である可能性がある。

そのため、目指している量のトラフィックを獲得していないからといって、そのページをWebサイトから削除しないようにしよう。

トラフィックの低さが、品質の低さとほぼ関係しているWebサイトもあるが、全てのWebサイトがそうであるわけではない。

Webサイトの上位階層にあるが故、トラフィックを獲得しているページもある。そのWebサイトのテールページも同様に有益ではあるが、対象のユーザーが少ないといった場合もある。

その結果、トラフィックがあまり多くないのだ。

我々の観点からすれば、このようなWebサイトは有益であり、高品質である。

私は、トラフィックが少ないからといって、そのページを削除することはしないだろう。

まとめ

SEOにはまだまだ可変する領域が多くある。Googleのジョン・ミュラー氏は、そうした仕組みを理解することを手助けしてくれる方である。

毎週行われるライブ放送のQ&A、日々発信されるツイート、時折行われるRedditのフォーラムへの投稿、Webにおけるランダムなインサイト。それら全てを追うことはなかなか難しい。

そこに、我々の価値がある。

Search Engine Journalでは、ミュラー氏やそのほかのGoogle検索に関わるチームによる最新の動向を記事にしているため、ぜひ参照していただきたい。

改めて、こうしたまとめを見てみると、ジョン・ミュラー氏は数多くのアドバイスと発信していることがわかります。もちろん、そのすべてを丹念に記憶する必要はないと思いますが、自身のWebサイトの現状や直面している課題に合致している場合、非常に有益な情報となるはずです。情報取得ばかりに時間をかけてしまうのは本末転倒ですが、効率的に取得しながら日々の業務に活かしていければと思いました。

この記事は、Search Engine Journal に掲載された「57 SEO Insights From Google’s John Mueller」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 Googleのジョン・ミュラー氏による、57のSEOについてのアドバイスSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

ダイナミックレンダリングとSEOへの影響は?

弊社のSEOコンサルタントが愛用しているSEOツール「Botify」。
最近 日本法人(https://jp.botify.com/)が設立されました。
このたびBotify blogの記事翻訳の許可をいただきましたので今後ご紹介していきます。
サイトの規模が大きくなると、直面するのがクロールやインデックスの問題です。メインコンテンツにJavaScriptを使用しているサイトの場合、解決方法の一つとしてダイナミックレンダリングが挙げられます。しかし、現場の感覚ですとダイナミックレンダリングを導入しているサイトはまだ少数派です。そこで今回はダイナミックレンダリングを基礎から学べるbotifyの記事をご紹介します。

Googleの2018年のI/O会議で、ジョン・ミューラー氏がダイナミックレンダリングの概念を紹介しました(実際には、多くのサイトが自作のソリューションやサードパーティのソフトウェアを活用してすでにレンダリングしていましたが)。

「ダイナミックレンダリングを一言で言うと、ユーザーにはクライアント側でレンダリングされた通常のコンテンツを送り、検索エンジンにはサーバーサイドで完全にレンダリングされたコンテンツを送るという原理です」とジョンは説明しました。

そして6月30日、Bingはウェブマスターガイドラインを更新し、興味深い追加事項を発表しました。それは「Bingは、Bingbotのような特定のユーザーエージェントに対して、特に大規模なウェブサイトでは、クライアントサイドでレンダリングされたコンテンツとプリレンダリングされたコンテンツを切り替えるダイナミックレンダリングを推奨しています。」 というものでした。

GoogleとBingの両方が推奨ソリューションとして発表するほどのことであれば、SEO担当者としては、どのような状況でそれが適切なのか、どのように役立つのか、どのような影響に注意しなければならないのかを理解しなければなりません。

ダイナミックレンダリングとは何か?

    ダイナミックレンダリングは、検索エンジンには完全にレンダリングしたコンテンツを送信し、人間の訪問者にはクライアント側でレンダリングした通常のコンテンツを提供すること。
    プリレンダリングとは、検索エンジンのボットのためのものです。

ダイナミックレンダリングとは、サーチエンジンボット用のプリレンダリングです。各ページの静的なHTML(サーバー側のレンダリング)バージョンを作成し、GooglebotやBingbotなどに提供します。

これは、ユーザーエージェントの呼び出しに応じて、ページのレンダリング方法を変える技術です。ユーザーエージェントごとに、クライアントサイドでレンダリングされたコンテンツと、プリレンダリングされたコンテンツを切り替えます。

言い換えると、ダイナミックレンダリングは、クライアント側でレンダーしたコンテンツをユーザーに送信し、動的なコンテンツを静的なHTMLに変えてサーチエンジンに送信します。つまり、GoogleがJavaScriptを実行しなくてもコンテンツがクロールされて、インデックスが作成されます。

検索エンジンのボットがダイナミックレンダリングしたページにアクセスすると、ヘッドレスクロームでオンデマンドにレンダリングしたページのバージョンを取得します。

    「ヘッドレス」とは、 視覚的な表現や画面を持たないブラウザのことで、インタラクティブな画面ではなくコードで出力されることを除けば、ブラウザの基本的な技術をすべて備えています。

ダイナミックレンダリングは何のため?

    ダイナミックレンダリングは、大規模でJavaScriptを多用する、変化の激しいサイトに最適です。また、予算や技術者不足の企業にも有効です。

Googleは、「ダイナミックレンダリングは、インデックス作成可能で、JavaScriptで生成されたコンテンツが急速に変化する際に適している」と説明しています。

ダイナミックレンダリングは、検索エンジンのボットが重要なコンテンツをより多くクロールし、インデックス作成することにも役立つため(詳しくは後述します)、クロールバジェットの問題に悩むサイト – 通常、大規模ウェブサイトに最適です。

また、サーバー側のレンダリングよりも導入が容易で、人間とボットの両方にコンテンツを事前にレンダリングするよりも低コストなこともわかっています。

あなたのサイトにダイナミックレンダリングが適しているかどうか判断が難しい場合、以下の質問にひとつでも当てはまるなら、導入を検討してみてはいかがでしょうか

  • ダイナミックレンダリングの実装を検討しているウェブプロパティは、インデックス作成可能 (つまり、検索エンジンで見つけられるようにしたい)
  • 当該ウェブプロパティは、コンテンツの一部または全部の生成にJavaScriptを使用している
  • 自社ウェブサイトのコンテンツは急速に変化している(例:在庫が常に変化するEコマースサイトなど)
  • クロールバジェットの問題で悩んでいる(つまり、検索エンジンのボットが重要なコンテンツを見つけられない懸念がある)
  • エンジニアチームは、業務が多すぎて、サーバー側のレンダリングを実装できない状態
  • 予算の制約がある

GoogleとBingがダイナミックレンダリングを勧めるのはなぜ?

    GoogleやBingはJavaScriptを処理することができますが、大量に処理するには限界があります。
    ダイナミックレンダリングでは、検索エンジンのボットがレンダリングを必要とせずにコンテンツを取得できるため、これらの制限がなくなります。

Googleは次のように公言しています。

「GooglebotがJavaScriptをレンダリングできるといっても、それに頼りたくはありません。」 — Martin Splittは、ダイナミックレンダリングを実装する理由についてこう説明しています

「現状では、JavaScriptの処理が難しく、すべての検索エンジンのクローラーが正常に処理できるわけでも、すぐに処理できるわけでもありません。将来的には、この問題が修正されることを期待していますが、それまでの間は、この問題の回避策としてダイナミックレンダリングを推奨します。」— Googleダイナミックレンダリングに関するGoogleのドキュメント

ここで重要なのは、Googleにはレンダリングキューと2つのインデックス作成の波があるということです。

GoogleのHTMLクローラーはJavaScriptを処理できないため、GooglebotがJavaScriptに遭遇すると、そのページは順番待ちに入り、レンダリングリソースが利用可能になると、Googlebotがページを完全にレンダリングできるようになります。

JavaScriptに関しては、Bingも同様の制限があります。この問題に対する同社の立場を明らかにするために、最近、ウェブマスターガイドラインに以下のセクションが追加されました。

JavaScript: Bing is generally able to process JavaScript, however, there are limitations to processing JavaScript at scale while minimizing the number of HTTP requests. Bing recommends Dynamic Rendering to switch between client-side rendered and pre-rendered content for specific user agents such as Bingbot especially for large web sites.

Bingは一般的にJavaScriptを処理することができますが、HTTP要求の数を最小限に抑えながら大規模にJavaScriptを処理するには限界があります。Bingは、Bingbotのような特定のユーザーエージェントに対して、特に大規模なウェブサイトでは、クライアント側でレンダリングされたコンテンツとプリレンダリングされたコンテンツを切り替えるダイナミックレンダリングを推奨しています。

●引用元:Webmaster Guidelines – Bing Webmaster Tools

ダイナミックレンダリングソリューションを導入していれば、GooglebotやBingbotなどの検索エンジンのボットがページにアクセスしたときに、完全にレンダリングされたページが提供されるため、レンダリングの必要がありません。これで、検索エンジンがコンテンツを見逃す心配がなくなるのです。

ダイナミックレンダリングで解決できる問題とは?

JavaScriptは、ページが遅くなるだけでなく、検索エンジンが正常に、あるいは即座に処理することを困難にします。

検索エンジンがJavaScriptを処理する必要をなくすことで、スピードに関するクロールバジェットの問題と、JavaScriptを搭載したコンテンツを検索エンジンが見逃してしまうことの両方を改善することができます。

クロールバジェット問題をダイナミックレンダリングでどのように解決するのか?

ユーザーとボットの両方が、ページスピードの影響を受けます。

ユーザーにとっては、ページの読み込みが遅いとイライラしてしまい、購入に至らないでしょう。ボットにとっては、ページスピードが遅いと、多くのページをクロールすることができません。

ダイナミックレンダリングはボット専用のソリューションであるため(つまり、人間のユーザーにはクライアントサイドでレンダリングした通常のコンテンツが提供されます)、ここではボットがフルレンダリングしたページを送信することによるSEOのメリットに焦点を当てます。

大規模なサイト、特にJavaScriptを多用するサイトでは、クロールバジェットの問題に悩まされることがあります。

GoogleやBingなどの検索エンジンは時間に限りがあるため、1つのウェブサイトで一度にクロールできるページ数に上限を設けています。その上限がクロールバジェットで、サイトごとに異なります。

例えばGoogleでは、クロールレートの上限(ページの読み込み時間などの要因に影響を受ける)とクロールデマンド(ページの人気度や鮮度に影響される)を組み合わせてクロールバジェットを算出しています。

このような制限があるため、検索エンジンのボットが大規模なサイトをクロールすることが困難な場合があります。当社の調査によると、この問題により、企業のウェブサイトの全ページの約51%をGoogleが見逃していました。

検索エンジンのボットの動きを遅くするJavaScriptを加えると、クロールバジェットの問題がさらに悪化します。

ページスピードの改善がボットに与える影響を説明するために、平均遅延が1,053ミリ秒から730ミリ秒に改善され、結果としてクロール頻度が大幅に増加したウェブサイトを見てみましょう。

サイトが検索エンジンのボットに素早くページを提供すると、ボットはサイトのより多くのページをクロールすることができます。

ページ数が多いほど、またページスピードが遅いほど、Googlebotがすべてのページを巡回できる可能性は低くなり、サイトのページのうち、まったくクロールされないページや、頻繁にクロールされないページの割合が増えることになります。

また、一般に、読込み時間が500 ミリ秒未満のページだと、501 ~ 1000 ミリ秒の読込み時間のページよりもクロールが50%増加し、1,000 ミリ秒超のページよりも130%増加します。

では、ダイナミックレンダリングによって、どのようにページスピードを向上させることができるのでしょうか。

JavaScriptはウェブページの読み込みに数秒の時間を要しますが、ダイナミックレンダリングは完全にレンダリングされたページを検索エンジンのボットに送信します。ダイナミックレンダリングは、Googleボット(および他の検索エンジン)がページをより速く取得することになり、サイトのより多くのページをクロールすることができます。

つまり、より多くのページがインデックスに登録され、ランキングに掲載され、トラフィックや収益につながるのです。

ダイナミックレンダリングは、JavaScriptを使用したコンテンツのインデックス作成にどのように役立つのでしょうか?

検索エンジンがJavaScriptで読み込まれたコンテンツをブラウザで確認するためには、レンダリングする必要があります。大規模なウェブページをレンダリングするには、多くの時間と演算リソースが必要なため、検索エンジンボットは、リソースが確保できるまでJavaScriptのレンダリングを延期します。

あなたの所有しているJavaScriptを搭載したコンテンツと、検索エンジンがレンダリングしたJavaScriptを搭載したコンテンツは、必ずしも同じではありません。これは、Botifyがレンダーバジェットと呼ぶものが原因です。

レンダーバジェットは、クロールバジェットと同様に、ウェブサイトのコンテンツが頻繁に変更される場合(在庫が常に変動するEコマースサイトや、毎日何百もの新しい記事が掲載されるメディアサイトなど)には、その間にページの詳細が見落とされる可能性があります。

実例をご紹介します。このサイトでは、JavaScriptフレームワーク(サーバー側のレンダリングではない)に切り替えたところ、すぐにオーガニック検索のトラフィックが大幅に減少しました。

しかし、コンテンツのレンダリングの負担を検索エンジンから取り除くことができれば、それは問題ではなくなります。

ダイナミックレンダリングでは、検索エンジンのボットが完全にレンダリングされたページを取得するため、JavaScriptで読み込まれたコンテンツやリンクを見逃す心配がありません。

リソース不足を解消するダイナミックレンダリング

    開発チームはユーザー重視のプロジェクトを優先するので、ボットのための改良はロードマップに載らないかもしれません。
    ダイナミックレンダリングは、ボットが望むものを提供するための、より簡単でリソースを必要としない方法です。

ボットの改善を行う上での最大の障壁は、ほとんどのエンジニアリングチームや開発チームがユーザーに焦点を当てているため、UXの問題解決やプロジェクトを優先してしまうことです。

例えば、ページスピードの最適化が彼らの目に留まったとしても、それを実行するには非常に多くのリソースと複雑な作業が必要になります。

どれくらいのリソースが必要なのでしょうか?前述の平均遅延を1,053ミリ秒から730ミリ秒に改善したお客様はこのプロジェクトに1年の歳月と膨大なリソースが費やしましたが、それは特別な例ではありません。

ダイナミックレンダリングは、サーバー側のレンダリングのようなオプションよりも高速で、リソースの消費も少ないため、この種の最適化を実際に実行するのがはるかに容易であるという点で、優れたソリューションです。

ダイナミックレンダリングはクローキングか?

Googleによると、ダイナミックレンダリングはクローキングではありません。

Googleはクローキングを「人間のユーザーと検索エンジンに、異なるコンテンツやURLを提示する行為」と説明しています。

ダイナミックレンダリングの定義に似ていると思われるかもしれません。それでこの件で迷いが生じると言うのも、当然理解できます。

その違いを理解するには、こんな方法があります。

  • クローキングとは、ユーザーと検索エンジンの一方または両方を欺く目的で、異なるコンテンツを送信するプロセスのことです。
  • ダイナミックレンダリングとは、 ボット用にコンテンツを事前にレンダリングする目的で、ユーザーと検索エンジンに異なるコンテンツを送信するプロセスのことです。

Googleが最初にクローキングを取り上げたのは、クローキングが主に検索エンジンを騙し、検索結果でのページの順位を人為的に上げるために使われていた初期の頃でした。

例えば、ユーザーエージェントが検索エンジンの時だけ、ページにキーワードを詰め込むクローキングが使われていました。人間の訪問者がそのページをリクエストすると、人間に読めて、キーワードが入っていないバージョンを受け取ることになります。

言い換えれば、ダイナミックレンダリングを使ってクローキングすることは可能ですが(これは悪いことで、絶対にやってはいけません!)、すべてのダイナミックレンダリングがクローキングではありません。

ダイナミックレンダリングを使用する場合は、検索エンジンに送信するページとユーザーに送信するページの違いを最小限に抑えるようにしてください。

ダイナミックレンダリングは、人間訪問者のエクスペリエンスを向上させる?

ダイナミックレンダリングは、完全にレンダリングされたコンテンツを、ユーザーではなく、検索エンジンやその他のボットに提供します。

サーバー側のレンダリングだけを使って、ユーザーとボットのスピードを向上させればいいのでは?

    サーバー側のレンダリングは、経済的にもエンジニアリングチームの時間的にも難しい場合が多い。

サーバーサイドのレンダリングは、意味のあるコンテンツがすべてウェブサイトのサーバー上でレンダリングされるため、多くの人に好まれるオプションです。

ユーザーとボットの両方が、追加リソースを要求することなく、完全にページをロードすることができます。これは、人間の訪問者と検索エンジンのボットの両方からページをレンダリングする負担を取り除き、ウェブサイトのサーバーに配置するものです。

では、なぜ誰もがJavaScriptのページをサーバー側のレンダリングしないのでしょうか?なぜなら膨大な時間とリソースを必要とするからです。
サーバーサイドのレンダリングとは異なり、ダイナミックレンダリングはかなり良いターンキーソリューションになり得ます。これにより、エンジニアリングチームの時間を最小限にし、検索エンジンのボットが求めるものを提供することができます。

また、サーバーサイドのレンダリングに比べて、ダイナミックレンダリングの方が低コストです。それは、人間の訪問者とボットの両方に向けてコンテンツのプリレンダリング費用が掛かるのではなく、ボット用にプリレンダリング費用が掛かるだけだからです。

ニュースサイトのようにJavaScriptを多用し、サイトの規模が大きくなり続ける場合は、いずれクロールやインデックスの問題に直面します。
問題が起きる前にダイナミックレンダリングの導入を検討してみてはいかがでしょうか

この記事は、botifyに掲載された「What Is Dynamic Rendering & How Does It Impact SEO?」を翻訳した内容です。

投稿 ダイナミックレンダリングとSEOへの影響は?SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

36億の記事を分析した結果、エバーグリーン・コンテンツについてわかったこと

コンテンツ作成にあたり、「質が良く、ユーザーとの関連性の高いものを作る」、ということは言わずもがなの目標です。もちろん、すべてのコンテンツに当てはまるわけではありませんが、作成したコンテンツが長期間にわたってユーザーに愛され、リンクやシェアを獲得し続けることができれば、これほど喜ばしいことはありません。今回は、こうした記事を「エバーグリーン・コンテンツ」と題し、それに関連する要素を分析したBacklinkoの記事を紹介します。


エバーグリーン・コンテンツについての理解を深めるため、我々は36億の記事を分析した。

特に、エバーグリーン・コンテンツにつながる可能性が高い複数の要因(コンテンツのフォーマットやプロモーションのチャネルを含む)を特に注目した。

我々のデータパートナーであるBuzzSumoの協力を得て、特定のコンテンツがシェアされ続け、リンクを獲得し続けることについて、多くのことを学んだ。

それでは、データを見ていこう。

主要な発見についてのまとめ

1.リスト記事とハウツー記事は、エバーグリーン・コンテンツにおける、最も強力なフォーマットである。プレゼンテーションやプレスリリースは、エバーグリーン・コンテンツから最も遠い傾向にある。

2.ポッドキャストのエピソードは、時間がたっても、ほとんど共有されない。実際、リスト記事と比べ、ポッドキャストはエバーグリーン・コンテンツになる可能性が4.28倍低い。

3.Redditで多く共有されているコンテンツは、エバーグリーン・コンテンツになる可能性が高い。

4.Twitterで多くのエンゲージメントを獲得した記事が、長期間にわたってシェアやリンクを獲得するケースは非常に少ない。

5.「2020」や「2021」がタイトルに含まれている記事は、エバーグリーン・コンテンツになる傾向がある。最新の情報が含まれているコンテンツはシェアをされやすいことを意味している。

6.エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、ガイド、データドリブンの調査、業界レポートである。

7.我々が分析したパブリッシャーの中では、Social Media Examiner、Harvard Business Review、Mindfulがエバーグリーン・コンテンツを最も多く公開している傾向があった。

8.エバーグリーン・コンテンツが最も高い頻度で発生している領域は、デジタルマーケティング、健康、テクノロジーである。

9.エバーグリーン・コンテンツの発生が比較的少ない業界は、SEO、ビジネス、ファッションである。

ハウツー記事とリスト記事がエバーグリーン・コンテンツになる可能性が高い

まず、我々はコンテンツのフォーマットが、エバーグリーン・コンテンツになる可能性に与える影響について分析を開始した。

記事のトピックは、時間が経過してもユーザーの興味を引き続けるための重要な要素であることに違いはないが、コンテンツのフォーマットも重要な役割を果たしているのではと考えたのである。

その結果、下記のことが判明した。


画像タイトル:ハウツー記事とリスト記事がエバーグリーン・コンテンツになる可能性が高い
縦軸:コンテンツのフォーマット
横軸:エバーグリーン・コンテンツのスコアの中央値

上記のグラフの通り、リスト記事は、エバーグリーン・コンテンツになる可能性が(圧倒的に)最も高いフォーマットである。その次に、ハウツー記事、「何を」についての記事、「何故」についての記事、と続く。

これは、リスト記事は全体的に多くのシェア数を獲得するという、以前行った調査の結果と一致するものである。

あるコンテンツがどの程度エバーグリーン・コンテンツであるかを算出するため、BuzzSumoの「Evergreen」の指標を使用した。

この指標は、そのコンテンツが公開されてから30日後に獲得しているシェア数とリンク数を見ている。

例えば、Healthlineの下記のリスト記事のエバーグリーンの指標は非常に高い数値となっている。

healthline-relieve-stress-post-640x519.webp (640×519)

このコンテンツは、公開当初に多くのシェア数とリンク数を獲得していたが、数年間が経過した現在でもトラフィックとバズを生み出している。

全体として、エバーグリーンの指標は、異なるフォーマット間において平等に分布していないことがわかった。

重要なポイント:公開したエバーグリーン・コンテンツの量を最大化させたいと考えているパブリッシャーにとって、リスト記事とハウツー記事は最適なコンテンツフォーマットと言える。

ポッドキャストのエピソードがエバーグリーン・コンテンツにることは極めて稀である

ポッドキャストのエピソードは、概して、あまり長生きするコンテンツではないことがわかった。

podcast-episodes-very-rarely-become-evergreen-content-768x584.webp (768×584)
画像タイトル:ポッドキャストのエピソードがエバーグリーン・コンテンツにることは極めて稀である
縦軸:コンテンツのフォーマット
横軸:エバーグリーン・コンテンツのスコアの中央値

この結果は、ポッドキャストの界隈の人たちにとっては驚きではないかもしれない。もちろん、リリースから数年が経過した後でも、ユーザーに視聴されているポッドキャストのエピソードも中にはある。

しかし、多くのユーザーが使用しているポッドキャストのアプリは、新しいエピソードが表示されるよう、設計されている。

実際に、フィード自体が時系列で表示されている。これは、ポッドキャストのエピソードが、公開されてから1か月後にソーシャルでシェアされることが少ないことの理由の1つとなっている可能性がある。

また、プレゼンテーション、プレスリリース、インフォグラフィックなどのフォーマットも、公開してから早い段階で多くのシェアを獲得する傾向があることもわかっている。また、これらのフォーマットのコンテンツは、その後、徐々に消えていく傾向がある。実際に、ポッドキャストのエピソードと比べても、これら3つのフォーマットがエバーグリーン・コンテンツになる可能性はさらに低くなっている。

しかし、ポッドキャストにおいては、その人気が増しているという事実から、この調査結果を強調することは有益であったと考えている。

重要なポイント:ポッドキャストのエピソードは、公開直後にバズを生み出す傾向はある。しかし、長期間にわたってシェアとリンクを獲得するポッドキャストのエピソードの数は非常に少ない。

Redditでエンゲージメントを獲得したコンテンツは、エバーグリーン・コンテンツになる可能性が強い

次に、我々は異なるチャネルでのエンゲージメントがエバーグリーン・コンテンツに与える影響を見てみた。

具体的には、4つの人気のあるソーシャルネットワークでのシェアが、コンテンツがエバーグリーンになることへの相関関係を調べてみたのである。

この調査の結果は下記の通りとなっている。


画像タイトル:Redditでエンゲージメントを獲得したコンテンツは、エバーグリーン・コンテンツになる可能性が強い
縦軸:エバーグリーンスコアとの相関関係
横軸:ソーシャルネットワーク

我々が保持するデータセット内の記事においては、Redditで高いエンゲージメントを獲得したコンテンツは、長期間、シェアされる可能性が比較的高くなっている。

これはなぜだろうか?

他のソーシャルプラットフォームと同様に、Redditのユーザーはニュース記事、直近で公開されたコンテンツ、トレンド動画などに興味がある
実際、異なるトピックの新しいコンテンツを発見できるよう、いくつかのSubredditも存在する。

しかし、他のプラットフォームとは異なり、Redditには不朽のコンテンツに興味を持つユーザーも多いようだ
これには、数年前に公開されたエンターテインメント系の記事や動画も含まれている。

ここで、我々の保持するデータセットの中から、Redditで多くのエンゲージメントを獲得した記事を紹介しよう。

(この記事のエバーグリーンスコアは最終的に非常に高くなった。)

ニュース記事やTMZの記事とは異なり、こうした記事は、公開後数か月、数年、数十年が経過しても人々に価値があると判断される記事なのである。

実際、あなたの業界ではどのようなトピックがエバーグリーン・コンテンツになる可能性があるかを見極めるためにRedditが役に立つ可能性はある。

重要なポイント:Redditのエンゲージメントは、コンテンツがリンクやシェアを時間の経過とともに獲得する可能性と高い相関関係がある。

Twitterのシェア数とエバーグリーンスコアに相関関係は見られない

我々は、Twitterでのシェア数やリツイート数が多いコンテンツといえど、エバーグリーンスコアが高くはならないことを発見した。


画像タイトル:Twitterのシェア数とエバーグリーンスコアに相関関係は見られない
縦軸:エバーグリーンスコアとの相関関係
横軸:ソーシャルネットワーク

Twitterに親しんでいる人にとっては、驚きではないかもしれない。Twitterは「ここ」と「今」に注力しているプラットフォームなのである(実際、Twitterのタグラインは「今を見つけよう」である)。

また、Twitterで多くシェアされる記事はニュース記事である、という事実も存在する。そして、ニュース記事は、その性質上、公開後に時間が経過しても多くの興味を持たれるという記事ではない。

さらに、Pinterestのピンも、ブログ記事がエバーグリーン・コンテンツになる可能性と相関しないことがわかった。Twitterとは異なり、ピンを獲得した記事が、公開後、時間が経過してもユーザーのフィードに表示される可能性がある。

しかし、我々のデータによると、公開直後に多くのピンを獲得した記事が、長期間にわたってリンクやシェアを獲得するとは限らないようだ。

重要なポイント:Twitterでのシェア数は、コンテンツがエバーグリーンになる可能性とは、ほとんど相関しない。

タイトルに現在の年号が含まれている記事は、エバーグリーン・コンテンツになる可能性が高い

興味深いことに、タイトルに年号が含まれている記事が、エバーグリーン・コンテンツになる可能性が高いことがわかった。

一見すると、これは驚きをもった発見と思うかもしれない。特定の年代にフォーカスした記事は、時間が経過するとともにその関連性が薄れていくと思われるからである。

しかし、現在の年代に焦点をあてた記事がエバーグリーン・コンテンツになる可能性が高くなる2つの理由が存在する。

まず、最新の情報を扱ったコンテンツは、シェア数やリンク数を多く獲得できる可能性がある。そして、その効果は時間が経過したとしても、持続する。

(BuzzSumoのエバーグリーンスコアは、公開後30日が経過し、発生したエンゲージメントをカウントしていることを思い出してほしい。)

そのため、記事が最初に公開された月によるが、タイトルで記述されている年のうち、まだ数か月にわたってシェアされる可能性があるということだ。

例えば、下記は現在の年号を含む記事である。そして、エバーグリーンスコアも、比較的高い。

これは、公開された日においても、数か月後においても、価値を見出すことができる稀な種類の記事である。

次に、現在の年に焦点をあてた記事は、必ずしもその年に公開された記事であるとは限らない。

例えば、下記の記事が初めて公開されたのは2017年である。

しかし、この記事のタイトルには「2021年」が含まれている。これは、この記事が今年に更新されたことを意味している。ここでも、新しい(もしくは、更新された)記事を読者に提供することが、より多くのシェア数の獲得につながると考えられる。

興味深いことに、ブログ記事に年代を入れることの効果は、以前より強くなっているようだ。


画像タイトル:タイトルに「2020年」や「2021年」を含む記事のエバーグリーンスコアは、以前の年代よりも高くなっている。
縦軸:エバーグリーンスコア
横軸:タイトル内に含まれる年代

特に、タイトルに「2020年」や「2021年」が含まれる記事のエバーグリーンスコアの中央値は33であり、以前の年代よりも大幅に増加している。

これは、以前よりも多くのコンテンツが公開されているという事実に基づくものと思われる。ユーザーは直近の、関連性のある情報を探しだすために、ショートカット(タイトルに含まれる「2021年」という単語)を求めていると思われる。

また、2020年と2021年のコロナの影響も要因となっているかもしれない。コロナの影響による世界の変化を考えると、コロナ以前に公開されたコンテンツとの関連性をユーザーは強く感じていないと考えられる。一方、「2020年」や「2021年」と表記されたコンテンツは、関連性のあるものとして認識されるのだ。

重要なポイント:記事のタイトルやタイトルタグに現在の年号を含むことは、短期的にも長期的にも、より多くのシェア数の獲得につながる可能性がある。

エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、レポート、調査

次は、エバーグリーン・コンテンツになる可能性が高い、特定のコンテンツの種類を見ていきたい。

前述の通り、我々は最も効果的なフォーマット(リスト記事やハウツー記事など)を特定した。しかし、これらのフォーマットにおいても、数十もの異なるバリエーションが存在する。

例えば、犬種の包括的なリストは、SEOのアドバイスのリストとは完全に異なるだろう。

どちらも、リスト記事であるということは同一である。しかし、最終的な形は完全に異なるのだ。

そのため、我々は複数の人気のあるコンテンツの種類についてさらなる調査を行ったのである。そして、エバーグリーン・コンテンツをより多く作成したいと願うマーケターにとって、どの種類のコンテンツが最適であるのかを考えたのだ。

これを行うにあたり、エバーグリーン・コンテンツのタイトル内に含まれる傾向のある用語を見てみた。

この調査結果は下記の通りである。


タイトル:エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、レポート、調査
縦軸:用語
横軸:エバーグリーン・コンテンツのスコアの中央値

「ベスト」にフォーカスしたコンテンツは、エバーグリーン・コンテンツのスコアが最も高い傾向が見られた。

これは、最高の製品、アプリ、動画、ソーシャルメディアのアカウントなどを、一つの場所に集めているコンテンツがユーザーに高く評価されていることを示している。

例えば、我々が保持するデータセット内の「ベスト」記事を見てみよう。

エバーグリーン・コンテンツになる可能性が高いコンテンツの種類として、ガイド記事も挙げられる。

「ベスト」記事と同様、ガイド記事の大きな価値は、時間を節約できるところにある。しかし、最高の商品を集めるのではなく、ガイド記事では情報を集めることが必要だ。

例えば、Forbesが公開したブロックチェーンについての初心者向けのガイド記事は、公開されてから4年以上経過している現在でも、シェアやリンクを獲得している。

また、タイトルに「データ」、「レポート」、「研究」、「サイエンス」、「事実」、「リサーチ」が含まれるコンテンツは、エバーグリーン・コンテンツのスコアが比較的高いことがわかった。

これは、ユーザーはデータドリブンの情報を欲していることを意味している。下記は、我々が分析した記事の一例である。

(この記事は2018年の記事ではあるが、それでも被リンクを獲得し続けている。)

最後に、「将来」や「トレンド」についてのコンテンツは、時間の経過とともにシェアを獲得していく。これは、理にかなっていることだろう。なぜなら、人々は次に来る何かを常に探しているからである。そして、こうしたトレンドについての記事が長い展望を持っている限り、非常に長い期間にわたってエバーグリーン・コンテンツであり続けることができるのだ。

下記は、エバーグリーン・コンテンツと言えるトレンドについての記事の一例である。

重要なポイント:「ベスト」なものを集め、情報を一か所にまとめ、豊富なデータを含む記事をユーザーは欲している。

Social Media Examiner、HBR、Mindfulはエバーグリーンコンテンツを定期的に生み出している

この時点で、我々はエバーグリーン・コンテンツに関する複数の要因を分析している。次に、どのパブリッシャーがエバーグリーン・コンテンツの作成に最も寄与しているかを見てみたいと思った。

具体的には、BuzzSumoのデータベース内にある、少なくとも10,000記事を公開しているドメインを分析の対象とした。


タイトル:Social Media Examiner、HBR、Mindfulはエバーグリーンコンテンツを定期的に生み出している
縦軸:ドメイン
横軸:エバーグリーン・コンテンツのスコアの中央値

我々が調査したドメインの中では、Social Media ExaminerHBRMindfulBrain PickingsVisual Capitalistが、世界トップレベルのエバーグリーン・コンテンツを公開している。

これらのWebサイトが扱うコンテンツの種類やトピックはそれぞれ異なっているが、その中にも共通点は見られる。

まず、これらのパブリッシャーは、前述したエバーグリーン・コンテンツとの強い相関関係が見られるコンテンツのフォーマットを多用している。

Social Media Examinerは、基本的には、下記の2つのフォーマットのコンテンツのみを公開している。

HBRは、ハウツー記事に注力している。

そして、Mindfulでは、「何」や「何故」(これらはエバーグリーン・コンテンツのスコアと強く相関するフォーマットである)についての記事が多く公開されている。

2つ目は、時間が経過しても価値が出せるよう、コンテンツ自体をゼロから作成していることである。

また、本当の意味でのエバーグリーン・コンテンツになることができない記事(Social Media Examinerが公開しているコンテンツなど)は、定期的にアップデートできるコンテンツになるように設計されている。

例えば、下記のSocial Media Examinerの記事は、LinkedInのUIの変更とともに、過去の情報となってしまう可能性がある。

しかし、中核となるコンテンツと戦略が、すぐに機能しなくなることはない。つまり、この記事は今後1年から1年半の間に、簡単な手直しとスクリーンショットの更新をするだけでよいのだ。

重要なポイント:エバーグリーン・コンテンツを最も多く掲載しているパブリッシャーの特徴として、効果的なコンテンツのフォーマットへの注力、エバーグリーン・コンテンツの種類、時間が経過しても人々が興味を持ちそうなトピック、が挙げられる。

テクノロジー、マーケティング、健康についてのコンテンツが、エバーグリーン・コンテンツのスコアが最も高い

複数の業界において、どの業界が最も高い頻度でエバーグリーン・コンテンツを生み出しているのだろうか?

この問いに答えるため、我々は12の業界を分析した。そして、それぞれのエバーグリーン・コンテンツのスコアの平均値を分類したのである。

その分析結果が下記である。


タイトル:テクノロジー、マーケティング、健康についてのコンテンツが、エバーグリーン・コンテンツのスコアが最も高い
縦軸:業界とトピック
横軸:エバーグリーン・コンテンツのスコアの平均値

全体的に、デジタルマーケティング、コンテンツマーケティング、健康、エンターテインメントなどが、エバーグリーン・コンテンツのスコアが高い傾向があった。

下記は、エバーグリーン・コンテンツのスコアが非常に高い記事の一例である。

一方で、ビジネス、金融、ファッションについてのコンテンツは、エバーグリーン・コンテンツのスコアが低いという結果が出ている。

コンテンツの世界にいる人にとって見れば、驚くべき事実ではないかもしれない。Social Media Examinerについての個所でも触れたが、マーケティング関連の記事がエバーグリーン・コンテンツになる傾向はかなり高い(もしくは、少しの調整でエバーグリーン・コンテンツとすることが可能だ)。

これは、健康に関するコンテンツでも同様である。マーケティングのコンテンツと同様に、健康についてのコンテンツは、時間の経過とともに更新する必要がある。しかし、ガイドラインやアドバイスの記事については、時間が経っても価値があることが多い。

下記に、健康に関連したエバーグリーン・コンテンツの例を挙げてみよう。

一方で、金融やファッションについてのコンテンツは、その日やその週に起こったイベントや出来事にフォーカスする傾向がある。

重要なポイント:マーケティング、テクノロジー、健康、エンターテインメント系のコンテンツが、最も高い頻度でエバーグリーン・コンテンツを生み出している業界である。

結論

この記事では、エバーグリーン・コンテンツについての我々の分析をまとめてみた。公開したデータに面白さや有用性を感じていただければ何よりである。

また、今回の調査を可能にしてくれたBuzzSumoヘンリー・ウイング氏ルーズ・リネハー氏に感謝の意を示したいと思う。

そして、我々は皆様からの意見も聞きたいと思っている。

驚くべき調査結果はあっただろうか?何か質問があるだろうか?

いずれにせよ、下記のコメント欄であなたの意見を聞かせてほしい。

海外のコンテンツをベースとした分析であるため、具体的な言葉や表現を日本の現状にそのままあてはめることは難しいと感じました。しかし、着眼点や分析結果は非常に興味深いものであり、いくつかの気づきも得られたと思います。日々、数多くのコンテンツが生み出されることが当たり前となっていますが、その中でも長期間ユーザーに愛されるコンテンツを作成を心がけたいものです。

この記事は、BACKLINKO に掲載された「Here’s What We Learned About Evergreen Content」を翻訳した内容です。

投稿 36億の記事を分析した結果、エバーグリーン・コンテンツについてわかったことSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

テクニカルSEOの監査を行う方法

Webサイトの規模にかかわらず、SEOの基本は常に押さえておきたいものです。Webサイトの種類や目的によって、その影響度や工数に変化はありつつも、見るべきポイントは共通していると言えるでしょう。しかし、一口に「SEOの基本」と言っても、その内容は多岐にわたるため、抜け漏れも発生してしまうかもしれません。今回は、そうしたSEOの基本を「テクニカルSEOの監査」と銘打ったCXLの記事を紹介いたします。こうした取り組みをまだ行っていないWebサイトにとっても、定期的に行っているもののカバーしきれていない領域があるか不安なWebサイトにとっても、非常に有益な内容となっております。

SEOにおけるテクニカルな要素は、検索のパフォーマンスにとって非常に重要である。これらを理解し、維持することが、Webサイトのランキング上昇につながり、トラフィックを増加させ、売り上げの向上に寄与するのだ。テクニカルな要素を無視することは、検索結果に表示されなくなるリスクを意味する。

この記事では、Webサイトの構造上の問題を発見し、修正するためのテクニカルSEOの監査を行う方法を紹介する。コンテンツ、スピード、構造、モバイル対応などの主要なランキング要素を扱い、あなたのWebサイトがクロールされ、インデックスされる状況を目指そう。

また、オンページSEO、オフページSEOのパフォーマンスを向上させるために必要なツールと、その使用方法も紹介する。

テクニカルSEOの監査を活用し、SEOのパフォーマンスを改善する

テクニカルSEOの監査は、Webサイトの健康診断と考えてみよう。最大限の効果を引き出すために、デジタルマーケティングのキャンペーンを定期的に確認するのと同じように、テクニカルSEOの監査では、Webサイトのパフォーマンスを評価し、改善すべき点を特定する。

これらは、下記3つのカテゴリーに分類することができる。

1.技術的なエラー

パフォーマンスやSEOに悪影響を与える、Webサイトのバックエンドとフロントエンドの要素を特定しよう。技術的なエラーは、クローリングの問題、不備のあるリンク、サイトスピードの低下、重複コンテンツなどが該当する。後程、それぞれについて解説する。

2.ユーザー体験のエラー

ユーザーエクスペリエンスは、SEOの問題というよりも、デザインの問題として見られることが多い。しかし、Webサイトの構造がどのようになっているかは、SEOのパフォーマンスに影響しうるのだ。

どのページが重要であり、どのページの優先度が低いのかをより深く理解するために、Googleはページインポータンスと呼ばれるアルゴリズムを採用している。

ページインポータンスは、ページの種類、内部リンクと外部リンク、更新頻度、サイトマップなどによって決定される。しかし、ユーザーエクスペリエンスの観点からより重要なことは、ページの位置によって決定されるということである。言い換えると、そのページが、Webサイト内のどこに配置されているかということだ。

そのため、Webサイトのアーキテクチャは、テクニカルなSEO要素において非常に重要である。ユーザーがそのページを発見することが難しいほど、Googleがそのページを発見するために長い時間を要することを意味する。理想的には、可能な限り少ないクリック数で、ユーザーが発見できるようにしよう。

テクニカルSEOの監査では、これらを妨げるサイト構造やアクセシビリティの問題も対象としている。

3.ランキングの機会

テクニカルSEOとオンページSEOが融合する箇所である。Webサイトのアーキテクチャ内で重要なページの優先度を設定するのと同様、SEOの監査では、下記の方法でGoogleに対しページの重要度を伝える。

  • 同一、または、同様のキーワードをターゲットとしているコンテンツを特定し、統合する
  • 重要性を薄めてしまう重複コンテンツを削除する
  • 検索結果ページで、探しているものをユーザーが発見できるようにするため、メタデータを改善する

これらはすべて、GoogleがあなたのWebサイトをよりよく理解し、適切な検索結果に表示するよう、手助けをするためのものである。

我々が受診する健康診断と同様、テクニカルなSEOの監査は、一度行えば完了するといったものではない。Webサイトを構築したとき、デザインを変更したとき、構造を変更したときなど、定期的に実施する必要があるのだ。

簡易な監査を毎月行い、詳細な監査を四半期ごとに行う、といった頻度が目安となる。このような形で定期的に監査を行うことで、Webサイトに加えた変更がSEOのパフォーマンスにどのような影響をあたえるかを理解することが可能となる。

テクニカルSEOの監査を行う上で役立つ6つのツール

ここでは、テクニカルSEOの監査で使用するSEOツールを見ていこう。

これらのツールは無料であるが、Screaming Frogだけは例外であり、無料プランの場合、ページ数は500に限られる。

500ページ以上の大規模なWebサイトの場合、有料プランを契約すれば、年間149ドルで無制限のクロールが可能となる。

また、他の手段として、SemrushのSite Audit Tool(無料プランの場合100ページが上限)や、Ahrefs SiteのAudit toolも利用可能だ。どちらも同様の機能を有しているが、エラーや警告のフラグを立ててくれたり、技術的な問題を修正する方法を教えてくれるなどの利点がある。

1.robots.txtファイルを探し、エラーを特定するためにクロールレポートを実行する

あなたのWebサイトのページは、検索エンジンがクロールできた場合、初めてインデックスされる。そのため、クロールレポートを実行する前に、robots.txtファイルを確認しよう。ルートドメインの末尾に「robots.txt」を追加することで、見つけることができるはずだ。

https://yourdomain.com/robots.txt

robots.txtファイルは、検索エンジンのボットがあなたのWebサイトに訪れた際、最初に確認するファイルである。robots.txtファイルに書かれている「allowing」か「disallowing」によって、検索エンジンのボットは何をクロールすべきか、すべきでないかを伝える。

下記は、UnbounceのWebサイトの例である。

これを見る限り、Unbounceは、Webサイト内の特定の個所をクロールさせないよう、クローラーに要求していることがわかる。これらは、SEO目的でインデックスさせる必要のない、バックエンドのフォルダーである。

こうしたページのクロールを禁止することで、帯域幅とクロールバジェット((特定の期間内でGoogleボットがクロールし、新デックスすることができるページ数)を節約することができている。

ECサイトのような、何千ものページがある大規模なWebサイトの場合、インデックスする必要のないページへのクロールをrobots.txtによって伝えることで、Googleボットは重要なページに到達する時間を増やすことができる。

また、Unbounceのrobots.txtは、サイトマップの存在を検索エンジンに伝えている。GoogleやBingに発見してもらいたいページのすべてをサイトマップに記載することは、とても良い施策である(詳細は次のセクションで説明する)。

robots.txtの内容を確認し、プライベートなフォルダやページにクローラーが到達しないことも確認しよう。同様に、インデックスさせたいページのクロールを禁止していないか、確認すべきだ。

robots.txtの内容を変更する場合、robots.txtはWebサーバーのルートディレクトリにある(こうした作業に慣れていない場合は、開発者の助けを借りよう)。WordPressを使用しているのであれば、無料のプラグインであるYoast SEOを使用し、編集することも可能だ。Wixのような他のCMSを使用している場合は、CMSが提供しているSEOツールを使用して変更することもできる。

クロールレポートを実行し、あなたのWebサイトがインデックス可能かどうかを確認する

ボットに正しい命令を与えられていることがわかったため、次は、クロールレポートを実行し、あなたがインデックスさせたいページが防がれていないかどうかを確認しよう。

Screaming FrogにURLを入力するか、Google Search Consoleのインデックス>カバレッジにアクセスする。

これらのツールは、それぞれ異なる方法で指標を表示してくれる。

Screaming Frogは個々のURLを確認し、インデックスの状況を下記の2つのカラムで分けている。

1.Indexability:これは、該当のURLがインデックス可能か、インデックス可能でないかを示している。

2.Indexability status:これは、インデックスが可能でないURLの理由を示している。
Screaming Frog indexability check

Google Search Consoleのインデックスカバレッジレポートでは、Webサイトのすべてのページの状態が表示されている。

Google Search Console index coverage report

このレポートでは、下記4つの項目を表示している。

  • エラー:リダイレクトのエラー、リンク切れ、404ステータスコード
  • 有効(警告あり):インデックスされているが、意図的か、意図的でないか、何らかの問題があるページ
  • 有効:正常にインデックスされているページ
  • 除外:robots.txtによるブロック、リダイレクトなどの理由により、インデックスから除外されているページ

クローリングとインデックスの改善のため、リダイレクトエラーを特定し、修正する

Webサイトのすべてのページには、HTTPステータスコードが割り当てられている。それぞれのコードは、異なる機能を示している。

Screaming Frogでは、それらをStatus Codeの欄に表示している。

Screaming Frog internal checker

全てが順調であれば、あなたのWebサイトのページのほとんどがステータスコード200を返すはずだ。エラーのあるページは、3xx、4xx、5xxのステータスコードを表示する。

ここでは、SEO監査を行う際に見ることになるであろうステータスコードと、その修正方法を説明する。

3xxステータスコード

  • 301:恒久的なリダイレクト。コンテンツが新しいURLに移動しており、古いページからのSEOの値も引き継がれている。

301は、複数のリダイレクトを引き起こすリダイレクトチェーンやループでない限り、問題ない。例えば、リダイレクトAがリダイレクトB、リダイレクトCを経由してDに到達するという状況は、ユーザー体験とページスピードの低下につながる。この状況は直帰率を高め、コンバージョンにも影響するだろう。この状況を改善するためには、リダイレクトBとリダイレクトCを削除し、リダイレクトAが直接Dに向けられるよう、設定する。

Screaming Frogのレポート>リダイレクトチェーンにアクセスすれば、リダイレクトの経路をダウンロードすることができ、どの301リダイレクトを削除すべきか、特定することができる。

  • 302:一時的なリダイレクト。該当のコンテンツは、別のURLに一時的に移動している。

302は、新しいテンプレートやレイアウトを試す目的で、A/Bテストなどを行う際に便利である。しかし、302を設定して3か月以上経過している場合は、301に置き換えるべきだろう。

  • 307:送信元から送信先へのプロトコルの変更による一時的なリダイレクト

このリダイレクトは、移動が一時的なものであり、オリジナルのURLがまだ必要な際に使用されるべきだ。

4xxステータスコード

  • 403:アクセスが禁止されている。ログイン後に見られるコンテンツなどに使用される。
  • 404:リンク切れでページが存在しない場合や、ページが削除されたにもかかわらずリダイレクトされていない場合などで表示される。

リダイレクトチェーンと同様、404は優れたユーザー体験を提供しない。404ページを指している内部リンクを削除し、リダイレクトされた内部リンクで更新しよう。

  • 410:ページの永久削除。

410エラーのページをすべてチェックし、そのページが永久に削除されていること、また、301リダイレクトが必要なコンテンツがないことを確認しよう。

  • 429:短期間でのサーバーリクエストが多すぎる場合。

5xxステータスコード

5xxステータスコードのすべては、サーバーに関連するものだ。これらは、サーバーがリクエストを実行できなかったことを示している。これらには注意が必要であるが、あなたのWebサイトではなく、問題はホスティングプロバイダーやWebデベロッパーにある。

検索エンジンに重要なページを示すcanonicalタグを設定する

canonicalメタタグは、ページのコード内のセクションに表示される。

<link rel=”canonical” href=”https://www.yourdomain.com/page-abc/” />

Source code highlighting canonical tag

canonicalタグは、同一、または、類似のページがある場合、検索エンジンのボットがどのページをインデックスし、検索結果画面に表示させるかを知らせるために存在する。

例えば、ECサイトが青いパトカーのおもちゃを販売しており、「おもちゃ>くるま>青いパトカー」と「おもちゃ>パトカー>青いパトカー」のページが存在していたとする。

それぞれのページは、同一の青いパトカーのページである。唯一の違いはそのページに行くためのパンくずリンクだけである。

「マスターページ(おもちゃ>くるま)」にcanonicalタグを追加することで、このページがオリジナルのページであることを検索エンジンに知らせることができる。「おもちゃ>パトカー>青いパトカー」のページは、コピーページということになる。

canonicalタグの利用の別の例としては、URLパラメーターが追加されているページが挙げられる。

例えば、「https://www.yourdomain.com/toys」は、「https://www.yourdomain.com/toys?page=2」や「https://www.yourdomain.com/toys?price=descending」などの、フィルタリング用のページのコンテンツとほぼ同様となる。

canonicalタグがなければ、検索エンジンは各ページをそれぞれ固有のページとして扱う。この状況は、複数のページがインデックスされ、マスターページのSEOの価値が下がってしまうだけではなく、クロールバジェットの増加にもつながってしまう。

canonicalページは、追加ページ(メインページではない)のコードのセクションに直接追加することができる。また、WordPressやMagnetoのようなCMSを使用している場合は、Yoast SEOなどのプラグインを使用することで、設置のプロセスを容易にすることができる。

2.サイトのアーキテクチャとサイトマップを見直し、コンテンツをアクセス可能とする

サイトクロールを実行することで、テクニカルなエラーの大部分に対処することができる。次は、ユーザーエクスペリエンスのエラーを見ていこう。

冒頭で述べたように、数回のクリックでユーザーが目的のページにたどり着けるようにすべきだ。人間の行動にとって容易であるということは、検索エンジンのボットの行動にとっても容易であることを意味する(これもクロールバジェットの節約につながる)。

このように、Webサイトの構造は、論理的で、一貫性のあるものにすべきだ。これを実現するために、Webサイトのアーキテクチャをフラットなものとすべきだろう。

ここでは、複雑なWebサイトのアーキテクチャとシンプルな(フラットな)Webサイトのアーキテクチャの例を、Backlinkoのガイドから紹介する。

Infographic of complicated site architecture

Infographic of simple (flat) site architecture

2枚目の画像のほうが、トップページからあらゆるページに容易にたどり着けることがわかるだろう。

実例として、CXLのトップページを見てみよう。

Screenshot of CXL homepage + menu navigation

下記の3回のクリックで、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」という記事にたどり着くことができた。

  1. Home > Resources
  2. Resources > Conversion rate optimization guide
  3. Conversion rate optimization guide > How to Write Copy That Sells Like a Mofo by Joanna Wiebe

トップページに近いほど、そのページの重要性は増すことになる。それゆえ、キーワードをベースにページのグルーピングを再度行い、オーディエンスに最も近しいグループをトップページの近くに配置するようにしよう。

フラット形式のWebサイトのアーキテクチャは、URLの構造にも反映すべきだ。

例えば、「cxl.com/conversion-rate-optimization/how-to-write-copy-that-sells-like-a-mofo-by-joanna-wiebe/」にアクセスする際、URLはユーザーが通った経路を辿る。そして、パンくずリストを使うことで、どのようにしてそこにたどり着いたのかがわかり、容易に戻ることができる。

一貫したSEOの戦略を作成し、コンテンツ間の関係性を組織するために、ハブ&スポーク方式を採用する。

Portent社はこの手法を「関連するコンテンツの複数のページ(”スポーク”と呼ばれることもある)を、中心的なハブページへリンクを戻すことを含む、内部リンクの戦略」と表現している。

Hub and spoke model illustrations

我々の例では、「コンバージョン率の最適化」ガイドがハブにあたり、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」がスポークにあたる。

Webサイトのサイズにもよるが、アーキテクチャをフラット化し、ナビゲーションを刷新するためには、開発者の協力が必要となるかもしれない。しかし、関連するページへの内部リンクを追加するだけで、簡単にユーザー体験の向上が可能となる。

例えば、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」の記事の下部に、他のスポークコンテンツへのリンクが張られている。

Internal linking example (further reading)

また、特定のキーワードと関連するページを設置することで、ボディコンテンツ内でも行うことができる。

Internal linking example (contextual link)

上記画像の「optimization」は、CXLのコンバージョン率最適化ガイドへのリンクが設置されている。

Webサイトの構造を反映するためにサイトマップを作成する

WebサイトのURLは、XMLサイトマップ内のURLを合致させるべきである。XMLサイトマップは、Webサイトのクロールの案内として、robots.txt内に設置し、検索エンジンのボットに示すファイルである。

robots.txtと同様、ルートドメインの末尾に「sitemap.xml」を追加することで、XMLサイトマップを見つけることができる。

https://yourdomain.com/sitemap.xml

Webサイトのアーキテクチャを更新した場合は、XMLサイトマップも更新すべきである。WordPress、Yoast SEO、Google XML sitemapsのようなCMSでは、新しいコンテンツが作成されるたび、自動的にサイトマップが作成・更新させる。WixやSquarespaceのようなプラットフォームは、同様の機能を初めから備えている。

この作業を手動で行う場合は、XML-sitemapsで自動的にXMLサイトマップを生成し、それを自身のWebサイトの 「/」のフォルダに張り付ければよい。 しかし、こうしたファイルを扱うことに慣れている場合に限り、行うべきだろう。自信がない場合は、開発者の助けを借りよう。

サイトマップを更新した後、Google Search Consoleのインデックス>サイトマップから、サイトマップを送信しよう。

ここから、Googleはクローラビリティやインデックスにかかわる問題にフラグを立てている。

Screenshot of listed sitemap in Google Search Console

正常なサイトマップには「成功しました」というステータスが表示される。ステータスが「1件のエラー」や「取得できませんでした」と表示されている場合は、サイトマップのコンテンツに問題がある可能性がある。

robots.txtと同様、サイトマップには、検索結果に表示させたくないページを含めるべきではない。しかし、インデックスさせたいページのすべてを、Webサイト内で表示される状態と同じ状態で、サイトマップに含めるべきである。

例えば、「https://yourdomain.com/toys」というページをGoogleにインデックスさせたい場合は、HTTPSのプロトコルを含めた、そのドメインを正確にサイトマップにコピーする必要がある。「http://yourdomain.com/toys」や「/toys」では、ページがクロールされないのだ。

3.サイトスピードとモバイル対応のテストと改善

長い間、サイトスピードは検索結果のランキングに影響を与える要素である。2010年に、Googleは初めてこれを認めている。2018年に、モバイルの検索結果のランキング要素として、モバイルページのスピードを使用することになり、その影響は増している。

スピードに基づいてWebサイトのランク付けをする際、Googleは下記2つのデータポイントを見ている。

1.ページスピード:ページが読み込まれるまでにかかる時間

2.サイトスピード:ページビューのサンプルが読み込まれるまでにかかる平均の時間

Webサイトの監査を行う際、ページスピードに注目する必要がある。ページスピードが改善されれば、サイトスピードも改善されるからだ。Googleは、PageSpeed Insightsという分析ツールを提供しており、改善に非常に役立つだろう。

Google Page Speed checker

URLを入力すると、PageSpeed Insightsは0から100のスコアで評価を表示してくれる。このスコアは、Google Chromeのブラウザから収集したユーザーの実際のフィールドデータとラボデータに基づいている。また、改善点も提案してくれる。

画像、JavaScript、CSS fileの最適化、ブラウザのキャッシュなどが読み込みの遅いページの要因となりうる。幸いにも、これらは簡単に最適化することが可能だ。

Site speed opportunities from Google PageSpeed tool

  • OptimizillaSquooshを使用し、品質に影響を与えることなく、画像のサイズを縮小する。WordPressを使用している場合は、Imagify Image OptimizerTinyPNGなどのプラグインを使用しても、同様のことが行える。
  • Minifyにコードを張り付け、空白やコメントを削除し、JavaScriptやCSS filesのサイズを削減する。
  • WordPressを使用している場合は、W3 Total CacheWP Super Cacheを使い、クリックするたびにページが動的に生成されるのではなく、静的なページを作成し、検索者に表示できるようにする。WordPressを使用していない場合は、Webサイトのコード内で手動でキャッシュを有効にできる。

まずは、最も重要なページに優先度をつけることから始めよう。Google Analyticsで行動>サイトの速度と開けば、特定のページの異なるブラウザや国におけるパフォーマンス指標を表示することができる。

Site speed performance in Google Analytics

最も閲覧されているページと照らし合わせ、Webサイトを上から順番に見ていこう。

モバイル対応を確認する

2021年3月、Googleはモバイル・ファースト・インデックスをローンチした。これは、モバイル版のページをもとに、GoogleがあなたのWebサイトをインデックスすることを意味している。そのため、小さい画面でのパフォーマンスが検索結果の表示に大きな影響を与えることになったのだ。

Googleのモバイルフレンドリーテストを使用すれば、あなたのWebサイトがモバイルデバイスに最適化されているかどうかを、簡単に確認することができる。

Screenshot of Google’s Mobile-Friendly Test

レスポンシブデザインや、モバイルファーストのデザインを採用しているのであれば、大きな心配は無用だ。どちらも小さい画面で読み込まれるように設計されており、テクニカルSEOの監査の結果をもとに行った変更は、あらゆるデバイスにおけるWebサイトと検索のパフォーマンスを向上させる。

しかし、シャネル・ミュリン氏が「レスポンシブデザインがモバイル最適化を常に意味するものではない」という記事で示した通り、レスポンシブデザインは優れたユーザー体験を保証するものではない。

BrowserStackのレスポンシブツールを使えば、実際のデバイスでWebサイトをテストすることができる。

Screenshot of BrowserStack’s responsive tool

スタンドアローンのモバイルサイトも、Googleのテストに合格しなければならない。モバイル版とデスクトップ版で異なるWebサイトの場合は、両方のバージョンを監査する必要がある。

モバイルでのWebサイトのスピードを向上させる別の方法として、Accelerated Mobile Pages(AMP)が挙げられる。AMPは、Googleが支援するプロジェクトであり、HTMLよりも速く読み込めるように、余計なものを除いたバージョンのページをユーザーに提供するように設計されている。

Googleは、コードやCMSのプラグインを使用してAMPページを作成するためのチュートリアルやガイドラインを提供している。しかし、これらがあなたのWebサイトにどのような影響を与えるかについて、確認しておくことが重要だ。

すべてのAMPページは、オリジナルのページと共に存在する、新しいページである。そのため、AMPページが既存のURLのスキームにフィットするかどうかを検討する必要がある。Googleは、下記のURL構造を使用することを勧めている。

http://www.example.com/myarticle/amp

http://www.example.com/myarticle.amp.html

また、canonicalタグを使用し、マスターページを特定していることを確認しよう。これはAMPページでもかまわないが、オリジナルページのほうが好ましい。AMPページは、Webページの基本的なバージョンであるため、広告収入や深いレベルでの分析機能をもたないからである。

AMPページは、HTMLのページと同様、監査を行う必要がある。有料会員であれば、Screaming FrogはAMPページの発見と修正に役立つ機能を使用することができる。無料版でもこの機能は使えるが、ページのリストをアップロードをしなければならない。

5.重複コンテンツやキーワードの共食いを発見し、修正することで、SEOの微調整を行う

この段階では、コンテンツの監査はすでに始まっていることだろう。canoniaclタグを使用し、マスターページが類似のページ以上にSEOの価値があることを確認しよう。Webサイトのアーキテクチャをフラットにすることで、最も重要なコンテンツにアクセスすることが容易になる。ここで行うべきことは、SEOの「微調整」である。

重複コンテンツがないかを確認する

同じ情報を含むページが常に悪影響となるとは限らない。例えば、前述の青いパトカーのページは、ユーザーに関連した結果を表示するために必要なものである。

問題となるのは、検索結果で上位に表示させようとしているページと同じページがある場合である。このような場合、ページ同士が順位やクリック数を奪い合ってしまうため、それぞれの可能性を薄めてしまうことになる。

製品ページに限らず、重複コンテンツが発生する要因はいくつか考えられる。

  • 見出し、ページタイトル、メタディスクリプションを再利用し、本文が同一でないにも関わらず、同じページであるように見せてしまう
  • 過去のページやテスト目的で作成されたページの削除やリダイレクトを行っていない
  • 複数のURLを持つページでcanonicalタグを記載していない

サイトクロールは重複ページの特定に役立つ。下記の項目の重複がないか、確認しよう。

  • タイトル
  • Hタグ
  • メタディスクリプション
  • 本文

特定した後は、これらのページを削除したり、重複している要素を書き換えるなどして、それぞれのページを独自のものとする。

類似のキーワードを共食いしているコンテンツを統合する

キーワードの共食いは、重複コンテンツと同様、検索エンジンに類似のコンテンツの選択を強要するものである。

これは、Webサイト内に同じクエリでランキングされるコンテンツが複数ある場合に発生する。トピックが類似していたり、同じキーワードをターゲットにしているためである。

例えば、2つの記事を作成したとしよう。1つは「履歴書の書き方」であり「履歴書の書き方」というフレーズに最適化されている。もう1つは「履歴書 書き方 コツ」であり、「履歴書 書き方」に最適化されている。

この2つの記事は十分に似ているため、検索エンジンはどちらがより重要なページであるかを判断することが困難となる。

Googleで「site: yourdomain.com + キーワード」と検索すれば、キーワードの共食いの問題を簡単に調べることが可能だ。

あなたのWebサイトが1位と2位にランキングされているのであれば、問題ない。しかし、順位が非常に低い場合や、古い記事の順位が更新した記事の順位よりも上位である場合、それらを統合する価値はあるだろう。

  1. Search Consoleの「検索結果のパフォーマンス」のレポートを開く
  2. 「新規」>「検索キーワード」とクリックし、共食いしているキーワードを入力する
  3. 「ページ」タブの欄に、そのキーワードで最もトラフィックを獲得しているページが表示されている。これらのページが、ページの統合の対象となるページである。

Google Search Console query search

例えば、「履歴書の書き方」の場合、履歴書の書き方のアドバイスも対象にすることで、レジュメの書き方のガイドの決定版を作成することができるだろう。

これは、あらゆるページで行えるわけではない。関連性がなくなったコンテンツの削除を検討することもあるはずだ。しかし、キーワードが似ている場合、コンテンツを統合することで検索結果のランキングの向上につながることは、考えられる。

タイトルタグとメタディスクリプションを改善し、検索結果におけるクリック率を高める

タイトルタグとメタディスクリプションはランキングの要因ではないものの、Webサイトの魅力を左右することに疑いの余地はない。これらは、コンテンツを宣伝するための手段と考えることができる。

テクニカルSEOの監査を行う際、古いタイトルやディスクリプションを最適化しよう。検索結果におけるクリック率の向上で不足している箇所を補うための、理想的なタイミングである。

タイトルとディスクリプションは自然で、関連性があり、簡潔で、ターゲットキーワードを含めるようにしよう。下記はCopyhackerのコピーライティングのフォーミュラについてのガイド記事の検索結果画面の例である。

SERP result for Copyhackers copywriting formulas guide

コピーライティングのフォーミュラが有用である理由、また、それを実際に応用するための方法について、メタディスクリプションは、読者に伝えている。

SEOの観点から、タイトルは非常に強力ではあるが、ここではその一部が切り捨てられている。これは、Googleの制限である600ピクセルを超えているからであると思われる。タイトルを作成する場合は、この制限を意識しておこう。

ターゲットはタイトルの先頭近くに配置し、60文字程度に抑えよう。Mozの調査によれば、この制限を守れば、タイトルの約90%が正しく表示されるとのことである。

同様に、メタディスクリプションも155-160程度に抑え、一部が切り捨てられることのないようにしよう。

注意点は、Googleは常にメタディスクリプションを使用するわけではない、ということである。検索クエリによっては、Webサイト内のコンテンツを引用して、スニペットとして使用することもある。これは、あなたのコントロールの範囲を超えたものである。しかし、ターゲットキーワードがメタタグ内に含まれていれば、似たようなキーワードをターゲットにしている他の検索結果よりも優位に立つことができるのだ。

まとめ

テクニカルなSEOの監査を行うことで、Webサイト内のテクニカルな要素の分析の手助けとなり、検索でのパフォーマンスとユーザーエクスペリエンスを阻害する要因の改善につながる。

しかし、この記事で紹介したステップに従うだけでは、現在の問題を解決するに過ぎない。ビジネスが成長し、Webサイトが進化していく中で、Googleのアルゴリズムも変更され、リンク、サイトスピード、コンテンツなどに関する新たな問題が発生する。

そのため、テクニカルSEOの監査は、継続的な戦略の一部とすべきであり、オンページとオフページのSEOと並行して行われることが理想である。Webサイトの監査は定期的に行うものであり、もちろん、構造やデザインの更新を行う際も、監査を行うことが求められる。

ユーザーと検索エンジンに対し、高品質で関連性のあるコンテンツを提供することが、SEOの最大の目的であると言えます。目的は不変であっても、その方法や課題は、時間とともに変化していくものでしょう。Googleの新しい取り組みや、ユーザーのインテントの変化など、Webサイトとして対応すべき理由は複数存在します。そのため、この記事で述べられている通り、定期的な見直しと、見直し方法のブラッシュアップを心がけていければと思っております。

この記事は、cxl に掲載された「How to Conduct a Technical SEO Audit」を翻訳した内容です。

投稿 テクニカルSEOの監査を行う方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

大量のブログ記事を書くことなく、オーガニックトラフィックを増加させる方法

オーガニックトラフィックを増加させることは、いつの時代もSEO担当者の命題と言えるでしょう。既存のキーワードの順位を上げるための施策や、まだ上位表示されていないキーワードの発掘などは、定番の手法と言えます。しかし、今回の記事は、Webサイト自体の新しい機能を開発することでオーガニックトラフィックの増加につなげよう、という内容になります。単純に新機能を開発する、という話ではなく、ニーズの発掘や検索エンジンへの伝え方などのポイントもまとめられており、非常に興味深い内容となっています。

インハウスのSEO担当にせよ、SEOコンサルタントにせよ、オーガニックトラフィックを増加させる機会を探すことは、大きな課題と言えよう。しかし、新しいキーワードを調査し、自身のドメインの強さに合致した記事を作成するという従来の方法が、全てのWebサイトで通用するわけではない。

Quoraを例に挙げてみよう。Quoraは最大のソーシャルプラットフォームの1つである。月間アクティブユーザーは約3億人であり、Googleのインデックス数は約5,400万ページである。チーム単位で記事を作成していたとしても、あなたがこれほどの成果を上げる高品質なコンテンツを作成することは不可能だろう。

こうした方法ではなく、オーガニックトラフィックを増加させるための、拡大可能な方法を見つけなくてはならない。つまり、新しいタイプの情報や、ページテンプレートだ。言い換えると、新しい機能である。

Quoraはまさにそれを実行したのだ。2019年中頃、ユーザーが質問ではなくそのトピックに関するコンテンツを作成することを可能にした、「Spaces」と呼ばれる新しい機能をローンチした。音楽におけるジャンル、ECサイトにおけるカテゴリのように、トピックはソーシャルネットワークにおいて重要な機能である(Twitterも最近トピックを導入している)。

QuoraのSpacesは、すでに自然検索においても勢いを増している。これは、製品の機能がオーガニックトラフィックを増加させる好例と言えるだろう。実際、製品の新しい機能は、大規模なWebサイトのSEOの成長の原動力として、最も過小評価されているものだ。

この記事では、以下についての説明を行いたいと思う。

  • ユーザーのインテントを理解することが、新しい機能のアイデアにつながる
  • 候補となる機能のリストを絞り込むための、一つ一つのプロセス
  • SEOに最適な方法で新しい機能を実装するためのポイント

「インベントリー・ドリブン」なWebサイトにとって、機会が異なる理由

SEOの成長は、コンテンツ(例:ブログ)で規模を拡大するWebサイトと、インベントリー(例:映画、音楽、商品、プロフィールなど)で規模を拡大するWebサイトでは仕組みが異なる。私は後者を「インベントリー(在庫)・ドリブン)と呼んでいる。

このように、コンテンツで規模を拡大するWebサイト(コンテンツ・ドリブン)におけるSEOの機会は、多くが記事を作成するための新しいトピックやキーワードであることに対し、インベントリー・ドリブンのWebサイトでは、新しい製品の機能がSEOの機会となる。

インベントリー・ドリブンのWebサイトでは、Webサイト自体が、製品の大きな一部となる。流通経路の1つであること以上の意味を持っているのだ。ユーザーへプラットフォームを提供しているのであり、そこで、ユーザーは行動を起こし、彼らが抱える問題のソリューションを提供している。

もちろん、ある機能がSEOの価値を持つためには、その機能が公開されていなければならない。ログインの背後にあるものや、ネイティブアプリでは機能しない。また、その機能はユーザーが探し求めているニーズに応えるものでなければならない。

既存のページの品質を向上するものであれ(すでにターゲットとしているキーワードのランキング上昇に寄与するもの)、新しいページの作成に寄与するものであれ(新しいキーワードにおける上位表示獲得に寄与するもの)、需要がなければならない。

SEOに注力した製品の機能の例を見てみよう。

  • Quoraのspaces
  • Youtubeのハッシュタグ
  • Twitterのモーメント
  • Pinterestのトピック
  • OwlerのTwitterの競合分析
  • SimilarWebのデータを表示しているCrunchbase
  • AmazonのQ&A
  • Trelloのテンプレート
  • Databoxのテンプレート

これらの機能は、何千、何百万ものキーワードのランキング上昇に寄与している。

Quoraのspaces

Twitterのモーメント

いずれの機能も、既存のソリューションを拡大するものであり、検索エンジンに適した方法で伝えられ、多くのオーガニックトラフィックを発生させている。また、製品の改良にもつながっている。

Amazonを見てみよう。Googleにインデックスされる形でQ&Aをリリースしている。また、ユーザーはあらゆる種類の製品に対して質問をしたい、という明確な理由が存在している。

Q&Aのページを追加することは、Amazonをより魅力的なWebサイトにするだけでなく(質問に対する答えを得られるため)、ユーザーがGoogleで検索するかもしれない質問へも対応している。その結果、ユーザーはオフサイトの検索でAmazonのページにたどり着き、そこで商品を購入することも考えられる。

しかし、ポテンシャルのある機能が明確でない場合はどうすればよいのだろう?妄想ではなく、現実的な機能として、新しい機能のアイデアを得るためにはどうすればよいだろうか?

ユーザーのインテント+ジョブ理論=最高の組み合わせ

新しい製品の機能は、複数の方法で作成される。

  • 直感(例:スティーブ・ジョブス)
  • ブレインストーミングやハイブマインド
  • 定量調査(例:顧客は何をしているか)
  • 定性調査(顧客の意見を聞く)
  • 顧客からの要望
  • 戦略的に市場を攻略する

SEOにおいて、ユーザーのインテントを欠かすことはできない。ユーザーのインテントを満たさなければ、上位表示は叶わないのである。ユーザーのインテントは、ランキングの要素である以上に、ランキングを可能とさせるものと言える。特に、BERTのように、機械学習のテクノロジーがGoogleによるユーザーのインテントの理解を手助けするようになってからは。

ジョブ理論(Jobs-to-be-done)は経済学者のクレイトン・クリステンセンによって提唱された理論であり、あるトピックにおけるユーザーのインテントを特定し、適切な機能を定義するための優れた方法である。この場合における「ジョブ」は、ユーザーが完了しようとしている状況と関連したミクロなタスクを指す。主な目的は、新しい機能を作成するためのジョブのリストを作成することである。

ジョブ理論は5つのステップで構成されている。

  1. 注力するマーケットを特定する
  2. 顧客が完了させようとしている主要なジョブと副次的なジョブを特定する
  3. ジョブを分類する
  4. ジョブのステートメントを作成する
  5. 現在の提供状況(過剰、適切、不足)に基づいて優先度を設定する

インベントリー・ドリブンのWebサイトの多くで、ジョブ理論はペルソナの代わりとなるものだ。何百ものオーディエンスがいる場合、ペルソナの特定は困難である。そのため、ユーザーが完了しようとしているジョブ(また、その状況)に注視することがより有益となる。ジョブは、ユーザーの個性や性格とは関係がない。

Spotifyを例にして考えてみよう。

  1. 「注力市場」を、製品が価値を提供する領域を意味する、「ターゲット・トピック」に置き換えてみよう。Spotifyの場合、ターゲット・トピックは「音楽」となるだろう。なぜなら、音楽はSpotifyの主要製品だからである。
  2. ジョブを定義する。「音楽を聴く」、「友人に音楽を共有する」、「新しいジャンルを開拓する」、などである(何百、何千ものジョブが存在するかもしれない)。ターゲットとなるオーディエンスとあなたの製品との関わりをシンプルに表現しよう。
  3. 「聴く」、「共有」、「開拓」、などのグループに、ジョブを分類する。ユーザーが取るアクションについて考えてみよう。
  4. 目的語、動詞、文脈を含むジョブ・ステートメントを作成する。例えば、「飛行機で音楽を聴く」、「WhatsAppで会話しながら友人と音楽を共有する」、「仕事に行き詰まったときに新しいジャンルの音楽を探す(もちろん、そんなことはないはず!)」などである。
  5. 製品のコア・バリュー(ユーザーがその製品から得られる主要なもの)に基づいて、ジョブの優先順位をつける。自身のビジネスにおける、各ジョブの重要性について考え、顧客にとっての重要性に基づき、それらを「メインジョブ」と「サイドジョブ」に分類することである。

最終的な目的は、あなたのオーディエンスが解決しようとしている重要な問題のリストに優先度をつけることである。

Spotifyにとっての新機能は、あらゆるジャンルで最も共有されている楽曲のページや、ジャンルごとの週間チャートなどが考えられる。Spotifyは、アーティスト名、アルバム名、ジャンルページなどで、SEOの規模を拡大している。さらに拡大するためには、歌詞をあてるゲームの作成や、曲のページで歌詞を公開することなどが考えられるだろう(あくまでもアイデアではあるが)。


画像コメント:Spotifyのアーティストのページは、800,000以上のキーワードで1ページ目に表示されている。

感情的なコンテキストを軽視しない

コンテキストによってもたらされる感情的な部分は非常に重要である。殆どの場合、我々は理性的な判断ではなく、感情的な判断を行っているのだ。Googleも、ユーザーが検索する際の感情的なコンテキストを、「ニーズ」として定義し、それを注視することを推奨している。

Googleは6つのニーズを特定している。

  1. 驚き
  2. スリル
  3. 感動
  4. 教育
  5. 安心
  6. 助け

こうした感情的なコンテキストをJTBDフレームワークと統合するために、ニーズをフィルターとして使用する。それぞれが、少なくとも1つのニーズを満たすようにする。


画像のコメント:Googleによって定義された検索ニーズ

共感は、ユーザーのインテントを把握する上で非常に重要である。Googleは、このように述べている

それぞれのニーズの状態は、感情的、社会的、機能的なニーズの組み合わせによって構成されている。感情は、ニーズの状態の土台である。実のところ、意思決定は理性的なプロセスではなく、人々がどのように感じるかによって大きく左右されるものである。理性的な判断は、判断が下されたあとに、理由付けとして重ねられるものなのだ。

ここまでで、我々はプロセス全体の半分を終えたところである。

  1. JTBDのフレームワークを用いてユーザーの問題を特定する
  2. それぞれのジョブを、感情的なニーズを用い、クロスチェックする

ここからは残りのステップの説明となる。

  1. 検索ボリュームなどのSEOデータをジョブに付与する
  2. SEOフレンドリーな方法で機能を実装する

ジョブとSEO調査を組み合わせる5つの方法

ユーザーはクエリを用いて検索する。従来のSEOの分析手法では新しいキーワードの発見に注力していたが、機能をメインにする手法ではパターン(共通の構文を持つクエリ)に注力する。

構文とは、言葉の順序や配置のことである。それゆえ、クエリの構文とは、クエリのパターンがどのように構成されているかを意味する。同様の構文を持ち、自身のWebサイトがランクインしていないクエリがあれば、それらに対応する新しい機能を構築する機会となる。

ポイントは、検索ボリュームが大きいキーワードを探すことではない、ということだ。結果として大量のトラフィックをもたらすことになる、数千の検索にも応用できるような、クエリのパターンやテンプレートを見つけることなのである。

いくつかの例を挙げてみよう。

  • Youtubeのユーザーが、「[映画名] 英語 字幕」とGoogleで検索したとしよう。これは、このユーザーが英語の字幕で映画を見たいということを指し示している。Youtubeにとっては、英語の字幕を自動的に表示させる機能を開発するという機会になる。この機能を検索フレンドリーにするために、ページにトランスクリプトを記載したり、追加のコンテンツを記載する、といった方法が考えられる。
  • 例えば、「[会社名]の投資家」というパターンのクエリの検索ボリュームが大きいことを発見したとする。CrunchbaseのようなWebサイトにとっては、自社のページに(利用が可能であれば)あらゆる会社の投資家についての情報をユーザーが確認できる機能を開発する機会と言える。
  • 「[業種] レポート テンプレート」というキーワードの場合、例えばGoogleのような企業にとっては、Google Studio用に業種ごとのテンプレートを作成する機会と言える。

いずれにおいても、特定された需要への対応ができれば、より多くのトラフィックを獲得することができるだろう(もちろん、顧客もより満足するはずだ)。そのためには、従来のキーワード調査に手を加え、共通の構文を持つクエリを探し出す手法が必要とされる。

ここでは、5つの方法を紹介しよう。

共通の構文を持つクエリを発見する方法

1.競合分析

Ahrefsの「Content Gap*注」やSEMrushの「Keyword Gap」のような機能を用い、競合のWebサイトが上位表示されているが、自身のWebサイトは上位表示されていないキーワードを発見しよう。
*注:リンクが切れていたため、本文とは違うリンク先にしています。


画像コメント:Ahrefsの「Content Gap」のツール

新しいキーワードを探すように、クエリのパターンを特定すべきだが、規模と同一の構文であることを注意しよう。最も簡単な方法はロングテールのキーワードを探すことである。そのため、「単語数」を最低3つに設定しよう。

上記の例では、単語数を3以上に設定した、eBayとAmazonのキーワードの比較である。ざっと見た限りでも、「[商品名] セール中」というキーワードは、ebayは上位に表示されているが、Amazonは上位に表示されていないクエリの構文であることがわかる。

その結果、理論的に言えば、「セール中」のカテゴリーに属する商品をリストアップする機能を追加することが、Amazonにとっての機会と言える。

2.隠れた宝石

特定の構文で検索結果に表示されていても、多くのクリックを獲得するほど上位に表示されていないWebサイトもある。

こうしたクエリのユーザーのインテントに合致する程度によっては、既存のコンテンツを改善したり、新しいページを作成する可能性が考えられる。今あるものを次のレベルまで引き上げることは、実行可能な戦略であり、新しいものを作成するよりもリソースを節約できることもある。

順位追跡ツールを使用することで、こうしたキーワードを発見することができる。Ahrefsでは、あなたのWebサイトのドメイン内のキーワードで、単語数が多く、順位が低いという条件で絞り込むことができる。

  1. 検索ボックスに、あなたのWebサイトのドメインを入力する
  2. 「オーガニックキーワード」のレポートを開く
  3. 順位の低い(例:20位-40位)もので絞り込む
  4. 単語数が多い(例:5以上)もので絞り込む

上記は、企業や人材の純資産をレポートするCrunchbaseにとっての(仮説的な)新しい機会を見つけるため、Ahrefsを使用した例である。

ここからは、あなた自身でパターンを特定して欲しい。スプレッドシートにクエリのリストをエクスポートし、パターンが発見できるまで、それぞれのキーワードにカテゴリーを付与してみよう。また、フィルターのオプションにも注意しよう。単語数を引き上げる必要があるWebサイトもあれば、より少ない単語数でパターンが見つかるWebサイトもあるのだ。

3.Webサイト内部の検索

Google Analytics、AlgoliaLookerなどのツールを活用し、Webサイト内部の検索キーワードを見ることは、大きなメリットがある。ユーザーが探している機能や、機能として実現できそうな情報ニーズの発見などが、それにあたる。

Google Analyticsでサイト内検索のデータを見るための方法を記載しよう。

  1. 行動
  2. サイト内検索
  3. サイト内検索キーワード
  4. 「検索キーワード」のカラムに記載されているキーワード

前述のキーワード調査と同様、この調査の目的も、同一の構文やパターンを持つキーワードを特定することだ(Text Analyzerのようなツールは、大規模な調査における手助けとなるだろう )。

4.ツールを活用して新しいトピックを発見する

Exploding TopicsAhrefsのContent ExplorerGoogle TrendsAlexaのContent ExplorationBuzzsumoなどのツールは、Web上で人気のあるトピックを発見することに役立つ。


画像のコメント:Exploding Topicsでは、特定の期間におけるトピックのトレンドを表示してくれる


画像コメント:AlexaのContent Explorationは、公開された記事数やソーシャルメディアでのエンゲージメントの傾向を表示してくれる

これらのトピックを新機能に落とし込むことは可能ではあるが、まずは、「アイデアの種」から始めるべきだろう。つまり、あなたの製品に関連しており、ユーザーが求めているものに対する、(JTBD調査に基づいた)直感を得るのだ。


画像コメント:Buzzsumoは、入力されたトピックに基づいて、サブトピック、質問、キーワードを表示してくれる

これらのツールは、あなたのアイデアの検証や、トピックのさらなる探求などに役立つだろう。ユーザーが持つ課題やニーズを発見し、それらを新しい機能に落とし込むのだ。

5.ユーザーに尋ねる

新しい機能のための情報を得る方法として、ターゲットグループに直接尋ねることも良い方法である。ユーザーをオフィスに招きアイデアを絞り出す、ということが難しい場合は、2つの方法を採ることができる。1つはソーシャルネットワークを使う方法であり、もう1つはユーザーテスト用のプラットフォームを使う方法である。

TwitterやFacebookで「どんな新しい機能を作るべきか?」と尋ねることで、興味深い会話が発生することもある。また、ソーシャルネットワーク上でのメンションを調査し、機能に対する要望や不満を探すこともできる。これは、カスタマーサポートにも言えることだ。ユーザーからの要望や不満が定期的に発生する機能はあるだろうか?

しかし、リモートでのユーザーテストのように、より多くの情報が必要な場合もある。UserlyticsUserTestingLookbackのようなプラットフォームは、ユーザーに対する調査記録を行うことができ、それによってユーザーが望む機能を発見することにもつながるのだ。

SEOフレンドリーな方法で新しい機能を作成する方法

ここまでで、ジョブとそれに関連するクエリの構文の特定は完了した。では、どのようにして、新しいページのテンプレートや既存のページへの追加を行えば良いのだろう?それは、ユーザーのインテントによって決定される。

  • 既存のページがすでに明確なインテントをターゲットとすることができており、しかし、新しい機能がそれを薄めてしまうのであれば、そのための新しいページを作成しよう。
  • 新機能が、追加的や補完的なものであれば、それらを既存のページに統合しよう。

あらゆるケースに該当する型通りの答えはないため、あなた自身の最良の判断を下そう。新しい機能の小規模な実装を行うことで、その機能がユーザーにとってどの程度の効果があるのか、また、新しい機能が既存のキーワードに影響するのか、あなたが特定したすでに検索結果に表示されているクエリパターンに影響するのか、などをテストすることができる。

G2の例では、「無料 [ソフトウェアの名前]」のようなクエリ構文は、カテゴリページのフィルタでは解決できないことがわかった。検索フレンドリーであり、最適な答えを提供するためには、新しいページのテンプレートが必要とされた。ユーザーは、ページを訪れ、無料のソフトウェアを探すためにフィルターをクリックすることは好まなかったのである。検索した際、無料のソフトウェアだけのページにアクセスしたかったのだ。

新しいページを作成する場合、また、既存のページをアップデートする場合は、下記の項目を留意しよう。

SEOフレンドリーな機能を追加する場合のポイント

SEOフレンドリーな機能とは、情報提供、ページタイプの作成、UGCの統合、プロダクトやカテゴリーページのテンプレートの提供などが該当する。これらを作成し、公開する場合、次の3つのポイントを守ることが、多くのオーガニックトラフィックを得る上で重要となる。

1.アクセシビリティ

まず、ユーザーと検索エンジンがアクセス可能な状況にすることが必要だ。つまり、検索エンジンがコンテンツをパースするために、あらゆるスクリプトやフレームワークをレンダリングできる状況にするのだ。

ここでは、スピードモバイルフレンドリーが重要となる。Search Console、PageSpeed Insights、モバイルフレンドリーテストなどのGoogleのレンダリングツールを活用に、新しい機能をテストしよう。

Google Search Console

  1. URL検査を開く
  2. 検索フィールドにURLを入力する
  3. 「ライブテスト」をクリックする
  4. 「スクリーンショット」をクリックする
  5. 調査したURLに問題がないことを確認する

Google PageSpeed Insights

モバイルフレンドリーテスト

2.発見性

次に、これらのページは検索エンジンによって発見される必要がある。それには、内部リンクとXMLサイトマップが関係している。

新しいページがWebサイト内で孤立していないか、階層の奥深くに設置されていないかを確認しよう。新しく導入された機能をステージング環境のWebサイトに設置し、クロールの深さや内部リンクなどの指標を、ライブバージョンのWebサイト内の類似ページと比較するのだ。


画像コメント:Screaming Frogのクロール深度のレポート

適切な内部リンクの設置をせずに、数千ものページを一度に公開することは、その新しい機能の成功率を下げることだけでなく、クロールバジェットの問題にもつながる。

こうした問題を避けるための手段として、新しい機能が掲載されているページへの内部リンクが設置されている、ハブページ(多くの場合、カテゴリーページとなる)をWebサイトのトップページのモジュールに追加することが挙げられる。また、新しい機能のページ間にリンクを設置することで、下記が容易に行えるようにする。

  • Googleがそれらのページの関係性を理解する
  • ユーザーがそれらのページ間を移動できるようにする
  • 新しいページのテンプレート間における、リンクの公平性を担保する

3.関連性

3つ目に、新しい機能はユーザーのインテントや果たされるべきジョブに対応する(つまり、価値を提供する)必要がある。新しい機能でターゲットとするクエリを調査し、提供する情報や価値がユーザーが満足行くものであるかどうかを確認しよう。ユーザーやブランドへの最適化を行わず、検索に最適化しようとしても、未来は無い。

ターゲットとするクエリパターンのランキングをモニタリングするだけでなく、ユーザーの満足度の指標(これは、下記クエリのインテントによって異なる)にも注目しよう。多くの場合、ページの滞在時間、クロールの深さ、トリガーとなるクリックイベントなどが該当するはずである。可能であれば、それらの組み合わせを測定すると良い。

新しい機能の支持を得るには

小規模で動きの速いスタートアップでない限り、新しい機能の公開は、思うほど簡単では無い。開発者やデザイナーのリソースを確保し、製品チームが推進できるための適切なフォーマットで依頼するためには、説得力のある説明が求められる。

そのためには、下記の3つが役立つはずだ。

1.プロセスを知る

スクラムやアジャイルといった用語を聞いたことが無いのであれば、その時点で遅れを取っていると言える。スクラム開発に適した形とするため、新しい機能は、ユーザーストーリーに基づいて描かれなければならない。

パターンとしては、「ユーザーとして、私は〇〇を行いたい」という形が挙げられる。そして、ユーザーにとっての最終形を提示するのだ。また、開発者が、その結果につながる各パーツのチケットを作成できるようにしよう。

また、通常、開発者は2週間のスプリント作業を行い、そこでプランニングとリスク分散を行うことに注意しよう。可能であれば、その両方にあなたも立ち会い、新しい機能があなたの思い通りに構築されるかどうかを確認しよう。

2.価値を定義する

プロダクトリーダーは、リターンの見積もりを欲しがるものだ。リソースは限られているため、潜在的な影響度に従って、優先度をつけなければならない。言い換えると、「なんとなく」という理由で開発を依頼することは不十分なのである。数字で示す必要があるのだ。

幸いなことに、クエリの構文の調査で特定したクエリから、トラフィック数を算出することは比較的容易である。あなたがやるべきことは、潜在的なトラフィック数を、ビジネスに影響しうる数字(理想的には金額)に結びつけることだ。

3.小さく始める

可能であれば、最小限(MVPs:Minimum Viable Product)での公開をしよう。新機能の一部や限定の機能のみを公開するという方法だ。MVPsはインパクトの即時の証明、より多くのリソースの確保、ロードマップに対するバックアップなどを可能とする。

MVPsを採用する前に、ベンチマークとなる指標を決めておこう。成功を測定するための計画を立て、結果をドキュメント化するのだ。

結論

SEOの担当者は、高い目標を設定され、多くのプレッシャーの中、仕事をしている。SEOの担当者は、結果が出るように優先度を設定する必要があり、そうしなければ、信頼とリソースを失う可能性が出てしまう。

オーガニックトラフィックを拡大できているインベント・ドリブンなWebサイトでは、バックリンクはほとんど必要としていない。どちらかというと、テクニカルSEOの必要性のほうが高いのだ。しかし、どれほど優れたテクニカルSEOの担当者であっても、機会の90%を使い果たしてしまっていれば、その成長は鈍化してしまうだろう。こうした場合、新しいページのテンプレートや情報の種類という形式での新しい機能が鍵となる。

新機能に基づいたSEOが成功すれば、垂直方向での拡大や、新しいサービスの提供による水平方向の拡大も期待できる。SEOはプル型のチャネルであり、検索ボリュームは需要を指し示している。

そうした機会を活かす上での最大の障壁は必要となる資金を得ることであり、これを克服するためには、データ・ドリブンの事実を作ることが求められるのだ。

SEOを成功させるためには、従来のSEOの領域以上のことも行う必要があります。コンテンツやUXなどがその最たる例ではありますが、Webサイト自体の機能という観点も重要でしょう。もちろん、「純粋なSEO目的」として新機能をリリースすることは難しいと思いますが、SEOの観点を含まずに新機能をリリースすることも機会損失と言えるのでは無いでしょうか?インハウスにしろ、コンサルタントにしろ、Webサイト自体の動きに目を見張り、可能な限りSEOの分野での協力ができれば理想的だと感じました。

この記事は、cxl に掲載された「How to Scale Organic Traffic (Without Writing a Million Blog Posts)」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 大量のブログ記事を書くことなく、オーガニックトラフィックを増加させる方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

サイト移行における問題。トラフィック減少の原因として考えられる11の要因

Webサイトの移行は、どんな種類のWebサイトであれ、発生する可能性があります。多くの時間と労力が費やされることもあり、一大イベントとなることも考えられます。また、SEOという観点からもWebサイトの移行は大きなイベントであり、手順を間違えてしまうと、トラフィックの減少に繋がる可能性も十分にあります。今回は、こうしたWebサイトの移行において、SEO観点からポイントとなる項目を解説した、Search Engine Journalの記事を紹介します。

Webサイトの移行は大きな利益となることもあるが、その過程においては多くの問題が発生することも事実である。この記事では、Webサイトの移行によってトラフィックが減少しうる、11のよくある要因を紹介する。

Webサイトの移行にかかる手順は煩わしいものであるが、長期的にみれば、そのWebサイトに利益をもたらすだろう。しかし、その過程においては、多くの問題が発生する。

リダイレクトの不備、robots.txtファイルのミス、サイトマップの問題、内部リンクの破損などは、Webサイトの移行によってトラフィックが減少する要因となり得る。

Webサイトの移行後にトラフィックが減少し、その要因を特定するためには、試行錯誤が必要となる。

この記事で紹介する内容をチェックリストとして活用し、Webサイトの移行後にトラフィックが減少してしまう理由を再確認しよう。

クローラーを巡回させ、よくある課題のリストを作成することから始める

まずは、Webサイトに悪影響を与える可能性のある問題についてのリストを作成しよう。そのリストを活用し、発生した問題の検証と修正を行うのだ。

ScreamingFrogは、Webサイトをスキャンし、各ページの固有の問題を確認するための最適なツールである。

Webサイトのスキャンを実行し、どういった問題があるか、確認しよう。大規模なWebサイトの場合スキャンに時間がかかる場合もあるが、問題を発見するためには、その時間を費やす価値は十分にある。

  • リダイレクト
  • 内部リンクの破損
  • 重複コンテンツ
  • メタデータの問題
  • ブロックされたURL

私がまさにそうであるが、多くのことを手動で行いたいと思う人もいるはずだ。しかし、このツールを使用すれば、多くの時間を節約できるだろう。

スキャンしたデータを保存しておけば、下記に記載するような多くの問題をすぐに特定することができるだろう。

Webサイトの大規模な移行や再設計を行う前に、スキャンしたデータをバックアップしておくべきだ。こうすることで、移行後のデータとの比較が可能となり、何が変わったかをすぐに確認することができるはずだ。

Webサイトの再設計の前には、HTMLやレイアウトのコピーを保存し、必要に応じて見直すことができるようにしよう。

Webサイトの移行後にトラフィックが減少する原因となる11のよくある要因

Webサイトの移行後にトラフィックが減少する原因としては、以下の項目(もしくは、いくつかの組み合わせ)が考えられる。

1.Canonicalタグの変更

トラフィックが減少したり、ランキングが下降したりしたページはどこだろうか?こうしたページの内容を見て、canonicalタグを分析し、トラフィックに影響する変更があったかどうかを確認しよう。

タグにおけるよくある問題は下記の通りだ。

  • 関係性のないページを指している
  • プログラムの問題(例:末尾のスラッシュの記載がない)
  • もはや存在しない、古いURLを指している

2.robots.txtやインデックスされないコンテンツ

robots.txtのファイルや、トラフィックが減少したページを開き、そのページがインデックス可能な状況であるかどうかを確認しよう。インデックスにおける問題が、トラフィックの減少の要因となっている可能性があるからだ。

Googleはrobots.txtのテストツールを提供しており、それを活用すれば、問題の特定や修正に大きく役立つ。

詳細は「Googleのジョン・ミュラー氏による、robots.txtでブロックされたページが表示される理由の説明」(英語)の記事を参照してほしい。

3.メタデータの消失

Webサイトの移行の過程で、メタデータが消失している可能性も考えられる。データベースの移行において、カラムが1つ消失することによって、タイトルタグやメタ・ディスクリプションが失われてしまうかもしれない。

ScreamingFrogでスキャンしたデータを活用し、タイトルタグとメタ・ディスクリプションの内容が適切な状態になっていることを確認しよう。

もし、こうしたメタデータが消失しまっているのであれば、修正を行う必要がある。Googleで「site:URL.com」と検索すれば、移行前のメタデータが表示されることもある。

もしくは、移行前に作成したバックアップデータを参照することもできる。

こうした処置を行わないと、キーワードを含んだタイトルやディスクリプションを、手動で追加し直す必要が生じてしまう。Webサイトの規模にもよるが、不可能なほどの時間がかかってしまうかもしれない。

備考:データベースのスペシャリストの協力を得られたり、調査の時間を厭わないのであれば、移行前のメタデータを新しいWebサイトにインポートすることも考えられる。

4.ページスピードの低下

Webサイトの抜本的な移行や、サーバーの変更を行った場合など、ページスピードが低下してしまうことも考えられる。

トラフィックが減少したページのいくつかを確認し、ページスピードが遅くなっていないか、確認しよう。

そのためには、下記の作業が必要となるだろう。

  • CDNも移行の対象であり、適切に機能しているかを確認する
  • キャッシュシステムが適切に稼働しているかを確認する
  • スピードを向上させるためにできる、簡単な修正方法をPage Speed Insightsで確認する

また、サーバー関連の問題により、Webサイトの読み込みが遅くなることも考えられる。

5.内部リンクの確認

内部リンクは、ユーザーをWebサイトに留めておくための自然で優れた方法である。また、検索エンジンが、ページからページへと移動することにも役立つ。

ブログ記事内の内部リンクを含め、リンク先が古いWebサイトではなく、新しいWebサイトに向けられていることを確認しよう。

6.コンテンツのアクセシビリティに関わる問題

GoogleのSearch Consoleには、インデックスされている全てのページがリストアップされている。Search Consoleへログインし、「インデックス」内にある「カバレッジ」を開くことで、レポートを確認できる。

その後、「エラー」、「有効(警告あり)」、「有効」、「除外」などをクリックしよう。

このレポートで、問題のあるURLを確認することができる、また、個別のURLにカーソルを合わせ「URLを検索」をクリックすれば、詳細な状況を確認することもできる。

詳細ページの「公開URLをテスト」をクリックすれば、Googleがそのページにアクセスする際、問題となり得る可能性を特定することが可能だ。

7.リダイレクトの不備

リダイレクトは、Webサイトの移行において、不可欠な要素である。Webサイトの移行の際、301リダイレクトの処置を計画に含めていなければ、Webサイトの移行後に多くの問題を抱えることになるだろう。

検索エンジンにWebサイトの移行先が伝わらないことになってしまうため、トラフィックの減少が発生してしまう可能性がある。

ユーザーも困惑してしまうはずだ。リダイレクトに関する問題は悪夢のようなものであり、SEO担当者が最も恐れる問題の1つと言える。

ScreamingFrogでレポートを作成し、問題のあるリダイレクトの箇所を特定しよう。

そのためには、下記の手順が必要だ。

  • リダイレクトの経路を整理する
  • 連続するリダイレクトを追跡し、リダイレクトが正確であるかを確認する
  • 古いURLが新しいURLにリダイレクトされていることを確認し、301リダイレクトを使用しているページへのリンクを更新し、新しいページへのリダイレクトに置き換える

移行前の古いURLの全てをScreamingFrogにアップロードし、これらのURLをクロールし、レポートを分析することで、開始URLと遷移先のURLが正確であることを確認しよう。

また、最終のステータスコードも併せて確認しておくべきだ。

さらに、古いページには、301リダイレクトを使用すべきだ。恒久的ではない302リダイレクトは使用すべきではない。

8.外部リンクの消失

外部リンクは、依然として、検索エンジンに対する強力なシグナルである。多くの外部リンクを獲得している優れたWebサイトを構築できれば、順位状況も良いはずだ。

Webサイトの移行後、外部リンクを設置してくれているWebサイトのオーナーに連絡を取り、新しいWebサイトへのリンクに置き換えてもらうことを依頼しよう。

古いリンクに不備があったり、リダイレクトの対象ではない古いページへと遷移させてしまうと、検索結果の順位に問題が生じることもある。

こうしたリンク切れのページを、新しいWebサイトの類似のページや同一内容のページへとリダイレクトさせることも可能だ。

例えば、リンク先がsite1.com/dogsである場合、リンク切れのページをsite2.com/dogsにリダイレクトすることができる。また、リンク切れのページを、類似のページへのリダイレクトにすることも可能である。

9.プラットフォームやホスティングにおける問題

プラットフォームやサーバーの移行を行っているだろうか?変更することは良いことではあるが、下記のように、こうした変更がWebサイトのトラフィックの減少の要因となることもある。

  • ファイヤーウォールが検索エンジンのボットをブロックしている
  • 検索エンジンのボットがクロールすることが難しいJSを使用しているプラットフォーム
  • 速度やパフォーマンスの低下
  • 国による制限

プラットフォームやサーバーの移行を計画している場合(または、すでに行っている場合)、トラフィックが減少しているページを慎重に確認しよう。

ちょっとした準備をすることで、トラフィックの減少の要因となりうる、プラットフォームやホスティングの問題を避けることができるのだ。

10.画像

画像検索から多くのトラフィックを得ているだろうか?そうであれば、Webサイトの移行において、画像のURLが正しくリダイレクトされていることを確認しよう。画像のURLが下記の状態となっていることを確認すべきだ。

  • 正しい画像にリンクされている
  • 新しいドメインにリンクされている

CDNを利用している場合は、CDNの変更により、全ての画像を新しいWebサイトに移行することもできるはずだ。

CNAMEを使用して画像のURLを生成している場合は、CNAMEが新しいWebサイトやサーバーを指していることを確認しよう。

11.Googleのアップデート

Webサイトの移行とGoogleのアップデートのタイミングが重なることも考えられる。Googleのアップデートはアルゴリズムを変更するだけでなく、あなたのチームを混乱に陥れることもある。

Webサイトの移行のタイミングでGoogleのアップデートが発生し、ランキングが変動することもあるだろう。

Googleが主要なアップデートを行っていないか、確認すべきだ。あなたとあなたのチームが抱えている問題は、Webサイトの移行とは関係がないかもしれない。

トラフィックの減少からの回復と再構築

Webサイトの移行の前に、重要なデータを収集し、ベンチマークをしておくことが肝要である。Webサイトの移行前後のすべての変更を追跡できるようにしよう。

個人的には、Google Analyticsのアノテーション機能を使用し、SEOに関わる項目の変化を追跡する方法を好んでいる。

同様の方法で、エンジニアにも変更点を記録しておくことを勧めている。それにより、SEO担当者がトラフィックの減少の要因を特定することが可能となるからだ。

Webサイトの問題を解決するためには、時間と忍耐が必要となる。運が良ければ、解決方法をすぐに発見することもできるが、基本的には、SEOには長期的なアプローチが求められる。

自身のWebサイトを見て、こうした問題を確認し、必要な修正を行おう。修正が完了した後、数日から数週間待つことで、トラフィックが移行前の水準に達するかどうかを確認しよう。

移行前と比較し、トラフィックが劇的に減少しているのであれば、今回紹介したリストに沿って作業を行い、どうしても解決できないのであれば、プロフェッショナルに助けを求めよう。

そして、そこで学んだことを次回に活かし、より多くのトラフィックを獲得し、今まで以上に強力なWebサイトを構築しよう。そう、自信を持つことが重要なのだ。

SEOチームだけではなく、多くのチームを巻き込んで行われるであろうWebサイトの移行ですが、誰しもが移行後のポジティブな影響を期待しているはずです。しかし、ちょっとした不備によって移行後にトラフィックが大きく減少した、ということも十分に考えられます。SEO担当者にとっては、まさに悪夢のような出来事となりますが、こうした事態を避けるためにも、この記事で紹介された項目についてはしっかりと確認しておきたいものです。


この記事は、Search Engine Journal に掲載された「Site Migration Issues: 11 Potential Reasons Traffic Dropped」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 サイト移行における問題。トラフィック減少の原因として考えられる11の要因SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

SEOのよくある20の都市伝説

SEOにおいて、ランキングの判定要素を明確に把握することは、不可能と言えます。Webサイトの状況や時期的な要素などを含め、「効果的な施策」を日々探している方も多いでしょう。そういった状況の中、真偽の程は定かではない「効果的な施策」がさも事実であるかのように語られることは多いです。今回はそうした施策を「都市伝説」と名付け、それらを検証したSearch Engine Journalの記事を紹介いたします。

この記事では、SEOの専門家が繰り返し否定しているにも関わらず、未だに存在している20のSEOの都市伝説を紹介する。

SEOについてのアドバイスは様々だ。

実際に役に立つものもあれば、従ってしまうと道を踏み外してしまうアドバイスもある。

難しいのは、それらを見分けることだろう。

事実に基づいた正確なアドバイスと、誤って引用された記事やGoogleの声明に対する不十分な理解に基づいたアドバイスを見分けることは難しい。

それゆえ、SEOの都市伝説は未だに存在しているのだ。

こうした都市伝説を奇妙な場所で耳にすることもあるだろう。

重複コンテンツのペナルティを受けていると、自信を持って話してくれるクライアントもいるだろう。

ページタイトルを60文字以内にしなかったことで怒ってくる上司もいる。

多くの都市伝説は明らかにフェイクであるとわかる。しかし、検知することが難しい場合もある。

SEOの都市伝説の危険性

そもそもの問題は、我々は検索エンジンの仕組みを正確に把握できないということだ。

その結果、SEO担当者が行う施策は、試行錯誤や経験に基づく推測に終始してしまうことも多い。

SEOを学習している過程で耳に入った話の全てを検証することは不可能だ。

こうした状況の中、SEOの都市伝説が定着する。

気が付くと、自身のWebサイトのキャッチコピーを「BERT最適化」にすると、ラインマネージャーに誇らしげに話してしまう。

SEOの都市伝説の多くは、冷静に考えれば、すぐに打ち破れるものが多い。

具体的に、Googleはどうやって測定するのか?

実際に、エンドユーザーへのメリットは存在するのか?

SEOにおいては、「検索エンジンは全能である」と考えてしまう危険性がある。そのため、検索エンジンがWebサイトを理解し、測定する方法について、明らかに無理のある理論がまかり通るようになる。

SEOの都市伝説とは何か?

よくあるSEOの都市伝説を否定する前に、そもそもそれらがどのような形式であるかを理解しよう。

検証されていない知識

SEOの都市伝説は、検証されることなく、伝え聞いたものであることが多い。

その結果、質の高いオーガニックトラフィックの獲得に全く影響しないことが、さも重要であるかのように語られる。

些細な要素が大きな割合を占める

SEOの都市伝説の中には、オーガニックのランキングやコンバージョンに大きな影響を与えないにも関わらず、非常に重要なものとして扱われることもある。

SEOの成功に必要な要素としての「チェックボックス」の場合もあるし、競合サイトとあらゆる条件が同一の場合に限り効果を発揮するものもある。

時代遅れのアドバイス

都市伝説の中には、かつてはランキングやコンバージョンに効果があったが、現在では全く効果がないことが、真剣にアドバイスされることもある。

以前は効果的であったかもしれない。

しかし、時が経つにつれ、検索エンジンはより有能になっていく。

一般ユーザーはマーケティングされることを嫌うようになった。

単純に、かつては有益なアドバイスであったものが、現在では廃れてしまっているのである。

Googleへの誤解

多くのSEOの都市伝説は、Googleから始まる。

不幸にも、Google社員が与えた、多少曖昧で、単純ではないアドバイスが誤解されることがある。

気がつくと、Google社員が冗談で行ったコメントに基づく、新しい最適化サービスが販売されるようになる。

SEOの都市伝説は事実に基づいている場合もあるが、正確には、SEOの伝説と表現すべきかもしれない。

Googleから始まった都市伝説の場合、SEO業界の解釈によって事実が歪められ、もはや有益な情報ではなくなっている場合も多い。

都市伝説と呼ばれるようになったのは、いつからか?

自身のWebサイトで効果的でなかったからという理由で、とあるSEOのテクニックが都市伝説として他者から聞くことがある。

あらゆるWebサイトが、独自の業界、競合他社、テクノロジーなどの要素があることを忘れてはならない。

全てのWebサイトに対し同一の手法を施すとその結果も同じになる、と思うことは、甘い考えだ。

本当は効果的なテクニックであるにも関わらず、非常に競合性の高い業界で試したところ成功しなかった、といった場合も考えられる。

このテクニックが、競合性の低い業界の場合、成功しないということにはならない。

因果関係と相関関係を混同してしまう

施行された施策とオーガニックでのパフォーマンスとの関係性が不適切であることによって生まれる都市伝説もある。

SEO担当者として、自身が行った施策の効果があった場合、他のSEO担当者に同じ施策を行うべきとアドバイスすることは理解できる。

不幸にも、我々は因果関係と相関関係をしっかりと区別することがそこまで得意ではないのだ。

新しい施策を行ったタイミングでランキングやCTRの上昇が見られたとしても、その施策が理由とは限らない。

その他の要因があるかもしれないのだ。

非常に熱心なSEO担当者が、誤って信じてしまっている黄金のチケットを共有することで、SEOの都市伝説が生まれることもある。

SEOの都市伝説に惑わされないために

SEOの都市伝説を見破り、適切に行動することで、頭痛や収益の損失、また、多くの時間を節約することができる。

テスト

SEOの都市伝説に惑わされないためには、人から聞いたアドバイスは、可能な限りテストをすることが重要である。

仮に、ページのタイトルをとある方法で記載すると順位が上昇する、といったアドバイスを受けた場合、まずは1つか2つのページで試してみよう。

こうすることで、多くのページに対して実行する前に、それを行う価値があるかどうかを判断することができる。

Googleはテストをしているだけなのか?

Googleが検索結果の表示方法や順番を変えることで、SEO業界が大騒ぎすることがある。

こうした変更は、検索結果全体に適用される前に、自然な状況でテストされることがよくある。

大きな変更が一人や二人のSEO担当者によって発見され、その変更に対する最適化のアドバイスが広まってしまう。

デスクトップの検索結果にファビコンが表示されたことを覚えているだろうか?

この時、SEO業界(また、Googleの一般的なユーザー)が受けた衝撃は相当のものであった。

そして、ユーザーを惹きつけるために検索結果にファビコンを表示させることが重要である、という記事が突如として公開されたのだ。

しかし、ファビコンがクリック率に与える影響を調査する時間はほとんど無かった。

なぜなら、Googleはすぐに元に戻したからである。

Googleによる変更がTwitterで拡散され、それが最新のSEOアドバイスとなる。しかし、それらに飛びつく前に、本当に有益かどうかを確認しよう。

現在は有益なアドバイスであったとしても、Googleがその変更を元に戻してしまえば、すぐに都市伝説となってしまうかもしれない。

よくあるSEOの20個の都市伝説

SEOの都市伝説の原因と根拠について理解したところで、よくあるSEOの都市伝説の真相を探ってみよう。

1.Google Sandbox

一部のSEO担当者の間では、新しいWebサイトが適切にランキングされるようになるまで、自動的に一定期間、順位が抑制されるという考えがある。

しかし、多くのSEO担当者が、これは真実ではないと述べている。

では、正しいのは誰だろうか?

長年SEOに携わってきた者の中には、Sandboxの考えを支持したり、否定したりする根拠を示してくれる。

Sandboxに対して、Googleが与えてくれた唯一のガイダンスは、ツイートによるものだ。

前述した通り、Google社員のソーシャルメディアでの発言は、しばしば誤解を招くことがある。


画像内翻訳:
「通常、新しいWebサイトがGoogleのSandboxから解放されるまでにはどのくらいかかりますか?」
「Sandboxなど存在しません。」

判定:公式には(?)都市伝説とされている

非公式ではあるが、Googleが新しいWebサイトのページを理解し、順位付けするまでには、一定の期間が必要であるようだ。

これは、Sandboxに似ている事象かもしれない。

2.重複コンテンツによるペナルティ

非常によく耳にする都市伝説である。自身のWebサイト内で、Web上のどこかにあるコンテンツと重複しているコンテンツがある場合、Googleがペナルティを与える、という考えである。

これを理解するためには、アルゴリズムによる抑制と、手動アクションの違いを知ることが必要だ。

手動アクションは、WebページがGoogleのインデックスから削除されてしまうことであり、Google内の人の手によって行われるアクションである。

Webサイトのオーナーには、Search Console経由で、その知らせが届く。

アルゴリズムによる抑制は、アルゴリズムのフィルターに引っかかった結果、上位に表示されない状況を指す。

チュック・プライス氏は、Googleが行う様々な手動アクションをまとめた記事を執筆しており、そこでこれら2つの違いを見事に説明している。

基本的には、他のWebページから引用した文章がある場合、そのWebページが上位に表示されることは難しいかもしれない。

検索エンジンは、その文章のコピー元のホストの方が、より検索クエリに関連していると判断するかもしれないからだ。

複数の同じ文章を検索結果に表示するメリットはないため、あなたのWebページの順位が上がらないことはある。これは、ペナルティでは無い。アルゴリズムがその役割を果たしているに過ぎないのだ。

プライス氏が紹介しているように、コンテンツに関連した手動アクションはいくつか存在する。しかし、他のWebページのコンテンツを1~2ページコピーしたところで、その要因となることはない。

しかし、そのWebページのコンテンツを利用する法的な権利がなければ、別の問題が生じることもある。また、あなたのWebサイトが提供するユーザーに対する価値を損なってしまうかもしれない。

判定:SEOの都市伝説

3.PPC 広告はランキングの助けとなる

これはよくある都市伝説であり、すぐに否定することができる。

これは、ペイパークリック広告で多くのお金を費やしているWebサイトを、Googleが検索結果において優遇する、という考えである。

これは、単純に間違えである。

Googleの自然検索結果の順位を決定付けるアルゴリズムは、PPC広告の掲載場所を決定付けるアルゴリズムとは、完全に別物である。

SEOと同時期にGoogleの広告のキャンペーンを行うことで、Webサイトの利益となる場合も考えられるが、これは全く別の理由であり、直接的な恩恵をもたらすことはない。

判定:SEOの都市伝説

4.ドメインエイジはランキング要素である

この考えは、「因果関係と相関関係の混同」の問題と言える。

Webサイトが長期間運営されており、上位に表示されていることから、ドメインエイジはランキング要素である、という考えである。

Googleはこの都市伝説を何度も否定している。

事実、2019年7月に、ドメインエイジを「200個のランキング要素」の1つである、と言及するツイートに対し、Googleのウェブマスター・トレンドアナリストであるジョン・ミュラー氏が、「ドメインエイジは何の助けにもならない」という返信をしている。

ドメインエイジはランキング要素ではない
画像内翻訳:
「ドメインエイジは信頼性を向上させるだけでなく、200以上あるランキング要素のうちの1つです。」
「いいえ。ドメインエイジは何の助けにもなりません。」

この都市伝説の背景にある事実は、古いWebサイトは長い時間をかけて良いものを作ってきた、ということである。

例えば、10年間運営されているWebサイトの場合、重要となるページに、大量の関連性のあるリンクを獲得しているかもしれない。

運営期間が6ヶ月以内のWebサイトが、こうしたWebサイトに対抗することは難しいだろう。

より長く運営されているWebサイトの方が順位が良いように見えるかもしれないが、ドメインエイジが決定要素であるとは考えられない。

判定:SEOの都市伝説

5.タブ付きのコンテンツはランキングに影響する

これは古くからある考えである。

前提として、Googleはタブやアコーディオンの裏に記載されているコンテンツには、大きな価値を与えない。

例えば、ページを最初に開いた場合には表示されないテキストなどである。

Googleは、2020年3月31日にこの都市伝説を再度否定しているが、多くのSEO担当者が何年間も議論している内容である。

2018年9月、Googleのウェブマスター・トレンドアナリストであるゲイリー・イリェーシュ氏は、コンテンツを表示するためにタブを使用することについて、Twitterのスレッドで回答している。

彼の回答は以下である。

「私が知る限り、何も変更はない。そうしたコンテンツを我々はインデックスするし、ランキングにも考慮される。しかし、スニペットでは太字で表示されないかもしれない。そのコンテンツがWebサイトによってどのように表示されるかについては、もっと別の、より技術的な問題である。インデックスには上限があるのだ。」

コンテンツがHTML内に表示されている限り、ページを読み込んだ際に最初にユーザーからは見えないからという理由で、そのコンテンツの評価を下げると考える理由はない。

これはクローキングに該当するわけではなく、Googleは簡単にコンテンツを取得することができる。

Googleに表示されることを妨げる要素が他にない限り、そのコンテンツは、タブではないコンテンツと同じように重み付けされるべきである。

さらに詳しい説明が必要だろうか?

そうであれば、この都市伝説を覆した、ロジャー・モンティ氏の投稿を確認してほしい。

判定:SEOの都市伝説

6.GoogleはGoogle Analyticsのデータを順位付けに使用している

これは、多くのビジネスオーナーに共通した考えである。

彼らはGoogle Analyticsのレポートを確認している。

Webサイト全体で、平均直帰率が高いと感じ、ページ滞在時間が短いと感じている。

これらの理由により、GoogleがそのWebサイトを低品質なWebサイトであると判断していると、心配になるのだ。

それが原因で、ランキングが上昇しないと考えているのである。

Google Analytics内のレポートをランキングアルゴリズムの一部として、Googleは使用しているという都市伝説がある。

これは昔からある都市伝説である。

Googleのゲイリー・イリェーシュ氏は、次のシンプルな言葉で、この都市伝説を否定している。

「我々は、Google Analyticsのデータをアルゴリズムに使用していません。」

論理的に考えれば、Google Analyticsのデータをランキングに活用することは非常に難しい。

例えば、フィルターを活用することでデータを操作し、実際には発生していないパフォーマンスを、発生しているように見せることは可能である。

そもそも、良いパフォーマンスとは何か?

「ページ滞在時間が長い」ということは、長文のコンテンツでは良いと言える。

しかし、「ページ滞在時間が短い」ということは、短いコンテンツにとっては適していると言える。

どちらが正しく、間違っているのか?

Googleは、各Google Analyticsの複雑な設定を理解する必要がある。

複数のボットを除外している場合もあれば、そうでない場合もある。

カスタムディメンションやチャネルグループを設定している場合もあれば、そうでない場合もある。

こうしたデータを信頼できるデータとして確実に使用することは、非常に複雑な作業となる。

また、他の解析プログラムを使用しているWebサイトも、何十万と存在している。

Googleはこれらをどのようのにして扱うというのだろうか?

判定:SEOの都市伝説

この都市伝説は「相関であり、因果では無い」の1つのケースと言える。

Webサイト全体の直帰率が高いということは、そのWebサイトの品質に問題があることを示している場合もあるし、そうでない場合もある。

ページ滞在時間が短いということは、あなたのWebサイトが魅力的でないことを意味する場合もあるし、あなたのコンテンツが素早く理解されていることを意味する場合もある。

これらの指標は、上位表示されていない理由を知る手がかりとはなりうるが、直接の原因とはなり得ない。

7.Googleはドメインオーソリティを考慮している

PageRankはWebページの重要度を測るための、Googleによるリンク解析アルゴリズムである。

かつて、GoogleはPageRankのスコアを、10を最大値として、ツールバーの上部に表示していた。

その後、2013年にツールバーの上部に表示されるPageRankのスコアを更新することを、Googleは停止した。2016年、Googleはツールバーの上部に表示されるスコアを今後は使用しないことを認めた。

PageRankが無くなり、多くのサードパーティ製のオーソリティスコアが開発された。

よく知られているものをまとめてみよう。

  • MozのDomain AuthorityとPage Authority scores
  • MajesticのTrust FlowとCitation Flow
  • AhrefsのDomain RatingとURL Rating

Webページの「価値」を判断するため、これらのスコアを使用するSEO担当者もいる。

しかし、これらの指標は、検索エンジンによるWebページの評価を正確に反映しているものではない。

一般的に、SEO担当者は、Webサイトのランキングパワーをバックリンクのプロフィールと共に言及することが多い。

これもドメインオーソリティとして知られている。

混乱の要因はここにあると考えられる。

Googleの担当者は、Googleが使用しているとされているドメインオーソリティという概念を否定している。

ゲイリー・イリェーシュ氏は次の言葉を用いて、この都市伝説を否定している。

「我々は、”全般的なドメインオーソリティ”は持っていない。」


画像内翻訳:
「全般的なドメインオーソリティにとって、jpgのURLへのバックリンクは、WebページのURLのバックリンクと同等の影響があるのですか?」
「我々は、”全般的なドメインオーソリティ”は持っていない。アンカーテキストのあるテキストリンクの方がより良くはあるが。」

判定:SEOの都市伝説

8.コンテンツは長ければ長いほど良い

長文のコンテンツの方が順位が高い、という話を一度は聞いたことがあるだろう。

より多くの単語を含んだページは、自動的に競合サイトのページよりも順位が良くなるという考えだ。

この考えは根拠がほぼ無いに等しいにも関わらず、SEOのフォーラムでしばしば「知恵」として共有される。

「検索結果で表示される上位10位のWebページでは、平均で1,450単語以上が含まれている」など、上位に表示されるWebページにおける真実として発表された調査は数多くある。

この情報だけを切り取り、1ページ目に表示されるためには1,500単語以上が必要である、と考えることは容易である。しかし、これはこうした調査が言わんとしていることとは異なる。

不幸にも、これは相関関係の例であり、因果関係を示すものではないのだ。

とある調査結果で、上位に表示されているページが、11位以下のページよりも文字数が多かったとしても、文字数がランキング要素であると言うことはできない。

Googleのジョン・ミュラー氏は、この都市伝説を否定している。


画像内翻訳:
「上位に表示されている記事と同じ単語数を用いたとしても、それだけで上位に表示されることはない。USBの充電器を大量に保持したところで、月に行くことはできないのと同じだ。」

判定:SEOの都市伝説

9.LSIキーワードは上位表示の助けとなる

LSIとは、正確には何を指すのであろう?

LSIとは、”潜在意味解析:latent semantic indexing“の略である。

テキスト内の概念を分析し、それらの関係性を明らかにするという、情報検索の手法である。

言葉は、その文脈によって、ニュアンスが変わる。”right”という言葉は、”left”という言葉と組み合わせた場合と、”wrong”という言葉と組み合わせた場合とでは、そのニュアンスが異なる。

人間であれば、テキスト内の概念を素早く判断することができる。しかし、機械にとっては、それは容易ではない。

機械が概念を理解するためには、エンティティ同士の文脈や関係性を理解する能力が必要となる。

LSIは、機械がテキストを理解する能力を前進させるための手法である。

しかし、LSIは同義語ではない。

不幸にも、同じような言葉やテーマとして関連している言葉を用いれば、テキスト内で明確に記載されていない言葉であっても、ランキングをあげることができるとSEO界隈では理解されている。

単純に、これは真実ではない。GoogleはLSIをはるかに凌駕する文章理解の技術を用いており、BERTなどはその例に該当する。

クラーク・ボイド氏による記事を読むことで、LSIとは何か、また、より重要なことである、LSIでないものは何か、ということについて、より深い理解を得られるだろう。

判定:SEOの都市伝説

10.SEOの効果を得るためには3ヶ月かかる

この都市伝説を用いることで、上司やクライアントとのしつこい会話から抜けだす事ができる。

約束した結果が出なくとも、十分な余裕を持つことが可能だ。

「SEOの効果が出るまでには、最低でも3ヶ月はかかる」

検索エンジンのボットが処理を行うための時間に変更が生じるのは当然のことだ。

もちろん、そうした変更がポジティブなものになるか、ネガティブなものにあるか、それを見極める時間も必要だ。そして、より多くの時間をかけて、あなたの作業を洗練させ、微調整する必要があるかもしれない。

しかし、それがSEOの名の下に行われるあらゆる作業が、3ヶ月間何も効果を生まないというわけではない。ランキングに変化が表れるのは、90日間が経過したタイミングであるとは言い切れない。

より多くの要素が絡んでいるのだ。

競争力が低く、ニッチなキーワードでの上位表示を狙っている場合、Googleが再クロールするだけでランキングに変化が見られることはある。

競合性の高いキーワードの場合、順位に変化が見られるまでにより多くの時間がかかる可能性はある。

200万キーワードを分析したAhrefsによって行われた調査では、Googleの検索結果で10位以内に表示されているWebページの平均年齢は、650日であったとのことだ。この調査では、新しいページが上位に表示されることは困難であることを示している。

しかし、SEOには、Googleの検索結果で10位以内に表示されること以上の意味がある。

例えば、Googleマイビジネスのリスティングを上位に表示させ、素晴らしいレビューを掲載することができれば、企業にとって大きなプラスとなる。

Bing、Yandex、Baiduであれば、検索結果で上位表示させることはより容易であるかもしれない。

ページタイトルの些細な調整がクリック率に影響を与えるかもしれない。検索エンジンが再クロールすれば、その日のうちに改善が見られるかもしれない。

Googleの検索結果の1ページ目に表示されるまでには時間がかかるかもしれないが、SEOの成果をそれだけに留めることは賢明ではない。

そのため、「SEOの効果が出るまでには3ヶ月間かかる」と単純に言うことはできないだろう。

判定:SEOの都市伝説

11.直帰率はランキング要素である

直帰率とは、Webサイトへの訪問のうち、ページを閲覧しただけで終わる訪問の割合のことである。これは、Google AnalyticsのようなWebサイトの分析プログラムによって測定される。

SEO担当者の中には、それが品質の測定となるという理由で、直帰率をランキング要素を主張する者もいる。

残念ながら、直帰率は品質を測る指標として適切ではない。

Webページにアクセスした人が、そのWebサイトでは何もせずに去ってしまう理由は様々である。そのページで必要な情報が全て得られ、予約を取るために会社に電話するため、そのWebサイトを去ったのかもしれない。このケースの場合、そのWebサイトの企業にリードが発生したことになる。

Webページを訪問したユーザーがそのまま去ってしまうことは、コンテンツの質が低いことを示しているかもしれないが、必ずしもそうであるとは限らない。それゆえ、検索エンジンがWebページの品質を測る指標としては、十分な信頼があるデータとはなり得ないのだ。

検索結果に表示されるWebページをクリックし、その後、再び検索結果に戻ってくるという行動である「ポゴスティッキング」は、ランディングページの品質を測る為の、より信頼性のある指標となりうる。これは、そのページがユーザーが求めている情報を掲載していないことで、別のページを探したり、再検索することを意味している行動である。

Googleのジョン・ミュラー氏は、2018年の7月のウェブマスターハングアウトにて、この点について明らかにしている。

「検索においては、そのようなシグナルを用いないようにしている。ユーザーが行ったり来たりする事や、検索結果で色々なものを見たりする事や、Webページには僅かに滞在し、また戻ってきたりする事には、多くの理由があるためである。これらを活用し、”ランキング要素として用いよう”とするのは、本当に難しいだろう。」

判定:SEOの都市伝説

12.全てはバックリンクである

バックリンクが重要であることが議論されることはほとんどない。しかし、どの程度重要であるかについては、いまだに議論されている。

バックリンクは複数ある戦術の1つであり、ランキングに影響するが、最も重要なものではない、と伝えるSEO担当者もいるだろう。また、バックリンクこそが重要な要素である、と伝えるSEO担当者もいるだろう。

我々が把握していることは、リンクの効果は時間と共に変化しているということだ。以前は、リンクビルディングの戦術とは、可能な限り多くのリンクを自分のWebサイトに集めることであった。

フォーラムのコメントや無関係なディレクトリサービスでも、リンクの良いソースであった。

効果的なリンクを構築することが容易であったのである。

現在は容易ではない。Googleはアルゴリズムを変更し続け、質と関連性が高いリンクには恩恵を与え、「スパムな」リンクには効果を無視したり、ペナルティを与えたりしている。

しかし、リンクによるランキングへの影響は依然として高い。

SEOが成熟していない業界では、リンクビルディングに投資せずとも、コンテンツの品質や技術的な要素によって、Webサイトを上位表示できる場合もあるだろう。

しかし、ほとんどの業界では、それは当てはまらない。

もちろん、関連性の高いリンクはランキング上昇の手助けとなる。しかし、他の最適化の施策と連動する必要がある。

Webサイトには関連性の高いコンテンツが必要であり、クロールが可能でなければならない。

Googleのジョン・ミュラー氏は、「リンクは間違いなく、最も重要な要素ではない」と述べている。


画像内翻訳:
「リンクは間違いなく、最も重要な要素ではない」

Webサイトに訪問してくれるユーザーに実際に何かをしてもらいたいのであれば、バックリングが全てではない。

ランキングは、Webサイトに訪問したユーザーにコンバージョンしてもらうための、ほんの一部にすぎない。ユーザーエンゲージメントにおいては、コンテンツとユーザービリティは非常に重要なのである。

判定:SEOの都市伝説

13.URL内のキーワードは非常に重要

URLにキーワードを詰め込みましょう。きっと順位が上昇するはず。

残念ながら、それだけでは効果は見られないだろう。


画像内翻訳:
「URL内のキーワードは、GoogleのSEOにおいて、過大評価されている。URLはユーザーのために作成しよう。また、モバイルにおいては、URLを見る機会も少ない。」

ジョン・ミュラー氏は、URL内のキーワードは非常に軽微なランキング要素であると、何度も発言している。

URLを書き換え、より多くのキーワードを含めようとしても、良いこと以上に悪いことが起こるだろう。

Webサイトの再構築は常にリスクを伴う。URLを一斉にリダイレクトさせる作業は、必要な場合に限り、行うべきだ。

URLにキーワードを追加するために、それを行うべきか?いや、その価値はない。

判定:SEOの都市伝説

14.Webサイトの移行はリダイレクトが全てである。

SEO担当者によって、よく言われる言葉である。Webサイトを移行する場合、変更されるURLのリダイレクト設定を怠らないことだ。

本当にこれだけで良いのであれば、どれほど良かったか。

実際には、Webサイトの移行は、SEOの中でも最も複雑な作業が求められるものの1つである。

レイアウト、CMS、ドメイン、コンテンツなどの変更は全てWebサイトの移行とみなすことができる。

これらの例では、検索エンジンがターゲットキーワードとの関連性やページの品質を認識することについて影響しうる側面が複数ある。

その結果、該当のWebサイトのランキングとオーガニックトラフィックを維持したいのであれば、多くのチェックと設定が必要となる。

トラッキングに不備がないか確認する。コンテンツのターゲットを維持する。検索エンジンが適切なページにアクセスできることを確認する。

Webサイトが大幅に変更される際には、これらの全てが考慮されている必要がある。

変更されるURLのリダイレクトの設定は、Webサイトの移行において非常に重要な要素である。しかし、それが唯一のものではない。

判定:SEOの都市伝説

15.よく知られたWebサイトは、あまり知られていないWebサイトよりも、常に上位に表示される

大規模なWebサイトには、小規模なWebサイトにはないリソースがあることは、当然である。その結果、SEOへのより多くの投資が可能となる。

より魅力的なコンテンツが作成され、より多くのバックリンクを獲得することができる。ブランド名が知られることで、リーチ活動の信頼性がより高まる。

問題は、Googleはビッグブランドの知名度を、アルゴリズムや人の手によって、意図的に高めているのだろうか?ということである。

これについての議論は存在する。

Googleはビッグブランドを優遇していると主張する者もいる。Googleはそうではないと言っているが。

2009年、Googleは”Vince”というアルゴリズムをリリースした。このアップデートは、検索結果におけるブランドの扱いに大きな影響を与えた。

オフラインでよく知られているブランドは、競争の激しいキーワードで上位に表示されるようになった。

小規模なブランドは勝負を諦めるべき、ということではない。

Vinceアップデートは、権威性と品質を重視するGoogleの他の動きと合致したものである。

ビッグブランドは、小規模なブランドと比較し、広域のキーワードでより権威性があることは、よくある。

しかし、小規模なブランドにも勝機はある。

ロングテールのキーワード、ニッチな製品、ローカルでの露出など、これらは全て小規模なブランドの方が関連性を高めることが可能なものである。

もちろん、ビックブランドが有利な状況に変わりはないが、ビックブランドを凌駕することが不可能であるわけではない。

判定:全てが事実であったり、都市伝説であったりするわけではない

16.ローカルSEOで上位に表示されるためには、「近くの○○」をページに含める必要がある

この都市伝説がいまだに広まっていることは理解できる。

SEO業界では、いまだにキーワードの検索ボリュームが重視されている。その結果、ユーザーの意図や検索エンジンによる理解を疎かにしてしまうこともある。

検索者が「ローカルの意図」、つまり、物理店舗の場所やサービスなどを探している場合、検索エンジンはこの点を考慮した上で、検索結果を返す。

Googleにおいては、通常の検索結果に加え、Googleマップの結果が表示されることもあるだろう。

Googleマップの検索結果は、検索された場所を中心に表示される。しかし、検索クエリがローカルの意図を含んでいる場合は、通常の検索結果も同様である。

では、なぜ、「近くの○○」という検索は、混乱を招くのだろうか?

一般的なキーワード調査の結果は、下記のようなものだろう。

  • ピザレストラン マンハッタン – 110(月間検索数)
  • マンハッタン ピザレストラン – 110 (月間検索数)
  • マンハッタンで一番おいしいピザ屋 – 90回 (月間検索数)
  • マンハッタンで最高のピザレストラン – 90 (月間検索数)
  • 近くのピザレストラン – 90,500 (月間検索数)

検索ボリュームがこのような場合では、「近くのピザレストラン 」が上位に表示されるのでは?と考えるのも無理はない。

しかし、「ピザレストラン マンハッタン」と検索するユーザーは、現在マンハッタン周辺にいる人か、マンハッタンにピザを食べに行く予定の人であると考えることができる。

「近くのピザレストラン」は、全米で90,500回検索されている。これらの検索の大部分が、マンハッタンのピザレストランを探しているわけではないだろう。

Googleはこのことを理解しており、位置情報を用い、検索者がいる場所に関連したピザレストランを、検索結果に表示するようにしている。

そのため、「近くの○○」という検索においては、キーワード自体よりも、キーワードの背後にある意図が重視されるようになる。Googleは、検索者がいる場所だと考えるのみである。

では、「近くの○○」という検索で上位に表示されるためには、「近くの○○」というコンテンツを含める必要があるのだろうか?

いや、そうではない。検索者がいる場所に関連している必要があるのだ。

判定:SEOの都市伝説

17.コンテンツが良ければ上位に表示される

SEOのフォーラムやTwitterのスレッドでよく言われていることである。よくある不満としては、「私のコンテンツは素晴らしい。しかし、競合サイトのページが上位に表示されている。彼らのコンテンツはひどいものなのに」といったものだ。

強い不満を持っている。詰まるところ、検索エンジンは「素晴らしい」コンテンツがあるWebサイトに恩恵を与えるべきではないのだろうか?と。

これは都市伝説であり、妄想とも言える。

コンテンツの品質というのは主観的なものである。自分自身のコンテンツに対しては、客観的に判断することはより難しくなるだろう。

おそらく、Googleからすると、あなたがターゲットとしている検索ワードにおいて、競合サイトのコンテンツよりも、あなたのコンテンツの方が優れているとは映っていないのだろう。

おそらく、競合サイトほど、検索者の意図に合致していないのかもしれない。

もしかしたら、コンテンツを「過度に最適化」してしまい、結果として品質を落としてしまっているのかもしれない。

コンテンツの質が高ければ、順位が上昇するといったケースはある。また、サイトの技術的なパフォーマンスの低さや、ローカルの関連性の低さが要因となり、順位が下がることもある。

コンテンツは、ランキングアルゴリズムの中の1要素に過ぎないのだ。

判定:SEOの都市伝説

18.ブログを毎日更新すべき

この都市伝説は非常に残念なものである。なぜなら、SEO業界以外にも広まってしまっているからである。

Googleは更新頻度の高いコンテンツを好む。そのため、新しいコンテンツを追加したり、既存のコンテンツを調整したり、Webサイトの「新鮮さ」を保つために、毎日ブログを更新すべきである。

このような考えはどこから来たのだろうか?

2011年、Googleはアルゴリズムのアップデートを行い、より新鮮なコンテンツに恩恵を与えるようにした。

これは、一部のクエリにおいては、新鮮なコンテンツであるほど、正確性が増すからである。

例えば、2013年のイギリスで、「ロイヤルベイビー」と検索すると、ジョージ王子に関するニュース記事が検索結果に表示されていた。2015年に「ロイヤルベイビー」と検索した場合は、シャーロット王女に関するページが表示されていた。

2018年では、Googleの検索結果にはルイ王子に関する記事が上位に表示され、2019年では、アーチーちゃんの記事が上位に表示された。

もし、2019年のアーチーちゃんが生まれた直後で「ロイヤルベイビー」と検索した場合、ジョージ王子のニュース記事が上位に表示されても何の役にも立たないだろう。

この例では、Googleはユーザーの検索意図を判断し、最も新しいイギリスのロイヤルベイビーに関連する記事を上位表示するようにした。権威性などの要素から判断するよりも、より良い検索結果になる、という判断だ。

このアルゴリズムは、新しいコンテンツが古いコンテンツよりも常に上位に表示される、ということを意味するわけではない。Googleは、「そのクエリが新鮮さに値するかどうか」を判断するのである。

もしそうであれば、コンテンツの年齢がより重要なランキング要素となる。

つまり、単純に競合他社よりも新しいコンテンツを作成するだけで、常に上位に表示されるとは限らないのである。

例えば、「ウィリアム王子の2番目の子供はだれ?」といったクエリのように、ターゲットとしているキーワードが新鮮さに値しない場合、コンテンツの年齢は重要なランキング要素とはならないのである。

もしも、あなたが毎日コンテンツを書いており、その目的がWebサイトの鮮度を保ち、ランキングでの評価を高めることであれば、それは時間の無駄と言える。

よく練られ、調査され、有益なコンテンツを、頻度を少なくしてでも書き、権威性や共有性の高いコンテンツを作成するためにリソースを確保した方が良い。

判定:SEOの都市伝説

19.コピーは一度最適化すれば完了

「SEOに最適化された」コピーというのは、エージェンシーの世界ではよく使われるフレーズである。

これは、よく検索されるクエリに関連したコピーを作成するプロセスを説明する際に、よく使われる。

この表現の問題点は、一度コピーを書いて、検索者の質問に適切に答えていることを確認すれば、もう次に進むことができる、という考えに基づいていることだ。

残念ながら、検索者によるコンテンツの探し方は、時間と共に変化する。使用するキーワード、求めるコンテンツの種類なども変化することもある。

また、検索エンジン自体も、クエリに対する最も関連のある答えに対する考えを変更するかもしれない。そのため、キーワードの背後にある意図への認識も変化するかもしれない。

検索結果画面のレイアウトも変化するかもしれない。例えば、今までは通常のWebページが検索結果に表示されていたとしても、動画が最上部に表示されるかもしれない。

ページを一度見ただけで更新することはせず、ユーザーのニーズに合わせて進化させずにいると、相対的な遅れとなる可能性がある。

判定:SEOの都市伝説

20.SEOには正しい方法がある

これは複数の業界で言われていることではあるが、SEO業界では一般的なようだ。SEOのソーシャルメディア、フォーラム、チャットなどでは、多くのゲートキーピングが行われている。

残念ながら、話はそう単純ではない。

SEOについては、核となる考えがいくつか存在する。

通常、検索エンジンの代表者によって述べられたものは、分解され、テストされ、そして、最終的に真実だと宣言される。

それ以外は、個人的、もしくは、集団的なトライアンドエラー、テスト、そして経験による結果である。

SEOのビジネスの機能として、プロセスは非常に価値のあるものだ。しかし、それらは、進化し、適切に適用されなければならない。

異なる業界内の、異なるWebサイトが、他のWebサイトとは異なる方法で、変化に対応していく。メタタイトルを60文字以下の長さに変更することで、クリック率の向上の助けとなるかもしれないが、別のページではそうではないかもしれない。

最終的には、何らかのSEOにおけるアドバイスをもらった場合、その内容が自分のWebサイトに適しているかどうかを、事前に考える必要があるのだ。

判定:SEOの都市伝説

結論

都市伝説の一部は、何らかの論理によって発生したものもある。また、それ以外は、意味のないものもある。

今回の記事を読むことで、真実かそうでないか判断がつかない考えを耳にしたとき、その対処法が理解できたと思う。

全部で20個の都市伝説を紹介した、ボリュームのある記事でした。SEOに長く携わっていなければわからないもの、長く携わっているからこそ信じてしまうもの、それらは様々ありますが、「自身のWebサイトにとって必要かどうか?」はすべてのWebサイトで共通する考えだと思います。Googleの進化に併せ、都市伝説の進化(?)は今後も続くと思われますが、実装する前の考察と検証は、ぜひ行いたいと思います。


この記事は、Search Engine Journal に掲載された「How to Spot SEO Myths: 20 Common SEO Myths, Debunked」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 SEOのよくある20の都市伝説SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Googleの特許。検索意図を満たすための、コンテキストに基づいたクエリの書き換え。

Googleより先日発表されたMUM(Multitask Unified Model)のように、Googleは次々と新しい検索技術の開発に取り組んでいるようです。Googleの検索精度には目を見張るものがありますが、その仕組みは非常に複雑でブラックボックスとなっております。そうした中、Googleが取得する特許の内容を見ることで、その仕組みを垣間見ることも可能です。今回は、ビル・スロウスキー氏による、Googleが取得した特許の解説記事を紹介します。

Googleの新しい特許によれば、検索者の意図をより良く満たすために、その検索におけるコンテキストに基づいたクエリの書き換えをGoogleは行っているようだ。

何年もの間、私は検索の背後にあるインテントについて議論している情報のソースを見てきた。検索エンジンの特許や、それらの特許について検索のエンジニアが述べていたことにも目を向けている。

Googleが「特定のコンテキストに対する検索者の意図の予測」という特許を新たに取得した際、この特許の著者を私は注目した。この特許は2021年2月に取得されている。

このような、検索意図についての特許に私は興味を持ち、「適切なクエリは検索エンジンがユーザーの検索意図を理解することに役立つ」や「なぜユーザーはGoogleを使用するのか?検索意図を測定するためのユーザーデータへの理解」といった記事を書いてきた。

これらは、検索関連のカンファレンスで私が出会ったプレゼンテーションのテーマでもある。こうしたプレゼンテーションでは、SEO担当者はターゲットキーワードの検索結果を見るべきだ、という主張がされている。

プレゼンテーションのスピーカーは、ターゲットキーワードで表示されているページの背後にある検索意図を見るべきだと勧めている。他の人がそのキーワードに対し、どのような最適化を施しているか、そのアイデアを得るためである。

検索意図に基づく、この新しい特許が意味するところは?

「特定のコンテキストに対する検索者の意図の予測」は、検索者は情報や事実を得るためにコンピューターデバイスを使用し、検索者が特定のタスクを完了する手助けをすることができる、という内容から始まる。

検索エンジンにとって、あらゆる検索は、情報を発見しようとする際に使用されるクエリ(または、キーワード)を推測することから始まる。

この特許では、検索者が探している情報にコンピューターデバイスが検索者を導くためには、検索者が十分な情報(つまりは、検索クエリ)を提供する必要があると伝えている。
検索クエリが十分に調整されていない場合、または、検索者がクエリ以外の追加情報を十分に提供していない場合、コンピューターデバイスが返す情報量が過多となる可能性に注意すべきだ。

これは、最も興味深い情報や関連性のある情報を検索者が見つけにくくなってしまうことを意味する。

他の多くの特許と同様、この特許の説明の冒頭では、検索者が抱える可能性のある問題について言及している。

これらは、検索者が情報を探そうとする際に出くわす問題である。

非常に詳細なクエリをコンピューターデバイスに入力し、コンピューターデバイスに複数の検索を実行させ、大量の検索結果をふるいにかけたりしながら、特定のタスクを完了させるために必要な情報を得ることに、検索者はストレスを感じたり貴重な時間を無駄にしてしまう可能性がある。

多くの特許は、その特許で特定されている問題を解決するための方法を提供するアルゴリズムについての提案をしているが、今回の特許はまさにその点を突いている。

この特許の技術は、コンピューターデバイスが特定のコンテキストに対するクエリの検索意図を予測することに役立つ可能性を示している。

検索エンジンは、コンテキストの情報を見ることで、クエリの背後にある検索意図を把握することができるかもしれないのだ。

この特許では、いくつかの例が挙げられている。

  • 場所
  • ユーザーのインテント
  • 時間帯
  • コンピューターデバイスは検索クエリに関連するコンテキストを定義し、その関連するコンテキストに基づいて、その検索で使われたクエリのインテントや目的を予測することができるとしている。

    この特許でのプロセスは検索結果を調整し、その検索から返される他の情報よりも、インテントを満たすための情報が強調されるようにする。

    この特許では、こうしたプロセスを説明するための実例が挙げられている。

    そのコンピューターデバイスのユーザーが映画館で公開されている特定の映画のチケットを購入した後、ユーザーはクエリの一部としてその特定の映画の名前を使用して、コンピューターデバイスに検索を実行させるかもしれない。

    この特許のプロセスでは、その特定の映画のチケットがすでに購入されているという情報を含むコンテキストを取得することができる。

    これに応答し、その特定の映画の名前を含む検索は、追加のチケットを購入する以外の目的を推測(例えば、他のコンピューターデバイスで実行されたユーザー主導のアクションを示すログデータに基づくなど)するかもしれない。

    これにより、このシステムは、検索結果を調整し、その特定の映画の情報(例えば、レビュー、記念品、豆知識など)よりも、映画の上映時間の情報を下位にランク付けすることができる。

    この特許の発案者は、コンテキストについての説明のために、なぜ映画を例に挙げたかを説明している。

    映画のチケットを購入した後という現状で、検索者が探している可能性が高い情報を強調するように検索結果を自動的に調整することで、このシステムは検索者のストレスを軽減し、貴重な時間やリソースを無駄にしないようにすることができる。

    (検索クエリに映画の名前を含めることで)検索結果の中から必要な情報を探す時間を短縮することができる。

    また、この特許では、クエリ内のコンテキストに関わる情報を使用することで、検索の背後にあるインテントに基づいたより良い検索結果を返す手助けとなるが、個人を特定できる情報を検索結果に表示させないようにしている。

    簡単な言葉に言い換えると、人々が望む情報を提供する、ということになる。

    また、個人のプライバシーについても真剣に考えている。

    例えば、ユーザーの位置情報は、そのデータを取得する際に(市区、郵便番号、州など)地理的な位置を一般するなどして、個人を特定できないような処理を行うことができる。

    この特許は、下記にて参照することができる。

    特定のコンテキストに対する検索者の意図の予測
    発明者:ユー・ジン・リム、ジョセフ・リン、ユーリン・リアン、カーステン・ステインベック、ウェイ・ロー・ルー、ドン・ヒュー・キム、ジェームス・カンズ、ローレン・コエフニック、ミン・ヤン
    譲受人: Google LLC
    米国特許: 10,909,124
    取得日: February 2, 2021
    出願日: May 18, 2017

    概要

    一連のコンピューターデバイスによって実行された、ユーザー主導のアクションに基づいて、コンピューターデバイスから返された特定のクエリを用いた、検索意図を決定するコンピューターデバイスについての説明。

    検索意図に基づき、少なくとも検索から得られた検索結果の特定の一部を、検索意図を満たす情報を強調するように、検索結果を調整する。

    コンピューターシステムは、調整された検索結果を、コンピューターデバイスに送信する。

    コンテキストを意識することで検索意図を予測する

    クエリを実行される際に考慮される可能性のある、コンテキストの情報の種類について、以下の情報が含まれる可能性をGoogleは示唆している。

  • ユーザーの興味のある事柄(例:ユーザーが気に入るもの、ユーザーの興味グラフや他の種類のデータ構造として保持されているもの)
  • ユーザーに関連する連絡先情報(例:ユーザーの個人的な連絡先、ユーザーの友人や同僚についての情報、ソーシャルメディアのつながり、家族)
  • 検索履歴
  • 位置情報の履歴
  • 長期、短期のタスク
  • カレンダーの情報
  • アプリケーションの使用履歴
  • 購入履歴
  • お気に入り
  • ブックマーク
  • コンピューターデバイスやインフォメーションサーバーシステムが取得できる可能性のある、ユーザーについての他の情報
  • コンピューターデバイスの動作状況についての情報
  • 様々な場所や時間における、ユーザーやコンピューターデバイスの、物理的や仮想的な環境
  • 検索者にとって有益で役に立つ情報を提供するクエリを予測するために、検索エンジンはどのようにしてコンテキストについての情報を活用しているのだろうか?

    これが、この特許が示すポイントである。

    予測モジュールは、機械学習モデル(例:ディープラーニングモデル)を実行し、検索クエリ(もしくは、検索クエリの一部)とコンテキストモジュールから受け取った現在のコンテキストを入力情報を受け取る。

    機械学習モデルは、現在のコンテキストに対する検索クエリを使用した、検索意図の表示(ラベルや他の指標)をアウトプットとして生成する。

    予測モジュールによって決定された検索意図は、事前に定義されているインテントのグループから選択されるかもしれない。

    事前に定義されているインテントの例としては、交通機関や旅行に関するインテント(例:ライドシェア、フライトの状況、チケットの購入、スケジュールなど)、エンターテインメントに関連するインテント(映画のレビュー、上映時間、チケット購入、キャストメンバーの経歴、アルバムや曲のレビュー、アーティストの経歴、アーティストのツアー日程)などが挙げられる。

    また、インテントに関連したスコアを決定することもある。

    そのスコアについて、この特許では下記のように説明されている。

    インテントのスコアは、インテントを満たす情報を得るために、現在のコンテキストに基づいた検索クエリを使用した検索を実行するにあたり、その確信の程度(例:確率やその他の可能性の程度)を示している。

    もちろん、そのスコアで特定の閾値を満たすという表現をすることもできる。

    そのスコアが十分に高くない場合、検索エンジンはそのインテントに基づく検索結果の調整を行わないかもしれない。

    反対に、その閾値を超えていれば、該当のクエリのインテントの影響をより強くするかもしれない。

    この特許では、検索者の状況に合わせたニーズや情報についてのニーズを満たす検索結果を提供するため、インテントをどのように活用するかについてを詳細に説明している。

    検索結果におけるインテントの拡大

    過去、検索のエンジニアがインテントと検索についての記事を書いた際、彼らはインテントについて下記のように語っている。

  • インフォメーショナル
  • コマーシャル
  • トランザクショナル
  • ナビゲーショナル
  • インフォメーショナルのインテントでは、ピザの歴史やピザのレシピなど、クエリについての情報を返す検索結果を提供する。

    コマーシャルのインテントでは、近くのピザ屋やピザの生地、ソース、オーブンなどを販売しているお店など、クエリに関連する何かを購入する方法を返す検索結果を提供する。

    トランザクショナルのインテントでは、ピザのデリバリーの注文など、何らかのアクションを行うことができる検索結果を提供する。

    ナビゲーショナルのインテントでは、検索者が過去に訪れたことがあるページや、存在を知っているページの検索結果を提供する。例えば、ドミノピザの発祥地や取締役の情報などが挙げられる。

    まとめると、この特許は検索のコンテキストに着目しており、それに基づいて検索の背後にあるインテントを推測しようとするものである。

    これにより、そのコンテキストに関連する情報を含むようにクエリを書き換えることも含まれる。

    検索技術の中でも、特にパーソナライズの領域の話であったという印象です。パーソナライズと言えばDiscoverが真っ先に頭に浮かびましたが、通常の検索でもそのような体験を組み込もうとしているのかもしれません。ますます便利になるGoogleですが、Webサイト側としては少しでも有益な情報を提供するよう、日々精進していきたいものです。


    この記事は、Search Engine Journal に掲載された「Google Patent: Rewriting Queries Based on Context to Meet Intent」を翻訳した内容です。



    お役立ち資料ダウンロード

    アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

    無料でダウンロードいただけますので、ぜひご活用ください。

    >>お役立ち資料を見てみる
    >>メールマガジンに登録する

    投稿 Googleの特許。検索意図を満たすための、コンテキストに基づいたクエリの書き換え。SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

    エキスパートによるレビュー付き!40以上のコンバージョン最適化ツールを紹介します。

    Webマーケティングのあらゆる領域でツールの活用は欠かせないものとなっております。データの収集、分析、作業の簡易化など、その用途は様々ですが、適切なツール選びは非常に重要です。今回は、CXLより、エキスパートによるレビューも掲載した(一部、ついていないものもあり)40以上のツールを解説した記事を紹介します。CRO寄りのツールとなりますが、ツール選びに悩まれている方はぜひ参考にしてみてください。

    人は自ら使うツールのツールとなってしまった

    ヘンリー・デイヴィッド・ソロー

    顧客体験の最適化の代理店であれ、コンサルタントであれ、もしくは、スタートアップや企業のインハウスであったとしても、適切なコンバージョン最適化ツールへの投資を決断することは重要である。

    特定のツールの評価を尋ねられることは今までもあったが、それらをまとめた記事を作成したことはなかった。

    このリストは機能や会社の規模などの条件でツールを絞り込めるようにしている。また、各ツールの特徴をざっと確認できるようにもしている。

    AB Tasty

    AB Tastyはフランス製のツールであり、大衆向けに開発されている。クライアントサイドのベイズ判定のA/Bテストと、一般的に行われている実験である、多変量解析を提供している。

    Relay社ブラッド・マリキ氏によるAB Tastyのレビューを掲載しよう。

    私はAB Tastyを多くの点で気に入っている。

    ダッシュボードは、白の背景にテストのリストが表示されているのみだ。各テストには、、「編集」と「レポート」の2つのオプションがある。また、編集用のページと報告用のページはそれぞれ分かれている。シンプルで直感的と言える。

    レポートは1つのページャーであり、信頼区間のグラフと、すべての目標が1つずつ表示されている。レポートの読み込みは多少遅いが、目標をフィルターとして使用する機能などを備えている。例えば、動画を再生したすべての訪問者のコンバージョン率のみを見ることなどができる。さらに、マウスの動きで目標を設定したり、ボットを除外することもできる。このツールを使うことで、詳細な分析が可能となるのだ。

    エディタの動作はスムーズであり、それぞれのバリエーションと連携することができる。AB Tastyは、細かい点に配慮されており、それらは、より成熟したツールでは見落とされている点である。自身で設定した目標をコードに含めることができ、それが自動的にレポートに表示される。

    レポートの各バリエーションにはプレビュー用のリンクが表示され、そのURLも非常にシンプルだ。ベータ版ではあるが、テストのアイデアを追跡するためのプランニング画面もある。

    しかし、AB Tastyにもいくつかのデメリットはある。同期コードであってもフリッカーの問題があり、また、フリッカーを制御する機能にも限界がある。

    一方、VWOには、フリッカーを回避するため、特定の要素を一時的に隠すという回避策が用意されている。AB Tastyには全データをエクスポートする機能がなく、ツールの表示内容に制限がある。レポートのタイムチャートは完全ではなく、フィルターを適用すると消えてしまう。

    サポート内容は親切ではあるが、VWOやOptimizelyと比較すると、返事が遅い。返事が来るまでに数日、問題の解決に数週間かかることもある。

    私は、こうした問題をAB Tastyに報告している。早急に修正してくれることを期待しているからだ。AB Tastyは素晴らしいツールになる可能性を秘めていると考えている。

    Adobe Analytics

    Adobe Analyticsは、AdobeのMarketing Suiteの1つである、強力なプラットフォームだ。
    かつてはAdobe SiteCatalystと呼ばれていたが、リアルタイム分析、モバイルアプリ分析、ファネルトラッキング、プレディクティブインテリジェンスなど、求められる機能のほぼすべてを網羅しているツールだ。しかし、基本的には大規模事業向けのツールであり、価格も安くはない。

    分析の専門家であり、コンサルタントでもあり、『Building a Digital Analytics Organization』、『Digital Analytics Primer』、『Ecommerce Analytics』などの著書があるジュアン・フィリップ氏のレビューを紹介しよう。

    Adobeは、「Adobe Marketing Cloud」の1つとして、「Adobe Analytics」と呼ばれる一連の分析ツールを提供している。これらの分析ツールは、データの収集、レポート、可視化、ターゲティング、テスト、予測などに利用でき、モバイルを含む、あらゆるデジタル体験がその対象となる。

    その他では、マーケティングオートメーション、Eメール、メディア最適化、オーディエンスのインサイト、デジタルとテレビとソーシャルを融合した体験の創造と提供、などの機能を提供している。このように、Adobeは複雑な環境を構築することができ、多くのマーケティング要件をワンストップで満たすことも可能である。しかし、それらがすべてではない。

    Adobeの製品は、インストールベースが多く、最高品質と言えるツールもあれば連携が不十分なツールもある。

    営業の対応は素晴らしいと言える。また、最高品質とはとは言えない製品を無料で提供することで、他社との競争を勝ち抜こうとしているとの話もある。無料であることが、競争力となることもあるのだ。

    Adobe製品を導入するには複雑な作業が求められる。Adobeの機能やカスタマイズ性を考えれば当然のことではある。

    購入後のサービスの評価は高いものではない。「取るに足らないもの」になってしまうこともある。Adobeは、顧客と詳細な質問に対応することがなく、場合によっては支払いが必要になると説明されることもある。

    アカウントマネージャーは、顧客をランク付けしているとの話も聞く。価値の高い顧客には時間を割くが、それ以外の顧客には時間を割かないと言われることも。しかし、営業文化が強く、担当者の技量をもってすれば、更新時のヘルプは期待してよいだろう。

    Adobe Target

    Adobe Targetは大規模事業向けのツールだ。、ビジターベースの指標システムを巧みに活用している。エンタープライズツールの中でも最も人気のあるの1つと言えるだろう。

    ここでは、アンドリュー・アンダーソン氏のレビューを紹介しよう。

    賛成意見:
    製品内ベースのセグメンテーションは最高である。GOやOptimizelyのようなツールと比較しても、真のユーザーベースにおける、より良いデータを提供してくれる。また、どのツールよりも柔軟性が高いことが特徴だ。Adobe Suiteの一部であり、Adobe Tag Management、AEM、Analytics、360 Profileなど、他のツールとの連携も可能だ。Adobeのコンサルティングチーム、このツールの理解が深いメンバーと協力することにより、他のツールよりも高い価値を実感できる。100万通りのことが行えることが、このツールの強みである。

    反対意見:
    このツールの欠点は、100万通りのことが行える、ということである(そして、Adobeは価値の低いことを行うよう、促してくる)。作業を行うための学習曲線が非常に険しいのだ。WYSIWYGの編集機能を有しているが、手書きでHTMLを修正するほうが早い。Adobe Analyticsとの連携やその他の製品の不備によって、以前は最高レベルのツールであったこのツールは、もはやアナリスト向けの製品になってしまった(テストを行う上で最悪の選択肢が2つあるが、その内の1つとなってしまっている)。

    インターフェースは、ユーザーが間違いを犯すように作られているようだ。Target Premiumは、Conductricsに次ぐ高度な適応学習システムを提供しているが、理想的な動作のために、大量のデータを必要とする。Adobeのコンサルティングチームは、付加価値を提供することはなく、無意味な「イエスマン」になってしまったように思える。ツールをつなぎ、動作させるだけで進化を発揮することはほとんどない(これは全てのツールに言えることではあるが)。コストも高く、導入のしきい値も高いため、ほとんどの人がこのツールの本当のメリットを理解できず、使わなくなってしまう

    全体の所感:
    かつては市場で最も優れたツールであった。しかし、今ではそのポジションを失っていると言えるだろう。Offermatica、Omniture、Targetなどが登場する中で、徐々にその価値を失ってきている。さらに、かつては10年先を行くと評されたTouch Clarityのようなツールは、Test、Target 1:1、Target Premiumへと移行するにつれ、機能が低下してしまった。2010年代、製品管理やAdobe Marketing Suiteの中でのポジションが悪かったこともあり、あらゆる段階でその価値を失ってしまった。このツールの真の価値を得るためには、データに精通し、因果関係と相関関係を深く理解する必要がある。

    この製品の価値を見出すことはできるが、多くの製品の罪の下にその価値が隠されてしまっている。平均的なレベルの作業者がこれらの機能を得るということは、赤ちゃんが拳銃を持つようなものである。何が起こるかを予測することはできないが、多くの場合、すべてが悪い方向に向かってしまうだろう。現時点では、このツールに投下する追加コストに見合う価値が得られないと言える。

    Adobeには優れたセールスチームがあり、彼らは有益なアナリティクスを提供しているが、これが、かつての王者を支えている唯一のものであると言える。導入における高い障壁を受け入れることができるのであれば、VWOやOptimizelyのようなツールよりも高い柔軟性と価値を得ることができるはずだ。

    しかし、多くの企業にとって、さらに安価で優れた別の選択肢があるはずだ。

    Browserling

    Browserlingは、ウェブベースのライブインタラクションのブラウザテストを提供している。

    これにより、各ブラウザからの実際のビジュアルを得ることができる。また、あらゆるブラウザで注釈をつけたり、デザインのエラーを報告することも可能だ。

    BrowserStack

    BrowserStackは、ウェブベースのライブ・ブラウザのテストツールである。

    ここでは、AWA Digital社ジョアン・ヴァン・トンダー氏のレビューを紹介しよう。

    BrowerStackでは、OS、ディスプレイのサイズ、複数の種類のブラウザなど、あらゆる環境でテストを行うことができる。クロスデバイステストでは、Android、Windows、iOSなど、様々なモバイル環境をエミュレートすることも可能だ。

    Google Analyticsのデバイスとブラウザのレポートの組み合わせも指示してくれる。

    しかし、動作が遅いことはよく言われており、複数の設定でテストをする場合の課題となる。ローカルの仮想マシン並みの速度ではないことは明らかだ。しかし、手頃な価格で包括的なブラウザテストのシステムを手に入れることを考えると、大きな問題ではないだろう。

    ChangeAgain.me

    Google Analyticsを設定しており、スプリットテストを試してみたいと思っている企業にとって、ChangeAgain.meは非常に適したソリューションである。

    他のスプリットテストのツールと異なり、訪問者数ではなく、実行したテストの数に応じて課金される。

    コーディングスキルも必要なく、直感的なエディタで新しいテストを立ち上げることができる。

    Clicktale

    Clicktaleは、セッションリプレイ、ヒートマップ、コンバージョンファネルなどの機能を持つ、優れたツールである。

    アナリティクスの第一人者であり、Analytics Ninja社の創設者であるイェホシュア・コーレン氏によるClicktaleについてのレビューを紹介しよう。

    賛成意見:
    Clicktaleではユーザーのセッションが記録でき、さらにそれを再生することも可能だ。この定性的なデータは、よく見慣れているGoogle Analyticsの定量的なデータとは全く異なるものであり、ユーザーの行動についての独自の見解を得ることができる。

    Clicktaleを使用することで、マウスの動きやクリック数のヒートマップを把握することができる。モバイルデバイスでのトラッキングにも対応してる。Clicktaleのフォーム分析は優れており、他とは比較にならないものである。

    コンバージョンファネルのレポート機能もあり、カスタム設定により、データを遡って適用することもできる。Clicktale社では、レポートの分母に「訪問者」を使用している(GAはこれを見習うべきだろう)。JavaScriptエラーレポート機能もあり、ページ毎で確認することができる(素晴らしい!)。

    Clicktaleの 「イベント」APIは、カスタム変数で訪問をタグ付けする。ツール内のトラフィックにタグ付けをすることができ、カスタムセグメンテーションも可能とする強力な機能だ(”イベント”という言葉を用いるのは直感的とは言えないきがするが)。さらに、ユーザーインターフェースにも、重要なネイティブセグメンテーション機能がある。

    反対意見:
    Clicktaleは、クリックストリームのツールとは異なる方法でユーザーの行動を測定する。そのため、うまく答えられない質問も存在する。また、データモデルの性質上、特定の行動が時間の経過とともに何回起こったか、ということを追跡するのには適していない。
    このツールでマーチャンダイジング分析を行うことは難しいだろう。他の分析ツールのように、チャネルごとの収益や広告費に対するリターンについてのレポートは得られない(表形式のデータをエクスポートする、などは期待しないほうがいい)。

    このプラットフォームには、マルチチャネル分析とアトリビューションモデリングは存在しない。また、Clicktaleには、コホートやリテンション分析のレポートもない。製品の価格についての情報もWebサイトに掲載されいない。私が聞いた限りでは、「大企業」(つまり大きな収益を得られる顧客)に注力しているとのことだ。

    Clicky

    Clickyは(デイリーのページビューが3、000以下であれば)無料で利用することができ、Google Analyticsの代替となり得るツールとなっている。

    Clickyは独自の機能(リアルタイム分析、ヒートマップなど)をいくつか有しているが、GAから完全に乗り換える価値があるとは言えないだろう。また、ヒートマップを使用したいのであれば、他の無料ツールがいくつもある。

    Conductrics

    Conductricsは先進的なツールである。A/Bテストと機械学習を融合させ、ユーザーごとに最適な体験を、自動的に提供することができる。

    サーバーサイド、クライアントサイドのどちらのツールとしても使用可能だ。カスタマイズもお手の物である。

    このツールに対する、アンドリュー・アンダーソン氏のレビューを紹介しよう。

    賛成意見:
    現在使用しているシステムとの統合の方法として、APIから1つのタグのソリューションまで、非常に高い柔軟性を誇る。単純なA/Bテストの利用ではなく、変化する状況に適応し、それに対する体験を生み出すための、能動的な意思決定装置として使用する場合、このツールの効果が最大限発揮できるだろう。

    むやみに要素を追加するのではなく、必要な要素を選択できるため、他のツール(Adobe Target Premium、1:1、Touch Clarity、X+1など)と異なり、小さなサイトでもこれらの機能を実現することができる。システムは非常に堅牢であり、ばらつきが少なく、機能も充実している。ヘルプメニューはやや専門的であるものの、サポートの質は高い。

    反対意見:
    他のプログラム以上に、意思決定を行うさいには知識が必要とされる。特にビジュアル面において、レポートには改善の余地がある。ターゲティングレポートを読み解くには、多少の学習が求められる。潜在能力を完全に発揮するためには、多くのトラフィックが必要である。

    全体の所感:
    アダプティブラーニングのパーソナル化に本格的に取り組みたい場合、また、インタラクションにおいて柔軟性を求める場合、Conductricsは最適なツールであると言える。

    OptimizelyやVWOのようなベーシックなツールと比較すると、多くの知識と学習が必要とされる。しかし、最終的には、他のツールよりも優れた機能と柔軟性を得ることができるだろう。

    標準的なツールよりも優れているツールと言える。しかし、Fortune 100のような規模の企業には適していない。

    Convert.com

    Convert.com社は、簡単で手頃な価格のテストツールを開発した。VWOやOptimizelyと同様であるが、Convertはより大企業向けのツールである。

    シドニー在住の応用行動科学者、かつ、CROコンサルタントのジュリアン・ル・ネストゥール氏のレビューを紹介しよう。

    Convert.comは素晴らしいツールを開発した。OptimizelyやVWO使用しているあらゆるエンドユーザーやCROのエージェンシーは検討・評価すべきだ。世界的に見ても、Optimizelyと同等のテスト機能を有している。しかし、無料トライアルを除けは、Optimizelyよりも低価格になる。

    Convert.comのチームはテストの経験が豊富であり、テスト設計・実行において手厚いサポートを提供してくれる。私個人の経験となるが、技術的な側面や問題はすべてサポートしてくれ、それらはプランの一部として組み込まれていた。

    また、テストの作成を直接依頼することも可能だ。追加サービスとなってしまうが、チーム内にテストを行う人がいない場合は検討すべきである。(潜在的な)制限を挙げるとすれば、統計的有意性を測定するためのアプローチが伝統的なそれとなってしまうことになるが、それが重要であるかどうかは、テストのテーマに対するあなたの見解に依存するものである。

    Crazy Egg

    Crazy Eggは、ヒートマップ、クリックマップ、スクロールマップなどの機能を有している。ユーザーのサイト回遊を視覚的に把握することができる。

    Crazy Eggについてのピープ氏のレビューは以下の通りだ。

    予算の少ないユーザーのためのマウストラッキングツールである。基本的なヒートマップはあるが、セッション記録やフォーム分析はない。また、セグメンテーション機能も限られている。支払いは、年払いのみ。

    Decibel

    Decibelは、高機能で、大企業向けのカスタマーエクスペリエンスの分析ツールである。セッションリプレイ、ダイナミックヒートマップ、フォーム分析、行動アラート、エラーレポートなどの機能を有する。

    Effective Experiments

    Effective ExperimentsはCROの全体的なワークフローを管理するツールである。、CROがアイデアを格納し、テストを計画し、結果を見る、といったことを1つのプラットフォームで完結できる。

    CROの時間を節約するための自動化機能も用意されている。自動レポートやA/Bテストツールとの統合などである。

    Ethnio

    Ethnioでは、Webサイトの訪問者から独自のテスターを募集することができる。テスターの募集に非常に役立つツールだ。

    ここでは、AWA Digital社のCOOであるヨハン・ヴァン・トンダー氏のレビューを紹介しよう。

    あなたのWebサイトを顧客が実際に操作する様子を見ることで、強力なヒントを得ることができ、Webサイトの最適化につなげることができる。こうすることで、一般的なユーザビリティテストのプラットフォームでありがちな、「定型」の回答を避けるための手段となる。

    私たちはあらゆるCROのプロジェクトでEthnioを使用している。そして、リアルタイムで実際のユーザーを雇用しているのだ。エントリーをするためのポップアップを表示させ、訪問者に調査への参加を促している。候補者へは、選別用の質問に回答してもらい、その回答によって候補者を選別する。設定し、キャンペーンを開始することはすぐにできる。
    また、Usertesting.comと統合することにより、自動調査することも可能だ。しかし、実際に私たちが試した限りでは、あまり良いものではなかった。ユーザーにサードパーティのツールをインストールするよう要求すると、ユーザーはその時点であきらめてしまうことが多いのだ。しかし、その候補者にすぐに電話をかけ、GoToMeetingのようなツールを使い、画面を共有して説明をすると、非常にうまくいく。顧客の肩越しにビデオを見ることができるのだ。

    注意点としては、返答率が低い傾向があることだろう。そのため、大量のアクセスや大きなインセンティブが必要になることは考えられる。

    Google Analytics

    Google Analyticsは、マーケターによって使用されている、最も一般的な分析ツールだ。

    Google Analyticsはほとんどすべてのツールと統合できる。使い方も簡単であるため、使用しない手はない。また、インストールは10分以内で完了する。

    Analytics Ninja社イェホシュア・コーレン氏のレビューを紹介しよう。

    賛成意見:
    Google Analyticsは、あらゆるビジネス上の疑問に答えるために使用できる。このツールは多くの人に使われている。つまり、(少なくともざっくりとした内容は)使い方を知っていて、インターフェイスにも慣れている人が多いということだ。

    また、無料と有料を含め、GA用のリソースは大量に存在している。Google Analyticsは、UIとデータビジュアライゼーション機能が優れているとされている。

    GAは非常に強力なツールであり、大量のデータを驚異的なスピードで処理してしまう。多くのユーザーがこのあまりの速さに慣れてしまっているため、他のツールのレポートの取得に時間がかかると、それだけていら立ってしまうこともある。(350万行のデータをその場で計算するのに15秒もかかるなんて!」といった具合に。)

    アトリビューションモデル、マルチチャネル分析、モーションチャート、eコマースレポートなどが、よく実装される機能として挙げられる。複数の処理をまとめて行うセグメンテーション機能は素晴らしいの一言だ。Google Adsとの統合も非常に密に行える。

    Google Analyticsのチームは非常に強力だ。継続的に製品をアップデートしており、分析業界全体をけん引していると言えるだろう。Google Analytics Standardのソフトウェアライセンスは無料で利用できる。

    反対意見:
    Google Analytics Standardのライセンスは無料であるため、自身のビジネスに適した設定になっているるかどうか、それを確認するための時間とお金を投資する人が少ない。

    GAは強固なツールではあるが、「そのビジネスへの対応」が完了しているわけではない。Google Analyticsのデータモデルはかなり厳格であり、データスコープなど、理解が難しい概念もある。そのため、複雑なツールとも言え、理解するのが難しい場合がある。

    データが再処理されることはほぼ無い。つまり、誤ったデータを取り込んでしまったり、目標設定をミスしたりすると、きれいな白いズボンについた黒いシミのようになってしまう。ユーザーセグメント(この機能は素晴らしい!)は、93日間に制限されている。

    他のツールと比べ、GAのコホート分析はややぜい弱だ。Google Analytics Standardは、日付範囲の50万セッションでレポートのサンプリングを開始するため、これは大規模なサイトに影響があるだろう。

    最も重要なことは、GAはユーザーIDを遡ってステッチしないということだ。その結果、ユーザー/顧客分析をGAで行うことは難しい。これは、アナリストがGAで行いたいと考えている、最も重要な分析の1つであろう。

    (「不自由である」とは強い言葉だ。しかし、認知や検討の段階にいるユーザー(ログイン前のユーザー)の行動を理解することは、ビジネスにおいて不可欠なのである。)

    Google Forms

    Google Formsは優れたアンケートツールだ。無料でありながらも、ほとんど全てのことができる。

    ベルやホイッスルがないため、アンケートの見た目は地味になりがちではある。

    Google PageSpeed Insights

    Google PageSpeed Insightsは、ウェブページのコンテンツを分析し、そのページのスピードの改善方法を提案してくれる。

    無料のツールであるが、その判断は厳しい。自身のサイトを分析した結果、モバイル体験のスコアが2桁前半(または1桁)であっても、驚かないでほしい。

    Heap

    Heapは、ウェブやiOSアプリにおける、あらゆるユーザーの行動を自動的にキャプチャし、そのすべてを後から測定することができる。

    ピープ氏によるレビューを紹介しよう。

    私がHeapを好んでいることは、特に設定をすることなく、すべてのイベント(クリックや送信など)をキャプチャできることだ。必要に応じて後からレポートを設定する必要はあるが、方法はとても簡単である。

    ファネル分析、また、ユーザーの行動とコンバージョン率の相関関係を把握するために、非常に有益なツールと言えよう。

    Hotjar

    Hotjarは(ほぼ)すべてのことを行える。トリガーポールにとどまらず、ファネルトラッキング、セッションカム、ヒートマップなども使用可能だ。

    利用金額も高くは無く、無料版も充実している。

    Unbounce社のマイケル・アガード氏の意見を紹介しよう。

    私はHotJarをベータ版から使用しており、今では非常に気に入っている。

    HotJarは7つの機能を1つにまとめたツールであり、作業が非常に楽になった。複数のツールに料金を支払う必要はない。複数のアカウントを管理する必要もない。また、必要なインサイトを得るため、複数のスクリプトをページに実装する必要もないのだ。

    あなたがコンサルタントであるなら、これらの作業がどれほど時間がかかるか、おわかりであろう。

    インターフェイスも素晴らしく、とても使いやすい。私がこれまで使用してきた同様のツールは、UXのデザインが良くなかったため、ここで言及させていただいた。

    次に、アレックス・ハリス氏の意見も紹介しよう。

    マウストラッキングの動画機能は、Hotjarの中でも最高の機能の1つだ。この機能を活用することで、訪問客がページをどのように遷移したかを把握することができる。これにより、顧客の観点から、ユーザージャーニーを把握することができる。

    さらに便利なことに、録画した動画や訪問者の属性ごとによって、フィルターを掛けることができる。例えば、数ページ以上進んだ訪問者を特定することもできる。こうすることで、1~2ページしか閲覧していないユーザーを監視する必要はなくなる。

    また、特定のユーザーID、デバイス、地理情報、オペレーションシステム、ブラウザ、などに基づいて録画を見ることも可能だ。

    このファネルトラッキングは、Google Analyticsのファネルレポートよりもはるかにわかりやすい。また、セットアップも簡単だ。さらに、特定のファネル内のポイントに到達した訪問者の動画を見ることもできる。こうした動画を確認することで、訪問者が離脱する理由を仮説立てすることに役立つのだ。

    もちろん、このツールがさらに完璧になるために、いくつか要求したい事項がある。例えば、ドメインをまたいだトラッキングができないことは不満である。もし、ブログをサブドメインで作成している場合、メインサイトからサブドメインへの流れしか追跡できない。

    Inspectlet

    Inspectletは機能が豊富でありながら、安価なツールである。同様の価格帯やカテゴリ内の他のツールと比べ、より多くのクリックストリームのデータを収集し、分析することができる。

    また、フォーム分析、セッションレコード、ヒートマップなども備えている。

    Iridion

    Iridionは専門的なオプティマイザーに注力した、ワークフローのツールである。

    konversionsKRAFT社によって作られたこのツールは、アイデア出しから実装、アーカイブ、その他の機能など、テストプロセス全体に活用できる洗練されたツールである。また、Optimizelyのようなテストツールとの統合も可能だ。

    また、数千ものA/Bテストによって培われた知識を備えており、より効果の出る実験を行うため、グロースハッカーやオプティマイザーの助けとなっている。

    Lucky Orange

    Lucky Orangeは「オールインワンのコンバージョン最適化ツール」を提供している。分析、レコーディング、ライブチャット、ヒートマップ、ファネル分析、フォーム分析、アンケート、などの機能を備えている。

    Maxymiser

    Oracle Maxymiserは非常に強力なツールであり、他のエンタープライズ向けの製品の中では、高額な部類に入る。

    複数のソリューションに加え、柔軟性に富み、パーソナライズにも対応している。レビューによると、サービスやサポートも充実しており、UIもユーザーに気に入られているようだ。

    しかし、高価であることがこのツールにおける大きな欠点である。小規模な組織にとっては、使用が難しいかもしれない。

    Mixpanel

    Mixpanelは、ファネル分析とユーザー行動分析の中で、最も人気のあるツールの1つである。

    ほぼ全てのことが行えるが、設定は自ら行う必要がある。

    LawnStarter社リヤン・ファーレー氏のレビューを紹介しよう。

    我々は、ファネルのトラッキングとモバイル分析にMixpanelを使っている。このツールの素晴らしい点は、セットアップが非常に楽であり、高いレベルでのインサイトが得られることだ。また、トリガーとなる、SNSとEメールのプッシュ通知も素晴らしい。ちょっとした癖はあるものの、データの抽出も簡単である。

    もちろん、デメリットもいくつかある。例えば、iOSではいくつかのバグがあるようだ。しかし、サポートチームが非常に親切に対応してくれた。

    さらに、イベントに基づいてユーザーをセグメントする機能は無く、プロパティしか提供されていない。例えば、説明動画を見たユーザーのコンバージョンが他のユーザーよりも高いかどうか、などを確認する場合、他のツールのように簡単にはできない。

    また、ファネルの設定を90日上に設定できない点も不満である。

    MixpanelとGoogle Analyticsとの比較についてはこちらの記事を読んでいただきたい。

    Mouseflow

    Mouseflowはマウストラッキングのあらゆる機能を提供している。クリックマップ、ヒートマップ、スクロールマップ、ユーザーセッションの記録などが可能だ。

    Optimizely

    Optimizelyは、他を寄せ付けない程、A/Bテストツールのリーディングカンパニーである。

    使いやすく、技術的な知識が無くとも、小規模のテストを実行できる。また、Stats Engineによって、初心者でも失敗することなく、テストを行うことができる。

    Conversion.comのCEOである、ステファン・パブロヴィッチ氏のレビューを紹介しよう。

    賛成意見:
    パフォーマンスと配信が素晴らしい。我々は2012年にOptimizelyに切り替えたが、それはパフォーマンスを重視していたからだ。読み込み時間が遅くなったり、正確な測定ができないプラットフォームを利用することはできない。

    また、Stats Engineも素晴らしい。Optimizelyは、Stats Engineを発表して以降、この業界のリーディングカンパニーとなった。従来は、応用の利かない統計学的な分析が蔓延していたが、そこからの脱却に成功したのだ。他のプラットフォームがOptimizelyを追随することは素晴らしいことである。

    インテグレーションについても言及する価値がある。よく知られていない事実ではあるが、彼らの技術的なパートナーシップは素晴らしい。Mixpanelのようなツールにデータを取り込むことができ、洗練されたテストプログラムに大きな変化を与える。

    開発者のサポートも充実している。我々の開発チームは、Optimizelyの大規模なドキュメントのライブラリーを気に入っている。新しい開発者がすぐに使いこなせるようになるのだ。他のエンタープライズ向けのツールと比較しても、テストのセットアップ方法もシンプルである。

    反対意見:
    Stats Engineは我々にとって長所でもあり、短所でもある。より洗練された分析に注力している点は評価できるが、Stats Engineが「ブラックボックス」であることについてはイライラさせられることもある。予測することが難しいため、伝統的な(そして、適切に適用された)統計分析に頼る場面もある。

    クライアントサイドについても言及しよう。OptimizelyはクライアントサイドのJavaScriptによるアプローチであり、サイトのアーキテクチャに根本的な変更を必要とするテストにおいては、制限されることがある。また、サイトがシングルページアプリケーションを採用している場合、大規模な統合が必要となる。

    American Express社のアラン・キーザー氏もOptimizelyを愛用している理由について語ってくれている。

    我々がOptimizelyを好むのは、このツールが高速でテストを行える、信頼できるツールであるからだ。戦略家にとって、テストのセットアップが簡単でわかりやすい。また、APIを利用することで、開発チームが複数のバリデーションを持つテストを素早く構築することができる。

    また、ドキュメントが豊富であり、活発なコミュニティがあることも、見逃せない点である。

    PageSense

    Zoho社のPageSenseは、複数の最適化機能を1つのツールとして提供しており、Webサイトのコンバージョンに役立つツールである。

    PageSenseの主要機能を紹介しよう。

    Webサイトの主要な指標を測定する、ゴールトラッキングとファネル分析
    ・Webサイトへの訪問者の行動を分析する、ヒートマップフォーム分析、セッション記録
    ・コンバージョン最適化のための、A/Bテスト、スプリットURLテスト

    これは、CROのプロセスへの包括的なアプローチである。全ての機能にレポートをフィルタリングするためのセグメンテーション機能が備わっている。これらは、このお買い得なソフトウェアに新しく追加された機能である。

    ホーバーが可能な大量のメニューのような、インタラクティブな要素の背後にあるデータを把握することができる点も魅力的である。

    Pingdom Website Speed Test

    Pingdom社のWebsite Speed Testを使用すれば、ページの読み込み時間をテストし、分析し、ボトルネックとなっている箇所を特定することができる。

    Website Speed TestはPingdom社が提供する、複数あるツールの1つである。

    このツールについてのピープ・ラジャ氏のレビューを紹介しよう。

    このツールが、他の速度計測のツールと一線を画す点は、個々のファイルの読み込みにかかる時間を、ウォーターフォールのレポートとして提供してくれる点だ。

    Webサイトの遅延の要因を特定することに非常に便利であり、私は他のツールと併用して、このツールを使用している。

    Qualaroo

    Qualarooは、オンページの調査ツールの中で最も人気のあるツールの1つである。

    シーン・エリス氏が立ち上げ、その後大きく成長し、2020年にProProfs社に買収されるまでに至った。適切な顧客を適切なタイミングでターゲットすることに適しており、設定も容易だ。また、OptimizelyやMarketoとの統合も可能である。

    オンボーディングも素晴らしく、他のツールと異なり、わかりにくい点は何も無い。説明ガイドで全てが明らかになっている。

    UpliftROI社の創業者であるアンディ・ハント氏のレビューを紹介しよう。

    全体的に、素早くテストを行うことができ、低コストの定性調査に最適なツールと言える。Qualarooの調査を行うことで、顧客への詳細なインタビューを行うよりも、迅速で低コストに重要な気付きを得ることができる。

    賛成意見:
    テンプレートがあらかじめ用意されている。定性調査に必要なテンプレートがすでに用意されているのだ。例えば、「このWebサイトでの購入をあきらめた要因は何ですか?」などである。こうしたテンプレートのおかげで、とても簡単で素早く調査を開始することができる。

    ワンクリックで統合が可能である。OptimizelyやVWOのように、JavaScriptを1行追加するだけで、すぐに使い始めることができる。

    アップデートも定期的に行われる。新規の回答を得るたびに通知が届き、また、週次のまとめも表示される。これにより、訂正調査の追跡が非常に簡単になる。

    反対意見:
    回答率は低い。アンケートに回答してくれる訪問者は1~3%だ。10~20件の回答を得るためには、月間で100~200件のコンバージョンが必要となる。もしくは、アンケートをファネルの上位にいる顧客に提示しなければならない。

    品質にばらつきがある。回答の約20%は低品質である(オンラインの調査で真面目に回答してくれる顧客は、対面での調査に比べ、少ないだろう)。

    課金は4半期ごとになっている。Qualarooは、月単位ではなく、4半期ごとの課金である。多くの場合は問題ないと思うが、短期的なプロジェクトの場合、問題が生じるかもしれない。

    Qualtrics

    Qualtricsは企業や大学でよく使われている、強力な調査ツールである。大量のデータの収集と分析において、他のツールの追随を許していない。

    複数の企業と仕事をしてきた、オースティンでマーケットリサーチのコンサルタントをしているロブ・バロン氏の意見を紹介しよう。

    2002年以降、プロボを拠点とするこの企業は、オンライン調査に基づくリサーチの最前線に立ち続けている。

    解答者からのパネルを蓄積し、ユーザー主導の新しい手法を導入した。Qualtricsは、ソフトウェアをリースしている多くのCMOに好まれているツールである。

    SessionCam

    SessionCamは人気のあるユーザービリティツールである。セッション再生とマウストラッキングを主軸に、複数の機能を提供している。

    AWA Digital社ジョアン・ヴァン・トンダー氏による、SessionCamについてのレビューを紹介しよう。

    GAでファネルの視覚化を行えるため、ファネル機能を使用しないユーザーもいる。しかし、SessionCamでは、問題が発生した箇所をより詳細に把握することができるのだ。

    ファネル内の特定の段階に関連するセッションをすぐに再生できるだけでなく、フォームが離脱の要因となっている可能性を正確に把握することにも役立つ。そのため、全体像の把握から開始し、さらに掘り下げることも可能であるのだ。

    他のツールと同様、SessionCamでもヒートマップ、スクロールマップ、マウスムーブメントマップを作成することが可能だ。

    GA、UA、Optimizely、VWOなど、他のツールと統合できることも魅力である。そのため、コントロールグループと実際のユーザー行動の差異を詳細に調べることができるのだ。スプリットテストを学習の場として捉えている方にとっては、非常に魅力的な機能であろう。

    月額1,500ドルからという価格のため、多くの中小企業にとっては手の届かないツールであることは残念である。

    また、ピープ・ラジャ氏によるレビューも紹介しよう。

    SessionCamは醜いツールだ。仕事はできるが、見た目が良くない。ユーザビリティとユーザー体験が最悪なのである。多くのクライアントと一緒に使用してきたが、その面倒くささにイライラさせられたものだ。

    データは良いが、このツールを使う体験はひどいものであった。また、フィードバックもあまり受け付けてくれない。

    次に、Dataloop社キーラン・ショヘット氏のレビューを紹介しよう。

    複数のマウストラッキングツールを比較した際、SessionCamのインターフェースが古臭いという事実は、使用を決断する妨げにはならなかった。

    SessionCamはビジネスのニーズに合わせて、カスタマイズが可能なソリューションを提供している。サポートの対応も素晴らしく、顧客をパートナーとして扱ってくれ、多くの大企業と仕事をしている。また、セッションリプレイ、ファネルやヒートマップの分析に役立つツールをClickTaleよりも安価に提供してくれる。

    SiteSpect

    SiteSpectはプロキシサーバーを使用するテストツールだ。そのため、クライアントサイドの問題の多くを回避しつつ、サーバーサイドのツールの堅牢性を併せ持っている。

    サイトスピードの最適化モバイルの最適化、パーソナライゼーションなど、様々な機能を持つのも、このツールの特徴である。

    Building a Digital Analytics OrganizationDigital Analytics PrimerEcommerce Analyticsなどを執筆している、アナリティクスの専門家、かつ、コンサルタントである、ジョーダン・フィリップス氏のレビューを紹介しよう。

    SiteSpectはテストツールと最適化ツールの中でも、世界的に有名なツールの1つである。この領域における先駆者であり、10年の歴史を持っている。このツールの技術は特許を取得しており、Webサイトのコードやモバイル体験を変更することなく、テストを測定することができる。

    この技術を使えば、顧客が定義したパターンを照合し、パターン認識によってテスト内容を照合するため、遅延が発生することが無く、エラー回避も可能だ。また、テストのパフォーマンス速度を向上させる機能や、複数のテストを並行して行うための機能も備えている。

    他のツールと異なり、SiteSpectはあらゆるマークアップ言語 (HTML、WML、JSON、XML)、スタイルシート(CSS)、スクリプト言語 (JavaScriptなど)をサポートしている。音声や動画を含む、あらゆる静的、動的、リッチコンテンツをテストすることが可能だ。SiteSpectは、包括的なモバイルテストのソリューションを初めて提供したツールでもある。

    かつて、SiteSpectは専用のハードウェアが必要であったが、現在はクラウドやオンプレミス環境でも動作する。他のベンダーと同様、「フリッカー」の問題も解決しており、モバイルテストにおける革新を継続している。

    ネガティブな面があるとすれば、技術的には複雑な製品であり、エンジニアのサポート無しでマーケターがすぐに使えるものではない。自身が行うことへの理解と、テストの計画を深く理解する必要があるツールでもある。

    レポートのインターフェースには批判的な意見が多いが、業界標準として広く認められている。月額49ドルか、それ以上を支払いたい人のためのツールではない。テストと最適化に真剣に取り組んでおり、SLAの下、大企業の要求に応えるための技術を求めている企業にとって、強力なツールとなっている。

    Survey Gizmo

    Survey Gizmoは、簡単に作成できるオンライン調査を提供しているツールである。

    無料版では機能が制限されていることを除けば、他のツールと似ている。基本的な機能は備わっており、インターフェースも素晴らしい。

    高度なカスタマイズが必要であれば、有料版を使う必要があるだろう。

    SurveyMonkey

    SurveyMonkeyは、調査の作成と配信を行う、最も一般的なツールの1つである。

    アンケートの作成とデータの分析を非常に簡単に行える。私も以前はこのツールを使用しており、賞のノミネートやリサーチプリジェクトのための調査などで活用していた。

    このツールへの不満は特にないが、感動する体験でもない。仕事を忠実に行ってくれるだけだ。

    マーケットリサーチのコンサルタントである、ロブ・バロン氏のレビューを紹介しよう。

    簡単にリサーチを行えるツールだ。質問を考え、サンプルのサイズを決定すれば、SurveyMonkeyが独自のサンプルペースよりアンケートを実施し、その後の分析を行ってくれる。
    簡単そうに思えるかもしれないが、SurveyMonkeyは質問を事前に検証したりすることはない。アンケートを作成し、質問数と解答者数に応じて金額が決定される。

    こうしたアプローチの問題点は、経験が限られている顧客にとっても、有効なアンケートであるかのように見えてしまうことだ。

    この点については注意が必要だろう。

    TryMyUI

    TryMyUIでは、(自身でテスターを募集すれば)可能な限りの人数をテストに参加させることができる。

    Typeform

    Typeformはのアンケートは素晴らしく、そして、美しい。この記事で紹介したアンケートツールの中で、最高のUXを備えているツールである。

    質問をドラッグ&ドロップして作成できるため、とても簡単である。総合的に素晴らしい体験と言えるだろう。

    このツールに対するピープ氏の意見を紹介しよう。

    Typeformのフォームは最高に美しい。一般的に、人々はアンケートに答えることが好きではない。しかし、Typeformのユーザー体験は素晴らしいため、回答率は増加するだろう。管理画面も洗練されており、他のツールを圧倒している。価格も魅力的である(無料版も提供している)。

    UsabilityHub

    UsabilityHubは人気のあるユーザービリティツールである。

    Unbounce社のマイケル・アガード氏はこのツールを好んでいる。彼の意見を紹介しよう。
    UsabilityHubには素晴らしいユーザービリティツールが備わっている。私はコンバージョンリサーチにこのツールを使用している。特に、実際にテストを行う前の、仮説を確認するために活用している。

    招待メールを送信し、プライベートのテストを行うこともできる。また、UsabilityHubのパネルを使い、ランダムに選択することやデモグラフィックに基づいて選択することも可能だ。

    私が特に気に入っているツールを3つ紹介しよう。

    5秒テスト

    スクリーンショット(例:トップページのヒーロー画像)などのスクリーンショットをユーザーに表示し、その後の質問に答えてもらう。これにより、特定のページやコンテンツに対するユーザーの反応を把握することができるのだ。

    重要な気付きを得ることができ、コンバージョンの妨げになっている要因を特定することができる。

    クリックテスト

    この機能では、ユーザーにスクリーンショットやワイヤーフレームを表示し、各要素をクリックしてもらう。

    例えば、新しい価格表を検討している際、複数のパターンが視覚的にどのように影響するかを実験したりしている。価格表のワイヤーフレームをユーザーに見てもらい、最もお得と感じられるプランをクリックしてもらうのだ。

    質問テスト

    基本的な機能ではあるが、顧客からの気付きを得るための、非常に優れた機能である。

    例えば、新しい見出しのテストに活用することが可能だ。2つのバージョンをユーザーに表示させ、異なるメッセージに対する反応を知るためのテストを行ったりしている。

    UserTesting.com

    UserTesting.comは、テスターを探す場所としては最大の規模を誇っている。

    Optimizely社のクレア・ヴォ氏のレビューを紹介しよう。

    恐竜が現存していた時代(つまり、2010年以前)、私はユーザビリティテストを対面形式で行っていた。これは、怪しげなリストから募集し、彼らをオフィスに招き入れ、Web体験をしてもらうというものであった。

    うまくいくときは、セッション画面や音声を記録することができたが、基本的には、メモを取るメンバーを用意しなければならなかった。それも、手書きである。スタートアップ企業としては最悪の打ち手であったが、それが最善の手段であったのである。

    UserTestingはこのような無意味な作業を不要なものとしてくれた。遠く離れた場所にいるテスターが、Web体験に関するリアルなフィードバックを提供してくれるようになった。自身のWebサイトと、ユーザーに達成してもらいたいタスクを設定するだけで、高品質で素晴らしい動画を手に入れることができるようになった。それも、1日もかからずに。

    自身のWebサイトでうまくいっている箇所、うまくいっていない箇所について、盲目的な意見を排除し、偏見のない状態で知ることができる。このツールを使用することで、素晴らしい気付きを得ることができている。

    賛成意見:

    • セッションの価格が低い
    • 対応が迅速
    • セッションの動画と音声の記録の品質が高い
    • デスクトップ、モバイル、タブレットで使用可能
    • スケジュール管理が容易

    反対意見:

    • 規模を大きくした場合、割高に感じる
    • プロバージョンでないと、ターゲットそうと離れたテスターが割り当てられることもある
    • 大量のデータに基づいた、定性的なフィードバックが求められる

    VWO

    VWOは強力で、人気があり、簡単に使えるA/Bテストツールである。

    「What You See Is What You Get(WYSIWYG)」というエディタ機能により、開発者の協力を得ずとも、マーケターが簡単にテストを作成することができる。

    VWOには、SmartStatsと呼ばれる、ベイズ判定をベースとした機能を有している。これにより、意思決定を容易にし、テストの失敗を防ぐことができるのだ。

    VWOは非常に包括的なツールである。ヒートマップ、クリックマップ、パーソナライゼーションツール、オンページアンケートなどの機能を備えている。

    Perficient Digital社のCROディレクターである、アレックス・ハリス氏のレビューを紹介しよう。

    VWOはコンバージョンテストの素晴らしいプラットフォームである。最も素晴らしい点の1つに、優れたインターフェースが挙げられる。個人的には、ユーザー体験が非常にフレンドリーであり、レポートのビジュアルも魅力的である。他のツールと比較し、レポートやチャートの分析が簡単に行える。その他の良い点としては、新しいテストを簡単に作成できることだ。シンプルで段階的なプロセスであるため、特に初心者にとっては、理解がしやすいツールと言えよう。

    以前は、開発者に対して他のA/Bテストを勧めていた。しかし、VWOがコードのエディタを改善を行い、バグが多く、かつては頭痛の種であった課題が改善されている。

    欠点としては、WYSIWYGについてのものであり、これは、優秀なオプティマイザーは使用すべきではないと考えている。

    コードエディタが無い頃、WYSIWYGは本当に多くのバグがあった。例えば、テストを作成した際、コードを保存していないとバリデーションが壊れ、全てが台無しになってしまうこともあった。今はコードエディタしか使用していないため、そのような事態は避けることができているが、作業内容が失われてしまうこと以上に悲しいことはないだろう。

    また、以前はサポート体制が不十分であり、対応が遅いこともあった。

    WebEngage

    WebEngageは素晴らしいツールだ。(割引のお知らせなどの)通知機能やアンケートなどの機能があり、非常に便利である。

    スタートアップや小規模な組織の場合、無料プランでも十分だろう。トリガーとなるポップアップの作成や調査などのカスタマイズはできないが、目的に応じてシンプルに使用できる点は素晴らしい。

    WebPageTest

    WebPageTestは複数のロケーションからWebサイトのスピードテストを行えるツールだ。

    無料ツールの中では最も詳細なデータを得られる。コンテンツを分割したチャート、ファーストビュー、リピートビューなどを備えている。非常に便利なツールではあるが、Googleのツールほど読みやすくはない。

    Woopra

    Woopraはリアルタイムのデジタル分析ツールであり、セットアップが簡単で、すぐに使用することができる。

    リアルタイムの顧客分析、カスタマーファネル分析、イベントトラッキング、コホート分析など、優れた機能も有している。

    基本的には、あらゆるタッチポイント(ウェブサイト、モバイルアプリ、ヘルプデスク、マーケティングオートメーションなど)のユーザーをトラッキングすることが可能であり、各ユーザーの包括的な行動データを構築することができる。特にスタートアップ企業にとっては有用だろう。

    Woopraは匿名のWebサイトやモバイルアプリのユーザーを、最初の接触から本人確認ができるまで追跡する。ネガティブな面は、GAのようなユニバーサルツールと比較してしまうと、他のツールとの統合が限られている点だが挙げられる。

    Zuko

    かつてはFormisimoと呼ばれていたZukoは、優れたフォーム分析のツールである。The Next Webの表現を借りれば、フォーム分析版のGoogle Analyticsと言える。

    このツールに対するピープ氏のレビューを紹介しよう。

    フォームがある場合、そのパフォーマンスの分析が必要となるだろう。Zukoは、最適化に役立つ詳細な情報を提供するという仕事を十分にこなしてくれる。

    特に、(機能しないことも多い)他のマウストラッキングツールと比較すると、フォーム分析の機能は非常に優れている。

    メジャーなツールからあまり馴染みのないツールまで、非常に多くのツールを紹介した記事でした。これらすべてのツールに精通する必要は全くないと思いますが、自社に最適なツール選びを心掛けたいものです。また、ツールは活用して初めて意味がでてくるものですので、既存で使用しているツールを含め、最適な運用を目指したいと思います。

    この記事は、Digital Marketing Training Delivered by The Best. に掲載された「40+ Conversion Optimization Tools (Reviewed by Experts)
    Home
    」を翻訳した内容です。


    CROサービスのご案内

    アイオイクスではCROサービスを提供しております。

    CROが盛んな米国で著名なCXL社で認定オプティマイザーの資格を取得した担当者がご相談をお受けいたします。

    コンバージョン改善のお手伝いをさせていただきますので、お困りごとがあればお気軽にお問い合わせください。
    >>お問い合わせフォームへ

    投稿 エキスパートによるレビュー付き!40以上のコンバージョン最適化ツールを紹介します。SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

    検索結果とマップパックを独占する、12の実績のあるローカルSEOのアドバイス

    ユーザー行動の変化やモバイルデバイスの普及もあり、「近くの」何かを探す検索行動は日々増加していると思われます。いわゆるローカルSEOの範疇となりますが、Googleの検索結果も進化し続け、完全に無視はできない存在となっています。通常のSEOと同様、ローカルSEOにも様々なベストプラクティスが存在しますが、確実に押さえておきたいポイントをまとめた、Search Engine Journalの記事を紹介させていただきます。

    競争が激化している今日の検索結果においては、ローカル検索での強力な露出は今までにないほど重要となっている。この記事で紹介する12のローカルSEOのアドバイスは、きっとあなたのお役に立てるはずだ。

    特に、物理店舗を構えるビジネスでは、検索結果における露出の重要性は今まで以上に高まっている。

    レストラン、小売店などのローカルビジネスにとって、あなたの商品やサービスを探している潜在顧客を獲得することは非常に重要である。

    コロナウイルスは我々のビジネスのあり方を大きく変容させ、顧客による情報のニーズは高まるばかりだ。ローカルでの露出を高めることは、売上の発生と新規顧客へのリーチにとって、なくてはならないものとなっている。

    しかし、自身のローカルリストが最適化されているかどうか、どのように判断すれば良いだろう。

    以下に、私が実践している12のローカルSEOの戦術をご紹介する。あなたのビジネスの検索での露出向上に、きっと役立つはずだ。

    ローカル検索のプラットフォーム

    Moz、Yext、RIO、RenderSEO、Chatmeter、SweetIQなど、あなたの予算に合うローカル検索のプラットフォームはたくさんある。

    プラットフォームを活用することで、リストの管理が非常に楽になる。いわゆるNAP(Name、Address、Phone number)と呼ばれる、店名・住所・電話番号の管理も含まれる。重複したデータの管理も含め、正確で一貫したデータを数百あるローカル検索エンジンやディレクトリサービスに提供しよう。

    こうした管理を手動で行うことはとても時間がかかり、退屈な作業となってしまう。また、ローカル検索のエコシステムに対し、不正確な情報を提供してしまうことになるだろう。

    備考:ECサイトの場合、Googleの新しい機能であるSWIS(See What is in your Stores)を活用してみるといい。

    これは、Googleマイビジネスに在庫の現況を伝えることで可能となる。

    日々、あなたの商品やサービスを探している顧客に対し、画像、Googele Shopping、GoogleマップなどのGoogleのプロパティで、商品リストに在庫状況を表示させることができる。

    これに対応するプラットフォームの数は限られているが、無料である今のうちに試してみる価値はあるだろう。

    構造化データの活用

    Googleによるコンテンツの理解において、構造化データは非常に重要である。また、クリック数、表示回数、コンバージョン数の増加も期待できる。

    この原則は、ローカル検索にもあてはまる

    そのため、「local business」、「geocoordinates」、「postal address」、「reviews」などの構造化データを実装することは非常に重要であり、パフォーマンス向上の手助けとなる。

    Googleマイビジネスの最適化

    Googleマイビジネスを活用し、最適化していないのであれば、あなたの商品やサービスが重要な場所で表示される機会を逃していることを意味する。

    Googleマイビジネスの最適化には、写真、メニュー、説明、サービス内容など、可能な限りの情報を入力することが含まれる。

    適切なカテゴリに自身のビジネスを掲載していないブランドは多く存在する。

    例えば、ピザ屋の場合、レストランとダイニングの両方に掲載することが可能だ。

    これは、ローカル検索の最適化における、最重要項目の1つだ。メニューや説明などの情報をしっかりと記載するための時間を作ろう。

    加えて、情報は常に最新の状態を保つことが重要だ。

    例えば、「近くのタイ料理」と検索し、レビューが高く、営業時間内のレストランを探したとしよう。しかし、実際に車で行ってみたところ、一時的に閉店していた。このような場合、ユーザー体験は悪いものとなってしまうだろう。

    このレストランが営業を再開したとしても、もう一度行こうという気が起きないかもしれない。

    このように、店舗側がローカル検索の情報を更新し、一時的に休業していることを潜在顧客に明確に伝えることは、とても重要なのである。

    テイクアウトに対応している場合は、ローカル検索を活用し、ダイニングルームは閉まっているがキッチンは営業している旨を顧客に伝えることができる。

    加えて、Googleは店舗の営業状況をGoogleマップ上に表示することを開始している。

    1店舗に複数の部門がある大規模な小売店の場合、下記のようにGoogleマイビジネスを活用し、それぞれの営業時間を表示させることができる。

    必要に応じ、この機能を活用して情報を更新しよう。

    • 営業時間
    • 高齢者向けの営業時間
    • ドライブスルーの営業時間
    • デリバリーの時間
    • テイクアウトの時間
    • 訪問時間
    • 受け取りの時間

    また、Googleマイビジネス内のQ&Aにもタイムリーな情報を更新しよう。

    • 休業や営業時間の変更
    • イベントの中止、チケットの払い戻しや交換
    • 電話やメールの件数と予測される遅延
    • 予約時の手続きの変更
    • 健康や安全対策の強化について
    • 提供するサービスの変更内容

    イベントステータスの更新

    イベントを開催する場合は、eventの構造化データを付与しよう。EventStatusは新しいスキーマのタイプであり、予定されているイベントの現在の状況をユーザーに伝えることができる。

    属性は下記の通りだ。

    • EventCancelled:イベントはキャンセルされた。
    • EventMovedOnline:イベントはオンラインに移行された。
    • EventPostponed:イベントは延期され、新しい日程は未定。
    • EventRescheduled:イベントは延期され、新しい日付に更新された。
    • EventScheduled:イベントは予定通り開始される。

    イベントの情報は、Webサイトでのマークアップや、Facebookイベント、Eventbrite、Meetupなどの外部ソースを通じて、あなたのビジネスのプロフィールに取り込むことができる。

    リスティングの編集

    常にリスティングの内容を確認し、特に以下の項目を注意しよう。

    • 営業状況の自動更新(「一時的に閉鎖」など)
    • 営業時間の変更が予定されている場合
    • 属性の変更が予定されている場合
    • ビジネスの詳細の変更が予定されている場合
    • その他、変更が予定されている場合
    • 無効なリスティング

    評判の管理

    ポジティブなレビューと良いユーザー体験を与えることが、ローカルのマップパックでの上位表示において重要である。ネガティブなレビューでも、ポジティブなレビューであっても、返答をしていないケースが多く見られる。

    塗装業者を選んでいる場合、4つ星のレビューが20件、2つ星のレビューが5件あったとしたら、その業者に依頼することをためらうかもしれない。

    ユーザーはレビューを信用している。また、ネガティブなレビューを放置しておくと、状況はさらに悪化していまう。

    返信をしていれば、その返信が他のユーザーの信頼を高めることにつながり、別のビジネスチャンスが生まれるかもしれない。

    備考:ポジティブなレビューも、ネガティブなレビューも、常に内容を確認し、対応しよう。また、自然なレビューを獲得することに注力しよう。加えて、ファーストパーティーのレビューをWebサイトに掲載しよう。

    ローカルコンテンツの活用

    SEOは、あらゆるデバイスやプラットフォームにおいて、ポジティブな体験を提供することで、エンドユーザーが情報を得る手助けをすることだ。

    各地域に適応した、独自の高品質なコンテンツを掲載しよう。ローカルに特化したコンテンツは、近隣の潜在顧客に対する認知度の向上に役立つはずだ。

    また、オンページの最適化として、地域固有の用語を含めるようにしよう。こうした情報を記載する対象は、見出し、タイトル、メタデータ、画像のaltテキスト、テキスト情報などが含まれる。

    また、コロナウイルスに関連するコンテンツは常に用意しておこう。

    エンドユーザーからの信頼を得ることにつながり、素晴らしいレビューの獲得も期待できる。

    適切な予防措置をとっていることを伝えることで、顧客が食べ物をピックアップしに来たり、店内で買い物をする場合、より多くの商品やサービスを販売することができるかもしれない。

    メッセージを活用した顧客との接点

    Googleマイビジネスのアプリをダウンロードし、メッセージ機能をオンにしておき、顧客があなたに連絡が取れる状況にしよう。

    電話での対応ができない場合、また、営業時間外の場合、メッセージ機能を活用することで、顧客は必要なサポートを受けることができる。

    備考:自動のウェルカムメッセージを用意し、顧客に営業状況を伝えるようにしよう。

    トレンドの把握

    Googleトレンドをよく確認し、自身のブランドや業界に関連するキーワードやトピックに対し、検索における関心や行動の変化を把握しよう。

    自身のビジネスにとって最重要であるキーワードを分析し、それらのキーワードに対し、検索がどのように推移しているかを確認しよう。

    そして、Webサイトのパフォーマンスを計測し、ユーザーがコンバージョンするタイミングや、コロナウイルスの影響を考慮に入れ、予測を立て、レポートを作成しよう。

    備考:ExplodingTopics.comでは、Googleトレンドのデータをもとに、「爆発的」なトレンドのあるトピックを表示している。市場調査や新規ビジネスの発見に役立つだろう。

    音声検索とモバイルへの最適化

    ユーザーは常に質問をしている。ユーザーが質問する相手がデジタルアシスタントであっても、あなたのブランドが答えを提供する必要がある。

    また、Webサイトに最適化を施し、自身の商品やサービスに関する一般的な質問への回答を提供する必要もある。

    掲載する内容のヒントを得るために、サイト内検索のデータやGoogle Analyticsのデータを確認し、ユーザーがどのような質問をしているか、確認しよう。

    また、サードパーティー製のツールや、GoogleのPeople Also Askの機能も活用しよう。

    さらに、ローカル検索の多くはモバイル端末で行われるため、高品質な画像、コンテンツ、素早いロード時間など、モバイル端末への最適化も怠らないようにしよう。

    順位測定とランディングページの作成

    ランキングが全て、というわけではない。しかし、ローカル検索の施策に対する効果測定の指標として、有益である。

    良いユーザー体験を提供するためのランディングページを用意しよう。そのランディングページは、レスポンシブ対応、ロード時間の短縮、最新のスキーマコード、コールトゥアクション、デザイン要素などに対応すべきだ。

    これらの全てが、あなたのブランドの上位表示とコンバージョンの向上に寄与する。

    備考:多くのローカルプラットフォームでは、最適化されたランディングページがすでに用意されている。社内で新たにテンプレートを構築する必要がなく、すぐにページを作成することができる。また、ページのホスティングも行ってくれるため、社内のリソースをほとんど必要としないだろう。

    リンクが依然として重要であることを忘れべからず

    ローカルや一般的なサイト、ブログなどを常に調査し、質の高いリンクを獲得する機会を探そう。

    良いコンテンツを保持し、ユーザーからの評価も高いコンテンツからのリンクを獲得することができれば、信頼と信用を得ることにつながる。

    ローカルをターゲットとしたリスティング広告やブログからの掲載も検討しよう。

    これは、あなたのWebサイトの露出を高めるために、今でも非常に重要な要素である。

    ローカルでの存在感を強めることは、競争が激化している現在の状況において、今までにないほど重要となっている。

    ユーザーはあなたのブランドに関連する商品やサービスを探している。彼らに対し、あなたの存在を訴求しよう。

    今回の記事で紹介したアドバイスに従うことで、検索結果の上位に表示され、ローカル検索を支配することができるだろう。

    ローカル検索の領域においては、Googleも次々と新しい機能や表示方法を提供しており、これらの情報は常にキャッチアップしておきたいものです。こうした、新しい機能を実装することで新たな露出を獲得できるかもしれません。また、機能は同一であっても、伝える内容などは時流に即したものにしていきたいです。多少の手間はかかってしまうかもしれませんが、それに対するリターンを考えれば、対応の時間を割くことは無駄ではないと思いました。


    この記事は、Search Engine Journal に掲載された「12 Proven Local SEO Tips to Dominate the SERPs and Map Pack」を翻訳した内容です。



    お役立ち資料ダウンロード

    アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

    無料でダウンロードいただけますので、ぜひご活用ください。

    >>お役立ち資料を見てみる
    >>メールマガジンに登録する

    投稿 検索結果とマップパックを独占する、12の実績のあるローカルSEOのアドバイスSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

    大規模Webサイトの内部リンク最適化のための11個のポイント

    あくまで一般論ではありますが、Webサイトの規模が大きくなればなるほど、SEOの難易度も増加していくものです。

    いわゆるデータベース系のサイトでは、アーキテクチャやユーザビリティ、クロールとインデックスなど、見るべき項目は多岐にわたります。

    テクニカルな領域の難易度が高くなる状況ではありますが、その分、基本的なことを見落としてしまうこともあるかと思います。

    その中でも、「内部リンクの最適化」に焦点をあてた、Search Engine Journalの記事を紹介いたします。

    大規模なWebサイトの場合、内部リンクの構築には特別な注意を払うべきだ。

    この記事では、内部リンクの最適化のためのシンプルなチェックリストとどこから始めるべきかを紹介しよう。

    大規模なWebサイトにおける内部リンクは、その価値に見合うほど、愛され、注目され、最適化されているわけではない。

    内部リンクは、Webサイトの権威性と検索結果での上位表示に役立つという確固たる評判がある。また、大規模WebサイトのSEO担当者が効率的かつ大規模に、ユーザー、クローラー、リンク効果を自由に動かすことができる、数少ないリンクベースのリソースでもある。

    (内部リンクの「なぜ?」については、こちらの記事によく書かれている。)

    優れた大規模Webサイトとは何か?内部リンクの最適化が徹底されており、Googleが新しいコンテンツを発見しやすく、素早くインデックスできるWebサイトと言えるだろう。

    この記事では、大規模Webサイトにおける内部リンク構築と最適化をどこから始めればよいのか、無視してもよいものは何か、そして、コンテンツ公開時における注意点は何か、といった疑問にお答えする。

    パンくずリストを忘れべからず

    パンくずリストは、カテゴリ間や様々なセクション間でコンテンツを結びつけることに役立つが、あまり実施されておらず、多くの場合見過ごされがちな、リンクを自然に設置できる簡単な場所である。

    加えて、自動化も可能であり、ユーザーが「戻る」ボタンを押すことなく、簡単に回遊する手助けにもなる。

    理想的には、中間に位置する「パンくず」は、中規模な価値を持つページであることだ。具体例を挙げると下記となる。

    Home>サブカテゴリー>製品

    主要なカテゴリーページやメインとなる製品ページには自然とリンクや注目が集まる。これを活かしつつ、機能性を維持しながら、中規模な価値を持つページに広げていこう。

    内部リンクの修正

    簡単な整理が最適化にとって有効である。

    多くのWebサイトが、壊れたリンクを修正する前に、新しいリンクの構築を検討してしまう。

    壊れたリンクは、その役割を果たすことができていない。

    管理する対象を広げる前に、既存のリンクを監査し、修正箇所を特定しよう。

    大量のコンテンツを持つWebサイトや季節性のある製品を扱うWebサイトの場合、四半期ごとにこうした監査を行うことで、手に負えなくなる前に管理することができるだろう。

    リダイレクトチェーンの特定と修正

    リダイレクトチェーンは、良く設計されたWebサイトにも起こるモノであり、特に、大量の製品を扱っているWebサイトに顕著である。

    ある製品の在庫が切れた場合、その代替の商品にリダイレクトを設置する。

    そしてこのサイクルが繰り返され、最終的には10個の製品のリダイレクトチェーンとなってしまう。

    手っ取り早い修正方法は、主要なカテゴリページにリダイレクトを設置することだが、不便となる場合もある。

    在庫がある関連製品のページへとリダイレクトすると簡単ではあるが、メンテナンスが必要である。

    リンクを整理し、可視化できるマップを作成する

    複数のリンクカテゴリーを可視化するための簡単な方法は、紙に書いて整理することだ(もしくは、テキストをGoogle Sheetに書き出してもよい)。

    整理したマップに主要な内部リンクのカテゴリーを記載することで、Webサイトのリンクツリーの実情を把握することができる資料となる。

    また、このマップを作成することで、孤立したページを特定することや、内部リンクが不足している(もしくは、過度に設置されている)ページを把握することができる(Search Consoleには内部リンクのレポート機能がある)。

    クリックの深さを修正する

    これは非常にわかりやすい課題であるが、見過ごされがちな課題でもある。

    特に、ニッチな商品を扱う大規模なWebサイトでよくある課題だ。

    特定の商品ページにたどり着くまでに多くのクリックを要する場合は、その道のりを短縮できる方法を検討する価値があるだろう。

    一般的には3クリック以内といわれているが、Webサイト内の全てのページが同じように関連しているわけではないため、やや不明瞭な指標となっている。

    トップページから3クリック以内、というのは良い指標ではあるが、5クリックを必要とするページは必ず圏外になる、というわけではない。

    明確なユーザージャーニーがあり、ビジネスにとって主要なページ(製品トップ、カテゴリートップ、リクエストの多いページ、など)へ簡単にアクセスできる状況にしよう。

    そこから、クリック数を減らしていくのだ。

    ナビゲーショナルディフェンス

    時折、SEO担当者は課題解決のために過剰なエンジニアリングを行い、その結果、不用意な別の課題を作り出してしまうことがある。

    最も強力で広範囲なリンクの設置場所(ヘッダー、フッター、メインナビゲーション、サブナビゲーション)は、ビジネスにおける最も価値のあるページのために活用しよう。

    検索は重要であるが、ユーザービリティやカスタマージャーニーも同様に重要である。

    ユーザーやビジネスにとっての価値が明確でない限り、これらの領域にリンクを設置する衝動に駆られないようにしよう。

    一般的には、重要なエントリー、コンバージョン、情報ページなどがこの領域に適しており、すぐにインデックスさせたい新しいコンテンツは適していない。

    備考:強力なリンクは魅力的ではあるが、リンクのためにコンバージョンに至る道のりを不明瞭にすべきではない。

    リンク数を半分にし、権威性を2倍にする

    これは必ずしも一般的な内容ではないが、まずは内容を見て欲しい。

    何百ものリンクをページに設置してしまうと、PageRankを伝える能力や効率的にユーザーを遷移させる能力が奪われてしまう。

    少なくとも、クリック過多によりユーザーを失ってしまうだろう。

    さらに、各リンクから奪われるPageRankが多ければ多いほど、最終的に伝わるPageRankは少なくなってしまう。

    これについては、「PageRankについての簡単な解説」という記事を参照して欲しい。

    こうした場面で検討すべき項目を挙げていこう。

    それらのリンクは必要なリンクであるか?理想的なユーザー行動に余計なアクションを追加していないか?ユーザーを混乱させていないか?ビジネスにとっての目的を果たしているか?

    Webサイトやユーザーのためにならないリンクは削除しよう。

    コンテンツ公開におけるチェックリスト

    優れたコンテンツが詳細な情報に埋もれてしまうことはよくある。

    下記の重要な項目に取り組み、基本的な作業が完了しており、後から何時間もかけて修正する必要がないようにしよう。

    ・新規ページのキーワードにあわせ、キーワードのデータをベンチマークしておく
    ・本文内に関連する内部リンクを設置する
    ・リンクマップを更新する
    ・アンカーテキストの最適化を行う(「続きを読む」、「ここをクリック」、「予約する」などは使用しない)

    内部リンク構築の自動化

    何千、何十万のページにリンクを設置することは簡単な作業ではない。

    「10万本のリンクを手作業で設置したいんだ!」と考える人はいないだろう。

    内部リンクの生成プロセスは、可能な限り自動化ができることが望ましい。

    CMSの機能を使用し自動に内部リンクを組み込もうが、カスタムスクリプトで関連するカテゴリーのコンテンツに内部リンクを設置しようが、いずれにしても、内部リンクの設置を拡大化させることが重要だ。

    手動のサイトマップが未だに存在していることは、ただただ驚くばかりである。

    自動化を見据えて作成されていない古いWebサイトを引き継いだ場合、常に新鮮な状態を保つため、自動化を採用することは当然のことである。

    内部リンクの自動化に適した一般的な箇所は、パンくずリスト(上記参照)、関連カテゴリーや製品の提案、「次に読む」の記事の提案、などである。

    コンテンツ公開時にリンクを指定する

    新しいコンテンツは、関連性のある重要なページからリンクが張られている必要がある。

    カテゴリーページであれ、関連ブログであれ、関連する価値の高いキーワードでランキングされているページであれ、内部リンクを設置されていない状態で公開すべきではない。

    これらは、(SEOや企業によるコンテンツ作成が本格化する前の)ブログ記事、PRは行われているがSEOが行われていない新発売の製品ページなどによく見られる。

    おまけ:他部門による協力

    正直に申し上げると、これには多くの会話が必要となる。

    しかし、リンクの最適化についてのコミュニケーションを図ることや社内での啓蒙活動は、選択肢を広げ、施策の効果を活かすために非常に役にたつ。

    良かれと思い行った施策が、他部署のおかげで台無しになってしまうことはよくある。

    規模の大きい施策に取り組む場合、賛同を得ること、技術的な変更点を伝えることを、製品に影響が出る前に行うことが必要である。

    まとめ

    内部リンクはSEOの重要な手段である。

    しかし、その効果は、適切に一貫して活用された場合に限る。

    大規模Webサイトの場合、その規模に適した管理方法を見つけることが何よりも重要だ。

    定期的なメンテナンスと考え抜かれた自動化により、自社のコンテンツを最大限活用する戦略を構築することが可能となる。

    管理するページが多くなればなるほど、内部リンクの管理も難しくなりがちです。

    記事中にもありましたが、新しく内部リンクを設置する箇所に意識が向きがちですが、壊れたリンクの修正や、それを可能にする管理体制なども事前に強化していきたいものです。

    内部リンクの最適化は注力していきたい領域ですが、増やせば増やすほど効果が高まるものでもないため、最適なバランスを見つけられればと思います。


    この記事は、Search Engine Journal に掲載された「11-Point SEO Checklist for Enterprise Internal Link Optimization」を翻訳した内容です。



    お役立ち資料ダウンロード

    アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

    無料でダウンロードいただけますので、ぜひご活用ください。

    >>お役立ち資料を見てみる
    >>メールマガジンに登録する

    投稿 大規模Webサイトの内部リンク最適化のための11個のポイントSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。