【お知らせ】「SEO Japan」が開設20周年記念でロゴデザインをリニューアル!ロゴ入りグッズのプレゼントキャンペーンを実施

こんにちは、SEO Japan/アイオイクスの本田(@hontaku)です。
いつもSEO Japanをご覧いただき、誠にありがとうございます。

本日、2022年2月22日にアイオイクス株式会社及びSEO Japanは20周年を迎えました。

サイト開設20周年を記念して、SEO Japanのロゴをリニューアルし、ロゴ入りグッズのプレゼントキャンペーンを実施することになりましたのでお知らせいたします。

 

(旧デザイン)

(新デザイン)

 

■新ロゴデザインのコンセプト

「顧客に伴走し、顧客とともに栄える」、「Webマーケターと共に成長するメディアへ」というアイオイクスとSEOJapanの理念をあわせた【共創と共栄】を表現しました。

SEOとJapanという異なる単語からできた文字列をつなぐ意味で「O」の文字にアクセントポイントを設定。
丸の形状は【共創】を意味し、他の文字列よりも20%ほど大きくすることでアイコンとしての機能と、【未来への成長】をイメージさせました。

カラーリングは、アイオイクスのコーポレートカラーである緑と黄をベースに面積の割合を調整。グラデーションカラーは【先進性】と【共創】をイメージさせます。右に黄色のアクセントカラーを置くことで右肩上がりに上昇するイメージと新しい方向へ導くイメージを付与しました。

 

■20周年記念プレゼントキャンペーンついて

ロゴデザインのリニューアルを記念して、このたびロゴ入りのノベルティグッズを作成いたしました。

SEO Japan公式Twitterアカウント(@ioixseo)をフォローしていただき、キャンペーンツイートをリツイートといいね!をしていただいた方の中から抽選で、SEO Japanのロゴ入りパーカ、Tシャツ、マスク、のいずれかを合計100名様にプレゼントいたします。
なお、リツイート時に引用RTでSEO Japanへの一言メッセージをいただけると、大変嬉しいです。
また、当選確率がグンっとアップするかも知れません(笑)

【プレゼントの応募はこちら

(パーカ・Tシャツ・マスク)

 

(ステッカー)当選した方には全員ステッカーもプレゼント

 

SEO Japanでは、進化するSEOやWebマーケティングの情報をより多くのWebマーケターの皆様に届けられるよう、これまでの「SEOの啓蒙」という殻を破り、今後も発信し続けて参ります。

引き続きよろしくお願いいたします。

 

追伸:アイオイクスでは一緒に働く仲間を大募集中です!!採用ページはこちら

ご興味ある方はお気軽に@hontakuまでDMください!

投稿 【お知らせ】「SEO Japan」が開設20周年記念でロゴデザインをリニューアル!ロゴ入りグッズのプレゼントキャンペーンを実施SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

【無料ダウンロード】「2022年 SEOガイド決定版」を翻訳・リリースしました

こんにちは、SEO Japan編集部です。

例年、SEO Japan編集部では、BacklinkoによるSEOガイドを翻訳し、ホワイトペーパーとしてリリースしております。(2020年 SEOガイド決定版2021年 SEOガイド決定版)。

そして、今年も例年にならい、SEO Japan編集部による翻訳を行い、「2022年 SEOガイド決定版」をリリースいたしました。
(翻訳元:The Definitive Guide To SEO In 2022

SEOの基本を押さえつつ、2022年のトレンドにも触れた濃い内容となっております。

ぜひSEOに取り組む際の参考としていただければ幸いです。

※翻訳元であるBacklinkoに許可をいただいてのリリースとなります。

ホワイトペーパーの目次

  1. Core Web Vitals
  2. Google Passage Ranking
  3. 強調スニペットへの最適化
  4. 画像検索の台頭
  5. ドメインオーソリティ2.0
  6. 動画への高い注目は継続
  7. 検索意図の理解
  8. CTRの減少へ抗う
  9. すぐに役に立つSEOのアドバイス

ダウンロードはこちら

ダウンロードは以下のページよりお願いいたします。

2022年 SEOガイド決定版

投稿 【無料ダウンロード】「2022年 SEOガイド決定版」を翻訳・リリースしましたSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

【ウェビナー】Google Search Console 実践セミナー ~プロが使用しているノウハウ10選~

 概要

Google Search Consoleは、Googleが無料で提供しているツールで、SEOを行う上で欠かせないものです。
しかし、

「 Google Search Consoleのどこを見て、何をしたらいいか分かりません」
「公式のヘルプページは、文字ばかりで分かりづらいです」

という声をよく耳にします。

下記はGoogleが提供している「Search Consoleスタートガイド」ですが、確かに文字ばかりで分かりづらいですよね。

そこで、図解を交えながら、私が普段どのようにGoogle Search Consoleを使用しているかをまとめたホワイトペーパー「Google Search Console 実践マニュアル ~プロが使用しているノウハウ10選~(全107ページ)」を2021年6月にリリースしました。


このホワイトペーパーはリリースから2か月間で「1,200ダウンロード」され、当社が発行した歴代のホワイトペーパーのダウンロード数を抜き1位になるほどの反響でした。

しかし、その一方で、

「ページ数が100ページと多くて、なかなか読む時間が割けないです」
「分からない部分があるので、解説するセミナーを開催してほしいです」

という声を頂きました。

そこで今回、ホワイトペーパー(全107ページ)を全て解説するセミナーを開催することになりました。

下記に当てはまる方はぜひご参加下さい。

  • Google Search Consoleのどこを見て、何をしたらいいか分からない方
  • ホワイトペーパーをダウンロードしたけれど、すべて読み切れていない方
  • ホワイトペーパーをダウンロードしたけれど、すべて理解できていない方

目次

  1. 「低品質コンテンツ」の見つけ方と対処方法
  2. 「重複コンテンツ」の見つけ方と対処方法
  3. 「被リンク」を無駄にしているページの見つけ方と対処方法
  4. 「SSL化のミス」の見つけ方と対処方法
  5. 「noindexの誤使用」の見つけ方と対処方法
  6. 「sitemap.xmlのミス」の見つけ方と対処方法
  7. 「意図しないインデックスページ」の見つけ方と対処方法
  8. 「アノテーションのミス」の見つけ方と対処方法
  9. 「ソフト404」の見つけ方と対処方法
  10. 「孤立したページ」の見つけ方と対処方法

※当日までに内容が変更になる可能性がございます。

登壇者

谷藤 剛
go tanifuji

インハウスSEO担当を経て、アイオイクスに入社。

SEO歴は11年。

SEOコンサルを行う傍ら、SEOの研究や実験を行う。

最短で上位表示をさせる実験を行った結果、たった2日間で上位表示に成功する。

 

このような実験内容や最新のSEO情報をオウンドメディア(SEO Japan社員ブログ)を通じて情報発信を行っている。

【保有資格・認定】

・中小企業診断士

・米国semrush社 テクニカルSEO試験合格

・米国CXL社 テクニカルSEO試験合格

Twitter:@go_tanifuji

セミナー詳細

日時

2022年2月24日(木)13:00~ 14:00

タイムテーブル

  • 13:00~13:40:セミナー
  • 13:40~13:45:休憩
  • 13:45~14:00:質疑応答

※ご質問がなくなり次第、終了となります。

参加人数

80名まで
(応募者多数の場合は、抽選を行います。)

対象となる方

  • SEOに取り組まれている事業会社様
  • 今後SEOへの取り組みを検討されている事業会社様

※恐れ入りますが、同業他社の方・個人の方・広告代理店の方の応募はご遠慮ください。

参加費

無料

会場

Zoomによるオンライン配信となります。
当選された方には、視聴可能なリンクをお送りいたします。

募集期間

2月22日(火)17:00まで

申し込みフォーム

お申し込みは、以下のフォームよりお願いいたします。
当選された方には、後日視聴用のURLおよびアンケートをお送りいたします。


投稿 【ウェビナー】Google Search Console 実践セミナー ~プロが使用しているノウハウ10選~SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

GoogleのEATにおける、10の誤解を解く

ここ数年間でもはや必須の概念となったと言えるE-A-Tですが、概念であるが故、様々な誤解も生まれています。SEOにとって非常に重要であることは間違いないのですが、正確に理解をしなければ、不要な施策や作業を生み出しかねません。今回は、E-A-Tにまつわるよくある10の誤解を説明した、Searh Engine Journalの記事を紹介します。

E-A-Tの仕組みとGoogleの使用法について、多くの混乱と誤解がある。この記事では、GoogleのE-A-Tにおける、10の誤解を紹介していく。
E-A-T(専門性、権威性、信頼性)は、2014年度版のGoogleの品質評価ガイドラインで初めて用いられた概念である。

このガイドラインは、Googleによる検索結果の品質評価の際に使用される。検索結果の品質評価では、何千人もの評価者が雇用され、Webページを手動で評価し、そのWebページの品質に関するフィードバックをGoogleに送信する。

品質評価者によるフィードバックはベンチマークされ、Googleのアルゴリズムの改良に用いられる。E-A-Tは、該当のWebサイトが信頼に足る専門的なコンテンツを提供しているかどうかを測定するための基準として機能している。

ガイドラインには、以下の記述が見られる。

「有益な目的のある全てのWebページにとって、専門性、権威性、信頼性(E-A-T)は非常に重要である。」

Googleは、品質評価者に対し、以下を考慮するよう、求めている。

  • 分析しているWebページのメインコンテンツのE-A-T
  • Webサイト自体
  • Webサイトのコンテンツの作成者

現行の品質評価ガイドラインでは、E-A-Tという言葉は、175ページ中137回、用いられている。

この1年間、特に、2018年8月1日にロールアウトされたGoogleのコア・アルゴリズム・アップデートによるオーガニックトラフィックのパフォーマンスの変化と関連して、E-A-TはSEO業界における大きな話題となった。

SEOの専門家はE-A-Tがこのアップデートにおいて重要な役割を果たしていると推測し始めた(Googleは後にウェブマスター セントラル ブログでこれを認めている)。特に、E-A-Tに大きな問題を抱えるYMYL(Your Money, Your Life)の領域のWebサイトに大きな影響があったようだ。

SEOの業界で様々な意見が交わされることはよくあるが、E-A-Tについての議論はすぐに混乱、誤解、事実誤認をもたらした。

こうした誤解の大半は、その理論とGoogleの現状のアルゴリズムへの反映との間に存在するズレが起因している。

優れたE-A-Tを持つWebサイトを検索結果画面に表示させることがGoogleの目標であり、アルゴリズムによってそれを実現しようとしている。しかし、E-A-T自体は、現在のアルゴリズムがどのように機能しているかを説明するものではない。

この記事は、E-A-Tにまつわる10の都市伝説や誤解を解くことを目的としている。また、E-A-Tがどのように機能し、Googleがどのように利用しているかも明らかにしたい。

1.E-A-Tはアルゴリズムではない

E-A-T自体がアルゴリズムであるわけではない。

パブコンのQ&Aセッションにて、ゲイリー・イリェーシュ氏は、「Googleは何百万もの小さなアルゴリズムの集まりであり、それらが一体となり、ランキングスコアを算出している。こうしたベイビー・アルゴリズムの多くは、Webページやコンテンツ内にある、E-A-Tとして概念化が可能なシグナルを探している。」と述べている。

つまり、E-A-Tは特定のアルゴリズムを指すわけではないが、Googleのアルゴリズムは、サイトの内外で、E-A-Tの良し悪しに関連するシグナルを探しているのだ。これは、「Web上のリンクを活用して権威性を理解する」ページランクのようなものだ。

2.E-A-Tスコアというものは存在しない

前述と同様のQ&Aセッションにて、イリェーシュ氏は、「内部的なE-A-TスコアやYMYLスコアといったものは存在しない」ことを認めている。

GoogleのアルゴリズムがE-A-Tスコアを付与しているということはなく、評価過程でE-A-Tを分析している品質評価者が個々のWebサイトのランキングに直接影響することもない。

3.E-A-Tは直接のランキング要素ではない。専門性、権威性、信頼性も、それぞれが直接のランキング要素ではない。

これは、E-A-Tがランキングにおいて重要ではない、ということよりも、セマンティックについて関連する議論である。

ページスピード、HTTPS、タイトルタグ内のキーワードなど、Googleは少なくとも200のランキング要素を用いており、これらは特定のページのランキングに直接影響する。

E-A-Tはこのような影響を与えるものではなく、ランキングにおける役割はより間接的なものである。

E-A-Tはランキング要素なのか?スピードのように直接測定可能な技術的なものであるか、という意味では、そうではない。

人間が算出するように、そのコンテンツがE-A-Tと合致しているかどうかを判断するためのプロキシとして、複数のシグナルを用いている。

この意味においては、ランキング要素であると言える。
引用元:Danny Sullivan氏のTwitter

「E-A-Tの要素が現在のアルゴリズムにどのように組み込まれているか?」という質問に対し、AJ・コーン氏は下記のように答えている。

多くのSEO担当者が、専門性、権威性、信頼性がランキング要素であると考えているようだ。しかし、それらはアルゴリズムがどのように機能しているか、ということではなく、アルゴリズムがすべきことを近似的に示しているに過ぎない。例えば、これらに影響を与えるために、Googleがアルゴリズムとして何を行うか、といった議論のほうがはるかに良いはずだ。健康関連のトピックにおいて、価値の高い医療系のテキストとの関連性を図るために、GoogleがBioSentVecを使用するだろうか?確信があるわけではないが(Googleはこれらを実験していると個人的には考えているが)、こうした議論のほうが、「専門性をより良く伝えるために、署名欄にDr.を含めるようにすべきか」といった議論よりも、はるかに有益だろう。

4.E-A-TはすべてのWebサイトが注力すべきものではない

Googleは、品質評価ガイドラインにて、特定のWebサイトに期待されるE-A-Tのレベルは、そのWebサイトのトピックや、どの程度YMYLの領域であるかによると、明言している。

例えば、「高いE-A-Tが求められる医療系のアドバイスは、適切な医療の専門家や認定を受けた人や組織によって書かれ、作成されるべきである」、としている。

しかし、写真やギターの弾き方といった、趣味の領域のWebサイトにおいては、専門性をそこまで必要としていないため、E-A-Tの分析としては、低い水準となる。

読者の幸せ、健康、経済状況、幸福などに直接の影響を与えうる、YMYLのトピックを扱う企業の場合、E-A-Tは最重要項目となる。

また、クレジットカードの情報を受け付けるため、ECサイトもYMYL領域に分類されることには、注意が必要だ。

eat-6-2-6116715b9b7a5-sej-768x478.png (768×478)

このE-A-Tメータは、異なるカテゴリのWebサイトで、どの程度E-A-Tが求められるかを、端的に表している。

5.E-A-Tに注力をすることが、テクニカルSEOの監査やその他のSEOの目的の代替となるわけではない

E-A-Tに対応することだけで、SEOのパフォーマンスが向上するわけではない。

オンページの最適化、品質の高いリンクの獲得、テクニカルSEOなど、SEOを成功に導くための従来の施策も、E-A-Tの取り組みの成功にとっては重要なのである。

アルゴリズムのアップデートによってネガティブな影響を受けたWebサイトにとって、E-A-Tは検討すべき事柄の1つに過ぎない。

コアアップデートからの回復には、Webサイト全体の品質の向上、ユーザー体験における課題への取り組み、テクニカルSEOの問題の解決、Webサイトのアーキテクチャの改善など、複数の異なる領域の改善が求められるのである。

さらに、ページスピードが遅い、クローリングやレンダリングに課題がある、など、技術的な課題を抱えるWebサイトは、Googleに適切にインデックスされることすら叶わない可能性もある。

他の課題も含め、Webサイトのパフォーマンスに与える度合いによって、E-A-Tへの取り組みに優先度をつけるべきだ。

6.E-A-Tは新しい概念ではない。また、誤った情報に対するGoogleの戦いも、新しいものではない。

E-A-Tについての新しいコンテンツが数多く公開されているが、その中には、E-A-Tは2018年8月1日のコア・アルゴリズム・アップデートの時期に始まった、Googleによる新しい取り組みであると主張する記事もある。

しかし、E-A-Tは2014年度版の品質評価ガイドラインで初めて導入されている。

さらに、E-A-Tに注目した調査を行ったところ、2018年から2019年の間のコアアップデートでネガティブな影響を受けたWebサイトの51%が、2017年3月の「フレッド」アップデートでも、ネガティブな影響を受けていたことがわかった。

誤った情報を減らし、高品質で信頼できるコンテンツを表示させようとするGoogleの取り組みは、8月1日のアップデートよりも以前から行われているのである。

eat-6-3-61167156768c7-sej.png (512×198)

また、Googleは、検索結果の信頼性と透明性を改善し、フェイクニュースを減らすことを目的とした複数の取り組みを行っている。具体例を挙げてみよう。

7.2018年8月1日のアップデートは、Googleが公式に「メディック」や「E-A-Tアップデート」と名付けたものではない

8月1日のアップデートは、バリー・シュワルツ氏によって、非公式に「メディック」と名付けられた。しかし、Googleはコアアップデートに正式な名前をつけることは、もはや、ないようである。

8月1日のアップデートを「E-A-Tアップデート」と呼ぶマーケターもいるが、これは不正確だけなく、誤解を招く可能性もある。なぜなら、このアップデートによってパフォーマンスが低下した要因は、E-A-Tだけとは限らないからである。

8.著者の経歴を記載すること自体がランキング要素であるわけではない(Googleはあらゆる著者についての情報を認識し、取得することはできない)

E-A-Tを改善するための最もよくある推奨事項の1つに、全てのコンテンツにその著者についての署名を書くことが挙げられる。また、理想的には、その著者が誰であり、高品質なコンテンツを作成できると信頼すべき理由を説明した、経歴や固有のページを作成することが求められている。

その著者が該当のトピックに対してどの程度の専門家であるかを判断するための手段として、著者の経歴を見るべきであると、Googleは品質評価ガイドラインで品質評価者に対し繰り返し推奨している。

しかし、ウェブマスターハングアウトにて、ジョン・ミュラー氏は、著者の経歴は技術的な要件ではなく、その効果を得るために特定のスキーママークアップを必要とするわけでもないと、述べている。その代わり、ジョン・ミュラー氏は、下記の推奨事項を伝えてくれている。

著者のページと、専門性・権威性・信頼性について、私が推奨することは、ユーザーを確認したり、ユーザー調査を行うことである。特に、そのコンテンツを作成している人物がどれほど優れた人であり、その分野についてよく知っている人であり、その資格があり、その分野について関連している人物であるということを伝えるための最適な方法について、Webサイトの設定を確認してみよう。

また、パブコンのQ&Aセッションで、イリェーシュ氏は次のように述べている。

Web検索では、我々は非常に人気のある著者のエンティティを保持している。もし、あなたがワシントンポスト紙のエグゼクティブであれば、あなたについてのエンティティを持っているだろう。つまり、著者ではなく、エンティティが重要と言えるのだ。

つまり、Googleは、定評のある著者をナレッジグラフで認識することができるのだ。しかし、あらゆる著者を認識できるほどのものではない可能性がある。

ただし、過去数年間、Googleはオーサーシップに関する様々な取り組みを行っているため、これの機能についての取り組みも開始しているかもしれない。

9.YMYLのWebサイトのみがコア・アルゴリズム・アップデートによる影響を受けるわけではない。また、E-A-Tのみがアルゴリズムのアップデートにるパフォーマンスの低下の要因であるわけではない。

ここ最近のコア・アップデートの影響を受けるWebサイトは、特に健康や医療の領域などの、YMYLのWebサイトであることが圧倒的に多い。しかし、他の領域でも影響を受けるWebサイトもある。

例えば、2018年8月1日以降のコア・アップデートのたびに、レシピ系のWebサイトは影響を受けている。しかし、これらのWebサイトの多くは、E-A-Tのレベルはほぼ同一である。こうしたWebサイトは、料理愛好家によって運営されており、彼らは皆、レシピをオンラインに投稿する資格を有していると言えるだろう。

eat-6-4-61167158a8b57-sej.png (512×208)

競合する4つのWebサイトを見る限り、E-A-Tのレベルはほぼ同一であるにもかかわらず、ここ最近のコア・アップデートによってパフォーマンスが大きく変化している。

しかし、レシピ系のWebサイトの多くは、それぞれ固有のSEOの課題を抱えている。それらはE-A-Tにとどまるわけではなく、アーキテクチャの課題、過度な広告、ページスピードの遅さなどである。

こうした課題は、アルゴリズムのアップデートによるパフォーマンスの低下の要因となりうるのだ。

10.E-A-Tは、対応してすぐに結果を得られるものではない。E-A-Tへの対応には時間が必要だ

SEOの施策の中には、メタデータの最適化や技術的な課題の修正など、更新されたコンテンツをGoogleが再クロールし、インデックスすればすぐに効果を期待できるものもある。

しかし、E-A-Tはこうした類の施策とはならない。なぜなら、直接のランキング要素ではないからである。

Webサイトの信頼性を向上させるには、多くの時間と労力が必要となる。

ユーザーからの信頼を得るには時間がかかり、検索エンジンがその変化を処理するには、さらに時間がかかることもある。これは、E-A-Tの課題が原因で、アルゴリズムのアップデートによるネガティブな影響を受けたWebサイトにとっては、特に当てはまるものだ。

Googleは、次のコア・アップデートがロールアウトされるまで、Webサイト全体の品質の再評価を行わないこともある。そのため、E-A-Tを改善するために行った取り組みへの再評価が行われるまで、少なくとも数か月かかる可能性もある。

しかし、E-A-Tの改善による効果は、SEOのみに見られるものではない。E-A-Tの改善を行うことでユーザー体験の向上が期待できる。その結果、ユーザーはあなたのWebサイト、著者、そしてブランドを信頼することができると、さらに確信を持つようになるのである。

E-A-TはSEOにとって重要です。しかし、唯一の対象項目であることはなく、従来のSEOの取り組みも同時に必要となります。また、Webサイトの領域によって、必要とされる度合いが異なる点についても注意が必要でしょう。数値化することが難しく、また、すぐに効果を期待できるものでもないですが、ユーザー体験の向上につながる可能性のあるWebサイトにとっては、長期的に取り組むべき内容であると再確認することができました。

この記事は、Search Engine Journal に掲載された「Google’s E-A-T: Busting 10 of the Biggest Misconceptions」を翻訳した内容です。

投稿 GoogleのEATにおける、10の誤解を解くSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Googleのジョン・ミュラー氏による、57のSEOについてのアドバイス

SEOの情報は日々、誰かが、どこからか発信しておりますが、Googleからのアナウンスは特に注意して追っていきたいものです。特に、ジョン・ミュラー氏は、Q&A動画やTwitterなどで有益な情報を発信してくださっています。今回の記事は、ジョン・ミュラー氏によるアドバイスの中でも特に重要なものをまとめたSearch Engine Journalの記事を紹介いたします。

この記事は、Googleのサーチ・アドボケートのジョン・ミュラー氏によるアドバイスの総まとめである。これらを参照し、ぜひ、あなたのSEOに関する知識に磨きをかけていただきたい。

Googleのサーチ・アドボケートとして、ジョン・ミュラー氏は多くのSEOに関するアドバイスを共有してくれている。その量は、全てを把握することに困難が生じるほどだ。

毎週、ミュラー氏は、SEOの担当者に手を差し伸べており、Q&Aセッションで多くの質問に答えている。この記事で紹介するアドバイスの多くは、オフィスアワーのハングアウトで紹介されたものだ。

また、ミュラー氏が不定期に公開している検索についての解説動画からも、アドバイスを抜粋している。

この記事では、Googleの内部から提供されるこれらの情報を、ランキング要素をはじめ、いくつかのカテゴリーに分類して紹介している。

あなたが見過ごしたアドバイスも含まれているかもしれないため、ぜひ、ご参照いただきたい。

ランキング要素

1.Googleは200以上のランキング要素を保持しているわけではない

かつてGoogleは、コンテンツを順位付けする際、アルゴリズムが考慮する要素は200以上ある、と述べていた。

しかし、アルゴリズムの仕組みについて誤解を招いたり、誤った印象を与える可能性があるといった理由で、公式にこの数字を使わないようにするとしている。

我々は、200以上のランキングシグナルといった表現を用いないようにしている。なぜなら、このような数字を用いることで、誤解を招くこともあると感じているからだ。すなわち、「Googleはあらゆるランキングシグナルが記載されているスプレッドシートを持っており、それを重要度ごとにソートし、その結果を見ている」といったような誤解だ。これは、実情とはかけ離れている。

2.被リンクの数は重要ではない

Webサイトに向けられたリンクの総数は、Googleとは関係がない

関連するWebサイトからの1本のリンクが、品質の低い何百万ものリンクよりも、大きな影響を持つことは考えられる。

やろうと思えば、何百万ものWebサイトから何百万ものリンクを設置することは可能だろう。そして、Googleはそれらをすべて無視する。

もしくは、1つのWebサイトから1つの良質なリンクが設置されてるかもしれない。Googleにとって、それは非常に重要なサインとなる。なぜなら、その1つのリンクがあるからこそ、このWebサイトは関連性のあるWebサイトであると扱うべき、となるからだ。このように、総数は全く関係のないものであるのだ。

3.日付を変更しても、順位は上昇しない

Webページの公開日を変更したところで、大きな変更がなければ、Googleの検索結果における順位の改善にはつながらない。

検索においては何の変更もなく、そのページの日付と時間を変更したからといった理由で、こうしたページの順位が変わることは絶対にない。

4.重複コンテンツはネガティブなランキング要素ではない

検索結果の順位において、重複コンテンツがWebサイトにとって悪影響となることはない。Googleは、それらのコンテンツの片方を検索結果に表示し、もう片方を無視する、といった対応を取る。

複数のページで同一のコンテンツがある場合、それら全てを検索結果に表示することはない。それらの中から1つのコンテンツを選び、それを表示させる。そのため、重複コンテンツはネガティブなシグナルというわけではないのだ。多くの場合、いくつかのページでコンテンツが共有されることは、普通のことと言える。

5.プレゼンテーションはランキングに影響を与えうる

Webサイトの見せ方は、検索結果でのビジビリティに影響を与えうる。

こうした小さな違いが、ユーザーがあなたのWebサイトをどう認識するかにおいて、重要な役割を担うこともある。例えば、あなたのWebサイトが金融関連のWebサイトであるとしよう。そして、ユーザーが「情報は良いが、見せ方が素人のようだ」と思った場合、これは、あなたのWebサイトがどのように認識されているかを反映している。そして、長期的に見れば、検索結果にも反映されることが考えられるのだ。

6.カスタマーレビューはランキング要素ではない

Googleのアルゴリズムによる検索結果のランキングに、カスタマーレビューは使用されていない。

カスタマーレビューはローカル検索のランキングには使用されているが、オーガニック検索のランキングには使用されていない。

私が知る限り、Web検索のランキングにおいて、Googleは顧客の数やレビューを使用していない。もちろん、こうした情報を使用して、リッチリザルトとして検索結果に表示させるということはあるが。

7.ランキングの変化が見られるのに1か月かかることもある

Webサイトの品質に関わる課題を修正した後、Googleの検索結果に変化が表れるまで、1か月ほどかかる場合もある。

どのくらいの期間がかかるか。そうだね。答えることが難しい質問だ。大規模なWebサイトのすべてのページを再クロールするには時間がかかるだろう。特に、Webサイトの構造を変更するなど、Webサイト全体にかかわる大きな変更の場合は。

純粋にテクニカルな視点から考えてみても・・・。そうだね、1か月ほどではないだろうか。

8.ブログのコメントを削除することがランキングに影響を与えることもある

Googleは、他のコンテンツと同様、ブログのコメントもインデックスする。つまり、ブログのコメントが検索結果のランキングに貢献していることも考えられる。

それゆえ、ブログのコメントのすべてを削除してしまうと、ランキングに影響を与える可能性もある。

最終的には、あなたの考え次第であると思う。我々の視点から話すと、我々はコメントをコンテンツの一部として見ている。多くの場合、それらがコメントであるということは認識できているため、扱い方は変える必要がある。しかし、最終的には、ユーザーがこうしたコメントに基づいてあなたのページを発見した場合、あなたがこうしたコメントを削除してしまうと、そうしたコメントに基づいて我々があなたのページを発見することはできなくなる。

9.Core Web Vitalsはタイブレーカー以上のものである

これまでの認識とは異なり、ミュラー氏は、Core Web Vitalsはランキング要素として、ただのタイブレーカー以上のものであると認めている。

Core Web Vitalsはランキング要素であり、タイブレーカー以上のものではあるが、関連性に置き換わるものでもない。Webサイトによっては、それを強く感じる場合もあるし、弱く感じる場合もあるかもしれない。。。

Core Web Vitalsについて留意しておくべきこととして、Core Web Vitalsはランダムなランキング要素以上のものであり、ランク付けされた後(ユーザーが実際にWebサイトを訪れた際)、Webサイトのユーザービリティに影響を与えるものであるということだ。

10.Core Web Vitalsのランキング要素の算出には遅れが生じる

Core Web Vitalsのデータは、28日ごとに収集され、更新される。これは、Search ConsoleやPage Speed Insightsのようなツールでレポートされるスコアは、Googleが過去(およそ)28日間で測定したレポートということを意味している。

それゆえ、Core Web Vitalsのスコアが改善された場合も、ランキングシグナルとしての影響が見られるには、時間がかかる。ミュラー氏は、これについての変更があるのか、タイムラグは常に発生するものになるか、まだ決定していないと述べている。

完全に決まったかどうかは把握していないが、つまり、データにはタイムラグが発生することもある。我々が十分なデータを収集するまで、一定の期間、待たなければならない。

そのため、スピーディーなアップデートのための最適化ではなく、全体図を明確に理解するといった類のものになるはずだ。私としては、リアルタイムの変更ではなく、もっとゆっくりとしたものになると考えている。

11.トラフィックはCore Web Vitalsに影響を与えない

Core Web Vitalsのスコアは実際のトラフィックから算出されるが、トラフィック自体がスコアに影響を与えることはない。

数百万人のユーザーが見ているか、そうではなく、例えば、数千人のユーザーが見ているか、そうしたことは関係がない。Webサイトへの純粋な訪問数は、Core Web Vitalsの要因とはならず、また、一般的にランキングの要素にもならない。

12.Google マイビジネスはローカル検索のランキングにおいて、非常に重要

ローカル検索で良い順位に表示されるために、Googleマイビジネスは、Webサイトの最適化と同じくらい重要である。

ローカルサービスやローカルビジネスを主に見ているようだね。そうであれば、しっかりとしたGoogleマイビジネスのエントリーの設定が必要になるはずだ。なぜなら、こうしたクエリの場合、検索結果にわずかながらも表示されやすくなるからである。

実際、「近くの○○」といったクエリの場合、「近くの〇〇」といったワードでの上位表示を狙う必要はない。なぜなら、「近くの○○」といったクエリは、世界中で発生するからであり、あなたのWebサイト独自のものではないからだ。

そのため、あなたがすべきことは、ページ内で明確にロケーションを記載することである。こうすれば、そのロケーションの場合、あなたのWebサイトやページが関連しており、さらに、ユーザーがそのロケーションにいるということを、我々が認識できるのである。

13.商品価格はランキング要素ではない

競争力のある価格は顧客を引き付けるかもしれないが、検索結果におけるECサイトのランキングには影響を与えない

純粋にWeb検索の観点から言うと、Webページの内容から価格を認識し、ランキング要素として我々が使用するということはない。

そのため、価格が安い方のページの順位を上げる、といったことは起こらない。そんなことは、本当に意味のないことだと思っている。

14.単語数はランキング要素ではない

単語数が検索結果における順位に影響を与えるといった説は、事実ではない。

記事が短かったとしても、長い記事と同様の情報を提供しているのであれば、検索者に対し同程度の価値を提供していると、Googleは認識する。

ミュラー氏が言うように、とあるページが他のページよりもコンテンツの単語数が多い、といった理由で順位をつけることは、まったく意味をなさない。

我々は、単語数をランキングに使用していない。もしそれが、ライターがより良い記事を書けるようになるものであれば、あなた自身のガイドラインとして、単語数を使用するのは問題ないだろう。

15.オリジナルのページタイトルは、今でも、ランキングに使用されている

Googleは、検索結果で表示されるページタイトルを生成する方法をアップデートしたが、オリジナルのタイトルの重要性が以前よりも低下していないことを、ミュラー氏は認めている

十分に練られたページタイトルは、Googleが検索結果で書き換えたとしても、検索結果のランキングに使用される。

将来的にどのようになるかはわからないが、少なくとも現時点においては、タイトルタグに書かれている内容を、我々はランキングに使用する。

Webサイトのすべてを置き換えるようなものではないが、我々は一つの要素として使用している。検索結果に表示される際、あなたが対策しているキーワードが見切れてしまったとしても、我々がそれを使用していることについては変わりはない。

16.E-A-Tはランキング要素ではない

品質評価ガイドラインでE-A-T(専門性、権威性、信頼性)が紹介された以降、E-A-Tは直接のランキング要素である、という考えが生まれた。

それは事実ではないことを、ミュラー氏は認めている。また、「E-A-Tスコア」というものがないことも、認めている。

GoogleはE-A-Tスコアを持っており、それは、5つのリンクと、これとこれと・・・、に基づいている、といったことはない。

そうではなく、我々は時間をかけてアルゴリズムを改良しようとしており、品質評価者が我々のアルゴリズムをレビューしてくれるようにしており、彼らはまさにそれを行っている。

つまり、重複する箇所はあるかもしれないが、特定の要素をSEOの要素として使用するといった、技術的な要素であるわけではないのだ。

17.検索において、唯一の決定要素は存在しない

何か特定の要素が、他の要素以上に、何かを決定するというような、単一のランキング要素は存在しない。

あるランキング要素は、特定のクエリにおいて大きな比重を占めることはある。しかし、その要素が、他のクエリではそれほど重要ではないといった場合もある。

この巨大なネットワーク内で、特定の要素が決定的な要素であると言うことはできない。また、特定のWebサイトやクエリによっては、まったく異なる役割となることもあるため、単純に、この要素は10%の役割を果たしている、と言うこともできない。

他のWebサイトやクエリでは、決定的な要素となる場合もある。しかし、これらをまとめ上げることは、非常に難しいことなのだ。

18.Hタグは強力なシグナル

見出しタグ内のテキストは、Googleに強力なシグナルを送る。そのページが何についてのページなのか、何を上位に表示させたいのか、などを伝えるものだ。

ページ上のテキストに関して言えば、見出しは強力なシグナルであり、そのページのどの部分が、このトピックについてのものであるのか、といったことを伝えるものだ。

H1タグ、H2タグ、H5タグ。それらをどのように使ってもかまわない。それほど大きな問題ではない。

それよりも、このトピックについてはこのページのここの部分である、というような、一般的なシグナルを伝えてほしい。また、このページの他の個所は別のトピックである、というようなことも伝えてほしい。

19.ドメイン内のキーワードは順位に影響しない

特定のキーワードがドメイン内に含まれているからといって、そのWebサイトが、そのキーワードで上位に表示される可能性が高くなる、といったことはない。

ドメイン内のキーワードはランキング要素ではないのだ。

あなたの会社名やブランドに関連する言葉を含めたドメインのほうが、ずっと良いだろう。

ドメインにキーワードが含まれているWebサイトである、ということが、そのキーワードにおいて他のWebサイトよりも関連性がある、といったことを意味することはない。

つまり、ドメイン内にキーワードを含める必要はない、ということだ。

メインコンテンツ

20.注力するキーワードは、可能な限り露出させる

ミュラー氏は、タイトル、見出し、小見出しなどの目立つ個所に、注力しているキーワードを含めることを強く推奨している。

そのページが何についてのページなのかを伝えたいのであれば、それらを可能な限り露出させることを勧める。

記事の最下部に一言だけ含める、といったことはやめよう。タイトル、見出し、小見出し、画像のキャプション、などを活用しよう。

こうしたことは全て、ユーザーとGoogleがあなたのページに訪れた際、そのページのトピックを明確に理解できるようにするための作業だ。

21.改善か、削除か

品質の低いコンテンツを改善するべきか、削除するべきか、という質問を受けた際、ミュラー氏は、改善するのが最善だろう、と述べている。

しかし、そうしたコンテンツを改善するつもりがないのであれば、そのまま削除すべきだろう。

自身のWebサイト、自身の名前と共に公開したいと思う、良いコンテンツであれば、そのまま残しておくべきだろう。そのコンテンツが古いということが、そのコンテンツの内容が悪いということを意味するものではない。

しかし、該当のコンテンツを読み、それが自身にとって恥ずかしいものであり、オンライン上に残しておきたくないと思うほど内容が悪いのであれば、改善するか、削除するかのどちらかを選択すべきだろう。

22.ユニークなコンテンツをアバブ・ザ・フォールドに配置する

Webページは、アバブ・ザ・フォールドに、少なくとも、いくらかのユニークコンテンツを掲載すべきだ。

異なるページ間で重複したコンテンツがあることは致し方ないが、少なくともページの上部にはユニークなコンテンツを掲載するようにしよう。

我々にとって重要なことは、アバブ・ザ・フォールドに、ある程度のユニークなコンテンツがあることだ。パナーや一般的なヒーロー画像をページの上部に掲載することは、まったく問題ではない。しかし、アバブ・ザ・フォールドのコンテンツは、そのページ固有のものであるべきだ。

23.スペルや文法の優先度は高い

ユーザー体験に直接の影響を与えるため、スペルや文法のミスをGoogleは品質における問題であると認識する。

我々はそのページが何についてのページなのかを理解しなくてはならないため、スペルや文法のミスについてはグレーゾーンであると言える。

ページ内のテキストに多くのエラーがあるため、我々がそのページの内容を認識できない場合、より大きな課題となる。

また、我々は本当に品質の高いコンテンツを発見しようとしているが、多くの文法や技術的なミスがあることが理由で、低品質なページに見えてしまうこともある。

多くの場合において、壊れたHTMLよりも、スペルや文法のミスのほうが優先度が高いかもしれない。

24.ほとんどのコンテンツは1週間以内にインデックスされる

新しいページが公開された場合、そのページがインデックスされるまでにかかる時間は、数時間から数週間の間である。

ミュラー氏は、優れたコンテンツであれば、多くの場合、1週間以内でインデックスされると考えているようだ。

25.同一のコンテンツでも、フォーマットが異なれば、重複ではない

例えば、動画とブログ記事など、異なるフォーマットで公開された同一のコンテンツは、重複コンテンツとはみなされない。

Googleは、動画で話されている内容を文字に書き起こし、それをブログ記事の文章と比較する、といったことはできない。

まず、我々は動画内のテキストを分析し、それらをWebページにマッピングする、といったことは行っていない。ブログ記事と同じ内容の動画があったとしても、それらは別物である。ユーザーは何かを読む目的でGoogleを利用するかもしれない。また、何かを視聴したり、聞いたりするためにGoogleを利用することもある。これらは、それぞれ異なるものである。

我々は、この動画のテキストはこのブログ記事と同一であるため、どちらかを表示させない、または、片方だけを表示させる、といったことをしていない。そのため、ブログ記事と同じ内容の動画があったとしても、まったく問題ないことだ。

26.コンテンツに価値があれば、多くのアフィリエイトリンクがあったとしても、問題ない

メインのコンテンツが価値を提供するものであれば、そのページに多くのアフィリエイトリンクがあったとしても、問題はない。

コンテンツの内容が有用であれば、Webサイトは1つのページに対し、自由にアフィリエイトリンクを設置することができる。

上限はない。我々からすれば、アフィリエイトリンクが悪いものであったり、問題があったりするものであると言っているわけではない。重要なことは、そのページに有益なコンテンツを掲載する必要がある、ということだ。こうした観点で我々は考えている。

Webサイト内にどの程度のアフィリエイトリンクが設置されているか、ということは全く関係がない。また、記事の長さに対するリンクの数の比率といったものも、まったく関係がない。

27.埋め込みの動画と、アップロードされた動画の価値は同じである

他のソースから埋め込まれた動画と、Webサイト上でネイティブにホストされた動画は、同一の価値である。

基本的には同一だ。例えば、動画用のCDN(content delivery network)を持つことは一般的であるが、技術的には、それらは別のWebサイトとなる。我々の観点では、ユーザーにとって上手くいく仕組みであり、コンテンツがアクセス可能で適切にインデックスされるのであれば、問題は全くない。

28.内部リンクの数が多すぎると、その価値を下げてしまう

1つのページの内部リンク数が多すぎる場合、その価値が薄れてしまうことがある。

多すぎる内部リンクは、効果があるよりも、害となる場合が多いのか?という質問に対し、ミュラー氏は次のように述べている。

Yesでもあり、Noでもある。我々は、ページの構造をより良く理解するために内部リンクを活用する。Webサイトの構造を理解しようとする際、様々なページが存在しており、その全てのページがWebサイトの他の全てのページへのリンクが設置されていたとしよう。その場合、全てのページに完全な内部リンクが設置されていることになり、そこには構造といったものが存在しなくなる。

そのため、ページランク、オーソリティ、その他のシグナルとは関係なく、Webサイトの明確な構造を提供できていない、ということになる。この場合、検索エンジンがそのWebサイト内の個々のページのコンテキストを理解することが難しくなる。以上が、この件についての私の見解である。

29.チャートにはHTMLではなく、画像を用いる

ミュラー氏が、テキストではなく、画像の使用を推奨することは珍しいが、その例が、メインコンテンツ内にチャートを掲載する場合である。

HTMLでチャートをコーディングすることによるメリットは存在しない。わかりやすいalt属性を付けた画像であれば、まったく問題ない。

そのチャートでやりたいことによって異なるが、こうした類のものは、画像を追加し、わかりやすいalt属性を付与することで問題ないだろう。

そのチャートに重要な情報が含まれているのであれば、その情報をAlt属性に記載しよう。そうすれば、我々はテキストとして認識することができ、画像を見ることができないユーザーに対しても、その情報を提供することができる。しかし、一般的に、画像を使うことで問題はないはずだ。

30.アンカーテキストはコンテキストを提供すべきだ

内部リンクは、GoogleがWebサイト内でより多くの記事を発見する手助けとなる。そのため、アンカーテキストは、リンク先のページが何についてのページなのかを伝える、コンテキストを提供すべきである。

内部リンクは、我々にコンテキストのシグナルを与えてくれるものだ。つまり、基本的には、私のWebサイトのこの個所ではこのトピックについての情報を発見できますよ、と伝えるものなのである。そして、それが、内部リンクのアンカーテキストとして、あなたが使用すべきものだ。

外部リンクにおいても、他のWebサイトへのリンクを設置するのであれば、同じことが言える。つまり、なぜユーザーはこのリンクをクリックし、そのWebサイトへ行くべきなのか、そこでどのような情報が追加で得られるのか、といった内容を提供するのである。

31.長いアンカーテキストはより多くのコンテキストをGoogleに伝える

ページ内で長いアンカーテキストを使用することは問題ではない。むしろ、役に立つこともある。

Googleは、リンク先のページについての理解のために、アンカーテキストを用いている。

アンカーテキストが長いほど、より多くのコンテキストをGoogleに伝えることができる。

その情報は、そのページのランキングの際、考慮される情報となる。

我々は、アンカーテキストの長さについて、特別なことは行っていないと思う。しかし、我々は、アンカーテキストを、個々のページに対しての追加のコンテキストを提供するための方法として使用している。

長いアンカーテキストを使用することで、我々に僅かながらもより多くの情報を提供する場合もある。ただの、異なるキーワードの集合、という場合もあるだろう。

32.Googleは皮肉を理解しない

皮肉を交えた調子でコンテンツを作成することで、読者の興味を引くことは出来るかもしれないが、Googleのポイントにはならない。

Googleのアルゴリズムは、皮肉を誤解することもあるため、重要な情報を伝えるためのコンテンツを作成する際には、使用を避けた方が良い。

皮肉を含めた表現があった場合、我々がそれを誤解したり、理解ができないといったリスクは明らかに存在する。

特に、Googleとユーザーに対し、正確なメッセージを伝えることが重要である場合は、可能な限りわかりやすい文章にするべきだろう。

例えば、医療系の情報を伝えるような場合、皮肉を含めた表現は避けた方が良いかもしれない。

エンターテインメント系の話題などの場合は、それほど大きな問題とはならないはずだ。

テクニカルSEO

33.いくつかのスキーママークアップは、組み合わせることができない

Googleのリッチリザルトは、特定の種類の構造化データのマークアップを組み合わせることができるが、それ以外のものは組み合わせることができない。

検索結果において、組み合わせることができるリッチリザルトの種類と、そうでない種類がある。例えば、レシピとレーティングの場合、1つのリッチリザルトのタイプで組み合わせることができる。

しかし、私の記憶が正しければ、FAQとハウツーの場合は1つのリッチリザルトのタイプで組み合わせることができないため、どちらか1つを選んで表示しなければならないはずだ。

34.フラットなURLの構造にメリットはない

あらゆるページがトップページから1クリックで到達できるような、人工的なフラットなURLの構造は必要ない。

URL内のスラッシュがいくつあるか、Googleがそれを考慮することはない。GoogleはURLをコンテンツの識別子として扱うのであり、Webサイトの構造を理解するための手段としては扱っていない。

人工的なフラットなディレクトリ構造にする必要はない。この観点から述べると、ユーザーが認識できるディレクトリ構造であり、ユーザーが入力出来たり、一部をコピーして貼り付けたりできるようなものであれば、問題はない。URLを書き換えたりするなどして、ユーザーからそうしたURL構造を隠す必要はない。

35.404エラーは珍しいことではない

404エラーのあるWebサイトは珍しいことではない。そのため、Googleは、404エラーをネガティブなランキング要素として扱っていない。

例え、Search ConsoleがそのWebサイトの40%のページが404であると表示したとしても、心配する必要はないだろう。

我々は、それを異常とはみなさない。品質のシグナルのようなものとして扱うことはないだろう。404エラーを我々が問題として見るのは、トップページが404エラーを返す場合だろう。この場合、そのWebサイトが本当に存在しているかどうかわからない、と我々は考えるかもしれない。

しかし、Webサイトの一部が404であっても、致し方ないことだろう。技術的な問題であり、仕様がないことだ。

36.CCTLDはジオターゲティングにおいて必須ではない

ドイツの場合では.deのような、国別コードトップレベルドメイン(CCTLD)は、その国の検索者のジオターゲティングのために絶対に必要なものではない。

いや、絶対に必要とされるものではない。

一般的に、ジオターゲティングを行う場合、2つの方法が存在する。

1つ目は、国別コードトップレベルドメインを使う方法であり、ドイツでは.deとなる。

2つ目は、ジェネリックトップレベルドメインを使用する方法であり、Search Consoleでジオターゲティングの設定を行う。

例えば、.com、.net、.info、.euなどである。

この中でどれを選んでも問題なく、あとは、ジオターゲティングをドイツに設定するだけで良い。

37.品質の課題の修正のためのテクニカルな方法はない

技術的な修正のみで、検索結果の順位を改善することは難しい。

Googleによる評価を得るためには、一定のレベルの品質が求められ、それは技術的な修正のみで達成できるものではない

Webサイトの品質は、技術的な修正で達成できるものではない。あなたのWebサイトをGoogleにもっと真剣に見てもらいたいのならば、本当に、本当に、品質の改善が必要となるのだ。

38.URLの長さは、正規化のための軽微なシグナル

URLの長さは、どちらのバージョンのURLが正規のURLであると決定するために、Googleが使用する軽微なシグナルである。

他の条件がすべて同一であれば、Googleは短いバージョンのURLを選択する可能性が高い。
非常に僅かではあるが、我々はURLの長さを正規化のために使用している。例えば、url.htm?utm=greencheeseandhamとurl.htmの場合、他の全てが同一であれば、我々はurl.htmを正規のURLとして選択するだろう。そのため、短いURLのほうがSEOにとってはより良いように思えるかもしれないが、実際は、副次的な効果に過ぎない。

39.Webサイトをリニューアルする際、URLは同一のままにする

Webサイトをリニューアルする際、URLを変更してしまうと、改良よりも害になってしまうこともある。

Webサイトに変更や改善を加える際、URLを同一のままにするようにしよう。

URLを変更する場合、Googleは新しいページとしてクロールする可能性があり、検索結果でのランキングという意味では、ゼロからのスタートとなってしまう。

Webサイトを改善する際、同時に発生する複数の事柄がある。そのため、そこで起こっているすべてを正確に把握することが難しい場合もある。

しかし、Webサイトをリニューアルする際、気をつけてほしいことは次の事項だ。

つまり、可能な限りURLを同一に保ち、URLの構造を変更させないということだ。

また、内部リンクも可能な限り同一の状態を保とう。

さらに、ページのコンテンツとレイアウトも可能な限り同一な状態を保とう。

40.構造化データは、非常に軽微なシグナルである

構造化データはそのページが何についてのページであるのかを、Googleに伝えるための手助けとなる。しかし、SEO担当者は検索結果のランキングに大きな影響があると、構造化データに頼りすぎるべきではない

何故だろうか?

なぜなら、構造化データは軽微なシグナルだからである。

そのページをどのようなキーワードで表示させたいのか、それを明確にGoogleに伝えるためには、メインコンテンツを通じて伝えるべきだ。

構造化データによるヒントのみで、どのようにして順位付けをするのだろう?構造化データは非常に軽微なシグナルである。構造化データについて心配するのではなく、よりわかりやすいコンテンツを作成するようにしよう。

41.1つのページに複数のH1タグを使用しても、問題ではない

GoogleはH1タグの使用を1回のみにすることを推奨しているのだろうか?いや、そんなことはない。

パブリッシャーは、自由にH1タグの使用回数を決めることができる。

1つのページに対し、H1タグは何度使用してもかまわない。制限はなく、上限や加減も存在しない。

H1タグが1つであれ、5つであれ、そのWebサイトの順位においては、まったく問題がない。

42.ゲスト記事におけるNofollowリンク

他のWebサイトにゲスト投稿する際、自身のWebサイトへのバックリンクも設置するのであれば、そのリンクにはnofollowタグを設置する必要がある。

これは、他のWebサイトからのゲスト記事を自身のWebサイトに掲載し、そのWebサイトへのバックリンクを設置する際も同様だ。

Googleは、ゲスト記事を、そのWebサイトのプロモーションとみなすため、そのコンテンツ内のリンクを自然なリンクとはみなさない。

それゆえ、リンクスキームへの関与をGoogleに疑われることを防ぐために、nofollowタグを設置すべきだ

問題となる箇所は、リンクについてである。コンテンツやリンクを提供しているのであれば、それらのリンクはシグナルを渡すべきではなく、rel-sponsoredやrel-nofollowを付与すべきだろう。より広範囲のオーディエンスにリーチするための手段として考えることは、問題ない。

基本的に、そこに設置されているリンクが「自然な」リンクであっても、ゲスト記事内にリンクがある場合は、nofollowを付与すべきだ。

これは、まったくもって、新しいことではない。これについての手動アクションについて、新しい計画を練る必要もない。こうしたことを、我々はアルゴリズムによって把握することができている。

43.Googleのおススメの構造化データはJSON-LD

Webサイトにマークアップする構造化データには、主に2つの種類がある。

1つはJSON-LDであり、もう1つはmicrodataだ。

Googleはそのどちらもサポートしているが、おススメはJSON-LDである。

現在、我々はJSON-LDを好んでいる。新しい構造化データの多くが、JSON-LDを支持しているように思う。そのため、我々もJSON-LDを好んでいるのだ。

44.キーワードリッチなメタタイトルはGoogleのガイドラインに違反していない

Googleは推奨してはいないが、ページのメタタイトルにキーワードを詰め込むことは、検索エンジンのガイドラインに違反しているわけではない。

かつては、このような施策はキーワードスタッフィングとみなされ、検索結果の順位の下落を招く、という考えがあった。

ミュラー氏によると、それは事実ではないようだ。

ウェブマスターガイドラインに違反しているわけではなく、問題を引き起こすようなものでもない。我々が関連性を少しばかり良く理解することができるため、より適切なタイトルが設定されれば、ものごとが改善されるかもしれない、といった程度だろう。

タイトルにおける最大の改善点は、ユーザーが実際に探しているものと合致するタイトルを作成することだろう。そうすれば、「これは私が探していたものと完全に一致する」とユーザーが思うため、検索結果で実際にクリックされやすくなるのではと思う。

SEO全般

45.SEOは廃れることはない

ミュラー氏は、SEOが廃れてしまうほど、検索エンジンが進歩することはないと考えているようだ。

Googleが機械学習を駆使し、SEOがなくても良いコンテンツが上位に表示されるようになるのではないか、という懸念は、彼のこの言葉により払拭されている。

機械学習を駆使し、Googleのアルゴリズムが進化し、あらゆるWebサイトを自動的に理解するようになり、その結果、SEOが廃れて誰も必要としなくなると、多くの人が懸念していると思う。しかし、そういったことは実際には起きないだろうと私は考えている。

46.SEOを副業にする最適な時期

ページエクスペリエンスアップデートがローンチされた今、Webサイトの最適化を行う正しい時期であると、ミュラー氏は述べている。

Webサイトを手助けできる優秀なコンサルタントは、多くの対価を得られるだろう。もし、あなたがこうした仕事を好み、CDN、プラグイン、フレームワークのセットアップなどを習得しているのであれば、自身のスキルを磨き、高い報酬を得る最適な時期であるはずだ。

47.SEOの解決策がない場合もある

Webサイトの順位を上げるための解決策が、SEOではない場合もある。ミュラー氏は、下記のように述べている。

SEOの解決策がない場合もある、ということは覚えておいてもらいたい。6年間は長い時間であるし、Webも、Google Newsも、その他のあらゆることも大きく進化している。

技術的な問題でない場合も、リンクを大量に購入するだけでは解決しない場合も、Webサイトの戦略が時代遅れであるという場合も、全て考えられる。

48.Googleはモバイル版のページをデフォルトでインデックスする

モバイル・ファースト・インデックスへの移行は、Googleが、デスクトップ版ではなく、モバイル版のページをデフォルトでインデックスすることを意味している。

別々のURLのWebサイトの場合は、m-dotのバージョンがインデックスされるようになる。

モバイル・ファースト・インデックスへの移行は、デスクトップ版ではなく、モバイル版のページを我々がインデックスに用いるということだ。多くのWebサイトで、この変更はすでに発生している。すでにモバイル版のWebサイトがインデックスされている場合は、特に何もすることはない。

49.Google Discoverのトラフィックに依存すべきではない

Google Discoverからのリファラルトラフィックは可変する。そのため、安定した供給減としてそれに依存しないことが重要である。

Discoverは特定のクエリとは結び付かないものである。どれほどのユーザーがこのトピックに興味があるのか、どこで表示される可能性があるのか、などはわからないため、Google Discoverに期待すべきことを述べるのは非常に難しい。

Google Discoverでの多くのビジビリティを獲得できたのであれば、それは素晴らしいことだ。ただし、それはすぐに変化してしまうものだということを認識することが重要だろう。

50.「デジタルPR」でリンクを獲得する

デジタルPRによってリンクを構築することを、ミュラー氏は肯定的に見ている。スパムではないことも明言している。実際、テクニカルSEOと同程度に重要である可能性もある。

デジタルPRの取り組みは好意的に見ている。それが、スパム的な手法のリンクビルディングと同じように見られることは残念である。おそらく、多くの場合において、テクニカルSEO以上に重要かもしれない。

51.モバイルとデスクトップのランキングは、その状況によって、パーソナライズされる

モバイルからの検索か、デスクトップからの検索かによって、個々のユーザーのニーズが異なる検索もあり、これはランキングにも影響する

デスクトップとモバイルのランキングが異なるのは、普通のことである。

スピードが要因であるかもしれないし、モバイルフレンドリーが要因であるかもしれない。

また、検索結果に表示される様々な要素が要因であることもある。

例えば、モバイルで検索している場合、ローカルの情報をより求めることだろう。なぜなら、あなたは外出中であるからだ。

一方、デスクトップで検索している場合は、検索結果画面に画像や動画が表示されることが求められるだろう。そのため、我々は、異なる検索結果のタイプを組み合わせて表示させる傾向があるのだ。

こうした理由により、モバイルとデスクトップでは、個々のページにおいて、順位やビジビリティが異なることもある。

これは正常な状態であり、我々のランキングの仕組みの一部である。コンテンツのインデックスに関わるテクニカルな側面と結び付けて考えることではない。

52.シンジケーションはランキングに影響を与えうる

他のWebサイトでのコンテンツの再公開やシンジケーションによって、ターゲットキーワードであなたのWebサイトが表示される可能性を低くしてしまうこともある。

シンジケーションや再公開は悪いアイデアである、とミュラー氏は述べている。

コンテンツを再公開する場合、それは重複コンテンツとなる。多くのオーディエンスにリーチすることが目的である場合は、問題はないだろう。しかし、特定のクエリであなたのWebサイトだけを上位表示させることが目的である場合は、シンジケーションと再公開は悪いアイデアである。目標を設定し、その目標を達成する手助けとなる方法を選択しよう。

53.検索は科学ではない

上位表示を達成するために全てのWebサイトが同じステップを踏む必要がある、といった意味では、検索は厳密な科学ではない

Googleで上位表示を達成するためには、複数の方法が存在する。あらゆるWebサイトが同じ設計図に従う必要はない。

どのページがどのクエリでランキングされるべきか、といった意味で、絶対的な真理は存在しないということを覚えておいてほしい。

つまり、あらゆるWebサイトが同じことをする必要があるわけではなく、上位表示を達成するためには複数の方法が存在し、たった1つのランキング要素に盲目的に従うことはないのである。

54.コア・アップデートはGoogle Discoverにも影響する

Googleがロールアウトするコア・アップデートは、Google Discoverで表示されるコンテンツにも影響する。

コア・アップデートがローンチされた後にトラフィックが増減した場合、検索結果の順位に変化がなければ、Google Discoverでの変化が要因であるかもしれない。

我々は、Web検索で使用している品質アルゴリズムと同様のものをGoogle Discoverでも使用している。Web検索でコア・アップデートが発生した場合、Google Discoverでも変化が見られることはよくある。これらは、まったく無関係なものではない。

55.Googleは全てのページをインデックスするわけではない

例え、それらを検知していたとしても、GoogleはWebサイトの全てのページをインデックスするわけではない。

20%のページがインデックスされないという状況はいたって普通のことである、とミュラー氏は述べている

インデックスに関して覚えておいて欲しいことは、Webサイトの全てをインデックスしないことは普通のことである、ということだ。

大規模なWebサイトであれ、中規模や小規模のWebサイトであれ、インデックスは変動するものである。

インデックス数は上がることもあるし、下がることもある。しかし、Webサイトの全てを100%インデックスすることはないだろう。

そのため、100ページのWebサイトの80ページがインデックスされているといった場合、なにか修正が必要な問題というわけではないだろう。

56.「サンドボックス」や「ハネムーン」と呼ばれる期間は存在しない

意図的に新しいページを検索結果に表示させないようにする、「サンドボックス」なるものは存在しない。

また、Googleは新しいコンテンツを好むという理由で、新しいページの順位を上げるといった「ハネムーン」も存在しない。

新しいページが公開されると、Googleはそれをどの順位に表示させるべきかを推測する

この推測が不正確な場合もあり、その結果、最初は上位に表示されていたが、突然、順位が下がってしまうといった状況が起こりうる。

Googleは新しいページを検索結果に表示させないようにしているという、SEOの業界でサンドボックスと呼ばれる状況である。しかし、これは事実ではない。

また、ハネムーンと呼ばれるものもある。新しいコンテンツが公開され、それをGoogleが気に入り、上位に表示させようとするものだ。

これも事実ではなく、Googleが新しいコンテンツの評価を上げたり下げたりすることはない。

ただし、我々にもわからないことであるため、仮説を立てなければならないのだ。

その仮説が正確であり、時間が経っても変わらないことはある。

しかし、仮説の順位から少し上げたり、下げたりして、落ち着くこともある。

57.トラフィックが低いからといって、品質が低いわけではない

トラフィックが低いことが、そのページの品質が低いということを意味しない。

他のページほどにトラフィックを獲得していなくとも、そのページは有益であり、高品質である可能性がある。

そのため、目指している量のトラフィックを獲得していないからといって、そのページをWebサイトから削除しないようにしよう。

トラフィックの低さが、品質の低さとほぼ関係しているWebサイトもあるが、全てのWebサイトがそうであるわけではない。

Webサイトの上位階層にあるが故、トラフィックを獲得しているページもある。そのWebサイトのテールページも同様に有益ではあるが、対象のユーザーが少ないといった場合もある。

その結果、トラフィックがあまり多くないのだ。

我々の観点からすれば、このようなWebサイトは有益であり、高品質である。

私は、トラフィックが少ないからといって、そのページを削除することはしないだろう。

まとめ

SEOにはまだまだ可変する領域が多くある。Googleのジョン・ミュラー氏は、そうした仕組みを理解することを手助けしてくれる方である。

毎週行われるライブ放送のQ&A、日々発信されるツイート、時折行われるRedditのフォーラムへの投稿、Webにおけるランダムなインサイト。それら全てを追うことはなかなか難しい。

そこに、我々の価値がある。

Search Engine Journalでは、ミュラー氏やそのほかのGoogle検索に関わるチームによる最新の動向を記事にしているため、ぜひ参照していただきたい。

改めて、こうしたまとめを見てみると、ジョン・ミュラー氏は数多くのアドバイスと発信していることがわかります。もちろん、そのすべてを丹念に記憶する必要はないと思いますが、自身のWebサイトの現状や直面している課題に合致している場合、非常に有益な情報となるはずです。情報取得ばかりに時間をかけてしまうのは本末転倒ですが、効率的に取得しながら日々の業務に活かしていければと思いました。

この記事は、Search Engine Journal に掲載された「57 SEO Insights From Google’s John Mueller」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 Googleのジョン・ミュラー氏による、57のSEOについてのアドバイスSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Netflixはいかにして、優れたデザインとUXをもって没入感のある体験を生み出しているのか?

あらゆるデバイスで多くの映画や動画を視聴できる動画配信サービスは、安価で便利であり、多くのユーザーの支持を集めていると思います。その中でもNetflixはトップに位置づけられるサービスでしょう。彼らがどのようにしてユーザーを魅了しているか、デザインとUXの観点から考察したCXLの記事をご紹介します。

netflix-design-header.jpg (1024×682)

Netflixは、Blockbusterの対抗馬として、ビデオレンタルサービスを1997年に開始した。現在、このストリーミングサービスは、カナダ、アメリカ、日本の総人口ほどのユーザーを世界中に持っている。

Netflixは、世界中のあらゆるストリーミングサービスの中でも最も人気のあるプラットフォームであり、ユーザーは毎月、毎年、その契約を更新し続けている。継続率については、後ほど説明しよう。

では、Netflixのような巨大企業は、いかにして、競合性の高い業界で魅力的な体験を作り出しているのだろうか?この記事では、Netflixのデザインとユーザー体験の要素を探っていきたい。

なぜ、Netflixのユーザージャーニーは効果的に新規ユーザーを獲得し続けるのか?

クレジットカードの情報を入力してから驚きを与える他のプラットフォームとは異なり、Netflixはトップページからユーザーを惹きつけている。最小限のデザインとコピーにとどめており、たった一つのゴールである「サインアップ」を目指している。

netflix-homepage.jpg (975×446)
ソース:Netflix

トップページは階層構造が簡潔であり、複雑さとは無縁である。そのため、「開始するためにはEメールアドレスを入力する」というたった一つのわかりやすいコール・トゥ・アクションと訪問者との摩擦を軽減しているのだ。

また、この企業のユニークセリング・プロポジションが最大のベネフィットを明確に説明している。さらに、「映画やTV番組、アニメが見放題。映画やドラマをもっと自由に。いつでもキャンセルOK。」という、代表的なよくある質問の2つを先んじて表示している。

目的が明らかであり、要求もわかりやすく、それに必要な作業もシンプルである。

USPとUIが一体となり、コンバージョンに最適化されたバリュー・プロポジションを作り上げている。彼らが提供するものを非常に具体的に説明しており、「見放題」という表現を裏付ける関連画像を背景とし、バリュー・プロポジションを後押しする「いつでもキャンセルOK」という要素も備えている。

スクロールすれば、下記のような、さらに価値を提供する要素が表示される。

  • ゲーム機やTV機器など、Netflixが対応している多くのプラットフォームについての説明
  • ストリーミングコンテンツをオフラインで視聴するためのダウンロード方法や、すべてのデバイスで映画を無制限にストリーミングできる機能の説明
  • 子供向けのプログラムの用意
  • 2つ目の入力フォームのすぐ上に設置されたよくある質問のセクション

ここでは、Netflixはその柔軟性を強調している。彼らのホームページは攻撃的なほど長いわけではない。提供サービス、機能、メリット、よくある質問などの情報を最小限の量で提供することで、障害とユーザーが持つためらいを取り除いている。

ここから、ユーザーはパーソナライズされたジャーニーを開始する。Netflixは、ステップの数がたったの3つであることを強調し、目の前のタスクを完了するためのモチベーションを高めている。

netflix-setting-up-account-step-1.jpg (831×716)
ソース:Netflix

期待値理論とは、タスクを完了できる期待値が高く、主観的な価値も高ければ、より高いモチベーションでやり遂げることができるとする理論である。言い換えれば、モチベーション=期待値×価値、と表現することができる。いずれの要素の1つでも欠けてしまえば、モチベーションは簡単に崩壊してしまうのだ。

「ステップ1/3」というメッセージを中心に表示することで、タスクが短い時間で完了することを指し示しており、期待値を高めている。(Netflixの強力なバリュー・プロポジション、USP、ユーザー体験を考えると)この時点での価値はすでに高いはずだ。

2つ目の画面では、プランの選択を求められる。ここでも、直面している迷いに対し、回答を事前に提供している。つまり、「簡単登録、いつでもキャンセルできます。」と表示しているのだ。

netflix-setting-up-account-step-2.jpg (887×988)
ソース:Netflix

その後、プランを選択する。3つのルールに基づき、シンプルで魅力的なプランを提供しているのだ。

これにより、ユーザーは圧倒される感覚を持つことなく、いつでも退会できる機会も提供している。また、ユーザーがなぜサインアップのボタンをクリックしたのかを思い出させるために、コアベネフィットを再度表示している(これは、主観的価値を高く維持するために効果的である)。

netflix-setting-up-account-step-2-choose-plan-568x274.jpg (568×274)

ユーザーがアカウントを作成すると、Netflixはお気に入りの映画やTV番組をいくつか選ぶように促す。このデータはNetflixのアルゴリズムへのインプットとして、パーソナライズされたレコメンデーションを「ジャンプスタート」させるために使用される(アルゴリズムを元に行われれるパーソナライズについては後述する)。

サインアップ後にユーザーが最初に見るものは、オンボーディングの最中に選択した設定と似た、Netflixのオリジナルの作品の予告版の自動再生である。

netflix-post-signup-auto-playing-video-trailer-568x246.jpg (568×246)
ソース:Netflix

主要なコール・トゥ・アクションは「再生」ボタンを押すことであり、すぐにこのプラットフォームと関わることができる。「フラストレーションのない」パッケージと同様に、目立つように設計された再生ボタンは、ユーザーのエンゲージメントを高め、ユーザーをこのプラットフォームにより長く留めておくことに効果を発揮する。

視聴を開始すると、Netflixのアルゴリズムは関連する新しいメディアをトップページに継続的に表示するようになるため、ユーザーの当初の好みがより拡大していく。

Netflixにおけるあらゆるストリーミングのオプションは、コンテンツに対する評価をユーザーが行えるため、アルゴリズムへ自分の好みをさらに指示することができる。

netflix-thumbs-up-thumbs-down-rating-feature-425x426.jpg (425×426)
ソース:Netflix

例えば、「タイガーキング」に対して高評価を与えた場合、Netflixはより多くのドキュメンタリー番組を表示するようになるだろう。

アルゴリズムは、下記のような多くの指標をベースに、「視聴の可能性」を推測している。

  • 視聴履歴
  • ジャンルやカテゴリー
  • 視聴する時間帯
  • 視聴時間
  • 視聴するデバイス
  • 類似コンテンツの評価履歴
  • 好みが類似しているNetflixの他のユーザー

Netflixのアルゴリズムは、特定のユーザーシグナルによって再学習され、レコメンデーションの精度を改善し、パーソナライズされた視聴体験を約束するのだ。

Netflixにおけるユーザー体験のレッスン1

  • ユーザーインターフェースをシンプルにする。CTAを目立たせ、わかりやすくし、関連する画像の隣に最も重要な利点を表示させる。
  • サインアップに必要なプロセスの数を明示し、期待値とモチベーションを高める。ユーザーテストを実施し、コンバージョンを妨げる障壁を最小とするユーザー体験を提供する。
  • 最終的なコール・トゥ・アクションの前にFAQのセクションでよくある質問を表示させ、障壁を取り除く。
  • 可能な限り、パーソナライズを強調する。Netflixはユーザーの期待に合わせた体験を提供することに苦心している。

Netflixのようなインテリジェントなアルゴリズムを使用していないプラットフォームであっても、ユーザーの好みを実装する方法は存在する。当初から、Netflixはユーザーに対し、彼らの好みを尋ねてきた。その返答に基づき、Netflixはトップページをカスタマイズしていたのである。

すべてのデバイスでシームレスなオンボーディングプロセス

Netflixのサインアッププロセスは、下記のような、多くのデジタルデバイスで完了することができる。

  • Android
  • パソコン
  • iPhone、iPad、iPod Touch
  • スマートTV、ストリーミングメディアプレイヤー

登録後、ユーザーはホーム画面に移動する。(効果的なUIデザインの一例と言える)シンプルなプラスのサインをクリックすれば、プロフィールを追加できる。

ここで、ユーザーはプロフィール名や子供の視聴制限を設定することができる。さらに、家族や友人のために、世界中のどこでも視聴することができる、最大4つまでのプロフィールを追加することが可能だ。

netflix-post-signup-home-screen-showing-user-profiles-568x317.jpg (568×317)
ソース:Wired

オンボーディングプロセスを完了させるために、下記のようなストリーミングの種類を、ユーザーはカスタマイズすることができる。

  • プロフィールのロック
  • 年齢制限
  • 再生の設定
  • アクティビティログの表示
  • 字幕の表示
  • 言語の設定
  • 特定の視聴制限
  • TV番組や映画のパーソナライズされた提案

Netflixのカスタマイズ機能は、競合他社のそれと比較し、優れているというわけではない。Netflixの差別化に役立っている要素は、設定のパネルに隠すのではなく、オンボーディングのプロセスで機能させていることだ。

こうすることで、ユーザーは初めから自分好みの体験を作り上げているように感じるのだ(その結果、主観的価値を高水準で維持することが可能となっている)。

Netflixにおけるユーザー体験のレッスン2

  • シンプルであることの重要性の再確認。オンボーディングやログイン画面はシンプルにすべきだ。最も重要なボタンやコピー文のみを表示する。また、可能な限り、テキストを広く理解されている記号に置き換える。
  • ユーザーが自身の体験をカスタマイズできるようにする。言語や通知の設定など、すでにこれを実現できる環境を備えているかもしれない。
  • これをユーザーにしっかりと知らせる。もしくは、オンボーディングの段階で環境設定を説明する。

残りのユーザージャーニーと同様、最初はシンプルで、簡易であり、顧客目線に立ったものとする。ユーザーがプラットフォームに入れば、Netflixのオリジナルコンテンツから始まる、複数の選択が提示される。

オリジナルの作品を強調する

アバブ・ザ・フォールドには、最新トレンドのコンテンツとNetflixのオリジナル作品が掲載されている。オリジナル作品は、その価値を伝えるため、他のコンテンツよりも大きめに表示されている。

netflix-originals-568x267.jpg (568×267)
ソース:Netflix

近年、従来の有料TVとの契約を打ち切り、新しいプラットフォームと契約する家庭が急増している。ケーブルTVとの契約の打ち切りやストリーミングを好む傾向は、パンデミックにより拍車がかかり、今後も継続すると予測されている。

us-cord-cutter-households-2019-2024-graph-423x426.jpg (423×426)

消費者がケーブルTVとの契約の打ち切りを選択するのは、ストリーミングという代替手段と比べ、価格が高いことが理由だ。2020年の上半期にスポーツの生中継がなくなったことも、減少の要因となっている。スポーツが戻ってきたとはいえ、従来のケーブルTVや衛星放送に戻ってくる人は少ないだろう。

エリック・ハグストーム eMarketer forecasting analys

こうした変化は「ストリーミング・オリジナル」への需要を増加させ、それは、Netflixが2012年以降、独占している領域である。ここ数年間で、Netflixは、わずか8時間から約3,000時間へと、オリジナルコンテンツを拡大させている。

ニールセンの調査によれば、2020年の米国のストリーミングサービスのオリジナルコンテンツにおいて、人気のあるコンテンツのTOP10のうち、9つがNetflixが作成したコンテンツであるとのことだ。

top-10-streaming-content-of-2020-original-series-512x426.jpg (512×426)

「Orange Is the New Black」、「Stranger Things」、「Black Mirror」などのNetflixのオリジナルシリーズは、テレビ好きのユーザーにとって、カルト的な人気を博している。かつてエグゼクティブであったシンディ・ホランド氏への独占インタビューによると、1億500万以上のユーザーが、「Orange Is the New Black」のエピソードを少なくとも1話は見ているとのことだ。

使い勝手の良さが人気の秘訣とはいえ、こうしたオリジナル作品が、ユーザーにとっての価値を高めている。

これらのシリーズの成功は、ユーザーをNetflixへとさらに没入させるための、革新的な戦術を生み出した。Netflixは、ユーザーの個別の興味に応じて回転する、12のサムネイルオプションを開発している。この戦術は、「アートワーク・パーソナライゼーション」と呼ばれている。

Netflixのオリジナル作品である、「Stranger Things」を例に挙げてみよう。コメディに興味のあるユーザーには、子供たちがゴーストバスターズの格好をしている、「Stranger Things」のサムネイルがプラットフォームに表示される。

しかし、犯罪ドラマに興味のあるユーザーには、霧に包まれたかぼちゃ畑を見つめる警官といった、よりシリアスなサムネイルが表示される。

netflix-stranger-things-thumbnail-according-to-user-interest-568x322.jpg (568×322)

こうした、積極的なパーソナライゼーションとユーザーの好みへの徹底が、Netflixの継続率が長期に渡って安定している理由の1つとなっている。

どのようにして、Netflixはトレンドとなるオリジナルのシリーズを売り出しているのか

netflix-video-trailer-thumbnail-568x231.jpg (568×231)
ソース:Netflix

Netflixは、静止画を表示する代わりに、ユーザーがスクロールを開始するとすぐに自動再生される、予告編の動画を表示するよう、プロダクトデザインをアップデートした。

上記の例では、「My Unorthodox Life」にカーソルを合わせると、予告編の動画が自動再生され、ジュリア・ハートがカルト教団から脱出し、7年間でニューヨークで成功したCEOになるまでが描かれている。

このUXの戦術は、夢中で視聴してしまうようなコンテンツでユーザーを包み込み、予告編がなければ見逃されてしまうコンテンツを、即座に表示するようにしている。

Netflixにおけるユーザー体験のレッスン3

  • 価値の高いコンテンツには誇りを与える。目立つように配置し、バッジを表示し、動画でプロモーションを行う。その他、様々な方法で、複数の候補の中から目立たせる。
  • 自身のプラットフォームに価値を与え続ける。Netflixは、オリジナルコンテンツでこれを実現している。
  • 可能であれば、価値の高いコンテンツを、各セグメントに合わせた形で提供する。Netflixは、アルゴリズムによるコンテンツの選択と、サムネイルのデザインでこれを実現している。

ここまで、我々は、ユーザーを自身のプラットフォームに即座で容易に没入させるための、Netflixのシンプルかつ顧客目線でのユーザージャーについて学んできた。次は、Netflixがユーザーを引き止めるために行っている方法について見ていこう。

パーソナライゼーションを強力に活用したリテンション戦略

パークスアソシエイツの調査によれば、Netflixの平均的なユーザーは、50ヶ月以上、契約を続けているとのことだ。

average-subscription-duration-of-ott-services-graph-559x426.jpg (559×426)

平均で、2/3以上のユーザーが、加入から1年経過してもまだサービスを利用している。これと比較し、同じ期間のHuluのユーザーは、53%しかサービスを継続していない。

streaming-video-one-year-us-customer-retention-568x317.jpg (568×317)

既存ユーザーの人気が、新規ユーザーのサブスクリプションへの加入に対する魅力の理由になっているかもしれない。

COVID-19のパンデミックの初期の頃、多くのアメリカ人が軽微な支出を抑えようとしていた。しかし、この頃にNetflixは同社史上最高の成長を遂げている。Netflixは、2020年の最初の3ヶ月間だけで、1,577万人の加入者を増やしたのである。

パンデミックの緩和に従い、Netflixの成長も鈍くなっていった。しかし、それでも多くの消費者に愛されている。

解約を望むユーザーのために、Netflixは解約のプロセスを簡単にしているが、考えを変えたり、いつでも戻ってこられる機会も提供している。

netflix-membership-cancellation-application-user-interface-568x179.jpg (568×179)

ユーザーを長期間維持させるために、我々はこのプラットフォームから、他に何を学ぶことができるだろうか?

絶対的なパーソナライゼーション

パーソナライゼーションは、Netflixが高い継続率を維持している大きな要因である。上記で述べたとおり、Netflixはサムネイル画像でさえ、それぞれのユーザーの好みに合わせてカスタマイズされている。

トップページの下部には、3つのパーソナライゼーションのエリアがある。

  • 選択の列:視聴継続、新作、話題の作品、あなたの視聴履歴から、など。
  • 列内のタイトルの選択:例えば、ユーモアを好むユーザーには、「新作」の中に新しくリリースされたコメディ番組を含める。
  • 選択したタイトルのランキング:例えば、露骨なコンテンツを好むユーザーには、子供向けのコメディの前に、ラブコメを表示させる。

各レコメンデーションの列において、Netflixのアルゴリズムは様々な要素(非公開)を重み付けし、ユーザーがその瞬間に見たいと思うであろう作品を表示させている。

すでに視聴を開始している番組は、ボタン内のメッセージが「再生」から「再開」に変更される。また、どのエピソードを見ているかを把握できるようにするため、エピソードの進行状況も目立つように表示される。

netflix-movie-resume-and-episode-progress-feature-434x426.jpg (434×426)
ソース:Netflix

これほど多くの選択肢を与えることができるのは、最も成功したプラットフォームのみに許されている、と思うかもしれない。しかし、選択肢を与える強さが、Netflixの成功を裏付けるものであり、競合他社もそれを悟ったのである。Hulu、Amazon Prime、Disney+も、豊富な選択肢を提供するようになった。

新作のコンテンツをお知らせする、Eメール戦略

netflix-email-marketing-strategy-that-highlights-new-content.jpg (516×1322)

Netflixは一貫したEメール戦略も採用しており、そこでは、新しく公開されたコンテンツをユーザーに知らせている。また、利用が滞っているユーザーに対しては、彼らが過去に見ていた番組の最新エピソードを紹介するなどして、再エンゲージメントを促している。

初回のウェルカムメッセージの後、通常、Netflixは月に4~7通のメールをユーザーに送付している。実際はユーザーの視聴履歴によってカスタマイズされるが、メールのタイトルには以下の文言を含めている。

  • 新作番組
  • 新作映画
  • Netflixオリジナル番組
  • ユーザーが過去に視聴した番組の新シーズン

Netflixは標準化されたテンプレートを使用しているため、すべてのメッセージにおいて、一貫したブランディングが維持されている。このテンプレートはGifや動画も使用できるため、ユーザーの興味を惹くことが可能となる。

ユーザーはこうしたメールから番組を直接リストに追加したり、視聴を開始できる。

Netflixにおけるユーザー体験のレッスン4

  • ユーザーに選択の機会を与える。ユーザーに自身の体験をパーソナライズさせ、可能な限りのオプションを与える。
  • 解約を簡単に行えるようにしつつ、ユーザーが考えを変える機会も提供する。Netflixは、Eメール(そのユーザーが見逃した番組を月ごとに知らせる)による連絡を提案することで、これを実現している。
  • 興味をそそるEメール戦略をもって、ユーザーに定期的にプラットフォームに訪れてもらう。

あらゆるストリーミング・プラットフォームの中でも、Netflixは何年もの間、トップに位置づけられているサービスである。最先端のUIとUX、高いパフォーマンスを誇るオリジナルコンテンツ。これらがともに、ユーザーを惹きつけ、維持させている大きな理由なのである。

まとめ

シンプルなインターフェースから、高度にカスタマイズされたレコメンデーション機能まで、Netflixは没入感のある体験を作り出している。

Netflixのこうした体験に匹敵するものを作り出すために、スタートアップの創業者は、視覚的な階層に細かい注意を払う必要があるだろう。混雑を避け、コンテンツをパーソナライズし、主要なコール・トゥ・アクションを全面に押し出すのだ。

サービス内容と手続きがシンプルであればあるほど、加入の際に生じる検討事項も少なく、こうした状況がユーザーの決断を促していると感じました。自社の強みとユーザーの痛みを明確に理解し、それを的確に伝える手法を選択していることが大きな違いを生むようです。サービスや規模が違う場合、手法そのものを参考にすることは難しいかもしれませんが、その背景にある考え方は非常に学びとなるものでした。

この記事は、cxl に掲載された「How Netflix Creates Immersive Experiences with Exceptional Design and UX」を翻訳した内容です。

投稿 Netflixはいかにして、優れたデザインとUXをもって没入感のある体験を生み出しているのか?SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

【再演】新人SEO担当者に伝えたい、都市伝説に惑わされない正しいSEO

 

 概要

(去年の12月に行った本セミナーが、好評につき再演することになりました。)

ネット上には今も昔もSEOの都市伝説が溢れています。

例えば下記のようなものです。

「アクセスが少ないページは低品質コンテンツなので削除した方がいい」

「Google広告を出していれば、上位表示しやすくしてもらえる」

「有名な会社はGoogleが優遇しているから順位が下がることはない」

中には逆効果の内容もあるため、SEO担当者は都市伝説が嘘か本当か見極める力が必要です。

しかし、新人SEO担当者には見極めが難しく迷うこともあると思います。

そこで、今回のセミナーでは新人SEO担当者向けに、どうすれば都市伝説が嘘か本当か見極めることができるかをお伝えいたします。

  • SEO担当者になったけれど、何からはじめたらいいかわからない
  • SEOを勉強し始めて、半年以内の方
  • 新人が入社したので、初心者向けのSEOセミナーを受けさせたい

上記に当てはまる方はぜひご参加下さい。

「初心者向けの内容」になるため、中級者以上の方には物足りない内容になりますので予めご了承ください。

目次

  • そもそもSEOって何?
  • 検索に対する Google の方針
  • 本当か?嘘か? SEOの都市伝説

※当日までに内容が変更になる可能性がございます。

登壇者

谷藤 剛
go tanifuji

インハウスSEO担当を経て、アイオイクスに入社。

SEO歴は11年。

SEOコンサルを行う傍ら、SEOの研究や実験を行う。

最短で上位表示をさせる実験を行った結果、たった2日間で上位表示に成功する。

このような実験内容や最新のSEO情報をオウンドメディア(SEO Japan社員ブログ)を通じて情報発信を行っている。

【保有資格・認定】

・中小企業診断士

・米国semrush社 テクニカルSEO試験合格

・米国CXL社 テクニカルSEO試験合格

Twitter:@go_tanifuji

セミナー詳細

日時

2022年1月21日(金)13:00~ 14:00

タイムテーブル

  • 13:00~13:40:セミナー
  • 13:40~13:45:休憩
  • 13:45~14:00:質疑応答

※ご質問がなくなり次第、終了となります。

参加人数

80名まで
(応募者多数の場合は、抽選を行います。)

対象となる方

  • 企業の新人SEO担当者
  • 今後SEOへの取り組みを検討されている企業の方

※恐れ入りますが、同業他社の方・個人の方・広告代理店の方の応募はご遠慮ください。

参加費

無料

会場

Zoomによるオンライン配信となります。
当選された方には、視聴可能なリンクをお送りいたします。

募集期間

1月20日(木)17:00まで

申し込みフォーム

お申し込みは、以下のフォームよりお願いいたします。
当選された方には、後日視聴用のURLおよびアンケートをお送りいたします。

プライバシーポリシーをご覧の上、ご応募ください。

 

投稿 【再演】新人SEO担当者に伝えたい、都市伝説に惑わされない正しいSEOSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

ダイナミックレンダリングとSEOへの影響は?

弊社のSEOコンサルタントが愛用しているSEOツール「Botify」。
最近 日本法人(https://jp.botify.com/)が設立されました。
このたびBotify blogの記事翻訳の許可をいただきましたので今後ご紹介していきます。
サイトの規模が大きくなると、直面するのがクロールやインデックスの問題です。メインコンテンツにJavaScriptを使用しているサイトの場合、解決方法の一つとしてダイナミックレンダリングが挙げられます。しかし、現場の感覚ですとダイナミックレンダリングを導入しているサイトはまだ少数派です。そこで今回はダイナミックレンダリングを基礎から学べるbotifyの記事をご紹介します。

Googleの2018年のI/O会議で、ジョン・ミューラー氏がダイナミックレンダリングの概念を紹介しました(実際には、多くのサイトが自作のソリューションやサードパーティのソフトウェアを活用してすでにレンダリングしていましたが)。

「ダイナミックレンダリングを一言で言うと、ユーザーにはクライアント側でレンダリングされた通常のコンテンツを送り、検索エンジンにはサーバーサイドで完全にレンダリングされたコンテンツを送るという原理です」とジョンは説明しました。

そして6月30日、Bingはウェブマスターガイドラインを更新し、興味深い追加事項を発表しました。それは「Bingは、Bingbotのような特定のユーザーエージェントに対して、特に大規模なウェブサイトでは、クライアントサイドでレンダリングされたコンテンツとプリレンダリングされたコンテンツを切り替えるダイナミックレンダリングを推奨しています。」 というものでした。

GoogleとBingの両方が推奨ソリューションとして発表するほどのことであれば、SEO担当者としては、どのような状況でそれが適切なのか、どのように役立つのか、どのような影響に注意しなければならないのかを理解しなければなりません。

ダイナミックレンダリングとは何か?

    ダイナミックレンダリングは、検索エンジンには完全にレンダリングしたコンテンツを送信し、人間の訪問者にはクライアント側でレンダリングした通常のコンテンツを提供すること。
    プリレンダリングとは、検索エンジンのボットのためのものです。

ダイナミックレンダリングとは、サーチエンジンボット用のプリレンダリングです。各ページの静的なHTML(サーバー側のレンダリング)バージョンを作成し、GooglebotやBingbotなどに提供します。

これは、ユーザーエージェントの呼び出しに応じて、ページのレンダリング方法を変える技術です。ユーザーエージェントごとに、クライアントサイドでレンダリングされたコンテンツと、プリレンダリングされたコンテンツを切り替えます。

言い換えると、ダイナミックレンダリングは、クライアント側でレンダーしたコンテンツをユーザーに送信し、動的なコンテンツを静的なHTMLに変えてサーチエンジンに送信します。つまり、GoogleがJavaScriptを実行しなくてもコンテンツがクロールされて、インデックスが作成されます。

検索エンジンのボットがダイナミックレンダリングしたページにアクセスすると、ヘッドレスクロームでオンデマンドにレンダリングしたページのバージョンを取得します。

    「ヘッドレス」とは、 視覚的な表現や画面を持たないブラウザのことで、インタラクティブな画面ではなくコードで出力されることを除けば、ブラウザの基本的な技術をすべて備えています。

ダイナミックレンダリングは何のため?

    ダイナミックレンダリングは、大規模でJavaScriptを多用する、変化の激しいサイトに最適です。また、予算や技術者不足の企業にも有効です。

Googleは、「ダイナミックレンダリングは、インデックス作成可能で、JavaScriptで生成されたコンテンツが急速に変化する際に適している」と説明しています。

ダイナミックレンダリングは、検索エンジンのボットが重要なコンテンツをより多くクロールし、インデックス作成することにも役立つため(詳しくは後述します)、クロールバジェットの問題に悩むサイト – 通常、大規模ウェブサイトに最適です。

また、サーバー側のレンダリングよりも導入が容易で、人間とボットの両方にコンテンツを事前にレンダリングするよりも低コストなこともわかっています。

あなたのサイトにダイナミックレンダリングが適しているかどうか判断が難しい場合、以下の質問にひとつでも当てはまるなら、導入を検討してみてはいかがでしょうか

  • ダイナミックレンダリングの実装を検討しているウェブプロパティは、インデックス作成可能 (つまり、検索エンジンで見つけられるようにしたい)
  • 当該ウェブプロパティは、コンテンツの一部または全部の生成にJavaScriptを使用している
  • 自社ウェブサイトのコンテンツは急速に変化している(例:在庫が常に変化するEコマースサイトなど)
  • クロールバジェットの問題で悩んでいる(つまり、検索エンジンのボットが重要なコンテンツを見つけられない懸念がある)
  • エンジニアチームは、業務が多すぎて、サーバー側のレンダリングを実装できない状態
  • 予算の制約がある

GoogleとBingがダイナミックレンダリングを勧めるのはなぜ?

    GoogleやBingはJavaScriptを処理することができますが、大量に処理するには限界があります。
    ダイナミックレンダリングでは、検索エンジンのボットがレンダリングを必要とせずにコンテンツを取得できるため、これらの制限がなくなります。

Googleは次のように公言しています。

「GooglebotがJavaScriptをレンダリングできるといっても、それに頼りたくはありません。」 — Martin Splittは、ダイナミックレンダリングを実装する理由についてこう説明しています

「現状では、JavaScriptの処理が難しく、すべての検索エンジンのクローラーが正常に処理できるわけでも、すぐに処理できるわけでもありません。将来的には、この問題が修正されることを期待していますが、それまでの間は、この問題の回避策としてダイナミックレンダリングを推奨します。」— Googleダイナミックレンダリングに関するGoogleのドキュメント

ここで重要なのは、Googleにはレンダリングキューと2つのインデックス作成の波があるということです。

GoogleのHTMLクローラーはJavaScriptを処理できないため、GooglebotがJavaScriptに遭遇すると、そのページは順番待ちに入り、レンダリングリソースが利用可能になると、Googlebotがページを完全にレンダリングできるようになります。

JavaScriptに関しては、Bingも同様の制限があります。この問題に対する同社の立場を明らかにするために、最近、ウェブマスターガイドラインに以下のセクションが追加されました。

JavaScript: Bing is generally able to process JavaScript, however, there are limitations to processing JavaScript at scale while minimizing the number of HTTP requests. Bing recommends Dynamic Rendering to switch between client-side rendered and pre-rendered content for specific user agents such as Bingbot especially for large web sites.

Bingは一般的にJavaScriptを処理することができますが、HTTP要求の数を最小限に抑えながら大規模にJavaScriptを処理するには限界があります。Bingは、Bingbotのような特定のユーザーエージェントに対して、特に大規模なウェブサイトでは、クライアント側でレンダリングされたコンテンツとプリレンダリングされたコンテンツを切り替えるダイナミックレンダリングを推奨しています。

●引用元:Webmaster Guidelines – Bing Webmaster Tools

ダイナミックレンダリングソリューションを導入していれば、GooglebotやBingbotなどの検索エンジンのボットがページにアクセスしたときに、完全にレンダリングされたページが提供されるため、レンダリングの必要がありません。これで、検索エンジンがコンテンツを見逃す心配がなくなるのです。

ダイナミックレンダリングで解決できる問題とは?

JavaScriptは、ページが遅くなるだけでなく、検索エンジンが正常に、あるいは即座に処理することを困難にします。

検索エンジンがJavaScriptを処理する必要をなくすことで、スピードに関するクロールバジェットの問題と、JavaScriptを搭載したコンテンツを検索エンジンが見逃してしまうことの両方を改善することができます。

クロールバジェット問題をダイナミックレンダリングでどのように解決するのか?

ユーザーとボットの両方が、ページスピードの影響を受けます。

ユーザーにとっては、ページの読み込みが遅いとイライラしてしまい、購入に至らないでしょう。ボットにとっては、ページスピードが遅いと、多くのページをクロールすることができません。

ダイナミックレンダリングはボット専用のソリューションであるため(つまり、人間のユーザーにはクライアントサイドでレンダリングした通常のコンテンツが提供されます)、ここではボットがフルレンダリングしたページを送信することによるSEOのメリットに焦点を当てます。

大規模なサイト、特にJavaScriptを多用するサイトでは、クロールバジェットの問題に悩まされることがあります。

GoogleやBingなどの検索エンジンは時間に限りがあるため、1つのウェブサイトで一度にクロールできるページ数に上限を設けています。その上限がクロールバジェットで、サイトごとに異なります。

例えばGoogleでは、クロールレートの上限(ページの読み込み時間などの要因に影響を受ける)とクロールデマンド(ページの人気度や鮮度に影響される)を組み合わせてクロールバジェットを算出しています。

このような制限があるため、検索エンジンのボットが大規模なサイトをクロールすることが困難な場合があります。当社の調査によると、この問題により、企業のウェブサイトの全ページの約51%をGoogleが見逃していました。

検索エンジンのボットの動きを遅くするJavaScriptを加えると、クロールバジェットの問題がさらに悪化します。

ページスピードの改善がボットに与える影響を説明するために、平均遅延が1,053ミリ秒から730ミリ秒に改善され、結果としてクロール頻度が大幅に増加したウェブサイトを見てみましょう。

サイトが検索エンジンのボットに素早くページを提供すると、ボットはサイトのより多くのページをクロールすることができます。

ページ数が多いほど、またページスピードが遅いほど、Googlebotがすべてのページを巡回できる可能性は低くなり、サイトのページのうち、まったくクロールされないページや、頻繁にクロールされないページの割合が増えることになります。

また、一般に、読込み時間が500 ミリ秒未満のページだと、501 ~ 1000 ミリ秒の読込み時間のページよりもクロールが50%増加し、1,000 ミリ秒超のページよりも130%増加します。

では、ダイナミックレンダリングによって、どのようにページスピードを向上させることができるのでしょうか。

JavaScriptはウェブページの読み込みに数秒の時間を要しますが、ダイナミックレンダリングは完全にレンダリングされたページを検索エンジンのボットに送信します。ダイナミックレンダリングは、Googleボット(および他の検索エンジン)がページをより速く取得することになり、サイトのより多くのページをクロールすることができます。

つまり、より多くのページがインデックスに登録され、ランキングに掲載され、トラフィックや収益につながるのです。

ダイナミックレンダリングは、JavaScriptを使用したコンテンツのインデックス作成にどのように役立つのでしょうか?

検索エンジンがJavaScriptで読み込まれたコンテンツをブラウザで確認するためには、レンダリングする必要があります。大規模なウェブページをレンダリングするには、多くの時間と演算リソースが必要なため、検索エンジンボットは、リソースが確保できるまでJavaScriptのレンダリングを延期します。

あなたの所有しているJavaScriptを搭載したコンテンツと、検索エンジンがレンダリングしたJavaScriptを搭載したコンテンツは、必ずしも同じではありません。これは、Botifyがレンダーバジェットと呼ぶものが原因です。

レンダーバジェットは、クロールバジェットと同様に、ウェブサイトのコンテンツが頻繁に変更される場合(在庫が常に変動するEコマースサイトや、毎日何百もの新しい記事が掲載されるメディアサイトなど)には、その間にページの詳細が見落とされる可能性があります。

実例をご紹介します。このサイトでは、JavaScriptフレームワーク(サーバー側のレンダリングではない)に切り替えたところ、すぐにオーガニック検索のトラフィックが大幅に減少しました。

しかし、コンテンツのレンダリングの負担を検索エンジンから取り除くことができれば、それは問題ではなくなります。

ダイナミックレンダリングでは、検索エンジンのボットが完全にレンダリングされたページを取得するため、JavaScriptで読み込まれたコンテンツやリンクを見逃す心配がありません。

リソース不足を解消するダイナミックレンダリング

    開発チームはユーザー重視のプロジェクトを優先するので、ボットのための改良はロードマップに載らないかもしれません。
    ダイナミックレンダリングは、ボットが望むものを提供するための、より簡単でリソースを必要としない方法です。

ボットの改善を行う上での最大の障壁は、ほとんどのエンジニアリングチームや開発チームがユーザーに焦点を当てているため、UXの問題解決やプロジェクトを優先してしまうことです。

例えば、ページスピードの最適化が彼らの目に留まったとしても、それを実行するには非常に多くのリソースと複雑な作業が必要になります。

どれくらいのリソースが必要なのでしょうか?前述の平均遅延を1,053ミリ秒から730ミリ秒に改善したお客様はこのプロジェクトに1年の歳月と膨大なリソースが費やしましたが、それは特別な例ではありません。

ダイナミックレンダリングは、サーバー側のレンダリングのようなオプションよりも高速で、リソースの消費も少ないため、この種の最適化を実際に実行するのがはるかに容易であるという点で、優れたソリューションです。

ダイナミックレンダリングはクローキングか?

Googleによると、ダイナミックレンダリングはクローキングではありません。

Googleはクローキングを「人間のユーザーと検索エンジンに、異なるコンテンツやURLを提示する行為」と説明しています。

ダイナミックレンダリングの定義に似ていると思われるかもしれません。それでこの件で迷いが生じると言うのも、当然理解できます。

その違いを理解するには、こんな方法があります。

  • クローキングとは、ユーザーと検索エンジンの一方または両方を欺く目的で、異なるコンテンツを送信するプロセスのことです。
  • ダイナミックレンダリングとは、 ボット用にコンテンツを事前にレンダリングする目的で、ユーザーと検索エンジンに異なるコンテンツを送信するプロセスのことです。

Googleが最初にクローキングを取り上げたのは、クローキングが主に検索エンジンを騙し、検索結果でのページの順位を人為的に上げるために使われていた初期の頃でした。

例えば、ユーザーエージェントが検索エンジンの時だけ、ページにキーワードを詰め込むクローキングが使われていました。人間の訪問者がそのページをリクエストすると、人間に読めて、キーワードが入っていないバージョンを受け取ることになります。

言い換えれば、ダイナミックレンダリングを使ってクローキングすることは可能ですが(これは悪いことで、絶対にやってはいけません!)、すべてのダイナミックレンダリングがクローキングではありません。

ダイナミックレンダリングを使用する場合は、検索エンジンに送信するページとユーザーに送信するページの違いを最小限に抑えるようにしてください。

ダイナミックレンダリングは、人間訪問者のエクスペリエンスを向上させる?

ダイナミックレンダリングは、完全にレンダリングされたコンテンツを、ユーザーではなく、検索エンジンやその他のボットに提供します。

サーバー側のレンダリングだけを使って、ユーザーとボットのスピードを向上させればいいのでは?

    サーバー側のレンダリングは、経済的にもエンジニアリングチームの時間的にも難しい場合が多い。

サーバーサイドのレンダリングは、意味のあるコンテンツがすべてウェブサイトのサーバー上でレンダリングされるため、多くの人に好まれるオプションです。

ユーザーとボットの両方が、追加リソースを要求することなく、完全にページをロードすることができます。これは、人間の訪問者と検索エンジンのボットの両方からページをレンダリングする負担を取り除き、ウェブサイトのサーバーに配置するものです。

では、なぜ誰もがJavaScriptのページをサーバー側のレンダリングしないのでしょうか?なぜなら膨大な時間とリソースを必要とするからです。
サーバーサイドのレンダリングとは異なり、ダイナミックレンダリングはかなり良いターンキーソリューションになり得ます。これにより、エンジニアリングチームの時間を最小限にし、検索エンジンのボットが求めるものを提供することができます。

また、サーバーサイドのレンダリングに比べて、ダイナミックレンダリングの方が低コストです。それは、人間の訪問者とボットの両方に向けてコンテンツのプリレンダリング費用が掛かるのではなく、ボット用にプリレンダリング費用が掛かるだけだからです。

ニュースサイトのようにJavaScriptを多用し、サイトの規模が大きくなり続ける場合は、いずれクロールやインデックスの問題に直面します。
問題が起きる前にダイナミックレンダリングの導入を検討してみてはいかがでしょうか

この記事は、botifyに掲載された「What Is Dynamic Rendering & How Does It Impact SEO?」を翻訳した内容です。

投稿 ダイナミックレンダリングとSEOへの影響は?SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

36億の記事を分析した結果、エバーグリーン・コンテンツについてわかったこと

コンテンツ作成にあたり、「質が良く、ユーザーとの関連性の高いものを作る」、ということは言わずもがなの目標です。もちろん、すべてのコンテンツに当てはまるわけではありませんが、作成したコンテンツが長期間にわたってユーザーに愛され、リンクやシェアを獲得し続けることができれば、これほど喜ばしいことはありません。今回は、こうした記事を「エバーグリーン・コンテンツ」と題し、それに関連する要素を分析したBacklinkoの記事を紹介します。


エバーグリーン・コンテンツについての理解を深めるため、我々は36億の記事を分析した。

特に、エバーグリーン・コンテンツにつながる可能性が高い複数の要因(コンテンツのフォーマットやプロモーションのチャネルを含む)を特に注目した。

我々のデータパートナーであるBuzzSumoの協力を得て、特定のコンテンツがシェアされ続け、リンクを獲得し続けることについて、多くのことを学んだ。

それでは、データを見ていこう。

主要な発見についてのまとめ

1.リスト記事とハウツー記事は、エバーグリーン・コンテンツにおける、最も強力なフォーマットである。プレゼンテーションやプレスリリースは、エバーグリーン・コンテンツから最も遠い傾向にある。

2.ポッドキャストのエピソードは、時間がたっても、ほとんど共有されない。実際、リスト記事と比べ、ポッドキャストはエバーグリーン・コンテンツになる可能性が4.28倍低い。

3.Redditで多く共有されているコンテンツは、エバーグリーン・コンテンツになる可能性が高い。

4.Twitterで多くのエンゲージメントを獲得した記事が、長期間にわたってシェアやリンクを獲得するケースは非常に少ない。

5.「2020」や「2021」がタイトルに含まれている記事は、エバーグリーン・コンテンツになる傾向がある。最新の情報が含まれているコンテンツはシェアをされやすいことを意味している。

6.エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、ガイド、データドリブンの調査、業界レポートである。

7.我々が分析したパブリッシャーの中では、Social Media Examiner、Harvard Business Review、Mindfulがエバーグリーン・コンテンツを最も多く公開している傾向があった。

8.エバーグリーン・コンテンツが最も高い頻度で発生している領域は、デジタルマーケティング、健康、テクノロジーである。

9.エバーグリーン・コンテンツの発生が比較的少ない業界は、SEO、ビジネス、ファッションである。

ハウツー記事とリスト記事がエバーグリーン・コンテンツになる可能性が高い

まず、我々はコンテンツのフォーマットが、エバーグリーン・コンテンツになる可能性に与える影響について分析を開始した。

記事のトピックは、時間が経過してもユーザーの興味を引き続けるための重要な要素であることに違いはないが、コンテンツのフォーマットも重要な役割を果たしているのではと考えたのである。

その結果、下記のことが判明した。


画像タイトル:ハウツー記事とリスト記事がエバーグリーン・コンテンツになる可能性が高い
縦軸:コンテンツのフォーマット
横軸:エバーグリーン・コンテンツのスコアの中央値

上記のグラフの通り、リスト記事は、エバーグリーン・コンテンツになる可能性が(圧倒的に)最も高いフォーマットである。その次に、ハウツー記事、「何を」についての記事、「何故」についての記事、と続く。

これは、リスト記事は全体的に多くのシェア数を獲得するという、以前行った調査の結果と一致するものである。

あるコンテンツがどの程度エバーグリーン・コンテンツであるかを算出するため、BuzzSumoの「Evergreen」の指標を使用した。

この指標は、そのコンテンツが公開されてから30日後に獲得しているシェア数とリンク数を見ている。

例えば、Healthlineの下記のリスト記事のエバーグリーンの指標は非常に高い数値となっている。

healthline-relieve-stress-post-640x519.webp (640×519)

このコンテンツは、公開当初に多くのシェア数とリンク数を獲得していたが、数年間が経過した現在でもトラフィックとバズを生み出している。

全体として、エバーグリーンの指標は、異なるフォーマット間において平等に分布していないことがわかった。

重要なポイント:公開したエバーグリーン・コンテンツの量を最大化させたいと考えているパブリッシャーにとって、リスト記事とハウツー記事は最適なコンテンツフォーマットと言える。

ポッドキャストのエピソードがエバーグリーン・コンテンツにることは極めて稀である

ポッドキャストのエピソードは、概して、あまり長生きするコンテンツではないことがわかった。

podcast-episodes-very-rarely-become-evergreen-content-768x584.webp (768×584)
画像タイトル:ポッドキャストのエピソードがエバーグリーン・コンテンツにることは極めて稀である
縦軸:コンテンツのフォーマット
横軸:エバーグリーン・コンテンツのスコアの中央値

この結果は、ポッドキャストの界隈の人たちにとっては驚きではないかもしれない。もちろん、リリースから数年が経過した後でも、ユーザーに視聴されているポッドキャストのエピソードも中にはある。

しかし、多くのユーザーが使用しているポッドキャストのアプリは、新しいエピソードが表示されるよう、設計されている。

実際に、フィード自体が時系列で表示されている。これは、ポッドキャストのエピソードが、公開されてから1か月後にソーシャルでシェアされることが少ないことの理由の1つとなっている可能性がある。

また、プレゼンテーション、プレスリリース、インフォグラフィックなどのフォーマットも、公開してから早い段階で多くのシェアを獲得する傾向があることもわかっている。また、これらのフォーマットのコンテンツは、その後、徐々に消えていく傾向がある。実際に、ポッドキャストのエピソードと比べても、これら3つのフォーマットがエバーグリーン・コンテンツになる可能性はさらに低くなっている。

しかし、ポッドキャストにおいては、その人気が増しているという事実から、この調査結果を強調することは有益であったと考えている。

重要なポイント:ポッドキャストのエピソードは、公開直後にバズを生み出す傾向はある。しかし、長期間にわたってシェアとリンクを獲得するポッドキャストのエピソードの数は非常に少ない。

Redditでエンゲージメントを獲得したコンテンツは、エバーグリーン・コンテンツになる可能性が強い

次に、我々は異なるチャネルでのエンゲージメントがエバーグリーン・コンテンツに与える影響を見てみた。

具体的には、4つの人気のあるソーシャルネットワークでのシェアが、コンテンツがエバーグリーンになることへの相関関係を調べてみたのである。

この調査の結果は下記の通りとなっている。


画像タイトル:Redditでエンゲージメントを獲得したコンテンツは、エバーグリーン・コンテンツになる可能性が強い
縦軸:エバーグリーンスコアとの相関関係
横軸:ソーシャルネットワーク

我々が保持するデータセット内の記事においては、Redditで高いエンゲージメントを獲得したコンテンツは、長期間、シェアされる可能性が比較的高くなっている。

これはなぜだろうか?

他のソーシャルプラットフォームと同様に、Redditのユーザーはニュース記事、直近で公開されたコンテンツ、トレンド動画などに興味がある
実際、異なるトピックの新しいコンテンツを発見できるよう、いくつかのSubredditも存在する。

しかし、他のプラットフォームとは異なり、Redditには不朽のコンテンツに興味を持つユーザーも多いようだ
これには、数年前に公開されたエンターテインメント系の記事や動画も含まれている。

ここで、我々の保持するデータセットの中から、Redditで多くのエンゲージメントを獲得した記事を紹介しよう。

(この記事のエバーグリーンスコアは最終的に非常に高くなった。)

ニュース記事やTMZの記事とは異なり、こうした記事は、公開後数か月、数年、数十年が経過しても人々に価値があると判断される記事なのである。

実際、あなたの業界ではどのようなトピックがエバーグリーン・コンテンツになる可能性があるかを見極めるためにRedditが役に立つ可能性はある。

重要なポイント:Redditのエンゲージメントは、コンテンツがリンクやシェアを時間の経過とともに獲得する可能性と高い相関関係がある。

Twitterのシェア数とエバーグリーンスコアに相関関係は見られない

我々は、Twitterでのシェア数やリツイート数が多いコンテンツといえど、エバーグリーンスコアが高くはならないことを発見した。


画像タイトル:Twitterのシェア数とエバーグリーンスコアに相関関係は見られない
縦軸:エバーグリーンスコアとの相関関係
横軸:ソーシャルネットワーク

Twitterに親しんでいる人にとっては、驚きではないかもしれない。Twitterは「ここ」と「今」に注力しているプラットフォームなのである(実際、Twitterのタグラインは「今を見つけよう」である)。

また、Twitterで多くシェアされる記事はニュース記事である、という事実も存在する。そして、ニュース記事は、その性質上、公開後に時間が経過しても多くの興味を持たれるという記事ではない。

さらに、Pinterestのピンも、ブログ記事がエバーグリーン・コンテンツになる可能性と相関しないことがわかった。Twitterとは異なり、ピンを獲得した記事が、公開後、時間が経過してもユーザーのフィードに表示される可能性がある。

しかし、我々のデータによると、公開直後に多くのピンを獲得した記事が、長期間にわたってリンクやシェアを獲得するとは限らないようだ。

重要なポイント:Twitterでのシェア数は、コンテンツがエバーグリーンになる可能性とは、ほとんど相関しない。

タイトルに現在の年号が含まれている記事は、エバーグリーン・コンテンツになる可能性が高い

興味深いことに、タイトルに年号が含まれている記事が、エバーグリーン・コンテンツになる可能性が高いことがわかった。

一見すると、これは驚きをもった発見と思うかもしれない。特定の年代にフォーカスした記事は、時間が経過するとともにその関連性が薄れていくと思われるからである。

しかし、現在の年代に焦点をあてた記事がエバーグリーン・コンテンツになる可能性が高くなる2つの理由が存在する。

まず、最新の情報を扱ったコンテンツは、シェア数やリンク数を多く獲得できる可能性がある。そして、その効果は時間が経過したとしても、持続する。

(BuzzSumoのエバーグリーンスコアは、公開後30日が経過し、発生したエンゲージメントをカウントしていることを思い出してほしい。)

そのため、記事が最初に公開された月によるが、タイトルで記述されている年のうち、まだ数か月にわたってシェアされる可能性があるということだ。

例えば、下記は現在の年号を含む記事である。そして、エバーグリーンスコアも、比較的高い。

これは、公開された日においても、数か月後においても、価値を見出すことができる稀な種類の記事である。

次に、現在の年に焦点をあてた記事は、必ずしもその年に公開された記事であるとは限らない。

例えば、下記の記事が初めて公開されたのは2017年である。

しかし、この記事のタイトルには「2021年」が含まれている。これは、この記事が今年に更新されたことを意味している。ここでも、新しい(もしくは、更新された)記事を読者に提供することが、より多くのシェア数の獲得につながると考えられる。

興味深いことに、ブログ記事に年代を入れることの効果は、以前より強くなっているようだ。


画像タイトル:タイトルに「2020年」や「2021年」を含む記事のエバーグリーンスコアは、以前の年代よりも高くなっている。
縦軸:エバーグリーンスコア
横軸:タイトル内に含まれる年代

特に、タイトルに「2020年」や「2021年」が含まれる記事のエバーグリーンスコアの中央値は33であり、以前の年代よりも大幅に増加している。

これは、以前よりも多くのコンテンツが公開されているという事実に基づくものと思われる。ユーザーは直近の、関連性のある情報を探しだすために、ショートカット(タイトルに含まれる「2021年」という単語)を求めていると思われる。

また、2020年と2021年のコロナの影響も要因となっているかもしれない。コロナの影響による世界の変化を考えると、コロナ以前に公開されたコンテンツとの関連性をユーザーは強く感じていないと考えられる。一方、「2020年」や「2021年」と表記されたコンテンツは、関連性のあるものとして認識されるのだ。

重要なポイント:記事のタイトルやタイトルタグに現在の年号を含むことは、短期的にも長期的にも、より多くのシェア数の獲得につながる可能性がある。

エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、レポート、調査

次は、エバーグリーン・コンテンツになる可能性が高い、特定のコンテンツの種類を見ていきたい。

前述の通り、我々は最も効果的なフォーマット(リスト記事やハウツー記事など)を特定した。しかし、これらのフォーマットにおいても、数十もの異なるバリエーションが存在する。

例えば、犬種の包括的なリストは、SEOのアドバイスのリストとは完全に異なるだろう。

どちらも、リスト記事であるということは同一である。しかし、最終的な形は完全に異なるのだ。

そのため、我々は複数の人気のあるコンテンツの種類についてさらなる調査を行ったのである。そして、エバーグリーン・コンテンツをより多く作成したいと願うマーケターにとって、どの種類のコンテンツが最適であるのかを考えたのだ。

これを行うにあたり、エバーグリーン・コンテンツのタイトル内に含まれる傾向のある用語を見てみた。

この調査結果は下記の通りである。


タイトル:エバーグリーン・コンテンツの割合が高いコンテンツのタイプは、「ベストオブ」リスト、レポート、調査
縦軸:用語
横軸:エバーグリーン・コンテンツのスコアの中央値

「ベスト」にフォーカスしたコンテンツは、エバーグリーン・コンテンツのスコアが最も高い傾向が見られた。

これは、最高の製品、アプリ、動画、ソーシャルメディアのアカウントなどを、一つの場所に集めているコンテンツがユーザーに高く評価されていることを示している。

例えば、我々が保持するデータセット内の「ベスト」記事を見てみよう。

エバーグリーン・コンテンツになる可能性が高いコンテンツの種類として、ガイド記事も挙げられる。

「ベスト」記事と同様、ガイド記事の大きな価値は、時間を節約できるところにある。しかし、最高の商品を集めるのではなく、ガイド記事では情報を集めることが必要だ。

例えば、Forbesが公開したブロックチェーンについての初心者向けのガイド記事は、公開されてから4年以上経過している現在でも、シェアやリンクを獲得している。

また、タイトルに「データ」、「レポート」、「研究」、「サイエンス」、「事実」、「リサーチ」が含まれるコンテンツは、エバーグリーン・コンテンツのスコアが比較的高いことがわかった。

これは、ユーザーはデータドリブンの情報を欲していることを意味している。下記は、我々が分析した記事の一例である。

(この記事は2018年の記事ではあるが、それでも被リンクを獲得し続けている。)

最後に、「将来」や「トレンド」についてのコンテンツは、時間の経過とともにシェアを獲得していく。これは、理にかなっていることだろう。なぜなら、人々は次に来る何かを常に探しているからである。そして、こうしたトレンドについての記事が長い展望を持っている限り、非常に長い期間にわたってエバーグリーン・コンテンツであり続けることができるのだ。

下記は、エバーグリーン・コンテンツと言えるトレンドについての記事の一例である。

重要なポイント:「ベスト」なものを集め、情報を一か所にまとめ、豊富なデータを含む記事をユーザーは欲している。

Social Media Examiner、HBR、Mindfulはエバーグリーンコンテンツを定期的に生み出している

この時点で、我々はエバーグリーン・コンテンツに関する複数の要因を分析している。次に、どのパブリッシャーがエバーグリーン・コンテンツの作成に最も寄与しているかを見てみたいと思った。

具体的には、BuzzSumoのデータベース内にある、少なくとも10,000記事を公開しているドメインを分析の対象とした。


タイトル:Social Media Examiner、HBR、Mindfulはエバーグリーンコンテンツを定期的に生み出している
縦軸:ドメイン
横軸:エバーグリーン・コンテンツのスコアの中央値

我々が調査したドメインの中では、Social Media ExaminerHBRMindfulBrain PickingsVisual Capitalistが、世界トップレベルのエバーグリーン・コンテンツを公開している。

これらのWebサイトが扱うコンテンツの種類やトピックはそれぞれ異なっているが、その中にも共通点は見られる。

まず、これらのパブリッシャーは、前述したエバーグリーン・コンテンツとの強い相関関係が見られるコンテンツのフォーマットを多用している。

Social Media Examinerは、基本的には、下記の2つのフォーマットのコンテンツのみを公開している。

HBRは、ハウツー記事に注力している。

そして、Mindfulでは、「何」や「何故」(これらはエバーグリーン・コンテンツのスコアと強く相関するフォーマットである)についての記事が多く公開されている。

2つ目は、時間が経過しても価値が出せるよう、コンテンツ自体をゼロから作成していることである。

また、本当の意味でのエバーグリーン・コンテンツになることができない記事(Social Media Examinerが公開しているコンテンツなど)は、定期的にアップデートできるコンテンツになるように設計されている。

例えば、下記のSocial Media Examinerの記事は、LinkedInのUIの変更とともに、過去の情報となってしまう可能性がある。

しかし、中核となるコンテンツと戦略が、すぐに機能しなくなることはない。つまり、この記事は今後1年から1年半の間に、簡単な手直しとスクリーンショットの更新をするだけでよいのだ。

重要なポイント:エバーグリーン・コンテンツを最も多く掲載しているパブリッシャーの特徴として、効果的なコンテンツのフォーマットへの注力、エバーグリーン・コンテンツの種類、時間が経過しても人々が興味を持ちそうなトピック、が挙げられる。

テクノロジー、マーケティング、健康についてのコンテンツが、エバーグリーン・コンテンツのスコアが最も高い

複数の業界において、どの業界が最も高い頻度でエバーグリーン・コンテンツを生み出しているのだろうか?

この問いに答えるため、我々は12の業界を分析した。そして、それぞれのエバーグリーン・コンテンツのスコアの平均値を分類したのである。

その分析結果が下記である。


タイトル:テクノロジー、マーケティング、健康についてのコンテンツが、エバーグリーン・コンテンツのスコアが最も高い
縦軸:業界とトピック
横軸:エバーグリーン・コンテンツのスコアの平均値

全体的に、デジタルマーケティング、コンテンツマーケティング、健康、エンターテインメントなどが、エバーグリーン・コンテンツのスコアが高い傾向があった。

下記は、エバーグリーン・コンテンツのスコアが非常に高い記事の一例である。

一方で、ビジネス、金融、ファッションについてのコンテンツは、エバーグリーン・コンテンツのスコアが低いという結果が出ている。

コンテンツの世界にいる人にとって見れば、驚くべき事実ではないかもしれない。Social Media Examinerについての個所でも触れたが、マーケティング関連の記事がエバーグリーン・コンテンツになる傾向はかなり高い(もしくは、少しの調整でエバーグリーン・コンテンツとすることが可能だ)。

これは、健康に関するコンテンツでも同様である。マーケティングのコンテンツと同様に、健康についてのコンテンツは、時間の経過とともに更新する必要がある。しかし、ガイドラインやアドバイスの記事については、時間が経っても価値があることが多い。

下記に、健康に関連したエバーグリーン・コンテンツの例を挙げてみよう。

一方で、金融やファッションについてのコンテンツは、その日やその週に起こったイベントや出来事にフォーカスする傾向がある。

重要なポイント:マーケティング、テクノロジー、健康、エンターテインメント系のコンテンツが、最も高い頻度でエバーグリーン・コンテンツを生み出している業界である。

結論

この記事では、エバーグリーン・コンテンツについての我々の分析をまとめてみた。公開したデータに面白さや有用性を感じていただければ何よりである。

また、今回の調査を可能にしてくれたBuzzSumoヘンリー・ウイング氏ルーズ・リネハー氏に感謝の意を示したいと思う。

そして、我々は皆様からの意見も聞きたいと思っている。

驚くべき調査結果はあっただろうか?何か質問があるだろうか?

いずれにせよ、下記のコメント欄であなたの意見を聞かせてほしい。

海外のコンテンツをベースとした分析であるため、具体的な言葉や表現を日本の現状にそのままあてはめることは難しいと感じました。しかし、着眼点や分析結果は非常に興味深いものであり、いくつかの気づきも得られたと思います。日々、数多くのコンテンツが生み出されることが当たり前となっていますが、その中でも長期間ユーザーに愛されるコンテンツを作成を心がけたいものです。

この記事は、BACKLINKO に掲載された「Here’s What We Learned About Evergreen Content」を翻訳した内容です。

投稿 36億の記事を分析した結果、エバーグリーン・コンテンツについてわかったことSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

テクニカルSEOの監査を行う方法

Webサイトの規模にかかわらず、SEOの基本は常に押さえておきたいものです。Webサイトの種類や目的によって、その影響度や工数に変化はありつつも、見るべきポイントは共通していると言えるでしょう。しかし、一口に「SEOの基本」と言っても、その内容は多岐にわたるため、抜け漏れも発生してしまうかもしれません。今回は、そうしたSEOの基本を「テクニカルSEOの監査」と銘打ったCXLの記事を紹介いたします。こうした取り組みをまだ行っていないWebサイトにとっても、定期的に行っているもののカバーしきれていない領域があるか不安なWebサイトにとっても、非常に有益な内容となっております。

SEOにおけるテクニカルな要素は、検索のパフォーマンスにとって非常に重要である。これらを理解し、維持することが、Webサイトのランキング上昇につながり、トラフィックを増加させ、売り上げの向上に寄与するのだ。テクニカルな要素を無視することは、検索結果に表示されなくなるリスクを意味する。

この記事では、Webサイトの構造上の問題を発見し、修正するためのテクニカルSEOの監査を行う方法を紹介する。コンテンツ、スピード、構造、モバイル対応などの主要なランキング要素を扱い、あなたのWebサイトがクロールされ、インデックスされる状況を目指そう。

また、オンページSEO、オフページSEOのパフォーマンスを向上させるために必要なツールと、その使用方法も紹介する。

テクニカルSEOの監査を活用し、SEOのパフォーマンスを改善する

テクニカルSEOの監査は、Webサイトの健康診断と考えてみよう。最大限の効果を引き出すために、デジタルマーケティングのキャンペーンを定期的に確認するのと同じように、テクニカルSEOの監査では、Webサイトのパフォーマンスを評価し、改善すべき点を特定する。

これらは、下記3つのカテゴリーに分類することができる。

1.技術的なエラー

パフォーマンスやSEOに悪影響を与える、Webサイトのバックエンドとフロントエンドの要素を特定しよう。技術的なエラーは、クローリングの問題、不備のあるリンク、サイトスピードの低下、重複コンテンツなどが該当する。後程、それぞれについて解説する。

2.ユーザー体験のエラー

ユーザーエクスペリエンスは、SEOの問題というよりも、デザインの問題として見られることが多い。しかし、Webサイトの構造がどのようになっているかは、SEOのパフォーマンスに影響しうるのだ。

どのページが重要であり、どのページの優先度が低いのかをより深く理解するために、Googleはページインポータンスと呼ばれるアルゴリズムを採用している。

ページインポータンスは、ページの種類、内部リンクと外部リンク、更新頻度、サイトマップなどによって決定される。しかし、ユーザーエクスペリエンスの観点からより重要なことは、ページの位置によって決定されるということである。言い換えると、そのページが、Webサイト内のどこに配置されているかということだ。

そのため、Webサイトのアーキテクチャは、テクニカルなSEO要素において非常に重要である。ユーザーがそのページを発見することが難しいほど、Googleがそのページを発見するために長い時間を要することを意味する。理想的には、可能な限り少ないクリック数で、ユーザーが発見できるようにしよう。

テクニカルSEOの監査では、これらを妨げるサイト構造やアクセシビリティの問題も対象としている。

3.ランキングの機会

テクニカルSEOとオンページSEOが融合する箇所である。Webサイトのアーキテクチャ内で重要なページの優先度を設定するのと同様、SEOの監査では、下記の方法でGoogleに対しページの重要度を伝える。

  • 同一、または、同様のキーワードをターゲットとしているコンテンツを特定し、統合する
  • 重要性を薄めてしまう重複コンテンツを削除する
  • 検索結果ページで、探しているものをユーザーが発見できるようにするため、メタデータを改善する

これらはすべて、GoogleがあなたのWebサイトをよりよく理解し、適切な検索結果に表示するよう、手助けをするためのものである。

我々が受診する健康診断と同様、テクニカルなSEOの監査は、一度行えば完了するといったものではない。Webサイトを構築したとき、デザインを変更したとき、構造を変更したときなど、定期的に実施する必要があるのだ。

簡易な監査を毎月行い、詳細な監査を四半期ごとに行う、といった頻度が目安となる。このような形で定期的に監査を行うことで、Webサイトに加えた変更がSEOのパフォーマンスにどのような影響をあたえるかを理解することが可能となる。

テクニカルSEOの監査を行う上で役立つ6つのツール

ここでは、テクニカルSEOの監査で使用するSEOツールを見ていこう。

これらのツールは無料であるが、Screaming Frogだけは例外であり、無料プランの場合、ページ数は500に限られる。

500ページ以上の大規模なWebサイトの場合、有料プランを契約すれば、年間149ドルで無制限のクロールが可能となる。

また、他の手段として、SemrushのSite Audit Tool(無料プランの場合100ページが上限)や、Ahrefs SiteのAudit toolも利用可能だ。どちらも同様の機能を有しているが、エラーや警告のフラグを立ててくれたり、技術的な問題を修正する方法を教えてくれるなどの利点がある。

1.robots.txtファイルを探し、エラーを特定するためにクロールレポートを実行する

あなたのWebサイトのページは、検索エンジンがクロールできた場合、初めてインデックスされる。そのため、クロールレポートを実行する前に、robots.txtファイルを確認しよう。ルートドメインの末尾に「robots.txt」を追加することで、見つけることができるはずだ。

https://yourdomain.com/robots.txt

robots.txtファイルは、検索エンジンのボットがあなたのWebサイトに訪れた際、最初に確認するファイルである。robots.txtファイルに書かれている「allowing」か「disallowing」によって、検索エンジンのボットは何をクロールすべきか、すべきでないかを伝える。

下記は、UnbounceのWebサイトの例である。

これを見る限り、Unbounceは、Webサイト内の特定の個所をクロールさせないよう、クローラーに要求していることがわかる。これらは、SEO目的でインデックスさせる必要のない、バックエンドのフォルダーである。

こうしたページのクロールを禁止することで、帯域幅とクロールバジェット((特定の期間内でGoogleボットがクロールし、新デックスすることができるページ数)を節約することができている。

ECサイトのような、何千ものページがある大規模なWebサイトの場合、インデックスする必要のないページへのクロールをrobots.txtによって伝えることで、Googleボットは重要なページに到達する時間を増やすことができる。

また、Unbounceのrobots.txtは、サイトマップの存在を検索エンジンに伝えている。GoogleやBingに発見してもらいたいページのすべてをサイトマップに記載することは、とても良い施策である(詳細は次のセクションで説明する)。

robots.txtの内容を確認し、プライベートなフォルダやページにクローラーが到達しないことも確認しよう。同様に、インデックスさせたいページのクロールを禁止していないか、確認すべきだ。

robots.txtの内容を変更する場合、robots.txtはWebサーバーのルートディレクトリにある(こうした作業に慣れていない場合は、開発者の助けを借りよう)。WordPressを使用しているのであれば、無料のプラグインであるYoast SEOを使用し、編集することも可能だ。Wixのような他のCMSを使用している場合は、CMSが提供しているSEOツールを使用して変更することもできる。

クロールレポートを実行し、あなたのWebサイトがインデックス可能かどうかを確認する

ボットに正しい命令を与えられていることがわかったため、次は、クロールレポートを実行し、あなたがインデックスさせたいページが防がれていないかどうかを確認しよう。

Screaming FrogにURLを入力するか、Google Search Consoleのインデックス>カバレッジにアクセスする。

これらのツールは、それぞれ異なる方法で指標を表示してくれる。

Screaming Frogは個々のURLを確認し、インデックスの状況を下記の2つのカラムで分けている。

1.Indexability:これは、該当のURLがインデックス可能か、インデックス可能でないかを示している。

2.Indexability status:これは、インデックスが可能でないURLの理由を示している。
Screaming Frog indexability check

Google Search Consoleのインデックスカバレッジレポートでは、Webサイトのすべてのページの状態が表示されている。

Google Search Console index coverage report

このレポートでは、下記4つの項目を表示している。

  • エラー:リダイレクトのエラー、リンク切れ、404ステータスコード
  • 有効(警告あり):インデックスされているが、意図的か、意図的でないか、何らかの問題があるページ
  • 有効:正常にインデックスされているページ
  • 除外:robots.txtによるブロック、リダイレクトなどの理由により、インデックスから除外されているページ

クローリングとインデックスの改善のため、リダイレクトエラーを特定し、修正する

Webサイトのすべてのページには、HTTPステータスコードが割り当てられている。それぞれのコードは、異なる機能を示している。

Screaming Frogでは、それらをStatus Codeの欄に表示している。

Screaming Frog internal checker

全てが順調であれば、あなたのWebサイトのページのほとんどがステータスコード200を返すはずだ。エラーのあるページは、3xx、4xx、5xxのステータスコードを表示する。

ここでは、SEO監査を行う際に見ることになるであろうステータスコードと、その修正方法を説明する。

3xxステータスコード

  • 301:恒久的なリダイレクト。コンテンツが新しいURLに移動しており、古いページからのSEOの値も引き継がれている。

301は、複数のリダイレクトを引き起こすリダイレクトチェーンやループでない限り、問題ない。例えば、リダイレクトAがリダイレクトB、リダイレクトCを経由してDに到達するという状況は、ユーザー体験とページスピードの低下につながる。この状況は直帰率を高め、コンバージョンにも影響するだろう。この状況を改善するためには、リダイレクトBとリダイレクトCを削除し、リダイレクトAが直接Dに向けられるよう、設定する。

Screaming Frogのレポート>リダイレクトチェーンにアクセスすれば、リダイレクトの経路をダウンロードすることができ、どの301リダイレクトを削除すべきか、特定することができる。

  • 302:一時的なリダイレクト。該当のコンテンツは、別のURLに一時的に移動している。

302は、新しいテンプレートやレイアウトを試す目的で、A/Bテストなどを行う際に便利である。しかし、302を設定して3か月以上経過している場合は、301に置き換えるべきだろう。

  • 307:送信元から送信先へのプロトコルの変更による一時的なリダイレクト

このリダイレクトは、移動が一時的なものであり、オリジナルのURLがまだ必要な際に使用されるべきだ。

4xxステータスコード

  • 403:アクセスが禁止されている。ログイン後に見られるコンテンツなどに使用される。
  • 404:リンク切れでページが存在しない場合や、ページが削除されたにもかかわらずリダイレクトされていない場合などで表示される。

リダイレクトチェーンと同様、404は優れたユーザー体験を提供しない。404ページを指している内部リンクを削除し、リダイレクトされた内部リンクで更新しよう。

  • 410:ページの永久削除。

410エラーのページをすべてチェックし、そのページが永久に削除されていること、また、301リダイレクトが必要なコンテンツがないことを確認しよう。

  • 429:短期間でのサーバーリクエストが多すぎる場合。

5xxステータスコード

5xxステータスコードのすべては、サーバーに関連するものだ。これらは、サーバーがリクエストを実行できなかったことを示している。これらには注意が必要であるが、あなたのWebサイトではなく、問題はホスティングプロバイダーやWebデベロッパーにある。

検索エンジンに重要なページを示すcanonicalタグを設定する

canonicalメタタグは、ページのコード内のセクションに表示される。

<link rel=”canonical” href=”https://www.yourdomain.com/page-abc/” />

Source code highlighting canonical tag

canonicalタグは、同一、または、類似のページがある場合、検索エンジンのボットがどのページをインデックスし、検索結果画面に表示させるかを知らせるために存在する。

例えば、ECサイトが青いパトカーのおもちゃを販売しており、「おもちゃ>くるま>青いパトカー」と「おもちゃ>パトカー>青いパトカー」のページが存在していたとする。

それぞれのページは、同一の青いパトカーのページである。唯一の違いはそのページに行くためのパンくずリンクだけである。

「マスターページ(おもちゃ>くるま)」にcanonicalタグを追加することで、このページがオリジナルのページであることを検索エンジンに知らせることができる。「おもちゃ>パトカー>青いパトカー」のページは、コピーページということになる。

canonicalタグの利用の別の例としては、URLパラメーターが追加されているページが挙げられる。

例えば、「https://www.yourdomain.com/toys」は、「https://www.yourdomain.com/toys?page=2」や「https://www.yourdomain.com/toys?price=descending」などの、フィルタリング用のページのコンテンツとほぼ同様となる。

canonicalタグがなければ、検索エンジンは各ページをそれぞれ固有のページとして扱う。この状況は、複数のページがインデックスされ、マスターページのSEOの価値が下がってしまうだけではなく、クロールバジェットの増加にもつながってしまう。

canonicalページは、追加ページ(メインページではない)のコードのセクションに直接追加することができる。また、WordPressやMagnetoのようなCMSを使用している場合は、Yoast SEOなどのプラグインを使用することで、設置のプロセスを容易にすることができる。

2.サイトのアーキテクチャとサイトマップを見直し、コンテンツをアクセス可能とする

サイトクロールを実行することで、テクニカルなエラーの大部分に対処することができる。次は、ユーザーエクスペリエンスのエラーを見ていこう。

冒頭で述べたように、数回のクリックでユーザーが目的のページにたどり着けるようにすべきだ。人間の行動にとって容易であるということは、検索エンジンのボットの行動にとっても容易であることを意味する(これもクロールバジェットの節約につながる)。

このように、Webサイトの構造は、論理的で、一貫性のあるものにすべきだ。これを実現するために、Webサイトのアーキテクチャをフラットなものとすべきだろう。

ここでは、複雑なWebサイトのアーキテクチャとシンプルな(フラットな)Webサイトのアーキテクチャの例を、Backlinkoのガイドから紹介する。

Infographic of complicated site architecture

Infographic of simple (flat) site architecture

2枚目の画像のほうが、トップページからあらゆるページに容易にたどり着けることがわかるだろう。

実例として、CXLのトップページを見てみよう。

Screenshot of CXL homepage + menu navigation

下記の3回のクリックで、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」という記事にたどり着くことができた。

  1. Home > Resources
  2. Resources > Conversion rate optimization guide
  3. Conversion rate optimization guide > How to Write Copy That Sells Like a Mofo by Joanna Wiebe

トップページに近いほど、そのページの重要性は増すことになる。それゆえ、キーワードをベースにページのグルーピングを再度行い、オーディエンスに最も近しいグループをトップページの近くに配置するようにしよう。

フラット形式のWebサイトのアーキテクチャは、URLの構造にも反映すべきだ。

例えば、「cxl.com/conversion-rate-optimization/how-to-write-copy-that-sells-like-a-mofo-by-joanna-wiebe/」にアクセスする際、URLはユーザーが通った経路を辿る。そして、パンくずリストを使うことで、どのようにしてそこにたどり着いたのかがわかり、容易に戻ることができる。

一貫したSEOの戦略を作成し、コンテンツ間の関係性を組織するために、ハブ&スポーク方式を採用する。

Portent社はこの手法を「関連するコンテンツの複数のページ(”スポーク”と呼ばれることもある)を、中心的なハブページへリンクを戻すことを含む、内部リンクの戦略」と表現している。

Hub and spoke model illustrations

我々の例では、「コンバージョン率の最適化」ガイドがハブにあたり、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」がスポークにあたる。

Webサイトのサイズにもよるが、アーキテクチャをフラット化し、ナビゲーションを刷新するためには、開発者の協力が必要となるかもしれない。しかし、関連するページへの内部リンクを追加するだけで、簡単にユーザー体験の向上が可能となる。

例えば、「ジョアンナ・ウィービーによるMofoのように売れるコピー文の書き方」の記事の下部に、他のスポークコンテンツへのリンクが張られている。

Internal linking example (further reading)

また、特定のキーワードと関連するページを設置することで、ボディコンテンツ内でも行うことができる。

Internal linking example (contextual link)

上記画像の「optimization」は、CXLのコンバージョン率最適化ガイドへのリンクが設置されている。

Webサイトの構造を反映するためにサイトマップを作成する

WebサイトのURLは、XMLサイトマップ内のURLを合致させるべきである。XMLサイトマップは、Webサイトのクロールの案内として、robots.txt内に設置し、検索エンジンのボットに示すファイルである。

robots.txtと同様、ルートドメインの末尾に「sitemap.xml」を追加することで、XMLサイトマップを見つけることができる。

https://yourdomain.com/sitemap.xml

Webサイトのアーキテクチャを更新した場合は、XMLサイトマップも更新すべきである。WordPress、Yoast SEO、Google XML sitemapsのようなCMSでは、新しいコンテンツが作成されるたび、自動的にサイトマップが作成・更新させる。WixやSquarespaceのようなプラットフォームは、同様の機能を初めから備えている。

この作業を手動で行う場合は、XML-sitemapsで自動的にXMLサイトマップを生成し、それを自身のWebサイトの 「/」のフォルダに張り付ければよい。 しかし、こうしたファイルを扱うことに慣れている場合に限り、行うべきだろう。自信がない場合は、開発者の助けを借りよう。

サイトマップを更新した後、Google Search Consoleのインデックス>サイトマップから、サイトマップを送信しよう。

ここから、Googleはクローラビリティやインデックスにかかわる問題にフラグを立てている。

Screenshot of listed sitemap in Google Search Console

正常なサイトマップには「成功しました」というステータスが表示される。ステータスが「1件のエラー」や「取得できませんでした」と表示されている場合は、サイトマップのコンテンツに問題がある可能性がある。

robots.txtと同様、サイトマップには、検索結果に表示させたくないページを含めるべきではない。しかし、インデックスさせたいページのすべてを、Webサイト内で表示される状態と同じ状態で、サイトマップに含めるべきである。

例えば、「https://yourdomain.com/toys」というページをGoogleにインデックスさせたい場合は、HTTPSのプロトコルを含めた、そのドメインを正確にサイトマップにコピーする必要がある。「http://yourdomain.com/toys」や「/toys」では、ページがクロールされないのだ。

3.サイトスピードとモバイル対応のテストと改善

長い間、サイトスピードは検索結果のランキングに影響を与える要素である。2010年に、Googleは初めてこれを認めている。2018年に、モバイルの検索結果のランキング要素として、モバイルページのスピードを使用することになり、その影響は増している。

スピードに基づいてWebサイトのランク付けをする際、Googleは下記2つのデータポイントを見ている。

1.ページスピード:ページが読み込まれるまでにかかる時間

2.サイトスピード:ページビューのサンプルが読み込まれるまでにかかる平均の時間

Webサイトの監査を行う際、ページスピードに注目する必要がある。ページスピードが改善されれば、サイトスピードも改善されるからだ。Googleは、PageSpeed Insightsという分析ツールを提供しており、改善に非常に役立つだろう。

Google Page Speed checker

URLを入力すると、PageSpeed Insightsは0から100のスコアで評価を表示してくれる。このスコアは、Google Chromeのブラウザから収集したユーザーの実際のフィールドデータとラボデータに基づいている。また、改善点も提案してくれる。

画像、JavaScript、CSS fileの最適化、ブラウザのキャッシュなどが読み込みの遅いページの要因となりうる。幸いにも、これらは簡単に最適化することが可能だ。

Site speed opportunities from Google PageSpeed tool

  • OptimizillaSquooshを使用し、品質に影響を与えることなく、画像のサイズを縮小する。WordPressを使用している場合は、Imagify Image OptimizerTinyPNGなどのプラグインを使用しても、同様のことが行える。
  • Minifyにコードを張り付け、空白やコメントを削除し、JavaScriptやCSS filesのサイズを削減する。
  • WordPressを使用している場合は、W3 Total CacheWP Super Cacheを使い、クリックするたびにページが動的に生成されるのではなく、静的なページを作成し、検索者に表示できるようにする。WordPressを使用していない場合は、Webサイトのコード内で手動でキャッシュを有効にできる。

まずは、最も重要なページに優先度をつけることから始めよう。Google Analyticsで行動>サイトの速度と開けば、特定のページの異なるブラウザや国におけるパフォーマンス指標を表示することができる。

Site speed performance in Google Analytics

最も閲覧されているページと照らし合わせ、Webサイトを上から順番に見ていこう。

モバイル対応を確認する

2021年3月、Googleはモバイル・ファースト・インデックスをローンチした。これは、モバイル版のページをもとに、GoogleがあなたのWebサイトをインデックスすることを意味している。そのため、小さい画面でのパフォーマンスが検索結果の表示に大きな影響を与えることになったのだ。

Googleのモバイルフレンドリーテストを使用すれば、あなたのWebサイトがモバイルデバイスに最適化されているかどうかを、簡単に確認することができる。

Screenshot of Google’s Mobile-Friendly Test

レスポンシブデザインや、モバイルファーストのデザインを採用しているのであれば、大きな心配は無用だ。どちらも小さい画面で読み込まれるように設計されており、テクニカルSEOの監査の結果をもとに行った変更は、あらゆるデバイスにおけるWebサイトと検索のパフォーマンスを向上させる。

しかし、シャネル・ミュリン氏が「レスポンシブデザインがモバイル最適化を常に意味するものではない」という記事で示した通り、レスポンシブデザインは優れたユーザー体験を保証するものではない。

BrowserStackのレスポンシブツールを使えば、実際のデバイスでWebサイトをテストすることができる。

Screenshot of BrowserStack’s responsive tool

スタンドアローンのモバイルサイトも、Googleのテストに合格しなければならない。モバイル版とデスクトップ版で異なるWebサイトの場合は、両方のバージョンを監査する必要がある。

モバイルでのWebサイトのスピードを向上させる別の方法として、Accelerated Mobile Pages(AMP)が挙げられる。AMPは、Googleが支援するプロジェクトであり、HTMLよりも速く読み込めるように、余計なものを除いたバージョンのページをユーザーに提供するように設計されている。

Googleは、コードやCMSのプラグインを使用してAMPページを作成するためのチュートリアルやガイドラインを提供している。しかし、これらがあなたのWebサイトにどのような影響を与えるかについて、確認しておくことが重要だ。

すべてのAMPページは、オリジナルのページと共に存在する、新しいページである。そのため、AMPページが既存のURLのスキームにフィットするかどうかを検討する必要がある。Googleは、下記のURL構造を使用することを勧めている。

http://www.example.com/myarticle/amp

http://www.example.com/myarticle.amp.html

また、canonicalタグを使用し、マスターページを特定していることを確認しよう。これはAMPページでもかまわないが、オリジナルページのほうが好ましい。AMPページは、Webページの基本的なバージョンであるため、広告収入や深いレベルでの分析機能をもたないからである。

AMPページは、HTMLのページと同様、監査を行う必要がある。有料会員であれば、Screaming FrogはAMPページの発見と修正に役立つ機能を使用することができる。無料版でもこの機能は使えるが、ページのリストをアップロードをしなければならない。

5.重複コンテンツやキーワードの共食いを発見し、修正することで、SEOの微調整を行う

この段階では、コンテンツの監査はすでに始まっていることだろう。canoniaclタグを使用し、マスターページが類似のページ以上にSEOの価値があることを確認しよう。Webサイトのアーキテクチャをフラットにすることで、最も重要なコンテンツにアクセスすることが容易になる。ここで行うべきことは、SEOの「微調整」である。

重複コンテンツがないかを確認する

同じ情報を含むページが常に悪影響となるとは限らない。例えば、前述の青いパトカーのページは、ユーザーに関連した結果を表示するために必要なものである。

問題となるのは、検索結果で上位に表示させようとしているページと同じページがある場合である。このような場合、ページ同士が順位やクリック数を奪い合ってしまうため、それぞれの可能性を薄めてしまうことになる。

製品ページに限らず、重複コンテンツが発生する要因はいくつか考えられる。

  • 見出し、ページタイトル、メタディスクリプションを再利用し、本文が同一でないにも関わらず、同じページであるように見せてしまう
  • 過去のページやテスト目的で作成されたページの削除やリダイレクトを行っていない
  • 複数のURLを持つページでcanonicalタグを記載していない

サイトクロールは重複ページの特定に役立つ。下記の項目の重複がないか、確認しよう。

  • タイトル
  • Hタグ
  • メタディスクリプション
  • 本文

特定した後は、これらのページを削除したり、重複している要素を書き換えるなどして、それぞれのページを独自のものとする。

類似のキーワードを共食いしているコンテンツを統合する

キーワードの共食いは、重複コンテンツと同様、検索エンジンに類似のコンテンツの選択を強要するものである。

これは、Webサイト内に同じクエリでランキングされるコンテンツが複数ある場合に発生する。トピックが類似していたり、同じキーワードをターゲットにしているためである。

例えば、2つの記事を作成したとしよう。1つは「履歴書の書き方」であり「履歴書の書き方」というフレーズに最適化されている。もう1つは「履歴書 書き方 コツ」であり、「履歴書 書き方」に最適化されている。

この2つの記事は十分に似ているため、検索エンジンはどちらがより重要なページであるかを判断することが困難となる。

Googleで「site: yourdomain.com + キーワード」と検索すれば、キーワードの共食いの問題を簡単に調べることが可能だ。

あなたのWebサイトが1位と2位にランキングされているのであれば、問題ない。しかし、順位が非常に低い場合や、古い記事の順位が更新した記事の順位よりも上位である場合、それらを統合する価値はあるだろう。

  1. Search Consoleの「検索結果のパフォーマンス」のレポートを開く
  2. 「新規」>「検索キーワード」とクリックし、共食いしているキーワードを入力する
  3. 「ページ」タブの欄に、そのキーワードで最もトラフィックを獲得しているページが表示されている。これらのページが、ページの統合の対象となるページである。

Google Search Console query search

例えば、「履歴書の書き方」の場合、履歴書の書き方のアドバイスも対象にすることで、レジュメの書き方のガイドの決定版を作成することができるだろう。

これは、あらゆるページで行えるわけではない。関連性がなくなったコンテンツの削除を検討することもあるはずだ。しかし、キーワードが似ている場合、コンテンツを統合することで検索結果のランキングの向上につながることは、考えられる。

タイトルタグとメタディスクリプションを改善し、検索結果におけるクリック率を高める

タイトルタグとメタディスクリプションはランキングの要因ではないものの、Webサイトの魅力を左右することに疑いの余地はない。これらは、コンテンツを宣伝するための手段と考えることができる。

テクニカルSEOの監査を行う際、古いタイトルやディスクリプションを最適化しよう。検索結果におけるクリック率の向上で不足している箇所を補うための、理想的なタイミングである。

タイトルとディスクリプションは自然で、関連性があり、簡潔で、ターゲットキーワードを含めるようにしよう。下記はCopyhackerのコピーライティングのフォーミュラについてのガイド記事の検索結果画面の例である。

SERP result for Copyhackers copywriting formulas guide

コピーライティングのフォーミュラが有用である理由、また、それを実際に応用するための方法について、メタディスクリプションは、読者に伝えている。

SEOの観点から、タイトルは非常に強力ではあるが、ここではその一部が切り捨てられている。これは、Googleの制限である600ピクセルを超えているからであると思われる。タイトルを作成する場合は、この制限を意識しておこう。

ターゲットはタイトルの先頭近くに配置し、60文字程度に抑えよう。Mozの調査によれば、この制限を守れば、タイトルの約90%が正しく表示されるとのことである。

同様に、メタディスクリプションも155-160程度に抑え、一部が切り捨てられることのないようにしよう。

注意点は、Googleは常にメタディスクリプションを使用するわけではない、ということである。検索クエリによっては、Webサイト内のコンテンツを引用して、スニペットとして使用することもある。これは、あなたのコントロールの範囲を超えたものである。しかし、ターゲットキーワードがメタタグ内に含まれていれば、似たようなキーワードをターゲットにしている他の検索結果よりも優位に立つことができるのだ。

まとめ

テクニカルなSEOの監査を行うことで、Webサイト内のテクニカルな要素の分析の手助けとなり、検索でのパフォーマンスとユーザーエクスペリエンスを阻害する要因の改善につながる。

しかし、この記事で紹介したステップに従うだけでは、現在の問題を解決するに過ぎない。ビジネスが成長し、Webサイトが進化していく中で、Googleのアルゴリズムも変更され、リンク、サイトスピード、コンテンツなどに関する新たな問題が発生する。

そのため、テクニカルSEOの監査は、継続的な戦略の一部とすべきであり、オンページとオフページのSEOと並行して行われることが理想である。Webサイトの監査は定期的に行うものであり、もちろん、構造やデザインの更新を行う際も、監査を行うことが求められる。

ユーザーと検索エンジンに対し、高品質で関連性のあるコンテンツを提供することが、SEOの最大の目的であると言えます。目的は不変であっても、その方法や課題は、時間とともに変化していくものでしょう。Googleの新しい取り組みや、ユーザーのインテントの変化など、Webサイトとして対応すべき理由は複数存在します。そのため、この記事で述べられている通り、定期的な見直しと、見直し方法のブラッシュアップを心がけていければと思っております。

この記事は、cxl に掲載された「How to Conduct a Technical SEO Audit」を翻訳した内容です。

投稿 テクニカルSEOの監査を行う方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Google Analytics 4の決定版ガイド

Webサイトの分析を行う際、必ずと言ってよいほど必要となるGoogle Analytics。SEOの文脈においても、必須のツールと言えます。そんなGoogle Analyticsですが、後継となるGoogle Analytics 4の導入をGoogleは勧めています。まだまだ仕様が変更されたり追加されたりなどの状況ではありますが、将来的には確実に主流のツールとなるはずです。Universal Analyticsをメインで使われている方も多いと思いますが、Google Analytics 4を網羅的に解説したCXLの記事を紹介いたします。

Google Analytics 4は次世代のGoogle Analyticsだ。プラットフォームをゼロから再構築し、Webサイトやモバイルアプリの全体的な測定を可能とするため、データの収集方法を変革した。これは、Googleにとっても初めての試みである。

過去のアップグレードとは異なり、GA4は、まったくの新製品と言えるだろう。これは、新たな学習を伴う、新たなスタートを意味する。

この記事では、Universal Analyticsとの違い、使用すべき理由、使用の開始方法など、あなたが知るべき内容を説明する。また、ユーザー行動をより良く理解することができる、新しいレポート機能も紹介する。

Google Analytics 4とは何か(また、あなたが移行すべき理由は何か)?

Google Analytics 4は、Googleが2019年にロールアウトした、アプリとWebのプロパティの、再構築、リブランド、そして、拡大版である。Analyticsの未来を約束するものであり、クロスプラットフォームでのトラッキング、AIによるデータ、プライバシー重視の設計、などの特徴がある。

これらの機能や能力は、ユーザーをより深く理解することに役立つだけでなく、ユーザー体験を向上させるためにユーザー行動を予測できるよう、構築されている。

GA4はUniversal Analyticsと何が違うのか?

GoogleがGA4のローンチをアナウンスした際、彼らは次のように述べている。

「新しいGoogle Analyticsは、次のことに向けてあなたが準備するために必要な、重要なインサイトを提供する。」

すでに発生していることへの対応だけではなく、「次のことに向けての準備」の助けとなるよう設計されていることが、大きな違いなのである。

その方法については、下記となる。

1.ユーザーとイベントに基づくモデル

GA4はユーザーにフォーカスしており、各インタラクションをイベントとしてラベル付けしている。

これは、セッションとページビューが、イベントであることを意味している。例えば、page_viewのイベントには、page_location、page_referrer、page_titleというパラメーターが含まれる、といった具合だ。

この変更により、Webやモバイルアプリ間でのユーザージャーニーを正確に測定できるという恩恵を、マーケターは受けるようになるのだ。従来のGoogle Analyticsでは、測定はURLに縛られており、インタラクションは時間によって区分されていた。

イベント基軸の新しいモデルでは、相互参照のインサイトの作成が容易となる。また、ユーザーがWebサイトやアプリをどのように回遊しているかを把握できるようになるため、経路分析も向上される。

例えば、ユーザーがニュースレターに登録するたび、generate_leadのイベントがGA4に送信される。このイベントをエンドイベントに設定することで、経路分析が可能となり、申し込みボタンをクリックする前にユーザーが行っていたことを把握できるのだ。こうした行動は、将来の活動を予測するために使用することができ、より多くの登録を促すよう、Webサイトやアプリを調整することができるのだ。

GA4のイベントは4つのカテゴリーに分類される。

  1. 自動的に収集されるイベント。GA4のベースコードをインストールした後、自動的にトラッキングされるイベントである。これには、page_view、session_start、first_visitなどの、初期のアクションが該当する。
  2. 拡張計測機能。スクロール、サイト内検索、動画のエンゲージメント、アウトバウンドのクリックなどが該当する。これらは自動的に収集されるイベントであり、Webサイトやアプリにあわせ、有効化・無効化にすることができる。こうしたイベントにより、ページビューよりも深く、ユーザーの行動やコンテンツの成功を測定することが可能となる。
  3. 推奨イベント。あなたのWebサイトの業界に基づき、Googleが設定を推奨するイベントだ。例えば、ECサイトの場合、カートへの追加、購入、チェックアウトの開始、などが該当する。
  4. カスタムイベント。あなたのニーズに基づき、自身で設定することができるイベントやパラメーターである。例えば、ECサイトを運営している場合、チェックアウトの開始以降にエラーイベントを設定し、ユーザーがエラーに出くわした際、どのような行動を取るかを確認することができる。こうしたユーザー行動を把握することができれば、チェックアウトのプロセスの改善に役立つだろう。

    カスタムイベント以外でも、グローバルサイトタグ(gtag.js)やタグマネージャーを使用し、個々の設定を行わずとも、関連するイベントの多くを自動的に記録してくれる。

2.機械学習がクッキーの代替となる

ヨーロッパでGDPR法が導入され、オンライン上でのプライバシーが強化されていく中、クッキーによるユーザーの追跡は困難となっている。その結果、サードパーティー製のクッキーは徐々に廃止されている。FirefoxとSafariはすでにデフォルトでサードパーティー製のクッキーをブロックしており、Googleも2023年までに、同様の措置をとる予定だ

機械学習を用いることで、GA4はクッキーの必要性を無くしている。GoogleのAIを活用したインサイトが、製品データのトレンドを自動的にあなたに伝えてくれるのだ。また、購入につながる可能性のあるユーザーやアクションの特定に役立つ、予測指標を参照することもできる。具体的には下記の通りだ。

  1. 購入の可能性。過去28日間でアクティブであったユーザーが、次の7日間で購入する確率。
  2. 離脱の可能性。過去7日間でアクティブであったユーザーが、次の7日間でアクティブではならなくなる確率。
  3. 収益予測。過去28日間でアクティブであったユーザーからの、次の28日間における収益の予測。

こうしたデータを活用することで、顧客のアクションを予測し、価値の高いオーディエンスに焦点を当てたキャンペーンを作成することができるのだ。

3.デバックの改善

UAのデバッキングにおいて、問題がTag Managerに関連しているものなのか、Webサイト自体に関連しているものなのか、それを特定することは困難である。

DebugViewと呼ばれる、ライブレポートをインターフェースに導入することで、GA4はこの課題を解決しようとしている。このレポートでは、カスタムパラメータと同様、リアルタイムでのイベントデータの監視をすることや、ユーザープロパティの設定などが行える。

また、デバックが有効になっているデバイスから、ユーザーデータを隔離することもできる。さらに、Crome拡張機能のTag Managerを使用している場合、DebugViewにデータを直接インポートすることができるため、課題を素早く把握することが可能となる。

4.BigQueryとの接続が無料

BigQueryは、大規模で複雑なデータセットを扱うことができる。そのため、Google Analyticsで複雑なセグメントを作成した際に発生する、サンプリングの問題を解消することができるのだ。

現状では、この機能はGA360のユーザーのみが使用できる機能であった。しかし、GA4では、各イベントのローデータをエクスポートしてクエリを実行したり、外部ツールへのエクスポートが可能となるのだ。

5.新しいレイアウト

ユーザーインターフェースの変更は、最もわかりやすい変化である。新しいデータ収集方法に合わせ、ナビゲーションがユーザーパスとイベントに沿って配置されている。

GA4のインターフェースは下記である。

Universal Analyticsのインターフェースは下記である。

視認性が向上し、データテーブルもアップデートされている。また、リアルタイムのデータの全体像もすぐに把握できるようになっている。

また、データを動的に操作することもでき、比較要素を追加することもできる。例えば、デスクトップとモバイルのデータを比較したり、すべてのユーザーと特定の国のユーザーを比較することができるのだ。

Universal Analyticsのインターフェースとは大きく異なるため、慣れるまでに時間がかかるかもしれない。しかし、GA4の新しいインターフェースに慣れてしまえば、ユーザー行動の把握と予測がより容易になるはずだ。

なぜ、GA4のデータ収集を開始すべきなのか(すべてのシステムが稼働しているわけではないのに)?

まず、Universal Analyticsはなくなったわけではない。バド・へネケス氏もCXLの記事で下記のように説明している。

GA4がGoogle Analyticsのデフォルトのプラットフォームになるまでに、どんなに短くとも、数か月はかかるだろう。

しかし、GA4はGoogle Analyticsの未来である。また、クッキーが徐々に廃止されるいまだからこそ、データ収集を始め、GA4の機能に慣れていく良いタイミングであると思う。

また、GA4は前向きのデータのみである。つまり、作成した瞬間からデータの収集が始まり、Universal Analyticsから過去に遡ってデータを引き出すことができない。

今から設定しておけば、機械学習とAIがユーザー行動を正確に予測する手助けとなる。そして、GA4に完全に切り替えた際、収集したデータがより意味のあるデータとなるはずだ。

Google Analytics 4の設定方法:シンプル、かつ、わかりやすい説明

Googleは、既存のUniversal Analyticsに沿ってGA4を可能な限り簡単に設定するための、セットアップ・アシスタントを用意している。

ここでは、その使い方を説明しよう。

基本

1.Google Analyticsのアカウントにログインする

2.ナビゲーションの左側の下部にある、ギアマークのアイコン(管理)をクリックする

3.プロパティ内で、アカウントが間違っていないことを確認し、「GA4 設定アシスタント」をクリックする

4.「Google Analytics 4のプロパティを作成する」内の「ようこそ」をクリックする。

5.gtag.jsを設定している場合は、既存のタグを使用してデータの収集を可能とするため、Googleウィザードを使用するかどうか選択することができる。

ウェブサイトビルダーやCMS(例:WordPress、Wix、Squarespace、Shopifyなど)、Googleタグマネージャーを使用している場合や、analytics.jsのタグを使用しているWebサイトの場合は、新しいタグをインストールする必要があることを通知するメッセージが表示されるはずだ。

Google Analytics 4を適切に追加するためのGoogleのガイドでは、この方法を説明している。

6.「プロパティの作成」をクリックする

Universal Analyticsのプロパティを使用して、Googleは既存のGoogle AnalyticsとGA4を接続し、新しいプロパティを設定する。強化された測定が有効になるため、すぐにユーザー行動の詳細を確認できるようになる。これらはすべて、既存のUniversal Analyticsのデータと一緒に行われるため、既存の設定内でもデータの測定を維持することができる。

7.GA4 設定アシスタントのページから「GA4 プロパティを確認」をクリックし、設定のための新しいアシスタントに進む。


画像のソース

Googleは、下記のカスタマイズを提供してくれている。

  • タグの設置:新しいプロパティ内のイベントデータを収集するため、グローバルサイトタグを追加する。
  • カスタムイベントの測定:自動測定や拡張測定では扱われていないイベントを追加する。例えば、フォームの送信や、特定のコール・トゥ・アクションのリンクのクリックなどが挙げられる。
  • ユーザーID:Webサイトの訪問者に固有のユーザーIDを割り当て、プラットフォームやデバイス間で追跡することを可能とする。
  • 拡張計測機能:デフォルトのイベントを有効にし、GoogleのAIの力を活用する。
  • Google シグナルを有効にする:広告のパーソナライゼーションを使用しているユーザーの、クロスデバイスのレポートとでもグラフィックデータを有効化できる。
  • Google広告にリンク:GA4をGoogle広告のアカウントと連携し、広告データをトラッキングする。
  • BigQueryにリンク:GA4をBigQueryのデータベースと連携し、分析データのエクスポートとクエリを行える。
  • オーディエンスを定義:ユーザーをオーディエンスに分類し、レポートと分析に活用できる。例えば、特定の地域のユーザーをグルーピングしたり、Facebookの投稿をクリックして訪れたユーザーをグルーピングしたりできる。これらのオーディエンスに対し、地域限定のキャンペーンや、リマーケティング広告のキャンペーンなどを展開することができるのだ。
  • コンバージョンを設定:重要なインタラクション(例:ファイルのダウンロード、フォームの送信、ニュースレターのサインアップなど)に値を割り振る、カスタムコンバージョンを作成できる。
  • e コマース測定を設定:ECサイト特有のイベントに対し、測定を設定することができる。例えば、プロモーションバナーのクリック、商品をカートに入れる、などが該当する。
  • ユーザーを管理:GA4へのアクセスを管理する。チームメンバーに対し権限を付与する必要がある場合、非常に便利だ。

新しいデータストリームを追加する

GA4のセットアップアシスタントは、セットアップ時にあなたのWebサイト用のデータストリームを自動的に作成してくれる。iOS、Android、Web用のデータストリームを追加する場合は、下記を行う。

  1. 管理 > データストリームと進み、「ストリームを追加」をクリックする
  2. iOS app、Android app、Webのいずれかをクリックする
  3. アプリのデータストリームを追加する場合は、iOSのバンドルID、もしくは、Androidのパッケージネームを入力し、「アプリの登録」をクリックする。ガイダンスに従い設定ファイルをダウンロードし、アプリにFirebase SDKを追加する。「完了」をクリックする前に、インストールを確認するために、一度実行しておこう。Webのデータストリームを追加する場合は、プライマリURLを入力し、拡張測定を有効にしてから、「ストリームの作成」をクリックしよう。

コンバージョンとイベントトラッキングの設定

セットアップアシスタントを使用すれば、一般的なイベントを測定し、それらをコンバージョンとしてトラッキングすることが可能だ。

「イベント」レポート内で、コンバージョンとイベントを手動で管理することができる。ここから、「コンバージョンとしてマークを付ける」の下にあるスイッチをオンにすることで、既存のすべてのイベントをコンバージョンとしてトラッキングすることが可能だ。そして、それらは「コンバージョン」レポートに表示されるようになる。

特定のページをトラッキングするために新しいイベントを作成したい場合は、「イベント」レポート内の「イベントを作成」をクリックする必要がある。

例えば、サンキューページを閲覧したユーザー数をトラッキングしたい場合、パラメーターにpage_locationを、値にthank_youを指定してイベントを設定するのだ。

ユーザーが該当のページを閲覧した場合、レポート内でイベントとして表示される。ここから、コンバージョンとしてそれらをマークすることができる。

最後に、Google Tag ManagerでGA4のイベントタグを使用することで、イベントとコンバージョンをトラッキングすることができる。これは、ボタンのクリックなど、特定のアクションをトラッキングしたい場合、非常に便利である。

これを行うために、まずはGoogle Tag Managerを設定しよう。

Google Tag Managerを設定する

Google Tag Managerは下記2つのタグでGA4のプロパティをサポートしている。

  • Google アナリティクス: GA4 設定
  • Google アナリティクス: GA4 イベント

GA4 設定タグ

「Google アナリティクス: GA4 設定」タグは、GA4のプロパティのデータを取集したいすべてのページに設置する必要がある。また、イベントを設定するまでに配信できる状態にする必要がある。

GTMでの設定方法は下記の通りだ。

1.[タグ] > [新規] をクリックする。
2.[タグの設定] をクリックする。
3.[Google アナリティクス: GA4 設定] を選択する。
4.[測定 ID]を入力する。


画像のソース

5.設定するパラメータがある場合は、[設定する項目] で追加する。最適な結果を得るためには、推奨イベントパラメータ名を使用することを、Googleは勧めている。

6.設定するカスタムユーザープロパティがある場合は、[ユーザー プロパティ] で追加します。アナリティクスでは、一部のユーザープロパティが自動的にログに記録される。Google アナリティクス 4のプロパティごとに、最大で25個のユーザープロパティを追加設定できる。


画像のソース

7.[詳細設定]で[タグ配信の優先度]を設定するか、[タグの順序付け]で、設定タグが、その設定タグを必要とする他のイベントタグの前に配信されるようにする。

8.[トリガー]をクリックし、タグを配信するイベントを選択する。例えば、[全てのページ]を選択すれば、全てのページでタグが配信されるように設定される。

9.タグの設定を保存してコンテナを公開する。

GA4 イベントタグ

GA4 イベントタグは常に必要とされるわけではない。例えば、UAタグを使用して、新しい拡張計測機能を使って収集できるイベントをトラッキングしている場合は、このオプションを使用すべきだろう。

このタグを追加するのは、拡張計測機能が提供する内容よりも詳細な内容が必要な時だ。Googleは下記の例を挙げている。

「たとえば、測定機能の強化で指定したよりも短い間隔でスクロール距離のデータを収集したい場合は、タグ マネージャーのスクロール距離トリガーに基づいて、Google アナリティクス 4 のイベントタグを呼び出すよう設定できます。」

GA4 イベントタグをGTMで設定する方法は下記である。

  1. [タグ] > [新規] をクリックする。
  2. [タグの設定] をクリックする。
  3. [Google アナリティクス: GA4 イベント] を選択する。
  4. [設定タグ] で、先ほど作成した設定タグを選択する。
  5. [イベント名] で、イベントの名前を指定する。最適な結果を得るには、推奨イベント名を使用する。
  6. [イベント パラメーター]でイベントパラメーターを入力する。最適な結果を得るには、推奨イベント パラメータ名を使用する。
  7. カスタムユーザープロパティを追加する。
  8. [詳細設定] で [タグ配信の優先度] を設定するか、[タグの順序付け] で、設定タグが、その設定タグを必要とする他のイベントタグの前に配信されるようにする。
  9. [トリガー] をクリックし、タグを配信するイベントを選択する(例:「購入」がイベントである場合は、トリガーはユーザーが購入を完了した時点となる)。
  10. タグの設定を保存してコンテナを公開する。

デバックモードを有効にする

デバックモードを有効にすることが、設定の検証の最終ステップである。ケン・ウィリアムズが述べているように、これも重要なステップである。

デバックモードを有効にしなければ、GA4はイベントをまとめてネットワーク上に送信してしまうが(これが、プロキシを使用すべきでない理由の1つである)、デバックモードを有効にしておくと、テストを実行した後にすぐにデータが送信される。また、デバックモードが有効になっている間に取得されたデータは、他のレポートから除外されるため、指標が人為的に増加してしまうことはない(言い換えると、プロダクションとステージングで別々のプロパティを使用する必要がなくなる)。

デバックモードを有効にする方法は、Webサイトとアプリでは異なる。

Webサイトでデバックモードを有効にする

Webサイトのイベントのデバックを有効にするには、Chrome拡張機能のGoogle Analytics Debuggerをインストールし、有効にするだけである。

iOSアプリでデバックモードを有効にする

iOSのデバックモードを有効にするために、Googleの公式ドキュメントでは、下記のように説明している。

開発用デバイスでアナリティクスのデバッグモードを有効にするには、Xcode で次のコマンドライン引数を指定します。

-FIRDebugEnabled

次のコマンドでデバッグを明示的に無効にするまで、デバイスはデバッグモードのままになります。

-FIRDebugDisabled

Androidアプリでデバックモードを有効にする

エミュレートされた Android デバイスでアナリティクスのデバッグモードを有効にするには、シェルまたはターミナル ウィンドウで、次のコマンドラインを実行します。

adb shell setprop debug.firebase.analytics.app

次のコマンドでデバッグを明示的に無効にするまで、デバイスはデバッグモードのままになります。

adb shell setprop debug.firebase.analytics.app .none.

マーケティングのインサイトを得るために最適な5つのレポート

先ほど、GA4はイベントベースのモデルであり、機械学習を活用してレポートが改善され、より包括的なユーザー行動を把握できると述べた。

ここからは、実際のレポートを活用してマーケテイングを強化する方法を見ていこう。

1.レポートのスナップショット

レポートのスナップショットは、GA4にログインした後、最初に表示されるページである。ここでは、トラフィック、エンゲージメント、コンバージョン、収益などの、主要な情報がまとめられている。

モバイル向けの指標をトラッキングしている場合は、 “Firebase”がアプリ向けの同様の統計情報を提供する。

スナップショットを活用し、上位のキャンペーン、ページ、トラフィックなどを素早く確認することができる。また、全体の視点から、全てが正常に機能しているかどうかを確認することができる。

2.リアルタイム

リアルタイムのレポートは、過去30分間のイベントを表示する。直近でローンチしたプロダクトのトラフィックを確認するのに便利だ。

例えば、公開して間もないブログ記事、動画、プロダクトなど、リアルタイムのレポートを活用すれば、そのパフォーマンスをすぐに分析することができる。

また、最大で5つの比較を行うことができ、セグメントごとのパフォーマンスをリアルタイムで並べて確認することができる。

Universal Analyticsでは、リアルタイムのレポートで横並びの比較ができなかったため、大きな変更点と言える。つまり、パフォーマンスを確認するためにフィルターを追加する必要がなくなったのである。

比較(これはすべてのレポートで使用できる)だけでなく、リアルタイムレポートでは、 [ユーザー スナップショットを表示]を使用することができる。これは、ランダムで選ばれたユーザージャーニーを追跡し、発生したすべてのイベントを表示してくれる。

このレポートを活用することで、ユーザーがどこから来て、どのようなアクションを取ったかなど、ユーザーがWebサイトやアプリを利用する方法をリアルタイムで把握することが可能となる。

3.ライフサイクル

ライフサイクルのレポートでは、従来のコンバージョンファネルに沿ったレポートが作成される。

  • 集客
  • エンゲージメント
  • 収益化
  • 維持率

これらのレポートで、ユーザーがどのようにコンバージョンファネルに入ってくるか、また、入ってきた後にどのような行動を取るかなどを、素早く確認することができる。

例えば、集客のレポートを使用することで、どのチャネルが新規顧客を獲得しているかを確認することができる。エンゲージメントとリテンションのレポートは顧客の行動把握に役立ち、コンバージョン後に継続してあなたのWebサイトにかかわっているかどうかを理解することができる。

こうしたデータを参照し、下記の質問に答えてみよう。

  • ユーザーが最後にあなたのWebサイトと関わったのはいつ?
  • ユーザーが最後に購入したのはいつ?
  • 最も高いライフタイムバリューを提供しているユーザーを導いているトラフィックソースはどれ?
  • 最も高いライフタイムバリューを提供しているキャンペーンはどれ?

4.ユーザー属性とテクノロジー

[ユーザー]のセクションでは、Universal Analyticsの[ユーザー]と同じレポートが並んでいる。主要なユーザー属性、ニッチなユーザー属性、失ったユーザー属性などの特定が可能だ。

例えば、フィットネスブランドを経営している場合、主要なユーザー属性が30歳以下でフィットネスに関心のある女性だとする。この情報を活用し、スポーツウェアを着た30歳以下の女性の画像をWebサイトやアプリに掲載することで、関連性やエンゲージメントが高められるだろう。

また、特定のオーディエンスの市場に存在するギャップを発見することにも使用できる。例えば、ジムでの運動を楽しむ65歳以上の女性が挙げられる。このようなオーディエンスをターゲットにし、パーソナライズされたコンテンツやパフォーマンスの向上に役立つ製品の情報などを掲載しても良い。

さらに、パフォーマンスの低いユーザー属性を発見することも可能だ。例えば、若い世代のユーザーは高額商品には興味がないことがわかるかもしれない。また、年配のユーザーは電話での購入をより好むことがわかるかもしれない。こうしたデータを活用することで、アクセシビリティを向上させたり、パフォーマンスの低い層からの脱却を促すことができるはずだ。

5.データ探索ツール

データ探索ツールはマーケターのために導入された、GA4におけるもっとも重要な機能であろう。ここでは、標準的なレポート以上の分析が行え、ユーザー行動をさらに深く把握することに役立つ。

Googleによると、このレポートでは下記が可能となる。

  • アドホック クエリを簡単に実行
  • 各種の分析手法を手軽に設定、切り替え
  • データの並べ替え、リファクタリング、ドリルダウン
  • フィルタとセグメントを使用して、最も関連が深いデータに絞り込む
  • セグメントとオーディエンスを作成する
  • 同じ Google アナリティクス プロパティを使用する他のユーザーとデータ探索を共有する
  • 他のツールでも使えるようにデータ探索のデータをエクスポートする

データ探索ツールでは、下記の6つのテクニックを実行できる。

1.データ探索。データ分析の最も一般的な方法だ。様々なスタイルでの可視化が行え、棒グラフ、円グラフ、折れ線グラフ、マップ形式などが選択できる。クライアントがより深く納得できる形でデータを提供することが可能となる。

2.共通の特徴(イベントやコンバージョンなど)を持つユーザーのグループを分析することができる。例えば、セールス用のページを読んだ後にユーザーがコンバージョンするまでの時間のコホートレポートを作成し、他のユーザーと比較して、行動を分析することが可能だ。

3.目標到達プロセスデータ探索。ユーザーがイベントを完了するまでに取るステップを視覚化する。例えば、コースに申し込む前のユーザーがとる行動を把握することで、ユーザーがどの程度成功しているか、失敗しているかを確認することができる。こうした情報を活用し、コンテンツやファネルを調整しよう。

4.経路データ探索。イベントの流れをツリーグラフの形式で可視化し、ユーザーがあなたのWebサイトやアプリで通過するパスを把握できる。ユーザーがWebサイトやアプリにランディングした後にクリックするトップページ、ユーザーの行き詰まりを示すループ行動、イベントがその後のユーザーの行動に与える影響、などの特定に役立つ。

5.セグメントの重複
異なるユーザーセグメントが、お互いにどのように影響しているかを分析できる。この技術を活用することで、Webサイト上の新しいセグメントを発見することに役立つ。例えば、新規ユーザー、購入者、モバイルトラフィックのセグメントを作成し、3つの属性の重複を確認したり、どの程度の新規ユーザーがモバイルで商品を購入しているかがわかる。

6.ユーザーエクスプローラ
顧客として、その生涯にどのような行動を取るかを可視化することができる。ここでは、特定の月におけるもっとも高いライフタイムバリューを提供するユーザーを導いたソースやキャンペーンを発見したり、Webサイトからユーザーが最後に購入したのはいつか、アプリと最後にかかわったのはいつか、などを把握することが可能となる。

新規の分析を作成する方法

1.サイドバーの「探索」をクリックする

2.使用したい種類がわかっている場合は、あらかじめ用意されたテンプレートをクリックすると、すぐに開始することができる。そうではない場合は、「+」をクリックし、新しいデータ探索を作成する。

データ探索のインターフェースで、左側の列にセグメント、ディメンション、指標が表示されている。これらは、分析対象としたいオーディエンス、イベント、数字を表している。

右側の列には、レポートで表示したいビジュアルの種類と値を選択することができる。

データは画面の右側に可視化される。ここから、最大で10個のタブを追加することができ、データポイントをクリックすることで、さらにデータを操作することができる。

Googleは、「[GA4] データ探索ツールを使ってみる」のガイド記事で、詳細な方法を説明している。

まとめ

Google Analytics 4はまだ完全に実装されているわけではないが、それが提供する機能について調査するには、今が良いタイミングである。

段階的に実装を進めることで、マーケテイング担当者がこれらの機能に慣れ、過去のデータを収集するための時間をGoogleは提供している。

Webサイトやアプリにデュアルタグを設定し、GA4とUniversal Analyticsを並行して実行しよう。こうすることで、GA4が必要な機能のすべてを実装するまで、Universal Analyticsを使用することができる。

また、新しいプラットフォームでオーディエンスを成長させ、最終的にGA4に切り替えた際、デジタルマーケティングやデジタル広告に活用することが可能となるのだ。

Webは常に変化するものであり、それを使用するユーザーの行動も変化します。ユーザーの行動が変化するとなれば、測定方法も変化せざるを得なくなり、Google Analytics 4もそうした流れの1つと言えるかもしれません。Universal Analyticsがメジャーな状況ではありますが、一足早く、Google Analytics 4について学んでおくことは、将来的に決して無駄なことではないはずだと強く思いました。

この記事は、cxl に掲載された「The Definitive Guide to Google Analytics 4」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 Google Analytics 4の決定版ガイドSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

大量のブログ記事を書くことなく、オーガニックトラフィックを増加させる方法

オーガニックトラフィックを増加させることは、いつの時代もSEO担当者の命題と言えるでしょう。既存のキーワードの順位を上げるための施策や、まだ上位表示されていないキーワードの発掘などは、定番の手法と言えます。しかし、今回の記事は、Webサイト自体の新しい機能を開発することでオーガニックトラフィックの増加につなげよう、という内容になります。単純に新機能を開発する、という話ではなく、ニーズの発掘や検索エンジンへの伝え方などのポイントもまとめられており、非常に興味深い内容となっています。

インハウスのSEO担当にせよ、SEOコンサルタントにせよ、オーガニックトラフィックを増加させる機会を探すことは、大きな課題と言えよう。しかし、新しいキーワードを調査し、自身のドメインの強さに合致した記事を作成するという従来の方法が、全てのWebサイトで通用するわけではない。

Quoraを例に挙げてみよう。Quoraは最大のソーシャルプラットフォームの1つである。月間アクティブユーザーは約3億人であり、Googleのインデックス数は約5,400万ページである。チーム単位で記事を作成していたとしても、あなたがこれほどの成果を上げる高品質なコンテンツを作成することは不可能だろう。

こうした方法ではなく、オーガニックトラフィックを増加させるための、拡大可能な方法を見つけなくてはならない。つまり、新しいタイプの情報や、ページテンプレートだ。言い換えると、新しい機能である。

Quoraはまさにそれを実行したのだ。2019年中頃、ユーザーが質問ではなくそのトピックに関するコンテンツを作成することを可能にした、「Spaces」と呼ばれる新しい機能をローンチした。音楽におけるジャンル、ECサイトにおけるカテゴリのように、トピックはソーシャルネットワークにおいて重要な機能である(Twitterも最近トピックを導入している)。

QuoraのSpacesは、すでに自然検索においても勢いを増している。これは、製品の機能がオーガニックトラフィックを増加させる好例と言えるだろう。実際、製品の新しい機能は、大規模なWebサイトのSEOの成長の原動力として、最も過小評価されているものだ。

この記事では、以下についての説明を行いたいと思う。

  • ユーザーのインテントを理解することが、新しい機能のアイデアにつながる
  • 候補となる機能のリストを絞り込むための、一つ一つのプロセス
  • SEOに最適な方法で新しい機能を実装するためのポイント

「インベントリー・ドリブン」なWebサイトにとって、機会が異なる理由

SEOの成長は、コンテンツ(例:ブログ)で規模を拡大するWebサイトと、インベントリー(例:映画、音楽、商品、プロフィールなど)で規模を拡大するWebサイトでは仕組みが異なる。私は後者を「インベントリー(在庫)・ドリブン)と呼んでいる。

このように、コンテンツで規模を拡大するWebサイト(コンテンツ・ドリブン)におけるSEOの機会は、多くが記事を作成するための新しいトピックやキーワードであることに対し、インベントリー・ドリブンのWebサイトでは、新しい製品の機能がSEOの機会となる。

インベントリー・ドリブンのWebサイトでは、Webサイト自体が、製品の大きな一部となる。流通経路の1つであること以上の意味を持っているのだ。ユーザーへプラットフォームを提供しているのであり、そこで、ユーザーは行動を起こし、彼らが抱える問題のソリューションを提供している。

もちろん、ある機能がSEOの価値を持つためには、その機能が公開されていなければならない。ログインの背後にあるものや、ネイティブアプリでは機能しない。また、その機能はユーザーが探し求めているニーズに応えるものでなければならない。

既存のページの品質を向上するものであれ(すでにターゲットとしているキーワードのランキング上昇に寄与するもの)、新しいページの作成に寄与するものであれ(新しいキーワードにおける上位表示獲得に寄与するもの)、需要がなければならない。

SEOに注力した製品の機能の例を見てみよう。

  • Quoraのspaces
  • Youtubeのハッシュタグ
  • Twitterのモーメント
  • Pinterestのトピック
  • OwlerのTwitterの競合分析
  • SimilarWebのデータを表示しているCrunchbase
  • AmazonのQ&A
  • Trelloのテンプレート
  • Databoxのテンプレート

これらの機能は、何千、何百万ものキーワードのランキング上昇に寄与している。

Quoraのspaces

Twitterのモーメント

いずれの機能も、既存のソリューションを拡大するものであり、検索エンジンに適した方法で伝えられ、多くのオーガニックトラフィックを発生させている。また、製品の改良にもつながっている。

Amazonを見てみよう。Googleにインデックスされる形でQ&Aをリリースしている。また、ユーザーはあらゆる種類の製品に対して質問をしたい、という明確な理由が存在している。

Q&Aのページを追加することは、Amazonをより魅力的なWebサイトにするだけでなく(質問に対する答えを得られるため)、ユーザーがGoogleで検索するかもしれない質問へも対応している。その結果、ユーザーはオフサイトの検索でAmazonのページにたどり着き、そこで商品を購入することも考えられる。

しかし、ポテンシャルのある機能が明確でない場合はどうすればよいのだろう?妄想ではなく、現実的な機能として、新しい機能のアイデアを得るためにはどうすればよいだろうか?

ユーザーのインテント+ジョブ理論=最高の組み合わせ

新しい製品の機能は、複数の方法で作成される。

  • 直感(例:スティーブ・ジョブス)
  • ブレインストーミングやハイブマインド
  • 定量調査(例:顧客は何をしているか)
  • 定性調査(顧客の意見を聞く)
  • 顧客からの要望
  • 戦略的に市場を攻略する

SEOにおいて、ユーザーのインテントを欠かすことはできない。ユーザーのインテントを満たさなければ、上位表示は叶わないのである。ユーザーのインテントは、ランキングの要素である以上に、ランキングを可能とさせるものと言える。特に、BERTのように、機械学習のテクノロジーがGoogleによるユーザーのインテントの理解を手助けするようになってからは。

ジョブ理論(Jobs-to-be-done)は経済学者のクレイトン・クリステンセンによって提唱された理論であり、あるトピックにおけるユーザーのインテントを特定し、適切な機能を定義するための優れた方法である。この場合における「ジョブ」は、ユーザーが完了しようとしている状況と関連したミクロなタスクを指す。主な目的は、新しい機能を作成するためのジョブのリストを作成することである。

ジョブ理論は5つのステップで構成されている。

  1. 注力するマーケットを特定する
  2. 顧客が完了させようとしている主要なジョブと副次的なジョブを特定する
  3. ジョブを分類する
  4. ジョブのステートメントを作成する
  5. 現在の提供状況(過剰、適切、不足)に基づいて優先度を設定する

インベントリー・ドリブンのWebサイトの多くで、ジョブ理論はペルソナの代わりとなるものだ。何百ものオーディエンスがいる場合、ペルソナの特定は困難である。そのため、ユーザーが完了しようとしているジョブ(また、その状況)に注視することがより有益となる。ジョブは、ユーザーの個性や性格とは関係がない。

Spotifyを例にして考えてみよう。

  1. 「注力市場」を、製品が価値を提供する領域を意味する、「ターゲット・トピック」に置き換えてみよう。Spotifyの場合、ターゲット・トピックは「音楽」となるだろう。なぜなら、音楽はSpotifyの主要製品だからである。
  2. ジョブを定義する。「音楽を聴く」、「友人に音楽を共有する」、「新しいジャンルを開拓する」、などである(何百、何千ものジョブが存在するかもしれない)。ターゲットとなるオーディエンスとあなたの製品との関わりをシンプルに表現しよう。
  3. 「聴く」、「共有」、「開拓」、などのグループに、ジョブを分類する。ユーザーが取るアクションについて考えてみよう。
  4. 目的語、動詞、文脈を含むジョブ・ステートメントを作成する。例えば、「飛行機で音楽を聴く」、「WhatsAppで会話しながら友人と音楽を共有する」、「仕事に行き詰まったときに新しいジャンルの音楽を探す(もちろん、そんなことはないはず!)」などである。
  5. 製品のコア・バリュー(ユーザーがその製品から得られる主要なもの)に基づいて、ジョブの優先順位をつける。自身のビジネスにおける、各ジョブの重要性について考え、顧客にとっての重要性に基づき、それらを「メインジョブ」と「サイドジョブ」に分類することである。

最終的な目的は、あなたのオーディエンスが解決しようとしている重要な問題のリストに優先度をつけることである。

Spotifyにとっての新機能は、あらゆるジャンルで最も共有されている楽曲のページや、ジャンルごとの週間チャートなどが考えられる。Spotifyは、アーティスト名、アルバム名、ジャンルページなどで、SEOの規模を拡大している。さらに拡大するためには、歌詞をあてるゲームの作成や、曲のページで歌詞を公開することなどが考えられるだろう(あくまでもアイデアではあるが)。


画像コメント:Spotifyのアーティストのページは、800,000以上のキーワードで1ページ目に表示されている。

感情的なコンテキストを軽視しない

コンテキストによってもたらされる感情的な部分は非常に重要である。殆どの場合、我々は理性的な判断ではなく、感情的な判断を行っているのだ。Googleも、ユーザーが検索する際の感情的なコンテキストを、「ニーズ」として定義し、それを注視することを推奨している。

Googleは6つのニーズを特定している。

  1. 驚き
  2. スリル
  3. 感動
  4. 教育
  5. 安心
  6. 助け

こうした感情的なコンテキストをJTBDフレームワークと統合するために、ニーズをフィルターとして使用する。それぞれが、少なくとも1つのニーズを満たすようにする。


画像のコメント:Googleによって定義された検索ニーズ

共感は、ユーザーのインテントを把握する上で非常に重要である。Googleは、このように述べている

それぞれのニーズの状態は、感情的、社会的、機能的なニーズの組み合わせによって構成されている。感情は、ニーズの状態の土台である。実のところ、意思決定は理性的なプロセスではなく、人々がどのように感じるかによって大きく左右されるものである。理性的な判断は、判断が下されたあとに、理由付けとして重ねられるものなのだ。

ここまでで、我々はプロセス全体の半分を終えたところである。

  1. JTBDのフレームワークを用いてユーザーの問題を特定する
  2. それぞれのジョブを、感情的なニーズを用い、クロスチェックする

ここからは残りのステップの説明となる。

  1. 検索ボリュームなどのSEOデータをジョブに付与する
  2. SEOフレンドリーな方法で機能を実装する

ジョブとSEO調査を組み合わせる5つの方法

ユーザーはクエリを用いて検索する。従来のSEOの分析手法では新しいキーワードの発見に注力していたが、機能をメインにする手法ではパターン(共通の構文を持つクエリ)に注力する。

構文とは、言葉の順序や配置のことである。それゆえ、クエリの構文とは、クエリのパターンがどのように構成されているかを意味する。同様の構文を持ち、自身のWebサイトがランクインしていないクエリがあれば、それらに対応する新しい機能を構築する機会となる。

ポイントは、検索ボリュームが大きいキーワードを探すことではない、ということだ。結果として大量のトラフィックをもたらすことになる、数千の検索にも応用できるような、クエリのパターンやテンプレートを見つけることなのである。

いくつかの例を挙げてみよう。

  • Youtubeのユーザーが、「[映画名] 英語 字幕」とGoogleで検索したとしよう。これは、このユーザーが英語の字幕で映画を見たいということを指し示している。Youtubeにとっては、英語の字幕を自動的に表示させる機能を開発するという機会になる。この機能を検索フレンドリーにするために、ページにトランスクリプトを記載したり、追加のコンテンツを記載する、といった方法が考えられる。
  • 例えば、「[会社名]の投資家」というパターンのクエリの検索ボリュームが大きいことを発見したとする。CrunchbaseのようなWebサイトにとっては、自社のページに(利用が可能であれば)あらゆる会社の投資家についての情報をユーザーが確認できる機能を開発する機会と言える。
  • 「[業種] レポート テンプレート」というキーワードの場合、例えばGoogleのような企業にとっては、Google Studio用に業種ごとのテンプレートを作成する機会と言える。

いずれにおいても、特定された需要への対応ができれば、より多くのトラフィックを獲得することができるだろう(もちろん、顧客もより満足するはずだ)。そのためには、従来のキーワード調査に手を加え、共通の構文を持つクエリを探し出す手法が必要とされる。

ここでは、5つの方法を紹介しよう。

共通の構文を持つクエリを発見する方法

1.競合分析

Ahrefsの「Content Gap*注」やSEMrushの「Keyword Gap」のような機能を用い、競合のWebサイトが上位表示されているが、自身のWebサイトは上位表示されていないキーワードを発見しよう。
*注:リンクが切れていたため、本文とは違うリンク先にしています。


画像コメント:Ahrefsの「Content Gap」のツール

新しいキーワードを探すように、クエリのパターンを特定すべきだが、規模と同一の構文であることを注意しよう。最も簡単な方法はロングテールのキーワードを探すことである。そのため、「単語数」を最低3つに設定しよう。

上記の例では、単語数を3以上に設定した、eBayとAmazonのキーワードの比較である。ざっと見た限りでも、「[商品名] セール中」というキーワードは、ebayは上位に表示されているが、Amazonは上位に表示されていないクエリの構文であることがわかる。

その結果、理論的に言えば、「セール中」のカテゴリーに属する商品をリストアップする機能を追加することが、Amazonにとっての機会と言える。

2.隠れた宝石

特定の構文で検索結果に表示されていても、多くのクリックを獲得するほど上位に表示されていないWebサイトもある。

こうしたクエリのユーザーのインテントに合致する程度によっては、既存のコンテンツを改善したり、新しいページを作成する可能性が考えられる。今あるものを次のレベルまで引き上げることは、実行可能な戦略であり、新しいものを作成するよりもリソースを節約できることもある。

順位追跡ツールを使用することで、こうしたキーワードを発見することができる。Ahrefsでは、あなたのWebサイトのドメイン内のキーワードで、単語数が多く、順位が低いという条件で絞り込むことができる。

  1. 検索ボックスに、あなたのWebサイトのドメインを入力する
  2. 「オーガニックキーワード」のレポートを開く
  3. 順位の低い(例:20位-40位)もので絞り込む
  4. 単語数が多い(例:5以上)もので絞り込む

上記は、企業や人材の純資産をレポートするCrunchbaseにとっての(仮説的な)新しい機会を見つけるため、Ahrefsを使用した例である。

ここからは、あなた自身でパターンを特定して欲しい。スプレッドシートにクエリのリストをエクスポートし、パターンが発見できるまで、それぞれのキーワードにカテゴリーを付与してみよう。また、フィルターのオプションにも注意しよう。単語数を引き上げる必要があるWebサイトもあれば、より少ない単語数でパターンが見つかるWebサイトもあるのだ。

3.Webサイト内部の検索

Google Analytics、AlgoliaLookerなどのツールを活用し、Webサイト内部の検索キーワードを見ることは、大きなメリットがある。ユーザーが探している機能や、機能として実現できそうな情報ニーズの発見などが、それにあたる。

Google Analyticsでサイト内検索のデータを見るための方法を記載しよう。

  1. 行動
  2. サイト内検索
  3. サイト内検索キーワード
  4. 「検索キーワード」のカラムに記載されているキーワード

前述のキーワード調査と同様、この調査の目的も、同一の構文やパターンを持つキーワードを特定することだ(Text Analyzerのようなツールは、大規模な調査における手助けとなるだろう )。

4.ツールを活用して新しいトピックを発見する

Exploding TopicsAhrefsのContent ExplorerGoogle TrendsAlexaのContent ExplorationBuzzsumoなどのツールは、Web上で人気のあるトピックを発見することに役立つ。


画像のコメント:Exploding Topicsでは、特定の期間におけるトピックのトレンドを表示してくれる


画像コメント:AlexaのContent Explorationは、公開された記事数やソーシャルメディアでのエンゲージメントの傾向を表示してくれる

これらのトピックを新機能に落とし込むことは可能ではあるが、まずは、「アイデアの種」から始めるべきだろう。つまり、あなたの製品に関連しており、ユーザーが求めているものに対する、(JTBD調査に基づいた)直感を得るのだ。


画像コメント:Buzzsumoは、入力されたトピックに基づいて、サブトピック、質問、キーワードを表示してくれる

これらのツールは、あなたのアイデアの検証や、トピックのさらなる探求などに役立つだろう。ユーザーが持つ課題やニーズを発見し、それらを新しい機能に落とし込むのだ。

5.ユーザーに尋ねる

新しい機能のための情報を得る方法として、ターゲットグループに直接尋ねることも良い方法である。ユーザーをオフィスに招きアイデアを絞り出す、ということが難しい場合は、2つの方法を採ることができる。1つはソーシャルネットワークを使う方法であり、もう1つはユーザーテスト用のプラットフォームを使う方法である。

TwitterやFacebookで「どんな新しい機能を作るべきか?」と尋ねることで、興味深い会話が発生することもある。また、ソーシャルネットワーク上でのメンションを調査し、機能に対する要望や不満を探すこともできる。これは、カスタマーサポートにも言えることだ。ユーザーからの要望や不満が定期的に発生する機能はあるだろうか?

しかし、リモートでのユーザーテストのように、より多くの情報が必要な場合もある。UserlyticsUserTestingLookbackのようなプラットフォームは、ユーザーに対する調査記録を行うことができ、それによってユーザーが望む機能を発見することにもつながるのだ。

SEOフレンドリーな方法で新しい機能を作成する方法

ここまでで、ジョブとそれに関連するクエリの構文の特定は完了した。では、どのようにして、新しいページのテンプレートや既存のページへの追加を行えば良いのだろう?それは、ユーザーのインテントによって決定される。

  • 既存のページがすでに明確なインテントをターゲットとすることができており、しかし、新しい機能がそれを薄めてしまうのであれば、そのための新しいページを作成しよう。
  • 新機能が、追加的や補完的なものであれば、それらを既存のページに統合しよう。

あらゆるケースに該当する型通りの答えはないため、あなた自身の最良の判断を下そう。新しい機能の小規模な実装を行うことで、その機能がユーザーにとってどの程度の効果があるのか、また、新しい機能が既存のキーワードに影響するのか、あなたが特定したすでに検索結果に表示されているクエリパターンに影響するのか、などをテストすることができる。

G2の例では、「無料 [ソフトウェアの名前]」のようなクエリ構文は、カテゴリページのフィルタでは解決できないことがわかった。検索フレンドリーであり、最適な答えを提供するためには、新しいページのテンプレートが必要とされた。ユーザーは、ページを訪れ、無料のソフトウェアを探すためにフィルターをクリックすることは好まなかったのである。検索した際、無料のソフトウェアだけのページにアクセスしたかったのだ。

新しいページを作成する場合、また、既存のページをアップデートする場合は、下記の項目を留意しよう。

SEOフレンドリーな機能を追加する場合のポイント

SEOフレンドリーな機能とは、情報提供、ページタイプの作成、UGCの統合、プロダクトやカテゴリーページのテンプレートの提供などが該当する。これらを作成し、公開する場合、次の3つのポイントを守ることが、多くのオーガニックトラフィックを得る上で重要となる。

1.アクセシビリティ

まず、ユーザーと検索エンジンがアクセス可能な状況にすることが必要だ。つまり、検索エンジンがコンテンツをパースするために、あらゆるスクリプトやフレームワークをレンダリングできる状況にするのだ。

ここでは、スピードモバイルフレンドリーが重要となる。Search Console、PageSpeed Insights、モバイルフレンドリーテストなどのGoogleのレンダリングツールを活用に、新しい機能をテストしよう。

Google Search Console

  1. URL検査を開く
  2. 検索フィールドにURLを入力する
  3. 「ライブテスト」をクリックする
  4. 「スクリーンショット」をクリックする
  5. 調査したURLに問題がないことを確認する

Google PageSpeed Insights

モバイルフレンドリーテスト

2.発見性

次に、これらのページは検索エンジンによって発見される必要がある。それには、内部リンクとXMLサイトマップが関係している。

新しいページがWebサイト内で孤立していないか、階層の奥深くに設置されていないかを確認しよう。新しく導入された機能をステージング環境のWebサイトに設置し、クロールの深さや内部リンクなどの指標を、ライブバージョンのWebサイト内の類似ページと比較するのだ。


画像コメント:Screaming Frogのクロール深度のレポート

適切な内部リンクの設置をせずに、数千ものページを一度に公開することは、その新しい機能の成功率を下げることだけでなく、クロールバジェットの問題にもつながる。

こうした問題を避けるための手段として、新しい機能が掲載されているページへの内部リンクが設置されている、ハブページ(多くの場合、カテゴリーページとなる)をWebサイトのトップページのモジュールに追加することが挙げられる。また、新しい機能のページ間にリンクを設置することで、下記が容易に行えるようにする。

  • Googleがそれらのページの関係性を理解する
  • ユーザーがそれらのページ間を移動できるようにする
  • 新しいページのテンプレート間における、リンクの公平性を担保する

3.関連性

3つ目に、新しい機能はユーザーのインテントや果たされるべきジョブに対応する(つまり、価値を提供する)必要がある。新しい機能でターゲットとするクエリを調査し、提供する情報や価値がユーザーが満足行くものであるかどうかを確認しよう。ユーザーやブランドへの最適化を行わず、検索に最適化しようとしても、未来は無い。

ターゲットとするクエリパターンのランキングをモニタリングするだけでなく、ユーザーの満足度の指標(これは、下記クエリのインテントによって異なる)にも注目しよう。多くの場合、ページの滞在時間、クロールの深さ、トリガーとなるクリックイベントなどが該当するはずである。可能であれば、それらの組み合わせを測定すると良い。

新しい機能の支持を得るには

小規模で動きの速いスタートアップでない限り、新しい機能の公開は、思うほど簡単では無い。開発者やデザイナーのリソースを確保し、製品チームが推進できるための適切なフォーマットで依頼するためには、説得力のある説明が求められる。

そのためには、下記の3つが役立つはずだ。

1.プロセスを知る

スクラムやアジャイルといった用語を聞いたことが無いのであれば、その時点で遅れを取っていると言える。スクラム開発に適した形とするため、新しい機能は、ユーザーストーリーに基づいて描かれなければならない。

パターンとしては、「ユーザーとして、私は〇〇を行いたい」という形が挙げられる。そして、ユーザーにとっての最終形を提示するのだ。また、開発者が、その結果につながる各パーツのチケットを作成できるようにしよう。

また、通常、開発者は2週間のスプリント作業を行い、そこでプランニングとリスク分散を行うことに注意しよう。可能であれば、その両方にあなたも立ち会い、新しい機能があなたの思い通りに構築されるかどうかを確認しよう。

2.価値を定義する

プロダクトリーダーは、リターンの見積もりを欲しがるものだ。リソースは限られているため、潜在的な影響度に従って、優先度をつけなければならない。言い換えると、「なんとなく」という理由で開発を依頼することは不十分なのである。数字で示す必要があるのだ。

幸いなことに、クエリの構文の調査で特定したクエリから、トラフィック数を算出することは比較的容易である。あなたがやるべきことは、潜在的なトラフィック数を、ビジネスに影響しうる数字(理想的には金額)に結びつけることだ。

3.小さく始める

可能であれば、最小限(MVPs:Minimum Viable Product)での公開をしよう。新機能の一部や限定の機能のみを公開するという方法だ。MVPsはインパクトの即時の証明、より多くのリソースの確保、ロードマップに対するバックアップなどを可能とする。

MVPsを採用する前に、ベンチマークとなる指標を決めておこう。成功を測定するための計画を立て、結果をドキュメント化するのだ。

結論

SEOの担当者は、高い目標を設定され、多くのプレッシャーの中、仕事をしている。SEOの担当者は、結果が出るように優先度を設定する必要があり、そうしなければ、信頼とリソースを失う可能性が出てしまう。

オーガニックトラフィックを拡大できているインベント・ドリブンなWebサイトでは、バックリンクはほとんど必要としていない。どちらかというと、テクニカルSEOの必要性のほうが高いのだ。しかし、どれほど優れたテクニカルSEOの担当者であっても、機会の90%を使い果たしてしまっていれば、その成長は鈍化してしまうだろう。こうした場合、新しいページのテンプレートや情報の種類という形式での新しい機能が鍵となる。

新機能に基づいたSEOが成功すれば、垂直方向での拡大や、新しいサービスの提供による水平方向の拡大も期待できる。SEOはプル型のチャネルであり、検索ボリュームは需要を指し示している。

そうした機会を活かす上での最大の障壁は必要となる資金を得ることであり、これを克服するためには、データ・ドリブンの事実を作ることが求められるのだ。

SEOを成功させるためには、従来のSEOの領域以上のことも行う必要があります。コンテンツやUXなどがその最たる例ではありますが、Webサイト自体の機能という観点も重要でしょう。もちろん、「純粋なSEO目的」として新機能をリリースすることは難しいと思いますが、SEOの観点を含まずに新機能をリリースすることも機会損失と言えるのでは無いでしょうか?インハウスにしろ、コンサルタントにしろ、Webサイト自体の動きに目を見張り、可能な限りSEOの分野での協力ができれば理想的だと感じました。

この記事は、cxl に掲載された「How to Scale Organic Traffic (Without Writing a Million Blog Posts)」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 大量のブログ記事を書くことなく、オーガニックトラフィックを増加させる方法SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

フォームの最適化と設計に置いて、アイトラッキングのデータが我々に伝えてくれること

ユーザー体験を向上させることを目的とし、実際のユーザーのデータを取得する手法は複数あります。その中でも、ユーザーの視線の動きを測定する、アイトラッキングのデータに着目した記事を紹介します。対象は、いわゆる、フォームページであり、ユーザーがスムーズに入力を完了するためのヒントが紹介されています。アイトラッキングのデータの活用例としても興味深い内容です。

アイトラッキングは、ユーザーがWebサイトを閲覧する際、どこを注視しているかを正確に把握するために、UXやCROの領域において、長く使用されてきた手法だ。CXLが昨年公開したこの記事のように、アイトラッキングについての研究から、実践的な多くの結論が導き出されている。

しかし、フォームやユーザー体験の向上について、アイトラッキングが我々に何を伝えてくれるのか、フォーム最適化のスペシャリストとしてそれを追求したいと考えてきた。この記事では、我々が得た大きな発見と、あなたがそれらを活用できる方法について解説したいと思う。

方法

調査の内容を話す前に、まずは、我々が調査を行った方法について説明したいと思う。我々は、イギリスの行動科学のコンサルタント会社であるNudge Insights社と共同し、ユーザーがフォームの流れや各項目をどのように操作するかについて、調査を行った。最新のアイトラッキングの技術を用い、イギリスの6つの金融機関のフォームをユーザーに操作してもらった。

各項目の記入に必要な時間を測定することは有効な手段であるが、多くのフォーム分析のツールですでにサポートされている。そのため、我々は、ユーザーの視線をベースとした測定を行いたいと考えた。具体的には、下記を測定した。

  • フィクセーション – フィクセーションとは、視線が特定の部分に固定され、焦点を合わせることであり(最低でも60ミリ秒)、ユーザーの注意を示す。
  • サッカード – サッカードとは、2つの固定された視点の間で起こる、素早い眼球運動である。

フィクセーションとサッカードを組み合わせることで、スキャンパスができあがる。

この記事の調査結果と結論は、スキャンパスが滑らかであるほど(つまり、フィクセーションの回数や時間が少ないほど)、ユーザーにとってのフォームの体験が良くなる、という仮説に基づいている。

フォーム内の特定のポイントでフィクセーションの回数や時間が多いということは、ユーザーはその項目やセクションの入力を完了することが困難であることを示している。

画像のコメント:こちらは、アイトラッキングの調査による、ヒートマップの結果の一例である。

6つの主要な発見

前述の通り、今回の調査の結論は、ユーザーをフォームに沿って素早く効率的に案内することは良いことである、という前提に基づいている。気を散らしてしまったり、遅延や混乱を発生させたりすることは、良くない事であると判断している。これを前提とし、我々が発見した知見を紹介しよう。

1.生年月日の入力では、ドロップダウンではなく、テキスト入力の方式を採用する

これまでの調査からも、ドロップダウンメニューはユーザー体験を損なうものであるということがわかっている。これらの研究は、時間やクリックに基づいており、ドロップダウンがテキスト入力やラジオボタンをベースとしたインターフェイスよりも、大きな摩擦を生むことを示していた。アイトラッキングに基づいた我々の調査は、この結論を強化するものとなっている。

調査の一環として、Nudge Insights社は各フォームの生年月日の入力欄に着目していた。一般的に、生年月日の入力欄は複雑ではなく、日、月、年、の入力を求めれば良いと考えられている。この項目を構成する方法は複数あるが、多くの場合、テキスト入力かドロップダウン、または、それらの組み合わせを採用している。

下記は、各フォームで使用されている生年月日のフォーマットと、今回の調査の参加者がこの項目を入力する際のフィクセーションの平均を表している。

Halifax社を除き(詳細は後述)、テキスト入力を採用したフォームは、ドロップダウンメニューを採用したフォームよりも、フィクセーションが低い、ということが最も明らかなパターンである。つまり、よりスムーズなユーザー体験を提供することができていると言える。これは、ユーザーがどのようにフォームを操作しているか?ということと一致するのだろうか?次の2つのスキャンパスを見てみよう。1つ目はPost Office社のフォームであり、今回の調査では統計的に最も悪いフォームとされたものである。


画像コメント:Post Office社のフォーム。完全なドロップダウンであり、補足のテキストなどもない。

ユーザーの視線がどのように動き、どこを注視しているのかを示すため、スキャンパスを併せて掲載している。これを見ると、ユーザーが視線を上下に動かすことを強いられていることがわかる。

Post Office社のデータと、シンプルなテキストメニューを採用している、下記のLittle Loans社のデータとを比較してみよう。


画像コメント:Little Loans社のフォーム。入力の指示も記載されている、テキスト入力。


画像コメント:Little Loans社の生年月日のスキャンパス。Post Office社のデータと比較し、よりコンパクトでスムーズであることがわかる。

フィクセーションの平均データとスキャンパスのローデータを組み合わせることで、2つの手法における、ユーザービリティや効率性に明らかな違いがあることがわかった。

実用的なアドバイス:生年月日のフィールドには、ドロップダウンのメニューではなく、テキスト入力の方式を採用しよう(日付に関わる他の多くのフィールドでも同様)。

2.表示タイミングが早すぎるエラーメッセージ

前述の通り、Halifax社はテキスト入力の方がドロップダウンよりも、生年月日のフィールドにおいて低くなるという一般的なパターンの例外であった。

これはなぜだろうか?一見すると、Little Loans社のインターフェイスと大きく変わりは無いように見える。


画像コメント:Halifax社の生年月日のフィールド

しかし、スキャンパスはLittle Loans社よりも長く、コンパクトではない。

ユーザーの動画を詳しく見ることで、この原因が判明した。

ユーザーが「日」の項目を入力し、次に「月」の項目を注視した途端、エラーメッセージが表示されたのだ。


画像コメント:表示が早すぎるエラーメッセージ

この早すぎるエラーメッセージがユーザーの気を散らしてしまい、視線を元の位置から上に移動させてしまっている。特に、このメッセージが表示される必要がない場合は残念である。インラインでの注意文はユーザー体験を向上させるという調査結果はあるが、この場合は、ユーザーは入力を開始しておらず、また、フィールドからも出ていない。それにも関わらず、大きな赤い文字が表示されてしまっている。まだ入力途中のユーザーに対し、早すぎるエラーメッセージを表示させることは、ストレスを与え、ユーザーの作業を邪魔してしまう。

2つ目の要因は、生年月日の入力欄が、ページの下部に表示されていることだ。エラーメッセージが表示される度に(毎回表示されてしまう!)、生年月日を入力するボックスが下部に押し下げられ、ユーザーの視界に入らなくなってしまう。ユーザーは入力を再開するために再度スクロールをしなければならない。その結果、上記のような縦長のスキャンパスとなってしまっている。

この問題は、「ベストプラクティス」のみに頼るのは良いことではない、という警告と言える。一般的に、日付の入力項目において、テキスト入力は最も効率的な仕組みであることがわかっている。しかし、テストを行わず、盲目的に実装してしまうと、ユーザー環境に予期せぬ問題を作ってしまうこともある。

実用的なアドバイス:ユーザーが項目の入力を完了するまでは、エラーメッセージを表示しないようにしよう。予期せぬ問題を引き起こさないためにも、テストは必ず実行しよう。

3.エラーメッセージが明らかでなかったり、適切に表示されていなければ、ユーザーを混乱させてしまう

今回調査した6つのフォームは、エラーメッセージの配置において、いずれも異なるアプローチを採用している。その結果、エラーメッセージの配置場所の通説との比較が可能となった。

そもそも、なぜこのような通説が存在しているかを強調する最適な例は、Santander社の個人情報欄である。Santander社は、ユーザーがフォームを送信するまでエラーメッセージを表示しない、というアプローチを採っている。また、エラーメッセージが表示される場合は、ページの上部に表示されている。


画像コメント:ここまでのところ、何の役にも立っていない

このようなメッセージが表示された場合、神話的な赤いアスタリスクを見つけると、何らかのエラーがあるのでは、と思うかもしれない。しかし、実際には下記のメッセージが表示されるだけであるため、非常にがっかりしてしまうことだろう。


画像コメント:Santander社のエラーメッセージ(もしくは、欠損!)

「Home phone number(自宅の電話番号)」を除き、ユーザーへのガイダンスは無い。ユーザーは、フォームの上部までスクロールし、一般的なエラーメッセージを確認した後、さらに下までスクロールし、問題のある項目を見つけるだけである。

こうしたパターンがフォームの不要な放棄を発生させることは容易に予測できるが、アイトラッキングの観点では、どのような効果が見られるだろうか?Santander社のフォームでエラーを起こしたユーザーのスキャンパスを見てみよう。


画像コメント:Santander社のユーザーは、問題を解決するために、フォームを上下に移動せざるを得ない。

Santander社のアプローチとLittle Loan社のアプローチを比較してみよう。Little Loan社は、インラインでの表示を採用しており、エラーが発生した場合には直ちにユーザーに知らせ、ガイダンスを表示させている。


画像コメント:Little Loan社のインラインでのエラーメッセージの表示

その結果、無効な情報を入力したユーザーのスキャンパスは非常にコンパクトである。つまり、スムーズな操作を可能としており、ユーザー体験の向上につながっていると考えられる。


画像コメント:Little Loan社のエラーのスキャンパス

実用的なアドバイス:エラーメッセージは関連するフィールドの隣に表示させ、無効な情報が入力された場合、すぐに表示させるようにしよう。

4.同様の情報を複数回入力させてしまうことは、ユーザービリティコストがかかる

ユーザーにEメールのアドレスを2回入力させることについての議論は、主に、ユーザー体験とデータベース内に誤った情報が格納されてしまうことを防ぐこと、が対象となる。この議論についての記事は様々あるため、ここでは賛否両論については記さない。その代わり、Eメールアドレスを2回入力することをユーザーに求めることがユーザー体験を損なうという仮説について、アイトラッキングの観点から裏付けてみようと思う。

また、「Eメールアドレスの確認」のみならず、電話番号を複数回尋ねる(最高で3回も尋ねることもある)ことにより、多くのフォームがこの問題を抱えている。こうした情報は、本当に必要なのだろうか?

下記は、個人情報を入力する際のユーザーセッションにおける、全てのフィクセーションの平均時間と、フィクセーションの平均回数をまとめた表である。

このデータは決定的なものではないが、一般的な傾向としては、入力項目が簡単であるほど(Eメールアドレスの確認+電話番号)、入力が完了するまでのフィクセーションが少なく、フィクセーションの時間も短くなる。これは、こうした項目の入力を要求することが、ユーザー体験における摩擦を導いているという仮説を裏付けることとなる。

実用的なアドバイス:はっきりとした理由がない限り、Eメールアドレスの確認と複数回の電話番号の入力をユーザーに要求するべきではない。

5.ユーザーの認知における負荷を最小化するために、UIを整備する

雇用詳細を尋ねるフォームを見てみると、最高のパフォーマンスのフォーム(Halifax社)と最低のパフォーマンスのフォーム(Santander社)の間には、大きな違いがあった。

なぜ、このような違いが生まれたのか?パッと見る限り、それぞれのフォームは似通っている。


画像コメント:Halifax社の雇用詳細を記入する欄


画像コメント:Santander社の雇用詳細を記入する欄

最も明らかな違いは、Santander社のフォームでは、雇用主の住所などの詳細な情報を求めていることである。これは、追加の情報であり、短いフォームよりも、より多くの集中力が必要とされる。しかし、この違いが全てではない。他にも2つの要素があるのだ。

まず、「職種(Job Title)」についての項目である。

一見すると、自由に入力を行える、フリーのテキストボックスのようだ。しかし、実際はそうではない。バックエンド側で保持しているリストと合致しない回答が送信された場合、赤いアスタリスクが表示される(また、前述のように、インラインでの表示ではなく、フォームを送信した際に表示される)。

何が間違っているかを示すガイダンスもないため、問題はさらに深刻になる。上記の例では、「先生」という回答は受け付けるが、それは明確ではない。ヘルプを参照するには、クエスチョンマークをクリックする他ないが、それでもなお、ガイダンスの内容は曖昧である。

アイトラッキングのデータを見てみると、このフィールドの周辺でフィクセーションが密集していることがわかる。つまり、認知するための努力が必要とされると言える。

Halifax社では、異なるアプローチが採られている。

Halifax社は、前述した通り理想的とは言えない、ドロップダウンの方式を採用している。しかし、Santander社のような、オープンでありながら制限が多いアプローチと比べ、少なくともユーザーには明確なガイダンスを提供しており、次に進むための選択肢を表示させている。彼らが採用しているアプローチには改善の余地があるはずだが、アイトラッキングの観点から言えば、それほど悪いパフォーマンスではない。

2つ目の要素は、雇用期間に関する設問だ。Santander社は、ユーザーに雇用期間の入力を求めている。ユーザーが仕事を開始した日を入力させ、今日までの期間を計算するよう、求めている。

それに比べ、Halifax社は仕事の開始日を入力するだけであり、雇用期間は自動的に算出される。

ここで明らかなことは、必要最低限の情報のみユーザーに入力を依頼する、ということである。自動計算のような機能は、摩擦の発生要因を取り除くことができるだろう。

実用的なアドバイス:職種のようなオープンエンドな質問であり、バックエンドで特定の回答を必要とする場合、ユーザーに推測を強いることはせず、可能な限り簡単に入力できるようにしよう。自動計算のような機能を活用し、ユーザーがスムーズに操作を行えるよう、整備しよう(自動計算の実装が困難であれば、こちらでコーディングのアドバイスを行っている)。

6.「良い」ガイダンスであっても、視線を逸らしてしまう

一般的に、我々はユーザーを導くためのマイクロコピーをフォーム内に記載することを支持している。しかし、最適なガイダンスであったとしても、利益に対するバランスを取る必要があることを常に意識すべきだ。Little Loans社の雇用詳細のセクションのスキャンパスを見てみよう。

ユーザーは各フィールドからその右隣のテキストに視線を移していることがわかる。これは、ガイダンスを追加することが間違っているというわけではない(一般的に、ガイダンスはないよりもあった方が良い)。しかし、ガイダンスを記載する理由を明確にすべきだ。Little Loans社の場合、ガイダンスが必要であるかどうかは、定かではない。

この例では、ユーザーが収入を得ていることを確認するため、次の給料日の入力が必要であると書かれている。これが、認証においてどの程度役に立つのかが明らかではなく、また、質問自体が理由を含んでいるため、このガイダンスはユーザーの気を散らしてしまうものと言える。

実用的なアドバイス:フォームを設計する際は、常に下記の項目に留意しよう。

  1. ガイダンスを設置する場所を検討する。可能な限りフィールドの近くに設置し、視線が散ることを最小限に留めよう
  2. 本当にそのコピーが必要であるかを確認する。ガイダンスの内容が質問自体に含まれているのであれば、省略することを検討しよう。

結論

今回の記事で紹介した調査結果が、CROやUXの専門家にとっては、衝撃的な内容ではなかったかもしれない。しかし、すでに確立された仮説の裏付けとなるものであり、フォームやチェックアウトを通じて、ユーザージャーニーをより円滑なものとするための、追加のアドバイスとはなっているはずだ。

フォーム最適化のためのヒントを、アイトラッキングのデータを元に紹介する記事でした。ユーザーが操作を困難とする箇所が具体的であり、また、他のページと比較することで改善点も浮き彫りになっています。自身のWebサイトはどうしても見慣れてしまうものであり、困難である箇所も、困難でないと感じてしまうこともあります。定期的にこうしたユーザーデータを取得し、改善に繋がるヒントを得られれば理想的と言えますね。


この記事は、cxl に掲載された「What Eye Tracking Can Teach Us About Form Optimization and Design」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 フォームの最適化と設計に置いて、アイトラッキングのデータが我々に伝えてくれることSEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

サイト移行における問題。トラフィック減少の原因として考えられる11の要因

Webサイトの移行は、どんな種類のWebサイトであれ、発生する可能性があります。多くの時間と労力が費やされることもあり、一大イベントとなることも考えられます。また、SEOという観点からもWebサイトの移行は大きなイベントであり、手順を間違えてしまうと、トラフィックの減少に繋がる可能性も十分にあります。今回は、こうしたWebサイトの移行において、SEO観点からポイントとなる項目を解説した、Search Engine Journalの記事を紹介します。

Webサイトの移行は大きな利益となることもあるが、その過程においては多くの問題が発生することも事実である。この記事では、Webサイトの移行によってトラフィックが減少しうる、11のよくある要因を紹介する。

Webサイトの移行にかかる手順は煩わしいものであるが、長期的にみれば、そのWebサイトに利益をもたらすだろう。しかし、その過程においては、多くの問題が発生する。

リダイレクトの不備、robots.txtファイルのミス、サイトマップの問題、内部リンクの破損などは、Webサイトの移行によってトラフィックが減少する要因となり得る。

Webサイトの移行後にトラフィックが減少し、その要因を特定するためには、試行錯誤が必要となる。

この記事で紹介する内容をチェックリストとして活用し、Webサイトの移行後にトラフィックが減少してしまう理由を再確認しよう。

クローラーを巡回させ、よくある課題のリストを作成することから始める

まずは、Webサイトに悪影響を与える可能性のある問題についてのリストを作成しよう。そのリストを活用し、発生した問題の検証と修正を行うのだ。

ScreamingFrogは、Webサイトをスキャンし、各ページの固有の問題を確認するための最適なツールである。

Webサイトのスキャンを実行し、どういった問題があるか、確認しよう。大規模なWebサイトの場合スキャンに時間がかかる場合もあるが、問題を発見するためには、その時間を費やす価値は十分にある。

  • リダイレクト
  • 内部リンクの破損
  • 重複コンテンツ
  • メタデータの問題
  • ブロックされたURL

私がまさにそうであるが、多くのことを手動で行いたいと思う人もいるはずだ。しかし、このツールを使用すれば、多くの時間を節約できるだろう。

スキャンしたデータを保存しておけば、下記に記載するような多くの問題をすぐに特定することができるだろう。

Webサイトの大規模な移行や再設計を行う前に、スキャンしたデータをバックアップしておくべきだ。こうすることで、移行後のデータとの比較が可能となり、何が変わったかをすぐに確認することができるはずだ。

Webサイトの再設計の前には、HTMLやレイアウトのコピーを保存し、必要に応じて見直すことができるようにしよう。

Webサイトの移行後にトラフィックが減少する原因となる11のよくある要因

Webサイトの移行後にトラフィックが減少する原因としては、以下の項目(もしくは、いくつかの組み合わせ)が考えられる。

1.Canonicalタグの変更

トラフィックが減少したり、ランキングが下降したりしたページはどこだろうか?こうしたページの内容を見て、canonicalタグを分析し、トラフィックに影響する変更があったかどうかを確認しよう。

タグにおけるよくある問題は下記の通りだ。

  • 関係性のないページを指している
  • プログラムの問題(例:末尾のスラッシュの記載がない)
  • もはや存在しない、古いURLを指している

2.robots.txtやインデックスされないコンテンツ

robots.txtのファイルや、トラフィックが減少したページを開き、そのページがインデックス可能な状況であるかどうかを確認しよう。インデックスにおける問題が、トラフィックの減少の要因となっている可能性があるからだ。

Googleはrobots.txtのテストツールを提供しており、それを活用すれば、問題の特定や修正に大きく役立つ。

詳細は「Googleのジョン・ミュラー氏による、robots.txtでブロックされたページが表示される理由の説明」(英語)の記事を参照してほしい。

3.メタデータの消失

Webサイトの移行の過程で、メタデータが消失している可能性も考えられる。データベースの移行において、カラムが1つ消失することによって、タイトルタグやメタ・ディスクリプションが失われてしまうかもしれない。

ScreamingFrogでスキャンしたデータを活用し、タイトルタグとメタ・ディスクリプションの内容が適切な状態になっていることを確認しよう。

もし、こうしたメタデータが消失しまっているのであれば、修正を行う必要がある。Googleで「site:URL.com」と検索すれば、移行前のメタデータが表示されることもある。

もしくは、移行前に作成したバックアップデータを参照することもできる。

こうした処置を行わないと、キーワードを含んだタイトルやディスクリプションを、手動で追加し直す必要が生じてしまう。Webサイトの規模にもよるが、不可能なほどの時間がかかってしまうかもしれない。

備考:データベースのスペシャリストの協力を得られたり、調査の時間を厭わないのであれば、移行前のメタデータを新しいWebサイトにインポートすることも考えられる。

4.ページスピードの低下

Webサイトの抜本的な移行や、サーバーの変更を行った場合など、ページスピードが低下してしまうことも考えられる。

トラフィックが減少したページのいくつかを確認し、ページスピードが遅くなっていないか、確認しよう。

そのためには、下記の作業が必要となるだろう。

  • CDNも移行の対象であり、適切に機能しているかを確認する
  • キャッシュシステムが適切に稼働しているかを確認する
  • スピードを向上させるためにできる、簡単な修正方法をPage Speed Insightsで確認する

また、サーバー関連の問題により、Webサイトの読み込みが遅くなることも考えられる。

5.内部リンクの確認

内部リンクは、ユーザーをWebサイトに留めておくための自然で優れた方法である。また、検索エンジンが、ページからページへと移動することにも役立つ。

ブログ記事内の内部リンクを含め、リンク先が古いWebサイトではなく、新しいWebサイトに向けられていることを確認しよう。

6.コンテンツのアクセシビリティに関わる問題

GoogleのSearch Consoleには、インデックスされている全てのページがリストアップされている。Search Consoleへログインし、「インデックス」内にある「カバレッジ」を開くことで、レポートを確認できる。

その後、「エラー」、「有効(警告あり)」、「有効」、「除外」などをクリックしよう。

このレポートで、問題のあるURLを確認することができる、また、個別のURLにカーソルを合わせ「URLを検索」をクリックすれば、詳細な状況を確認することもできる。

詳細ページの「公開URLをテスト」をクリックすれば、Googleがそのページにアクセスする際、問題となり得る可能性を特定することが可能だ。

7.リダイレクトの不備

リダイレクトは、Webサイトの移行において、不可欠な要素である。Webサイトの移行の際、301リダイレクトの処置を計画に含めていなければ、Webサイトの移行後に多くの問題を抱えることになるだろう。

検索エンジンにWebサイトの移行先が伝わらないことになってしまうため、トラフィックの減少が発生してしまう可能性がある。

ユーザーも困惑してしまうはずだ。リダイレクトに関する問題は悪夢のようなものであり、SEO担当者が最も恐れる問題の1つと言える。

ScreamingFrogでレポートを作成し、問題のあるリダイレクトの箇所を特定しよう。

そのためには、下記の手順が必要だ。

  • リダイレクトの経路を整理する
  • 連続するリダイレクトを追跡し、リダイレクトが正確であるかを確認する
  • 古いURLが新しいURLにリダイレクトされていることを確認し、301リダイレクトを使用しているページへのリンクを更新し、新しいページへのリダイレクトに置き換える

移行前の古いURLの全てをScreamingFrogにアップロードし、これらのURLをクロールし、レポートを分析することで、開始URLと遷移先のURLが正確であることを確認しよう。

また、最終のステータスコードも併せて確認しておくべきだ。

さらに、古いページには、301リダイレクトを使用すべきだ。恒久的ではない302リダイレクトは使用すべきではない。

8.外部リンクの消失

外部リンクは、依然として、検索エンジンに対する強力なシグナルである。多くの外部リンクを獲得している優れたWebサイトを構築できれば、順位状況も良いはずだ。

Webサイトの移行後、外部リンクを設置してくれているWebサイトのオーナーに連絡を取り、新しいWebサイトへのリンクに置き換えてもらうことを依頼しよう。

古いリンクに不備があったり、リダイレクトの対象ではない古いページへと遷移させてしまうと、検索結果の順位に問題が生じることもある。

こうしたリンク切れのページを、新しいWebサイトの類似のページや同一内容のページへとリダイレクトさせることも可能だ。

例えば、リンク先がsite1.com/dogsである場合、リンク切れのページをsite2.com/dogsにリダイレクトすることができる。また、リンク切れのページを、類似のページへのリダイレクトにすることも可能である。

9.プラットフォームやホスティングにおける問題

プラットフォームやサーバーの移行を行っているだろうか?変更することは良いことではあるが、下記のように、こうした変更がWebサイトのトラフィックの減少の要因となることもある。

  • ファイヤーウォールが検索エンジンのボットをブロックしている
  • 検索エンジンのボットがクロールすることが難しいJSを使用しているプラットフォーム
  • 速度やパフォーマンスの低下
  • 国による制限

プラットフォームやサーバーの移行を計画している場合(または、すでに行っている場合)、トラフィックが減少しているページを慎重に確認しよう。

ちょっとした準備をすることで、トラフィックの減少の要因となりうる、プラットフォームやホスティングの問題を避けることができるのだ。

10.画像

画像検索から多くのトラフィックを得ているだろうか?そうであれば、Webサイトの移行において、画像のURLが正しくリダイレクトされていることを確認しよう。画像のURLが下記の状態となっていることを確認すべきだ。

  • 正しい画像にリンクされている
  • 新しいドメインにリンクされている

CDNを利用している場合は、CDNの変更により、全ての画像を新しいWebサイトに移行することもできるはずだ。

CNAMEを使用して画像のURLを生成している場合は、CNAMEが新しいWebサイトやサーバーを指していることを確認しよう。

11.Googleのアップデート

Webサイトの移行とGoogleのアップデートのタイミングが重なることも考えられる。Googleのアップデートはアルゴリズムを変更するだけでなく、あなたのチームを混乱に陥れることもある。

Webサイトの移行のタイミングでGoogleのアップデートが発生し、ランキングが変動することもあるだろう。

Googleが主要なアップデートを行っていないか、確認すべきだ。あなたとあなたのチームが抱えている問題は、Webサイトの移行とは関係がないかもしれない。

トラフィックの減少からの回復と再構築

Webサイトの移行の前に、重要なデータを収集し、ベンチマークをしておくことが肝要である。Webサイトの移行前後のすべての変更を追跡できるようにしよう。

個人的には、Google Analyticsのアノテーション機能を使用し、SEOに関わる項目の変化を追跡する方法を好んでいる。

同様の方法で、エンジニアにも変更点を記録しておくことを勧めている。それにより、SEO担当者がトラフィックの減少の要因を特定することが可能となるからだ。

Webサイトの問題を解決するためには、時間と忍耐が必要となる。運が良ければ、解決方法をすぐに発見することもできるが、基本的には、SEOには長期的なアプローチが求められる。

自身のWebサイトを見て、こうした問題を確認し、必要な修正を行おう。修正が完了した後、数日から数週間待つことで、トラフィックが移行前の水準に達するかどうかを確認しよう。

移行前と比較し、トラフィックが劇的に減少しているのであれば、今回紹介したリストに沿って作業を行い、どうしても解決できないのであれば、プロフェッショナルに助けを求めよう。

そして、そこで学んだことを次回に活かし、より多くのトラフィックを獲得し、今まで以上に強力なWebサイトを構築しよう。そう、自信を持つことが重要なのだ。

SEOチームだけではなく、多くのチームを巻き込んで行われるであろうWebサイトの移行ですが、誰しもが移行後のポジティブな影響を期待しているはずです。しかし、ちょっとした不備によって移行後にトラフィックが大きく減少した、ということも十分に考えられます。SEO担当者にとっては、まさに悪夢のような出来事となりますが、こうした事態を避けるためにも、この記事で紹介された項目についてはしっかりと確認しておきたいものです。


この記事は、Search Engine Journal に掲載された「Site Migration Issues: 11 Potential Reasons Traffic Dropped」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 サイト移行における問題。トラフィック減少の原因として考えられる11の要因SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

グロースを正確に測定するためのコンバージョン率の計算式。

SEOの主目的として、「検索からの集客の最適化」が挙げられると思います。しかし、その集客が、事業の目的にどれだけ貢献しているか?についてもしっかりと把握する必要があるでしょう。いわゆるコンバージョンへの貢献が重要となりますが、その算出が難しいことも事実です。今回は、そんなコンバージョン率の計算方法について解説した、CXLの記事をご紹介いたします。

コンバージョンは事業において非常に重要である。しかし、コンバージョン率が良ければ、売上が上がるというわけではない。

コンバージョン率の計算式の利点は、マーケティングにおけるインサイトを得られる点にある。上手く行っているものは何か、上手く行っていないものはなにか、それらを把握した上で、テストを行い、最適化や改善へとつなげることができる。

この記事では、コンバージョン率の計算を紹介し、複数のチャネルやカスタマージャーニーへの適用についても紹介する。また、コンバージョン率と収益性との関係を明らかにし、コンバージョン率の計算式を活用した、最適化の方法についても紹介したいと思う。

コンバージョン率の計算方法

コンバージョン率の計算方法は、チャネル、セールスサイクル、マーケティングファネルの段階などによって異なる。良好なコンバージョン率の基準は、価格、平均注文額、顧客生涯価値などの要素によって可変する。

大雑把な方法ではあるが、コンバージョン率は下記の式で求めることができる。

「(コンバージョン / アクション) * 100」

もしくは、

「(コンバージョン数 / 訪問者数) * 100」

例えば、とある製品ページにて、240回の訪問から12件の購入を獲得したとしよう。訪問から購入までに至るコンバージョン率は5%となる。

「(12の購入 / 240のページ訪問) * 100 = 5%」

しかし、この計算式にはコンテキストが抜けている。高額な商品の場合、240の訪問に対して5%のコンバージョン率が得られれば、大きな成功と言えよう。同じ数字でも、Tシャツを売るWebサイトの場合では、話が違ってくる。

また、トラフィックのソースや、カスタマージャーニーの段階に置いて、コンテキストは重要になる。例えば、Facebook広告(CPAは上昇傾向にある)に費用を投下している場合、ROASを向上させるため、コンバージョン率は健全な値である必要がある。

反対に、検索トラフィックからの平均コンバージョン率においては、余裕があると言えよう。仮に、月間で100,000のユニークな訪問者を継続的に獲得できており、コンバージョン率が1.2%であれば、1,200人の新規顧客を獲得していることになる。この状況において、ボトムラインを増加させるために行えることは下記である。

  • 検索トラフィックの増加
  • オーガニックトラフィックからのコンバージョン率の増加

しかし、ここでもコンテキストは重要である。検索トラフィックの増加のためには、新しいランディングページやコンテンツの作成が必要となる。「何を優先とすべきか?」が、問題となるのだ。一般的には、「より効果のあることを、より多く行う」が答えとなる。

この例では、コンバージョンの測定は、マーケティングとカスタマージャーニーにおけるインサイトを得るために、行われるべきである。これを念頭に置き、より具体的なコンバージョン率の計算式の例を見ていこう。

Facebook広告からのECサイトでの購入

ペードメディアは、ECサイトにとって、最も有益な顧客リソースの一つである。Statistaのデータによると、2020年では、ECサイトの16%が毎月20~15万ドル、14%が毎月15万ドル以上の広告費を投じているとのことだ。

例えば、Huel社は、AOVを増加させるために、商品バンドルに出稿している。

ランディングページでは、1回限りの購入ではなく、10%のディスカウントがある定期購入を提案されている。

こうすることで、長期的な顧客をより多く獲得することができ、結果として、LTVが向上する。

この例における、コンバージョン率の算出は下記である。

(定期購入の契約数 / クリック数) * 100

例えば、Huel社が1ヶ月の間に100,000クリックを発生させ、1,200の定期購入の契約を獲得した場合のコンバージョン率は下記となる。

(1,200 / 100,000) * 100 = 1.2%

上記と同じ計算式を使用し、1回限りの購入におけるコンバージョン率と比較することも可能だ。こうすることで、顧客が求めているものや、次回購入を促すために必要なものなどを把握することができる。

Huel社の場合、定期購入におけるコンバージョン率が低いことは、理解できることかもしれない。1回限りの購入におけるコンバージョン率が、定期購入におけるコンバージョン率よりも高くても、LTVが低いのであれば、優先すべきは後者と言える。

検索トラフィックからのメールの購読者

全てのコンバージョンが収益に直接関係しているわけではない。オーディエンスの獲得を目指している場合、メールの購読者数は重要な指標と言える。

例えば、Backlinkoでは、ブライアン・ディーン氏は、各ページにおいてニュースレターの申し込みのCTAを強く目立たせている。

ブライアン氏はオーガニックトラフィックの獲得を得意としている。彼が作成する全ての記事は、検索からのトラフィックの獲得を目的としている。そのため、「オーガニックトラフィックから発生したEメールの購読者数」が重要なKPIとなるだろう。このコンバージョン率を計算するために、下記の式を使用した。

(Eメールの購読者数 / オーガニックトラフィック) * 100

例えば、ブライアン氏が500,000のオーガニックトラフィックを月間で獲得したとし、3,100の購読者数を獲得したとしよう。

(3,100 / 500,000) * 100 = 0.62%

この計算式は他のチャネルや、リピーターなどの他のユーザーセグメントでも用いることができる。

コンテンツからのリードの獲得

B2BやSaaSのビジネスで、コンテンツを活用したリードの獲得を目指している場合、その取組がどれほど目標に貢献しているかを測定することは非常に重要である。

例えば、Vidyard社は、複数の動画マーケティングのトピックに関するリソースのライブラリーを保有している。

この規模でコンテンツを作成しているのであれば、それがコンバージョンに寄与しているかどうかを確認する必要があるだろう。これを算出するための計算式は下記である。

(リード数 / ランディングページの訪問者数) * 100

例えば、Vidyard社の「動画マーケティングの決定版ガイド」というコンテンツが、月に1,400のビュー数を獲得し、46のリードを獲得できたとする。

(46 / 1,400) * 100 = 0.30%

この計算式は、ブログコンテンツの読者数や、ポッドキャストのリスナー数などでも適用することが可能だ。

コンバージョン率がボトムラインに与える影響

より収益の高いビジネスを構築するために、マーケターはコンバージョン率をどのように利用しているのだろうか?

あらゆる状況でも「良い」とされる、普遍的なコンバージョン率というものは存在しない。良いコンバージョン率とは、先月のコンバージョン率よりも良いものだ。あなた自身が、基準となるのである。

コンバージョンの勝ちを理解する

コンバージョンの価値は、いくつかの要素によって決定される。前述のHuel社を用い、彼らのプロテインバンドル製品のコンバージョン率を仮定してみよう。

  • 定期購入のコンバージョン率は0.59%
  • 1回限りの購入のコンバージョン率は1.04%

表面的なコンバージョンのデータを見る限りでは、1回限りの購入の方が勝っていると考えることは可能だ。しかし、これは消費者行動やLTVを考慮に入れていない。

例えば、定期購入の顧客が、12ヶ月間のうち平均して6ヶ月の購入を継続したとしよう。この場合、フロントエンドでのLTVは390ドルとなる(65ドルの定期購入 * 6ヶ月間)。

同じ12ヶ月間において、プロテインを1回限り購入した顧客(72ドル)はさらに3つの別の製品を購入し、合計金額は150ドルとなる。

12ヶ月のLTVは222ドルとなり、定期購入のLTVよりも168ドル低くなる。これは、メールマーケティングやリターゲティングのコストを、全体の収益に反映したものではない。

この仮説のポイントは、コンバージョンと消費者行動の本当の影響を理解することである。顧客が別の行動を取り、その結果、より多くのお金を使うのであれば、例えコンバージョン率が低かったとしても、その行動の優先度は高く設定するべきだ。

コンバージョン率のデータからインサイトを得る

コンバージョン率は、あなたが達成すべき単純な指標ではない(それが楽しいことは疑う余地は無いが)。コンバージョン率は、マーケティング戦略のより良い意思決定を手助けするために存在する。

データはインサイトを得ることに役立ち、そのインサイトは質問に対する回答を行う手助けとなり際、最も有益となる。ここで言う質問とは、下記のようなものである。

  • 全体のコンバージョン率:あらゆるマーケティングチャネルでのコンバージョン率の状況はどうか?
  • 獲得コンバージョン率:どのチャネルのコンバージョン率が最も高く、その理由は何か?
  • ページレベルのコンバージョン率:どのランディングページやコンテンツのコンバージョン率が良いか?その理由は何か?
  • キャンペーンのコンバージョン率:ターゲット広告のコンバージョン率は高いか?そうである場合、どの広告グループのコンバージョン率が良いのか?
  • キーワードのコンバージョン率:どのキーワードがコンバージョンを生み出しているか?より多くの予算を投じるに値するか?

例えば、キーワードのコンバージョン率のような、指標に関係する詳細なインサイトは、戦略的な意思決定を可能とする。例えば、商業インテントの高いキーワードのグループの「コンバージョン率は、全体のコンバージョン率よりも高い、といったことを把握できるかもしれない。

このインサイトを活用し、これらの広告グループに対する予算を増加するなどの判断が可能だ。しかし、SEOやオーガニックの成長に投資するのはどうだろうか?

例えば、Huel社は「ミール リプレイスメント パウダー」や「パワード フード」などのキーワードで、上位に表示されている。

Ahrefsによれば、Huel社は、月間のオーガニックトラフィックにあたる有料トラフィックを獲得するためには、184,000ドルの投資しなければならない。

新しいマーケティング・チャネルへの投資はギャンブルのようなものだ。しかし、コンバージョンデータから得られるインサイトを活用すれば、数カ月後、数年後にポジティブなリターンを得ることを理解でき、自信を持って判断を下すことが可能となる。

コンバージョン率の計算式を活用し、最適化の取り組みを促進させる

コンバージョン率のデータから得られるインサイトは、新しい成長と最適化の機会に対し、優先度を設定することにも役立つ。ここでは、その方法を見てみよう。

高品質なデータの収集

収集しているデータが正確であり、全体的なデータであることを確認しよう。データの品質を向上させるためには、データを収集する方法を最適化し、どんなデータが最も重要であるかを定義することから始めよう。

例えば、Facebook広告を運用する場合、どのようなオーディエンスがクリエイティブに接触しているかを示す、膨大な数の指標を得ることができる。しかし、これらの指標のうち、本当に影響のある指標はどれなのだろうか?

Facebook広告のKPIとして、即座に思いつくものは下記である。

  • どのくらいのクリックが発生したか?
  • クリック率はどの程度か?
  • CPCはいくらであるか?
  • CPAはいくらであるか?
  • Facebook広告のコンバージョン率は?

これらの質問に対する回答を持ち合わせているのであれば、正確な方法でデータを収集し、整理し、セグメント化することができるだろう。

また、マーケティングデータの標準化も重要である。特に、同じ指標に対し、異なるプラットフォームが異なる数値を示している場合は注意が必要だ。

例えば、Facebook広告で発生したクリック数と、Google Analyticsでのそのソースからのページの訪問数は、差異が発生することがある。残念なことに、どちらかが正しいのかを把握することは困難である。

それよりも、どちらが自分にとっての「本当のソース」であるかを決定し、それを忠実に守ることが重要である。一貫したデータに基づいた意思決定を行うために、そのソースを「本当の方位」として利用すべきだろう。

実験に優先度を付ける

ResearchXLモデルを活用すれば、より勝利に革新をもって実験を行うことができる。

このモデルの基本的な考えは、ほとんどの実験は、3つのステップを経て成功に至る、というものである。

  1. 可能な限り多くのテストを行う
  2. 可能な限り多くのテストを成功させる
  3. 成功したテストの影響を最大化させる

ステップ1は当然ではあるが、ステップ2とステップ3は、自信にとって最重要な目標と結果を発見し、それらを実験に反映させることが重要である。

例えば、ランディングページのヘッドラインのA/Bテストを30日間行ったとしよう。これは、積み重ねの改善にはつながるが、本当に大事なことは無視されてしまっている。

恣意的に最適化の選択を行うのではなく、どのようなインプット、アクション、アウトプット、が事業の収益における最大のインパクトを与えるかを把握しよう。リサーチがなければ、そのテストも無意味になってしまう。

まずは、自社のWebサイトを構造的に見直すことから始めよう。各アセットを、下記の基準で評価するのだ。

  • 関連性:そのページは、ユーザーが居る場所に適しているか?ユーザーの期待に応えることができているか?
  • 明瞭さ:ユーザーに取ってもらいたいオファーやアクションは明確であるか?
  • 価値:あなたの製品やサービスが提供する価値を明確に伝えることができているか?
  • 摩擦:ページ内に疑問や躊躇を発生させる要素はあるか?プロセスを簡易化することは可能か?
  • 気を散らせる:ユーザーに取ってもらいたい主要な行動から気を散らせるものは何か?

これは、ヒューリスティック分析と呼ばれるものである。過去の体験によって、ページやアセットに点数をつけるものだ。こうした結論を下すためには意見が必要であり、よりデータドリブンな分析を必要とし、バイアスの存在と異議を唱えることにつなげるのだ。

定量データと定性データを収集する方法は、下記の6つである。

  1. 技術的な分析:ユーザー体験を損なう(そして、SEOの効果を妨げる)バグを特定し、修正する。これには、サイトのスピードを確認したり、Google Analyticsを用い異なるブラウザでコンバージョン率を比較したりする分析なども含む。
  2. アナリティクス分析:Webサイトでユーザーが何をしており、どのような機能がコンバージョンに影響しているか、などを理解する。
  3. マウストラッキング分析:クリックマップ、スクロールマップ、ユーザーセッションリプレイなどを使用し、訪問者がWebサイトにどのように関わっているか、より詳細に把握することが可能となる。
  4. 訂正調査:ページ上でのアクションを妨げている要素をユーザーに尋ねる。Hotjarのようなツールを使えば、簡単に行える。
  5. ユーザーテスト:ユーザーが実際にWebサイトで何を操作しているかを確認する。ユーザーがどのようにWebサイトと関わっているか、特定の要素やユーザージャーニーに対する反応はどのようなものか、などを把握することができる。
  6. コピーテスト:マーケティングの対象となるユーザーから、コピーに対するフィードバックを得る。何が不明瞭で、何が訴求力があり、また、彼らにとっての「普通」とは何か、などを把握しよう。

コピーとは、ユーザーにオファーを訴求し、説得し、教育するためのコミュニケーションの手段である。それを正しく理解することは、非常に重要である。

コピーテストを行うことで、下記の質問に対する答えを得ることができる。

  • 見出しはユーザーに何を感じさせているか?
  • 見出しは、あなたの主張を反映しているか?
  • どのような利益が、最も関心を引くか?
  • 3段落目のコピーでも理解されているか?
  • 全てを読んだ後でも不明瞭な箇所はあるか?

これを行うためには、自信でユーザーを募集する必要がある。もしくは、Wynterのようなサービスを利用し、オーディエンスパネルを設定すれば、48時間以内で完全なデータを手に入れることができる。

これらのデータを用い、明らかに優先度の高いテストを特定しよう。すぐに「勝利」を得られるテストはあるか?貧しい顧客体験を向上させるために、即座に解決すべき技術的な問題はあるか?

最適化すべき箇所を決定するためには、これらの課題がリストの最上部にあることを確認しよう。

結論

コンバージョン率の計算式の利点は、マーケティング活動におけるインサイトを得ることができることだ。上手く行っているものと、上手く行っていないものを把握することで、テストをお行い、最適化をし、改善に導くことが可能だ。

しかし、コンバージョン率は完全なものではなく、限界が存在する。コンバージョン率は、顧客体験の全体を測定することはできない。最も価値を生むためのロードマップを提供するものでもない。コンバージョン率は、パズルの1ピースにすぎない。持続可能な顧客体験を実現したいのであれば、コンバージョン率以外の箇所の最適化も必要である。

コンバージョン率は、目標や成果によって可変するため、「良い」コンバージョン率に固執する必要はない。コンバージョン率の最適化を追い求めるあまり、意味の無いROIを生んでしまい、時間とお金を無駄にすることも考えられる。

そうではなく、コンバージョンに向かって顧客を育成していることを確認し、上手くいっている箇所を強化していこう。測定すべき成功は、競合他社に対するものではなく、あなた自身に対するものである。そして、より懸命な意思決定を行うために、実験を行うという文化を構築していこう。

検索からの集客が増加すれば、基本的には、事業にとってはプラスとなるはずです。しかし、多額の資金を投じて行ったプロジェクトの成果が、ターゲットとは異なるユーザーからの集客となってしまった場合など、そのプロジェクトが本当に成功したかどうかについては、疑問が残る形となってしまいます。SEOに限らずあらゆるプロジェクトにとっての共通項であると思いますが、一つ一つの施策において、しっかりとコンバージョンに向き合うことの重要性を改めて実感いたしました。


この記事は、cxl に掲載された「Conversion Rate Formulas to Accurately Calculate Growth」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 グロースを正確に測定するためのコンバージョン率の計算式。SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

SEOのよくある20の都市伝説

SEOにおいて、ランキングの判定要素を明確に把握することは、不可能と言えます。Webサイトの状況や時期的な要素などを含め、「効果的な施策」を日々探している方も多いでしょう。そういった状況の中、真偽の程は定かではない「効果的な施策」がさも事実であるかのように語られることは多いです。今回はそうした施策を「都市伝説」と名付け、それらを検証したSearch Engine Journalの記事を紹介いたします。

この記事では、SEOの専門家が繰り返し否定しているにも関わらず、未だに存在している20のSEOの都市伝説を紹介する。

SEOについてのアドバイスは様々だ。

実際に役に立つものもあれば、従ってしまうと道を踏み外してしまうアドバイスもある。

難しいのは、それらを見分けることだろう。

事実に基づいた正確なアドバイスと、誤って引用された記事やGoogleの声明に対する不十分な理解に基づいたアドバイスを見分けることは難しい。

それゆえ、SEOの都市伝説は未だに存在しているのだ。

こうした都市伝説を奇妙な場所で耳にすることもあるだろう。

重複コンテンツのペナルティを受けていると、自信を持って話してくれるクライアントもいるだろう。

ページタイトルを60文字以内にしなかったことで怒ってくる上司もいる。

多くの都市伝説は明らかにフェイクであるとわかる。しかし、検知することが難しい場合もある。

SEOの都市伝説の危険性

そもそもの問題は、我々は検索エンジンの仕組みを正確に把握できないということだ。

その結果、SEO担当者が行う施策は、試行錯誤や経験に基づく推測に終始してしまうことも多い。

SEOを学習している過程で耳に入った話の全てを検証することは不可能だ。

こうした状況の中、SEOの都市伝説が定着する。

気が付くと、自身のWebサイトのキャッチコピーを「BERT最適化」にすると、ラインマネージャーに誇らしげに話してしまう。

SEOの都市伝説の多くは、冷静に考えれば、すぐに打ち破れるものが多い。

具体的に、Googleはどうやって測定するのか?

実際に、エンドユーザーへのメリットは存在するのか?

SEOにおいては、「検索エンジンは全能である」と考えてしまう危険性がある。そのため、検索エンジンがWebサイトを理解し、測定する方法について、明らかに無理のある理論がまかり通るようになる。

SEOの都市伝説とは何か?

よくあるSEOの都市伝説を否定する前に、そもそもそれらがどのような形式であるかを理解しよう。

検証されていない知識

SEOの都市伝説は、検証されることなく、伝え聞いたものであることが多い。

その結果、質の高いオーガニックトラフィックの獲得に全く影響しないことが、さも重要であるかのように語られる。

些細な要素が大きな割合を占める

SEOの都市伝説の中には、オーガニックのランキングやコンバージョンに大きな影響を与えないにも関わらず、非常に重要なものとして扱われることもある。

SEOの成功に必要な要素としての「チェックボックス」の場合もあるし、競合サイトとあらゆる条件が同一の場合に限り効果を発揮するものもある。

時代遅れのアドバイス

都市伝説の中には、かつてはランキングやコンバージョンに効果があったが、現在では全く効果がないことが、真剣にアドバイスされることもある。

以前は効果的であったかもしれない。

しかし、時が経つにつれ、検索エンジンはより有能になっていく。

一般ユーザーはマーケティングされることを嫌うようになった。

単純に、かつては有益なアドバイスであったものが、現在では廃れてしまっているのである。

Googleへの誤解

多くのSEOの都市伝説は、Googleから始まる。

不幸にも、Google社員が与えた、多少曖昧で、単純ではないアドバイスが誤解されることがある。

気がつくと、Google社員が冗談で行ったコメントに基づく、新しい最適化サービスが販売されるようになる。

SEOの都市伝説は事実に基づいている場合もあるが、正確には、SEOの伝説と表現すべきかもしれない。

Googleから始まった都市伝説の場合、SEO業界の解釈によって事実が歪められ、もはや有益な情報ではなくなっている場合も多い。

都市伝説と呼ばれるようになったのは、いつからか?

自身のWebサイトで効果的でなかったからという理由で、とあるSEOのテクニックが都市伝説として他者から聞くことがある。

あらゆるWebサイトが、独自の業界、競合他社、テクノロジーなどの要素があることを忘れてはならない。

全てのWebサイトに対し同一の手法を施すとその結果も同じになる、と思うことは、甘い考えだ。

本当は効果的なテクニックであるにも関わらず、非常に競合性の高い業界で試したところ成功しなかった、といった場合も考えられる。

このテクニックが、競合性の低い業界の場合、成功しないということにはならない。

因果関係と相関関係を混同してしまう

施行された施策とオーガニックでのパフォーマンスとの関係性が不適切であることによって生まれる都市伝説もある。

SEO担当者として、自身が行った施策の効果があった場合、他のSEO担当者に同じ施策を行うべきとアドバイスすることは理解できる。

不幸にも、我々は因果関係と相関関係をしっかりと区別することがそこまで得意ではないのだ。

新しい施策を行ったタイミングでランキングやCTRの上昇が見られたとしても、その施策が理由とは限らない。

その他の要因があるかもしれないのだ。

非常に熱心なSEO担当者が、誤って信じてしまっている黄金のチケットを共有することで、SEOの都市伝説が生まれることもある。

SEOの都市伝説に惑わされないために

SEOの都市伝説を見破り、適切に行動することで、頭痛や収益の損失、また、多くの時間を節約することができる。

テスト

SEOの都市伝説に惑わされないためには、人から聞いたアドバイスは、可能な限りテストをすることが重要である。

仮に、ページのタイトルをとある方法で記載すると順位が上昇する、といったアドバイスを受けた場合、まずは1つか2つのページで試してみよう。

こうすることで、多くのページに対して実行する前に、それを行う価値があるかどうかを判断することができる。

Googleはテストをしているだけなのか?

Googleが検索結果の表示方法や順番を変えることで、SEO業界が大騒ぎすることがある。

こうした変更は、検索結果全体に適用される前に、自然な状況でテストされることがよくある。

大きな変更が一人や二人のSEO担当者によって発見され、その変更に対する最適化のアドバイスが広まってしまう。

デスクトップの検索結果にファビコンが表示されたことを覚えているだろうか?

この時、SEO業界(また、Googleの一般的なユーザー)が受けた衝撃は相当のものであった。

そして、ユーザーを惹きつけるために検索結果にファビコンを表示させることが重要である、という記事が突如として公開されたのだ。

しかし、ファビコンがクリック率に与える影響を調査する時間はほとんど無かった。

なぜなら、Googleはすぐに元に戻したからである。

Googleによる変更がTwitterで拡散され、それが最新のSEOアドバイスとなる。しかし、それらに飛びつく前に、本当に有益かどうかを確認しよう。

現在は有益なアドバイスであったとしても、Googleがその変更を元に戻してしまえば、すぐに都市伝説となってしまうかもしれない。

よくあるSEOの20個の都市伝説

SEOの都市伝説の原因と根拠について理解したところで、よくあるSEOの都市伝説の真相を探ってみよう。

1.Google Sandbox

一部のSEO担当者の間では、新しいWebサイトが適切にランキングされるようになるまで、自動的に一定期間、順位が抑制されるという考えがある。

しかし、多くのSEO担当者が、これは真実ではないと述べている。

では、正しいのは誰だろうか?

長年SEOに携わってきた者の中には、Sandboxの考えを支持したり、否定したりする根拠を示してくれる。

Sandboxに対して、Googleが与えてくれた唯一のガイダンスは、ツイートによるものだ。

前述した通り、Google社員のソーシャルメディアでの発言は、しばしば誤解を招くことがある。


画像内翻訳:
「通常、新しいWebサイトがGoogleのSandboxから解放されるまでにはどのくらいかかりますか?」
「Sandboxなど存在しません。」

判定:公式には(?)都市伝説とされている

非公式ではあるが、Googleが新しいWebサイトのページを理解し、順位付けするまでには、一定の期間が必要であるようだ。

これは、Sandboxに似ている事象かもしれない。

2.重複コンテンツによるペナルティ

非常によく耳にする都市伝説である。自身のWebサイト内で、Web上のどこかにあるコンテンツと重複しているコンテンツがある場合、Googleがペナルティを与える、という考えである。

これを理解するためには、アルゴリズムによる抑制と、手動アクションの違いを知ることが必要だ。

手動アクションは、WebページがGoogleのインデックスから削除されてしまうことであり、Google内の人の手によって行われるアクションである。

Webサイトのオーナーには、Search Console経由で、その知らせが届く。

アルゴリズムによる抑制は、アルゴリズムのフィルターに引っかかった結果、上位に表示されない状況を指す。

チュック・プライス氏は、Googleが行う様々な手動アクションをまとめた記事を執筆しており、そこでこれら2つの違いを見事に説明している。

基本的には、他のWebページから引用した文章がある場合、そのWebページが上位に表示されることは難しいかもしれない。

検索エンジンは、その文章のコピー元のホストの方が、より検索クエリに関連していると判断するかもしれないからだ。

複数の同じ文章を検索結果に表示するメリットはないため、あなたのWebページの順位が上がらないことはある。これは、ペナルティでは無い。アルゴリズムがその役割を果たしているに過ぎないのだ。

プライス氏が紹介しているように、コンテンツに関連した手動アクションはいくつか存在する。しかし、他のWebページのコンテンツを1~2ページコピーしたところで、その要因となることはない。

しかし、そのWebページのコンテンツを利用する法的な権利がなければ、別の問題が生じることもある。また、あなたのWebサイトが提供するユーザーに対する価値を損なってしまうかもしれない。

判定:SEOの都市伝説

3.PPC 広告はランキングの助けとなる

これはよくある都市伝説であり、すぐに否定することができる。

これは、ペイパークリック広告で多くのお金を費やしているWebサイトを、Googleが検索結果において優遇する、という考えである。

これは、単純に間違えである。

Googleの自然検索結果の順位を決定付けるアルゴリズムは、PPC広告の掲載場所を決定付けるアルゴリズムとは、完全に別物である。

SEOと同時期にGoogleの広告のキャンペーンを行うことで、Webサイトの利益となる場合も考えられるが、これは全く別の理由であり、直接的な恩恵をもたらすことはない。

判定:SEOの都市伝説

4.ドメインエイジはランキング要素である

この考えは、「因果関係と相関関係の混同」の問題と言える。

Webサイトが長期間運営されており、上位に表示されていることから、ドメインエイジはランキング要素である、という考えである。

Googleはこの都市伝説を何度も否定している。

事実、2019年7月に、ドメインエイジを「200個のランキング要素」の1つである、と言及するツイートに対し、Googleのウェブマスター・トレンドアナリストであるジョン・ミュラー氏が、「ドメインエイジは何の助けにもならない」という返信をしている。

ドメインエイジはランキング要素ではない
画像内翻訳:
「ドメインエイジは信頼性を向上させるだけでなく、200以上あるランキング要素のうちの1つです。」
「いいえ。ドメインエイジは何の助けにもなりません。」

この都市伝説の背景にある事実は、古いWebサイトは長い時間をかけて良いものを作ってきた、ということである。

例えば、10年間運営されているWebサイトの場合、重要となるページに、大量の関連性のあるリンクを獲得しているかもしれない。

運営期間が6ヶ月以内のWebサイトが、こうしたWebサイトに対抗することは難しいだろう。

より長く運営されているWebサイトの方が順位が良いように見えるかもしれないが、ドメインエイジが決定要素であるとは考えられない。

判定:SEOの都市伝説

5.タブ付きのコンテンツはランキングに影響する

これは古くからある考えである。

前提として、Googleはタブやアコーディオンの裏に記載されているコンテンツには、大きな価値を与えない。

例えば、ページを最初に開いた場合には表示されないテキストなどである。

Googleは、2020年3月31日にこの都市伝説を再度否定しているが、多くのSEO担当者が何年間も議論している内容である。

2018年9月、Googleのウェブマスター・トレンドアナリストであるゲイリー・イリェーシュ氏は、コンテンツを表示するためにタブを使用することについて、Twitterのスレッドで回答している。

彼の回答は以下である。

「私が知る限り、何も変更はない。そうしたコンテンツを我々はインデックスするし、ランキングにも考慮される。しかし、スニペットでは太字で表示されないかもしれない。そのコンテンツがWebサイトによってどのように表示されるかについては、もっと別の、より技術的な問題である。インデックスには上限があるのだ。」

コンテンツがHTML内に表示されている限り、ページを読み込んだ際に最初にユーザーからは見えないからという理由で、そのコンテンツの評価を下げると考える理由はない。

これはクローキングに該当するわけではなく、Googleは簡単にコンテンツを取得することができる。

Googleに表示されることを妨げる要素が他にない限り、そのコンテンツは、タブではないコンテンツと同じように重み付けされるべきである。

さらに詳しい説明が必要だろうか?

そうであれば、この都市伝説を覆した、ロジャー・モンティ氏の投稿を確認してほしい。

判定:SEOの都市伝説

6.GoogleはGoogle Analyticsのデータを順位付けに使用している

これは、多くのビジネスオーナーに共通した考えである。

彼らはGoogle Analyticsのレポートを確認している。

Webサイト全体で、平均直帰率が高いと感じ、ページ滞在時間が短いと感じている。

これらの理由により、GoogleがそのWebサイトを低品質なWebサイトであると判断していると、心配になるのだ。

それが原因で、ランキングが上昇しないと考えているのである。

Google Analytics内のレポートをランキングアルゴリズムの一部として、Googleは使用しているという都市伝説がある。

これは昔からある都市伝説である。

Googleのゲイリー・イリェーシュ氏は、次のシンプルな言葉で、この都市伝説を否定している。

「我々は、Google Analyticsのデータをアルゴリズムに使用していません。」

論理的に考えれば、Google Analyticsのデータをランキングに活用することは非常に難しい。

例えば、フィルターを活用することでデータを操作し、実際には発生していないパフォーマンスを、発生しているように見せることは可能である。

そもそも、良いパフォーマンスとは何か?

「ページ滞在時間が長い」ということは、長文のコンテンツでは良いと言える。

しかし、「ページ滞在時間が短い」ということは、短いコンテンツにとっては適していると言える。

どちらが正しく、間違っているのか?

Googleは、各Google Analyticsの複雑な設定を理解する必要がある。

複数のボットを除外している場合もあれば、そうでない場合もある。

カスタムディメンションやチャネルグループを設定している場合もあれば、そうでない場合もある。

こうしたデータを信頼できるデータとして確実に使用することは、非常に複雑な作業となる。

また、他の解析プログラムを使用しているWebサイトも、何十万と存在している。

Googleはこれらをどのようのにして扱うというのだろうか?

判定:SEOの都市伝説

この都市伝説は「相関であり、因果では無い」の1つのケースと言える。

Webサイト全体の直帰率が高いということは、そのWebサイトの品質に問題があることを示している場合もあるし、そうでない場合もある。

ページ滞在時間が短いということは、あなたのWebサイトが魅力的でないことを意味する場合もあるし、あなたのコンテンツが素早く理解されていることを意味する場合もある。

これらの指標は、上位表示されていない理由を知る手がかりとはなりうるが、直接の原因とはなり得ない。

7.Googleはドメインオーソリティを考慮している

PageRankはWebページの重要度を測るための、Googleによるリンク解析アルゴリズムである。

かつて、GoogleはPageRankのスコアを、10を最大値として、ツールバーの上部に表示していた。

その後、2013年にツールバーの上部に表示されるPageRankのスコアを更新することを、Googleは停止した。2016年、Googleはツールバーの上部に表示されるスコアを今後は使用しないことを認めた。

PageRankが無くなり、多くのサードパーティ製のオーソリティスコアが開発された。

よく知られているものをまとめてみよう。

  • MozのDomain AuthorityとPage Authority scores
  • MajesticのTrust FlowとCitation Flow
  • AhrefsのDomain RatingとURL Rating

Webページの「価値」を判断するため、これらのスコアを使用するSEO担当者もいる。

しかし、これらの指標は、検索エンジンによるWebページの評価を正確に反映しているものではない。

一般的に、SEO担当者は、Webサイトのランキングパワーをバックリンクのプロフィールと共に言及することが多い。

これもドメインオーソリティとして知られている。

混乱の要因はここにあると考えられる。

Googleの担当者は、Googleが使用しているとされているドメインオーソリティという概念を否定している。

ゲイリー・イリェーシュ氏は次の言葉を用いて、この都市伝説を否定している。

「我々は、”全般的なドメインオーソリティ”は持っていない。」


画像内翻訳:
「全般的なドメインオーソリティにとって、jpgのURLへのバックリンクは、WebページのURLのバックリンクと同等の影響があるのですか?」
「我々は、”全般的なドメインオーソリティ”は持っていない。アンカーテキストのあるテキストリンクの方がより良くはあるが。」

判定:SEOの都市伝説

8.コンテンツは長ければ長いほど良い

長文のコンテンツの方が順位が高い、という話を一度は聞いたことがあるだろう。

より多くの単語を含んだページは、自動的に競合サイトのページよりも順位が良くなるという考えだ。

この考えは根拠がほぼ無いに等しいにも関わらず、SEOのフォーラムでしばしば「知恵」として共有される。

「検索結果で表示される上位10位のWebページでは、平均で1,450単語以上が含まれている」など、上位に表示されるWebページにおける真実として発表された調査は数多くある。

この情報だけを切り取り、1ページ目に表示されるためには1,500単語以上が必要である、と考えることは容易である。しかし、これはこうした調査が言わんとしていることとは異なる。

不幸にも、これは相関関係の例であり、因果関係を示すものではないのだ。

とある調査結果で、上位に表示されているページが、11位以下のページよりも文字数が多かったとしても、文字数がランキング要素であると言うことはできない。

Googleのジョン・ミュラー氏は、この都市伝説を否定している。


画像内翻訳:
「上位に表示されている記事と同じ単語数を用いたとしても、それだけで上位に表示されることはない。USBの充電器を大量に保持したところで、月に行くことはできないのと同じだ。」

判定:SEOの都市伝説

9.LSIキーワードは上位表示の助けとなる

LSIとは、正確には何を指すのであろう?

LSIとは、”潜在意味解析:latent semantic indexing“の略である。

テキスト内の概念を分析し、それらの関係性を明らかにするという、情報検索の手法である。

言葉は、その文脈によって、ニュアンスが変わる。”right”という言葉は、”left”という言葉と組み合わせた場合と、”wrong”という言葉と組み合わせた場合とでは、そのニュアンスが異なる。

人間であれば、テキスト内の概念を素早く判断することができる。しかし、機械にとっては、それは容易ではない。

機械が概念を理解するためには、エンティティ同士の文脈や関係性を理解する能力が必要となる。

LSIは、機械がテキストを理解する能力を前進させるための手法である。

しかし、LSIは同義語ではない。

不幸にも、同じような言葉やテーマとして関連している言葉を用いれば、テキスト内で明確に記載されていない言葉であっても、ランキングをあげることができるとSEO界隈では理解されている。

単純に、これは真実ではない。GoogleはLSIをはるかに凌駕する文章理解の技術を用いており、BERTなどはその例に該当する。

クラーク・ボイド氏による記事を読むことで、LSIとは何か、また、より重要なことである、LSIでないものは何か、ということについて、より深い理解を得られるだろう。

判定:SEOの都市伝説

10.SEOの効果を得るためには3ヶ月かかる

この都市伝説を用いることで、上司やクライアントとのしつこい会話から抜けだす事ができる。

約束した結果が出なくとも、十分な余裕を持つことが可能だ。

「SEOの効果が出るまでには、最低でも3ヶ月はかかる」

検索エンジンのボットが処理を行うための時間に変更が生じるのは当然のことだ。

もちろん、そうした変更がポジティブなものになるか、ネガティブなものにあるか、それを見極める時間も必要だ。そして、より多くの時間をかけて、あなたの作業を洗練させ、微調整する必要があるかもしれない。

しかし、それがSEOの名の下に行われるあらゆる作業が、3ヶ月間何も効果を生まないというわけではない。ランキングに変化が表れるのは、90日間が経過したタイミングであるとは言い切れない。

より多くの要素が絡んでいるのだ。

競争力が低く、ニッチなキーワードでの上位表示を狙っている場合、Googleが再クロールするだけでランキングに変化が見られることはある。

競合性の高いキーワードの場合、順位に変化が見られるまでにより多くの時間がかかる可能性はある。

200万キーワードを分析したAhrefsによって行われた調査では、Googleの検索結果で10位以内に表示されているWebページの平均年齢は、650日であったとのことだ。この調査では、新しいページが上位に表示されることは困難であることを示している。

しかし、SEOには、Googleの検索結果で10位以内に表示されること以上の意味がある。

例えば、Googleマイビジネスのリスティングを上位に表示させ、素晴らしいレビューを掲載することができれば、企業にとって大きなプラスとなる。

Bing、Yandex、Baiduであれば、検索結果で上位表示させることはより容易であるかもしれない。

ページタイトルの些細な調整がクリック率に影響を与えるかもしれない。検索エンジンが再クロールすれば、その日のうちに改善が見られるかもしれない。

Googleの検索結果の1ページ目に表示されるまでには時間がかかるかもしれないが、SEOの成果をそれだけに留めることは賢明ではない。

そのため、「SEOの効果が出るまでには3ヶ月間かかる」と単純に言うことはできないだろう。

判定:SEOの都市伝説

11.直帰率はランキング要素である

直帰率とは、Webサイトへの訪問のうち、ページを閲覧しただけで終わる訪問の割合のことである。これは、Google AnalyticsのようなWebサイトの分析プログラムによって測定される。

SEO担当者の中には、それが品質の測定となるという理由で、直帰率をランキング要素を主張する者もいる。

残念ながら、直帰率は品質を測る指標として適切ではない。

Webページにアクセスした人が、そのWebサイトでは何もせずに去ってしまう理由は様々である。そのページで必要な情報が全て得られ、予約を取るために会社に電話するため、そのWebサイトを去ったのかもしれない。このケースの場合、そのWebサイトの企業にリードが発生したことになる。

Webページを訪問したユーザーがそのまま去ってしまうことは、コンテンツの質が低いことを示しているかもしれないが、必ずしもそうであるとは限らない。それゆえ、検索エンジンがWebページの品質を測る指標としては、十分な信頼があるデータとはなり得ないのだ。

検索結果に表示されるWebページをクリックし、その後、再び検索結果に戻ってくるという行動である「ポゴスティッキング」は、ランディングページの品質を測る為の、より信頼性のある指標となりうる。これは、そのページがユーザーが求めている情報を掲載していないことで、別のページを探したり、再検索することを意味している行動である。

Googleのジョン・ミュラー氏は、2018年の7月のウェブマスターハングアウトにて、この点について明らかにしている。

「検索においては、そのようなシグナルを用いないようにしている。ユーザーが行ったり来たりする事や、検索結果で色々なものを見たりする事や、Webページには僅かに滞在し、また戻ってきたりする事には、多くの理由があるためである。これらを活用し、”ランキング要素として用いよう”とするのは、本当に難しいだろう。」

判定:SEOの都市伝説

12.全てはバックリンクである

バックリンクが重要であることが議論されることはほとんどない。しかし、どの程度重要であるかについては、いまだに議論されている。

バックリンクは複数ある戦術の1つであり、ランキングに影響するが、最も重要なものではない、と伝えるSEO担当者もいるだろう。また、バックリンクこそが重要な要素である、と伝えるSEO担当者もいるだろう。

我々が把握していることは、リンクの効果は時間と共に変化しているということだ。以前は、リンクビルディングの戦術とは、可能な限り多くのリンクを自分のWebサイトに集めることであった。

フォーラムのコメントや無関係なディレクトリサービスでも、リンクの良いソースであった。

効果的なリンクを構築することが容易であったのである。

現在は容易ではない。Googleはアルゴリズムを変更し続け、質と関連性が高いリンクには恩恵を与え、「スパムな」リンクには効果を無視したり、ペナルティを与えたりしている。

しかし、リンクによるランキングへの影響は依然として高い。

SEOが成熟していない業界では、リンクビルディングに投資せずとも、コンテンツの品質や技術的な要素によって、Webサイトを上位表示できる場合もあるだろう。

しかし、ほとんどの業界では、それは当てはまらない。

もちろん、関連性の高いリンクはランキング上昇の手助けとなる。しかし、他の最適化の施策と連動する必要がある。

Webサイトには関連性の高いコンテンツが必要であり、クロールが可能でなければならない。

Googleのジョン・ミュラー氏は、「リンクは間違いなく、最も重要な要素ではない」と述べている。


画像内翻訳:
「リンクは間違いなく、最も重要な要素ではない」

Webサイトに訪問してくれるユーザーに実際に何かをしてもらいたいのであれば、バックリングが全てではない。

ランキングは、Webサイトに訪問したユーザーにコンバージョンしてもらうための、ほんの一部にすぎない。ユーザーエンゲージメントにおいては、コンテンツとユーザービリティは非常に重要なのである。

判定:SEOの都市伝説

13.URL内のキーワードは非常に重要

URLにキーワードを詰め込みましょう。きっと順位が上昇するはず。

残念ながら、それだけでは効果は見られないだろう。


画像内翻訳:
「URL内のキーワードは、GoogleのSEOにおいて、過大評価されている。URLはユーザーのために作成しよう。また、モバイルにおいては、URLを見る機会も少ない。」

ジョン・ミュラー氏は、URL内のキーワードは非常に軽微なランキング要素であると、何度も発言している。

URLを書き換え、より多くのキーワードを含めようとしても、良いこと以上に悪いことが起こるだろう。

Webサイトの再構築は常にリスクを伴う。URLを一斉にリダイレクトさせる作業は、必要な場合に限り、行うべきだ。

URLにキーワードを追加するために、それを行うべきか?いや、その価値はない。

判定:SEOの都市伝説

14.Webサイトの移行はリダイレクトが全てである。

SEO担当者によって、よく言われる言葉である。Webサイトを移行する場合、変更されるURLのリダイレクト設定を怠らないことだ。

本当にこれだけで良いのであれば、どれほど良かったか。

実際には、Webサイトの移行は、SEOの中でも最も複雑な作業が求められるものの1つである。

レイアウト、CMS、ドメイン、コンテンツなどの変更は全てWebサイトの移行とみなすことができる。

これらの例では、検索エンジンがターゲットキーワードとの関連性やページの品質を認識することについて影響しうる側面が複数ある。

その結果、該当のWebサイトのランキングとオーガニックトラフィックを維持したいのであれば、多くのチェックと設定が必要となる。

トラッキングに不備がないか確認する。コンテンツのターゲットを維持する。検索エンジンが適切なページにアクセスできることを確認する。

Webサイトが大幅に変更される際には、これらの全てが考慮されている必要がある。

変更されるURLのリダイレクトの設定は、Webサイトの移行において非常に重要な要素である。しかし、それが唯一のものではない。

判定:SEOの都市伝説

15.よく知られたWebサイトは、あまり知られていないWebサイトよりも、常に上位に表示される

大規模なWebサイトには、小規模なWebサイトにはないリソースがあることは、当然である。その結果、SEOへのより多くの投資が可能となる。

より魅力的なコンテンツが作成され、より多くのバックリンクを獲得することができる。ブランド名が知られることで、リーチ活動の信頼性がより高まる。

問題は、Googleはビッグブランドの知名度を、アルゴリズムや人の手によって、意図的に高めているのだろうか?ということである。

これについての議論は存在する。

Googleはビッグブランドを優遇していると主張する者もいる。Googleはそうではないと言っているが。

2009年、Googleは”Vince”というアルゴリズムをリリースした。このアップデートは、検索結果におけるブランドの扱いに大きな影響を与えた。

オフラインでよく知られているブランドは、競争の激しいキーワードで上位に表示されるようになった。

小規模なブランドは勝負を諦めるべき、ということではない。

Vinceアップデートは、権威性と品質を重視するGoogleの他の動きと合致したものである。

ビッグブランドは、小規模なブランドと比較し、広域のキーワードでより権威性があることは、よくある。

しかし、小規模なブランドにも勝機はある。

ロングテールのキーワード、ニッチな製品、ローカルでの露出など、これらは全て小規模なブランドの方が関連性を高めることが可能なものである。

もちろん、ビックブランドが有利な状況に変わりはないが、ビックブランドを凌駕することが不可能であるわけではない。

判定:全てが事実であったり、都市伝説であったりするわけではない

16.ローカルSEOで上位に表示されるためには、「近くの○○」をページに含める必要がある

この都市伝説がいまだに広まっていることは理解できる。

SEO業界では、いまだにキーワードの検索ボリュームが重視されている。その結果、ユーザーの意図や検索エンジンによる理解を疎かにしてしまうこともある。

検索者が「ローカルの意図」、つまり、物理店舗の場所やサービスなどを探している場合、検索エンジンはこの点を考慮した上で、検索結果を返す。

Googleにおいては、通常の検索結果に加え、Googleマップの結果が表示されることもあるだろう。

Googleマップの検索結果は、検索された場所を中心に表示される。しかし、検索クエリがローカルの意図を含んでいる場合は、通常の検索結果も同様である。

では、なぜ、「近くの○○」という検索は、混乱を招くのだろうか?

一般的なキーワード調査の結果は、下記のようなものだろう。

  • ピザレストラン マンハッタン – 110(月間検索数)
  • マンハッタン ピザレストラン – 110 (月間検索数)
  • マンハッタンで一番おいしいピザ屋 – 90回 (月間検索数)
  • マンハッタンで最高のピザレストラン – 90 (月間検索数)
  • 近くのピザレストラン – 90,500 (月間検索数)

検索ボリュームがこのような場合では、「近くのピザレストラン 」が上位に表示されるのでは?と考えるのも無理はない。

しかし、「ピザレストラン マンハッタン」と検索するユーザーは、現在マンハッタン周辺にいる人か、マンハッタンにピザを食べに行く予定の人であると考えることができる。

「近くのピザレストラン」は、全米で90,500回検索されている。これらの検索の大部分が、マンハッタンのピザレストランを探しているわけではないだろう。

Googleはこのことを理解しており、位置情報を用い、検索者がいる場所に関連したピザレストランを、検索結果に表示するようにしている。

そのため、「近くの○○」という検索においては、キーワード自体よりも、キーワードの背後にある意図が重視されるようになる。Googleは、検索者がいる場所だと考えるのみである。

では、「近くの○○」という検索で上位に表示されるためには、「近くの○○」というコンテンツを含める必要があるのだろうか?

いや、そうではない。検索者がいる場所に関連している必要があるのだ。

判定:SEOの都市伝説

17.コンテンツが良ければ上位に表示される

SEOのフォーラムやTwitterのスレッドでよく言われていることである。よくある不満としては、「私のコンテンツは素晴らしい。しかし、競合サイトのページが上位に表示されている。彼らのコンテンツはひどいものなのに」といったものだ。

強い不満を持っている。詰まるところ、検索エンジンは「素晴らしい」コンテンツがあるWebサイトに恩恵を与えるべきではないのだろうか?と。

これは都市伝説であり、妄想とも言える。

コンテンツの品質というのは主観的なものである。自分自身のコンテンツに対しては、客観的に判断することはより難しくなるだろう。

おそらく、Googleからすると、あなたがターゲットとしている検索ワードにおいて、競合サイトのコンテンツよりも、あなたのコンテンツの方が優れているとは映っていないのだろう。

おそらく、競合サイトほど、検索者の意図に合致していないのかもしれない。

もしかしたら、コンテンツを「過度に最適化」してしまい、結果として品質を落としてしまっているのかもしれない。

コンテンツの質が高ければ、順位が上昇するといったケースはある。また、サイトの技術的なパフォーマンスの低さや、ローカルの関連性の低さが要因となり、順位が下がることもある。

コンテンツは、ランキングアルゴリズムの中の1要素に過ぎないのだ。

判定:SEOの都市伝説

18.ブログを毎日更新すべき

この都市伝説は非常に残念なものである。なぜなら、SEO業界以外にも広まってしまっているからである。

Googleは更新頻度の高いコンテンツを好む。そのため、新しいコンテンツを追加したり、既存のコンテンツを調整したり、Webサイトの「新鮮さ」を保つために、毎日ブログを更新すべきである。

このような考えはどこから来たのだろうか?

2011年、Googleはアルゴリズムのアップデートを行い、より新鮮なコンテンツに恩恵を与えるようにした。

これは、一部のクエリにおいては、新鮮なコンテンツであるほど、正確性が増すからである。

例えば、2013年のイギリスで、「ロイヤルベイビー」と検索すると、ジョージ王子に関するニュース記事が検索結果に表示されていた。2015年に「ロイヤルベイビー」と検索した場合は、シャーロット王女に関するページが表示されていた。

2018年では、Googleの検索結果にはルイ王子に関する記事が上位に表示され、2019年では、アーチーちゃんの記事が上位に表示された。

もし、2019年のアーチーちゃんが生まれた直後で「ロイヤルベイビー」と検索した場合、ジョージ王子のニュース記事が上位に表示されても何の役にも立たないだろう。

この例では、Googleはユーザーの検索意図を判断し、最も新しいイギリスのロイヤルベイビーに関連する記事を上位表示するようにした。権威性などの要素から判断するよりも、より良い検索結果になる、という判断だ。

このアルゴリズムは、新しいコンテンツが古いコンテンツよりも常に上位に表示される、ということを意味するわけではない。Googleは、「そのクエリが新鮮さに値するかどうか」を判断するのである。

もしそうであれば、コンテンツの年齢がより重要なランキング要素となる。

つまり、単純に競合他社よりも新しいコンテンツを作成するだけで、常に上位に表示されるとは限らないのである。

例えば、「ウィリアム王子の2番目の子供はだれ?」といったクエリのように、ターゲットとしているキーワードが新鮮さに値しない場合、コンテンツの年齢は重要なランキング要素とはならないのである。

もしも、あなたが毎日コンテンツを書いており、その目的がWebサイトの鮮度を保ち、ランキングでの評価を高めることであれば、それは時間の無駄と言える。

よく練られ、調査され、有益なコンテンツを、頻度を少なくしてでも書き、権威性や共有性の高いコンテンツを作成するためにリソースを確保した方が良い。

判定:SEOの都市伝説

19.コピーは一度最適化すれば完了

「SEOに最適化された」コピーというのは、エージェンシーの世界ではよく使われるフレーズである。

これは、よく検索されるクエリに関連したコピーを作成するプロセスを説明する際に、よく使われる。

この表現の問題点は、一度コピーを書いて、検索者の質問に適切に答えていることを確認すれば、もう次に進むことができる、という考えに基づいていることだ。

残念ながら、検索者によるコンテンツの探し方は、時間と共に変化する。使用するキーワード、求めるコンテンツの種類なども変化することもある。

また、検索エンジン自体も、クエリに対する最も関連のある答えに対する考えを変更するかもしれない。そのため、キーワードの背後にある意図への認識も変化するかもしれない。

検索結果画面のレイアウトも変化するかもしれない。例えば、今までは通常のWebページが検索結果に表示されていたとしても、動画が最上部に表示されるかもしれない。

ページを一度見ただけで更新することはせず、ユーザーのニーズに合わせて進化させずにいると、相対的な遅れとなる可能性がある。

判定:SEOの都市伝説

20.SEOには正しい方法がある

これは複数の業界で言われていることではあるが、SEO業界では一般的なようだ。SEOのソーシャルメディア、フォーラム、チャットなどでは、多くのゲートキーピングが行われている。

残念ながら、話はそう単純ではない。

SEOについては、核となる考えがいくつか存在する。

通常、検索エンジンの代表者によって述べられたものは、分解され、テストされ、そして、最終的に真実だと宣言される。

それ以外は、個人的、もしくは、集団的なトライアンドエラー、テスト、そして経験による結果である。

SEOのビジネスの機能として、プロセスは非常に価値のあるものだ。しかし、それらは、進化し、適切に適用されなければならない。

異なる業界内の、異なるWebサイトが、他のWebサイトとは異なる方法で、変化に対応していく。メタタイトルを60文字以下の長さに変更することで、クリック率の向上の助けとなるかもしれないが、別のページではそうではないかもしれない。

最終的には、何らかのSEOにおけるアドバイスをもらった場合、その内容が自分のWebサイトに適しているかどうかを、事前に考える必要があるのだ。

判定:SEOの都市伝説

結論

都市伝説の一部は、何らかの論理によって発生したものもある。また、それ以外は、意味のないものもある。

今回の記事を読むことで、真実かそうでないか判断がつかない考えを耳にしたとき、その対処法が理解できたと思う。

全部で20個の都市伝説を紹介した、ボリュームのある記事でした。SEOに長く携わっていなければわからないもの、長く携わっているからこそ信じてしまうもの、それらは様々ありますが、「自身のWebサイトにとって必要かどうか?」はすべてのWebサイトで共通する考えだと思います。Googleの進化に併せ、都市伝説の進化(?)は今後も続くと思われますが、実装する前の考察と検証は、ぜひ行いたいと思います。


この記事は、Search Engine Journal に掲載された「How to Spot SEO Myths: 20 Common SEO Myths, Debunked」を翻訳した内容です。



お役立ち資料ダウンロード

アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

無料でダウンロードいただけますので、ぜひご活用ください。

>>お役立ち資料を見てみる
>>メールマガジンに登録する

投稿 SEOのよくある20の都市伝説SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

Googleの特許。検索意図を満たすための、コンテキストに基づいたクエリの書き換え。

Googleより先日発表されたMUM(Multitask Unified Model)のように、Googleは次々と新しい検索技術の開発に取り組んでいるようです。Googleの検索精度には目を見張るものがありますが、その仕組みは非常に複雑でブラックボックスとなっております。そうした中、Googleが取得する特許の内容を見ることで、その仕組みを垣間見ることも可能です。今回は、ビル・スロウスキー氏による、Googleが取得した特許の解説記事を紹介します。

Googleの新しい特許によれば、検索者の意図をより良く満たすために、その検索におけるコンテキストに基づいたクエリの書き換えをGoogleは行っているようだ。

何年もの間、私は検索の背後にあるインテントについて議論している情報のソースを見てきた。検索エンジンの特許や、それらの特許について検索のエンジニアが述べていたことにも目を向けている。

Googleが「特定のコンテキストに対する検索者の意図の予測」という特許を新たに取得した際、この特許の著者を私は注目した。この特許は2021年2月に取得されている。

このような、検索意図についての特許に私は興味を持ち、「適切なクエリは検索エンジンがユーザーの検索意図を理解することに役立つ」や「なぜユーザーはGoogleを使用するのか?検索意図を測定するためのユーザーデータへの理解」といった記事を書いてきた。

これらは、検索関連のカンファレンスで私が出会ったプレゼンテーションのテーマでもある。こうしたプレゼンテーションでは、SEO担当者はターゲットキーワードの検索結果を見るべきだ、という主張がされている。

プレゼンテーションのスピーカーは、ターゲットキーワードで表示されているページの背後にある検索意図を見るべきだと勧めている。他の人がそのキーワードに対し、どのような最適化を施しているか、そのアイデアを得るためである。

検索意図に基づく、この新しい特許が意味するところは?

「特定のコンテキストに対する検索者の意図の予測」は、検索者は情報や事実を得るためにコンピューターデバイスを使用し、検索者が特定のタスクを完了する手助けをすることができる、という内容から始まる。

検索エンジンにとって、あらゆる検索は、情報を発見しようとする際に使用されるクエリ(または、キーワード)を推測することから始まる。

この特許では、検索者が探している情報にコンピューターデバイスが検索者を導くためには、検索者が十分な情報(つまりは、検索クエリ)を提供する必要があると伝えている。
検索クエリが十分に調整されていない場合、または、検索者がクエリ以外の追加情報を十分に提供していない場合、コンピューターデバイスが返す情報量が過多となる可能性に注意すべきだ。

これは、最も興味深い情報や関連性のある情報を検索者が見つけにくくなってしまうことを意味する。

他の多くの特許と同様、この特許の説明の冒頭では、検索者が抱える可能性のある問題について言及している。

これらは、検索者が情報を探そうとする際に出くわす問題である。

非常に詳細なクエリをコンピューターデバイスに入力し、コンピューターデバイスに複数の検索を実行させ、大量の検索結果をふるいにかけたりしながら、特定のタスクを完了させるために必要な情報を得ることに、検索者はストレスを感じたり貴重な時間を無駄にしてしまう可能性がある。

多くの特許は、その特許で特定されている問題を解決するための方法を提供するアルゴリズムについての提案をしているが、今回の特許はまさにその点を突いている。

この特許の技術は、コンピューターデバイスが特定のコンテキストに対するクエリの検索意図を予測することに役立つ可能性を示している。

検索エンジンは、コンテキストの情報を見ることで、クエリの背後にある検索意図を把握することができるかもしれないのだ。

この特許では、いくつかの例が挙げられている。

  • 場所
  • ユーザーのインテント
  • 時間帯
  • コンピューターデバイスは検索クエリに関連するコンテキストを定義し、その関連するコンテキストに基づいて、その検索で使われたクエリのインテントや目的を予測することができるとしている。

    この特許でのプロセスは検索結果を調整し、その検索から返される他の情報よりも、インテントを満たすための情報が強調されるようにする。

    この特許では、こうしたプロセスを説明するための実例が挙げられている。

    そのコンピューターデバイスのユーザーが映画館で公開されている特定の映画のチケットを購入した後、ユーザーはクエリの一部としてその特定の映画の名前を使用して、コンピューターデバイスに検索を実行させるかもしれない。

    この特許のプロセスでは、その特定の映画のチケットがすでに購入されているという情報を含むコンテキストを取得することができる。

    これに応答し、その特定の映画の名前を含む検索は、追加のチケットを購入する以外の目的を推測(例えば、他のコンピューターデバイスで実行されたユーザー主導のアクションを示すログデータに基づくなど)するかもしれない。

    これにより、このシステムは、検索結果を調整し、その特定の映画の情報(例えば、レビュー、記念品、豆知識など)よりも、映画の上映時間の情報を下位にランク付けすることができる。

    この特許の発案者は、コンテキストについての説明のために、なぜ映画を例に挙げたかを説明している。

    映画のチケットを購入した後という現状で、検索者が探している可能性が高い情報を強調するように検索結果を自動的に調整することで、このシステムは検索者のストレスを軽減し、貴重な時間やリソースを無駄にしないようにすることができる。

    (検索クエリに映画の名前を含めることで)検索結果の中から必要な情報を探す時間を短縮することができる。

    また、この特許では、クエリ内のコンテキストに関わる情報を使用することで、検索の背後にあるインテントに基づいたより良い検索結果を返す手助けとなるが、個人を特定できる情報を検索結果に表示させないようにしている。

    簡単な言葉に言い換えると、人々が望む情報を提供する、ということになる。

    また、個人のプライバシーについても真剣に考えている。

    例えば、ユーザーの位置情報は、そのデータを取得する際に(市区、郵便番号、州など)地理的な位置を一般するなどして、個人を特定できないような処理を行うことができる。

    この特許は、下記にて参照することができる。

    特定のコンテキストに対する検索者の意図の予測
    発明者:ユー・ジン・リム、ジョセフ・リン、ユーリン・リアン、カーステン・ステインベック、ウェイ・ロー・ルー、ドン・ヒュー・キム、ジェームス・カンズ、ローレン・コエフニック、ミン・ヤン
    譲受人: Google LLC
    米国特許: 10,909,124
    取得日: February 2, 2021
    出願日: May 18, 2017

    概要

    一連のコンピューターデバイスによって実行された、ユーザー主導のアクションに基づいて、コンピューターデバイスから返された特定のクエリを用いた、検索意図を決定するコンピューターデバイスについての説明。

    検索意図に基づき、少なくとも検索から得られた検索結果の特定の一部を、検索意図を満たす情報を強調するように、検索結果を調整する。

    コンピューターシステムは、調整された検索結果を、コンピューターデバイスに送信する。

    コンテキストを意識することで検索意図を予測する

    クエリを実行される際に考慮される可能性のある、コンテキストの情報の種類について、以下の情報が含まれる可能性をGoogleは示唆している。

  • ユーザーの興味のある事柄(例:ユーザーが気に入るもの、ユーザーの興味グラフや他の種類のデータ構造として保持されているもの)
  • ユーザーに関連する連絡先情報(例:ユーザーの個人的な連絡先、ユーザーの友人や同僚についての情報、ソーシャルメディアのつながり、家族)
  • 検索履歴
  • 位置情報の履歴
  • 長期、短期のタスク
  • カレンダーの情報
  • アプリケーションの使用履歴
  • 購入履歴
  • お気に入り
  • ブックマーク
  • コンピューターデバイスやインフォメーションサーバーシステムが取得できる可能性のある、ユーザーについての他の情報
  • コンピューターデバイスの動作状況についての情報
  • 様々な場所や時間における、ユーザーやコンピューターデバイスの、物理的や仮想的な環境
  • 検索者にとって有益で役に立つ情報を提供するクエリを予測するために、検索エンジンはどのようにしてコンテキストについての情報を活用しているのだろうか?

    これが、この特許が示すポイントである。

    予測モジュールは、機械学習モデル(例:ディープラーニングモデル)を実行し、検索クエリ(もしくは、検索クエリの一部)とコンテキストモジュールから受け取った現在のコンテキストを入力情報を受け取る。

    機械学習モデルは、現在のコンテキストに対する検索クエリを使用した、検索意図の表示(ラベルや他の指標)をアウトプットとして生成する。

    予測モジュールによって決定された検索意図は、事前に定義されているインテントのグループから選択されるかもしれない。

    事前に定義されているインテントの例としては、交通機関や旅行に関するインテント(例:ライドシェア、フライトの状況、チケットの購入、スケジュールなど)、エンターテインメントに関連するインテント(映画のレビュー、上映時間、チケット購入、キャストメンバーの経歴、アルバムや曲のレビュー、アーティストの経歴、アーティストのツアー日程)などが挙げられる。

    また、インテントに関連したスコアを決定することもある。

    そのスコアについて、この特許では下記のように説明されている。

    インテントのスコアは、インテントを満たす情報を得るために、現在のコンテキストに基づいた検索クエリを使用した検索を実行するにあたり、その確信の程度(例:確率やその他の可能性の程度)を示している。

    もちろん、そのスコアで特定の閾値を満たすという表現をすることもできる。

    そのスコアが十分に高くない場合、検索エンジンはそのインテントに基づく検索結果の調整を行わないかもしれない。

    反対に、その閾値を超えていれば、該当のクエリのインテントの影響をより強くするかもしれない。

    この特許では、検索者の状況に合わせたニーズや情報についてのニーズを満たす検索結果を提供するため、インテントをどのように活用するかについてを詳細に説明している。

    検索結果におけるインテントの拡大

    過去、検索のエンジニアがインテントと検索についての記事を書いた際、彼らはインテントについて下記のように語っている。

  • インフォメーショナル
  • コマーシャル
  • トランザクショナル
  • ナビゲーショナル
  • インフォメーショナルのインテントでは、ピザの歴史やピザのレシピなど、クエリについての情報を返す検索結果を提供する。

    コマーシャルのインテントでは、近くのピザ屋やピザの生地、ソース、オーブンなどを販売しているお店など、クエリに関連する何かを購入する方法を返す検索結果を提供する。

    トランザクショナルのインテントでは、ピザのデリバリーの注文など、何らかのアクションを行うことができる検索結果を提供する。

    ナビゲーショナルのインテントでは、検索者が過去に訪れたことがあるページや、存在を知っているページの検索結果を提供する。例えば、ドミノピザの発祥地や取締役の情報などが挙げられる。

    まとめると、この特許は検索のコンテキストに着目しており、それに基づいて検索の背後にあるインテントを推測しようとするものである。

    これにより、そのコンテキストに関連する情報を含むようにクエリを書き換えることも含まれる。

    検索技術の中でも、特にパーソナライズの領域の話であったという印象です。パーソナライズと言えばDiscoverが真っ先に頭に浮かびましたが、通常の検索でもそのような体験を組み込もうとしているのかもしれません。ますます便利になるGoogleですが、Webサイト側としては少しでも有益な情報を提供するよう、日々精進していきたいものです。


    この記事は、Search Engine Journal に掲載された「Google Patent: Rewriting Queries Based on Context to Meet Intent」を翻訳した内容です。



    お役立ち資料ダウンロード

    アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

    無料でダウンロードいただけますので、ぜひご活用ください。

    >>お役立ち資料を見てみる
    >>メールマガジンに登録する

    投稿 Googleの特許。検索意図を満たすための、コンテキストに基づいたクエリの書き換え。SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

    最適化のための、KPI(キーパフォーマンスインジケーター)

    事業の評価測定のための指標を探している中で迷走してしまうことはよくある。しかし、重要ないくつかの指標に集中することは、最大の成果をもたらすことにつながる。

    そのため、注力すべき指標を見極めることが重要となる。この記事では、KPI(キーパフォーマンスインジケーター)を定義し、設定するために、あなたが知るべきことを解説する。

    KPI(キーパフォーマンスインジケーター)とは何か?

    KPIとは、事業として重要な側面における運営がどのようなものか、また、どのくらいのボリュームがあるかを測定するために使われる、定量的な活動のことを指す。Webサイトにおいては、「売り上げ」、「訪問者数」、「カートに入れられた金額の平均」など、様々な指標が用いられる。

    KPIは指標であるが、あらゆる指標がKPIとなるわけではない。また、相互に排他的な用語でもない。ある情報が測定可能だとしても、その測定値が情報になるとは限らない。KPIは特定の目標に対して結果をもたらすものなのである。

    マクロコンバージョンとマイクロコンバージョン

    設定した指標は、「マクロコンバージョン」、もしくは、「マイクロコンバージョン」とつながっている。マクロコンバージョンは、あなたのWebサイトにおける主要な目的、つまり、ユーザートラフィックを収益に変えるということを意味する。

    一方、マイクロコンバージョンとは、収益を生むマクロコンバージョンへの経路の途中にあるものであったり、収益を生むことと直接の関係をもたない、ユーザーが完了するアクションのことである。プロセス内のマイルストーン、もしくは、副次的なアクションが、マイクロコンバージョンに該当する。

    チェックアウトの訪問者数、ユーザーあたりのページビュー数、カートへの追加数などがこれにあたる。しかし、マイクロコンバージョンはKPIではない。マイクロコンバージョンに注視しすぎるべきではない理由については、こちらをご確認いただきたい。

    どの指標がKPIにならないのか?

    一般的に、後回しにできる指標は、ユーザーあたりのページビュー数、クリック率、直帰率、ユーザーの平均滞在時間などである。金銭に直接は関わらない指標が該当する。ユーザーがWebサイトで過ごす時間は、多いほうが良いのか?それとも、少ないほうが良いのか?一概に答えることはできない。では、ユーザーがWebサイトに費やす金額は多いほうが良いのか?少ないほうが良いのか?この場合の答えは、間違いなく「多いほうが良い」となる。

    その他のマイクロコンバージョンとしては、チェックアウトページへの訪問数、カートへの追加数、訪問したページ数などが該当する。これらは興味深い指標ではあるが、ユーザーの「購入」を促す役割を果たすことはない。

    マイクロコンバージョンをわざわざ観測する必要はあるのか?

    ジャード・スプール氏のCXL Live 2017での発言

    「訪問者数は重要である。訪問者がいなければ、売り上げが立つこともない。しかし、売り上げほど重要であるわけでもない。事業上、重要とならない指標は多くあるため、こうした指標には多くの注意を割く必要はない。」

    こうした行動によってお金が発生することはない。これらの事柄は素晴らしいものではあるが、自身のサービスに対する対価を得ることにはつながらないのだ。

    しかし、こうした指標やマイクロコンバージョンを全く観測する必要が無い、というわけではない。こうした指標を追うことで、Webサイトやサービスのどの箇所に注意を払うべきかを把握でき、将来的なコンバージョンにつながる礎を築いてくれるのだ。

    しかし、意思決定においては、マイクロコンバージョンではなく、「お金に関わる指標」を元にすべきであるのだ。

    Webサイトの最適化における4つの重要なKPI

    1)訪問者一人当たりの収益

    訪問者一人当たりの収益(RPV:Revenue per visitor)とは、簡単に言うと、訪問者一人当たりの平均の収益額のことである。

    Webサイトにおけるどのような行動が、最終的な収益の発生につながっているのかを把握することができるため、RPVは重要な指標となる。この数値が高いほど、あなたの事業が生み出す収益は高くなるのだ。

    2)コンバージョン率

    金額を測定できない場合(例:リードジェネレーションを目的とした、何も販売していないWebサイトでない)は、次善策としてコンバージョン率が挙げられる。

    コンバージョン率がどのようなものか、わからないだろうか?その場合は、「初心者向けコンバージョン最適化」の記事の#1をご確認いただきたい。

    3) 顧客獲得コスト

    顧客を獲得するにはお金がかかる。そして、顧客を獲得する際にかかる費用は、「顧客獲得コスト(CAC:customer acquisition cost)」として知られている。顧客1人を獲得する初期コストは、1顧客がコンバージョンした際に得られる収益よりも、小さくなければならない(つまり、LTVよりも低くなければならない)。

    ここでの目標は、プロセスを完璧にすることであり、その結果、支出と時間を最小限とし、収益を最大化させることである。

    ForEntrepreneurs.comのデイビッド・スコック氏による発言

    「あなたが次のビジネスを計画している起業家であれば、顧客獲得にかかるコストを無視する余裕はない。この課題に取り組む時期は早ければ早いほど望ましい。あらゆる最善策は、新しい方法で製品を作る必要があるからだ。

    また、自身にこう問いかけることも重要である。自身のビジネスは、収益化できる金額よりも低い金額で顧客を獲得することができるか?そして、それは現実的な期待であるか?」


    バランスが取れている事業バランスとは、このようなものである(画像のソース

    実質的に、多くのスタートアップ企業が失敗する最大の理由は、上記の画像のバランスが逆になっているからである。CACが顧客のLTV(つまり、生涯価値)を上回ってしまっているのである。

    ConstantContact社は、LTVを把握することで、顧客獲得のための費用を大きく下げることに成功した。

    「ConstantContact社の顧客は、平均して、45か月間滞在する。価格帯は月額39ドルであるため、一人あたりの生涯収益は約1,800ドルとなる。つまり、ConstantContact社は、450ドルの獲得単価(CPA:cost-per-acquisition)で収益を上げることができる。」

    しかし、過度に重要視することは危険である。LTVは、時として、嘘をつくのだ。

    4)顧客生涯価値

    最も重要なKPIはLTVであるとする者もいる。LTVとは、「将来を含めた、顧客との関係性全体を起因とする、純利益の予測」である。基本的に、その顧客から生涯にわたってどれほどの利益を得ることができるか、ということを意味する。

    最も重要な顧客を、生涯を基準として評価することが重要である。その顧客が、長期的にどれほどの価値となるか、把握する必要があるのだ。

    例えば、月額50ドルのサブスクリプションの製品に3人の顧客が同時に申し込んだとしよう。1人は1ヶ月、2人目は3ヶ月、3人目は2年間、サービスを継続してくれた。入会時の金額は50ドルと同一であるが、LTVにおいては大きな差異がある。それぞれ、50ドル、150ドル、1200ドルとなるのだ。

    顧客が事業に提供してくれる価値は、すべて同一であるわけではない。そのため、LTVの高い顧客を早期に予測できることができれば、それに越したことはない。

    しかし、LTVの測定は非常に困難である。顧客の障害価値を測定できている企業は、約40%ほどである。唯一の方法は、情報を集め、予測モデルとして組み立て、抽出したデータを元に顧客の行動を予測することである。

    顧客生涯価値の計算式とは?

    LTVの算出方法は、事業内容によって異なる。ここでは、SaaSのLTVにおける典型的な計算方式を紹介しよう。


    (MRRはMonthly Recurring Revenueの略であり、月ごとの定期収入を意味する)(画像のソース

    直接購入をしてくれる顧客の価値は高いのは当然であるが、こうした顧客は、別の行動によって収益の向上に一役買ってくれる。口コミや紹介などの、間接的なマーケティングはその一例である。こうした特徴やサイトへの訪問などの行動を追跡することが、LTVのモデルを作成するうえで最も有効であると言える。

    なぜ、これらの計算式は重要なのか?

    こうした計算式の主要な価値は、マーケターに対し、予算をどの領域に投下し、顧客を獲得するためにどの程度のコストがかかるのか、そういった考えを与えてくれるからだ。優先順位をつけ、高額購入者へのアプローチに集中することで、マーケティングがより簡単になる。

    また、特定の顧客からの長期的な収益を知ることで、利益を確保しつつ割引が可能であるか、事前に価格を設定できるか、顧客をページに誘導することができるか、などを判断することができる。

    適切な指標を計測し、それらの改善に取り組むことで、費やした金額を取り戻し、さらには利益を上げるための戦略を立てることができるのだ。

    LTVのモデル化

    顧客を獲得する際にLTVを予測するにはどうすべき良いのか?これは、非常に難しい。

    ウォートンスクールのマーケティング教授であるピーター・フェイダー氏による発言

    「新しく顧客を獲得した場合、彼らとの取引についてのデータはほとんどないため、彼らのLTVを正確に算出することは困難である。

    しかし、獲得プロセスの中には有益な情報が含まれている。例えば、獲得チャネル、ファネルやキャンペーンの情報、最初の取引自体の情報(購入した商品、支払った金額、使用した割引)などである。

    過去に取引した顧客の中から、このような特徴を持った顧客を探せば、彼らのLTVは把握しているはずである。そのため、こうした要素に基づいて、他の顧客とどの程度似ているかを、重みづけされた他の顧客の加重平均をとることにより、新規顧客に対する「推定値」を算出することができる。

    複雑なプロセスに見えるかもしれないが、実はそうではない。実際、企業はこの算出をほぼリアルタイムで自動で行うことができる。その結果、顧客との関係性を築くきわめて早い段階で、その顧客をVIPレベルで扱うべきかどうか、即座に読み取ることができるのだ。」

    こうした作業を行うには、Google Analyticsのようなデータ収集を自動で行ってくれるソフトウェアを使用することが一番である。また、独自でモデル化を可能とする、様々なGoogleスプレッドシートも存在する。

    LTV予測モデル

    では、どのようにして予測モデルを構築できるだろうか?最も簡単な答えは、データサイエンティストを雇用しよう、ということになる。社内にデータサイエンティストがいない場合は、以下の方法が考えられる。

    有用な方程式は、

    (平均販売額) X (リピートの取引数) X (リテンションの平均期間(月または年))

    である。

    ジムの会員メンバー

    ここでは、事務の会員メンバーを例に挙げて説明してみよう。

    「簡単な例として、毎月20ドルを3年間支払ってくれるジムメンバーのLTVを挙げてみる。この顧客のLTVは、

    20ドル X 12ヶ月 X 3年間 = 720ドル (もしくは、年間240ドル)

    この簡単な例からも、多くのジムが新規顧客を獲得するために、初回無料のキャンペーンを行う理由がおわかりだろう。ジムのオーナーは、新規顧客の獲得費用が240ドル以下であれば、短期間でその顧客からの利益を得られることを知っているのだ。」

    このように、このジムは、顧客一人当たりの獲得予算を算出し、利益を増やすためのプロセスに着手することができる(何かを販売してお金を得るのでなければ、リード数やコンバージョン率が主なKPIとなる)。

    実際はどのようなものなのか?

    Kissmetrics社のメンバーが、2004年から2012年のデータを用い、スターバックスの顧客の平均LTVをモデル化している。このモデルは2017年に作成されたモデルであるが、LTVの予測モデルを作成する上で、良い例となっている。

    特徴抽出データ

    一般的に、スターバックスの平均的な顧客の行動を評価するためには、3つの指標が必要となる。「1回の来店ごとの顧客支出」、「1週間当たりの訪問回数」、「1週間当たりの平均顧客価値」がそれにあたる(「1週間当たりの平均顧客価値」は、週当たりの顧客支出と来店回数の両方を掛け合わせて算出している)。

    顧客変数を含むこれら3つのデータセットの平均値を把握できれば、いよいよ算出を開始できる。上記で算出した平均値を用い、一定の定数を考慮に入れ、全体的な生涯価値を算出するための方程式を作ることができた。

    ここでは、一般的な3つの公式が採用された。「単純なLTVの方程式」、「顧客LTVの方程式」、「伝統的なLTVの方程式」の3つである。これら3つの全ての方程式から得られた結果を平均して、LTVを算出した。

    企業によってLTVは異なる。需要なことは、どのような顧客が長期的に自社と関りを持ち、商品を購入しているのかに焦点をあて、顧客満足度を高めることである。最終的に解約されたり、投資価値が低くなる可能性のある「安い」、「平均的」な顧客にリソースを費やすのではなく、ユーザーに対して、投資するようにしよう。

    一般的に、マイクロコンバージョンを指標とすることは可能ではあるが、KPIとしてはふさわしくない。4つの重要なパフォーマンス指標は、以下である。

    訪問者一人当たりの収益
    コンバージョン率
    顧客獲得コスト
    ライフタイムバリュー

    顧客コストを把握することで、マーケティング予算にどの程度投資すべきかを決定することができる。


    この記事は、CXL に掲載された「Key Performance Indicators (KPIs) for Optimization」を翻訳した内容です。



    お役立ち資料ダウンロード

    アイオイクスでは、SEO施策の実施や検討に役立つ資料をご用意しています。

    無料でダウンロードいただけますので、ぜひご活用ください。

    >>お役立ち資料を見てみる
    >>メールマガジンに登録する

    投稿 最適化のための、KPI(キーパフォーマンスインジケーター)SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。

    【上級編】Core Web Vitals。テクニカルSEOガイド。

    すでに至る場所で話題となっている通り、Core Web Vitalsの各指標がランキング要素に組み込まれる、ページエクスペリエンスアップデートが間もなく導入される予定です。2021年6月中の展開を予定されていますが、Googleとしては、「劇的に順位が変更されるアップデートではない」とアナウンスしています。検索結果での順位もそうですが、何よりユーザー体験に焦点を当てた場合、改善を進めたい領域です。今回は、Core Web Vitalsの各指標を詳細に解説した、Search Engine Journalの記事を紹介します。

    テクニカルSEOの専門家は、ユーザーを中心としたより良い体験の構築ために、Webサイトを診断し、ソリューションを提供する必要がある。この記事では、CWVを改善するために必要な知識を紹介する。 続きを読む 【上級編】Core Web Vitals。テクニカルSEOガイド。

    【7/9無料セミナー】Googleの動向から見るSEOのトレンドと、SEOプロジェクトの取り組み方

    6月3日の深夜、Googleが半年ぶりにコアアルゴリズムアップデートのロールアウト開始を発表。

    それ以降も続く、怒涛のアップデートラッシュ。

    このところ動きの活発なGoogleなどのSEO最新事情を踏まえ、SEOのプロジェクトをどう進めたらよいか、わかりやすく解説します。

    • 「コアアルゴリズムアップデート」ってそもそもなんなの?
    • 色々動きがあったみたいだけど、結局何すればよいの?
    • これからSEOに取り組みたいけど、どう進めたらよいかわからない
    • 自社でSEOに取り組んできたが、行き詰まりを感じている

    このような思いをお持ちの方は、ぜひご参加ください。

    セミナーの概要

    目次

    • Googleの動向から見るSEOのトレンド
    • SEOの優先度を決める方法
    • 実際のSEOプロジェクト運用方法について

    ※当日までに内容は変更となる可能性がございます。

    登壇者

    遠藤 幸三郎
    Endo Kozaburo

    美術大学卒業後、アイオイクス株式会社にWebデザイナーとして入社。
    10年以上にわたり、数多くのSEOプロジェクトに携わる。

    2019年よりWebコンサルティング事業部のマネージャーに就任。

    「事業理解に基づくWebマーケティング」をモットーに、大手出版社、M&A企業、小売メーカーの戦略立案・CV改善・YouTube活用・ソーシャルツール活用など幅広く支援。

    趣味は料理、絵を描くこと、サウナ。

    Twitter:@KouzaburouE

    日時

    2021年7月9日(金) 16:00~17:00

    タイムテーブル

    • 15:50~16:00:配信準備
    • 16:00~16:35:セミナー
    • 16:35~16:40:休憩
    • 16:40~17:00:質疑応答

    ※ご質問がなくなり次第、終了となります。

    参加人数

    80名まで
    (応募者多数の場合は、抽選を行います。)

    対象となる方

    • 企業のマーケティング担当の方
    • 今後Webマーケティングへの取り組みを検討されている企業の方

    ※恐れ入りますが、同業他社の方・個人の方・広告代理店の方の応募はご遠慮ください。

    参加費

    無料

    会場

    Zoomによるオンライン配信となります。
    当選された方には、視聴可能なリンクをお送りいたします。

    アクセス

    なし

    その他

    後日、個別相談会もご用意しております。
    ご希望の方は、別途お送りするアンケートよりお申し込みください。

    申し込みフォーム

    お申し込みは、以下のフォームよりお願いいたします。
    当選された方には、後日視聴用のURLおよびアンケートをお送りいたします。

    プライバシーポリシーをご覧の上、ご応募ください。

    投稿 【7/9無料セミナー】Googleの動向から見るSEOのトレンドと、SEOプロジェクトの取り組み方SEO Japan|アイオイクスのSEO・CV改善・Webサイト集客情報ブログ に最初に表示されました。