Wayback Machineに新機能「Changes」が追加。コンテンツの追加と削除の差分が比較可能に

Wayback Machineは、任意のURLにおける過去のWebページを閲覧できるツールです。

今回、Wayback Machineに過去のコンテンツの変更を比較・分析できる新機能「Changes」が追加されました。これはSEOやサイト改善を行うWeb担当者にとって、有用な機能となりそうです。

新機能「Changes」、その概要をご紹介します。

Wayback Machineの新機能「Changes」では、同じURLを異なる日付で比較し、変更・追加、または削除されたコンテンツを確認できる

Wayback Machineは、特定のURLにおけるコンテンツの変更履歴を、ユーザーが識別しやすくするために設計された「Changes」という名前の新しい機能のベータ版を追加した。「Changes」はコンテンツの追加と削除を黄色と青色で強調表示する。

「Changes」の使い方

Wayback Machineにアクセスして、特定のURLを入力した後、Enterを押す。

SEO Japanの例

次に、URLボックスの下にある「Changes」ボタンをクリックすると、カレンダービューがロードされる。そこで、Wayback Machineが撮った2つのスクリーンショットを比較することができる。

(SEO Japanの例。黄色が削除、青色が追加を示す。記事が更新されて過去の記事が2ページ目以降に行くと、削除された扱いとなるようです。)

インターフェイス

以下は、比較したい2つのスクリーンショットを選択した時のインターフェイスの画像である。

※黄色が「コンテンツの削除」、青が「コンテンツの追加」。緑になっている箇所は、コンテンツの削除と追加が同時に行われたことを示している。

現在、Changesはベータ版である

現在、「Changes」はベータ版であり、十分な機能があるとはいえない。

コンテンツの削除は黄色で強調表示され、コンテンツの追加は青色で強調表示される。

なお、現段階で、このツールは正しく機能していないため、正確性や安定性に欠けることがある。

Changesはどのような用途に有用か

「Changes」は、SEO担当者が以下のような目的で使用する上で、優れたツールである。

  • 新規ドメインの調査
  • 新規クライアントのサイト履歴の分析
  • リンク分析
  • コンテンツ分析

サイラス・シェパードは自身のTwitterで以下のように述べた。

もし、サイト変更を診断・追跡するためにWayback Machineを使用したことがあるのであれば、あなたにとって、Changesの追加は素晴らしいアップグレードになるだろう

この記事は、Search Engine Landに掲載された「Wayback Machine adds ‘changes’ feature」を翻訳した内容です。

Wayback Machineの新機能「Changes」の概要をご紹介しました。

コンテンツの追加や削除を視覚的に確認できるのは、とてもありがたいですね。Changesはまだベータ版とのことですが、今後より使いやすくなっていくことでしょう。

サイト改善において、「自社やクライアントのサイトがどのように変更されてきたのか」を把握することは非常に重要です。ぜひサイト改善に役立ててみてはいかがでしょうか。

WordPress5.0の新エディタ「Gutenberg(グーテンベルグ)」の使い方

Gutenbergとは、Wordpress5.0から採用された新しいテキストエディタのことだ。 従来のエディタとは画面構成や操作感が大幅に変わっているため、とまどった人もいるだろう。しかし一度操作に慣れてしまえば旧エディ […]

Webmaster Conference: 最適なイベントをあなたに

Google では長年にわたり、数百ものカンファレンスやイベントに参加して数千人ものウェブマスターの皆様にお話をしたり、数百時間にもおよぶ動画を録画したりすることで、ウェブ制作者の皆様が Google の検索結果でのパフォーマンス向上に役立つ情報を容易に入手できるよう努めてきました。今回それをさらに一歩進めて、海外の会議への参加が困難な方でも同じ情報を入手できるようにしたいと考えました。

そこでこの度 Google は、Webmaster Conference を世界各地で開催していくことを正式に発表します。このイベントは主に、検索カンファレンスへの参加や Google 検索関連情報の入手が困難な地域や、特に検索イベントの必要性が高い地域で開催します。たとえば、ある地域でハッキングされたサイトの問題が生じていることが判明した場合は、そのトピックに焦点を当てたイベントを開催するかもしれません。

Google は、言語、経済状況、性別、場所などの属性に関係なく、ウェブ制作者の皆様に平等に機会を提供したいと考えています。そのため、Webmaster Conference は常に無料で、その地域のアクセスが容易な場所で開催されます。また、地域のコミュニティからのフィードバックと分析に基づいて、イベントに登録した皆様に適したものになるよう調整が行われます。つまり、このイベントは、参加者が Google 検索に対して持ち合わせている知識に関係なく、必要な情報を得られるように調整されているということです。スピーチは開催地の言語で行われ、他言語の場合は通訳が付きます。ご要望に応じて、可能な限り手話通訳も提供したいと考えています。

Webmaster Conference Okinawa

イベントの構成は地域によって異なります。たとえば日本の沖縄では、ウェブ制作の初心者から上級者の方までが一堂に会し、Google 画像検索でのパフォーマンス向上に焦点を当てた有意義なイベントが、半日にわたって開催されました。Webmaster Conference IndiaWebmaster Conference Indonesia では構成を変えて、より高速なウェブサイトの開発に焦点を移すことが考えられます。今年の後半にはヨーロッパと北アメリカでもウェブ コミュニティを開催する予定です。詳しくは今後の発表をお待ちください。

Google は、今後もこれまでどおり外部のイベントに参加します。ここで紹介したイベントは、既存のイベントを補完する目的で開催するものです。今後のイベントについて詳しくは、毎月更新される Webmaster Conference サイトをご覧ください。また、Google のブログ@googlewmc(Twitter)のフォローもお忘れなく!

【ビギナー向け】サイト内検索のデータからユーザーニーズを発見し、サイト改善に活用しよう

Webサイトの改善策として重要な、しかし、忘れられがちな「サイト内検索」。

今回の記事は、この「サイト内検索」の重要性を解説した記事となります。「サイト内検索」が頻繁に利用されるサイトとあまり利用されないサイトがあるとは思いますが、しっかりと分析をすれば、意外な改善点が浮かび上がることもあります。

改善点の手がかりとなりうる「サイト内検索」。その活用法を振り返ってみましょう。

Webサイトへの訪問客は、改善につながる多くのデータを残してくれている。こうしたデータをコンテンツ改善の計画に役立てよう。

多くのマーケターが活用しきれていないが、最も基本的で価値のあるデジタルマーケティングツールが一つある。サイト内検索だ。

あなたのサイト内でユーザーが検索している情報から学ぶべき内容は多い。マーケターはこのデータを分析し、ユーザー体験の改善やより多くのリード、顧客、売上の獲得に活かすべきである。

サイト内検索とは?

サイト内検索は、特定のキーワードやフレーズを入力することで、ユーザーがWebサイト内で探している情報を提供する機能である。

サイト内検索を利用することで、ユーザーは目的の情報に直接アクセスすることができ、サイト内のナビゲーションを使用するよりも早く到達できることもあるだろう。

Google Analyticsのレポート

Google Analyticsは「行動」内で「サイト内検索」のレポートを提供している。このデータを見ることで、Webマスターとマーケターは、自身のサイトのコンテンツをユーザーがどのようにして探しているかを理解することができる。

「サイト内検索」のレポートは、ユーザーについての非常に価値ある情報を提供している。下記に抜粋してみよう。

  • ユーザーがWebサイト上のコンテンツを探す際に使用したキーワード
  • ユーザーが検索を開始したページ
  • 検索した後、ユーザーがアクセスした目的のページ
  • 検索した後のユーザーの滞在時間
  • 検索をした後、サイトを離脱したユーザーの割合

下記は「サイト内検索キーワード」のGoogle Analyticsのレポートの例である。
※元記事では「サイト内検索のカテゴリ」のレポートと記載されていますが、画像から「サイト内検索キーワード」のレポートと判断しました。

また、下記は、「検索ページ」のレポートの一例である。

サイト内検索のレポートへのアクセス方法

自身のWebサイトでユーザーがどのようにして検索しているかを見るためには、Google Analyticsのビューの設定で、「サイト内検索」をオンにする必要がある。

備考:URLに検索カテゴリのクエリの文字列が含まれている場合、サイト内検索のカテゴリもオンにする必要がある。

サイト内検索のデータを活用する最適な方法

トップページのコンテンツを最適化する

トップページはユーザーのニーズに沿って設計されるべきである。サイト内検索で最も頻繁に使用されているキーワードを確認しよう。

現状のトップページは、「そのキーワードに関連するコンテンツが含まれているか」、また、「サイト内検索で使用されたキーワードがコンテンツ内でも使用されているか」という点を確認しよう。

トップページにてユーザーが探している情報を提供することで、自然検索結果の順位改善や、トラフィックや見込み客の増加などが期待できるだろう。

サイト内検索のデータを確認した結果、多くのユーザーが特定の商品やサービスを探していることがわかった場合、トップページからこの商品やサービスについての情報に簡単にアクセスできるようにしよう。

トップページのスライダー、コンテンツのウィジット、該当ページへのリンクのデザインなどが改善の対象となるかもしれない。

追加コンテンツの必要性を特定する

サイト内検索のデータを確認することで、ユーザーにとって重要となるトピックを特定することができるだろう。

サイト内検索のデータをもとにWebサイトを改善したり、ターゲットユーザーが必要としている情報をコンテンツに追加したりするなどの計画を立てることができる。

サイト内検索のデータを利用することで、ユーザーのニーズとコンテンツのギャップを特定することができ、ユーザーが最も関心のあるトピックをコンテンツに追加することができる。

例えば、Webサイトには商品に関連する情報は豊富にあるが、ユーザーが求めているのはサポートやサービスについての情報、といったことも起こりうる。

サイト内検索はユーザーについての直接的で、アクショナブルなデータを提供してくれる。このデータをもとに、Webサイトの改善についての優先度を決定したり、サポートやサービスについての追加情報の作成を判断したりすることが可能だ。

Webサイトのナビゲーションを改善する

ナビゲーションはユーザーが目的の情報に簡単にたどり着くことができよう、設計すべきだ。ユーザーが際限なくサイト内検索を使用するといった状況を作るべきではない。

サイト内検索は、「最も検索された」という観点で、貴重なデータを提供してくれる。ナビゲーションの選択肢から、ユーザーが求めるコンテンツを発見でき、アクセスできるようにしよう。

頻繁に検索されるコンテンツは、サイト内の奥深くに設置すべきではない。目的のページにたどり着く前に、ユーザーに対し多くの経路を通過し、複数のクリックを強いることになってしまうからだ。上記の例では、「サービスとサポートのページは、メインのナビゲーション内に含めるべき」と判断できる。

サイト内検索の結果ページを改善する

サイト内検索のデータを分析した結果、多くのユーザーがサイト内検索を使用した後、サイトから離脱してしまっていることがわかったとしよう。その場合、サイト内検索の結果ページを改善すべきかもしれない。

まずは、最も頻繁に検索されるトピックやキーワードの検索結果画面から確認すべきだ。

  • 関連性のあるページを返しているか
  • 検索結果ページのナビゲーションは見やすいか
  • 複数のデバイスやブラウザで適切に表示されているか

こうした条件を満たしていないのであれば、下記の項目を確認してみよう。

  • ユーザーが検索する情報に基づいて、サイト内のコンテンツの配置を見直す
  • コンテンツを最適化し、頻繁に検索されるキーワードが含まれているようにする
  • 適切な結果を返すように、サイト内検索のアルゴリズムを深く理解する

目的のページの選択と改善

Google Analuyticsのレポートのプライマリディメンションにて、「検索のリンク先ページ」を選択できる。「検索のリンク先ページ」とは、ユーザーがサイト内検索を行なったのち、直接アクセスしたページのことである。

「検索のリンク先ページ」を読み、そのページはユーザーが探している内容を提供しているコンテンツであるかを確認しよう。

コールトゥアクション(CTA)に関連するように目的のページを改善すれば、ユーザーは次のアクションを起こしやすくなり、必要な情報を得て、あなたへの問い合わせを行うかもしれない。

サイト内検索のデータを分析する方法

Webマスター(Web担当者)とマーケティング担当者は、サイト内検索のデータをカスタマイズすべきだ。下記のような指標を設定し、カスタムレポートを作成できる。

  • メディア:ユーザーが訪問した際の流入元
  • ランディングページ:ユーザーがランディングしたページ
  • 開始ページ:ユーザーが検索を開始したページ
  • 検索キーワード:ユーザーが入力した検索キーワード
  • 検索のリンク先ページ:ユーザーがサイト内検索を行った後、訪れたページ
  • 検索回数の合計:該当のキーワードで検索されたユニークな数

このカスタムレポートはサイト内検索のファネルとして活用でき、サイト内検索を使用したユーザーのサイト内の遷移を明らかにする。サイト内検索のユーザージャーニーの一例を記載しよう。

サイト内検索を通じて、ユーザーは非常に重要なデータをWebサイトに提供してくれる。

ユーザーニーズの把握、Webサイトの全般的な改善、見込み客への必要なデータの提供、コンテンツ作成のプランなどに、サイト内検索のデータを活用しよう。

サイト内検索という、あなたが手にすることができる、最も基本的で価値のあるツールの一つを忘れてはならない。

この記事は、Search Engine landに掲載された「Back to basics: How to capitalize on site search insights」を翻訳した内容です。

サイト内検索の機能を充実させることはもちろん、実際にユーザーが残してくれたデータを元に、サイトの設計やコンテンツの見直しをすることも重要です。

ユーザーへのアンケートやA/Bテストも必要ですが、サイト内検索のデータも決して無視することはできません。

Webサイトの改善策として、サイト内検索のデータを活用できていない方は、これを機にデータを確認してみてはいかがでしょうか。

メールマガジン購読のご案内

SEO Japanでは、SEOやCRO(コンバージョン率最適化)を中心としたメールマガジンを週に一度、木曜日に配信しています。

担当者のコラム(読み物)や、質の高い記事をピックアップして配信していますので、ぜひご購読ください。

SEO Japanのメールマガジンを購読する

なお、noteにてバックナンバーも公開していますので、ぜひ試し読みしていただければと思います。

SEO Japan|note

Search Console で構造化データのモニタリングする

構造化データに関する前回の記事で、構造化データとは何か、なぜサイトに追加すべきなのかという点について説明しました。Google では構造化データを重視しており、関連する検索機能の強化やツールの改良に継続的に取り組んでいます。そのため、Google はウェブマスターやデベロッパーの皆様による構造化データの実装および診断を支援するソリューションの開発に力を注いでいます。

この記事では、サイトの構造化データをモニタリングし、最大限に活用するために、Search Console でできることについて説明します。また、より有用な新機能についてもご紹介します。以下が新たに追加される内容です。詳細については記事の中で取り上げます。

  1. 構造化データの構文エラーを集計できるように、「解析不能な構造化データ」の項目がレポートに追加されました。
  2. 拡張レポートに、サイトリンク検索ボックスロゴの項目が追加されました。

構造化データ全体のパフォーマンスをモニタリングする

Search Console では、ウェブサイトで構造化データに関する問題が新たに検出されるたびに、アカウント所有者にメールが送信されます。しかしながら、既存の問題が悪化した場合には、メールは送信されません。そのため、定期的に Search Console を確認する必要があります。

毎日そのような作業を行う必要はありませんが、すべての機能が意図したとおりに動作しているか、時折確認することをお勧めします。ウェブサイトへ変更を加えた際にはしばらくして Search Console で変更が上手く行ったかどうかを確認するのを習慣づけるのも良いかもしれません。

サイトの特定の構造化データ機能に関するすべてのエラーについて把握しておきたい場合は、左側のサイドバーにある拡張メニューに移動し、確認したい機能をクリックします。すべてのエラーと警告、正常な項目について、概要を確認できます。

冒頭で述べたとおり、今回、新たにサイトリンク検索ボックスロゴの項目がレポートに追加され、サイトの構造化データについてより詳細に把握できるようになりました。レシピ、イベント、求人情報などの既存のレポート項目に加えられています。レポートの詳細については、Search Console ヘルプセンターをご覧ください。

では、ここで拡張レポートのサンプルを見てみましょう。レポートに表示されるのは、拡張レポートの中でもページで検出された項目のみです。次のような内容を確認するのに役立ちます。

  • エラー、警告、正常な項目の傾向の確認: 棒グラフの上のボックスで色分けされた項目をクリックすると、それぞれの詳細が表示されます。
  • ページごとのエラー、警告の確認: 棒グラフの下の個別の行をクリックすると、現時点で問題の影響を受けているページが例示されます。
画像: レシピの拡張レポート

今回、解析不能な構造化データに関するレポートも導入されています。これは、構造化データの構文エラーなどにより、Google による機能タイプの識別が妨げられているケースを集計するものです。機能タイプの識別ができないことから、機能別のレポートを生成するのではなく、このようなケースの集計を行うことにしています。

サイトに追加しようとした構造化データが解析されなかった場合には、データの種類にかかわらず、このレポートを確認してください。解析の問題が発生しているということは、サイトでリッチリザルトを活用できる機会が失われている可能性があります。下のスクリーンショットは、実際のレポートの様子です。さらに、レポートに実際にアクセスすることもできますし、ヘルプセンターでレポートについて詳しく確認することもできます。

画像: 解析不能な構造化データに関するレポート

URL レベルで構造化データをテストする

ページが正常に処理されているか、またはリッチリザルトが有効になっているかを確認したい場合や、特定の URL でリッチリザルトが表示されない原因を突き止めたい場合には、URL 検査ツールを使用できます。このツールを使用することで、改善すべき部分を URL レベルで把握でき、対処すべき内容がわかりやすくなります。

Search Console の上部にある検索ボックスに URL を貼り付けると、拡張した項目に関連する構造化データの正常動作部分や、エラーまたは警告が生じている部分を確認できます。下にレシピの場合のサンプルを示します。

画像: URL 検査ツール

上のスクリーンショットでは、レシピに関してエラーが発生しています。レシピの項目をクリックすると、エラーに関する情報が表示されます。さらに、エラーの右側にある小さなグラフアイコンをクリックすると、詳細を確認できます。

エラーについて確認し、修正を行ったら、[修正を検証](下のスクリーンショットを参照)をクリックしてください。Google が本当に問題が修正されたかを検証します。[修正を検証] ボタンをクリックすると、いくつかのテストがすぐに実施されます。ページがテストに合格しなかった場合は、Search Console にすぐに通知が表示されます。問題がなかった場合は、該当するページの他の箇所が Search Console で再処理されます。

画像: 構造化データのエラーの詳細

Search Console が役に立った事例や、構造化データとともに使用することでより便利になった事例などがありましたら、ぜひフィードバックをお寄せください。フィードバックは、ウェブマスター フォーラムからお送りいただけます。

ユーザーの検索意図を分析し、Webサイトを最適化する3つのアクション

SEOにおいて、ユーザーの検索意図(インテント)の理解が重要であることは、もはや常識と言っても過言ではないでしょう。

しかし、その性質上、概念的な話に終止することも多く、具体的な施策に落とし込むまでのハードルは高くなっています(もちろん、キーワードやサイトのジャンルによって可変するため難しい部分はあるのですが・・・)。

今回の記事は、ユーザーの検索意図を扱った記事となりますが、比較的豊富な具体例を提示してくれています。SEO施策の良いヒントになれば幸いです。

※今回の記事は、10,000文字超と長くなっておりますので、お時間のある時にお読みいただければと思います。

検索者はどんな答えを求めているのか?

安定的で価値のある検索トラフィックを得るために、あなたはより適した答えを提供しなければならない。

ユーザーの検索意図を満たすことは、Googleの根本的な目的である。

しかし、アルゴリズムが常にユーザーの検索意図を満たせているわけではない。バックリンク(被リンク)やキーワードのような要素は、「そのWebページがユーザーの検索意図を満たしているか」についての指標とされてきた。

Googleにとっても、あなたのサイトにとっても、ユーザーの検索意図への最適化は長期の課題である。検索、そして、クリック後のユーザー行動において、ユーザーの検索意図に合致したページは、検索エンジンのみに最適化されたページよりも、高いパフォーマンスを得るだろう。

文中に特定のキーワード群を使用することや、キーワードに合致したアンカーテキストの使用などではなく、「ユーザーを幸せにすること」への注力がSEOの戦略となる。

この「ユーザーを幸せにすること」を具体的なアクションに落とし込むためには、下記の3つを知る必要がある。

  • Google(検索エンジン)はどのようにしてユーザーの検索意図を定義しているのか
  • 検索意図に対して、ターゲットキーワードをどのように評価すべきか
  • ユーザーの検索意図のデータに対し、何を行うべきか

1.Google(検索エンジン)はどのようにしてユーザーの検索意図を定義しているのか

Googleにとって、ユーザーの検索意図を理解することは、有益な検索結果を作成するための鍵となる。また、検索市場での優位性の維持と成長、さらにはより多くのユーザーに広告を見てもらうことにもつながる。

ユーザーの検索意図は、クエリ(キーワード)によって、3つのパターンに分けられる。

  • 情報型(Informational)
    何かを学ぶためのキーワード(例:マラソンの練習方法)
  • 取引型(Transactional)
    何かを購入するためのキーワード(例:マラソンシューズ オンライン 注文)
  • 案内型(Navigational)
    特定のWebサイトに行くためのキーワード(例:ランナーズワールドトレーニングプラン)

過去の研究では、80%のクエリが情報型クエリであり、別の取引型・案内型のクエリは10%づつと見積もられていた。

Googleの最新の品質評価ガイドラインでは、検索意図は4つに分けられている。

  • 知りたい(Know)
    「Knowクエリの検索意図は、特定のトピックについての情報を発見することである。ユーザーは何かについて、より多くを知りたがっている。」
  • したい(Do)
    「Doクエリの検索意図は、目標を達成すること、または、電話での何らかのアクティビティを行うことである。目標やアクティビティとは、ダウンロード、購入、獲得、エンターテイメント、Webサイトへやアプリへの関わり、などが挙げられる」
  • 特定のウェブサイト(Website)
    「Websiteクエリの検索意図は、ユーザーが求める特定のWebサイトやWebページへ到達することである。」
  • ヴィジット イン パーソン(Visit-in-person)
    「近くの情報や結果を尋ねるクエリもある(例:ビジネス、組織、その他「近くの」に関連する場所)」

Knowクエリの例をGoogleのガイドラインから抜粋。これらの情報型クエリが検索の多くを占めている(ソース

ガイドラインでは、2つのサブタイプも定義している。

  • シンプルなKnowクエリ(Know Simple)
    「シンプルなKnowクエリは、事実や図表など、特定の答えを求めているクエリです。答えとなる情報は正確で完結しており、比較的狭い領域(つまりはスマートフォンの画面サイズ)で表示されることが可能です。概して、多くの人が正確であると賛同する答えであり、1つか2つのセンテンスや短いリストで表せるものであれば、それらはシンプルなKnowクエリと呼ぶことができます。」
  • デバイスアクション(Device Action)
    「デバイスアクションのクエリは、特別な種類のDoクエリです。ユーザーはスマートフォンに対して、なんらかのアクションを要求します。デバイスアクションのクエリで検索するユーザーは、車中など、ハンズフリーでスマートフォンを操作する可能性があります。デバイスアクションのクエリは、明らかな行動を含むワードであり、検索意図も明確です。」

多くのキーワードは上記のいずれかに分類されるが、そうではないキーワードもある。

ユーザーの検索意図が曖昧な場合はどうなるか

Googleは時間を経るにつれ、検索意図が特に不明瞭なクエリにおいて、ユーザーの検索意図を解析する技術を高めてきた。(2013年のハミングアップデートは、Googleによるユーザーの検索意図の理解の大きな改善として、しばしば引用される。)

ビル・スラゥスキ氏は検索意図が曖昧なクエリの明確な例を挙げている。

仮に、誰かが「ニューヨーク ピザ サニーベール」というキーワードをGoogle、Yahoo、Bingの検索ボックスに入力した場合、その意図を明らかにすることは非常に困難である。

1.サニーベールという場所に近い、ニューヨークにあるピザ屋。
2.サニーベールと呼ばれる場所にある、ニューヨークスタイルのピザ屋。
3.サニーベールにある、ニューヨークピザという場所(お店)。
4.その他。

ケビン・インディグ氏は、「長いクエリほど検索意図は曖昧ではなくなる」としている。

音声検索の場合、曖昧さは無くなる傾向がある。なぜなら、音声検索は、通常のテキストでの検索よりも、長いクエリとなる傾向があるからだ。

また、セールス(購入)に近づくにつれ、クエリは長くなり、不明瞭ではなくなる傾向もある。始めは、「コーヒー グラインダー」で始まるクエリも、購入に近づくにつれ、「コニカル式 グラインダー レビュー」といったクエリで検索されるようになるのだ。

位置情報(IPアドレス)は、検索履歴や日時などと同様、検索エンジンにとって、ユーザーの検索意図を理解するための手がかりとなる。例えば、「花」などのような曖昧なクエリでも、2月14日と7月14日では、検索結果は変化するだろう。

サッカーのチャンピオンズリーグ準決勝当日では、「チャンピオンズリーグ」というクエリに対し、試合結果、トップストーリー、Twitterのカルーセルなどが検索結果に並ぶ。しかし、この検索結果が長期間続くことはないだろう。

複数の検索意図が混ざったクエリもあるため、検索意図の分類分けは「確率」と理解されるべきだろう。

サイト運営者にとっては、不明瞭さはアドバンテージとなりうる。

例えば、ジャスティン・ブリッグ氏はフォーラムやその他のユーザーによるメディアサイト(UGM)は、「いつGoogleが”良い結果”にリーチしたか」を明らかにするとしている。検索意図が不明瞭なクエリにしっかりと返答できれば、トラフィックも上昇するだろう。

ユーザーの検索意図を分類する手段は他にもある。主体的(Active)と受動的(Passive)の分類だ。

主体的な検索意図と受動的な検索意図

A.J.コーン氏によると、「主体的な検索意図は、クエリの文章によって明示的に表現されている」とのことだ。

しかし、「主体的な検索意図=そのクエリの唯一の検索意図」ではない。そして、ユーザーを満足させるためには、受動的な検索意図も満たさなければならない。

受動的な検索意図は、クエリの文章では明確に表現されていない。受動的な検索意図を特定するためには、「ユーザーは次に何を検索するか?」と何度も自問することが重要だ。

コーン氏の例によると、「自電車用 トレイル ウォールナットクリーク」というクエリでは、サイクリングに適したトレイルのリストが欲しいと明示的に表現されている(主体的な検索意図)。また、地図・トレイルのレビュー・写真など、暗に意味されているものもある(受動的な検索意図)。

「受動的な検索意図を満たすことは、ユーザーのエンゲージメントとコンバージョンに寄与する」とコーン氏は述べている。

主体的なインテントがファネルの上部に位置するとすれば、受動的な検索意図はエンゲージメントとコンバージョンに関わっている。それは、自身のブランドを構築する手段であり、ユーザーをコンバート(転換)させ、検索エンジンに頼り切った状態への勝利となる。

コーン氏によると、主体的な検索意図・受動的な検索意図については補足があるという。

私がよく見る間違いは、主体的な検索意図と受動的な検索意図を同等に扱ってしまうことだ。もしくは、クエリの内容と検索意図を適切に解釈することに注意を払っていないことだ。SEO担当者として、クエリから検索意図を読み取ることが、今まで以上に求められている。

では、キーワードから検索意図を特定するためには、何をすればよいのか。

2.検索意図に対してターゲットキーワードをどのように評価すべきか

検索意図が明確なキーワードは大量にある。

例えば、「ポータブル 電話 充電器 レビュー」といったキーワードの検索意図は明らかだ。

ファネルの下部に該当するクエリは、より多くの情報を提供する傾向があるため(また、インテントの曖昧さも少ない)、検索意図の評価はより早い段階のファネルの方が困難となる。こうした情報型クエリの検索ボリュームは概して多い。サイトやブランドの認知獲得のカギとなるはずだ。

小規模なサイトにとって、検索意図の評価は比較的容易である。手動の作業でも十分だろう。しかしながら、大規模なサイトにとっては、スケール化が課題となる。下記に、それぞれの対応策を記載する。

ユーザーの検索意図を手動で評価する方法

検索結果ページ(SERPs)を見てみよう。そこには何が表示されているだろうか。全ての検索結果が同じ検索意図を反映させているだろうか。

もしくは、潜在的な検索意図を満たすため、広範囲に対応しているだろうか。

検索結果の画面で、Googleはその手の内を明かしている。上位に位置する検索結果は、それらがユーザーに求められているという、十分な証拠となっている。

  • どのようなタイプのサイトが上位に表示されているか
    ex.個人のサイト・まとめサイト・個人ブログ・行政や大学のサイト
  • 上位表示されているページにはどのようなコンテンツが掲載されているか
    ex.長文形式のコンテンツ・端的な説明・画像・動画
  • そのページで最初に答えられている質問は何か
    ex.ヘッダーに含まれているテキスト、もしくは、含まれていないテキストは何か
    どのようなサブトピックが扱われているか、扱われていないか

「ベストレストラン リッチモンド バージニア」という検索結果では、2つのインテントを満たそうという考えが読み取れる。

  • Googleのレビューが記載されたローカルマップのリスト
    「ローカルのレストランに電話をかけたい・訪れたい」と考えているリッチモンドにいる検索者
  • 「ベスト レストラン」を掲載しているまとめサイトへの青いリンク
    「複数の選択肢を閲覧したい」と考えているあらゆる場所(リッチモンドに限らない)にいる検索者

この検索結果から読み取れることは、「自然検索結果の中で、自身のレストランのWebサイトを表示させようと考えない方が良い」ということだ。

あなたがレストランを経営しており、Webサイトを「最適化」することで、こうした検索結果で上位に表示させようというプロジェクトは、失敗に終わるだろう。

※補足:ユーザーが求めているのは「良いレストランを紹介しているサイト」であり、「特定のレストランの公式サイト」ではないため。「特定のレストランの公式サイト」はユーザーの検索意図に合致しない可能性が極めて高い。

このプロセスは非常にシンプルで直感的ではあるが、スケール化は難しい。では、数千ものページの検索意図を把握するためには、何をすればよいか。

検索意図の分析・評価作業をスケールさせる方法

AhrefsMozSEMRushなどのSEOツールでは、特定のキーワードの検索結果の特徴を測定してくれる。これらの特徴は、検索意図の把握をスケール化させる一つの方法となりうる。

すでにこうしたツールでキーワードを測定しているのであれば、結果をエクスポートし、検索結果の種類をもとに検索意図をカテゴライズできる。例えば、以下のとおりである。

  • 強調スニペットを表示している検索結果であれば、シンプルなKnowクエリである可能性が高い。
  • CPC(Cost / Click)が高い検索結果であれば、ファネルの下部に位置する、もしくは、取引型クエリである可能性が高い。
  • 広告が表示されない検索結果であれば、ファネルの上位に位置する、情報型クエリである可能性が高い。
  • マップを表示する検索結果であれば、ヴィジット イン パーソンの検索意図がある。

業界によって、それぞれの特徴が異なる検索意図を表すヒントとなるだろう。キーワードをサンプリングし、それらの複数の検索結果の特徴を抽出し、検索意図を読み取ってみる。

例えば、10,000キーワードの検索意図を分析したいのであれば、50キーワードをサンプルとして抽出し、それらの検索結果の特徴を分析する。その後、分析した検索意図を残りのキーワードに、プログラム化して割り振る。

その他としては、「検索意図別にキーワードの修飾語句をふるい分けする」という方法がある(サンプルのリストはこちら(英語))。現在はMozの一部であるSTATの調査によれば、「特定の修飾語句を含むサジェストは、検索意図の各領域に属する」ということだ。

検索意図の4カテゴリーと、対応する修飾語(ソース)

検索意図別に修飾語句をカテゴライズすることで、検索意図のふるい分けのスケール化が可能となる。

大量のキーワードリストがある場合は、N-gram toolを使用して、そのリストから共通の修飾語句を特定することができる。最も共通しているフレーズが、ふるい分けのベースとなるだろう(また、スプレッドシートで自動的にタグが付与されるようにすればよい)。

キーワードの修飾語句のカテゴライズは、特定の地域のコンテンツにレビューを載せたサイトや何百もの似た商品のあるサイトなど、大量に類似したコンテンツがあるサイトに特に有益である。

また、キーワードの修飾語句は、あなたが追跡すべきキーワードを増やす際も有益である。

つまり、検索意図を特定する目的としては、「キーワードに出会う場所を探すだけでなく、キーワードにあわせてコンテンツを拡大していくこと」が重要になる(詳細は後述する)。

Mozの記事では、商品についての情報型クエリで使用される修飾語句の例を載せている。

  • 「商品名」:X
  • 「商品名」とは何か:what is X
  • 「商品名」は何に役立つのか:how does X work
  • 「商品名」の使い方:how do I use X

手動にしろ、自動にしろ、タグ付けの最終結果は、検索意図ごとに分類されたキーワードのリストとなる。

Twitterの内容:非常に喜ばしい。既存のリソースの助けを借りることで、ユーザーの検索意図をベースに、自動的にキーワードを分類する公式(仕組み)を作成できた。

Googleが提唱する4つの検索意図のモデルを採用するか、またはそれ以外を採用するかは、あなた次第だ。

例えば、あなた自身のユーザージャーニーをもとにキーワードを分類しても良い。それは、ユーザーの検索意図のデータを用いてできる価値の高い作業の内の1つなのである。

3.ユーザーの検索意図のデータに対し、何を行うべきか

ユーザーの検索意図のデータは、

  • 即時の調査
  • キーワード測定の改善
  • ビジネスにフォーカスした要素をレポートに付与する

などの作業をサポートする。また、コンテンツの選択、コンテンツ戦略、Webデザインにも影響を与える。

調査と評価にユーザーの検索意図のデータを使用する

1.バイヤージャーニーに沿ったコンテンツの配置

Think with Googleの以下の主張が興味深い。

ユーザーは即時の答えを得るためにデバイスを利用する。また、彼らが検索を行う際、自身の検索意図を表現し、伝統的なマーケティングファネルを再構築する。

顧客は検索エンジンを使用し、検討段階を経て、購入に至る。

あなたは、こうした検索意図をあなたのファネルに配置するべきだ。その結果は、長いビジネスにおけるゴールをベースとした、検索行動の評価を行うフレームワークとなるはずだ。

例えば、サイト内の全てのブログ記事が「情報型(infomational)」の検索意図に属していても、その内のいくつかは異なる認知の段階のユーザーに提供されているかもしれない。

マーケティングファネルと検索クエリの関係(ソース)

キーワードをカスタマージャーニーに落とし込むことにより、検索意図のセグメントはよりよいものになる。

カスタマージャーニーをベースとしたキーワードの検索意図の分類分けは、キーワードの測定やレポートと同様、競合調査にも役に立つ。

2.競合調査により、コンテンツのギャップを把握する

ユーザージャーニーのどの段階において、課題があるか。

競合が満たす検索意図で、自社が満たしていない検索意図はどこか。SEMRushやAhrefsなどのツールは、キーワードベースの競合比較が可能だ。

自身のドメインといくつかの競合サイトのドメインを入力する。そして、あなたが検索意図ごとに分類したキーワードの修飾語句でフィルタをかける。

例えば、AhrefsとMozは、「ハウツー関連(how to)」のクエリで、SEMRushを圧倒していることが確認できる。

修飾語「how to」で検索した際の結果(Ahrefs)

この分析手法であれば、ファネルのそれぞれの段階でのパフォーマンスを比較できる。同時に、競合とのギャップを埋めるためのリストを手にすることにもなる。

競合調査を行うことで、あなたのサイトが高順位を獲得すべきキーワードも特定できるだろう。

キーワード調査を行うことで「あなたが高順位を獲得したいキーワード」はあぶり出されるが、「Googleが別の検索意図を注力していること」も把握できる。(個別サイトの運営者であれば、ターゲットキーワードをどれだけ獲得できているかも確認できる。逆もまた然り。)

3.インテントをベースとしたランキングの追跡

トピックごとにキーワードをレポートする(例:「Xというプロダクトでは良い順位だが、Yというプロダクトでは苦戦している」)のではなく、マーケティングファネルをベースとしたパフォーマンスを測定するべきだ。

例えば、複数の商品において、「ファネルの下部に位置するキーワードでは良い順位だが、ファネルの上部に位置する情報型のクエリでは苦戦している」といった具合だ。

検索意図をもとにした測定をすることで、「コンテンツ拡大・新しいページの作成・ページデザインの調整」などの優先順位をつけることができる。

ページデザインと作成のために検索意図のデータを使用する

4.主体的と受動的の両方の検索意図に答えるコンテンツを追加する

ユーザーが持つ、どのような疑問に答えることができるか。次に彼らが持つであろう疑問とは、どんなものだろうか。

Googleのナレッジカードは検索意図を集約した完璧な例である」と、コーン氏は主張する。ナレッジカードは、クエリへの答えを提供し、また、価値のあるコンテクストも提供しているのだ。

例えば、レストラン名の検索の場合、ナレッジカードは非常に多くの疑問に答えている。

  • どんな種類のレストランか
  • 値段は高いか
  • どこにあるか
  • お店までの移動手段は
  • 電話番号
  • 予約は可能か
  • どんなメニューがあるか
  • 料理の質は高いか
  • 現在は開店しているか
  • 近くに他のレストランはないか

レストランのナレッジパネルの例。非常に長い

既存のページを拡大する場合もあれば、まだ満たしていない検索意図のために新たなページを作成する場合もあるかもしれない。

「既存ページの拡大」か「新しいページの作成」かを決定するために、検索ボリュームがヒントになることもある。サブトピックの検索ボリュームが大きければ新しいページを作成し、小さければ既存のページを拡大するとよいだろう。

ブリッグス氏はページ作成のためのフレームワークを共有してくれている。

トピックについて複数の側面をカバーすることを心がけながら、広範囲でしっかりとした記事をまずは作成するという手法を採っている。順位が良くなるまで待ち、サーチコンソールからキーワードを6~15個を取得する。こうしたキーワードは別途記事を作成すべき、ロングテールキーワードの有力候補となる。

また、大規模なサイトであれば検索ボリュームが大きく、競合性の高いキーワードを狙うべきとしている。

反対に、小さいサイトであれば、ロングテールのキーワードをターゲットにし、そのトピックの権威性を獲得した後に、競合性の高いキーワードを狙うべきとしている。

5.検索結果画面でより多くのクリックを獲得するためにコンテンツを調整する

Googleが定義するシンプルなKnowクエリに強調スニペットについてのヒントが隠れている。

  • 1~2センテンスの長さ
  • 短いリスト
  • 「正確で完全」なレスポンス
  • モバイルのスクリーンにきちんと収まる

強調スニペットはSEOを行う上でターゲットの対象となりやすい。強調スニペットは検索結果での露出を高め、多くのクリックをもたらしてくれるからだ。

しかし、自然検索と強調スニペットが同時に存在することにより、お互いの流入を奪い合ってしまうという状況も生んでしまう。

ユーザーの検索意図が「答えをすばやく得たい」というものであり、クリックが発生しないのであれば、強調スニペットへの最適化はユーザー(とGoogle)を満足させることになる。

しかし、強調スニペットへの最適化は、究極的にはすべてのサイトへの自然検索からの流入をなくしてしまうことにもなる(ランド・フィッシュキン氏は、これを囚人のジレンマ(※)と呼んでいる)。

※補足:強調スニペットと自然検索結果は、互いに検索結果をよりよくするものであるものの、結果としてインプレッションを奪い合ってしまう状況にあること。

強調スニペットへの最適化は意義のあるものだ。

しかし、その価値は、特にモバイルにおける「URLの認知」に限定され、クリック増は期待できないかもしれない。

強調スニペット以外にもCTRを向上させるための方法はあり、ランド・フィッシュキン氏がその戦略を明かしている。それは、ターゲットキーワードを捨ててでも、「検索意図に合わせてページタイトルとメタディスクリプションを記載する」というものだ。

この戦略にはリスクがあるが、競合性の高い業界で「負け犬」となっているサイトにとっては、活路となる可能性がある。

1ページ目の下部に表示されるチャンスがあるならば、(検索エンジンにではなく)ユーザーに向けたページタイトルとメタディスクリプションを書いてみるといい。他のサイトとの差別化になり、より多くのクリックを獲得でき、また、検索エンジンにポジティブなシグナルを送ることができるだろう。

6.主体的なインテントをまずは満たすページを設計する

コーン氏は「適切な経験を提供するために、検索意図の優先順位を理解することは非常に重要だ。この点が、コンテンツとデザインにおける、「従来」の検索と異なる点であろう。」と主張する(参考)。

SEOにとっては、ページのデザインは2つの意味で重要となる。

  • 主体的な検索意図に対し、明確に、即時に答える
  • 受動的な検索意図に対し、論理的な情報の優先順位を提供する

Knowクエリへの対応のUX的な具体例は以下のとおりである。

  • ヘッダータグ・大きいフォント・目立つブロックなどで、明確に答えを提供しているか
  • ユーザーが次に持つであろう疑問に対し、サブトピックで答えられているか
  • 取引型クエリに対し、次に進むためのボタン(購入ボタンなど)は、クリックしやすく発見しやすいか

これらはUXの基本的な原則であるが、検索のパフォーマンスにも影響を及ぼす。

答えをすぐに見つけられなかったユーザーは、検索結果画面に直帰してしまうだろう。「UXがランキング要素である」というトピックは、一定の事実を含んでいるのだ。もちろん、このトピックは議論を呼ぶトピックではあるが。

たとえば、レシピサイトにて、目的のレシピに到達するまで、ページを長い間スクロールすることにユーザーは耐えなければならない。

ページ上部にテキスト情報が検索エンジンのために提供されているからだ(そして、それはレシピについての凡庸なエッセイにすぎないことが多い)。

「SEOのためだけのテキスト情報」は、レシピのようなバーティカルサイトにおいて有効である。なぜなら、検索エンジンは、どのレシピで作ると美味しいチョコレートチップクッキーが出来上がるか、区別をつけられないからだ。

ジョン・ミュラー氏は、「ユーザー体験を犠牲にしてまで、検索エンジンのためのコンテンツを作成すべきでない」としている。

しかし、「どの程度検索エンジンを意識すべきか」についての議論は尽きない。この戦略は、未だに効果的であるからだ。

SEOに関する議論で学ぶべきは、「長い目で物事をみる」ということだろう。

Googleは、補助的なテキストが余分である場合、それに価値を与えることは好まない。「SEOのためだけのテキスト」が現在において有効であったとしても、徐々にその必要性は低くなっていくだろう。

また、ランキングとユーザー行動にどのような影響を与えるかを測るため、定期的にSEOのためだけのコンテンツを削除するテストを行ってみると良いだろう。

結論:ユーザーの検索意図の分析と活用方法

キーワードを選定し、ユーザーの検索意図に最適化する

コーン氏のこの格言は、ユーザーの検索意図をSEOの施策に落とし込むための、最高の要約と言えるだろう。ページ作成において、キーワード選定が出発点であることは変わらない。

しかし、ユーザーの検索意図を考慮することは、そのページのあり方についての判断材料となりうるだろう。

関連するキーワードのリストを作成し、検索意図ごとにカテゴライズする(現在、ターゲットにしているか、そうでないか)。検索意図をもとにしたキーワードのカテゴライズを行うことで、「ユーザージャーニーのどの部分で結果を得ているか」「結果を得ていないかを確認することができる。

結論として、ユーザーの検索意図のデータは、

  • 既存ページのコンテンツ拡大の優先度付け
  • 新規ページ作成の必要性の判断
  • 主体的な検索意図を明確にし、即時に解決できるページデザインの構築

このような施策に有用であるといえる。

この記事は、CXLに掲載された「Search Intent: How to Analyze and Optimize Your Site」を翻訳した内容です。

SEOにおける「キーワード」は過去も現在も重要です。しかし、その解釈や検索意図(インテント)の把握など、キーワードは単純に測定するだけの対象ではなくなっています。

キーワード毎に可変する検索意図(インテント)ですが、修飾語句をヒントに分類分けするなど、すぐにでも実践できそうな内容がありました。

大規模サイトではなかなか難しい作業も、記事にあったような工夫を行うことで、検索意図の把握をより正確かつ効率的にしていけるのではないでしょうか。

まだ誤解されがちなストーリーテリング|その本質と実践のコツとは

「コンテンツマーケティングにはストーリーテリングが大事だ!」と耳にしたことがあるだろうか。 人間味のあるストーリーは時に人の感情を大きくゆさぶり、論理的な文章と比べて何倍も人を惹きつけるからだ。 スタンフォード大学でマー […]

「構造化データ」がよく分かる!初心者向け徹底解説

SEO対策の文脈において、最近頻繁に話題になる「構造化データ」。詳細に理解されている方はそこまで多くないのでは?と思います。ここでは構造化データやリッチスニペットの概要から、HTMLでの記述方法、テストツールなど、全体像を掴んで頂ければと思います。この記事は2014年に書かれたものを2019年最新版にコンサルタント青木が変更・追記いたしました。

目次

これだけは押さえてほしい構造化データ2つのポイント
セマンティックWebとは
構造化データとは
構造化データを使用するメリット
ボキャブラリーとシンタックス
構造化データをマークアップする方法
構造化データをHTML上で直接マークアップする方法
データ ハイライターを用いる方法
テストツールのご紹介
まとめ

これだけは押さえてほしい構造化データ2つのポイント

難しいイメージのある構造化データですが、ざっくりまとめるとこの2つがポイントになります。

  • 検索エンジンがページの内容を理解しやすくなる
  • 検索結果に様々な要素が表示されるようになる

検索エンジンは人間と同じようにサイトのテキストを理解することができません。もちろんある程度はわかるはずなのですが、完璧とはいきません。そこで、テキストに”意味”のマークアップを行い、検索エンジンがテキストを理解できるようにするというのが、構造化データの基本的な考えになります。

そして、検索エンジンがテキストを理解できるようになると、その情報を使って検索結果に様々な要素を表示できるようになるのです。例えば、「コンビニ アルバイト」などで表示されるGoogleしごと検索(Google for jobs)も構造化データを用い、検索結果に表示しています。

なんとなく、構造化データを理解していただけましたでしょうか?ここからはしっかりと構造化データについて解説しますが、困ったら2つのポイントに立ち返ってみてください。

セマンティックWebとは

構造化データとセマンティックWebという考え方は切っても切り離せないものです。今回は構造化データを説明する前にセマンティックWebというものに簡単に触れておきたいと思います。

「セマンティックWeb」は、例えば以下のように説明されています。

Webページおよびその中に記述された内容について、それが何を意味するかを表す情報(メタデータ)を一定の規則に従って付加することで、コンピュータが効率よく情報を収集・解釈できるようにする構想。インターネットを単なるデータの集合から知識のデータベースに進化させようという試みがセマンティックWebである。
引用元:セマンティックWeb(Semantic Web)とは

コンピュータ(検索エンジン)は従来、テキストを単なる”文字”として認識し情報として蓄積していました。しかし、それでは検索エンジンは文字を記号としてしか認識することができず、その意味を推し量ることはできません。

そこで、文字を”意味”としてその背景や文脈まで解釈し、それを蓄積していこうというのがセマンティックWebの考え方です。

構造化データとは

セマンティックWebを実現するための手段として、構造化データがあります。構造化データは、テキストなどに意味をメタデータとして持たせることで、ロボットが内容の解釈を容易にし、検索エンジンはより有用な検索結果をユーザーに提供できるようになります。

とはいっても、わかりづらいので例を。例えば、以下のような例を考えます。

<div>
名前:青木 創平
生年月日:1994年8月19日
</div>

私達はこれを見た時に、この人は青木創平という”名前”の人物で、1994年の8月19日が”生年月日”だと、ある程度推測することができます。

検索エンジンもその推測ができないわけではありませんが、これを明確に名前と誕生日だと定義することは難しいのです。そこで、”名前”や”生年月日”という情報の「意味」を検索エンジン等に明確に伝えてあげましょうというのが構造化データの考え方です。

構造化データはHTMLに直接マークアップする、もしくはデータハイライターや構造化データ マークアップ支援ツールを用いて設定しますが(設定方法は後述します。)、上述した青木創平の例でいうと以下のような記述となります。

<script type="application/ld+json">
{
"@context": "http://schema.org",
"@type": "Person",
"name": "青木 創平",
"birthDate": "1994-08-19"
} 
</script>

nameやbirthDateという値が含まれているのが御覧頂けるかと思いますが、特定の情報に対してHTMLマークアップを行う(メタデータを付与する)ことでその情報の説明が付与することができるようになります。

構造化データを使用するメリット

検索エンジンがサイトコンテンツの把握を容易に行えます

上述した通り、特定のテキストあるいは画像がどういう情報なのかを指し示すことで、検索エンジンはコンテンツの内容がどういう意味を持つものか、容易に把握できるようになります。

構造化データを用いることで、前述した文章は、「私の名前は青木創平で、誕生日は1994年8月19日です」のように、情報の持つ意味がより明確に検索エンジンに伝わり、適切に認識されるようになります。

検索結果にリッチスニペットが表示されます

通常の検索結果においてサイトが表示される際には青色のリンク、その下meta descriptionやサイト内テキストから引用したスニペットが表示されますが、構造化データを用いることで、リンクの下に通常とは異なる情報が表示されることがあります。これを「リッチスニペット」と言います。

こういった検索結果を見たことがある方は多いのではないかと思います。

▼リッチスニペットの例
リッチスニペットの例

この場合はパンくずリスト、レビュー、価格帯の情報がマークアップされたことで、検索結果にリッチスニペットとして表示されています。

これにより検索結果で目につきやすくなり、クリックされやすくなるなどのメリットがあります。リッチスニペットに対応されているコンテンツは、上の画像のパンくずリストやレビュー情報、価格情報以外にもイベント、記事、レシピなどがあります。また、2019年1月に実装された「Googleしごと検索」は構造化データをマークアップすることで「〇〇 求人」、「〇〇 バイト」のようなクエリで、エンリッチリザルトが表示され、そこからユーザーは求人に申し込むことができるようになりました。

▼「正社員 求人」の検索結果
Googleしごと検索が反映された検索結果

ボキャブラリーとシンタックス

構造化データを理解する上で、この2つの言葉についてきちんと理解しておく必要があります。端的に言うと、ボキャブラリーが値を表し、シンタックスはその記述方法になります。

ボキャブラリー

冒頭の例では青木創平に”name”、1994-08-19に”birthDay”という値を付けました。その指定する値を定義している規格のようなものがボキャブラリーです。

ボキャブラリーの代表的なものにschema.orgがあります。schema.orgはGoogle、yahoo!、Microsoftの大手検索エンジン企業が共同で取り組んでおり、値の数は日々拡張されています。

先ほどの例は、人物の説明でしたが、人物を説明する際には名前や誕生日はもちろんのこと、所属している団体やその人が運営するサイトなども説明することがあるかと思います。schema.orgはそういった部分も網羅しており、例えば人物(Person)であればこちらのページにてまとめられています。Propertyという欄で人物の説明に対してマークアップ可能な値が表示されています。

また、見て頂くとわかるかと思いますが、プロパティは階層構造となっています。

例えば、「Thing(もの)」という大項目の子として「Book(本)」や「Event(イベント)」という項目、「Event(イベント)」の子として「BusinessEvent(企業向けイベント)」といった階層を形成しています。

シンタックス

ボキャブラリーは値を定義しているだけのものですので、HTMLにマークアップする際にはどうマークアップするかの仕様が必要ですが、その仕様がシンタックスです。

<script type="application/ld+json">
{
"@context": "http://schema.org",
"@type": "Person",
"name": "青木 創平",
"birthDate": "1994-08-19"
} 
</script>

ちなみにこの文章でいうと<script type=”application/ld+json”>~<;/script>の部分がシンタックスで決められている仕様です。

シンタックスには代表的なもので以下の3つがあります。

  • JSON-LD
  • Microdata
  • RDFa

Googleが推奨しているのはJSON-LDです。(この記事でもJSON-LDを採用しています。)

また、JSON-LDはHTML上で各情報に直接マークアップするその他のシンタックスとは異なり、スクリプトを用いて記述するため、各データに直接マークアップする必要がなく、HTMLのどこに記述しても大丈夫な仕様になっております。

先ほどの例で再確認

再度、青木創平の例を用いて詳しく見てみましょう。

<script type="application/ld+json">
{
"@context": "http://schema.org",
"@type": "Person",
"name": "青木 創平",
"birthDate": "1994-08-19"
}
</script>

1. <script type=”application/ld+json”>~</script>
JSON-LDでマークアップする際のルールとして、必ずこの記述をします。また、scriptとありますが、スクリプトを実行させるものではありません。この間にマークアップします。

2. “@context”: “http://schema.org”
この記述はschema.orgを使って記述することを宣言するためのものです。

schema.orgとJSON-LDの組み合わせで記述する際は必ずこの記述をします。ここまでは基本固定で大丈夫です。

3. “@type”: “Person”
@type で何について表現するのかを指定します。今回であれば、人についてはPersonで定義されています。他にも、イベントは、Eventで定義、製品などはProductで定義されています。

4. “name”: “青木 創平”,
@typeで指定しているバリューを表現するためにキーに値を入れていきます。今回であればバリューはPerson、キーはname、値は青木 創平となります。また、キーはバリューに紐付いております。

構造化データをマークアップする方法

構造化データを検索エンジン(Google)に伝える際には大きくわけて2つの方法があります。

前者のHTMLに直接マークアップする方法は、文字通り上述した青木の例のようにHTMLタグに構造化データの要素を追加する方法になります。

一方でデータ ハイライターを用いる場合、ウェブマスターツールのページ上でクリックすることによりページの構造化データを(HTMLをいじることなく)Googleに伝えることが可能です。

Googleヘルプには以下のように書かれています。

■データ ハイライターの使用ができるケース:
記事
イベント
地域のお店やサービス
レストラン
商品
ソフトウェア アプリケーション
映画
テレビ番組のエピソード
書籍
引用元:データ ハイライターについて – Search Console ヘルプ

どちらの方法もメリット・デメリットがありますので、運営されている体制やサイトの状況などにより、どちらを使うか検討することが望まれます。

ではそれぞれ実際に説明していきましょう。

構造化データをHTML上で直接マークアップする方法

この方法には大きく分けて2つあります。それぞれ説明します。

ボキャブラリーとシンタックスを参考にHTMLにマークアップしていく方法

今回はボキャブラリーにschema.orgとシンタックスにMicrodataを用いてマークアップする方法を紹介します。

一般的に構造化データがマークアップされている情報は人物や商品、パンくずが多いですが、こちらにまとめられている通り、マークアップできる情報は他にも沢山あります。

今回は以下の文章について考えてみましょう。

<div>会社名:ナイル株式会社</div>
<div>住所:東京都品川区東五反田1-24-2東五反田1丁目ビル7F</div>
<div>問合せ先:03-6409-6766</div>
<div>創業年:2007年1月15日</div>
<div>創業者:高橋飛翔</div>
<div>オフィシャルサイト:https://nyle.co.jp/</div>

①まずは構造化マークアップできる箇所を確認しましょう。

構造化データをマークアップできる箇所と、マークアップすることで検索結果にリッチリザルトとして表示されるかを確認しましょう。今回はすべての情報をマークアップできますが、問い合わせ先以外はマークアップしても、検索結果にリッチリザルトが表示されません。もちろん、だからといってマークアップ自体が無駄になるわけではなく、構造化データの設定により検索エンジンは意味情報を理解しやすくなります。あくまでマークアップの優先度を考える際などに役立てましょう。

②マークアップを行いましょう。

<script type="application/ld+json">
{
"@context": "http://schema.org",
"@type": "Corporation",
"name": "ナイル株式会社",
"founder": "高橋飛翔",
"foundingDate": "2007年1月15日",
"url": "https://nyle.co.jp/",
"contactPoint": {
 "@type": "ContactPoint",
      "telephone": "+81-3-6409-6766",
      "contactType": "customer support",
      "areaServed": "JP"
    },
"address": {
    "@type": "PostalAddress",
    "addressLocality": "品川区, 東京",
    "postalCode": "141-0022",
    "streetAddress": "東五反田1-24-2東五反田1丁目ビル7F"
  }
} </script>

これでこのテキストに構造化データをマークアップできました。

構造化データマークアップ支援ツールを用いた方法

ウェブマスターツールには、構造化データマークアップを支援する機能があります。

先に説明した方法だとschema.orgなどを理解した上でマークアップする必要がありましたが、こちらの方法はそれよりも容易に構造化データを用いることが可能になります。

ここでは弊社平塚が執筆したブログを用いて説明します。

①構造化データマークアップ支援ツールに該当するページのURLを入力し、今回マークアップするデータを選択した上でタグ付け開始をクリックします。

▼ページタイプとURLの入力ページ
構造化データマークアップ支援ツールサイトタイプ設定画面

今回はブログ記事のマークアップですので、記事を選択しました。

②実際にマークアップしてみましょう。

タグ付けはツール内でページが読み込まれた画面で行います。右にタグ付けできるデータが並びます。この例で言うと、前の画面で記事を選んだため、著者や公開日など、記事に関連するデータが並んでいます。

ではまず一番上にある「名前」(今回の場合は記事タイトルです)をマークアップしてみましょう。

▼データのタグ付けページ
構造化データマークアップ支援ツールメイン画面

タイトルに当たるところをドラッグすると、選択肢が出てきますのでそこから「名前」を選択しますと右側にマークアップしたいテキストもしくは画像が追加されます。著者情報や公開日なども 同様の要領で指定していきます。

データの指定が終わったら右上にある「HTMLを作成」をクリックするとそのページのHTMLが出力されます。

▼出力されたHTML構造化データマークアップ支援ツールHTML画面

イメージ

③出力されたHTMLをサイトに反映させます。
サイト運用の仕方にもよりますが、出力されたHTMLをコピーしてHTMLを実装しましょう。これでマークアップは完了です。制限は多いですが、専門的な知識がなくても構造化データをマークアップできるので利便性は高いです。自分のサイトにはどのような構造化データをマークアップできるのか確認するのにも役立ちます。

データ ハイライターを用いる方法

データ ハイライターを用いた場合には 直接HTMLをいじる必要がなく、構造化データマークアップ支援ツールのようにブラウザ上でクリックすることで構造化データをGoogleに伝えることが可能です。

①ウェブマスターツールでデータハイライターを開きます。

ハイライト表示を開始しましょう。

▼URLとページタイプの選択画面データハイライターの最初の設定画面です

先ほどと同様に構造化データを設定したいURLを入力し、タイプを選択します。今回も弊社平塚が執筆したブログを用いますので、タイプに「記事」を選択しました。

また「このページをタグ付けし、他のページも同様にタグ付けする」の場合は(幾つかのサンプルページにてタグ付けを行うことで)同様のページ群もGoogleが学習して構造化データを認識してくれるようになります。一方で「このページだけをタグ付けする」場合はGoogleに学習させず選択したページのみをタグ付けしたい場合に用います。

ブログ記事のように同じようなページ群がある場合には前者、そうでない場合には後者が望まれると思います。
今回はブログ記事ですので前者を選択しました。

②タグ付けを行います。

▼タグ付け画面データハイライター-データ選択画面

上述した構造化データマークアップ支援ツールと同様に、タグ付けしたいところをクリックもしくはドラッグし、タグ付けするデータを選択します。タグ付けが終了したら右上の「完了」を選択しましょう。

③Googleに自動でタグ付けして欲しいページを選択します。
※この選択肢は「このページをタグ付けし、他のページも同様にタグ付けする」を選択した場合にのみ表示されます。

▼ページセットの作成画面データハイライターのこの画面でデータを抽出するページを選択します

Googleが同様のタイプだと判断したページ群が選択肢として表示されます。それでは問題がある場合は「カスタム」で設定しましょう。※ページ群の設定は正規表現で行います。

これらを選択したら「ページセットを作成」に進みましょう。

④サンプルページで上手く設定できているか確認します。

Googleは最初にタグ付けした設定から他のページでも同様の構造化データをタグ付けします。このページでは③で選択した構造化データを設定したいページ群の中から、構造化データ部分をハイライトした状態でサンプルページが表示されます。自分の意図通りに設定されている場合には、右上の「次へ」をクリックしましょう。

▼サンプルページの確認画面1データハイライター-サンプル画面1

次々にサンプルが表示されますので、問題がある場合には手動で設定を修正しましょう。5ページ分のサンプルを確認すると、「完了」という項目が右上に表示されるので次に進みましょう。

▼サンプルページの確認画面2データハイライター-サンプル画面2

最後に確認したサンプルページを再度見直して、問題が無い場合は右上の「公開」ボタンを押しましょう。これでデータハイライターによる構造化データの設定は完了です。

テストツールのご紹介

構造化データ テスト ツール

構造化データ テスト ツールで正しく構造化データが記述できているかを確認できます。URLもしくはHTMLを入力することでそのページに設定した構造化データが正しく設定されているか、どの項目が設定されているかに加えて、検索結果上でどういう表示がなされるページなのかを確認できます。

テストツール

構造化データのマークアップを行った後には出来る限りこのツールを用いて、正しく設定されたかを確認するようにしましょう。

※なお、このツールで表示される検索結果プレビューが必ずしも本物の検索結果で表示されるとは限らないようです。

Google Search Consoleの「構造化データ」項目

Google Search Consoleの構造化データでは、構造化データの設定にエラーが無いか一覧で確認することができます。検索結果のプレビュー機能は無いですが、構造化データにエラーがあるデータタイプやページが一覧で確認できますので、URLを何度も入力する必要のある構造化データテストツールよりもその点は便利です。サポートしている(確認できる)構造化データはリッチリザルトのステータス レポート – Search Console ヘルプを確認してください。

まとめ

ここ最近のGoogleの動きを見ても、構造化データを利用する重要性は言わずもがなだと思います。ECサイトなどは受ける恩恵も大きく、サイトによってはもはや必須と言っても良いかもしれません。しかし、リッチスニペットが表示されない構造化データのマークアップに関しては、コスト・工数的に現実的でない場合が多く、そのあたりのバランスはなかなか難しいです。サイトの施策状況やリソースから考えると良いでしょう。もし構造化データを含めたSEOのことでご相談があれば、お気軽に弊社までご連絡ください。

最後に、こちらも参考にどうぞ。

皆様のお役に立ちましたら幸いです。

ナイル株式会社 青木

「構造化データ」がよく分かる!初心者向け徹底解説ナイル株式会社 - SEO HACKSで公開された投稿です。

Google検索結果の変化から読み解く「SEOの未来」

つい先日、モバイル検索でのレイアウト変更が発表されました(ソース)。ランキングアルゴリズムと同様、Googleは検索結果のレイアウトを常に変化させており、SEO担当者としては必然的に注視すべき領域となります。

今回の記事では、ここ最近の変更とそれから導き出される見解を、ニール・パテル氏が披露してくれています。SEOの未来とは、いかに。

SEOについて考える時、また、ここ5年間での変化について考える時、あなたは何を思い浮かべるだろうか?

「Googleの検索結果での高順位獲得が困難になった」ということではないだろうか。

しかし、自然検索結果からの流入獲得が困難になったのは、なぜだろうか。

多くのSEO担当者は、「それはGoogleがより複雑なアルゴリズムを構築したからだ」と答えるだろう。

彼らは、過去にはあまり重要視されていなかったページスピード・ブランドクエリ・その他何百という要素に目を向けている。

しかし、それでは話半分に終わってしまう。

SEOが困難になった理由として、Googleのアルゴリズムの変化は、その一部分に過ぎない。

この記事では、多くのSEO担当者は語っていないが、それでもあなたが注意すべき事柄について言及する。なぜなら、それらは「SEOの未来」につながる話だからである。

常に変化するGoogleのレイアウト

Googleで検索した際、あなたは何を目にするだろうか。

いくつかの自然検索結果、そして、いくつかの広告であるはずだ。

自然検索結果と広告は、Googleが長い間表示し続けていたものだ。この核となるコンセプトは大きく変化していない。

しかし、長期間においては、Googleは小さな調整を続けており、それらが積み重なった結果、大きな変化を生み出している。

過去数年のGoogleの検索結果の変化を見てみよう。幸運なことに、Orbit Mediaは2012年、2014年、2015年とランダムな調査を行っており、それぞれの年代の検索結果と現在の検索結果のレイアウトの比較を行っている。

2013年から2019年までの検索結果の比較

  • 左:1位の表示位置は、ページ上部から330ピクセル下に表示されている。
  • 右:1位の表示位置は、ページ上部から1050ピクセル下に表示されている。

2013年と2019年の大きな違いは、以下のとおりである。

  • 自然検索結果の1位の表示位置が大きく下がっている
  • デザインの観点からも、広告ははっきりと区別されていた。
    しかし、現在はより自然検索結果に混じっている。

では、2014年と2019年とを比較してみよう。

  • 左:1位の表示位置はページ上部から150ピクセル下に表示されている。
  • 中:通常のファーストビューの表示領域
  • 右:1位の表示位置はページ上部から650ピクセル下に表示されている。

そして、2015年と2019年だ。

  • 左:1位の表示位置はページ上部から150ピクセル下に表示されている。
  • 中:通常のファーストビューの表示領域
  • 右:1位の表示位置はページ上部から630ピクセル下に表示されている。

大きなトレンドは、自然検索結果の表示がファーストビューの下部に押し下げられたことだ。おおよそ、3.3倍という数字になっている。

これは、非常に大きな変化である。

現在の検索結果には、マップ、ナレッジパネル、画像や動画など、ユーザーが求めているとGoogleが判断した様々な要素が表示されている。

強調スニペットとサイトへの流入の減少

別の大きなトレンドとしては、強調スニペットの表示が挙げられる。強調スニペットはあなたのサイトにトラフィックを与えてくれるかもしれないが、検索者が求める情報を提供するため、あなたのサイトへのクリック(流入)が発生しない場合もある。

「世界で一番大きな木(the largest tree in the world)」という検索をしてみよう。

もちろん、私はlivescience.comへのリンクをクリックし、答えを求める可能性もあるだろう。

しかし、あえてlivescience.comのサイトに訪問する理由はあるだろうか? Googleはすでに答えを私に提示しているのに。

自然検索結果が下部に押し下げられ、そして、クリックせずとも、回答の一部をGoogleがユーザーに提供している。こうした状況は、自然検索結果のクリック率が徐々に減少することを意味している。

1ページ目に表示される自然検索結果の数の変化

質問をさせていただこう。

1ページ目に表示される自然検索結果の数はいくつか?

おそらく、あなたは10と答えるだろう。

かつてはそうだったかもしれない。しかし、あなたが10個の検索結果を最後に確認したのはいつのことだろうか。

Googleは1ページ目に表示される自然検索結果の数を5.5%少なくしている(参考)。もちろん、10個のリンクが表示されることは多いが、それでも、かつてほどではなくなっている。

自然検索結果の表示が10個以下の検索結果数

以下は、自然検索結果の変化をグラフ化した資料だ。

18%! これが、自然検索結果の表示数が10個以下になる割合である。

かつてが2%であったことを考えると、驚くべき数字だ。

Googleがレイアウトテストを行っている他の要素

レイアウトのテストとしては非常に小規模ではあるが、自然検索結果が全く表示されない場合もある(SEMrush Twitter)。

広告は表示されているが、自然検索結果は1つも表示されていない

しかし、Googleはこれをミスだとしている(参照)。表示すべき自然検索結果がないと判断されており、同時に、広告も表示されないはずだ。

今後も、Googleはより多くのレイアウト変更の実験を行い、その内のいくつかは、恒久的な変更になるだろう。

SEOの未来について語る前に、一つ確認をしておきたい。

Googleは、株式公開企業である。そのため、驚くべきプロダクトを作成することが彼らの目標となるわけだが、同時に、彼らは利益を上げる必要がある。

広告の売上のための変更を行ったとしても、彼らを責めることはできない。

「ユーザー体験を損なってしまう」、といった批判をするかもしれない。しかし、果たしてそれは正しいのだろうか?もしそういった批判が正しかったとすれば、ユーザーはBingやその他の検索エンジンを使用するようになるはずだ。

私は、Googleを毎日使用している。自然検索結果がクリックしづらくなったかもしれないが、ユーザーとして、彼らは驚くべき体験を提供していると考えている。

SEOの未来予測と仮説

Googleはただ盲目的にレイアウトの変更を行っているわけではない。実験をし、ユーザー調査を行い、検索者が求めるものを把握し、それを提供している。

過去数年間におけるレイアウトの変更に基づき、いくつかの仮説を立ててみよう。

1.新たなリッチスニペットの登場

ユーザーは自身が抱えている問題に対する答えを可能な限り早く得たいと考えている。より早く答えを提供できるとGoogleが判断した場合、将来のレイアウト変更によって、より多くの種類のリッチスニペットが登場するかもしれない。

2.音声検索によるクリック率の低下

Comscore社によれば、2020年までに検索全体の50%が音声検索になるとのことだ。音声検索の結果、ユーザーがあなたのサイトに訪問してくれると単純に予測すべきではない。

3.ユーザーは広告を無視することに慣れている

Googleがどれだけ自然検索結果の表示を下部に掲載しても、ユーザーは広告を無視することに慣れている。Googleが広告と自然検索結果の区別を曖昧にしても、多くのユーザーは自然検索結果をクリックするだろう。

4.世界では43.9%の人が、インターネットにアクセスできていない

Googleが世界の検索エンジン市場を独占していることは明らかだ。しかし、世界の56.1%の人しか、インターネットにアクセスできていない。より多くの人がオンラインになれば、より多くの人がGoogleを使用するだろう。それは、より多くの人があなたのサイトをクリックするようになる、ということを意味している。

言い換えれば、SEOは不要になるのではなく、それどころか、驚異的なチャネルであるままなのである。ここ1ヶ月の私のサイトのトラフィックを見て欲しい。

月間で4,362,165の流入がある。この流入数のうち、Googleを始めとした検索エンジンからの流入がどれほどあるかを想像してみて欲しい。

2,343,362流入である。

つまり、SEOが全てのトラフィックの53.71%を占めているのだ。非常に大きな流入数である。

Googleの絶え間ない変更のおかげで、私のサイトへのトラフィックは減少していると思ってはいないだろうか。実際は、増加しているのである。

1年前、私のサイトへのGoogleからの流入数は月間で1,088,251であった。Googleのアルゴリズム変更によりSEOは難しくなり、自然検索結果の表示が下部に押し下げられても、流入数は増加し、2,343,362流入までに至っている。

集客チャネルをSEOのみに依存すべきではない

私はGoogleが好きであるし、SEOに未来があると考えているが、それでも依存すべきではない。あなたがどれほど優秀なSEO担当者であったとしても、成功は確約されていないのだ。

あなたにもきっと馴染み深い企業を例に挙げてみよう。Airbnbだ。

自宅、もしくは、自室を貸し出すというコンセプトはAirbnbが生み出したアイデアではないことをご存知だろうか。

AirbnbとVRBOの集客チャネル比較

Airbnbでなければ、誰が「自宅or自室を貸し出す」というアイデアを思いついたのだろうか。

VRBOだ。彼らはAirbnbがこのアイデアに至る13年も前に、このビジネスモデルを思いついている。

ここに興味深い事実がある。SEOにおいては、どちらが勝者なのか。

驚くべきことに、勝者はVRBOである。

Googleの検索結果の順位という領域では、VRBOはAirbnbを長期間において圧倒している。下記にAirbnbではなく、VRBOが上位表示されているキーワードを記載する(注:英語での検索結果)。

  • ヒルトン ヘッド レンタル
  • オーシャンシティ メリーランド レンタル
  • ケープコード レンタル
  • キャビン レンタル
  • バケーション 家
  • バケーション レンタル
  • バケーション 家 レンタル

Airbnbも多くのキーワードで上位表示されている。しかし、その多くがブランド名に関連したキーワードだ。

AirbnbはSEOに頼らず、ライバルを圧倒している。13年後、彼らが市場に参入したとき、その状況を作り上げていた。

Airbnbは優れたプロダクトとオムニチャネルへの注力を行った

では、Airbnbはどのようにして勝者となったのか。

最も大きな理由は、彼らがより優れたプロダクトを作成したことだろう。

さらに、彼らはオムニチャネルに注力したということだ。SEO、PPC、機内のモニターでの広告も含め、あらゆる主要なチャネルでの露出を試みたのだ。

SEOは、もちろん、必要だ。

しかし、トラフィックや収入のソースとして、依存すべきではない。多様性が求められるのだ。Googleからの評価をあげるためのみならず、あなたがコントロールすることができない、消費者行動のために必要なのだ。

将来、人々は検索エンジンを使用することを好まなくなるようになるかもしれない。彼らが他の手段を選ぶようになれば、あなたもその動きに適用しなければならなくなる。

また、たった一つのチャネルから大きなビジネスを構築することは、もはや不可能と言えるだろう。

もちろん、Facebookはリファラで、QuoraはSEOで、Dropboxはソーシャルメディアで、それぞれの成功の場所を築いたという例はある。しかし、こうした状況はもはや起こりえないだろう。こうした企業を成功に導いた施策が、あなたの企業にあてはまるということは保証できない。

今日のマーケットで勝者となるためには、あらゆるチャネルの最適化が必要となる。

SEO依存からの脱却とオムニチャネルへのアプローチ

Googleは、マーケターやビジネスオーナーとしては好ましくない変更を、これからも加えていくだろう。しかし、それは、SEOが不要になったことを意味するものではない。

私のトラフィックの推移をご覧いただきたい。Googleが常にアルゴリズムを変更したとしても、自身のサイトへのトラフィックを伸ばすことは可能だ。

未来を憂う必要はない。予測することは困難であり、避けて通れないものばかりなのだから。

現実的な解決策はたった一つだ。オムニチャネルのアプローチを採り、特定のチャネルへ依存することをやめよう。

Google検索の現在のレイアウトから、あなたはどんな未来を導き出すだろうか。

この記事は、Neil Patelに掲載された「How Google’s New Layout Predicts the Future of SEO」を翻訳した内容です。

Googleがレイアウトを変更する理由は、ユーザー行動の反映が主となりますが、「Googleの変更によって、ユーザー行動が変化する」といった場合もあるかもしれません。ときには、全ての変更がうまくいくわけではなく、ユーザーの行動が変化するどころか、不満が生まれる場合もあるでしょう。

Googleですら、こうした試行錯誤を続けているため、自身のWebサイトも様々な検証を行うべきと感じました。オムニチャネルの施策を含め、メディア戦略に非常に参考になる記事でした。

構造化データを使用して、検索結果上でコンテンツを目立たせましょう

Google では長年にわたり、優れた検索エクスペリエンスを提供するために、ウェブサイトで構造化データを使用することを推奨してきました。マークアップをコンテンツに追加すると、検索エンジンがページのさまざまなコンポーネントを認識できるようになります。Google のシステムにページをより具体的に認識させることで、本ブログ記事で紹介する魅力的な機能を使用して、Google 検索でコンテンツを際立たせることができます。これにより、ユーザー エクスペリエンスを向上させ、アクセス数を増やすことができます。

Google では、Google 検索の結果にウェブサイトがどのように表示されるか、また解決できる問題があるかどうか、この 2 点を把握するためのツールを提供するための取り組みを進めてきました。今回から、複数の記事にわたって構造化データの概要についてご紹介いたします。今回はまず構造化データについて簡単に紹介し、おすすめの方法について説明します。次回からは、Search Console を使用して構造化データを処理する方法に焦点を当てます。

構造化データとは

構造化データは、ページとそのコンテンツに関する情報を提供するための一般的な手段です。そのためには schema.org の仕様に従ってマークアップを記述することをおすすめします。Google では、JSON-LD(推奨)、Microdata、RDFa の 3 種類のページ内マークアップ形式をサポートしています。検索機能が異なると、必要になる構造化データも異なります。詳細については、検索ギャラリーをご覧ください。Google のデベロッパー向けドキュメントでは、構造化データの基本について詳細に記載されています。

構造化データを記述することによって、Google のシステムがコンテンツをより正確に認識できるようになり、これにより、ユーザーもより関連性の高い結果が得られるようになります。構造化データを実装すると、Google の検索結果でページをさらに際立たせるための準備は完了です。

免責条項: ページが正しくマークアップされていても、構造化データが検索結果に表示されるとは限りません。構造化データを使用して、ある機能が表示されるよう設定することはできますが、その機能が必ず表示されるとは限りません。詳細については、構造化データに関するガイドラインをご覧ください。

サイトで構造化データを使用して検索結果を改善する

ここ数年間で、エコシステムで構造化データを採用する動きが拡大してきました。リッチリザルトは一般的に、ユーザーが検索を行ったときに、検索している内容とページがどのように関連しているかを理解するのに役立ちます。そのため、リッチリザルトはウェブサイトに大きなメリットをもたらします。Google の事例紹介の中から、成果をいくつかご紹介します。

  • Eventbrite では、イベントの構造化データを使用したことで、検索からのトラフィックが前年比で 100% 増加しました。
  • Jobrapido では、Google 検索のしごと検索を導入したことで、自然検索トラフィックが 115% 増加し、自然検索トラフィックからの新規ユーザー登録数が 270% 増加しました。また、Google から求人ページにアクセスしたユーザーの直帰率は 15% 低下しました。
  • 楽天ではレシピ検索を使用したことで、検索エンジンからのトラフィックが 2.7 倍に増加し、セッション継続時間も 1.5 倍に増加しました。

構造化データの使用方法

サイトで構造化データのメリットを活用するには、いくつかの方法があります。以下では、目標(ブランド認知度を高める、コンテンツを紹介する、商品情報を紹介する)ごとに例を説明します。

  1. ブランド認知度を高める
  2. 構造化データを使ってブランドを宣伝する方法の 1 つとして、ロゴローカル ビジネスサイトリンク検索ボックスなどの機能を利用することが挙げられます。構造化データを追加するだけでなく、サイトのナレッジパネルを確認して、Google マイビジネスでビジネスを登録する必要があります。以下は、ロゴ付きのナレッジパネルの例です。

  3. コンテンツを紹介する
  4. ウェブ上でコンテンツを公開している場合、業界に応じて、コンテンツを宣伝してユーザーへの訴求力を高めるのに役立つ機能が多数用意されています。たとえば、記事パンくずリストイベント求人情報Q&Aレシピレビューなどがあります。レシピのリッチリザルトの例を示します。

  5. 商品情報を紹介する
  6. 商品を販売している場合、商品の構造化データ(価格、在庫状況、評価など)をページに追加できます。次に関連検索で商品がどのように表示されるかを示します。

お試しいただいたご意見やご感想をお寄せください

これで構造化データの重要性を理解していただけたと思います。Codelab を利用して、ページに構造化データを追加する方法を確認してください。本ブログでは、今後も構造化データについてご説明いたします。次回は、Search Console を使って構造化データによる効果を分析する方法について説明します。

構造化データの有効な使用方法について、お客様のご意見、ご感想、事例をお待ちしています。フィードバックをご提供いただける場合は Google のコミュニティ フォーラムをご利用ください。

【調査データ】若者はスニペットとナレッジパネルから情報を得ており、検索結果をクリックしない

「検索結果にGoogleが提供するコンテンツが増えるにつれ、自身のサイトへの流入が奪われる」といった意見はよく聞きます。

しかし、これらの意見はWebマスターやSEO担当者からの意見がほとんどであり、「実際のユーザーはどう思っているのか?」といった調査はありませんでした。

今回の記事は、実際のユーザーを対象にした調査についての記事になります。非常に興味深い、その調査結果とは? 必見です。

「検索順位0位」が常に勝者とは限らない。検索結果上の情報を選別する目の肥えたユーザーの存在が明らかになった。

検索結果のエンゲージメントについての消費者調査が、Path Interactive社によって行われた(参照)。

調査結果によると、自然検索結果はまだまだユーザーの関心を得ているが、若いユーザーは強調スニペットやナレッジパネルのコンテンツで情報を得ており、その場合は、検索結果上のサードパーティサイトへのクリックは発生していないようだ。

この現象は、「クリックが発生しない検索結果」と呼ばれており、多くのパブリッシャーが懸念していた現象だ。

複数の国(回答の72%がアメリカから)から回答を得られた今回の調査では、「今日の消費者が検索結果に存在する複数のGoogleが提供するコンテンツに対し、どのように関わり合っているか」を明らかにすることを目的としている。

Path Interactive社のSEOディレクターであり、今回の調査記事の執筆者でもあるリリー・レイ氏は、「デジタルマーケティング界隈の人々のGoogleの検索結果の変更に対しての考えはよく聞いている。しかし、技術的な知識に乏しい一般的な検索者からの意見を聞く機会はあまりなかった」、と述べている。

全体的に、今回の調査では明確な区別が発見されたわけではなかった。読者の方にとっては、安心できる結果かもしれないし、もしくは、危機感を覚える結果であるかもしれない。

回答者の年齢は13歳から70歳であり、自らを「多少は技術的な知識や知見がある」と称する人が大半である。

①年齢別の自然検索結果への対応

Source:Path Interactive(2019)

  • 赤:通常、1位か2位の検索結果をクリックする
  • オレンジ:1ページ目をざっと眺め、最も関連性のあるものをクリックする
  • 黄:信頼しているWebサイトやブランドのコンテンツを探し、それをクリックする
  • グレー:1ページ目に掲載されている複数のページを閲覧する
  • 濃いグレー:2ページ目、3ページ目、4ページ目と、可能な限りの検索結果を確認する
  • 黒:検索結果における自身の行動を意識していない

※調査母数は2,129。統計学的には95%の妥当性はあるが、99%まではいかない。

自然検索結果は強く好まれている

「広告と自然検索結果のどちらを優先的にクリックするか?」という質問に対して、72%が「自然検索結果」と答えている。

また、その内の47%がほとんど、もしくは、全く広告をクリックしないと答えている。広告も自然検索結果も同様にクリックする、と答えたのは19%だった。

年配のユーザーほど、1ページ目以下の検索結果も確認する傾向がある。

しかし、逆説的ではあるが、年配のユーザーほど広告と自然検索結果の区別をつけてはいないようだ。

若いユーザーは、強調スニペットが表示された際、「クリックしない」という行動を取っているようだ。年配のユーザーは、スニペット以上に、他のサイトへのリンクの情報を見ている傾向がある。

しかし、ほぼ3/4(72.5%)の回答者が、スニペットを「信頼性がある」、もしくは「信頼に足る」と回答している。

②強調スニペットが表示された際、あなたは普段どうしていますか?

Source:Path Interactive(2019)

  • 赤:スニペットをざっと読み、クリックすべきページがあるかを、スクロールして確認する
  • オレンジ:答えによっては検索をやめるし、さらに検索をする場合もある
  • 黄:スニペットを読み、より多くの情報を得るために、関連する青いリンクをクリックする
  • グレー:スニペットを読み、答えが見つかったと判断し、関連する青いリンクはクリックしない。

※調査母数は2,464。統計学的には95%の妥当性がある。

ナレッジパネルとリッチリザルト

回答の内容は、ナレッジパネルの場合と非常に似ていた。大多数(92.1%)の検索者はナレッジパネルを見ている。その中で、55%が他のリンクを探すが、37%がナレッジパネルを見ることで「私の検索意図は満たされた」と考え、クリックしない。

③ナレッジパネルの情報があなたの疑問への答えとなっていた場合、あなたはどうしますか?

Source:Path Interactive(2019)

  • 赤:求める答えを発見できたため、検索を終える
  • オレンジ:ナレッジパネルの情報は確認するが、引き続き検索結果のリンクを確認する
  • 黄:ナレッジパネル内の情報に疑問をもつため、他の検索結果のリンクを確認する
    グレー:わからない

リッチリザルトに対しても同様の質問をしている。

しかし、今回はその内容に満足し、それ以降の検索行動を取らないというユーザーは少数派(14%)であった。43%がリッチリザルトを他のページの情報と併用している。

そして、驚くべきことに、33%がリッチリザルトの内容を無視し、通常の検索結果を求めていた。

④求人、ローカルイベント、フライト、レシピなどの情報をGoogleが提示した際、通常はどのような行動を取りますか?

Source:Path Interactive(2019)

  • 赤:それらの情報を使用する場合もあるが、検索結果の他のリンクをクリックする
  • めに、検索結果の閲覧を続ける
  • オレンジ:通常はそれらの情報を無視し、検索結果の他のリンクを探す
  • 黄:私は、それらの情報が助けとなり、正確であると考えているため、通常は他の検索結果のリンクを探すことはない
  • グレー:それらの情報を見ているかどうか意識していない(判断がつかない)
  • 濃いグレー:Googleが提供するそれらの情報を信じていないため、他の検索結果のリンクを探す

Googleへの不満はあるか

「Googleへの不満はあるか?」という質問に対し、25%が「ない」と答えている。驚くべきことに、75%が何らかの不満を感じていた。選択形式での質問であったが、回答は下記の通りである。

  • Googleは広告を多く表示しすぎている・・・24.1%
  • 大企業による情報を優先的に表示している(結果として中小企業による情報がでてこない、出づらい)・・・17.3%
  • Googleが提供する情報が多すぎる(通常の青いリンクのほうを好む)・・・17.3%
  • ユーザーがGoogleとどう関わっていくかという将来の予測は好きではない・・・7.5%
  • 検索結果の品質が低い、不正確、偏見がある・・・5.5%

このような調査結果を我々が考慮すべき理由

年代に縛られることもあるが、こうした調査を行うことで、Googleの検索結果の様々な要素への態度や行動を明らかにすることができる。

若いユーザーは、広告に興味がない傾向が強いが、ページ上部に表示されるGoogleが提供するコンテンツで満足し、クリックが発生しないことも多い。年配のユーザーは、広告もクリックするが、より多くの情報を探すことに熱心で、1ページ目以下の検索結果も見ることがある。

今回の調査結果が、Googleが提供するスニペット、ナレッジパネル、その他のコンテンツがサードパーティのサイトへのクリックを奪うと非難する人々への反対意見になりうるかもしれない。

しかし、それだけではユーザー行動の全てを説明できるわけではない。

検索結果の進化とともに、ユーザー行動はより多様化し、より選り好みされることになるだろう。

この記事は、Search Engine Landに掲載された「Younger users rely on snippets and knowledge panel, often don’t click, survey says」を翻訳した内容です。

調査対象のユーザーの大半がアメリカのユーザーであるため、日本での状況とは完全に一致しないかもしれません。

しかし、年代によって検索結果に表示される情報の受け取り方が異なるのは非常に興味深く、自身がターゲットとしている属性のユーザー行動については深く考察したいと思いました。

今後も、ユーザー行動の変化に併せGoogleの検索結果も変化していく(逆もまた然り)と思いますが、SEO担当者としてはその変化を的確に捉え、願わくばチャンスとなる施策を実行したいところです。

Googlebot が常に最新のレンダリング エンジンをサポートするようになります

Googlebot は、Google 検索のインデックスにウェブページを追加するためにウェブページを巡回しているクローラのことです。イベントやソーシャル メディアで寄せられる質問で最も多いものは、この Googlebot を最新の Chromium にアップデートしないのですか?というものでした。このたび、Googlebot では検索用にページをレンダリングする際に、最新の Chromium レンダリング エンジン(この投稿の時点でバージョン 74)を実行するようになりました。今後、Googlebot のレンダリング エンジンは定期的に更新され、最新のウェブ プラットフォームの機能をサポートできるようになります。

皆様への影響

以前のバージョンと比べて、Googlebot では次のような 1,000 以上の新機能がサポートされるようになりました。

Googlebot 用の処理としてトランスパイルまたは polyfill を使用しているかどうかをご確認ください。使用している場合は、この処理が今後も必要かどうかをご検討ください。現在も一定の制限があるため、JavaScript 関連の問題のトラブルシューティングJavaScript SEO に関する動画シリーズをご確認ください。

この投稿に関するご意見やご感想がありましたら、ウェブマスター フォーラムでお知らせください。または、オンライン オフィスアワーにご参加ください。

コンテンツの質を高める秘訣「ジャーナリストのように考える」とは

ニューヨーク大学の講義では、コンテンツの質をあげる1つの手段として「ジャーナリストのように考える」という項目が用意されている。 ジャーナリストはライティングのプロであり、より価値の高いテーマ選定、客観的なリサーチと取材、 […]

テクニカルSEOの優先順位。あなたが今取り組むべきは、どの段階か?

インデックス率の改善、メタタグの最適化、CTR向上のための施策。SEOにおけるテクニカルな領域は非常に広範囲です。もちろん、全ての領域を最適な状態にすることが望ましいですが、そのためには領域ごとの優先度をつけることが効果的でしょう。

自身のサイトが今取り組むべき領域はどこか。現状把握に役に立つ記事を紹介します。

技術的な進歩と実装方法の理解を深めるために、テクニカルSEOに求められる内容に優先順位をつけよう。そして、あなたが次に取り組むべき内容を理解しよう。

何をもってして、「最高のWebサイト」と定義することができるだろうか?
健全で、SEOのポテンシャルを十分に発揮している機能的なサイトがベースとしているものはなんだろうか?

マーケットとキーワードの調査、E-A-T、検索意図に合致したコンテンツ、バックリンク、などなど。

しかし、こうしたサイトに共通していることは、テクニカルSEOの要件を十分に満たしているということである。

自身のサイトに求められるテクニカルSEOの領域に優先度をつけよう。優先度順にピラミッドを作成した場合、下部の要件を満たしていなければ、その上部の要件を満たすことは難しいだろう。それぞれの段階で検索エンジンへの対処内容は異なっている。

それは、

  1. クローラビリティ(Crawlability)
  2. インデキサビリティ(Indexability)
  3. アクセシビリティ(Accessibility)
  4. ランカビリティ(Rankability)
  5. クリッカビリティ(Clickability)

の5つに分けることができる。

ピラミッドの図の中のそれぞれの段階で求められる内容をしっかりと理解すれば、テクニカルSEOに対する恐怖心を払拭することができるし、優れたWebサイトを作る上でSEOが果たす役割が過小評価されることもないだろう。

※1 上部2領域が最適化(改善要素)の対象
※2 下部3領域が基本要件(阻害要素の排除)の対象
(当記事では、下から順に解説がされます)

①テクニカルSEOの基本:クローラビリティ(Crawlability)

上記のピラミッド画像の最下部に位置するテクニカルSEOの基本要件は、URLのクローラビリティである。

クローラビリティでは、URLが検索エンジンに発見される状態になっているか、という領域を扱う。検索エンジンがクロールできないURLであっても、ユーザーはサイトのナビゲーションを通じて、閲覧できることもあるかもしれない。

しかし、検索エンジンのボットには発見されていないため、検索結果にそのURLが表示されることはない。

それゆえ、クロール可能なURLとは、

  • 検索エンジンに存在が知られている
    検索エンジンはリンクを辿る、サイトマップを読み込むなどして、URLを発見する。
  • ボットのアクセスを禁止していない
    robots.txtのファイル内に特定のページやディレクトリへのクロールを禁じていた場合、多くの検索エンジンのボットはその指示に従ってしまう。
  • クロールバジェットの上限以下になっている
    多くのサイトでは当てはまらないが、Googleのアルゴリズムによって割り当てられたクロールの「予算(バジェット)」は、サイトのパーツによっても消費される。そのため、特定のURLへのクロールの遅延や問題を引き起こすこともある。

テクニカルSEOの監査を始める際、インデックスされていないページを特定し、その理由を調査しよう。もちろん、意図的にそうしている場合もあるが、エラーが原因の場合もあるだろう。エラーの場合は、修正することにより、すぐに改善結果が見られるだろう。

クロールバジェットは公開されておらず、定量化することは難しい。基本原則は、クロールにかかるコストを最適化し、重要なページの(検索エンジンに把握させる)優先度を高めることで、検索エンジンからの流入増加が期待できるというものだ。

テクニカルSEOとしては、ページがどのように発見され、どう優先度をつけるか、という部分を改善する。その結果、クロール率の改善が見られるだろう。

ページグループごとのクロールの分布。グレーの「Other」は重要でないカテゴリー。多くのクロールバジェットが重要ではないページに費やされている。Source:OnCrawl

②インデキサビリティ(Indexability)

クローラビリティの次に優先度が高いものは、インデキサビリティである。

インデックス可能なURLとは、検索エンジンが持つWebページのカタログ(一覧)に含まれ、検索結果のページに表示される可能性があるURLとなる。URLがクロールされたとしても、様々な要素により、インデックスの対象とならない場合がある。

もっともわかりやすい例を挙げると、メタロボットの記述やロボットテキストの指示となる。

ページのグループ毎のインデックス状況。Source:OnCrawl

同様のコンテンツでより権威のあるバージョンが他にある場合も、インデックスの阻害となる。インデックスが阻害される要素として、具体的には下記の状態が該当する。

  • 重複コンテンツ
  • Canonical(正規化)の宣言
    印刷用ページやモバイル版ページなど、代替バージョンがある場合(Mobile First Indexに該当している場合は、デスクトップ版ではなく、モバイル版のページがインデックスされる)。
  • リダイレクト

適切なページがキチンとインデックスされているかを確認するために、インデックスに関わる要素が適切にセットアップされ、適切なページに設定されているかを確認することがテクニカルSEOの範囲となる。

③アクセシビリティ(Accessibility)とWebサイトのパフォーマンス

アクセシブルなURLとは、表示と描画が容易であるURLのことだ。

クロールとインデックスが可能なURLといえど、検索エンジンのボットがクロールを試みる際、アクセシブルではないという場合もある。ランク付けはされている、

しかし、アクセシビリティの問題が依然として残っている場合、検索結果において、マイナスの評価を受ける可能性がある。

ボット、そしてユーザーへ向けたアクセシビリティとは、下記のような広い範囲が対象となる。

  • サーバーのパフォーマンス
  • HTTPステータス
  • ロードタイム、ページサイズ
  • JavaScriptのレンダリング
  • サイト構造内のページの深さ
  • 孤立したページ
  • スパムやハッキングへの対応

ここでの目標は、アクセシビリティとパフォーマンスの指標がSEOに悪い影響を与えてしまう”しきい値”を発見することだ。そして、全てのページが、少なくとも、最低限の水準を満たしている状態にすることだ。

この目標を達成するために様々なツールを使用することになるだろう。サーバーのダウンタイム、ボットとユーザーに提供されるHTTPステータス、ページがリクエストされたときのリソース(CSS、JS、画像など)のサイズ、TTFB、FCP、TTLBなどのロードタイムの指標。このような数値を取得できるツールが必要となるだろう。

※デスクトップ版とモバイル版におけるレスポンスタイムの平均とリソース量。Source:OnCrawl

孤立したページや深すぎる階層のページへのリンクの設置を行うことになるかもしれない。また、優れたコンテンツであり、キーワードの最適化もしっかり行っているページでも、スクリーンリーダーに対応しておらず、多くのユーザーの目に触れられていないといった場合は、アクセシビリティを考慮する必要もある。

アクセシビリティの問題も解決されているのであれば、テクニカルSEOの基本要件は満たしていると言えるだろう。これらが最適化されていないサイトのSEOは非常に困難なものになる。優先度に従って施策を進めていくが、悪影響のある要素の排除から改善要素へと、対象は変化していく。

④ランカビリティ(Rankability):順位を改善するためのテクニカルSEOにおける役割

ランカビリティは最適化の領域に含まれる施策だ。SEOの土台を固めるための施策ではないため、テクニカルSEOのアドバンスレベル(次のレベル)と考えられる場合もある。

クローラビリティ、インデキサビリティ、アクセシビリティが十分に満たされたURLが順位づけされることは明らかだ。この時点で非常に良い順位を与えられている場合もあるだろう。

しかし、多くの場合、少しの工夫によって順位の状況はさらに良くなるはずである。

リンク獲得による順位上昇

それが内部リンクであるか外部リンクであるかに関わらず、リンクは人気のあるページから人気のないページへと、ページの重要性とトラフィックを渡すという性質がある。

それゆえ、バックリンクを精査し最も有益なリンクプロフィールを決定すること、また、ページの評価を促進するために内部リンクを構築することがテクニカルSEOの領域となる。

内部リンクは、クロールの頻度(新規作成や更新したコンテンツからのリンクを構築することで古い記事の新鮮さを強化する)やコンバージョン(高いコンバージョン率を誇るページへユーザーを遷移させる)を改善するだけでなく、ページの重要性を渡し、コンテンツサイロ(*1)の構築の手助けとなる。

*1 コンテンツを関連性に基づいて配置・整理する構造

ページごとのリンク数におけるSEOトラフィックの分布。50リンクを超えるとページのアクティビティが増える。Source:OnCrawl

関連性の最適化による順位上昇

関連し合うコンテンツ同士を内部リンクでつなげることにより作成されたコンテンツサイロは、単体のページで成し遂げる以上の順位上昇を、コンテンツのグループ化によって達成する。

コンテンツサイロは、ロングテールのキーワードと関連し合うコンセプトに注力したページによって、流入が発生するキーワードを拡大させながら、深く専門性の高いグループとなる。

他のページと比べ、キーワードの使用率、使用される単語数、テキストとコードの比率など、特定のキーワードグループにおける品質の指標となるものや、危険視号となる指標を見てみるのもいいだろう。

⑤クリッカビリティ(Clickability):SEOとユーザー行動の架け橋

テクニカルSEOが扱う最後の領域は、ユーザーがあなたのサイトをよりクリックしてくれる状況を作ることだ。

通常の検索結果以外の場所や、よりリッチな(見栄えの良い)表現方法なども対象となる。

リスト、テーブル、見出しなどは検索エンジンがコンテンツを理解するのに役立ち、強調スニペット、カルーセルなどに採用されることもある。

同様に、Schema.orgを始めとした構造化データの実装は、検索結果における表示方法をリッチにしてくれる。

  • パンくずリスト
  • レビュー
  • 商品情報(値段や在庫数など)
  • イベント情報(開催日、場所など)
  • レシピ情報(サムネイル、評価、調理時間、カロリーなど)
  • 同サイトの重要ページへのサイトリンク
  • 検索結果画面上での検索機能

同様に、画像や動画に適切なマークアップを施すことで、画像検索や動画検索での優位性を得られる。

検索意図の関連性とコンテンツのユニーク性はユーザーを惹きつける要素だ。これらは抽象的な概念であるが、ツールを駆使するなどして分析し、改善することは可能だ。機械学習などの技術は、検索意図やクリック行動に適用され、AIを用いたコンテンツ作成も考えられている。

OnCrawlではCTRのリッチデータの影響を明らかにできる。

その一方で、類似性の分析による重複コンテンツや検索意図との不一致を把握するためにテクニカルSEOが果たす役割もあるだろう。

最後に、テクニカルSEOは相関性を発見する目的で、Webサイトの特性とユーザー行動のデータの分析を行うこともできる。あなたのWebサイトがユーザーを惹きつける状況を一つでも多く作ることが目的だ。

この戦略は、ページやWebサイトの構造と、ユーザー行動の指標(直帰率、滞在時間、CTRなど)との驚くべき相関関係をあきらかにすることもある。

技術的な改善を実施する

テクニカルSEOを実施するにあたり、基礎的な内容の理解であれば、技術職で働いた経験が求められているとは限らない。

クロール、インデックス、ランキング、クリックに問題がある場合、SEOの他の領域(コンテンツ・外部評価)は、これらの問題の解決に適していない。こうした問題を特定し、解決することが、テクニカルSEOが果たす役割である

OnCrawlのようなソリューションを使用することで、コンテンツ、ログファイル、検索データなどのデータをダッシュボードで管理し、どこから改善すべきか理解しやすくなるだろう。

クロールされたページ、ランクインしたページ、アクティブなページの分布。Source:OnCrawl

あなたのサイトは、SEOの優先度のピラミッド内のどの段階に位置するだろうか?

この記事は、Search Engine Landに掲載された「The technical SEO hierarchy of needs」を翻訳した内容です。

複雑で広範囲なテクニカルSEOの領域をうまくまとめてくれた記事でした。

基本的な最適化に加え、Googleが新規でサポートする領域についても、積極的に改善を進めていきたいです。実装や修正にはエンジニアのサポートが必要となるケースも多いと思いますが、今回の記事のようなロードマップを用意しておけば、スケジューリングの把握にも役立ちそうです。

改めて、自身のサイトにおけるテクニカルSEOの現状を振り返ってみてはいかがでしょうか?

マーケターとGoogleアルゴリズムの、ほどよい関係

こんにちは。平塚です。

ここ1年だけを見てもGoogleのアルゴリズムは大きく変化しており、企業のWeb担当者のみならず、支援会社の方々でも四苦八苦することが多かったかと思います。日々アルゴリズムの変動があるたびに一喜一憂してる点では正直なところ弊社も同じです。

そこでふと、以前弊社のコンサルタントがコネクトドットのライトニングトークでお話した内容がこの話題に対してぴったりなのではないかと思い、紹介とともに、日々変わるGoogleのアルゴリズムに対しての向き合い方について話をさせていただきます。

※このスライドはライトニングトーク用かつ1年前の状況を元にしたものです。新しい情報、スライドから読み取れない情報について本記事にて補足させていただきます。

スライド内容

スライド内容について

このスライド及び記事を読んでいただきたい方は検索順位・流入に対して責任を持っているWeb担当者です。

「順位変動が起きるたびに胃が痛くなる」
「アルゴリズムの変動がニュースになるたびに説明を求められる」

ような方々の心がちょっとでも軽くなればと思います。

Googleのアルゴリズムの変遷

Googleアルゴリズムの変遷

Googleはこの10年間を見ても大きく変化をしてきました。今回細かくアルゴリズム一つ一つについて説明することは省きますが、以前のGoogleはサイトをうまくハックして意図的に順位を操作しようとしているサイトの取締まることに注力しており、世の中の担当者・SEO会社は取締まりの抜け道を探し、順位を上げることに執心していました。

しかしこのスライドを見ても分かる通り、1~2年でそういった「スパム行為を行ったサイト」への対応は完了しつつあります。

昔は「ペンギンアップデートの更新を行った」というニュースと同時にスパムサイトの順位が大変動するということが定期的にありましたが、現在は通常アルゴリズムに統合され自動的に取り締まれるようになっています。

そして現在のGoogleはスパムサイトへの取締まりを引き続き行いつつも、「ユーザーの意図を適切に読み取り」「適切なコンテンツを価値の高い順に並べる」ことの精度をより高めています。以前通用していた順位を上げるためのテクニックは通用しなくなり、リスクもコストも高くなっているのはWebマーケターの界隈でも常識のものとなりつつあります。

「アルゴリズムに振り回されること」のリスク

「 アルゴリズムに振り回される」ことのリスク

SEOは決済者にとって一見厄介なものです。広告のように投資をしたらすぐに効果が現れて、効率的か非効率的か判断するようなPDCAを回すことが難しい。なおかつ予測不可能でコストもかかります。

そうなるとできるだけ低コストで確実に順位を上げられそうな施策に飛びつきたくなるものです。しかし大抵はスパム行為で意味がないどころではなく炎上リスクやペナルティにより大幅な流入損失に繋がる可能性もあります。

ユーザーを置いてけぼりにしたSEO『対策』の危険性

こちらのスライドではスパムの危険性について指摘していますが、実はこれはスパム以外にも当てはまります。「どこから得た情報かわからないが、こういうことをやったら順位が上がった」「自社サイトで試しにテクニカルな施策をやったら順位が上がった」などの情報は弊社にも毎日のように耳に入ってきます。

ですが、そこにユーザー視点は入っているでしょうか?スパムと同じく、そういったテクニカルでユーザーを置き去りにしたSEO「対策」は比較的低コストで成果が出ることももちろんあります。当然みんな真似します。テクニカルに上位表示したコンテンツは必ずしもユーザーにとって良質なコンテンツではないでしょう

そうなると、Googleによっていずれ最適化され評価されなくなっていきます。担当者・決済者は確実な方法で順位を上げたいと思うため飛びつきがちですが、炎上リスクとまでは行かないまでも、その対策は一時的なものに終わることを当然考えておかなければいけません。

リアルタイムにアルゴリズムを知るのが難しい理由

リアルタイムにアルゴリズムを知るのが難しい理由

このスライドでも述べられている通り、アルゴリズムを分析するという試みを頑張ったところで、デイリーどころかコンマ単位で変化するアルゴリズムを捉えるのは不可能でしょう。

また皆様が知っている以上に様々なアルゴリズムが働いています。つまり現実的ではなく、学者でもない限り知ることに意味など無いのです。

「原則」「ゴール」「現在地」を知り、最適な投資をする

「原則」「ゴール」「現在地」を知り、最適な投資をする

「アルゴリズムのシグナルを知ることが無意味なんて、どうすればいいのよ?」と思う方もいるかと思います。これは実は難しいことではありません。全体像をつかめばいいのです。

  • SEOのルールとして、最低限守るべきと言われている「原則」
  • Googleが掲げている、実現したい「理想」
  • 日々ニュースに流れてくるGoogleの検索エンジンのアップデート等の「現在地」

スライドにも書かれている通り、Googleが検索エンジンにおいて「目指す場所」と「原則」を理解して「現在のおおよその位置を掴む」そして「今後進んでいく方向」を予測してやる優先度をつけていけばいいのです。

では、それぞれについて説明します。

「原則」とは?

「原則」とは

それぞれのテクノロジーについての詳細は省きますが、Googleが世の中に無数にあるコンテンツから情報を取得し、それを読み取って検索結果に反映させる方法は変わっていません。

ページを発見する能力や検索意図を把握する能力などは日々高まっていることは自明のことですが、あくまでこの原則は変わっていないと言えるでしょう。

参考:Google検索の仕組み

原則から反映されること

原則から反映されること

Googleは完璧ではありません。完璧ではないからこそ日々アップデートを行っています。スライドに上げられているような内容は検索エンジンの原則に基づき、こちら側で検索エンジンに適切に認識してもらえるようにお膳立てするべき最低限のSEOのルールなります。

※ただしこれらも検索エンジンが進化したりユーザー行動が変化することで、Googleのランク付けのプロセスが変化し、ルールが変わる可能性もあることを一応述べておきます。

「ゴール」とは?

「ゴール」とは

Googleも営利企業です。できるだけ多くのユーザーに検索エンジンを使ってもらい、その過程で得られる広告収益などを稼いでいかなければいけません。SNSやスマートフォンアプリなどGoogleに取って代わるようなライバルはたくさんいますし、これからも現れるでしょう。だからこそGoogleはどこのサービスよりもたくさんの人のたくさんのニーズを拾い上げ、最適な情報提供と提案をすることを目指しています。

補足すると、Googleは「こういったサイトを評価し、このようなサイトを評価しない」という品質評価のガイドラインを持っています。これは必ずしもGoogleが今のアルゴリズムですべて対応できているかと言うとできていないというのが正解でしょうが、Googleの目指す理想を知るためにはいい情報源となります。

※英語で書かれていること、かなり細かいところまで書かれていることから説明は省きますが、「Google品質評価ガイドライン」と検索すれば翻訳・解説しているサイトがありますのでそちらをご覧ください。

ゴールから反映されること

ゴールから反映されること

Googleの掲げる理想を踏まえれば、「リンクを貼ればいい」「重厚長大なコンテンツを検索エンジン向けに作ればいい」というアイデアには至らないはずです。あくまで私達はユーザーにとって価値あるコンテンツを提供していくことをGoogleに求められているのです。

「現在地」とは?

「現在地」とは

とはいえ、先程の「理想」はあくまで「理想」です。現在Googleは理想を必ずしも実現できているわけではありません。過去に比べたらもちろん理想に近づいているのは明らかですが。

なのでGoogleが現在行っている「現在地」が重要となってくるわけですが、この現在地の捉え方が重要です。

現在地、つまり「今、なにが評価されるのか」「Googleはどういう傾向にあるのか」というでの見方をするのではなく、「Googleの能力で、どこまでできるようになったのか」「Googleは理想に向けてどんなことに注力しているのか」というでの見方をする必要があるのです。

そのために①Googleの発表を見て、②SEOの大きなトレンドを掴み、③日々の運用の中で検索結果を注意深く見ていくことが重要になります。

下記に、スライド中で語られている中でも2019年5月現在でも重要なことの補足説明と、今Googleが注力しているであろう内容について説明していきます。

E-A-T(専門性、権威性、信頼性)

E A T 専門性、権威性、 信頼性

端的に言うと、情報の信頼性が重要になりますよ。という内容です。

とくにスライド12ページ目にも書かれているようなお金、健康、安全、法律などの「YMYL(Your Money or Your Life)」と呼ばれる人の人生に関わる情報に対して、Googleは信頼性を求めています。

Googleはユーザーに検索エンジンを利用してもらわなければいけません。なのに本当に自分にとって人生を左右するような情報を調べているときに、なんの裏付けもない適当な情報が上位表示していたら、ユーザーはその適当な情報ではなく上位表示をさせたGoogleの信頼をなくし、使わなくなるのです。Googleはこれを恐れます。

近年のアルゴリズムアップデートによる順位変動は、基本的にこの情報の信頼性の精度を高めるための更新を行っているものと思われます。特に健康・医療の領域のサイトの順位が大きく変化しているのがその証拠です。

【追加】検索結果と検索手法の多様化

最近このようなGoogleのCMをよくテレビで見かけます。

このCMの内容のように、Googleはユーザーに対して砕けた感じの検索ワードでも、いろんな形で回答ができることをアピールしていますね。

このCMのように、もはや以前のように10本の青いリンクが順番に並んでいるだけの検索プラットフォームではなく、

  • ユーザーがビジュアルで情報を求めているのであれば画像
  • 答えが一つしか無い質問に答えてほしいならアンサーボックス
  • 翻訳してほしいのであればグーグル翻訳
  • ホテルを探したいならGoogleホテル
  • 航空機を探したいならGoogleフライト

などなど、様々な検索結果を表示させることでユーザーのニーズにすばやく正確に答えることをWebページを介さずに行うということを行っています。スマートスピーカーの普及に従い音声検索などの動きも目が離せません。

【追加】モバイルユーザビリティの重要性

以前はPCのページをベースに評価していましたが、現在はモバイルページの評価を中心としています(スライド14ページ参照)。

なぜモバイルページの評価に移ったのか?それはユーザーがPCよりもモバイルをするようになった。つまりユーザー行動が変わったからです。そうなるとPCとはまた別の評価基準が現れてきます。それがモバイルユーザビリティです。現在はページの読み込み速度を中心にした評価を行っていますが、Googleの理想を考えると「いかに使いやすいか」「いかに読みやすいか」なども評価基準に入ってくるかもしれませんし、既に入ってるのではないか、という話題もよく聞きます。

【追加】 検索エンジンのクローラーの高度化

クローラーも年々パワーアップしています。最近だと今までクローラーが読み込めなかったような構成のサイトもクロール及びインデックスが可能となり、よほど大規模なサイトでない限りクロールやインデックスを気にかける必要性が薄くなってきています。このクローラーの進化により、よりインタラクティブなサイトが今後上位表示してくるかもしれません。

参考:[英文]The new evergreen Googlebot

 

…などなど、ご紹介をしようと思えばもっとたくさんあるのですが、このように日々Googleは理想に近づくために進化を遂げています。皆様にとって良いニュースも悪いニュースもあるかも知れませんが、一つだけ言えるのは「今どうなったか」よりも「こうなったことによってどういうことが今後起こるのか?」と考え、先回りすることが重要だということです。

まとめ:SEOにおける原則を頭に入れる。Googleの理想と現在地を紐付ける。紐付ければ何をすべきか見えてくる

まとめ

アルゴリズム更新されて順位が落ちる、検索結果上にGoogleが気を利かせて様々な情報を載せてきてトラフィックが奪われる、いままで通用した手法が突然効果が出なくなる…Googleは様々な試練を私達に与えてきます。これを「現在地」だけで捉えるとGoogleに振り回されることになります。

Googleはより多くのユーザーに利用してもらうために日々アルゴリズムの更新や検索機能の強化を行っています。ですが「現在の」Googleを見てSEOを行っていくことは本質的ではありません。

Googleも、Webサイトを日々運用する私達も向かうべき方向は同じです。

より多くのユーザーに利用してもらう(利益を得る)ために、ユーザーにとって有益な情報を提供する

これを踏まえた上でGoogleの動きを目に入れつつも日々の改善を積み重ねていくだけです。これは今までもこれからも変わらないはずです。

SEOに責任を持つことは非常に大変でしょうが、Googleではなくユーザーに常に目を向けて、日々積み重ねて行くしかありません。ともにがんばりましょう。もしSEOのことでご相談があれば、お気軽に弊社までご連絡ください。

マーケターとGoogleアルゴリズムの、ほどよい関係ナイル株式会社 - SEO HACKSで公開された投稿です。

40万PVが212万PVに!リーガルモールをV字回復に導いた5つの施策

実は、弊社のクライアントの「リーガルモール」という法律サイトのPVは一度大きく減少したのだ。2015年10月の83万PVをピークに2016年12月には40万PVまで下がってしまった。 しかし、今ではV字回復に成功し、20 […]

CROとSEO。あなたが今すぐ取り組むべきは、どちらか?

かたやコンバージョン、かたや検索エンジン。対象は違えど、最適化が目的であることは共通しています。

しかし、CROとSEOはそれぞれがマイナスの影響を与えてしまうといった考え方も散見されます。過去においてはそういった状況が生まれていたかもしれませんが、現在はそれぞれが補い合う(むしろ高め合う)といった関係性のほうが正しいと感じています。特にSEOは「Search Experience Optimization」であるという認識も浸透し、ユーザーに目を向ける施策と考えるべきでしょう。

今回はCROとSEOの関係性を改めて考えさせられる記事を紹介します。

※CRO=コンバージョン率最適化
※SEO=検索エンジン最適化

※今回の記事は、14,000文字弱と非常に長いものとなっておりますので、ぜひまとまった時間のある時に読んでいただければと思います。

検索意図に沿わない記事をGoogleはどのように評価するか

Webサイトへのトラフィックが急増した際の喜びは驚くべきものだ。

その理由は、ソーシャルメディアで拡散されているからかもしれないし、検索エンジンからのトラフィックが継続的に増加しているからかもしれない。

しかし、Webサイトの分析ツールのアカウントにログインした後、大きな衝撃を受けるかもしれない。

そして、

一気に落胆してしまうこともあるだろう。

なぜなら、そうしたページビューの増加が、あなたのビジネスに何一つ貢献していないことがわかったからだ。

 

・・・。

 

コンバージョンがまったくない、といった場合もあり得る。

そして、あなたはその理由を探るべく、より深い分析を行う。

ここで明らかになった事実は、上位表示させたいと願っている、あなたのビジネスにとって重要なターゲットキーワードからのトラフィックがまったくないということだった。

かのブライアン・ディーン氏(https://backlinko.com/)でさえ、この状況に陥ったことがある。彼は、「高品質 バックリンク(high quality backlinks)」というキーワードをターゲットに設定し、「ゲスト投稿をしないで高品質なバックリンクを獲得する方法(How to Get High Quality Backlinks[Without Guest Posting])」という記事を作成した。

その後、何が起こったのだろうか?

この記事は、「ハイになる方法(how to get high)」というキーワードで6位に表示されることからスタートした。

非常におもしろい。

しかし、その後、このキーワードにおける順位は12位まで下降した。

さらに、14位まで下降する。

そして、25位。最終的には33位まで下降した。

ターゲットキーワードとの関連性がなく、エンゲージメントの低い記事はいずれ順位が下降する

なぜGoogleは、「ハイになる方法(how to get high)」というキーワードで、彼の記事の順位を下降させたのだろうか?

彼の記事はターゲットキーワードとの関連性がなかったのだ。ハイになりたい人は、リンク構築などに全く興味が無いはずだ。

しかし、Googleのアルゴリズムは、どのようにして彼の記事を上位表示し、その後に順位を下降させるという判断を下したのだろうか?

ブライアン氏は、その答えを彼のGoogleアナリティクスのデータから発見している。彼のサイトにおける、ページの平均滞在時間は2分57秒だった。

しかし、「ゲスト投稿をしないで高品質なバックリンクを獲得する方法」の記事においては、平均の半分以下であった。たったの1分12秒である。

この記事へのエンゲージが低いと言えることは明らかではないだろうか? ハイになりたい人たちは、通常、バックリンクについて気にも留めていないだろう。

つまり、インターネット上の全ての人々があなたの顧客ではないのである(私が初めてのビジネスをローンチした際、同じ過ちをしていた)。あなたは、SEOとCROにおけるターゲット・オーディエンスを定義する必要がある。そのために、ペルソナの作成が有益だろう。

多くのキーワードから流入を獲得するだけでは、多くの利益を上げられない

しかし、私が最も主張したい内容は、「多くのキーワードから流入を獲得するだけでは、多くの利益を上げられない」、ということだ。コンバージョンの最適化も必要になるのだ。

あなたのサービスやプロダクトに興味がある、質の高い訪問客を獲得するためには、業界特有のキーワード(※)をターゲットに設定する必要がある。これこそが、コンバージョン最適化である。
※ロングテールキーワードのコンバージョン率は高い

ショートテールとロングテールのコンバージョン率を表すグラフ。ロングテールになるほど、コンバージョン率は高くなる。

より多くの顧客を獲得するために、一定のトラフィックを失う必要があることも覚悟すべきだ。

にわかには信じられないだろうか?

そういった方のために、1つの例を挙げてみよう。

ウィリアム・リード氏は、彼の顧客のWebサイトの流入成長がゆっくりと鈍化していることに気がついた。6ヶ月間で、10-13%しか成長しなかったのである。

分析を進めたところ、月間の検索数が50,000のキーワードで1ページ目に表示されていることを発見した。しかし、このキーワードは、彼のクライアントのサービスと深い関係のないキーワードであった。

そして、ウィリアム氏と彼のクライアントは、このキーワードの順位をゆっくりと下げることを試みた。また、偶然訪れたわけではない、訪問する意図を持った人々からのトラフィックを獲得することに集中した。

この施策を行うことで、ウィリアム氏のクライアントのWebサイトのトラフィックは減少していった。

しかし、彼らの利益は増加した。

馬鹿げた話しだろうか?

SEOとCROを組み合わせ、高い利益の獲得を実現する

下記のグラフを見てほしい。

※1 Revenue・・・収益
※2 Ranking・・・順位

この事実は、「最初からあなたの労力と費用をコンバージョン目的のための施策に費やすべき」ということを意味しているのだろうか?

いや、そうではない。

一定の訪問客がいなければ、最適化の対象すらいなくなってしまうからだ。

これが、私がKISSMetricsCrazyEgg、そしてNeilPatel.comにて、Webサイトの最適化を行い、100,000人の訪問客を獲得することに注力した理由だ。しかし、トラフィックが成長するかたわら、オプトインとリードマグネットを用い、リードの獲得の準備も進めていた。下記にコンバージョンファネルを記載する。

CRO(コンバージョン率最適化)とSEO(検索エンジン最適化)はお互いを傷つけ合うものではない。自社におけるこの2つの部署は互いに施策を進め、コンバージョン・ファネルを通じて、高い利益獲得を実現すべきなのだ。

SEOとCROにおける、3つのステージとフレームワーク

「CRO(コンバージョン率最適化)とSEO(検索エンジン最適化)は共存共栄でき、高い利益獲得を実現できること」を明らかにすることが、この記事の目的である。

その目的を達成するため、3つのステージのフレームワークを用意した。より多くのバックリンクを獲得すべき段階か、より多くのランディングページを作成すべき段階かを判断し、コンバージョン率の最適化とWebサイトの最適化を導くためだ。

ステージ1:十分に練られたコンテンツ・マーケティングとリンクビルディング・キャンペーンの実施。

あなたのWebサイトに掲載しているページの多くは、顧客の生活に価値を与え、信頼を獲得し、業界内の権威を確立するために存在している。

ファネルの上部に位置する、話題になるような高品質のブログを思い浮かべてほしい。

NeilPatel.comでもいい(もちろん)。Quick SproutCopybloggerProBloggerでも良いだろう。

こうしたサイトが全ての記事において、商品(無料トライアルも含む)や有料コースの紹介をユーザーに表示しているだろうか?

そんなことをすれば、ユーザーは不快に思うことだろう。

Webサイトのエンゲージメントを下げ、結局は売上も減少してしまうことだろう。

お金を稼ぐことがビジネスを行う唯一の目的であるべきではない。ターゲットオーディエンスの人生に価値を提供することも目的とすべきだ。

ラミット・セシ氏がI Will Teach You To Be Richのサイトで、98%のコンテンツを無料で提供しているのはそのためだ。

私は98%のコンテンツを無料で提供している。私が無料で提供しているコンテンツが、他のどの有料コンテンツよりも優れた内容になることを目指している。

私もユーザーに価値を提供するためのコンテンツ作成に数千ドルを投じ、それらを無料で公開している。これが、コンバージョンファネルにおける第一歩となるのだ。

Mozのメンバーは、かつて、SEO目的のページとコンテンツマーケティングがコンバージョンを導くものと信じていた。こうしたページに訪れた新規の訪問者が、無料トライアルを試し、Mozのソフトウェアを購買し、APIの利用契約を結んでくれると考えていたのだ。

その後、Mozのメンバーは、このような短絡的な考えは良くないと気づき始めた。彼らには、訪問客をコンバージョンへと促す、よく練られたランディングページが必要だったのだ。

マーケターとして、検索者のクエリを満たすためのみに設計された、教育的なコンテンツ(下記のMozのページのように)から何を得られると考えるだろうか?

  • 検索者のクエリを満足させるために設計されている。
  • リンク、共有、エンゲージメントの構築を狙っている。
  • コールトゥアクションは存在しない。

ターゲットオーディエンスを教育し、彼らが課題を乗り越える手助けをする。

ただ、それだけだ。

そして、どのような結果をもたらすか、あなたはすでに理解しているはずだ。

あなたのWebサイトを訪問し、記事を読むだけのユーザーもいるだろう。

もちろん、記事にコメントを残したり、ソーシャルメディアでシェアをしてくれたり、何らかの方法でWebサイトとの交流を行ったりするユーザーもいるだろう。

しかし、大多数のユーザーは記事を読み、去っていくはずだ。

90-9-1のルール」をご紹介しよう。90%のオーディエンスはただの傍観者であり、あなたのコンテンツへの関わりは薄いだろう。

この段階で行える唯一の戦略は、コンテンツのアップグレードやリード獲得を、初回訪問者に対しEメールアドレスとの引き換えに提供することだ。こうすることで、再訪問によるトラフィックを生み出してくれるメンバーを獲得することになる。

あなたはこう考えるかもしれない。

「無料のコンテンツを提供したところで、私のビジネスにおけるROIはどうなるのか?無料トライアルの利用獲得でもないのに?」

あなたのオーディエンスへ価値を無料で提供することは、コンバージョンファネルの初期段階における関係性として非常に良好である。見込み客をファネルの内側へと導き、さらに奥へと促すことも可能だ。

自然検索からの流入の多くは、あなたのブランドへの信頼性を構築するものであり、それは無料のトライアルを開始する前に必要とされるものだ。Mozの場合、ユーザーが彼らの製品の無料トライアルを申し込む前に、平均で7.5回の訪問があるという。

こうした、無料トライアルの前段階の訪問は、MozのWebサイトのどこで発生するのだろうか?

ランド・フィッシュキン氏の言葉を引用しよう。

(無料トライアルの前段階の訪問は)4/5回はコンテンツで発生する。製品ページでもなければ、価格表やその他ファネルのどのページでもない。その内の2回はソーシャルからの訪問であり、自然検索からの流入は非常に少なく、残りの1回か2回はダイレクトの流入だ。

もし、コンバージョンに注力した考えを持っているのであれば、Webサイトへの訪問の多くが無駄なものであると考えるかもしれない。自然検索からの流入の多くが、コンバージョンにつながっていないという考えだ。

しかし、MozのWebサイトへ2~3回しか訪問していないユーザーが無料トライアルを開始したらどうなるだろうか?

おそらく、彼らの多くがMozの無料トライアルを十分に使いこなすことができず、有料版へのアップグレードも行わないだろう。

そのため、Mozはコンテンツマーケティングとコンバージョンファネルを明確に線引している。

これにより、高品質のコンテンツを作成し、バックリンクを獲得し、コンバージョン最適化を考慮し、SEOを実践するという、ビジネス上の大きなインパクトにつながるだろう。

この形式のWebサイトの最適化は、Webサイトの信頼性にポジティブに作用し、Google目線での権威性の獲得にもつながるだろう。

コンバージョン最適化を目的として商品ページを作成した場合でも、そのページへのリンクビルディングを行わずに、ターゲットキーワードで1ページ目に表示されることもあるだろう。

この説明のためにECサイトでの例を挙げたい。

下記は「men’s tuxedos(男性用タキシード)」の検索結果だ。Nordstrom’sのページが1位に表示されている。このページが最も多くのリンクやソーシャルメディアでのシェアを獲得しているからではない。Nordstrom’sのSEOとサイト全体の権威性が理由となっている。

ランド・フィッシュキン氏の解説を記載しよう。

Nordstrom’sはオンライン・オフラインの両方で高い評判を得ている。ブランド自体とWebサイト全体におけるポジティブな指標だ。

  • 上位表示とコンバージョンの両方が必要
  • 価値のある情報と明確なコンバージョンの導線
  • ホストドメインが構築してきた権威性を活用している

新しくECサイトを構築する計画がある人は、「相手がNordstrom’sでは・・・。」と考えるかもしれない。「Nordstrom’sのようなこの業界における権威性はないし、予算だって比較にならない」と。

新しいECサイトが毎月何百万ドルも稼いでいるAmazonのような相手に打ち勝つことは可能だろうか?

答えは、Yesだ。

ブライアン・ディーン氏が紹介している、クリス・ローセン氏の例は非常に興味深い。デンマークのとあるECサイトが、一単語も記事を書かずに上位に表示されたのだから。彼が保有するJustBuyIt.comは消費者向けの電気商材を扱っている。

彼は、全くコンテンツを書かずに、どのようにして上位表示を達成したのだろうか?

彼は、業界内で引っ越し、または、閉鎖されたWebサイトへのリンクを貼っているサイトを探した。そして、そうしたサイトのオーナーに連絡をとり、自身の商品・カテゴリーページにリンクを設置することを依頼したのだ。

ブライアン・ディーン氏はこれを、Moving Man’s Methodと呼んでいる。SEOにおいて、鍵となる方法だろう。1時間ほどの作業でクリス氏はJustBuyItの被リンク数を劇的に上昇させることができた。

コンテンツに関連性のあるリンクを獲得したことで、そうしたリンクからの流入とコンバージョンを大きく向上させた。

ブライアン・ディーン氏作成の下記の動画を視聴すれば、こちらのリンクビルディングの手法がより良く理解できるだろう。

Youtube:Advanced SEO Strategy That Gets Results

SEOとWebサイトの最適化・コンテンツマーケティングについて理解を深めたいのであれば、下記の2記事をおすすめする。

この段階では、SEOの技術的な最適化も行うべきだろう。検索エンジンにあなたのWebサイトをインデックスしやすくしてくれるようにすることが目的だ。私が執筆した、「ビギナー向け技術的SEOのスタートガイド(英語)」を参照して欲しい。

  • Technical:テクニカル
    技術的なSEO。この領域のSEOは、検索エンジンがあなたのコンテンツをクロールし、インデックスしやすくするための施策がメインとなる。
  • Off-Page:外部施策
    サイト外のSEO。この領域のSEOは、外部のWebサイトからあなたのサイトへのリンクを獲得するための施策がメインとなる。関連性があり、権威性のあるWebサイトからの自然なリンクは、「そのWebサイトへの投票」となり、検索エンジンによる信頼性の獲得につながる。
  • On-Page:内部施策
    サイト上のSEO。この領域のSEOは、Webサイト上のコンテンツ作成がメインとなり、関連するキーワードへの最適化を目指すことになる。訪問者への「ユーザー体験」をより良いものにすることが鍵となる。

SEOとコンテンツマーケティングの施策を行うことで、Webサイトの最適化の結果、トラフィックが上昇していくことだろう。これは、オンラインとオフラインの両方で、広告への費用を抑えることにつながるだろう。

備考:インプレッションがベースとなるモデルのビジネスを行うWebサイトについて
このステージ以上のことを望む必要はないだろう。なぜなら、より多くの時間をユーザーがあなたのWebサイトで過ごし、直帰率を下げ、多くのトラフィックが生まれること自体がコンバージョンとなるためだ。

Googleアナリティクスでこちらをゴールに設定しよう。コンバージョンファネルを意識しつつ、より多くのトラフィックを獲得し、Webサイトの最適化に注力しよう。

広告の設置場所のテストも必要だ。私が執筆した「バナー広告をより多くの人に見てもらうために」を、まずは参照して欲しい。コンバージョンファネルとコンバージョンの最適化を検討するさいに、大きな手助けとなるはずだ。

備考:SEOの成果を見極めるために3ヶ月間待ち、その後、ステージ2に進むといったやり方を私は推奨しない。可能であれば、Webサイト最適化、SEO、コンテンツマーケティング、コンバージョン最適化は、並行して行われることが理想だ。

Webサイトの最適化とオンラインマーケティングに唯一の方法などはない。広告の予算が潤沢にある場合、ランディングページを作成し、広告キャンペーンを行い、多くのリード獲得を目指せばいい。これは効果的なコンバージョン最適化の手法である。しかし、インバウンドマーケティングは、伝統的なアウトバウンドマーケティングと比べ、リードあたりのコストが62%も少ないという事実(参照)を知っておくべきだろう。

ステージ2:CROの無いSEOは存在しない。逆もまた然りだ。両者は手を取り合って進めることができるのだろうか?

権威性の構築と関連のあるコンテンツからのリンク獲得を行い、ブランド構築のためのコンテンツ作成も完了している段階だろう。願わくば、十分な量のEメールリストを保持しており、Webサイトへのトラフィックも順調に伸びている状態が望まれる。

これは、まさに、ビジネスを開始する前にターゲットとなるオーディエンス間で評判を構築しているためのアプローチである。

しかし、Webサイトの最適化とSEO戦略を用いてトラフィックを獲得する理由はどこにあるのだろう?

自然検索からのコンバージョンを獲得するために他ならない。より正確に表現すると、自然検索の流入から収益を得るためである。

あなたは、自身のWebサイトを、ただコストを垂れ流す存在にはしたくないはずだ。

CROをSEOの敵と考えるべきではない。両者は共存することが可能なチームであるのだ。

オンラインの体験の90%が検索から開始されるが、マーケティング費用の全てを検索結果における上位表示を獲得するためだけに使うことはできないだろう。

特定のキーワードにおける順位とは、究極的には虚しい指標となってしまう。あなたはすでに、自然検索へのスムーズなナビゲーションと最高の体験の提供に注力すべきことを理解しているはずだ。そうすれば、顧客があなたのWebサイトに何のために訪問したかが理解できるようになる。

CROの重要性を説明するために、私自身のビジネスの事例を紹介したい。

Crazy EggというWebサイトの事例だが、こちらのトップページの最適化を行うために、CROのエキスパート達を雇用した。

彼らはコンバージョン率を30%高めるという偉大な結果を残した。

どのようにして彼らはこの数字を達成したのだろうか?

彼らは、簡潔であったトップページを長文形式の訴求コンテンツに変容させた。改修されたページは20倍ほどの長さになった。

※トップページを改修し、長文化した図

私は長い形式のコンテンツの効果を信じていたため、非常に喜んでいた。長いマーケティングコピーであれば、ユーザーのあらゆる疑問や目的に対応できると考えていたのだ。そして、それは常にコンバージョンにおいても良い結果を生むと考えていた。

この時までは・・・。

長い形式のトップページのヒートマップを見てみると、ページ下部(価格が記載されている箇所)に向かってエンゲージメントを獲得できているわけではないということに気がつく。

※ヒートマップの色が赤から青に変わるにつれ、エンゲージメントが下がっていることを示す

Copyhackersのジョアンナ氏の説を引用したい。

彼女はセグメント化した顧客のSEO調査を行い、また、テスト用に4つのタイプのトップページを作成した。

そう。短いコンテンツも含まれている。

結果はどうだっただろうか?

最も効果的だったコンテンツは、表面的なストーリーのない、簡潔なコンテンツだった。最も効果的だったコンテンツの長さは60%ほどであり、訪問者が抱える主要な関心事と目的には回答できており、コンバージョンファネルに沿って設計されていた。Webサイト最適化の偉大な事例だったと考えている。

自然検索からのトラフィックにおけるコンバージョンは13%も増加した。

そして、長い形式のコピーはあらゆる状況で効果的であるという私の仮説は間違いであったことがわかった。簡潔なマーケティングが成功することについては、「ロングコピー対ショートコピー – どちらがよりベターか?(英語)」に詳細を記載している。

これこそが、私が自身のWebサイトのテストを行うために、CROコンサルタント達を$252,000で雇用した理由である。Webサイトへのトラフィック単体では、ビジネスの成功を判断するためには、信頼できない指標となってしまうのだ。

一日に10,000の流入があるが、数秒で離脱してしまうユーザーが多いという場合、何が原因となっているのだろう?

もしかしたら、CROがSEOにマイナスの影響を与え、自然検索結果からの流入が減少してしまうということを恐れているかもしれない。

そこで、Webページのランキングに影響する要素を見てみよう。そして、CROのテストで必要な箇所も確認してみよう。

  • KW(Keyword & On-Page)・・・キーワードとオンページ
  • CQ(Content Quality)・・・コンテンツの品質
  • DA(Domain Authority)・・・ドメインの権威性
  • PA(Page Authority)・・・ページの権威性
  • UD(User & Usage Data)・・・ユーザーデータ
  • SP(Spam Analysis)・・・スパム分析

CROは上記のSEOに関連する要素のうち、3つの領域の変更にすぎない。よほど怪しい施策を行わない限り、ドメインとページの権威性が失われることはないはずだ。

CROのための変更は、これら3つの要素(キーワードとオンページ、コンテンツの品質、ユーザーデータ)の変更に過ぎない

CROのスプリットテストを行い、ページのコンテンツ、キーワードの使用率などを変更してみよう。

これらの要素を、検索エンジン経由で訪問するユーザーに最も関連するバランスを取ることができれば、コンバージョン率も高まるだろう。

しかし、こうした変更は、ただ単にコンバージョンを増加させるものではない。

コンバージョンの最適化、エンゲージメント、ページ滞在時間なども増加させるだろう。なぜなら、検索経由のユーザーはよりあなたのページに興味を持つはずだからである。

そして、

サイトの滞在時間と直帰率はランキングに影響することをご存知だろう(画像)。

CROのためのキーワードの変更などがSEOにマイナスの影響を与えると考える必要はないだろう。

さらに、SEOとCROのチームが手を取り合いながら議論できる、全体的なマーケティング戦略の施策のための2つのアイデアを紹介したい。

1.検索結果の広告で、実際にユーザーがランディングしたデータを活用する

厳格なテストの結果、あなたの現状のコンテンツはユーザーの意図に即していないことがわかったとする。

この結果を受けて、SEO担当者は何をすべきか?

オーディエンスが実際に使用する用語を含め、検索エンジン経由のユーザーの期待に沿うように、コンテンツの最適化を進めるのだ。Webサイトを居心地のいい場所にし、コンバージョン最適化を用いて目的を明らかにさせるのだ。

ケイト・モーリス氏が、非常に優れた例を提供してくれている。PPCキャンペーンからのCROがオンページSEOにおける改善を提供してくれるという内容だ。

2.ブライアン・ディーン氏による、クラシックな手法だ。彼が作成した、トラフィックを獲得するためのコピーライティングのリストを見てみよう(参照)。

まずは簡単な質問から始めよう。検索結果におけるより多くのクリックを獲得したくはないだろうか?

もちろん、Yesだろう。

より高いCTRはより多くのトラフィックを生み、最終的にはランキングにも影響する。

検索結果画面に表示されるスニペットは、メタ・ディスクリプションの内容が反映されることはご存知だろう。

下記で、最適化されたスニペットとそうではないスニペットの比較をしてみよう。

  • 上部・・・最適化されていないスニペット
  • 下部・・・最適化されたスニペット

どちらがより多くのクリックを獲得できるかは、明らかだろう。

メタ・ディスクリプション内にターゲットキーワードを含めるのはよいことだ。しかし、160文字のテキストで、ユーザーの関心を惹かなければならない。

ユーザーが抱える問題に対するソリューションがあるということを、どのようにして訴求すべきか?

検索結果画面でのCTRを高めた実績のある単語やフレーズを使用するのだ。

そうした単語やフレーズはどこにあるのだろう?

それは、アドワーズの文言の中にある。

こうした広告はマーケティング会社が多くのコストを投じて作られており、300%を超えるROIをもたらしている。

彼らは数千のスプリットテストを行い、顧客へ最も効果的に訴求できる言葉を選び、クリックを獲得している。これを使わない手はない。

あなたのスニペット文をより効果的にするため、こうしたワードをメタ・ディスクリプションに含めるのだ。

例を挙げてみよう。

ブライアン・ディーン氏の「リスト構築」の記事のスニペットを下記に記載する。

※訳:あなたがメーリングリストを作るのに使える、とてつもなく実用的なリスト構築戦略。より多くのメール購読者を得るならこちらをクリック

それほど魅力的な内容ではない。

タイトルタグは見切られており、メタタグの内容も意味をなしていない。

ブライアン氏は彼の記事の主題である「リスト構築」をアドワーズで調べてみた。

そして、「リスト構築」というキーワードは、「Eメールリスト」という単語とよく使われていることを発見した。

彼は、「Eメールリスト」という単語をメタ・ディスクリプションに含めた。

そして、「構築」や「成長」といった単語もよく使用されていた。

こうしたアイデアを自身のメタ・ディスクリプションに含めてみた。

非常にシンプルではなかろうか?

このようにして、ブライアン・ディーン氏は、より多くのクリックを獲得するマーケティングワードのリストを作成したのだ。

ここで、彼の戦略をあなたが行う場合に有用となるツールを紹介しよう。

効果のあるメタディスクリプションを作成するためのツール

i.Spyfu.com

(日本語非対応と思われる)

キーワードを入力し、ページ下部までスクロールしよう。

入力したキーワードの全てのアドワーズ広告が表示される。下記は、「keyword research」の結果だ。

ii.Yoast SEO
ワードプレスを使用しているのであれば、この非常に強力なツールを使用することでメタ・ディスクリプションの編集が容易になるだろう。アドワーズの文言から得たアイデアを組み込めばいい。

※Yoast SEOを使うと、タイトルやメタディスクリプションなどの項目を記事ごとに容易に変更することができる。日本語対応もされている

備考:A/Bテストを行うために、ユーザーごとに違うコンテンツを提供することが、Googleを混乱させてしまうと心配する必要はない。Googleボットにも、ユーザーと同じコンテンツを表示させてあげればよい(クローキングをしないということだ)。

そして、A/Bテストのために使用するURLには、rel=canonicalを設置しよう。その他のアドバイスは、「WebサイトのテストとGoogle検索(Google Webmaster Central Blog)」を参照して欲しい。GoogleもA/Bテストの実施を勧めている。Google自身も彼らのコンテンツに対するテストを行っているのだ。

ステージ3:CROとSEOの争いを終わらせよう。比類なきユーザー体験を訪問者に提供することに注力しよう。

Webサイトを根幹から見つめ直した場合、CROもSEOもユーザーに注力することが求められていることに気がつくだろう。検索エンジンのボットに提供するものではないのだ。検索エンジンのアルゴリズムを騙す行為は、安定的でなく、効果的でもない。

5年前まではCROとSEOに影響を与える異なる要素があり、ユーザー体験は組み込まれていなかった。しかし、Googleのアルゴリズムは常に進化している。

複数のアップデートの結果、SEOとCROは共に最高のユーザビリティを顧客へと届けることに主眼を置くものになった。

ページスピードはランキング決定の重要な要素であり、遅いページはコンバージョンにも影響する(1秒の遅れは売上の7%の喪失に値する)。

付加価値を与える内容と関連性のあるコンテンツは上位表示させるために重要な要素だ。同様に、より多くのコンバージョンを得るためには、強力な価値の提案が必要であり、それは説得力と関連性のあるコピーによって作られる。そうすることでしか、見込み客をコンバージョンファネルの次のステップに導くことができない。

人工的なリンク構築はもはや意味をなさない。権威性のあるページからのリンク獲得が重要だ。コンバージョンへと導くリンクを獲得することは、ランキング上昇の強力な後押しとなる。

適切な見出しタグを使用して、コンテンツの優位性をつける。ユーザーの期待に沿うため、目次の掲載はSEOにおいても有効だ。あなたが届けたいメッセージの順番を注視することになるため、コンバージョンの増加も期待できる。

数千ドルの費用をユーザー体験のために投資することは、理にかなっているだろうか?

ユーザー体験におけるROIについては、下記の動画を視聴して欲しい。

Youtube:The ROI of User Experience

かつて、私はユーザー体験(UX)をSEOの未来だと考えていた。今では、ユーザー体験がどれほど重要か、あなた自身が実感していることだろう。

「オンラインマーケティング(online marketing)」の検索結果を見て欲しい。私のWebサイトであるQuick Sproutが1位に表示されている。ForbesやWikipediaといった、権威のあるサイトよりも上位なのだ。

ページ単位の指標を確認してみると、私の記事が最も多くのリンクを獲得しているわけではないことがわかる。ページの権威性のスコアも、最上位ではない。

しかし、私のWebサイトは最高品質のユーザー体験を提供しているはずだ。独自のグラフィックの作成や各領域のエキスパートを採用するために、$40,000の費用を投資した結果である。

似たような例を紹介しよう。デレック氏は、彼の顧客にアピールするために、エレガントでシンプルなデザイン設計のために、$25,000を彼の新しいブログに投じた。優れた考えを持ち、受領歴のあるデザイナーを徹底的に探したのだ。

パーソナル化された体験をオーディエンスへと届けるその他の例として、パット・フライム氏の例を挙げよう。彼は、135,000名のEメールリストの管理をAweberからInfusionsoft、そして、Convertkitへと変更した。

彼はなぜこのようなことをしたのだろう?

定期購読者にパーソナル化された体験を届けるためだ。彼らの興味に即して、最も関連性のあるコンテンツのみを提供するのだ。

短期的なコンバージョンの増加に注視すべきでない。ネガティブなメッセージのポップアップでEメールのリストを増やしても、長期的な関係を結ぶことはできないだろう。

(訳:あなたの肌を破壊し続ける驚くべき32の物質:健康的な肌を手に入れる)

長期的な成功を目指そう。

あなたが提供する価値に説得されたユーザーの生涯価値は、騙すことによってEメールのリストに追加されたユーザーのそれと比べ、非常に高いものとなるだろう。

顧客により良い体験を提供することは、顧客のロイヤリティにも寄与し、コンバージョンの最適化を導くものだ。ハーバードビジネスレビューによると、カスタマーリテンションを5%あげることが、収益を25%増加させることになる。

これが、ユーザー体験の最適化がCROの中心に位置づけられている理由である。ユーザー体験の重要な要素をベースとして、あなたのWebサイトを設計しよう。

結論:SEOとCROは共存共栄の関係である

Webサイトへのトラフィックが充分でない場合は、ステージ1のキラーコンテンツの作成から取り掛かろう。なぜなら、コンバージョンの最適化は、コールトゥアクションのボタンの色、位置、サイズ、フォントなどの変更によってのみ達成されるものではないのだから。

顧客の調査から始め、自身のブランドをアピールしよう。よく練られた、訴求力のある言葉を作成しよう。ターゲットとなる顧客があなたのブランドを発見すれば、あなたはシンプルなコンバージョンへの道筋を提供する。こうした一連の作業が、コンバージョンの最適化となる。

A/Bテストを行うに足る、十分なトラフィック量はあるだろうか? そうであれば、ステージ2に進んで欲しい。SEOとCROから得られた両方のデータを活かすことで、高いエンゲージメントと売上を達成する手助けとなるだろう。

究極的には、ターゲットオーディエンスのユーザーインテントを満たすことになるのだ。コンバージョンを最適化し、高品質で関連性のあるコンテンツの作成に努め、最高の体験を顧客に提供することだ。

CROとSEOは常に共存できる関係であることを忘れないで欲しい。CROのテストを行い、フラッシュを使用したWebサイトが高いコンバージョンであったとしても、SEOを破滅させるものではない。

ケイト氏は、SEOを安定させたままコンバージョンの最適化を行うための5つのステップを紹介してくれている。

全体的なマーケティング戦略を採用することで、より良質な訪問客を獲得することができる。SEOとCROをうまく統合させることは、あなたのビジネスのオンラインマーケティングの目標達成の手助けとなるはずだ。

この記事を読むことで、CROとSEOは対立するマインドセットではないことをご理解いただけたと思う。

さあ、次はあなたの番だ。あなたのデジタルマーケティングの戦略は、ユーザー体験を考慮に入れたものとなっているだろうか? CROがSEOの手助けとなる(逆もまた然り)事例をお持ちの場合は、ぜひ共有していただきたい。

この記事は、NEILPATEL.comに掲載された「CRO vs SEO: Which One Should You Focus on Right Now?」を翻訳した内容です。

記事中にもありましたが、Googleのアルゴリズムは常に変化・進化を続けており、検索エンジンを騙す手法は淘汰され続けています。反対に、ユーザーに目を向けるべき傾向は加速し続け、今後もこの傾向は変わらないはずです。

CROもSEOも、その手法や指標は違えど、ユーザー体験を第一に考えることは共通でしょう。

Webサイト最適化の名の下、それぞれの施策を効率よく組み合わせていければ理想ですね。

アイオイクス株式会社では、SEOとCROを中心としたコンサルティングサービスを行っております。

ご興味のある方は、ぜひ一度サービスページをご覧ください。

求人情報ガイドラインを守って、より多くのトラフィックを集めましょう

今年 1 月、仕事探しをよりスムーズにするために日本でもGoogle しごと検索がローンチしました。ウェブマスターが求人情報の構造化データを設定すると、求職者をあなたのサイトの求人情報に結びつけることにつながり、より関心の高い求職者をあなたのサイトの求人情報に誘導できます。そこで、求職者が満足できるよう、求人情報ガイドラインを遵守することが重要です。ここでは、以下の三点についてお知らせいたします。

  • 期限切れの求人情報を削除する
  • 求人の詳細ページに構造化データを配置する
  • 求人情報の詳細と構造化データ内の情報を一致させる

期限切れの求人情報を削除する

求職者が求人情報を見つけ、応募しようとしても、求人情報の有効期限がきれて応募できないのは、とても残念なことです。求職者は、求人情報に応募しようと決めたあとに、期限切れの求人であると気づくことがあります。期限切れの求人ページをあなたのサイトから削除することで、トラフィックが増加する可能性があります。求人情報を削除する方法については、求人情報を削除するを参照してください。

求人の詳細ページに構造化データを配置する

求職者は、求人情報の詳細ページにたどりつきたいのであり、求人リストにたどりつくのが目的ではありません。求人リストへのアクセスを回避するには、可能な限りもっとも詳細なページに構造化データを配置することです。求人リストの表示ページ(たとえば、求人検索結果ページ)に構造化データを配置しないで下さい。ひとつの仕事について詳細に記載されている求人情報ページにのみ、構造化データを配置してください。

求人情報の詳細と構造化データ内の情報を一致させる

JobPosting 構造化データに、求人掲載に存在しない情報が含まれているサイトがあります。Google しごと検索で表示される求人の詳細と、求人情報の説明ページが一致しない場合、求職者は混乱します。JobPosting 構造化データ内の情報が、常に求人掲載ページの情報と一致していることを確認してください。ここでは例を示します。

  • 構造化データに給与情報を追加する場合は、同一内容を求人情報の説明ページにも追加します。両方の給与の数字は一致させてください。
  • 構造化データの location は、求人掲載ページの職場と一致させてください。

求人掲載ページのコンテンツと整合性のある構造化データを提供することは、求職者が仕事を見つけるのに役立つだけではなく、あなたの求人情報に対し、より関心の高い候補者を集められることにつながり、求人に適した候補者を見つけられるようになります。

あなたのサイトが求人情報ガイドライン(このブログ投稿のガイドラインも含む)に違反している場合、Googleでは、あなたのサイトに対して手動による対策を実行し、Google しごと検索に求人を表示することができなくなる可能性があります。よくみられる違反例としては、構造化データの title フィールドに、給与や会社情報、キャッチコピーなどを詰め込んでいるケースです。タイトルには「ソフトウェア エンジニア」のように職務の名称のみを指定してください。求人情報のタイトルではありません。また、構造化データの hiringOrganization プロパティには、職務をを提供している組織名、会社名のみ指定してください。所在地や求人情報は含めないでください。手動による対策を受けた場合、問題を修正し、再審査リクエストを送信すると再審査を行えます。再審査で問題の修正が承認されると、あなたのサイトやページが、手動による対策から解除されます。

詳細については、Job Posting 開発者向けドキュメントおよび Job Posting よくある質問を参照してください。