Googleより容赦無し?Appleのアプリランキング操作の『即アウト』的な排除規制が、実際わりと厳しい模様

同じ”ランキング”に関わるテーマでも、今回はiPhoneやiPadを代表とするiOSアプリを主題とした話題です。つまりGoogleでの検索ではなく、「App Store」の中の話です。とりわけ新情報というわけではありませんが、「本格的な動きが見られた」という意味では新しいかなと。

App Storeのランキング操作に関わる仕組みを持つiOSアプリがゴッソリとストアから排除されるように規制強化

ランキングの人為的な操作を排除することでユーザーの利便性の向上を図りたいのは、なにもGoogleだけではありません。ランキングの品質改善は、ユーザーにランキングを提示する仕組みを持つ多くのプラットフォームにとって、避けては通れない課題の一つなのです。

Appleのアプリストア「App Store」でも、ランキングの公正化のための取り組みとして、人為的にランクの操作をする目的のプロモーションを排除する動きが厳しくなっているということがつい先日、話題になりました。まとまっている記事としてはこのようなところをご覧頂ければと思います。

※2つ目、3つ目のURLについては、訂正も入れられていますが「規約がずいぶん厳しくなった」ではなくて「もともと言われてたことが本格的に実行されてきているようです」という意図ですね。タイトル内の「規約厳格化」の表記で誤解する人も中にはいそうでしたので、念のため補足。

“記事の公開時、「規約を発表」とありましたが、「すでにある規約を厳密に運用し始めた」の誤りでした。”

“以前からAppleはリワード付きの広告を禁止していた。しかし、実際には規約は厳格に運用されず、「厳密には違反しているようだが、何も言われない」という状況になっていた。”

 
さて、挙がっている話題をまとめますが、

“規制の対象となるのは、報奨で誘ってビデオの視聴をすすめるツール、ソーシャルに共有するとおまけがもらえるもの、プレイしているゲームの中でほかのアプリを見つけさせるもの、などだ。この規制はアプリ業界全体に影響を及ぼし、アプリの成長や市場拡大のためにこれまで一般的に使われていた方法を“リセットする”効果を持つだろう。”
ビデオを見たりソーシャルな共有で“ごほうび”をくれるアプリはApp Storeから締め出しへ…iOS 8の大改革

ということで、何かしらのインセンティブ(報酬)と引き換えにユーザーに何らかのかアクション(広告の閲覧、アプリのインストール、Facebookでのシェアなど)を求める仕組みを持つアプリは、アプリストアからリジェクトされる、つまりストアに掲載されなくなるということですので、その間は一切新規のインストールを獲得出来ません。重めです。

そういう規制がここにきて本格的に運用され始めたようです、というのが今回の話題の主旨となります。ここからは、この話題を背景から掘り下げて行きましょう。

App Storeの人気ランキングってどうやって決まるの

Appleのアプリストア「App Store」は、利用したことがある方は分かると思いますが、アプリの人気ランキングには、「総合」「有料アプリ」「無料アプリ」のような全体的なランキングと、「仕事効率化」「ビジネス」のようなカテゴリ毎のランキングが存在します。

アプリのランキングには、総合的なランキングとカテゴリごとのランキングがあり、有料アプリ、無料アプリ、どちらも含むランキングから探すことが出来ます

こうしたランキング決定ルールについてはGoogleと同様公表されてはおりませんが、やはり「一定期間内にどれだけ多くの人がインストールしたか」という要素は大きいようです

※もちろんGoogle検索と同じで、インストール数が全てではありませんが、主たるランキング決定要因の一つにはなっている、ということです。だからApple側としても本腰入れて規制をせざるを得ないわけです。

 

そして、iOSでアプリをインストールするユーザーのうち、App Storeの人気ランキングを参考にインストールするアプリを選ぶユーザーはやはり多く存在します。

従って、「一定期間のうちにどれだけインストールされるか」でランキングが上がるか上がらないかが決まり、ランキングが上がればその後のインストールの促進にもなるわけです。

つまり、iOSアプリにおいて継続的にインストールを増やすために、

  • 短期間でのインストールを増やし、人気ランキング上位に食い込む
  • App Storeユーザーへのリーチが増え、オーガニックなインストールも増える
  • その後も継続的に一定量のインストールを獲得し続け、ランキングを維持する

大きくこのような施策が一般的に行われています。

従って、まずは「短期間でのインストール促進」というのはこの流れの起点となることですので、ここが上手くいくかどうかがアプリマーケティングの鍵を握る、と言っても過言ではない状態でした。

何かしらの報酬を対価としてアプリのインストールを促進するプロモーションが普及

「何かしらの報酬を対価としてアプリのインストールを促進するプロモーション」て何やねん、ということですが、砕けて言えば「ここからこのアプリをインストールしてくれたら、コイン○枚プレゼント!」みたいなやつです。

逆に、「コイン○枚あげるから、その代わりこのアプリインストールしてよ」とも言えますね

そしてこういう形式でインストールを増やしまくったアプリが人気ランキング上位にいるというのは、何か本質的な「人気ランキング」と言うには違和感ありますよね、というのはWeb検索に関わる仕事をされている方であれば慣れ親しんだ文脈だと思います。

また直接的なインストール促進以外にも、同じような意図で、ポジティブなレビューの投稿やソーシャルメディアでのシェアを報酬付きで促すようなプロモーションも広く行われています。

とにかく、このようなランキングの人為的な操作につながるような行為を何かしらの報酬を対価としてユーザーに促すような仕組みについては、実はもとから規制するとされていました

しかし、Googleのかつてのガイドラインと同じく、「そんなこと言ったっていくらでもやれちゃうし、やってるやつたくさんいるし、現にランキング上がりまくりじゃん」状態であった、ということですね。

Google検索とApp Storeの違い

Google検索ランキングとの大きな違いとして、掲載されているコンテンツ(アプリ)は全てAppleの規定に基づく人的な審査を通過したものですので、Web検索よりも掲載時点でのコンテンツ品質をある程度は担保しやすい、という点が挙げられるかなと(App Storeの場合は審査時に体裁整えて通してしまえば、、という抜け道はあるのでしょうけど、さすがにいずれはその辺も対応されるかと思いますし)。

また、それに付随し、コンテンツ量はGoogleのように”兆”とかの規模にはなり得ませんので、あくまでアナログな規制であっても機能しやすいという点も今回の話題には直結します。(ちなみにApp Storeの場合は特定の仕組みを自動検出する精度とかはどうなんでしょうかね?)

したがって、Googleのようなアルゴリズム依存ではなく、プラットフォーム側の運用ルールをどのように引くか、どのように運用するか、という改善のみで大きく規制を加速することが可能ということです。

その前提で、Google検索のリンク売買のアレと比較すると

若干こじつけだったりしますが概ねこんな対比は分かりやすいかなと思います。

App StoreとGoogleで対比して考えます。  App Storeの事情。 ・インストールが多いアプリは人気があるというロジック ・だからインストールが増えるとランキングが上がりやすい ・何らかの報酬と引き換えにインストールを促す機能を持つアプリがある ・何らかの報酬を払って得たインストールでランキングをあげようとしているアプリがある ・ユーザーの自発的なインストールでないのであればランキングに反映したくない ・報酬と引き換えにユーザーにアクションを促す機能を持つアプリに規制を入れる ・アプリストアからのリジェクト(排除):ストアに掲載されない ・問題となる部分を修正して再審査を行い、問題がなければ規制解除  Google側の事情。 ・リンクがたくさんあるサイトは人気があるというロジック ・だからリンクが増えるとランキングが上がりやすい ・何らかの報酬と引き換えにリンクを提供しているサイトがある ・何らかの報酬を払って得たリンクでランキングを獲得しているサイトがある ・ユーザーが自発的に貼ったリンクでないのであればランキングに反映したくない ・報酬と引き換えにリンクを提供しているサイトに規制を入れる ・検索結果からのインデックス削除:検索結果に表示されない ・問題となる部分を修正して再審査を行い、問題がなければ規制解除

という感じですね。Googleに慣れている方であれば特に違和感なく飲み込める話題だと思います。

今回のケースはGoogleのリンク売買の例に例えれば「リンクを売っているサイトは問答無用でインデックス削除ね(=検索結果に表示されなくなるよ)」ということになりますので、Googleで言えば最も重度のペナルティを、割とバシバシ行っているということです。

現実には、Googleのインデックス削除は、本当に低品質なサイト(アフィリエイトリンクばっかりとかリンク提供以外の目的がないとか)を除いては、よほどのことがない限りは一般的なサイトでそう起こりうるものではないのですが、Appleの場合はその辺は容赦ないみたいですね。

しかもGoogle検索で言えば、大事に作ってきたメインのサイトがそうなる、とかそういうレベルのことですので、アプリ関係者としてはそれなりに大きい変更と言えそうです。

ちなみに:実際この規制運用の強化によりどうなったか

ちょっと又聞きの情報なので不確かではありますが(関係者の方、もしも不適切でしたら訂正追記しますのでご指摘頂けますと幸いです)、結構色々話は聞きます。

結論から言えば、とりあえず、Appleは割と本気出してきているようです。

少なくとも上記の規制の対象と言われている

  • インセンティブ付きで他アプリのインストールを促進する仕組みを持つアプリ
  • インセンティブ付きでソーシャル拡散等を促す仕組みを持つアプリ

のような代表的な規制対象の仕組みを持つアプリは割とガシガシリジェクトされているみたいです。

また、ユーザーにインセンティブ付与が有りだろうと無しだろうと、アプリの中で他のアプリインストールを推奨するようなものも含めてアウトになっている的な噂もあります(これはあくまで噂)。

インセンティブの有無に関わらず、アプリの中で他所のアプリをプロモーションするのはヤメレ、という意図がそもそもあるのかもしれません。ぶっちゃけそれくらいはええやんとか思ってしまいますが。普通に広告してるだけだし。。(※もちろんそれ以外でアプリ内に表示される通常の広告ネットワークなどは特に規制の対象ではありません)

ちなみに、Webを通じたインセンティブ付与の広告とかについては特に規制とかないんですけどね。アプリの中にそういう仕組みを持ってたらダメよ、ということなので。

※この辺については、アプリ内でのインセンティブ付与の排除の背景として、「ランキング操作の禁止」だけではなく「そんなところでインセンティブとして付与しちゃったら、Appleに課金してもらえないじゃないの」という意図も多分にあるのかなと思いますがどうなんでしょうね。媒体(アプリ)としてはアドオンで課金されるより広告で得られる報酬が高いのであれば普通そちらを選びますし、事実今でもインストール成果報酬型の広告って単価かなり高く設定されますし。

 

まとめ

アプリの関係者の方々にとっては何だかんだ言ってもそれなりにはインパクトのある規制強化なのではないかなと。少なくともGoogleがここ何年もかけて取り組んできた規制レベルを、それに比べれば結構な短期間でズバンと進めてきたのが今のAppleということですので。

実際には、監視をかいくぐってうまいことやることが出来ないわけではないと思いますので、どこまで厳密にこの規制をAppleが運用していけるか分かりませんが、Googleのそれに比べれば現実的に運営側の努力と工夫である程度対応できるコンテンツ量ではないかな、などと考えますと、

アプリマーケティングの世界では、定められたルールの中でちゃんとプロモーションするにはどうしたらよいか、というのを考えていかなきゃ行けないよね、がキレイ事ではない時代はそんなに遠くないかもしれないですね。

※今回の件、おそらく「そういうプロモーションをしてるアプリを規制する」だとめちゃくちゃハードル上がると思うんですけどね。外的要因が絡むので検知と判断が難しいので、今Googleが右往左往してることと似たようなことを何だかんだすることになると思いますし。あくまで、「そういう仕組を持っているアプリ」への規制、ということで、根本からそういうプロモーションをやりづらくしようとしているのが現状でしょう。Googleも、最近のリンク系ペナルティの話題を聞くに、表面的なリンク対策への対応よりも、根本的な原因の検出と排除に注力するポイントをシフトしてきているようにも見えますし。

 

ともかく、GoogleにしてもAppleにしても、特定のプラットフォームに依存したビジネスを行うにあたっては、プラットフォームが許容する中でどうやって勝っていくか、を考えるのは普通です。

その中で、現時点での勝ちパターンを追求することで勝てている勝負も多くあると思いますが、一方で、プラットフォーム自体のルールや仕様の変更によりその勝ちパターンが一気に破綻する、といった可能性は常に考慮しておかないといけませんよね。

ということで、普段と違った話題をお伝えしました。別事業でアプリ紹介サービスを運営しておりますのでたまにはアプリ界隈の話題も良いかなと。(長い割に薄い内容ですみません)

最後に:SEOセミナーのお知らせ

すみませんただの告知でしかないのですが6月24日(火)に僕とグループマネージャーの實川の2人でセミナーやります。Googleのこれまでとこれから、SEOのこれまでとこれから、実際に業務としては何をしていくべきか、事例を交えてポイントに分けてお話します。ご興味ある方は是非。
セミナー詳細:“リンクを買わないSEO”を成功させるための、Web担当者向け実践SEOセミナー

[寄稿] 初心者でも失敗しない、リスティング広告代理店の上手な選び方

株式会社スタビライザー小松氏による寄稿3記事目、リスティング広告代理店の選び方について。やろうと思えば自社でもできることを外注するのであれば、そのメリットを十分に享受するために良い代理店を選ぶポイントを知っておくことは特に不慣れな発注担当者にとっては非常に重要ですね。

リスティング広告代理店選びは難しい

以前こちらのブログでSEO会社の選び方についての記事を寄稿したところ、「リスティング会社の選び方はどうするんだ?」というご意見を頂きましたので、私のこれまでの経験をもとに失敗の少ない比較方法や選ぶためのポイントをお伝え致します。今回はリスティング広告を初めて外注しよう方向けの記事です。

※リスティング広告運用に関するテクニカルな話題は別なサイトに多数掲載されているのでそちらを参照してください。

さて、SEO会社選定では要約すると以下のポイントで選んだ方が失敗が少ないという話をしました。

  1. しっかりとした情報を発信しているかを見極める
  2. 信頼出来る人と交流を作り、人づてに紹介をもらう
  3. 順位の提案ではなく収益につながる提案かを見極める
  4. 明らかな新人に単独で担当させない。

それに比べると、リスティングの外注先を選ぶのは私の経験上ホントに難しいと思います。

以下、SEO会社の選び方のポイントと比較しながら説明します。

「しっかりとした情報を発信しているかを見極める」について

SEO会社の担当者や中の責任者がSEOに関するブログで情報を発信していたり、SEOのセミナーを開催しているところもあります。

積極的にそういうことをしている会社(人)は、そうでない場合に対して、信用できる確率が比較的高い。あまりメディアに登場しない凄腕のSEO会社ももちろんあるのですが、初心者ではそれはなかなか判断しづらいです。

リスティング広告運用はSEOよりもはるかに属人的要素が強いと思っています。特に、外部に向けて情報発信している人がアカウントを作成し運用まで行うとは限らない(そうでない場合が多い)ので、会社選定が間違ってはいなくても、SEOに比べると精度が落ちがちです。

編集者注:
もちろんSEOでも属人性を完全に排除することは出来ませんので同様の側面はあります。ただし広告運用はあくまで運用実務担当者がスキルがダイレクトに結果に反映されやすいという点でより属人的、というのは間違ってはいないかなと思います。属人性を排除するためのルール作りはSEOもリスティングも重要だと思いますが、ここも属人化することのメリットデメリットのバランスの問題で、個人的には属人化の排除で失われるものは大きいかなと思う派です。

「信頼出来る人と交流を作り、人づてに紹介してもらう」について

自分の友人・知人でSEOを実施している会社はたくさんあると思います。取引実績のある会社からの紹介だと丁寧に対応してもらった、というケースは多くの方が経験されていることかと思います。

SEOも例外ではなく取引実績のある会社の紹介だときちんと対応してくれる可能性は高くなります。

どうしても知り合いがいないなどの場合は、インハウスのSEO担当者が集まるイベントが定期的に開催されているのでこちらで知り合った方から実際の評判を聞いたり、紹介してもらうのも手です。

これは、リスティング広告の話題で行ってもやはり正しいです。実績のある会社からの紹介であれば紹介された方も最大限、失敗しないよう対応して頂けます。

「順位の提案ではなく収益につながる提案かを見極める」について

そのキーワードで上位表示されるとキーワードの意図とサイトはマッチしているので収益が上がるとか、そのキーワードでは上位表示されても収益につながらないからこっちのキーワードが良いなど、依頼者の利益につながる話が出来ない会社や担当者と付き合っても、絶対にろくなことがありません。

こちらは、リスティング広告は検索順位の話ではないので該当はしませんが、収益に繋がる提案か?と言う部分は同じと言えます。

「明らかな新人に単独で担当させない」について

新人が担当の会社に依頼する場合でも、コンタクトは担当の人とするにしても必ずその人を単独で担当させないことです。出来れば、そのプロジェクトの責任者は誰で、施工項目の監修は誰が行うのか、なども教えてもらい、早い段階で顔合わせはしておくべきです。

営業担当とアカウント運用者は別なことが多いのでできれば運用者に会うor直接コンタクトを取るようにしましょう。新人営業でもベテラン運用者が成果を出す場合もあるし、ベテラン営業が来て、物凄い期待感を持って始めても運用者が新人というケースもあります。

これらの理由から、SEO会社とリスティング会社では、同じWebマーケティングというくくりではありながらも、違うという部分がご理解いただけると思います。

端的に言うならば、SEO会社は「実績(※1)」リスティング広告代理店は「人(※2)」。で選ぶ、と言いかえてもが良いかと思います。

※1:「上位表示○○%の実績!」「難関キーワード『○○』で1位!」という実績ではありません。自社と類似したケーススタディを持っているか、過去のSEO施工内容は信頼できるものか、という意味です。そういう意味で有識者や経験者からのポジティブな紹介は失敗率を大幅に下げてくれます。

※2:人とは、営業担当者ではなく、あくまで「誰が運用するか」「誰が監修するか」という意味での運用面での「人」を指します。

補足:SEOとリスティング広告では業務内容も求められるスキルも全く違う

どちらにしても、まずは、SEO会社とリスティング広告代理店では、それぞれの仕事が「全く違う業務」ということをご認識ください。

「検索」「売上を上げるという使命」は共通ですが、その業務内容や求められるスキルは全く異なります。そのため、上記のように選定基準も全く変わってきます。

例えば、カラダに異常があったときに、体にメスを入れる外科医と、投薬で治す内科医では、「医療」「体を正常にするという目的」は共通ですが、その手法は全く異なりますよね。

SEM(検索エンジンマーケティング)の現場でも、同じことが起こっているとご認識ください。

違うのは分かった。じゃあ、どうすればいいんだ??

ここまではSEO会社とリスティング広告代理店の比較のもとで解説を行いました。じゃあ、どうすればいいの?ということについてこれから解説をしていきます。

少額で良いので、まずは自分でリスティング広告を運用してみる

これです。とにかくまずはこれが重要です。

SEOと違って自分でアカウント作って運用することはそこまで難しくありませんし大きな時間やコストを要する取り組みでもありません。とにかくまずは自分でやってみるのです。

そうすると、多くの場合は上手く行きません。というか、上手く行ってるのかどうかすら分からない、という方が正しいと思います。

ですが、ひとまずはそれで良いのです。これはプロモーションではなく、学習に対する投資と考えた方が良いかもしれません(許容できるコストの中でやるようにしましょう)。

ある程度の試行錯誤を重ねた上で、「もう自分たちでは無理!」という状態のアカウントを見せてどう改善するのか代理店の方から提案をもらうと良いです。

少しの期間や金額でも、自分で経験していると、代理店の方が今のアカウントの内容や結果をどのように捉え、今回の提案をしているのか?という様に、提案の理解度が格段に変わってきます。

自社での運用がどうしても出来ない場合はどうするの?

もちろん、全てのケースでそうした学習投資が出来るとは限りません。人的余力の問題、社内的な事情や時間的な緊急度などにより、なかなか学習のためのテスト運用にコストを割けない場合もあるでしょう。

  • 土日対応、年末年始どうする?
  • LPのアドバイスくれるの?
  • アカウント構成の提案ある?
  • アクセス解析まで見てくれるの?別料金なの?
  • (運用の)担当者はどういう実績のある人なの?

リスティング広告代理店の営業を呼んで聞きたいことはこのように山ほどあっても、自分に知識や経験が乏しい場合、聞いてもそれが良いのか悪いのか、場合によっては本当なのか嘘なのかの判断も出来ないと思います。

そういう場合でしたら、(実際やるやらないは別にして)、自社のビジネスやターゲット層について理解してもらった上で、

「GDN(Googleディスプレイネットワーク)やYDN(Yahoo!ディスプレイネットワーク)であればどういう訴求でどういうサイトに出していくのか?」

こちらを担当者に質問してみてください。いわゆる「ディスプレイ広告」のマーケティングについて、提案を求めてみるのです。

その回答を聞いて、「うちの顧客やマーケティングをちゃんと理解してくれている」「問い合わせがありそう、売れそう」という感覚を持てれば、その人はおそらくターゲットの行動が推測出来ていて、リスティング広告でも成果が出すことを期待できます

GDNやYDNについての質問に的確な回答が返せない、ターゲットの行動をあまり想像できていない、という人ですと、検索も含めてリスティング広告でコンバージョンを上手に取っていくのは難しいかもしれません。

編集者注:
これはなるほどーと思いました。GDNやYDNでどういう面に出すかとか誰に出すか、とか、どんな広告をどのタイミングで見せるか、とかをパパっと話せる人って、最低でもそれなりに広告とかマーケティングに慣れてる人か実力ある人だと思いますし。ちなみにこれは自社で運用したことがある無しに関わらず聞いてみるべき質問かなと思います。

そういう意味ではSEOでも同じような質問が色々考えられそうですね。もちろん必要なスキル領域が割と広いので何パターンか質問用意しておく必要がありそうですけど。

まとめ

それでは、今回のおさらいです。リスティング広告の代理店を選ぶ時は、

  1. まずは少額で良いので自分でやってみる
  2. その上で、(できれば紹介してもらった)代理店から改善提案をもらう
  3. GDN・YDNで広告を出す場合のターゲット選定が間違っていないか聞いてみる

これらを確かめてみてください。

SEO会社の選び方のときにもお話しましたが、全てをSEO会社・リスティング運用会社におまかせするということは、正解にも不正解にもなり得ます。

まるっとお願いすることでパフォーマンスが上がるということはもちろんよくあります。しかしながら、自身の知識・知見が無い場合、担当者とキャッチボールを行うことができません

その結果、機会損失・営業損失が生まれ、仮に優秀な広告運用担当者がついても、良い結果が得られないことも少なからずありえます。

もちろん、全ての機能を知り、全ての運用を出来る必要はありません。そんなことが出来るWeb担当者はごく一部です。ただし、これから始めることをまずはご自身でも少しずつ理解を行うことは大切なことです。

Webマーケティングの世界は目まぐるしく変化します。事業をきちんと回すためにも、優秀な担当者と付き合うことはプラスになります。

そうした「人選び」ができるようになるためにも、まずはご自身から初めて見る。というのは是非チャレンジしてみてください!

【超・保存版】ユニバーサルアナリティクスがよく分かる!実務者向け徹底解説

先日、ユニバーサルアナリティクスって何が違うの?その機能や移行方法など徹底解説という記事を書きましたが、今回はユニバーサルアナリティクスの実務編として細かな設定方法などをまとめました。

調査~テスト~執筆まで3週間がかりでした。。設定方法などでお困りの方に、少しでもお役にたてましたら本当に幸いです。また、十分に確認はとったつもりですが、万が一誤りありましたらご指摘下さい。。

この記事の内容

セッション定義変更に関して
カスタム変数とカスタムディメンションとカスタム指標に関して
基本的なスニペットの置き換えに関して
イベント
e コマース
仮想ページビュー
ソーシャル インタラクション(ソーシャルプラグイン)
クロスドメイン トラッキング

あくまで、今回は実際にテストしてみて動いたものを載せています。サイトによっては全く同じ設定にしても何かが原因で動かない!ということもあるかもしれませんがその場合はサイトのシステムを把握している人などに相談していただければいいかと思います。

※コードのUA-0000000-0やexaple.com/hogehoge.comなどはサンプルとしての記載ですので各自のサイトに合わせて変更してください。

セッション定義変更に関して

ユニバーサルアナリティクスでは参照元サイト経由の訪問が別セッションとして計測されます。

この文章をみてどういうことか理解できる方は読み飛ばしていただいて大丈夫です。個人的にはよくわからなかったので実際にテストをしてみました。そして、そういうことなのか!という驚きがあったのでまとめてみます。

関係ありそうなサイト

  • クロスドメインの設定はしていないけど別サイトに飛んだり元ドメインに戻ったりするサイト
  • 様々なサイトからリンクをもらっていて参照元経由のアクセスが多いサイト(?)

の場合は特に関係ある話になると思います。

どんな影響があるのか?

ユニバーサルアナリティクスにしたらセッションが増えた、参照元の数が増えた

サイトによりけりなので、大きな影響はないかもしれないですが、Google アナリティクスとユニバーサルアナリティクスで数字が異なる場合はこの計測方法の違いの影響な可能性があります。

例えば私は、調べ物をしていていろいろなキーワードで検索して、いろんなサイト入ってそのリンクから他のサイトに遷移して。。というのをずっと行っていると何回も同じページに様々な参照元からランディングしてしまうことがよくあります。

こういった場合これまでは同一セッション内なら何度同じサイトに入ってもセッションは1であったのに対してユニバーサルアナリティクスでは別セッションになっているので、セッション数が増えてしまう可能性があります。

コンバーションの参照元がすべて同じドメインになってしまう

クロスドメインの設定を行っていない場合とユニバーサルアナリティクスで参照元除外を行っていない場合です。

例えばtest.com内のリンクからexample.comにランディングして、hogehoge.comというドメインのフォームを使い、コンバージョンをhogehoge.com/thanksというページに設定していたとします。

1セッションで異なるドメイン

従来のGoogleアナリティクスは、上記例の場合コンバージョンページ( hogehoge.com/thanks )の参照元は test.com のままですが、ユニバーサルアナリティクスの場合、参照元が変化すると別セッションになってしまうので参照元がすべてexample.com / referral になってしまいます。

従来のGoogleアナリティクスではどう計測されていたか?

不慣れな方のために、そもそもセッション(ちょっと前まで訪問数と記載されていました。)とはなんでしたっけ?という話を簡単にします。

同一の訪問者が閲覧を開始してから終えるまでの一連の流れ。のことを指します。終了はどのタイミングかというと下記のような状況で切り替わります。

  • ブラウザを閉じる
  • 午前0時
  • 30分以上操作をしない
  • キャンペーン、ソースの変更

※utmzが更新されるタイミングなのですが、細かい話になってしまうので、詳細はアナリティクスでの訪問数の算出方法でご確認ください。

例えば下記のようにサイトを遷移したとします。

1セッションでの推移

そうするとこのサイトは参照元/メディアはyahoo / organic、セッション1で、このセッションでのページビューは3となります。

※もしここまででちょっと良くわからない場合は下記サイトを参考にしてください。
参考1:クリック数、訪問数、ユーザー数、閲覧開始数、ページビュー数、ページ別訪問数の違い
参考2:訪問数とページビューの違いについて

では本題です。下記のような動きをした場合、各指標の値はどうなるでしょうか。

2セッションでの遷移

従来のGoogleアナリティクスの場合、参照元/メディアはhogehoge.com / referral、1セッション、ページビュー6になります。

ユニバーサルアナリティクスではどうなる?

ユニバーサルアナリティクスでは参照元サイト経由の訪問が別セッションとして計測されます。したがって、

2セッションでの遷移

参照元/メディアは hogehoge.com / referral と test.com / referral、2セッション、6ページビュー(1セッションは3ページビュー)になります。

以下に実際にテストした結果のキャプチャをそのまま(サイト名とかは編集しました)載せています。テスト環境は1サイト全ページに従来のGoogleアナリティクスとユニバーサルアナリティクスで異なったプロパティIDのトラッキングコードを入れています。ブラウザはchromeです。

集客>すべてのトラフィック

従来のGoogleアナリティクスの場合
Googleアナリティクスすべてのトラフィック

ユニバーサルアナリティクスの場合
ユニバーサルアナリティクスすべてのトラフィック

行動>サイトコンテンツ>すべてのページ

従来のGoogleアナリティクスの場合
Googleアナリティクスすべてのページ

ユニバーサルアナリティクスの場合
ユニバーサルアナリティクスすべてのページ

カスタム変数とカスタムディメンションとカスタム指標に関して

前回の記事にも載せたのですが、少し詳細にしてみました。

具体的にできること

  • AボタンをクリックしたユーザーをAグループ、BボタンをクリックしたユーザーをBグループと分類してその行動の違いを比較
  • ログインした状態でのセッションとログインしてない状態でのセションでの行動の違いを比較
  • 誰の記事が問い合わせにつながっているか

など設定次第ではいろいろなことができます。

また、ユニバーサルアナリティクスでは外部データをインポートする時にそのデータの独自のディメンションと指標をそのまま設定し、レポート画面で使うこともできます。

カスタム変数とカスタムディメンションとは?

まず、カスタム変数は従来のGoogleアナリティクスの機能の名前です。

カスタムディメンションはユニバーサルアナリティクスでの機能の名前です。ただ、カスタムディメンションはカスタム変数のパワーアップ版という感じなのでまとめて説明します。

2つともディメンションなので何か数字を計測するのではなくPVや訪問数などアナリティクスレポートで見れる数字にオリジナルなグルーピングしてあげる機能です。

ちょっとイメージしにくいかもしれないですが、レポート画面で「行動>サイト コンテンツ>すべて」のページを見ていたとします。

例えば、ページビューが一番多いページは一体どこからの流入が多いんだろう?と思ったらセカンダリディメンション>集客>参照元を設定してみたり、サイト全体の直帰したセッションと直帰以外のセッションを比較をしたいときはセグメントを設定してみたりすると思います。

そのセカンダリディメンションとかセグメントに自分が指定した分類が追加されるイメージです。

※自分で設定することができ、自由度が高い分あまり必要性を感じなかったり、よく意味がわからないのであれば無理に設定する必要はないと思います。

用語

あまり馴染みのない用語が出てくるので先にまとめます。
色は下に記載した追加するコードと合わせてあります。(わかりやすくなればと思い・・・)

index:変数番号(必須)
変数を区別する番号で、整数の1から5までの5つのいずれかを割り当てることができます。

  • カスタムディメンションではdimension、1から20まで設定可能
  • カスタム指標ではmetric、1から20まで設定可能

name:変数の名前(必須)
カスタム変数の名前で文字列。レポート画面上ではカスタム変数(キー)の名前として表示されます。

  • カスタムディメンションではdimensionValueとアナリティクス設定のカスタムディメンションの「名前」
  • カスタム変数ではmetricValueとアナリティクス設定のカスタム指標の「名前」

value:変数に対応する値(必須)
カスタム変数の値で変数名とペアになる文字列です。例えば「name」が性別、「value」は男性、女性といった使い方。通常一つのカスタム変数の名前に対して複数の値が存在します。レポート画面上ではカスタム変数(値)の名前として表示されます。

  • カスタムディメンションではSOME_DIMENSION_VALUE
  • カスタム変数では(デフォルトのコードで123となっている部分)

※変数をセットするトリガーには

  • ページを表示した時
  • リンク/ボタンをクリックした時
  • フォームを実行した時

などがあります。

scope:利用用途番号(オプション)
変数の利用用途。指定しない場合は3の扱いになります。1はユーザーレベル、2は訪問(セッション)レベル、3はページレベルを意味します。ユニバーサルアナリティクスでは管理画面「範囲」で設定します。

※スコープ詳細

- ビジターレベル:
ビジター レベルの変数は、サイトへ訪問したユーザーの全てのセッションと閲覧した全てのページに関連付けられます。例えば購買を行なったユーザーや会員登録済みのユーザーなど、セッションをまたいで、長期的なトラッキングを行なう場合に適したレベルです。スコープは 1 を指定します。

- セッション レベル:
セッション レベルの変数は、ユーザーのセッションと閲覧した全てのページに関連付けられます。たとえばログイン機能を持ったサイトのように、異なる利用形態を選択できるサイトで、訪問ごとの傾向を比較する際に適したレベルです。スコープは 2 を指定します。

- ページレベル:
ページ レベルは、訪問中に閲覧したページに関連付けられます。変数をページ毎に変更することもできます。例えば筆者別やキャンペーン対象商品別などの軸でコンテンツをグループ化して利用状況を確認する場合に適したレベルです。スコープは 3 を指定します。

ユニバーサルアナリティクスでは
ページは「ヒット」という表記になっています。

従来のGoogle アナリティクスとユニバーサルアナリティクスでの違い

カスタム変数は5個(公式は)、カスタムディメンションは20個まで設定できるようになっています。

カスタム変数のスコープは、「ユーザー」「セッション」「ページ」、カスタムディメンションのスコープは「ユーザー」「セッション」「ヒット」という名称に変更になっています。

追加するコード

従来のGoogle アナリティクス
_setCustomVar(index, ‘name‘, ‘value‘, scope)

ユニバーサルアナリティクス
管理画面プロパティ>カスタム定義>カスタムディメンションで名前等を登録してから出てきたコードをカスタマイズします。
var dimensionValue = ‘SOME_DIMENSION_VALUE‘;
ga(‘set’, ‘dimension1′, dimensionValue);

具体的な設定方法

※カスタムディメンションのコード書き換えまでは前回の記事を参考にしてください。

http://example.comというサイトで http://example.com/g_member/complete のページにアクセスしたユーザーを「ゴールド会員」とカテゴライズするとします。

従来のGoogle アナリティクスの場合
 
_gaq.push(['_setCustomVar', 2, 'membership', 'gold', 1]);
 

※indexが2なのはこのサイトで2つ目だったからです。
このコードを下図のようにトラッキングコードに含めます。
カスタム変数のコード

ユニバーサルアナリティクスの場合
 
 var 会員 = 'gold';
ga('set', 'dimension1', 会員);
 

このコードを下図のようにトラッキングコードに含めます。

カスタムディメンションのコード

レポート画面での見え方

ディメンションなので従来のGoogleアナリティクスでもユニバーサルアナリティクスでもカスタムレポートやセカンダリディメンション、セグメント等、濃い緑字に薄い緑色ので表示されるものなら設定できると思います。

従来のGoogleアナリティクスの場合は「ユーザー>カスタム>カスタム変数」で見ることができます。
カスタム変数キー

キーをクリックすると値が見られます。
カスタム変数

ユニバーサルアナリティクスの場合特にレポートに項目があるわけではないので、カスタムレポートを作成したり、セカンダリディメンション等で選択する必要があります。
セカンダリディメンション

カスタムディメンションを選択すると自分が名前で指定した項目が表示されますので選択するとそのルールでカテゴライズされた数値を見ることができます。
カスタムディメンション設定済すべてのトラフィック

補足

実際にはvalueの部分の値は変数として取得することが多いです。

http://example.com/member/completeにコードを設置した時にvalue(SOME_DIMENSION_VALUE)に会員の種類(レギュラー、ゴールド、プラチナ等)を入れられるようにすればそれらでセグメントすることも可能になります。

注意点

そういった変数を使用する場合の設定方法はサイトごと異なるので実際カスタムディメンションの設定をしたい場合は技術者や制作会社の方にこういう風な値を取りたいですと伝えて、公式のURL( Custom Dimensions & Metricsカスタム ディメンションとカスタム指標 )をみて設定してもらったほうが安全かと思います。

トラッキングコードに追加をする場合もあるので何かミスがあったら計測データそのものに影響してしまう可能性もあります。

また、ぺージレベルの場合はイベントでも同じような数字がとれるので、カスタムディメンション(変数)は設定数に上限があるので何を使うかはきちんと決めたほうがいいと思います。

カスタム指標

これはこれまでのアナリティクスにはなかったものです。設定方法はカスタムディメンションと似ています。こちらは指標なので実際にみたい数字を計測するイメージです。

※自分で設定することができ、自由度が高い分あまり必要性を感じなかったり、よく意味がわからないのであれば無理に設定する必要はないと思います。
※すべてヒットに対して紐付けられます。

追加するコード

(コードを発行するまでのフローは前回の記事をご確認ください。)

var metricValue = ‘123‘;
ga(‘set’, ‘metric1‘, metricValue);

具体的な設定方法

http://example.comというサイトでhttp://example.com/g_member/complete のページにアクセスしたユーザーを「ゴールド会員」とカテゴライズし、その数をカウントする場合の設定です。

 
var ゴールド = '1';
ga('set', 'metric2', ゴールド);
 

上記のコードをhttp://example.com/g_member/complete のページのトラッキングコードに追加します。

カスタム指標のコード

水色の部分は先ほど設定したカスタムディメンションです。

レポート画面での見え方

これは実際の計測した数値の部分なので、デフォルトのままでは数字が表示されません。ですので必要なディメンションと組み合わせてカスタムレポートを作成します。

セグメント、リマーケティングリスト等、青字背景水色のものが表示されるとこの一部でなら設定できると思います。

カスタムレポート

カスタム指標セグメント

基本的なスニペットの置き換えに関して

イベント

具体的にできること

ページ遷移しないページでのアクションを計測することができます。

  • PDFのDLボタンのクリック数を計測
  • 外部サイトへのリンクのクリック数を計測

など、比較的いろいろなサイトで設定されていて使われやすい設定だと思います。独自の名前を付けられるので、他の担当者から引き継ぐ場合などは名前付けのルールとかを確認しておいたほうがいいかもしれません。

基本コード

従来のGoogleアナリティクスの場合

 
_trackEvent(<span style="color: #ff99cc;">category</span>, <span style="color: #99ccff;">action</span>, <span style="color: #800080;">opt_label</span>, <span style="color: #cc99ff;">opt_value</span>, <span style="color: #ff6600;">opt_noninteraction</span>)
 

ユニバーサルアナリティクスの場合

 
ga('send', 'event', '<span style="color: #ff99cc;">category</span>', '<span style="color: #99ccff;">action</span>', '<span style="color: #800080;">opt_label</span>', <span style="color: #cc99ff;">opt_value</span>, {'<span style="color: #ff6600;">nonInteraction': 1</span>});
 
補足

category(必須)
一番大きな分類。イメージ的には大カテゴリ的な役目です。

例えば資料や動画などそれをクリックしたら得られるもの。みたいなイメージです。

action(必須)
動作を記入します。

クリックとかダウンロードなど、イベントを計測するタイミングでどういうことをするのか。みたいなものを設定するイメージです。

opt_label(任意)
詳細な分類を記入します。

例えば、categoryで資料と設定したらその資料のタイトルや分類番号などを記入するイメージです。

opt_value(任意)
数値を記入します。

資料がDLされたら100円分の価値がある。と思ったら100と記入します。個人的にはこの数字が入っていたほうがレポート画面でどのくらいのインパクトがあったかみれて面白いのでだいたい設定します。また、

「downloadTime」など、別の場所で定義した変数から得られる値を割り当てたりすることができます

と公式に書かれているので変数を入れることもできるみたいです。

opt_noninteraction(任意)
直帰率に影響を与えたくない場合に「true」にします。

例えばexample.comのサイトに訪れて、そこからhogehoge.comというサイトのリンクをクリックしたとします。

この時にhogehoge.comへの遷移数をイベントで計測していてたとしたら、別サイトへの遷移という行動を行ったので直帰とはみなされない、というのがデフォルトですが、ランディングしてすぐに他のサイトに遷移しているんだからそれは直帰扱いにしたい。という時にこの設定を「true」にします。

気をつけないといけないのは何も設定しないとデフォルトのままなので直帰扱いにならない。ので気をつけてください。

具体的な設定方法

従来のGoogleアナリティクスの場合

 
<a onmousedown="_gaq.push(['_trackEvent', 'link', 'click', 'cake', 500, true]);" href="http://example.com/">Googleアナリティクス</a>
 

ユニバーサルアナリティクスの場合

 
<a onmousedown="ga('send', 'event', 'link', 'click', 'ice', 300, {'nonInteraction': true});" href="http://example.com/">ユニバーサルアナリティクス</a>
 

従来のGoogleアナリティクスとユニバーサルアナリティクスどちらでも計測可能

 
<a onmousedown="_gaq.push(['_trackEvent', 'movie', 'DL', 'music', 1000 , true]);ga('send', 'event', 'movie_U', 'DL_U', 'music_U',  1000, {'nonInteraction': true});" href="http://example.com/">両方</a>
 

※計測の確認をするため「movie_U」というように_Uと記入してありますが普通に設定するときは_Uとか入れずに従来のGoogleアナリティクスとユニバーサルアナリティクスのカテゴリー等の名前は同一で問題ないです。

イベントのコード

※注意※
通常onMouseDownではなくonclickを使用することが多いのですが、今回テストした時にonclickでうまく計測されないことがあったため、onMouseDownになっています。

この辺りの使い分けに関して気になる方は下記サイトをご確認ください。ざっくりいうと、イベントとしてカウントするタイミングがクリックしたときか、マウスを押した時か。みたいな違いです。

参考1:Googleアナリティクスでの外部リンククリック計測3つの手法の利点と欠点を整理してみた
参考2:リンクのクリックやダウンロードを「イベント」として計測する! イベントトラッキングの使い方と注意点[第65回]

レポート画面での見え方

「行動>イベント」の画面でのレポート画面の比較です。

従来のGoogleアナリティクスの場合
GAイベントレポート

ユニバーサルアナリティクスの場合
UAイベントレポート

注意点

カテゴリー当の名前を何も考えず適当に設定するととても見にくくなるし、他の人が見てもわかるようにしないといけないので、ある程度カテゴライズしたり、今後こういうところにイベントを設定したいから、こういう名前がいいな。みたいな名前付けのルールを決めておいた方がいいかと思います。

e コマース

具体的にできること

特にeコマースサイトで使用すると便利です。どの商品がいついくら分売れたかの情報を計測できるので、どの流入元から一番良く売れたか、とか売上をアナリティクスで計測したデータと一緒にみれます。

特定の商品を購入した人でフィルタやセグメントすることも可能になります。

また、カスタム変数やユーザー属性をと合わせてセグメントを設定すると特定のブランドを購入した女性と男性の(年代別の)サイト内遷移の比較。等の細かいデータを見ることができます。

基本コード

eコマースで設置するコードは2つあります。注文毎(トランザクション)の情報を送信するコードと商品毎(SKU)の情報を送信するコードです。

従来のGoogleアナリティクスの場合
注文毎

_gaq.push(['_addTrans',
'1234', // transaction ID - required
'Acme Clothing', // affiliation or store name
'11.99', // total - required
'1.29', // tax
'5', // shipping
'San Jose', // city
'California', // state or province
'USA' // country
]);

商品毎

_gaq.push(['_addItem',
'1234', // transaction ID - required
'DD44', // SKU/code - required
'T-Shirt', // product name
'Green Medium', // category or variation
'11.99', // unit price - required
'1' // quantity - required
]);

参照:Ecommerce Tracking – Web Tracking (ga.js)

ユニバーサルアナリティクスの場合
注文毎

ga(‘ecommerce:addTransaction’, {
‘id’: ‘1234‘, // Transaction ID. Required.
‘affiliation’: ‘Acme Clothing’, // Affiliation or store name.
‘revenue’: ’11.99′, // Grand Total.
‘shipping’: ’5′, // Shipping.
‘tax’: ’1.29′ // Tax.
});

商品毎

ga(‘ecommerce:addItem’, {
‘id’: ‘1234‘, // Transaction ID. Required.
‘name’: ‘Fluffy Pink Bunnies‘, // Product name. Required.
‘sku’: ‘DD23444′, // SKU/code.
‘category’: ‘Party Toys’, // Category or variation.
‘price’: ’11.99′, // Unit price.
‘quantity’: ’1′ // Quantity.
});

参照:e コマース トラッキング – ウェブ トラッキング(analytics.js)

補足:コード内の各データ項目の意味
注文毎

transaction ID(必須)

注文ID。固有の番号です。1回のトランザクションごとにトランザクションidは別の値を発行してください。
(↑テスト環境でこれを固定にしていたら1セッション1回しかトランザクションがカウントされず焦りました)

※商品ごと(addItem)と同じでないといけないです。

Affiliation or store name(任意)
ショップ名。ここにユーザーIDを出力するようにしていることもあるそうです。
コンバージョン>eコマースのデフォルトでは特に見かけないですが、フィルタやディメンションとして使用できます。

total(必須)
合計金額。
※ユニバーサルアナリティクスでは必須ではありません(Grand Total)。

tax(任意)
税金。

shipping(任意)
送料。

city(任意)※ユニバーサルアナリティクスでは廃止
市区町村。コンバージョン>eコマースのデフォルトでは特に見かけないですが、フィルタやディメンションとして使用できます。

state or province(任意)※ユニバーサルアナリティクスでは廃止
都道府県。コンバージョン>eコマースのデフォルトでは特に見かけないですが、フィルタやディメンションとして使用できます。

country(任意)※ユニバーサルアナリティクスでは廃止
国。コンバージョン>eコマースのデフォルトでは特に見かけないですが、フィルタやディメンションとして使用できます。

商品毎

transaction ID(必須)
注文ID。固有の番号です。1回のトランザクションごとにトランザクションidは別の値を発行してください。
※注文ごと(addTransaction)と同じである必要があります。

SKU/code(必須)
※ユニバーサルアナリティクスでは必須ではありません。
商品コード。商品分類の中で一番小さい単位です。

product name(任意)
※ユニバーサルアナリティクスでは必須になります。
商品名。商品分類の中で真ん中の単位です。

category or variation(任意)
商品カテゴリー、ブランド名。商品分類の中で一番大きい単位です。

unit price(必須)
※ユニバーサルアナリティクスでは必須ではありません。
単価。

quantity(必須)
※ユニバーサルアナリティクスでは必須ではありません。
個数。

具体的な設定方法

まず管理画面で アナリティクス設定>ビュー設定>e コマースの設定 をオンにします。

その後先ほどの基本コードをコピペしてサイトに合わせてコードを書き換えます。トラッキングコードの中に書いてもいいし、(下のコードでいう従来のGoogleアナリティクスのような感じです。)含めなくても問題ありません。(下のコードでいうユニバーサルアナリティクスのような感じです。)

 
var id = parseInt(Math.random()*100000);
 

これはトランザクションIDにランダムの数字を付与するように設定してあるものです。デフォルトのコードではないのでよくわからない方は使用しないでください。

任意の項目は記入しなくても問題ないですが、削除してしまうのではなく”(ブランク)にしてください。

従来のGoogleアナリティクスの場合

 
<script type="text/javascript">
var id = parseInt(Math.random()*100000);
  var _gaq = _gaq || [];
  _gaq.push(['_setAccount', 'UA-0000000-1']);
  _gaq.push(['_trackPageview']);
_gaq.push(['_addTrans',
    id,           // transaction ID - required
    'test shop1',  // affiliation or store name
    '1000',          // total - required
    '80',           // tax
    '500',              // shipping
    'Shinagawa',       // city
    'Tokyo',     // state or province
    'JPN'             // country
  ]);

_gaq.push(['_addItem',
    id,           // transaction ID - required
    'cookie002',           // SKU/code - required
    'チョコクッキー',        // product name
    '焼き菓子',   // category or variation
    '108',          // unit price - required
    '1'               // quantity - required
  ]);
  _gaq.push(['_trackTrans']);

  (function() {
    var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
    ga.src = ('https:' == document.location.protocol ? 'https://' : 'http://') + 'stats.g.doubleclick.net/dc.js';
    var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
  })();

</script>

 

Googleアナリティクスeコマースタグ

ユニバーサルアナリティクスの場合

 
<script>
var id = parseInt(Math.random()*100000);
ga('require', 'ecommerce', 'ecommerce.js');


ga('ecommerce:addTransaction', {
  'id': id,                     // Transaction ID. Required.
  'affiliation': 'test shop2',   // Affiliation or store name.
  'revenue': '1000',               // Grand Total.
  'shipping': '500',                  // Shipping.
  'tax': '80'                     // Tax.
});

ga('ecommerce:addItem', {
  'id': id,                     // Transaction ID. Required.
  'name': 'ショートケーキ',    // Product name. Required.
  'sku': 'cake001',                 // SKU/code.
  'category': 'ケーキ',         // Category or variation.
  'price': '200',                 // Unit price.
  'quantity': '1'                   // Quantity.
});

ga('ecommerce:send');
</script>

 

ユニバーサルアナリティクスeコマースタグ

レポート画面での見え方

コンバージョン>eコマース で見ることができます。トランザクションは今回ランダムの数字を割り振るように指定しているので適当な数字になっています。

従来のGoogleアナリティクスの場合

コンバージョン>eコマース>商品の販売状況の各プライマリ ディメンション
Googleアナリティクスeコマースレポート

コンバージョン>eコマース>トランザクション
Googleアナリティクストランザクション

ユニバーサルアナリティクスの場合

コンバージョン>eコマース>商品の販売状況の各プライマリ ディメンション
ユニバーサルアナリティクスeコマースレポート

コンバージョン>eコマース>トランザクション
ユニバーサルアナリティクストランザクション

また、セグメント、セカンダリディメンション、フィルタ、カスタムレポートなどで取得した値でカテゴライズして数値を見ることができます。

フィルタ設定

セグメント設定

注意点1:コンバージョンとトランザクションの違い(GA/UA共通)

コンバージョンとトランザクション数は一致しないことがあります。

eコマースの設定はほぼコンバージョンページと同じページ(サンクスページ等)に設定すると思うのですが、

  • コンバージョン:セッションごとに各目標ごとに1回のみ計測される
  • トランザクション:セッション関係なく何回でも計測される

という仕様だからです。ですので、サイト内で1回購入したあとで、買い忘れに気づいてもう一回購入する場合コンバージョンは1ですが、トランザクション数は2になります。

例えば様々な資料DLがコンバージョンのようなサイトの場合で、DLのサンクスページが同一の場合、目標が1つだったりすることがあります。

その場合、実際は大量の資料がDLされているのにアナリティクス上ではあまりコンバージョンしていないように見えてしまいます。

そういう場合にはイレギュラーですがeコマースの設定を使ってみるのもいいかと思います。どの資料がどれだけDLしたかを把握しやすくなります。

注意点2:Eコマースの設定はシステム仕様に従う(GA/UA共通)

先ほど解説したtransaction IDなどの各データ項目はほぼ全て、サイトごとに持っている変数を記入することが出来ます。逆に言えば、いろいろなサイトに出ているeコマースの設定の例と全く同じ設定にしてもそれが自分のサイトでも動くかどうかというとそうとは限りません。

もしECのシステムや外部のショッピングカートのシステムを使用している場合は「”お使いのシステム名” eコマース 設定方法」などと検索して、まず自分のサイトでeコマースの設定が可能かどうか確認してみてください。

そうするとヘルプページや設定方法のページが出てくるかと思うのでそれをみて、理解できるのであればそのままの通り設定していただければいいかと思います。

その他にドメインが同じなのか、異なるかによっても設定方法は変わってくるので、よくわからない場合や、さらに何かカスタマイズしたい場合は知識のある人、技術者に相談して設定してもらうほうがいいです。

とても便利な機能ですがJSや対象のサイトのシステム周りの知識のない人からすると設定が難しいので無理に設定することはおすすめできません。

仮想ページビュー

具体的にできること

イベントとほぼ同じです。

  • ページ遷移しないページでのアクションを計測
  • PDFのDLボタンのクリック数を計測
  • 外部サイトへのリンクのクリック数を計測

が行えます。

イベントの機能が備わる前からあった設定らしいので、仮想ペービューのパワーアップ版がイベントみたいなものです。ですので仮想ページビューでできることはイベントでもできます。

仮想ページビューとイベントの違い

設定方法
仮想ページビュー

パス名またはページ名を設定します。

イベント

カテゴリ、アクション、ラベルを設定します。

レポートの表示
仮想ページビュー

他のページ同様、コンテンツの1ページとして計測されるのでページビューとしてカウントされます。

イベント

行動>イベントで表示され、イベント数としてカウントされます。

使い分け

どうやらほぼ違いはないようなので使い勝手のいいように使えばいいかと思います。設定方法が違いますが、どちらもコンバージョンとしての設定は可能です。

個人的にはページ遷移しないタイプの問い合わせフォームとかの場合は、ページビューとしてカウントされても良いと思うので仮想ページビューで問題無いと思います。

逆に外部サイトへのリンクのクリック数はページビューとしてカウントしたくないのでイベントのほうがいいかと思っています。

基本コード

_gaq.push(['_trackPageview', page_path);

ga('send', 'pageview', 'page path']);

補足:データ項目の意味

page_path/page path(必須)
レポートで表示させたいパスを指定します。

具体的な設定方法

例えば外部サイトへのリンクに仮想ページビューを設定する方法です。

従来のGoogleアナリティクスの場合

 
<a onmousedown="_gaq.push(['_trackPageview', '/google_analytics/pv']);" href="http://example.com/">Googleアナリティクス</a>
 

ユニバーサルアナリティクスの場合

 
<a onmousedown="ga('send', 'pageview',  '/universal_analytics/pv');" href="http://example.com/">ユニバーサルアナリティクス</a>
 

仮想ページビュータグ

レポート画面での見え方

行動>サイトコンテンツ>すべてのページ で通常のページと同じように扱われます。

従来のGoogleアナリティクスの場合
Googleアナリティクス仮想ページビューレポート

ユニバーサルアナリティクスの場合
ユニバーサルアナリティクス仮想ページビューレポート

注意点

イベントと違い仮想ページビューを除いた、または仮想ページビューだけの数値はデフォルトではみれないので、それらを見たいのであればフィルタやセグメントの設定を行う必要があります。

ソーシャル インタラクション(ソーシャルプラグイン)

具体的にできること
  • facebookのいいね!、いいね!取り消し、コメント付きシェア数
  • twitterのツイートボタンクリック、ツイート数

の計測ができるようになります。(google+は何も設定しなくとも計測されています。)

基本コード

_gaq.push(['_trackSocial', socialNetwork, socialAction, socialTarget, opt_pagePath]);

ga(‘send’, ‘social’, ‘socialNetwork‘, ‘socialAction‘, ‘socialTarget‘, {‘page’: ‘optPagePath‘});

補足:各データ項目の意味

socialNetwork(必須)
Facebook、Twitterなどのメディアを指定します。

socialAction(任意)
※ユニバーサルアナリティクスは必須
いいね!、送信、ツイートなどの操作を指定します。

socialTarget(任意)
※ユニバーサルアナリティクスは必須
URLを表す文字列。targetUrlって記入してある例をよく見かけます。

optPagePath(任意)
ページのURLのパス部分です。値の最初の文字は「/」にする必要があります。

具体的な設定方法

コピペで簡単!Google AnalyticsでFacebook/Twitterのシェア数を自動集計する方法の記事に書かれているコードを使用させていただきました。

最初にfacebookやtwitterから必要なコードを作成して、それを指定の場所に設置してください。
Like Button
Twitterボタン

その後下記コードを指定の場所に設置してください。

従来のGoogleアナリティクスの場合

下記コードをの前に設置してください。トラッキングコード内に含めなくて大丈夫です。

 
<script type="text/javascript">
function extractParamFromUri(uri,paramName){if(!uri){return}var uri=uri.split('#')[0];var parts=uri.split('?');if(parts.length==1){return}var query=decodeURI(parts[1]);paramName+='=';var params=query.split('&');for(var i=0,param;param=params[i];++i){if(param.indexOf(paramName)===0){return unescape(param.split('=')[1])}}}twttr.events.bind('tweet',function(event){if(event){var targetUrl;if(event.target&&event.target.nodeName=='IFRAME'){targetUrl=extractParamFromUri(event.target.src,'url')}_gaq.push(['_trackSocial','twitter','tweet',targetUrl])}});
</script>

<script type="text/javascript">
window.twttr=(function(d,s,id){var t,js,fjs=d.getElementsByTagName(s)[0];if(d.getElementById(id))return;js=d.createElement(s);js.id=id;js.src="https://platform.twitter.com/widgets.js";fjs.parentNode.insertBefore(js,fjs);return window.twttr||(t={_e:[],ready:function(f){t._e.push(f)}})}(document,"script","twitter-wjs"));
</script>

<script type="text/javascript">
FB.Event.subscribe('edge.create',function(targetUrl){_gaq.push(['_trackSocial','facebook','like',targetUrl])});FB.Event.subscribe('edge.remove',function(targetUrl){_gaq.push(['_trackSocial','facebook','unlike',targetUrl])});FB.Event.subscribe('message.send',function(targetUrl){_gaq.push(['_trackSocial','facebook','send',targetUrl])});
</script>
 

Googleアナリティクスソーシャルプラグイン

ユニバーサルアナリティクスの場合

ユニバーサルアナリティクスのトラッキングコード内で、</script>前に設置してください。

 
FB.Event.subscribe('edge.create', function(targetUrl) {ga('send', 'social', 'facebook', 'like', targetUrl);});
FB.Event.subscribe('edge.remove', function(targetUrl) {ga('send', 'social', 'facebook', 'unlike', targetUrl);});
FB.Event.subscribe('message.send', function(targetUrl) {ga('send', 'social', 'facebook', 'send', targetUrl);});
window.twttr=(function(d,s,id){var t,js,fjs=d.getElementsByTagName(s)[0];if(d.getElementById(id))return;js=d.createElement(s);js.id=id;js.src="https://platform.twitter.com/widgets.js";fjs.parentNode.insertBefore(js,fjs);return window.twttr||(t={_e:[],ready:function(f){t._e.push(f)}})}(document,"script","twitter-wjs"));
twttr.ready(function (twttr) {twttr.events.bind('click', function (e) {ga('send', 'social', 'twitter', 'click', window.location.href); });
twttr.events.bind('tweet', function (e) {ga('send', 'social', 'twitter', 'tweet', window.location.href);});});
 

※上記サイトのコードをそのまま使用させていただいたところテストサイトではうまく計測できなかったので最初の3行の後半の

{ga(['send', 'social', 'facebook', 'like', targetUrl]);});
{ga(['send', 'social', 'facebook', 'unlike', targetUrl]);});
{ga(['send', 'social', 'facebook', 'send', targetUrl]);});

の”{ga(“で括られている”["と"]“を削除しています。

ユニバーサルアナリティクスソーシャルプラグイン

レポート画面での見え方

集客>ソーシャル>プラグインで見ることが出来ます。
ソーシャルプラグインレポート

注意点

facebookやtwitterの仕様変更などでコードがうまく使えなくなる可能性もあります。facebookはiframe版では計測できないそうです。

クロスドメイン トラッキング

具体的にできること

ショッピングカート等に外部システムを使用している場合にデフォルトの設定のままだとうまく計測できないのを、参照元などの情報をきちんと継続させて計測することができます。
※今回テストしたのは異なるドメインの場合です。

example.comhogehoge.comという2サイトを1つのプロパティとして計測する前提で例を出していきたいと思います。

基本コード

通常のトラッキングコードに追記します。

従来のGoogleアナリティクスの場合

トラッキングコードにはドメインごとに違うコードを追加します。

example.comに貼るコード
pageTracker._setDomainName(‘example.com‘);
pageTracker._setAllowLinker(true);

hogehoge.comに貼るコード
pageTracker._setDomainName(‘hogehoge.com‘);
pageTracker._setAllowLinker(true);

該当するリンクにもコードを付与する必要があり、example.comからhogehoge.comにいくリンク全てとhogehoge.comからexample.comにいくリンク全てに下記コードを追加します。

_gaq.push(['_link', this.href]); return false;

この別ドメインのリンクはJQueryで一括設定をすることができます。詳しくは知識のある人が技術者に聞いてみてください。

ユニバーサルアナリティクスの場合

example.comhogehoge.comのトラッキングコードの一部を書き換えます。

ga(‘create’, ‘UA-XXXX-Y’, ‘auto’);

となっている部分を下記のように変更します。

ga(‘create’, ‘UA-XXXX-Y’, ‘auto’, {‘allowLinker’:true});

また、下記2行を追加します。

example.comに貼るコード

ga(‘require’, ‘linker’);
ga(‘linker:autoLink’, ['hogehoge.com'] );

hogehoge.comに貼るコード

ga(‘require’, ‘linker’);
ga(‘linker:autoLink’, ['example.com'] );

複数ドメインある場合は

ga(‘linker:autoLink’, ['123.com','789.com'] );

というように”,”で増やします。

補足

ユニバーサルアナリティクスではリンクに対してコードは付与しなくてOKになりました。とても楽になります!

今までクロスドメインの設定はすべてのクロスリンク部分のコードの書き換えが必要だったためドメインをまたぐ計測の敷居が高かったかと思うのですがユニバーサルアナリティクスではこれを自動化する仕組みをGoogleが提供してくれたおかげで

ga(‘require’, ‘linker’);

このlinkerという記述をすると、linkerライブラリというものを読み込んでくれて面倒な設定をしなくてよくなっているようです。素敵ですね!!

具体的な設定方法

従来のGoogleアナリティクスの場合
  1. トラッキングコードの変更
  2. 各リンクを変更
  3. フィルタを設定

の3つを行います。

1.トラッキングコードの変更
example.comに貼るコード

 
<script type="text/javascript">
var _gaq = _gaq || [];
  _gaq.push(['_setAccount', 'UA-00000-1']);
  _gaq.push(['_setDomainName', 'example.com']);
  _gaq.push(['_setAllowLinker', true]);
  _gaq.push(['_trackPageview']);

  (function() {
    var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
    ga.src = ('https:' == document.location.protocol ? 'https://' : 'http://') + 'stats.g.doubleclick.net/dc.js';
    var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
  })();
</script>
 

hogehoge.comに貼るコード

 
<script type="text/javascript">
var _gaq = _gaq || [];
  _gaq.push(['_setAccount', 'UA-0000000-1']);
  _gaq.push(['_setDomainName', 'hogehoge.com']);
  _gaq.push(['_setAllowLinker', true]);
  _gaq.push(['_trackPageview']);

  (function() {
    var ga = document.createElement('script'); ga.type = 'text/javascript'; ga.async = true;
    ga.src = ('https:' == document.location.protocol ? 'https://' : 'http://') + 'stats.g.doubleclick.net/dc.js';
    var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ga, s);
  })();
</script>
 

2.各リンクを変更
example.comに貼るコード
TOPに戻る

hogehoge.com側に貼るコード

 
<a href="http://example.com/form" onMouseDown="_gaq.push(['_link', this.href]); return false;">お問い合わせフォーム</a>
 

GAcross1_code

GAcross2_code

クロスリンク

3.フィルタの設定
ここはざっくりと設定のみ載せさせていただきます。この画面のように設定して下さい。

ドメイン表示フィルタ

フィルタの種類:カスタムフィルタ

フィールド A : 引用 A ホスト名 (.*)
フィールド B : 引用 B リクエストURI (.*)
出力先 : 構成 リクエストURI $A1$B1

フィールド A は必須:はい
フィールド B は必須:いいえ
出力フィールドを上書き:はい
大文字と小文字を区別:いいえ

と設定します。これでドメイン名が表示されるようになります。(フィルタはそれ以降のデータを書き換えてしまうので、もしなにか不安だったら別にビューを作成しておいてそちらにフィルタを設定するほうが安全かと思います。)

※目標URLがドメインを含んでいないままでしたらドメインを含めたものに変更してください。レポートで表示されるものを記入しないと計測できません。

ユニバーサルアナリティクスの場合
  1. トラッキングコードの変更
  2. 参照元除外設定
  3. フィルタの設定

の3つを行います

1.トラッキングコードの変更
example.comに貼るコード

 
<script type="text/javascript">
(function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){
  (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o),
  m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m)
  })(window,document,'script','//www.google-analytics.com/analytics.js','ga');

  ga('create', 'UA-0000000-0', 'auto', {'allowLinker':true});
  ga('require', 'linker');
  ga('linker:autoLink', ['hogehoge.com'] );
  ga('send','pageview');
</script>
 

UAcross1_code

hogehoge.comに貼るコード

 
<script type="text/javascript">
(function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){
  (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o),
  m=s.getElementsByTagName(o)[0];a.async=1;a.src=g;m.parentNode.insertBefore(a,m)
  })(window,document,'script','//www.google-analytics.com/analytics.js','ga');

  ga('create', 'UA-0000000-0', 'auto', {'allowLinker':true});
  ga('require', 'linker');
  ga('linker:autoLink', ['example.com'] );
  ga('send','pageview');
</script>
 

ユニバーサルアナリティクスクロスドメインコード

2.参照元除外設定
最初に説明させていただいたように、参照元が変更してしまうと別セッションになってしまうのでデフォルトのままだと遷移した時に別セッションになってしまいます。

なので、参照元除外にexample.com,hogehoge.comという形で登録してあげる必要があります。設定方法は前回の記事の参照元除外をご確認ください。

最初hogehoge.comだけを登録したらいいのかと思いhogehoge.comだけ登録したらexample.com/formhogehoge.com/thanksexample.comと遷移したときにhogehoge.com/thanksにいく時に別セッションとカウントされてしまいましたので気をつけてください。

3.フィルタの設定
従来のGoogleアナリティクスと同様ですので割愛します。

レポート画面での見え方

crossrepo

注意点

きちんと情報が引き継がれているとサイトをまたぐリンクをクリックした時に、

従来のGoogleアナリティクスの場合は

 

http://example.com/test.html?__utma=000000000.000000000.0000000000.000000000.000000000.1&__utmb=111111111.1.1.111111111&__utmc=222222222&__utmx=-&__utmz=123456789.0123456789.4.8......

 

ユニバーサルアナリティクスの場合は

 

http://example.com/test.html?_ga=1.123456789.123456789.000000000

 

というような感じで数字がアドレスバーに表示されます。

この文字列が表示されるのがいやな場合はどうやらスクリプトでどうにかできるそうです(長くて汚いutm_*パラメータ付きURLをキレイにするGoogle Analytics用の少しマニアックなスクリプト)が、ユニバーサルアナリティクスでも対応してるかどうか検証しておりませんので、どうしても気になる方は近くの技術者に相談していただければいいかと思います。

慣れていないとややこしい部分があるので、この設定も不安なら知識を持っている人が技術者に頼むほうがいいかと思います。ただ、ドメインをまたぐ計測が面倒なので外部への遷移へのリンクをイベントとかで計測していた場合はユニバーサルアナリティクスにすることで設定が楽になっているので機会があれば設定してみてください。

あと、今回のタグや設定はテスト環境では有効でしたが、もしかしてサイトによってうまく設定ができない等の不具合もあるかもしれないので、設定したあとの確認は忘れずに行ってください。

補足

サブドメイン計測の場合の設定方法のみ記載しておきます。

従来のGoogleアナリティクスの場合

 
_gaq.push(['_setAccount', 'UA-0000000-1']);
 

 
_gaq.push(['_trackPageview']);
 

の間に

 
_gaq.push(['_setDomainName', 'example.com']);
 

を追加してください。

ユニバーサルアナリティクスの場合

 
ga('create', 'UA-0000000-0', 'example.com');
 

 
ga('create', 'UA-0000000-0', {'cookieDomain': 'example.com'});
 

に変更してください。

ユーザー タイミングとサンプリング

簡単にまとめさせていただきます。ユーザータイミングの設定に関しては Googleアナリティクスのトラッキングコード設定入門をご確認ください。

サンプリング

サンプリングとは?

PVやヒット数が多いサイトでは、Google アナリティクスが設けている上限値に達してしまうことがあります。
Google アナリティクスの上限としては

・By sampling the hits for your site or app, you will get reliable report results while staying within the hit limits for your account. The limit on the number of hits for a standard GA account is 10M hits/month.

とあるように、1,000万PV/月の上限が定められており、それ以上の値は自動的にサンプリング(全ての測定データのうち、適当な数だけが採取されて集計対象になる)されるようになっています。

こうしたデータを予め任意の割合でまびいて抽出できるのが、このサンプリング機能です。
またこのユニバーサルアナリティクスのサンプリング機能は、初回訪問時にそのユーザをサンプル対象とするか決めるので、サンプリングがなされても直帰率や訪問率に影響を与えることなく測定をすることができます。

具体的な設定方法

従来のGoogleアナリティクスの場合
トラッキングコードに以下のコードを追加します。

 
_gaq.push(["setSampleRate", サンプルする割合(%)]);
 

ユニバーサルアナリティクスの場合
既存のトラッキングコードのcreateの部分を以下のように修正します。

 
ga('create', 'UA-XXXX-Y', {'sampleRate': サンプルする割合(%) });
 

こうすることで、データを間引く(サンプリング)ことができます。

例えば

 
ga('create', 'UA-XXXX-Y', {'sampleRate': 50});
 

としておくと、100人のユーザのうち50人のみのデータを抽出して測定対象とすることができます。

まとめ

以前の記事と合わせて設定の利点とめんどうな点等を考えてユニバーサルアナリティクスへの移行を考えてみてください。

大きなサイトほどいろいろな設定をおこなっているはずで、移行のための準備が大変になると思うのでそういった場合はサイトのシステムに関わっている方に相談して見てください。

ちなみに、今回この記事を書くにあたって全てテストをしてみたのですが、公式等に書かれている通りに設定したはずがなぜか動かない、とか説明されてる通りの動きにならない。。みたいなことが多々あり開発室の人に助けてもらいました。

それをふまえて弊社開発室のブログでもエンジニア向けのAnalytics設定に困ったときのまとめの記事を書いてくれたので開発の人間にうまくやりたいことが伝わらなかった場合はぜひこちらのブログを見せてみてください。

参考:基礎からわかるGoogleアナリティクスのトラッキングコード設定入門

参考サイト/本

最後に、こちらの記事作成にあたり大変参考にさせて頂いた書籍や記事をご紹介します。

最後まで読んで頂き本当にありがとうございました。

外部サイトへのリンクには漏れなく”nofollow”とか、いい加減やめませんか

「外部サイトへのリンクには、PageRankが外に流出するのを防ぐために”nofollow”を入れるように、とSEOの人からアドバイスをもらったことがあり、実践している」という方が今でも多いように思います。というか多いです。

無意味です

ほとんどの場合、大切なPageRankの流れを意味もなく断ち切っているにすぎず、プラスになることはなくマイナスでしかありません。この記事で紹介するような事情が無い限りは外すことをおすすめします。

まず前提として、ユーザー投稿型のサイトなどではない一般的な企業サイトを運営していて、nofollowをテクニカルに駆使する必要のあるシーンというのはごく限られたケースだという認識です。正直ほとんど使いドコロはないと思っています。

普通はほとんど使わなくて良いものですし、個人的にもここ数年でnofollow付与を提案したケースは自社で運営するメディアも含めて数えるほどしかありません。(某氏のように大規模なサイトのSEOばかりをガッツリ見ている人はそうではないと思いますがそんな人、何人もいないと思います。)

ということで記事タイトルについての話はもう完了したので、ここからはrel=”nofollow”について解説します。

rel=”nofollow”の意味

nofollowって何よ、という方に簡単に解説しておくと、「nofollow指定されたリンク先にPageRankを渡さない」「nofollow指定されたリンクをクロールの対象リストから除外する」というものです。簡単にいえばSEO上そのリンクの価値がなくなるということですね。

nofollowの意味を図示しています

nofollowが作られた目的は、検索エンジンのランキング評価対象としたくないページへのリンクにPageRankをを受け渡さないようにする、といったことを簡便に実現するためです。

もしnofollowがなければ、例えばリンクをクロールさせたくない場合、robots.txtでブロックされた中間ページにリンクし、中間ページから本来リンクしたいページのURLにリダイレクトをする、など何かしらの面倒な作業が必要となります。

なぜnofollowが必要になったか

その当時に検索業界にいたわけではありませんでしたので、その時代を生きていた方から何か補足がありましたら是非お願いしたいのですが、考えられる点としては主に以下のものかなと。

SEOを目的とした有料リンク掲載への対策

ユーザーが(何かの対価としてではなく)自発的に掲載したリンクに限定して評価対象としないと本来のPageRankの概念それ自体が意図した通りに機能しなくなります。

そこで、Googleとしては「金銭などを対価として掲載するリンクにはnofollowを付与する」というルールを設けることで、有料リンク等による順位操作を規制しようとしたことが背景としてあげられると思います。

ユーザー生成型コンテンツ(UGC)の普及に伴う、”リンク先ページの信頼度をサイト運営者が保証できないリンク”のクロール制御

1つ前の項目とほとんど同じじゃないかと思うフシもありますが。

Wikipediaを代表として、Yahoo!知恵袋や無料ブログサービスなどでは外部サイトへのリンクに自動的にnofollowが付与されるようになっています。身近なところではtwitterの投稿のリンクも同様です。nofollowが付与されているので、これらのサイトにリンクが掲載されたとしても直接的なSEOの価値はありません。

もともと、大半のリンクはサイト運営者の意思の元で掲載されていたはずです。しかしUGCが普及し、サイト内にユーザーが自由にコンテンツを投稿したりリンクを掲載できたりするようになると、サイトへの誘導目的や、SEO目的のリンクの掲載も一定割合発生します。

それがまともなサイトならまだしも、アダルトサイトやウィルスを拡散させるためのサイトでないとも言い切れません。そうしたサイトへのリンクを検索エンジンが評価対象&クロール対象としない、とすることで、少なくともSEO目的のリンクの投稿の価値をなくすことが出来ます。

まとめてしまえば、SEOを目的としたリンクへの対処法として、と言えそうですが。

PageRankスカルプティング

僕がこの業界に関わりだした2009年には、ギリギリそういうテクニックがありました。最近SEOの勉強を始めた人だとあまり聞き慣れないかもしれません。

イメージだけ説明すると、”100″のPageRankを持ったページがあったとして、そのページから10本のリンクが均等に掲載されていた場合、各ページに10ずつのPageRankが流れます(あくまでもイメージです)。

pagerankが均等に10ずつ配布されるとします

そのうち2本のリンクにnofollowを付与することで、PageRankを受け渡す対象が8本になりますね。すると、各ページには12.5ずつのPageRankが受け渡されることになります。つまり8本に渡るPageRankが増えるのです。

nofollowで指定したリンクの分だけ、他のページへのPRの受け渡し分が増える

このように、nofollowを活用して重要なページにPageRankを集中させようとするテクニックを、PageRankスカルプティングと呼びました。

でもこれは既に2009年時点で機能していません。あるリンクにnofollowを掲載した場合、PageRankを破棄することになり、そのほかのリンクに充当されるわけではない、という仕様変更が行われたためです。

仮にnofollowで指定したとしても、それは破棄することに同義。他が増えるとかそういうわけではない

変更の意図としては、もともとサイトのPageRankを調整するためのテクニックとしてnofollowが作られたわけではなく、ユーザーにとっては無関係な施策でしたので、そういう使われ方をされることは本来の目的と異なる、という判断のもとの変更という話だったのかもしれません。

どちらにせよ現時点では、nofollowを付与すればPageRankが重要なページに集中します、ではなくなっているのです。

nofollowはいつどんな時に使うか?

一部曖昧なところもありますがこのようなイメージで問題ありません。

ユーザーがリンクを自由に掲載できる場合の不正リンクへの対策

先述の通り、ユーザーが投稿できるタイプのコンテンツで、誰でもリンクを掲載することが許可されている場合、信頼できないサイトへリンクが向けられる可能性があるため(出会い系やアダルトサイトなどのスパムコメントなどが良い例)、それをGoogleに辿らせない&評価の対象としないために使います。

昔はUGCがここまで普及していたのでほぼ全てのリンクはサイト管理者の制御のもとで掲載されていましたが、UGCが普及したことで誰でも簡単にリンクを貼ることが出来るようになり、その中で自作自演やスパムなどが増えてくると、外部サイトへのリンクには一律でnofollowなどの対応を取らざるを得ません。

※事実、近年では不正リンク対策として、有料ディレクトリ登録サービスや無料ブログサービスの外部サイトへのリンクの多くもnofollowを付与するように変更されてきています。

検索エンジンがデータ収集する価値のないページへのクロールの制御

よく言われているのはログインページなど、Googlebotがそのコンテンツの中身を収集出来ない場合です。砕けて言えば「そこクロールしても何も見れないから他のとこ見に行ってちょうだい」という意味ですね。

それであれば使う意味は確かにあるような気がしますが、いちいちそんな細かいこと考える必要もないんじゃないでしょうかとも思っています。大きな効果があるとは思えませんし。

あとこの意図で使うとすると、ほとんどのサイトは意識する必要はないと思うのですが、大規模なサイトを運営していて、本来クロール不要なURLへのリンクが不可避に大量に生成されるがrobots.txtでブロックする必要がない、或いはrobots.txtでリアルタイムに弾いていくのが運用上現実的ではない、などの場合でしょうか。

※ただし不要なはずのURLが大量に生成されるというのは、それはnoindexとかnofollowでどうこうじゃなくてその仕様を適切な形に変更すれば良い、というケースも割合多そうですが。。

よほどのことが無ければ、ほとんどの場合はウェブマスターツールのパラメータ制御機能で上手く調整すれば良いレベルだと感じています。(すみません、ここは正直言いきる自信がないです。)

Google的には”真っ黒”な完全アウトサイダーなサイトへリンクをせざるを得ない場合

これは正直ちょっと自分でも確信はなくて、賛否両論あると思うのですが。

仮に自社の関連サイトだったとしても、リンク先のページが大規模な不正リンクプログラムなどの中心にいる場合、或いは重度のペナルティを受けている場合など、リンクを掲載することでそのサイトとの(リンクの繋がりとしての)距離が近くなってしまいます。

こいつはくせぇーーッ!スパムのにおいがプンプンするぜーーーッ!!

でも関連サイトですし、Google的に真っ黒であることとユーザーに見せたくないことは全く違いますので、リンクを外す理由にはなりません。放置でも良いのかもしれませんが、個人的にはこういうリンクの繋がりの全体像を想像するとこれはちょっと気持ち悪いし嫌なのですね。

それを避けるためにnofollowを掲載するよう提案したことはあります。

nofollowを付与することでリンクグラフから相互リンクを無効化する

どのケースも多少の効果はあったように見えましたが、正直言えば因果関係は曖昧ですのでここは参考程度にして下さい。冒頭でも書きましたが、ほとんどの場合は有効なPageRankを破棄することでもありますのでこんなことしない方が良いのは間違いありません。

とまあ、いくつか挙げてみましたが、少なくとも一般的な中小規模の商用サイトでnofollowを当然のように使う、どこでnofollowを付与するかをじっくり考える、などということはほとんど無いなあとは思っています。

なぜ、テクニカルなことをしたがるのか

ドラクエで新しい呪文を覚えると、誰もが”絶対に必要ないけど使わざるを得ない”みたいな精神状態に追い込まれます。

例えば敵グループが複数に分かれていて、どう考えても賢者としてはヒャダインかイオラあたりで対応するようなシーンなのに、1ターン目でなぜか敵単体に向かって新しく覚えたベギラゴンを唱えてしまうなどの事例が挙げられます。

特に画面演出のないドラクエ4以前であっても、同様の現象が必ずと言っていいほど起きますね。

それと全く同じです。少し勉強して知識がつくと、絶対に必要ないのにcanonicalとかnoindexとかnofollowとかrobots.txtを駆使してクローラーの色々制御してみようなどと思ってしまったり。しかしほとんどの場合が「しかしなにもおこらなかった」です(逆に大ダメージを受けることはありえます)。

例えば、昨年にrobots.txtについて詳細に記事にまとめられていたブログがありましたが、(おそらく記事執筆時に調べながら追記したであろう)robots.txtの記述が誤っていて、全てのページがクロール拒否になっていたということは記憶にあたらしいです。ちなみにその後きちんと修正されていました。

まとめ

普通にサイトを運営していれば「ほとんどのページはクロールされ、インデックスさせるべきコンテンツ」なはずです。外部サイトであっても、nofollowを付与する必要のあるようなサイトにリンクすることは滅多にないはずです。

少なくとも、敵グループが多数に分散していたら、多くの場合は素直にイオ系呪文で対応しておくのが良いかと思います。

ヴォラーレ株式会社 土居

知っておいて損はない!Googleの検索エンジンに関する「特許」まとめ

以前に検索エンジンとSEOの歴史について書いてくれた大学生の佐々木くんに、次のテーマで「Googleの検索に関する特許」についてまとめてもらいました。

Googleの特許は「何がしたいの?」を理解する手がかりに

Googleの特許を知る事はSEOを考える上でとても重要な事です。何故ならSEOを実施するにあたって、検索エンジンとしてのGoogleの考えや方針は必ず理解しておく必要があり、Googleが持っている特許の内容は、その考えや背景を読み取るための材料になるからです。

この記事ではGoogleの特許の中から検索エンジンに関する特許を一部ピックアップし、紹介します。

※年代は申請日で記載しています。
※発明者もしくは譲受人がGoogle Inc.になっている特許を記載しています。
※ここに挙げられていないものも含め、特許を取得していることと、それがランキングに反映されていることは別問題です(特許はとったが使っていない、があり得るということ)。

PatFT:認定された特許

※PatFTとは公式に認定されている特許を指します。
 

リンクされたデータベース内におけるノードのランキングに関する方法

(1998年1月 特許番号:6285999)
検索技術に関わる特許の中で最も有名かもしれません。いわゆる”PageRank”のアルゴリズムに関する特許です。特許権の所有者はスタンフォード大学ですが、Googleが独占で使用する権利を持っています。

※参考1:ページランク(wikipedia)
※参考2:SEOの最重要特許ベスト10 その1 ページランクとは?

 

検索エンジンの音声インターフェース

(2001年2月 特許番号:7027987)
音声による検索システムに関する特許です。以下の参考URLをご覧いただくとわかりますが、現在少しずつ普及してきている音声検索について、今から10年以上も前から、それが使われるシーンを想像されていたわけですね。

ちなみに「特許の一部は製品化・サービス化するが、そうでないものもある」というのはこの記事の最後にも書かれています。

※参考:米Google、検索エンジンの音声インターフェースに関する米国特許を取得

 

曖昧な検索クエリに対して検索結果を提供する為に修飾されたインデックスを使用する方法及び装置

(2003年3月 特許番号:6529903)
ユーザーが検索する時にサイトの管理者が想定した具体的なキーワードを打ちこまず”曖昧な言葉”での検索をしてしまった場合を想定した施策に関する特許です。

※参考:「Google」の知的財産戦略

 

ユーザーの行動や特徴のデータに基づいた文章のランキング

(2004年7月 特許番号:7716225)
いわゆる”リーズナブルサーファーモデル”の特許です。全てのリンクを均等に扱うのではなく、データや特徴に基づきリンクに妥当な重み付けをして扱う、という考え方です。

※参考:GOOGLE’S REASONABLE SURFER: HOW THE VALUE OF A LINK MAY DIFFER BASED UPON LINK AND DOCUMENT FEATURES AND USER DATA

 

ソーシャルネットワーク内の関連メンバーを評価する為の方法とシステム

(2004年8月 特許番号:8010459)
SNSでの友人のクールさ、セクシーさ、信頼度などによって評価が出来るシステム、といった少し変わった特許です。

参考:知人の「セクシーさ」を評価:Googleが特許出願

 

カメラ付き携帯電話用の画像ベースの検索エンジン

(2005年5月 特許番号:7565139)
“画像での検索”に関するシステムの特許で、内蔵カメラ付きケータイの普及が背景にあります。携帯電話で撮影した画像そのものを検索に利用するための技術です。
 

フレーズベースの情報検索システム内のスパムドキュメントを検出する

(2006年6月 特許番号:7603345)
文書内の関連フレーズの数に基づいてスパム文書を特定するシステムに関する、とする特許。スパム文書にありがちな「キーワードの集合体」のような文書のパターンを検出し、スパム文書と非スパム文書を識別します。

参考:http://www.seobythesea.com/2006/12/phrase-based-information-retrieval-and-spam-detection/

 

コンテンツに基づいた広告サービスの提供

(2006年7月 特許番号:7734624)
サイトの内容に近いジャンルの広告を表示する技術の特許です。コンテンツを閲覧しているユーザーに関連性の高い広告を表示することで、より高い広告効果を実現することができます。
 

強化された検索結果

(2006年1月 特許番号:7624101)
電話番号または住所を含んだクエリ検索に応じる事と、クエリに関連のある住所のリンクを示す事が出来るといった検索機能の強化に関する特許です。この特許にはWebの膨大な情報量に対して、ユーザー(特に新規でWeb検索に不慣れなユーザー)が求めている情報を探す為に労力を使ってしまう可能性が高いという背景があります。
 

電子メール環境内でのメッセージランキング

(2008年9月 特許番号:8095612)
自分の受信メールの内容を検索結果にランク付けして反映する方法に関する特許です。以下の記事で詳細に紹介されていますが、ウェブページとは異なり、メールならではのシグナルにもとづいてランク付けされます。

※参考:Googleの新特許「メールランク」であなたのメールが格付けされる?

 

AppFT:出願した特許

※公式に認定されていないが、公開されている特許を指します。

MapReduce内のフレームワークデータの処理

(2011年4月 特許番号:20120254193)
MapRuduceというGoogleのサーバー処理に用いられている分散処理アルゴリズムで、「処理速度の向上→検索結果反映までの時間短縮」の技術に関する特許です。

※参考:GoogleのMapReduceアルゴリズムをJavaで理解する

 

ポリシーに違反してるかをチェックするシステム

(2012年8月 特許番号:20130110748)
過去の”問題あり”なデータと比較して、ポリシーや法律に抵触するような悪意のある書き込みを事前に防止出来るようにする技術ですが、以下の記事にもあるように「道徳的な判断をGoogleが行う」というところに賛否が分かれそうな技術とも言えます。こちらも製品化されるとは限らないとのこと。

※参考:Google、「検閲システム」の特許を導入

 

ソーシャルネットワークオブジェクトランキング

(2013年10月 特許番号:20140108428)
ブログやコミュニティなどのソーシャルネットワーク内のコンテンツのランク付けには、一般的なウェブページとは異なるシグナルも利用するべきだ、といった主旨の特許です。例えば友達やファンの数、プロフィールの閲覧数、投稿へのコメント数、最新の話題かどうか、などです。

※参考:HINTS OF HOW GOOGLE MAY RANK SOCIAL NETWORKS?

補足:特許の探し方

Googleの特許は登録までしている特許(PatFT)も公開までしかしていない特許(AppFT)もすべて米国特許庁データベースで検索する事が出来ます。
特許番号や譲受人、発明者など様々な条件で検索する事が出来ます。

america_patents_engine

しかし、こちらの検索ページはそんなに見やすい訳ではないので私はGoogleの特許検索エンジンをオススメします。

google_patent_engine

一番の違いは、実際に特許の概要が説明してあるページにアクセスして自動翻訳をした時です。米国のデータベースだと活字がひたすら並んでいて見づらいですが、Googleの方だと項目が分かれていて見やすいです。

america_trans
▲米国データベースの説明内容を翻訳したらこうなる

google_trans
▲Googleだとこんなに見やすい

出典

まとめ

検索技術に関する様々なテーマからピックアップして、ごく一部を紹介させて頂きました。これらの特許内容はGoogleがこれからの検索エンジンをどうしていきたいのかを知る材料になり、ひいてはSEOをどのように考えていけばいいのかを知る材料になります。

こうした技術を読むにあたり、「どういう技術なのか」はもちろん大切ですが、「こび技術が開発された背景はなにか」「何が実現できるのか」「利用者にどういう利点があるのか」などを考えてみると、テクニカルな解釈ではなく、Googleが本質的に目指す方向性などを理解するのに役立つと思います。

しかし、前述の通りGoogleが特許を取得していてもその特許内容を検索エンジンに全て反映させているという訳ではないので注意して下さい。

参考:特許取得=Googleの検索アルゴリズムに組み込まれている訳ではない

ヴォラーレ株式会社 佐々木

非エンジニア向けSSL解説:OpenSSLの脆弱性「HeartBleed」とは?

GoogleのMatt Cutts氏が「SSL(https)のサイトを優遇するかも」のような発言をしたことや、4月にはOpenSSLの致命的な脆弱性についても話題になりました。今回の記事では、非エンジニア向けにSSLや、指摘されている脆弱性「HeartBleed」について解説します。開発室の坂田による執筆です。

2014年は”SSL”が何かと話題に

以前からGoogleが強制的にSSLで接続するようになったり、2014年に入り、GoogleがSSLのサイトを優先しようか検討している、といった話が出てくるなど、SEO関係者の中でもたびたびSSLが話題に出てくるようになりましたね。

今年の4月ごろ、SSLでの通信を可能にしているOpenSSLというソフトウェアに、個人情報などの通信内容がサーバーから流出する重大な欠陥(脆弱性)が見つかったことが話題となりました。

この脆弱性は、サーバーからの情報流出が、心臓(Heart)から出血(bleed)するほど深刻に捉えられたため、「Heartbleed」と呼ばれています。

どんな形であれ個人情報を扱うようなサイトはセキュリティを担保することが求められます。今回は、SSLの仕組みを改めて理解していただいた上で、この脆弱性「Heartbleed」について解説します。

編集者注:冒頭の「GoogleがSSLのサイトを優先」の話は、Googleでも検討が始まったばかりの未確定事項

SSLの役割と仕組み

SSLは、主に2つの機能を提供しています。1つは、信頼性を担保することです。SSLを使用しているウェブサイトはSSLの証明書を有しています。

この証明書は、第三者機関である認証局(CA)によって発行されています。この証明書により、利用者が、ウェブサイトを信頼できることが保証されています。

もう1つは、暗号化により安全性を担保することです。通常のウェブサイトを表示するために使用するhttp通信は暗号化されていません。そのため、第三者に通信が見られた際、通信している情報が容易に読み取られてしまいます。

ここでいう情報の中には、IDやパスワードなどの会員情報や、住所や名前など、お問い合わせの内容など個人に関わる重要な情報が存在します。

こうした情報を第三者に読み取られないように、暗号化する必要があります。SSLは、通信情報を暗号化する機能を有し、安全な通信を確立する役割を担っています。

SSLの説明

OpenSSLの脆弱性「Heartbleed」とは

OpenSSLとは、実際にこの暗号化を行っているプログラムの一つです。SSLを可能にしているソフトウェアはOpenSSLの他にもNSSやGnuTLSといったプログラムの存在しますが、OpenSSLは非常に高いシェアを占めています。

ところがこのOpenSSLの脆弱性が先日指摘され話題になりました。それがHeartbleedです。

SSLに限らず、サーバーは通信を行うと、メモリに通信内容を一時的に記録します。本来メモリに記録されたデータは、通信が終了すると破棄されます。

ところがHeartbleedという”バグ”により、メモリ上のデータが破棄されず、サーバー外部に流出してしまう場合があります。この流出したデータの中に、個人情報が含まれていると、個人情報の流出といった事態になります。

Heartbleedはサーバーの秘密鍵が流出する場合もある

ここで大きく問題なのは、Heartbleedによる影響は、通信データの一部流出にとどまらず、「サーバーの秘密鍵」の流出の恐れがある点です。

詳しい解説はここでは割愛しますが、SSLでは、共通鍵暗号方式と公開鍵暗号方式の2つの暗号方式を利用して安全性を担保しています。

SSLでサーバー送信した情報は、これらの方式を用いて暗号化されます。この情報は、サーバーの秘密鍵という鍵のみで復号化することが可能です。逆に言えば、この「秘密鍵」さえあれば、第三者でも容易に通信内容を読み取ることができます。

情報流出の危険性

サーバーはひとつの秘密鍵を使用しているため、一度秘密鍵が流出してしまうと、ウェブサイトの利用者の通信内容を継続的に読み取られる可能性があります。例えるなら、隣の人にパソコンのパスワードを知られてしまった状態です

対処法

実際の作業はサーバーなどの環境に依存しますので、具体的には触れませんが、以下の手順を取るとよいでしょう。

Heartbleedかどうか調べる

まずは、OpenSSLのバージョンを調べます。この際、以下のバージョンに当てはまる場合、Heartbleedの脆弱性があります。

またこれらのバージョンに該当しなくとも、古いOpenSSLを使用している場合は、他の脆弱性やバグが存在している可能性もあるので、最新のものにバージョンアップすることをおすすめします。

  • OpenSSL 1.0.1 から 1.0.1f
  • OpenSSL 1.0.2-beta から 1.0.2-beta1

Heartbleedを取り除く

OpenSSLのバージョンを確認し、Hearbleedの影響を受けている場合は、早急に取り除くましょう。最も簡単な方法は、OpenSSLのバージョンを最新のものにします。

また、レンタルサーバー等OpenSSLの設定を変えることのできない場合は、サーバーの管理会社に連絡し、この脆弱性を解消してもらう必要があります。

証明書を再発行し、以前の証明書を失効させる

OpenSSL脆弱性を直したら、SSLの証明書を再発行します。主なSSL発行会社は、無償での再発行を受け付けています。証明書を再発行したら、その設定をサーバーに反映させます。最後に、SSL発行会社を通じて古い証明書を失効させましょう。

まとめ

SSLは、個人情報を取り扱うウェブサイトを安全に運営していく上で、重要な役割を担っています。ウェブサイトの利用者が安心して利用できる環境を整えるためにも、SSLだけでなく、利用している技術やその仕組みを理解し、脆弱性やバグに柔軟に対応していくことが重要です。

最後に、私たち開発室もブログを書いておりまして、技術トピックを中心に、幅広い内容を紹介しています。こちらも参考にしてください。
Catcher in the tech – ヴォラーレ株式会社開発室ブログ

ヴォラーレ株式会社 坂田

[寄稿] SEO?リスティング広告?限られた予算の中で投資するならどっち?

寄稿記事の第2弾です。今回は、SEOとリスティング広告、どっちがいいの?どっちに予算を割くべき?というよくある質問に対する解説を、株式会社スタビライザーの小松氏にまとめて頂きました。

投資するべきことはいくらでもあるけれど…

SEOに取り組むべきか?リスティング広告に予算を割くべきか?サイトを作り変えるべきか?ランディングページを作るべきか?

限られた予算の中で、何をするべきか迷った経験された方は多いと思います。予算も時間も限られていれば、「失敗したら次行けばいいよ!」とはいきません。

そういう時こそ、客観的に自分のサイトの現状を把握し、できるだけ適切な判断をしなければなりません。そのためにどんなことを考えればいいの?というのが今回のテーマです。

「売上増やす為に何から手を付ければいいんだよ~」という方に読んで頂きたい内容です。

編集者注:
・この記事内では、リスティング広告=検索連動型広告としています。
・主に、アクセス数が~数千という規模のサイトを想定して書かれた内容です。

何も分からず悩んでいる方へ

  • まずはSEOにしようか
  • それともリスティング広告を出稿しようか?
  • そもそもサイトをリニューアルしないとダメなんじゃないか?

などなど。。Web担当者の方なら一度は迷われた事があるんじゃないでしょうか。でも、

SEO会社に相談すると、
「そのキーワードなら上位表示出来て売上上がるのでSEOやりましょう。」

リスティング広告の代理店に相談すると、
「そのキーワードなら、○○に関連したもの入れてCV取っていきましょう。」

Web制作会社に相談すると、
「リニューアルしないとアクセスを集めても無駄になりますよ」

ということになりますよね。

良くも悪くも、どの会社も自分の会社の商品でクライアントの悩みを解決しようとします。いわゆる自社のポジショントークです。

おそらく、それは普通のことなのでしょう。普通なのはわかりますが、インハウスの担当者が知りたいのは「やれば効果が見込める施策の中でどれが一番売上に貢献するのか??」ということです。

実際に、弊社にも最初に何をすべきか?という相談はよくあります。そんな時、私がいつもアドバイスしているか?について、ここから解説していきます。

まずは現状把握から

こういう相談をされた場合、多くのケースでは現状把握が出来ていないことが多いので、まず現状を把握してください。それほど難しいことではありません。

まずは現状のサイトが、

  • そもそもアクセスがないのか
  • アクセスはそこそこあって、コンバージョン(お問い合わせ)につながっていないのか

まずここからです。すごくシンプルに考えれば、「母数を増やす」ことと「コンバージョン率を改善する」こと、突き詰めれば、新規集客の改善ポイントはこの2点に集約されるのです。

※どれくらいが、「アクセスがある」と判断して良いか分からない方は、自社のサイトから目標の売上が上がっているか、いないか。の2つでも結構です。

サイトにアクセスがない場合

そもそもアクセスがない状態でSEOかリスティング広告か悩む場合、多くの場合、どちらもやるのがベストですが、どちらかにのみ投資する、であれば少額で動かすリスティング広告から始めるのが良いでしょう。

もちろんこれには理由があり、

  1. リスティング広告を運用してからSEOをやっても遅くない
  2. まずは、どのキーワードが当たるかを把握できる

などのためです。特に、どういうキーワードが有効なのか?ということを把握する(キーワードレベルで市場を調査する)ということからでも遅くありません。

また、

  • すでに同業種のSEOをやったことある
  • 過去に同じ商材でリスティングをやったことがある

など既にそのジャンルでの知見を持っている方もいらっしゃいます。こういう方に予め話を聞けるかどうか、というところも、初めての方には非常に大きなポイントと言って良いと思います。

前回の記事でも同じようなことをお伝えしましたが、ご自身でいろんなセミナーやイベントに参加して知識のある人と知り合いになる、代理店の担当者や上長と話を聞く、というのはやはりどんなときでも大切です。

さて、話を戻します。

リスティング広告を運用してからSEOをやっても遅くない

リスティング広告でどういうキーワードでCVするのかデータを溜めてから本格的にSEOを実施しても遅くありません。

なんの知識も無いまま、SEOに取り組むのは、釣具も釣場も選ばずに魚釣りをしに海に出るようなものです。きちんと「狙い」を定めることは少なからず必要です。

まずは、どのキーワードが当たるかを調べる

先ほどお伝えした内容でいうところの、釣具と釣場をきちんと知りましょう。ということです。

なにも知らずに施策を行うと、SEOでターゲットとしたキーワードがCVを生むものなかどうかも不明な為、仮に結果的にそういうキーワードで上位表示出来たとして、売上にほとんどつながらないという事態も起こりえます。

リスティング広告であればキーワードの軌道修正は容易です。また、リスティング広告の運用を通じて得られたキーワードのデータは、自社の資産になるため、次の施策に活かすことができます。

編集者注:

補足しますと、SEOでは(not provided)の問題もあり、キーワード毎のパフォーマンス測定とか意外なCVキーワードの発見などが以前に比べかなり困難になっています。

それに加えて、どうしてもサイト側のコンテンツに流入キーワードが依存するという制限もありますので、リスティング広告のような柔軟性やスピード感はSEOでは難しいんですよね。。

SEOで大半が(not provided)となっているケースでは、キーワード軸の分析ではなく、自然検索経由のランディングページ→CVなどといった経路の分析を中心にシフトすることも多くなってきました(例えばこのサイトは85%くらいが(not provided)です)。

アクセスはあるがコンバージョン(お問い合わせ)に至っていない場合

そこそこアクセスがあってコンバージョン(お問い合わせ)が目標に到達していないという場合、

  • サイトに来ているユーザーのニーズとサイトの内容が合致していない
  • CVが取れると予測しているキーワードと違うキーワードでのアクセスが多い
  • SEOでの最適化ができておらず、望まないページが上位表示されてしまっている。
  • スマホのアクセスが多いのに対応していない

などなど理由はさまざまです。

月間で数十万とか数百万のアクセスがあれば、解析専門の方に分析を依頼することが最も有効な方法となりうることもありますが、一般的な中小企業の場合、月間で数百~数千という小さい規模のアクセスをどのように売上につなげるか、ということを考えなければならないのです。

その場合は、まずは自社のアクセス解析を見て、下記の点を確認してみましょう。

  • 流入元(どこからのアクセスが多いか?)
  • 検索キーワード(どんなキーワードで検索しているか?)
  • デバイス(PCとスマートフォンのどちらが多く見られているか?)
  • エリア(ターゲットとなるエリアの人に見られているか?)

ということです。アクセスが無い場合でもお伝えしましたが、まず、大事なことは何より現状把握です。すると、問題点が浮き彫りになってきますので、そこから対応策を考えることが必要です。

例えば、これまでWeb担当者がいない会社の場合、スタッフ全員(できれば、受付の方やバイトの方なども一緒にいると良いです)で、一度、自社の状況をお話してみましょう。
普段意識をしていない人でも、インターネットに触れない人は少ないので、

  • あれ、うちの会社このキーワードで出ないんですか?
  • 僕、このサイト使うんですけど、ここに出せないんですかね?
  • 私はこんな感じのサイトだったら信頼感が出るわ〜。

など、結構色んな意見が出てくることが多いのでオススメです(もちろん、意見が出やすいように、ある程度の準備はしましょう)。

この場合、

  • コンバージョンに至りそうなキーワードでリスティングをやってみる、
  • SEOを見直す
  • リニューアルしてみる

という選択肢は変わりませんが、実際の生の声が聞けるので、優先度をつけて行動することができます。

リスティング広告の推奨書籍

もしもリスティング広告をしっかりと学びたいと言う方は、まずこちらの書籍を読まれることをおすすめします。

書籍:新版 リスティング広告 成功の法則

リスティング広告の世界で知らない人はいないであろう、アナグラムの阿部氏の著書です。基礎的な考え方から実務的なテクニックまで網羅されていますので、読まれていない方は是非手に取ってみてください。

本日のまとめ

インハウスで始めるにしろ外注するにしろ、仕組みを理解することが成功への第一歩です。

何度もいいますが大事なことは、現状把握です。その上で、下記手順で進めてみましょう。

  1. 自社のサイトがお問い合わせがとれているか?アクセスが足りてるかを把握する
  2. どのキーワードでコンバージョンが取れるかわからない場合、まずはリスティング広告で調査を行う
  3. その上で、SEOで対策を行うキーワードを決める

さて、いかがでしたでしょうか。

Webマーケティングを実践されてきた方にとってはとても基本的なことかもしれませんがが、ネットに蔓延している新しい技術やテクニックに目を奪われるのではなく、まずは足元をしっかりと見つめる事から始めてみることをおすすめします。

株式会社スタビライザー 小松 雅直

「構造化データ」がよく分かる!初心者向け徹底解説

SEOの文脈においても頻繁に話題になる「構造化データ」。意外にそこまで詳細に理解されている方は多くないのでは?と思います。ここでは構造化データやリッチスニペットの概要から、HTMLでの記述方法、テストツールなど、全体像を掴んで頂ければと思います。今回はコンサル部門サブマネージャーの巣鷹による執筆。

目次

セマンティックWebについて
構造化データとは
構造化データを使用するメリット
ボキャブラリーとシンタックス
構造化データをマークアップする方法
HTML上で直接マークアップする方法
データ ハイライターを用いる方法
テストツールのご紹介
まとめ

セマンティックWebについて

構造化データとセマンティックWebという考え方は切っても切り離せないものです。今回は構造化データを説明する前にセマンティックWebというものに簡単に触れておきたいと思います。

「セマンティックWeb」は、例えば以下のように説明されています。

Webページおよびその中に記述された内容について、それが何を意味するかを表す情報(メタデータ)を一定の規則に従って付加することで、コンピュータが効率よく情報を収集・解釈できるようにする構想。インターネットを単なるデータの集合から知識のデータベースに進化させようという試みがセマンティックWebである。
引用元:http://e-words.jp/w/E382BBE3839EE383B3E38386E382A3E38383E382AFWeb.html

コンピュータ(検索エンジン)は従来、テキストを単なる”文字”として認識し情報として蓄積していました。しかし、それでは検索エンジンは文字を記号としてしか認識することができず、その意味を推し量ることはできません。

そこで、文字を”意味”としてその背景や文脈まで解釈し、それを蓄積していこうというのがセマンティックWebの考え方です。

構造化データとは

セマンティックWebを実現するための手段として、構造化データがあります。構造化データは、言葉に対して意味をメタデータとして持たせることで、ロボットがそのもつ内容の解釈を容易にし、検索エンジンはより有用な検索結果をユーザーに提供できるようになります。

わかりづらいので例を。例えば、以下のような例を考えます。

--</pre>
<div>私は土居 健太郎 (天照SEO)です。</div>
<pre>
--

私達がこれを見た時に、この人は土居健太郎という”名前”の人物で、天照SEOという”ニックネーム”を持っているのだとある程度推測することができます。

検索エンジンもその推測ができないわけではありませんが、これを明確にニックネームだと定義することは難しいのです。そこで、そうした情報の「意味」を検索エンジン等に明確に伝えてあげましょうというのが構造化データの考え方です。

構造化データはHTMLに直接マークアップする、もしくはウェブマスターツール上で設定しますが(設定方法は後述します。)、上述した土居健太郎の例でいうと以下のような記述となります。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> (<span itemprop="nickname">天照SEO<span itemprop="nickname">)です。</span></span></div>
<pre>
--

nameやnicknameという値が含まれているのが御覧頂けるかと思いますが、特定の情報に対してHTMLマークアップを行う(メタデータを付与する)ことでその情報の説明が付与することができるようになります。

構造化データを使用するメリット

検索エンジンがサイトコンテンツの把握を容易に行えます

上述した通り、特定のテキストあるいは画像がどういう情報なのかを指し示すことで、検索エンジンはコンテンツの内容がどういう意味を持つものか、容易に把握できるようになります。

構造化データを用いることで、前述した文章は、「私の名前は土居健太郎で、ニックネームは天照SEOです」のように、情報の持つ意味がより明確に検索エンジンに伝わり、適切に認識されるようになります。

リッチスニペットが表示されます

通常の検索結果においてサイトが表示される際には青色のリンク、その下meta descriptionやサイト内テキストから引用したスニペットが表示されますが、構造化データを用いることで、リンクの下に通常とは異なる情報が表示されることがあります。これを「リッチスニペット」と言います。

リッチスニペットの画像

こういった検索結果を見たことがある方は多いのではないかと思います。

これにより検索結果で目につきやすくなり、クリックされやすくなるなどのメリットがあります。リッチスニペットに対応されているコンテンツは、上の画像のレビュー情報やレシピ、筆者情報以外にも音楽や映画、イベント、パンくずなどがあります。

ボキャブラリーとシンタックス

構造化データを理解する上で、この2つの言葉についてきちんと理解しておく必要があります。

ボキャブラリー

冒頭の例では文章全体に”http://schema.org/Person”という値を、土居健太郎に”name”、天照SEOに”nickname”という値を付けました。その指定する値を定義している規格のようなものがボキャブラリーです。

ボキャブラリーの代表的なものにschema.orgがあります。schema.orgはGoogle、yahoo!、Microsoftの大手検索エンジン企業が共同で取り組んでおり、値の数は日々拡張されています。

先ほどの例では人物の説明でしたが、人物の説明には名前やニックネームはもちろんのこと、所属する団体や誕生日なども情報として持つことがあるかと思います。そういった部分もある程度網羅されており、こちらのページ(※リンク先は英語です)にてまとめられています。propertyという欄で人物の説明に対してマークアップ可能な値が表示されています。

なお、schema.orgで構造化データマークアップに対応している情報のタイプはこちらでまとめられています。実際にHTMLをマークアップする際にはこれらの中からコンテンツに合致するタイプを選択し、実装します。
※マークアップしたい項目について、リンク先に利用可能な値が記載されています。

また、見て頂くとわかるかと思いますが、プロパティは階層構造となっています。

例えば「Thing(もの)」という大項目の子として「Book(本)」や「Event(イベント)」という項目、「Event(イベント)」の子として「BusinessEvent(企業向けイベント)」といった階層を形成しています。

シンタックス

ボキャブラリーは値を定義しているだけのものですので、HTMLにマークアップする際にはどうマークアップするかの仕様が必要ですが、その仕様がシンタックスです。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> (<span itemprop="nickname">天照SEO<span itemprop="nickname">)です。</span></span></div>
<pre>
--

ちなみにこの文章でいうとitemscopeやitemtypeの部分がシンタックスで決められている仕様です。

シンタックスには代表的なもので以下の4つがあります。

  • Microdata
  • RDFa
  • Microformats
  • JSON-LD

Googleが推奨しているのはMicrodataです。

また、JSON-LDはHTML上で各情報に直接マークアップするその他のシンタックスとは異なり、スクリプトを用いて記述するため、各データに直接マークアップする必要がなく、一箇所で構造化データを記述できるとぃう利点があります。

先ほどの例

再度、土居健太郎の例を用いて詳しく見てみましょう。
※以下の例はボキャブラリーにschema.orgとシンタックスにMicrodataを用いています。

--</pre>
<div itemscope="" itemtype="http://schema.org/Person">私は<span itemprop="name">土居 健太郎</span> <span itemprop="nickname"> (天照SEO) <span itemprop="nickname">です。</span></span></div>
<pre>
--

1. itemscope
itemscopeという属性がdivに付与されています。これはこのdivに構造化データが付与されているということを意味します。

2. itemtype
itemtypeはitemscopeで示された構造化データが何に関するものなのかを示すために用います。上述したデータでいうとhttp://schema.org/Person という人物を表す値が用いられているためdiv内の情報が人物を表す情報であると確認できます。

人物以外にも組織や会社を表すhttp://schema.org/Organization や、商品であればhttp://schema.org/Product などが定義されています。

3. itemprop
itempropはitemtypeで示された人物や組織・会社などの詳細な情報を示すために用いられます。

上の例ではdivに対してitemtypeで人物の情報であると提示されているので、itempropがnameと指定されているspan内の情報は、人物の名前であることが読み取れます。また、その次のnicknameが記載されているspanはニックネームを表しています。

構造化データをマークアップする方法

構造化データを検索エンジン(Google)に伝える際には大きくわけて2つの方法があります。

  • HTML上で直接マークアップする方法
  • データ ハイライターを用いる方法

前者のHTMLに直接マークアップする方法は文字通り上述した土居の例のようにHTMLタグに構造化データの要素を追加します。

一方でデータ ハイライターを用いる場合、ウェブマスターツールのページ上でクリックすることによりページの構造化データを(HTMLをいじることなく)Googleに伝えることが可能です。

Googleヘルプには以下のように書かれています。

■HTML の使用が適しているケース:
・サイト上のイベント、レシピ、その他の各種データの Google による認識方法を明確にコントロールしたい場合。
・HTML マークアップを一貫してすべてのデータ項目に追加できる場合。
・サイトの構造が頻繁に変わる場合。
・Google 以外の検索エンジンでもウェブサイトのコンテンツが認識されるようにしたい場合(データ ハイライターで抽出されたデータを利用できるのは Google のみです)。

■データ ハイライターの使用が適しているケース:
・サイトで表示するデータが、イベントに関するものである場合。
・サイトで構造化データやリッチ スニペットを使用することを検討しているが、HTML マークアップを更新するためのリソースの準備がまだできていない場合。
・HTML マークアップを記述するよりも、ウェブページをポイントしてクリックするほうがよい場合。
・サイトで HTML マークアップを変更できない、またはデータ項目を一貫してマークアップできない場合。
引用元:https://support.google.com/webmasters/answer/99170?hl=ja

どちらの方法もメリット・デメリットがありますので、運営されている体制やサイトの状況などにより、どちらを使うか検討することが望まれます。

ではそれぞれ実際に説明していきましょう。

HTML上で直接マークアップする方法

この方法には大きく分けて二つあります。それぞれ説明します。

ボキャブラリーとシンタックスを参考にHTMLにマークアップしていく方法

今回はボキャブラリーにschema.orgとシンタックスにMicrodataを用いてマークアップする方法を紹介します。

一般的に構造化データがマークアップされている情報は人物や商品、パンくずが多いですが、こちらにまとめられている通り、マークアップできる情報は他にも沢山あります。

今回は以下の文章について考えてみましょう。

--</pre>
<div>ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

①まずはitemscopeを入れましょう。

上述した通り、構造化データであることを示すはじめの一歩はitemscopeを該当するタグに入れることです。

--</pre>
<div itemscope="">ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

②itempropで何を示している情報なのかを指定しましょう。

今回はヴォラーレ株式会社の情報ですので、itemtypeで企業情報であることを示すhttp://schema.org/Corporationを用います。

--</pre>
<div itemscope="" itemtype="http://schema.org/Corporation">ヴォラーレ株式会社は五反田に位置する企業です。2007年1月15日に高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a href="”">http://www.volare.jp/</a></div>
<pre>
--

これでこのテキストは企業に関する情報であることをマークアップできました。

③itempropを使って各情報についてそれぞれマークアップしていきます。
企業に関する情報の際に使えるitempropはこちらのページで挙げられています。マークアップしてみると以下のようになります。

--</pre>
<div itemscope="" itemtype="http://schema.org/Corporation"><span itemprop="”name”">ヴォラーレ株式会社</span>は<span itemprop="”lacation”">五反田</span>に位置する企業です。<span itemprop="”foundingDate”">2007年1月15日</span>に<span itemprop="”founder”">高橋飛翔が創業しました。企業情報はこちらのサイトから御覧ください。<a itemprop="”URL”" href="”">http://www.volare.jp/</a></span></div>
<pre>
--

「ヴォラーレ株式会社」は企業名なので「name」を、「五反田」は住所にあたるので「lacation」を、その他創業日や創業者、コーポレートサイトへのURLもマークアップしています。

構造化データマークアップ支援ツールを用いた方法

ウェブマスターツールには、構造化データマークアップを支援する機能があります。

先に説明した方法だとschema.orgなどを理解した上でマークアップする必要がありましたが、こちらの方法はそれよりも容易に構造化データを用いることが可能になります。

ここでは弊社の開発室が運用しているブログを用いて説明します。

①構造化データマークアップ支援ツールに該当するページのURLを入力し、今回マークアップするデータを選択した上でタグ付け開始をクリックします。

構造化データマークアップ支援ツールの画面「

今回はブログ記事のマークアップですので、記事を選択しました。

②実際にマークアップしてみましょう。

ブログ記事ページイメージ

タグ付けはツール内でページが読み込まれた画面で行います。右にタグ付けできるデータが並びます。この例で言うと、前の画面で記事を選んだため、著者や公開日など、記事に関連するデータが並んでいます。

ではまず一番上にある「名前」(今回の場合は記事タイトルです)をマークアップしてみましょう。

タイトルがハイライト

タイトルに当たるところをドラッグすると、選択肢が出てきますのでそこから「名前」を選択しますと右側にマークアップしたいテキストもしくは画像が追加されます。著者情報や公開日なども 同様の要領で指定していきます。

データの指定が終わったら右上にある「HTMLを作成」をクリックするとそのページのHTMLが出力されます。

イメージ

③出力されたHTMLをサイトに反映させます。
どういったサイト運用をされているかにもよりますが、出力されたHTMLでマークアップされた部分(黄色くハイライトされています)、もしくはソース全てをコピーしてHTMLを実装しましょう。これでマークアップは完了です。

データ ハイライターを用いる方法

データハイライターを用いた場合には 直接HTMLをいじる必要がなく、構造化データマークアップ支援ツールのようにブラウザ上でクリックすることで構造化データをGoogleに伝えることが可能です。

①ウェブマスターツールでデータハイライターを開きます。

データハイライター画面

ハイライト表示を開始しましょう。

ハイライト表示

先ほどと同様に構造化データを設定したいURLを入力し、タイプを選択します。今回は天照SEOブログを用いますので、タイプに「記事」を選択しました。

また「このページをタグ付けし、他のページも同様にタグ付けする」の場合は(幾つかのサンプルページにてタグ付けを行うことで)同様のページ群もGoogleが学習して構造化データを認識してくれるようになります。一方で「このページだけをタグ付けする」場合はGoogleに学習させず選択したページのみをタグ付けしたい場合に用います。

ブログ記事のように同じようなページ群がある場合には前者、そうでない場合には後者が望まれると思います。
今回はブログ記事ですので前者を選択しました。

②タグ付けを行います。

アイテムを選ぶ

上述した構造化データマークアップ支援ツールと同様に、タグ付けしたいところをクリックもしくはドラッグし、タグ付けするデータを選択します。タグ付けが終了したら右上の「完了」を選択しましょう。

③Googleに自動でタグ付けして欲しいページを選択します。
※この選択肢は「このページをタグ付けし、他のページも同様にタグ付けする」を選択した場合にのみ表示されます。

ページセットの作成画面

左の項目ではGoogleが同様だと判断したページ群が選択肢として表示されます。それでは問題がある場合は「カスタム」で設定しましょう。※ページ群の設定は正規表現で行います。

これらを選択したら「ページセットを作成」に進みましょう。

④サンプルページで上手く設定できているか確認します。

確認画面

Googleは最初にタグ付けした設定から他のページでも同様の構造化データをタグ付けします。このページでは③で選択した構造化データを設定したいページ群の中から、構造化データ部分をハイライトした状態でサンプルページが表示されます。自分の意図通りに設定されている場合には、右上の「次へ」をクリックしましょう。

次々にサンプルが表示されますので、問題がある場合には手動で設定を修正しましょう。5ページ分のサンプルを確認すると、「完了」という項目が右上に表示されるので次に進みましょう。

⑤最終確認画面

採取確認画面

最後に確認したサンプルページを再度見直して、問題が無い場合は右上の「公開」ボタンを押しましょう。これでデータハイライターによる構造化データの設定は完了です。

テストツールのご紹介

構造化データ テスト ツール

構造化データ テスト ツールで正しく構造化データが記述できているかを確認できます。URLもしくはHTMLを入力することでそのページに設定した構造化データが正しく設定されているか、どの項目が設定されているかに加えて、検索結果上でどういう表示がなされるページなのかを確認できます。

テストツール

構造化データのマークアップを行った後には出来る限りこのツールを用いて、正しく設定されたかを確認するようにしましょう。

※なお、このツールで表示される検索結果プレビューが必ずしも本物の検索結果で表示されるとは限らないようです。

ウェブマスターツールの「構造化データ」項目

ウェブマスターツールの構造化データでは、構造化データの設定にエラーが無いか一覧で確認することができます。検索結果のプレビュー機能は無いですが、構造化データにエラーがあるデータタイプやページが一覧で確認できますので、URLを何度も入力する必要のある構造化データテストツールよりもその点は便利です。

まとめ

ここ最近の検索エンジンまわりの動きを見ても、構造化データを利用する重要性は高まるはずなので、サイトによっては是非チャレンジされると良いかと思います。しかし、サイトの全体的なマークアップに構造化データを適用するというのはコスト的に現実的でない場合が多く、そのあたりのバランスは今はまだなかなか難しいのかなと思います。

最後に、こちらも参考にどうぞ。

皆様のお役に立ちましたら幸いです。

ヴォラーレ株式会社 巣鷹

最近のGoogleの変動はペイデイローンアップデート2.0とパンダアップデート4.0の2本立てが原因??その内容と対策

先週末くらいから、確かに検索結果で不安定な動きが見られ、SEO関係者の「Google動いてる…?」的なツイートもその時期から多く見られました。

そんな中、先日GoogleのMatt Cutts氏がこのようなツイートをしていました。

“Googleは本日パンダ・アップデート4.0を実施しましたよ(5/21)”

 

“先週末、Googleは”とってもスパミーな検索クエリ”に向けたアップデートを実施しましたよ(5/21)”

 

このことから、”パンダ・アップデート4.0″と”ペイデイローン・アップデート2.0″という比較的規模の大きな変更が、先週末~今週末にかけてほぼ同時期に実施されていたことが分かりました。

パンダはまだしも、ペイデイローンについては、「ぺイデイローン?何それ?言いにくい!ダサい!」と思われる方や、「それって1996年に公開された、突如現れたUFOに地球が襲撃される系のウィル・スミス主演の映画のタイトル?」などと思われる方も相当数いると思われます。

既にクライアント様からも次々と質問をされていますので、解説を入れておきます。

「この変更に伴いどんな対策をすべき?」について

具体的なアルゴリズム解説は後にして最初に結論を言っておきますと、これらの変更は「大半のサイト運営者にとってはさほど影響のない話」であって、更にちょっと乱暴に言えば、今回は仮に影響があったとしても、基本的なSEOの取り組み方針としてやるべきことは特に変わらないです。

それはつまり、ユーザーが欲しがる情報を用意しておきましょうとか、薄いコンテンツを減らして中身の詰まったサイトにしましょうとか、不正なリンクを取り除いて正当なリンクを集めましょうとか、スパム的なことをするのはダメです、とか技術的に問題が発生しそうな実装があるのであれば最適化しましょう、というようないつも言われていることになるのですね。

変更に伴うランキングの調整の方法を探すのではなく、変更の背景や意図を理解し、SEOの取り組みに反映させる

パンダ、ペンギン、今回の”ペイデイローン”にしても然り、こういう比較的大き目の変更があったとして、それに都度「今回はこう!」「次はこう!」「そんでもって次は、、こう!」みたいな感じで何かを対応していくというスタンスは、正直いえばなかなか不毛な場合も多いです。

何故ならば、Googleが定期的に行う”変更”の大半は技術的な刷新や変更、あるいは追加であって、「検索サービスとしての方向転換」では決してないのですよね。つまり基本的にはどういう検索結果にしたいかという方向はだいたい固まっていて変わらなくて、それを実現するために、次々に新しい技術や仕組みを取り入れているというようなイメージです。

それにもう一つ理由を言うのであれば、あからさまな問題点とあからさまなタイミングの一致がある場合を除き、最近では原因を特定することももちろん難しい場合が大半です。

アルゴリズムの変更はいちいち公表されるものではそもそもありませんし、日常的に様々な変更を加えられ、かつ以前のアルゴリズムよりもかなり多面的な評価がされているということも考慮すると、ほとんどの場合は「考えても分からないものを考える前に、目の前に山積みになっている課題を一つ一つクリアしていきましょう」ということになるわけです。

もちろん、内容によっては「やるべきこと、考えるべきことが変わる(≒増える)」場合ももちろんあります。ですが本質的に大事なのは、「この変更を経て、今ランクを調整するためにどういう対応をすべきか」ではなく、「この変更はなぜ行われたのか、そしてその上で、自分たちがやることを追加、変更する必要はあるか」という考え方が良いのではないかなと思います。

※参考:Googleがアルゴリズムを変更する目的とSEOの役割

そういう意味では、今回はなにか大きく慌てるようなことがあるかというと、まだ不明な点もありますが、基本的には従来の仕組みの延長線上で行われている変更ですので、特にないかなと(ただしもちろんこういう不安定な時は自サイトや競合他社のランキングの観測はきちんとやっておきましょう)。

ということで、ここから先は各々についてまとめていきます(主に初心者向けに書きますのでそこまで厳密な解説はしません)。

ペイデイローン・アップデート

ペイデイローン(Payday Loan)とは、「次回振り込まれる給料を担保にした少額のローン(貸金)」のことみたいです。確かに日本だと馴染みはないですね。

アルゴリズムとの関連性の文脈としては、なんのこっちゃ良く分かりません。

ペイデイローン・アップデートの内容

ローンとSEOと何の関係があるの?と言えば、「こういう系のキーワードは(上位表示されると売上に直結しやすいため)スパムに汚染されやすい」という特徴があります。これは日本でも同じことが言えますね。

その「不正に順位操作されたサイトで検索結果がいっぱいになってしまいがちな残念な検索キーワード」の代表例として”ペイデイローン”という言葉が使われ、一般的なこのアップデートの呼称となっているわけです(Google公式の名称ではなく、通称。)。

このアップデートは、そういう残念なことになっている検索結果をきれいにしますよ(スパムをやってるサイトを排除しますよ)、という意図の更新です。

ペイデイローン・アップデートの対策は?

このアップデートの趣旨として、繰り返しになりますが「一部のスパムに汚染されまくったキーワード」を対象に、そうしたスパムサイトを排除するようなアップデートです。

例えば、日本国内で言えばギャンブル系キーワード、アダルト系キーワード、金融系キーワードなどは全体的にそういう傾向が昔から根強いですね。もちろんジャンルどうこうではなく、あくまで「スパムされやすい検索キーワード全般」ということなのですが。

どのキーワードが、とはもちろん明言されていません。ただし一般的に「激戦」と言われていたキーワードではガラッと検索結果が変わりました(変なサイトがゴッソリいなくなったり)。

ということで、これを気にする必要がある可能性がある人は、

  • 検索結果上位がスパムサイトで埋まってしまうようなテーマのサイトを運営していて、
  • 自身もスパムな手法を使ってSEOを行っていて、
  • ここ最近になって急激に順位が下落したように見える

のようなごく一部の方であって、ほとんどの方は影響のないアップデートと言えます。

※ここでいうスパム、はリンク購入に限らず、順位操作系のスパム全般を指しています。

ペイデイローン・アップデートまとめ

特定の手法や状態に対して評価を下げる、というよりも一部の特定のキーワードでの検索結果を、その中でスパムな手法を使って順位操作しようとしているサイトを排除することによってキレイにする、というような主旨のアルゴリズムであるとご理解下さい。

したがって、ほとんどのWeb担当者の方には影響ないものと思います。

パンダ・アップデート

もう英語圏で最初に導入されてから3年以上もたつのですね。SEO担当者の方であればほとんど全員が知っている内容なのでしょうが、最近はいちいちアップデートの公表もされなくなっていたので、耳慣れない方のために改めて解説を入れておきます。

パンダ・アップデートの内容

色々調べれば出てくると思いますので、ものすごくざっくりとした解説をしておきます。

  • 低品質なコンテンツが上位に出てきにくくするために実施されています。
  • 低品質とは例えば、単純に中身がスカスカだったり、
  • どこにでも書いてあるような薄っぺらいことしか書いてなかったり、
  • 他のサイトと共通のコンテンツしか載せてなかったり(独自性がない)、
  • 全体的に信頼できなさそうなサイトだったりが該当して、
  • 全体的にそういうコンテンツを多く抱えているサイトが検索にヒットしにくくなります

ざっくり言えばこういう感じです。こういうアルゴリズムを考慮した上で何をすべきかという点については、めちゃくちゃイメージで言えば、薄っぺらーく広がったサイトよりも、筋肉質で密度の濃いサイトを目指しましょう、というようなイメージです。

※具体的な対策はこちらの記事を:Google パンダアップデート 業界・タイプ別 傾向と対策

パンダ・アップデート4.0の特徴

まず、”4.0″とか”2.0″とかってというのは、アルゴリズムのアップデートのバージョンの話です(同じアルゴリズムの中でも、仕組み自体が刷新されたり、その仕組みの中で処理されるデータが更新されたりされます)。

パンダ・アップデート4.0では、以前(下のツイート参照)から言われていた“Next generation Panda(次世代パンダアップデート)”なのか?というのが少し関係者の中での関心事項になっています。まだ公式なアナウンスはありません。

“GoogleのMatt Cutts氏は(SMX Westというイベント内で)、新しいパンダアップデートは、小規模な事業者(サイト)にポジティブな影響を与えるだろう、と話していた(2014/03/14)”

 

まだ、これが具体的にどういう仕組みなのかは詳しくは分かっていないのと、今回のアップデートがこれにあたるのか?というのは何とも言えない状況ではあります(個人的には、おそらく今回で実装されたかなという気がしていますが)。

小規模なサイトが優遇される、というよりも、コンテンツ規模の大きなサイトを優遇せず、小規模サイトも大規模サイトも公平に評価できるようにする(規模の大きなサイトが、規模が大きいというだけで相対的に優遇されないようにする)的な文脈なのかな?と思うのですがどうなんでしょうか。公式なアナウンスを待ちます。

そしてまた先ほどと同じ議論なのですが、だからこの変更に際して何かを変える必要があるかといえば、特に大きなものは思いつかないです。規模が大きいから、という理由だけで恩恵を受けていたサイトがあって、こういう変更によりランクが落とされたとしたのであれば、もう少し、一つ一つのコンテンツに磨きをかけていく必要がありますね、という具合でしょう。

以上となります。ちょっと長くなってしまいましたがお伝えしたいところは中盤で書いてしまいましたのでこのあたりで。

ヴォラーレ株式会社 土居

【寄稿】元インハウスSEO経験者が語る、失敗しないためのSEO会社の選び方、付き合い方

先日、半ば勢いでこんな記事を公開したところ、即時で「協力したい」とご連絡頂いた、株式会社スタビライザーの小松氏に連載寄稿をして頂く運びとなりました。最初の記事は、自分たちではポジション的に絶対に書けない「SEO会社の選び方」的な、非常に難しいテーマから。。。

はじめに

「今日から君、うちのホームページのSEO担当してね!」って・・・

そんなことサラッと言われても何をして、どうすればいいのか。とりあえず、「SEO対策」で検索してヒットした会社に連絡して話を聞いてみるか。

中小企業のWebマーケティングでは、往々にしてこのような状況があるかと思います。もしかしたらこのブログを読んだ方もそんな経験がある方もいらっしゃるかもしれません。

ごあいさつ

ごあいさつが遅れました。私は株式会社スタビライザーの小松と申します。はじめまして。縁あってこちらに記事を寄稿することになりました。

株式会社スタビライザー:http://www.stabilizer.co.jp/

簡単に自己紹介させて頂きます。大手医療系人材会社のインハウスのweb担当役員を経て独立。

インハウスでは約8年間、webマーケティングの部署立ち上げから担当役員まで経験。インハウス経験者ならではの視点が強み。Webの何かの分野の専門医ではなく”webの町医者“として幅広い悩みに応えます。

自社で対応出来ない場合は専門の会社(人)と一緒に解決します。現在はSEMカフェのメンバーとして活動中。

そうです。私自身もインハウスでWebマーケティングを担当してきたため、みなさまが一度は経験したことある悩みを経験しています。

今回の連載では、SEOに限らずインハウス経験者ならでは視点や、予算の大きなwebマーケティングだけでなく予算が小さい、サイト規模が小さいサイトについても取り上げていきたいと思います。

前置きが長くなりましたが、本題に入ります。

SEO会社の選び方、付き合い方

これからSEOを外注しよう、またはリプレイスしようと考えている方。とはいえ、SEO詳しくないし…という方。そういう方に読んで頂きたい内容です。

以前まで所属していた会社で2006年からSEOに着手し、大手から中小・個人まで様々なSEO会社とお取引させて頂きました。取引に至らず商談だけなら数十社です。

その経験をもとに、しっかりしたSEOの知識がない場合、どういう選び方をすれば「外れる確率」が少ないか、についてお話しします。

1. 実務担当者がきちんと情報を発信しているか?

SEO会社の担当者や中の責任者がSEOに関するブログで情報を発信していたり、SEOのセミナーを開催しているところもあります。

積極的にそういうことをしている会社(人)は、そうでない場合に対して、信用できる確率が比較的高い。あまりメディアに登場しない凄腕のSEO会社ももちろんあるのですが、初心者ではそれはなかなか判断しづらいです。

※ポイント※
ブログでしっかりとした情報を発信しているかを見極める

※注意点※
ブログやセミナーで発信していても、間違った情報を発信する人もいます。きちんと複数見比べて、ご自身でもSEOの知識を強くすることをオススメします。

編集者注:

直前のコメントは本当にそうで、発注者側にSEOの知識が多少なりはないと、単独での正しい判断は困難を極めます。ただ一方で、その知識をどこから得るか、何をもってしっかりした情報発信なのか、という判断も、それはそれで初心者の方にはとても難しく、かといって勉強しましょうと言って経験なしに簡単に習得できるものでもなく、、、
極端な話、SEOの知見が何もない方にとっては、このブログはもちろん、業界でも著名なブログであってもそれが内容として良いか悪いかの判断も出来ないのですよね。
むしろ「こいつら難しそうなことばかり言いやがって、、もっと簡単に出来るって言ってる人もいるじゃないか」みたいな方も多いと思います。ということで、次に紹介されるポイントこそ、現実的に最も重要なポイントなのではないかなと思います。

2. SEOにある程度精通した人から紹介してもらう

自分の友人・知人でSEOを実施している会社はたくさんあると思います。取引実績のある会社からの紹介だと丁寧に対応してもらった、というケースは多くの方が経験されていることかと思います。

SEOも例外ではなく取引実績のある会社の紹介だときちんと対応してくれる可能性は高くなります

どうしても知り合いがいないなどの場合は、インハウスのSEO担当者が集まるイベントが定期的に開催されているのでこちらで知り合った方から実際の評判を聞いたり、紹介してもらうのも手です。

※ポイント※
信頼出来る人からの紹介は大幅に失敗率を下げてくれます。

※アドバイス※
そういう知り合いがいない場合はセミナーやイベントで知り合いを作りましょう。

編集者注:

初心者の方であれば、まずはここが現実的に最重要と思います。SEOに精通した方が周囲にいないのであれば、セミナーや交流会に積極的に参加し、実際に業界事情に詳しい方との交流を作り、相談相手を外部に持つことで、”外れクジ”を引く確率は格段に下がると思います。

ちなみに上記で紹介されていたイベントはインハウスで経験豊富な人が多く集まりますので、間違いないと思います(基本的にSEO事業者はNGなので僕は行けません)。

3. キーワードや順位やリンクのことしか話さない会社はNG

「このキーワードで上位にします!」
「ロングテールでたくさんのキーワードを集めます!」

インハウスの担当者からするとSEOを実施したい訳ではありません。SEOという施策を通じてトラフィックや収益を上げたいだけです。

特に、ここの収益を上げるというところがポイントです。

キーワードの検索順位は確かに下より上が良いですが、収益につながらないワードで上位表示出来たからといってコストだけ出ていっては仕方がありません。

もっというと代替案があるなら解決策がSEOでなくても良いのです。

少なくとも、そのキーワードで上位表示されるとキーワードの意図とサイトはマッチしているので収益が上がるとか、そのキーワードでは上位表示されても収益につながらないからこっちのキーワードが良いなど、依頼者の利益につながる話が出来ない会社や担当者と付き合っても、絶対にろくなことがありません。

どんなに有名な会社や大きな会社であってもこの時点でNGです。

※ポイント※
順位の提案ではなく収益につながる提案かを見極める!

※アドバイス※
自分たちでもどのキーワードで収益が上がりそうか、アクセス解析のデータやリスティング広告のデータから仮説を持っておく。

編集者注:

今でもたまに営業の現場に出たりする身から補足しますと、順位とかリンクとかキーワードに限らず、自社の商材を売ることを主眼とした話しか出来ないのであればその時点で微妙と思います。

それは仮にホワイトハットな提案をするとしても同じで。手段が目的にとって代わるということはあり得ないためですね。

4. 明らかに新人と思える担当者に単独で担当させない

個人企業だと判別できませんが、そこそこの規模の会社で、新人に営業させて新人がそのまま単独で担当になるケースはありますが、個人的にはそれは極力避けたいところです。

新人が悪い、ではなく、社会経験が浅くビジネスに対する理解が不十分だったり、SEO会社内での力が弱く、スピーディーに対応してもらうことが出来ない可能性が高いということです。

新人が担当の会社に依頼する場合でも、コンタクトは担当の人とするにしても必ずその人を単独で担当させないことです。出来れば、そのプロジェクトの責任者は誰で、施工項目の監修は誰が行うのか、なども教えてもらい、早い段階で顔合わせはしておくべきです。

※ポイント※
新人には単独で担当させない。経験豊富なベテランに最低でも監修に入ってもらう。

※アドバイス※
1の会社を2経由で紹介してもらえば、新人が単独で来ることはまずない。

編集者注:

実際に各社どこまでそれが可能かは分かりませんので、その場合、最低でも、「あなたが一人で担当するの?一人じゃないなら、誰がどういう感じで関わってるの?」くらいのことは予め確認しておくべきと思います。どうみても実務経験の浅い担当者が単独で対応する、は危険すぎるので避けるべきなのは間違いありません。

まとめとおさらい

いかがでしたでしょうか?SEO担当にはなったものの専任ではない場合、この4つをクリアすれば失敗する確率はかなり低くなります。

最後に、もう一度ポイントのおさらいです。

  • しっかりとした情報を発信しているかを見極める
  • 信頼出来る人と交流を作り、人づてに紹介をもらう
  • 順位の提案ではなく収益につながる提案かを見極める
  • 明らかな新人に単独で担当させない。

とは言え、これから初めてSEOを始める方は、1の方法でいろんなブログを読んだりセミナーに行ってみたりすると知識が広がってより精度高くSEOを実施することが出来ます。

次回は、「限られた予算の中でSEOをやる?リスティングをやる?どっち?なんで?」についてお伝えしていきます。

株式会社スタビライザー 小松 雅直

「SEOで月間1000万PVのサイトを作る方法」のSEOセミナーがDVD化されました

さて、タイトルの通りなのですが、昨年開催した自社メディアを題材としたSEOセミナーがDVDとなって販売開始しましたのでお知らせさせて頂きます。既に一部告知もしておりまして多くの方に購入も頂いていて皆様本当にありがとうございます。

※詳細:【DVD】Web担当者のためのSEOノウハウセミナー ~広告を一切使わず1年で1000万PVのメディアを作る方法~

セミナーの概要とDVDの内容

昨年、Applivという弊社が運営しているアプリ検索サイトを主題に、内部データや社内事情なども公開しつつ、具体的にどういうSEOを実践してきたかについて語り倒すという内容でSEOセミナーを開催しました。

テーマとしては「SEOで月間1000万PVのメディアを作りましたよ」という内容です。(昨年時のデータですので今はPVはもうちょっと増えています)

※当時Find Job!Startupさんに取材して頂いて一部内容が公開されておりますのでよろしければこちらも参考にどうぞ。→SEOで月間1000万PVを集めたサイトの「SEOノウハウ」を公開します

セミナーでは、全体感から細かな実装についても触れていましたので、実質3時間くらいの講義でしたがかなりギチギチに詰まった内容になってしまいました。幸い、参加したお客様からはありがたい感想を思いのほかたくさん頂きました。

もともと、結構な内部事情までお話するというところで参加費25,000円の有料セミナーとやや強気な価格設定としまして、社内からも「ちょっと高くない?」という意見もありました。

ですが実際には大変ありがたいことに2回とも満員御礼(2回目は飛び込みで参加したいという方まで来られて、予備席まで用意しました)で、計110名様を超えるお客様に参加頂くことができました。本当に感謝ですね。

そのセミナーをこの度は21,600円(税込)という価格でDVDとして販売するということになっています。なかなかボリューミーなので2枚組です。

※詳細:【DVD】Web担当者のためのSEOノウハウセミナー ~広告を一切使わず1年で1000万PVのメディアを作る方法~

変にポジショントークを入れたつもりもありませんので、総じて、SEOの仕事に関わる方であれば必ず何かしらの気付きが得られる内容と思っています。

DVDをご購入頂いた方からの反応

たかぽんさんというSEOでは有名なアフィリエイターさんがDVDを購入して頂いていてコメントをしてくれました。

 

彼ほどの実力者を開始7分で満足させる内容ということで、一度ご覧いただく価値はあると思います。

何を吸収して頂きたいか

あらかじめお断りしておきますと、普段からこうしたブログやセミナーなどで積極的に情報収集をされている方にとっては、そこまで目新しい内容は多くはないと思います。

聞いたことあるような話ばっかりじゃん、と思うかもしれません。ですが、それでも良いのです。

今回は、

  • 実際にある程度の規模のメディアを作って運営するにあたり
  • 何を考えてSEOの戦略や方向性を決めて
  • 「当たり前に聞くような」手法をどのようにサイトに反映させて
  • それが結果としてどう結びついたのか

こうしたことをまずは読み取って頂きたいというのがまず第一です。

しかし、DVD冒頭の挨拶でも触れていますが、このサイトで上手くいったことが他のサイトで上手くいくことだとは限らない(むしろ、そうでないことのほうが多い)ことは間違いありません。

ただ、このサイトが行ってきたアプローチの中から、エッセンスとして活かせる要素は必ずどこかにあると思います。それを抜き出して、サイトに反映させて頂ければ本望です。

最後に、

  • かなり早口だと思います。
  • かなり前髪長いです(今はもっと爽やかです)。
  • 一部、質問内容に特定の個人名や会社名が出ましたのでその部分のみカットしています。

という点はあらかじめご了承くださいませ。プレゼン資料はPDFとしてお送りします。

ということでオチも何もなくて恐縮なのですが、是非ご覧いただければと思います。よろしくお願いいたします。→DVD販売の詳細はこちらから

※今週、別のセミナーでも話します。こちらは小人数制です。→Web制作・開発者対象 SEO内部設計基礎セミナー

ヴォラーレ株式会社 土居

元雑誌編集者が語る、あなたの”コンテンツマーケティング”が上手くいかないワケ

コンテンツが重要、という考え方が徐々に浸透しつつありますが、ここでは元雑誌編集者、という視点から、Web媒体のコンテンツ制作の現場についての「それってどうなの?」な色々について取り上げて解説します。今回はコンテンツ制作部門の寺田による執筆です。

コンテンツを作ることがコンテンツマーケティングではない

「オウンドメディア」「コンテンツマーケティング」などというキーワードが注目を集めています。SEOの現場でも、GoogleがブラックハットSEOについて厳しいアップデートでのぞむ一方、「これからはコンテンツマーケティングだ!」「オウンドメディアで自社サイトをメディア化するんだ!」と、”ユーザーの役に立つ”コンテンツが重視される傾向にあります。

この流れ自体は誰の目にも素晴らしいことです。ただ、とりあえずコンテンツをジャンジャン書いてページをたくさん作ったところで、思ったようにアクセスが取れなかったり、アクセスは増えても商売につながらなかったり、ということも珍しくはないでしょう。

でも、実際に多くのWebのコンテンツを見ていると、これって実は当たり前というか。

結論から言うと、「メディア」って相応の労力(またはお金)や時間をかけたり、伝え方ひとつとっても様々な工夫をしていかないと、十分な効果は得られないんですよ。なのに、「何でもいいからコンテンツを作る」で走ってしまっているから失敗しているだけなんです。冷静に考えれば、それって”マーケティング”でもなんでもないですよね。

元雑誌編集者から見たWebコンテンツ制作現場

以前、10年ほど雑誌制作の現場にいました。そこからWeb業界に移籍してきたので、すべてが新しいことだらけなのですが「コンテンツを作る」という業務は同じなので考え方は同じというか。要は「人が読みたくなる文章を書く」ということは同じですからね。

雑誌からWebへと媒体が変わっても引き続きコンテンツ制作に関わっているのですが、Web業界で仕事をしていると「アレ?!」と感じることがあるので違いを軽くまとめてみます。

1. 誰が書いたかわからない記事・・・って大丈夫?

最近はクラウドソーシングって流行ってますよね。この業界に移籍して初めて知りましたが、文字単価0.2円(500文字書いても100円!)とかでの発注もあるみたいです。とにかく安い。。

クラウドソーシングという世界そのものについては、発注者にとってもクリエイターにとっても様々な課題を解決し得る、画期的な仕組みだと思っています。ライターとしても、空いた時間を有効活用できるので人気を集めてます。発注者側としても、コストを抑えてコンテンツが制作できてWin-Winです。

ただ、それをどう活用するかというのは利用者次第だと思っていまして。例えば、用途によりますが、どこの誰が書いたかわからない、何を情報ソースにしているかも不明な記事を、ロクにQAもせず自社名義のサイトに掲載されているものをしばしば見かけますが、それって皆さん怖くないんでしょうか?

もちろん、クラウドソーシングに登録されている方の中にもきちんとしたライター経験者も多くいます。でも少なくともしっかりした実績と実力のある方で、文字単価0.2円みたいな報酬で一生懸命文章を書きたいという人はそこまでいらっしゃらないと思います。

また、なにか問題が起きても「しーらない」でドロンされちゃったらどうするんだろうと。雑誌の現場だと、たまに聞くんです。いわゆる「飛んじゃった」ってやつで。

徹夜続きのデスマーチな現場だとありがちです。いきなり会社に来なくなったり、連絡が取れなくなったりする人。デスマの現場で誰か飛んじゃったら炎上どころの騒ぎじゃないので、やっぱり信頼できる人と仕事したいですよね。

2. 何を伝えたいのかわからない、ゆるい原稿

紙媒体だと誌面に限りがあるので、文字数との戦いは避けて通れない苦悩です。ガッツリ2時間かけて取材して聞いてきた内容を400文字にまとめてくれ、なんてことも多々あります。一方でWeb系の制作は物理的な文字数の制限がなく、「1000文字以上であればOK」といった発注も多いですよね。非常にざっくりしています。

それで、前述のクラウドソーシングみたいな文字単価の設定だと、ネットの情報を切り貼りしたような内容の浅い記事ができあがります。まぁ、これも必然というか。ボランティアではありませんから、ギャラ200円の原稿に何十分も時間かけてリサーチとかインタビューなんてなかなか出来ないですよね。

そうすると、どこかのまとめサイトとかWikipediaとかの内容を集めてきた薄ーい1000文字の原稿ができあがります。極端に言えば「伝えたいこと?そんなの関係ないよ」の世界です。

しかし、その文章はサイトに掲載することだけが目的なのでしょうか?違いますよね。そのコンテンツによって誰かの問題が解決したり、サイトを訪れたユーザーがあなたのサービスや商品のことを好きになったり、そういうことが目的なのですよね。であれば、それが伝わるように文章を作らなければいけません。

3. そもそも、見直ししてる…?

紙媒体だと印刷したらやり直しが効かないので、何度も何度も、これでもかというくらい校正確認をします。書いた本人はもちろん、ディレクター>編集担当者>取材対象者>デスク>クライアント>校閲者>編集長…といった感じで初校・再校と校正確認がまわるのです。

校正を経て、最終的には納品時の原型を留めていないことだってあります。それはそれでどうなんだという話もありますが、電話番号ひとつ、値段の桁ひとつ、間違えるだけで大変なことになると徹底的に叩き込まれるので穴のあくほど何度も校正が鉄則です。

ところがWeb サイトの場合、掲載後だって修正が可能なためか「この記事、見直し…してるよね?」という初歩的なミスがあるのにそのまま掲載されているものが多いです。読めばわかるレベルの大量の誤字脱字がそのまま、明らかに論理的な飛躍があるのにスルーというのは・・・残念ながら、悪い意味で行間から書き手の気持ちが伝わってきます。

ただでさえ、モニターで確認する原稿は、紙に出力して確認する原稿よりも間違いを見落としやすいという特性があります。それを考えると、納品前に数分程度の見直しだったら何度やってもいいと思うのですけど。

「編集者のように考えよう」とよく言われるけれど

簡単に3つほど挙げてみましたが、要はWebの場合、記事の質が「軽い」んです。コンテンツマーケティングの文脈ではよく「編集者のように考えよう」と言われていますが、自社サイトをメディア化するのであればしっかりとユーザーに“刺さる”コンテンツが必要です。

前述したような幾多のチェックを突破して掲載される雑誌の記事は、企画から取材・校正と膨大な時間と人件費を使って鍛えられ、磨き上げられます。

例えば、「東京○✕△グルメ」のような120ページくらいの情報誌であっても、制作費だけでウン百万円とかは必要になります。それでも雑誌になって800円くらいで2万部も売れたらOK、という感じでしょうか。

さらに企画から制作、印刷まで終えて本屋さんに届くまでには3ヶ月~半年とか時間が必要です。つまり何がいいたいかというと、メディアにはお金も時間も労力もかかるということです。それでも紙媒体はご存じの通り「出版不況」なので、利益を出すのは大変です。

ここで例えば、1つの雑誌(メディア)を創ると考えて上記と同じリソースを1サイトの「コンテンツ」として投下したらどうでしょうか。

じっくりと練られたクオリティの高いテキストと写真。例えばあなたのサイトにそういうレベルの1000文字の記事が100本200本あるだけで、それなりの集客効果が期待できるのではないでしょうか。

雑誌とWebのメディアが大きく異なるのは、日本全国で実売2万部の雑誌を手にすることができる場所は限られますが、Webコンテンツはいつでもどこでも、極端な話では何年後にも多くの人に見てもらえる可能性があるということです。つまり、そのコンテンツは資産として長く有効活用できるのです。

SEOの世界でもかつて通用したテクニック的な手法が通用しなくなっていますので、なおのこと、こういうところに積極的に投資しない手はないのでは、と思います。

問題は、ユーザーに何を伝えたいか

そもそも論になってしまいますが、企業のオウンドメディアで大事なのは「サイトへの流入が増えるだけの記事」ではなく「あなたのサイトが大事にしたいユーザーによろこばれる記事」ではないでしょうか。

今日もどこかでユーザーは困っています。困っているからこそ検索などを活用して解決策を探し、よりベストな方法を検討しているのでしょう。

彼らに伝えなくてはいけないのは、どこかで聞いたような解決方法の切り貼り記事ではなく、知識や経験に裏打ちされた「役に立つ情報」です。

それは新製品を使ってみた体験レビューかもしれないし、リアリティのある見積もりデータかもしれないし、あなたの会社が信念を持って取り組んでいる商品やサービスに関する知識を深めるためのコンテンツかもしれません。

ただ、少なくとも確実なのは「伝えたい」という気持ちの無い原稿からは何も伝わらないということです。逆に言えば、「伝えたい」という気持ちがあれば、それは必ず伝わるものです。

「伝える」ための5つのヒント

長くなってしまいましたが、「コンテンツマーケティング」だ「オウンドメディア」だと流行りのWebマーケティングに便乗したところで、「伝えたいもの」がない浅いコンテンツをどれだけ投下したところで、あなたのビジネスやサイトを訪れたユーザーを取り巻く問題は解決しません

一方で、慈善事業ならまだしもビジネスの観点から考えると「いつか伝わると思います」ではプロダクトとして社内コンセンサスも何も得られないでしょう。

気持ちだけではなく、実践的なWebライティングの経験やサイト構築の戦略といったナレッジが必要となります。メディアとして、想いを伝えるためにはテクニックが必要です。例えば、

  • あなたのサイトに来てほしいターゲットユーザーは、どんな人ですか?
  • あなたは彼らのどんな問題をどのように解決できますか?
  • そのターゲットユーザーには何をしてほしいですか?
  • 競合他社と差別化したいポイントはどこですか?
  • 上記の目的を果たすために、どんな記事をユーザーに読んでもらうべきですか?

といったことを常に心がけながら、コンテンツの制作・運営を進めることが重要です。そうすれば、オウンドメディアに必要なリソースは大きく削減できることでしょう。

そのためには制作チーム内で、それがたとえクラウドの向こうにいるライターだとしても、しっかりとビジョンを共有してみてはどうでしょうか。また出来あがってきた文章に、編集者はひと手間もふた手間も加えて、情報発信側の熱のこもったコンテンツとして公開してみてはどうでしょうか。

ぜひこの機会に、こうしたことを改めて一緒に考えてみて下さい。

最後に宣伝ですが、もし、こういうことを相談できる人が周囲にいない、考えてはいるんだけど手が回っていない、そういう方がいらっしゃいましたら、私たちはそうしたコンテンツ制作や企画の後方支援的なお手伝いもしておりますので、何でもお気軽にご相談ください。きっと何かの力になれると思います。

※よろしければこちらも合わせてお読みください※
Webサイトに必要なコンテンツとSEOについて
「ユーザー」から出発するWebコンテンツ企画の5ステップ【基本編】(外部サイト)

ヴォラーレ株式会社 寺田

国内の検索エンジンとSEOの歴史を振り返る

地方で大学生活を送っているうちの内定者の佐々木君(平成生まれ)に、お勉強がてらインターネット黎明期の検索エンジン事情などについて色々調べてまとめてもらいました。

今や人々のライフスタイルの一部として当たり前となっている検索エンジンですが、今回は少し振り返ってその歴史やSEOの移り変わりについてまとめました。

SEOと日本の検索エンジン

SEOとは「Search Engine Optimization:検索エンジン最適化」ですので、検索エンジンの仕組みの変化に伴い、最適化の方法も変化します。

例えば、以下の大手の検索エンジン(Google、Yahoo!JAPAN、MSNjapan(Bing)、goo)に対して、シークレットモードで「SEO」と検索してみると、

SEO(google)
図1.Googleによる「SEO」の検索結果

SEO(yahoo)
図2.Yahoo!JAPANによる「SEO」の検索結果

SEO(Bing)
図3.Bingによる「SEO」の検索結果

SEO(goo)
図4.gooによる「SEO」の検索結果

見づらいと思いますがGoogle、Yahoo!JAPAN、gooの検索結果がほぼ同じ結果となっています。これは、Yahoo!JAPANとgooの裏側でGoogleの検索システムが動いているためです。つまり、現在はBingなどを除き、ほとんどの日本国内の検索はGoogleのシステムによって処理されているのです(BingはMicroSoftの自社開発の検索エンジンです)。

しかし、インターネット黎明期と言われていた2000年前後などでは、今とは全く状況が違いました。ここからはその歴史について振り返っていこうと思います。

検索エンジンの歴史

主な検索エンジンの登場年表

表1. 1990年代の検索エンジンの歴史
1990年代の検索エンジン年表

この年代はあれやあれやと新しい検索エンジンが登場しています。(オレンジで記載しているのが相当)そんな中、Yahoo!JAPANの登場によって日本国内はそれ一色でした。僕が初めて見たOSはWindows98で当時保育園の年長でしたが、トップページはYahoo!JAPANしか見た覚えがありません。

編集者注:↑衝撃

2000年に差し掛かってくると検索エンジンに初めから他社のものを採用したポータルサイトが出現してきます。(緑で記載しているのが相当)
では次に2000年以降はというと、、

表2. 2000年以降の検索エンジンの歴史
2000年代の検索エンジンの歴史

2000~2005年あたりで買収が盛んになってきます(青で記載しているのが相当)。2001年のYahoo!JAPANがロボット型検索エンジンにGoogleを採用した事によってGoogleの知名度は上昇していきます。そして米Yahoo!が独自のロボット型検索エンジンを開発したのが2004年、Yahoo!JAPANがGoogleと提携するのが2010年です。当時からSEOに関わっていた方々からすると、この統合は非常に大きな変化であったと思います。

※出典

検索エンジンの群雄割拠からGoogleが首位を勝ち取るまで

1990年代年代後半は、Webサイトの爆発的な増加に伴い多くの検索エンジンが登場するまさに群雄割拠の時代でした。

Googleが出る以前は検索エンジンサービスを持つ会社のサイト又は、他の企業の検索エンジンを採用して立ち上げたサイトはポータルサイトとしてのサービスが主流で、そこには検索窓以外にも多くのコンテンツ(天気、メール、ニュース、広告など)を含む様になりました。

中でも、前述の通り日本においては1996年に登場した「Yahoo!JAPAN」が主流となります。

yahoo!1997
1997年のYahoo!JAPAN( 出典:Yahoo! JAPANのトップページザイン15年史 )

当時の検索エンジンは決して性能が良いとは言えませんでした。

人気のYahoo!JAPANはディレクトリ型検索エンジンを採用していた為、予め登録しておかないとそもそもサイトが表示すらされないし、検索してもユーザーの求めている情報とは異なったものを表示させています(これには最適化の手法に関する問題があるのですが、最適化については後述します)。

それでも当時はインターネットなんて馴染みが無かったのでトップ画面上に表示された豊富な情報量に感激し、「検索」はあくまでサブの機能でYahoo!JAPANも検索エンジンを重要視していない状況だった事もあり、「検索結果に悩まされる」という人は少数だったのではないかと予測出来ます。

そんな中、Googleがリリースしたサイトは検索窓のみ、広告も無しといった極めてシンプルなものでした。

google_1997
1998年に米Googleがリリースした検索サイトページ( 出典:Google.com 1997-2011)

え、なにこれ?って当時の人は思ったのではないでしょうか?GoogleのWebサイトを開いても何もコンテンツが無い、質素な検索窓のみです。コンテンツが満載だったポータルサイトの利用者からすると、何の面白味もないサービスだと感じた方も多かったのではないかと思います。

しかし、Googleの検索エンジンは

  • ユーザーの検索ニーズにより応えれる独自のロボット型検索エンジン技術
  • 価値のあるサイトか否かを指標付けするページランクの導入

という他の検索エンジンには無い価値により、次第に多くの人がGoogleの検索エンジンを好んで使う様になります。

そして2000年にはGoogle日本語版が上陸し、2001年にはYahoo!JAPANの検索エンジンに採用され、どんどん知名度を上げていきます。

google2000
2000年のGoogle検索サイトページ( 出典:Google.com 1997-2011)

しかし、Googleも検索エンジンを世に送り出した当初は殆ど収益性がありませんでした。そんな中、1998年に米Yahoo!が考え出した検索連動型広告を参考に2001年にリリースした「Google Adwords」が、多くのユーザーが使っているGoogleに広告を出稿する事への価値を高める効果を発揮し、ここからGoogleは多額の広告収入を得る様になります。

その他、Googleは

  • Google AdSense
  • Google drive
  • gmaiL
  • Googleカレンダー
  • Google Web Designer
  • Googleアナリティクス
  • Googleウェブマスターツール

こうした仕組みやツールを世に出しさらに多くの利用者を集め、急速にシェアを拡大してきました。その結果、日本だけでなく、実質現状としてはGoogleが世界の検索エンジン市場の大半を占めています。

最近ではGoogleの検索エンジンのアルゴリズムが変更されたという情報に対して多くのメディアや業者が敏感になっています。他の検索エンジンの内容が変わってもほとんどと言っていい程、問題視されていません。それだけSEOにとってもGoogleの変更は多大な影響を与えるということです。

Googleの近年の検索エンジンアルゴリズムの変更内容に関しては、以下のサイトが(英文ですが)見やすいので興味のある方はご覧下さい。
Google Algorithm Tiemline

Yahoo!JAPAN以前の検索エンジン

少し余談ですが、Yahoo!JAPANが日本に登場する前にも日本に検索エンジンは存在していました。

senrigan
出典:Google以前の検索エンジン

こちらは早稲田大学村岡研究室の学生であった田村健人さんが1994年11月に立ち上げた国内初のロボット型検索エンジン「千里眼」です。独特なデザインのアイコンが目に止まります。

この千里眼は検索の対象が.jpをドメインに持つWebサイトのみでした。Yahoo!JAPANを始めとするポータルサイトに需要を奪われて最終的に1999年にサービスは終了してしまいますが、千里眼にはサイトにリンクしているページ(=被リンク元)を表示させる機能がありました。

今でこそフリーソフトで被リンク元を調べる事も出来ますが、当時の検索エンジンで被リンク元を調べれるというのは画期的だったのではないでしょうか?

※出典

日本のSEOの歴史

1990年代後半(Google登場前)

さて本題となるSEOの歴史ですが、SEOという言葉そのものは検索エンジンがWebサイトを認識した瞬間から始まっています。

インターネットの世界が始まると、Webサイトの持ち主は自身のサイトに検索エンジンを通じてのアクセス数が増加した事により、オーガニック検索の価値を高く評価する様になりました。

1990年代後半になりWebサイトの数が爆発的に増加してからはより一層、どうしたら自分のWebサイトが検索エンジンにとって最適になるのかを考える様になります。そこに対して、Webサイトを上位表示させる為に必要な技術や知識が求められるようになり、それが現在でいうSEOということですね。

リリース当時のYahoo!JAPANはディレクトリ型検索エンジンが主流で、Yahoo!JAPANにサイトを登録する必要がありその審査は厳選されていた為、個人規模のサイトが検索結果に反映される事はあまり無かった様です。

1998年には検索エンジンにロボット型の「goo」を採用しますが、1990年代後半時点でのSEOの手法は

  • ページの中にキーワードがいくつ含まれているか
  • サイトのページ数はどのくらいあるのか
  • HTMLの最適化が出来ているのか

といった内容でした。alt属性にキーワードを盛り込んだり、隠しテキストとしてキーワードを盛り込んだり、(内容が薄い可能性が高い)Webページを大量生産したりといった施策が頻繁に行われます。今考えればただの内的スパムです。当時は、サイトのコンテンツを充実させるとかリンクを集める、などということがなくてもちょっとした小手先のテクニックで上位表示させられる時代だったということですね。

2000年〜2010年(Google登場後)

2000年になりGoogleの検索エンジン日本に上陸してその利便性が広く浸透する様になってからはGoogleの検索エンジン導入されているページランクの判定基準である被リンクが注目される様になり、

  • 外部リンクの数を増やす
  • 質の高いサイトからリンクを貰う

といった内容がSEOの施策として注目されます。今のようにブログやTwitterをはじめとするソーシャルメディアが普及していなかった当時は自然にリンクを集めることは今に比べ難易度が高く、リンクを自前で作る為にWebサイトを大量生産するには労力的に割に合わないことなども起因となり、リンク提供型のSEOサービスの需要が2000年代後半に向け徐々に高まることになります。

SEO会社の多くはこぞってクライアントのサイトにリンクを与えて上位表示させていました。内容が伴っていないサイトであってもお金さえ払えば上位表示出来る、SEO会社もリンクを張るためのサイトさえたくさん持っていればとりあえず仕事が出来る時代と言えました。

同様に、コンテンツの品質を評価する仕組みが未発達だったことから、ただページ数だけが多いようなサイトが検索結果で多く露出されているという状況でもありました。

Googleのページランクの導入により検索結果がだいぶ改善されたとは言え、今と比べればまだまだ検索結果は粗かったと言えます。

2010年以降

Yahoo!JAPANが2010年に検索エンジンにGoogleを採用した事でSEOは事実上Googleの検索エンジン最適化とほぼ同義になりました。

編集者注:ここでは書かれていませんがそれまではシェアから考えてもYahoo!検索エンジン(YST)のSEOが主流でしたね。Yahoo!とGoogleどちらの動向も追う必要があった(しかもどちらも全然不完全で意味わかんないことも多かった、TDPとかTDPとか、、)頃に比べるとかなり最適化難易度としては易しくなっているとも感じます。

また、2011年にGoogleが行ったパンダアップデートよって低品質なコンテンツが上位表示されにくくなりました。

同様に2012年のペンギンアップデートの導入や、によるガイドライン違反に対するペナルティ対応の強化などにより、それまでのようにリンク集め

以降、SEOの手法に関しては、もちろんHTMLの最適化や被リンクは必要ですがそれよりも、本質的にユーザーにとって価値のあるサイトを作れているのかどうか、という方向性に徐々に興味がシフトしていくようになりました。

まだまだユーザーの求める情報を完璧に提供出来ているとは決して言えない状況ですが今後、よりユーザーの求めるサイトが上位表示される世の中になる事は間違いありません。

※出典※

最後に

SEOの歴史はまだ約20年と浅いものですが、スピード感のあるWeb業界においてこれからのSEOに関する環境もさらに変化していきます。

この様な時代において新しい発見や知識を得るには「温故知新」という諺がある様に歴史を知る事も必要なのかもしれません。

ヴォラーレ株式会社 佐々木

被リンクから”オーサーランク”へ評価軸が変更、、って本当?? マット・カッツ氏の動画を解説してみる

先日公開されたマット・カッツ氏の動画が様々な憶測を呼びWeb界隈を賑わせつつ、なかなかカオスな感じになっておりましたので、話のネタとしてきちんと釣られておこうと思います。今回はコンサルティング部門のグループマネージャー實川がお届けします。

ここでマット・カッツ氏の「被リンクの重要性が薄れる」という発言が、被リンクによる評価が今後使われなくなり、その代わりに「オーサーランク」なるものが非常に重要なファクターになるのではないかといった解釈を誘発しているようです。

違います

まずはこの動画をきちんと和訳をしてくれている方がいらっしゃるので、こちらの訳を参照していただくと分かりやすいかと思います。

被リンクは死ぬのか?マット・カッツの話を和訳してみた

これをもとに、今回マット・カッツ氏が言っていることを噛み砕いてみると、

  • ユーザーに役立つページをより正確に見つけるため、自然言語を理解してそれを評価軸にできるよう今頑張っていますよ
  • もし自然言語をきっちり理解できるようになれば、被リンクにばかり頼らなくてもある程度正確な解釈ができるようになるので被リンクの重要性は相対的に薄れていきますよ
  • ただし、ページの基本的な評価のために被リンクの評価は役立つので今後も使っていきますよ

といった内容であると読めます。「オーサーランク」などという言葉はそもそも言及されていませんね。

元々検索エンジンは「ユーザーの求める情報を素早く適切に提供することでユーザーを増やし、広告手数料で収益を上げる」というビジネスモデルなので、検索ユーザーにいかに有益な情報を提供できるか、そしてユーザー数・ユーザーあたり利用頻度を上げていくことができるかというところが収益を上げるための重要なファクターになります。

この有益な情報を発見するためのシグナルとして、これまでは主にリンクがどのくらい集まっているか(=どのくらい他のサイトから支持を受けているのか)をベースにしたものでありました。

それが、実際にそのページにどういうことが書かれているんだろうか、それは信憑性のある内容なのか、などのことが今よりもっと的確に理解できるようにしたいんですよ、そのために、今よりももっと多角的な評価方法を取り入れていきたいんですよ、というお話ですね。

その中の要素として、ダニー・サリバン氏の例に上がっているように「誰が書いたの」という情報が理解できるようになればそれもコンテンツの信頼度を測る上での1つの重要なシグナルとして活用できますよね、ということです。

マット・カッツ氏が今回述べているのは以上のようなシンプルな内容なのですが、ちょっと界隈で「オーサーランク」の話題も上がっていたのでこちらについてちょっと解説します。

著者の権威性(オーサーランク)

上で書いたように今回マット・カッツ氏が話しているのは自然言語理解の技術が重要性を増してくるというところが趣旨なのですが、その発言の中で「専門家の書いた記事を読解しようとしている」旨の話があり、ここのところがオーサーランクの話を想起させているようです。

「オーサーランク」という言葉はGoogleが公式で発表しているものではなく、SEO関係者が慣習的に用いている言葉です。オーサーランクは、検索における評価づけをコンテンツ単位ではなくそのコンテンツの著者(Author)に対して行う試みのことで、特定分野において信頼できる著者を見つけることである程度安定的に良質な情報を提供できるようになるはずだ、という仮説に基づいています。

同じサッカーを習うのでも、町内会で大人気の近所のおじさんに教わるよりもサッカー日本代表の本田選手に教わったほうが良いに違いないですよね、ということで、沢山リンクを受けているだけで実際その分野には詳しくない人が書いた記事とその道の専門家が書いた記事であれば当然後者を信頼すべきだということを検索結果にも反映しようという試みですね。

この”人物の権威性”という要素は現在のところGoogleの検索結果のなかでもごくごく一部にのみ使用されていることが明らかになっているだけで、現状で大きな影響を及ぼすものではありませんが、取り組みとしては合理的であり、将来的にはもう少し影響力を持つであろうと予測されています。

参考:
Google、人物の権威性に基づいて検索順位を決定していることを明らかに Author Rank::SEM R
Author Rank (オーサーランク)はまだランキング要因になっていないが、使われている場面がある | 海外SEO情報ブログ

再度言っておくと今回のマット・カッツ氏の発言は「自然言語理解の上で専門家の書いた記事を理解することでどういった記述がその分野で価値のある情報なのかということを理解しやすくなる」という文脈で、オーサーランクが被リンクにとって代わります、ということではありません。

従って、(リンクはしませんが)

【速報】Google「被リンクからオーサーランクに移行する」SEO業者全滅か!?
href=”http://netgeek.biz/archives/11937

↑こういった誤った解釈を多分に含むような情報は本来あまり多くの人に見つけられるべき情報ではありませんが、今の時代こうした記事であっても被リンクを集めやすくなっているので被リンク評価だけでこうした記事であっても上位表示してしまいます(事実、5月15日現在「オーサーランク」で検索すれば上記記事がかなり上位に来てしまいます)。

この話題について調べた人がこのような記事に辿りついてしまって誤った情報を取り込んでしまうことは、ユーザーにとっては決して有益ではありませんね。(この話題に関わらず、被リンク販売のみを行ってきたSEO事業者のシノギが苦しくなってきているのは今に始まったことではありませんし、、)

しかしそれが現在のGoogleの評価であって、今後はもっと内容として信憑性があり確かな(本来の意味で有益な)情報が優先してユーザーの目に触れるようにトライしています、という主旨の話題なのです。

Googleの目的と今後のサイト評価の展望

上でも書いたように、検索エンジンはこのビジネスモデルであり続ける限り半永久的に「ユーザーの役に立つか否か」という価値基準でコンテンツを判断したいのです。

自然言語が理解できようができまいが、Googleとしてはその時点での技術に合わせて最適なアルゴリズムを充てていかなければなりません。

リンクよりも精度の高い評価基準が見つかればそちらを重視しようとするし、その他に信頼できる評価基準があるのであれば、それも積極的に取り入れていくでしょう。

このあたりの、評価の重要性の移り変わりについてはSEMリサーチさんの喩え話で

被リンクという評価手法から、何か別のものに移行する、置き換えられるという話ではありませんのでご注意ください。技術発達により、従来はできなかった評価方法を用いることが可能になれば、その他の評価方法の相対的な重要性は低下していくものです。例えば、ある大学の入学試験が英語(100点満点)、国語(100点満点)の2教科だったものが、英語+国語+数学+小論文(各100点満点)の4教科に変更されたら、国語と英語の相対的な重要性は低下しますよね、それと同じです。自然言語処理が進化し、(従来不可能だった)モノゴトの真の意味の理解が可能になれば、従来の評価指標は重要性が下がります。

と書かれていましたがこれが一番しっくりくるのではないかと思います。
引用元:[UPDATE] Google「バックリンクの重要性は薄れる」今後は著者オーソリティやコンテンツ分析へ::SEM R

基本的にはGoogleの本来の目的というところをしっかり押さえていれば検索技術の展開をどのようにしていくかというのはある程度正しく想像できるようになるため、あまり間違った解釈もしなくなると思います。迷ったら検索エンジンって何がしたいんだっけ?ということに立ち返っていただくのが良いと思います。

※こちらも参考に。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

・SEOとは、Googleの意図と関係なくランキングを操作する手法である
・Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
・SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。
実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。
もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

引用元:Googleがアルゴリズムを変更する目的とSEOの役割

ヴォラーレ株式会社 實川節朗

熟練のプロも答えに窮する、SEOについての究極の質問

 

「何の仕事してるの?」

 

Webの世界で「SEO」という概念や仕組みは幾分か浸透してきているとは言え、残念なことに、世間一般的なこういう仕事の認知としては非常に低いというのが現実でしょう。

そんな中、SEOを生業としている人にとって「WebやSEOについてほとんど知らない人に自分の仕事内容について一言で説明できる」ことは究極の課題の一つである、ということはSEOの経験者であればそんなに異論はないと思っています。

そこで、質問者の属性別に、どんな回答をするのがベストだろうか?を個人的な意見としてまとめました。この連休に帰省される方も多いと思いますので、何かの参考にしていただければと思います。

おばあちゃん、おじいちゃん、田舎の親戚のおじちゃん等

ここでは、普段からPCやスマートフォン、それ関連の話題に一切触れていないし知識もなければ興味関心も当然一切なし、という層という意味です。

こうした層の方には、「インターネット」も「パソコン」も「ホームページ」も「IT」も「Web」も難しそうと敬遠してきているため言葉として聞いたことがあっても、すべてほぼ同義語として扱われる傾向にあります(自分調べ)。

彼らにWorld Wide Webの概念と検索エンジンの仕組みや役割を説明してSEOという仕事について理解してもらおうとするとなると、こちらとしてもかなりの覚悟をもって、じっくり腰を据えて回答に臨む必要があります。

一方で彼らとしてもそうした話題に対しては「難しそう」というイメージが強いため、詳しい話を理解したいと思っている方はごく稀なはずです。

こうした考えを経て、あらゆる試行錯誤の末、ある意味こうする他ないという結論に達しました。

 

「パソコンの仕事。」

 

このような、この業界の全てを包み込んでくれるような優しい回答を用意しておくことで、お互いの利害が一致し、「あら難しそうな仕事してるのね、立派ね」ということで上手く着地できます。

夜の嬢の方々等

僕のパーソナリティを知っている方は既にご存知と思いますが、もともと内気で草食系、仕事一本で人間関係も不器用な人間ですので、僕個人としてそういうお店と縁が深いわけでは決してありませんが、需要としてはありそうですのでという意味で書いておきます。

彼女らは、仕事の一環としてお客さんの仕事内容を聞いたりして話を広げていくことは基本的なコミュニケーション方法の一つです。仮に興味があろうがなかろうが、なんとか話のきっかけをつかみたいというところと思います。

もちろん、最近はインターネットも普及しそういう分野の知識や興味のある人も割合増えてきたとはいえ、まだまだ全体から見れば興味津津というのは少数派です。

僕がもしそういう前提で質問をされたら、一言で答える場合の回答はこうです。

 

「ざっくり言えばIT系、その中でもWeb系、のベンチャー企業でマーケティングのコンサル、みたいな仕事してるんだよね」

 

とりあえずそれっぽい言葉を並べただけの極めてアレっぽい回答ですが、これで大体は解消できます。反応としては「よくわからないけどスゴそうだね~」が8割です(と知人から聞いています)。

ちなみに余談ですが、僕の同業者にあたる某社の某氏と先日久々にお会いしたのですが、氏曰く、

「an●nの”女性にモテる職業ランキング”の1位は広告系、2位がIT系だったんだけど、俺はIT系で広告系の仕事をしてるんだよ」的な回答をいつもしてて、これが意外にめちゃくちゃ反応いいんすよ

とのことでしたが、率直なところ、色々な意味で未だ懐疑的である、と言わざるを得ません。

Webとは違う業界で働いている同年代の友人や先輩など

Web業界ではないとは言え、インターネットを日常的に利用し、FacebookやTwitterやブログなどで自分から情報発信している人が多く、情報への感度はそれなりに高めと言えそうな層、とイメージしてください。

彼らは前提となる知識を持っているわけではないとは言え、うまく説明すればきっと理解してもらえるはずです。彼らに対して自分の仕事をきちんと説明できるかどうか、というのはSEOという仕事を世間に知ってもらうという意味でも非常に重要なことと思っています。

的確に伝えるスキルが必要なのはこのラインではないでしょうか。ざっくり言うと、こういう感じの説明を端的にします。いきなり真面目な感じですが。

 

・ざっくり言えばWebの世界で企業のマーケティングに関わる仕事

・具体的にはGoogleとかYahoo!の検索結果上でWebサイトが良いポジションに掲載されるようになるためのお手伝い

・それを有料広告ではないアプローチで実現するのがSEOという仕事

・それを実現するために必要なアドバイスを企業向けにしている

 

だいたいこういう話題で話が具体的なところまで広がることが多いわけではありませんが、割と雰囲気では理解してもらえます。

広告系の仕事、と一緒にされそうになりますが、そこは何か変なSEO人のこだわりみたいなところで「広告、というよりも技術的な側面のほうが割合多いかな」的な補足は入れたりします。

Webに関わる仕事をしている人

最後に、Webに関わる仕事をしている方であれば、大半の人はSEOという言葉について最低限の理解はあります(実務的にではなくてイメージ的な理解)。

そういう方には「SEOだよ」でだいたい通じるようになってきました。もちろん人によって知識レベルには差があるし、変な風にイメージ持ってる方も多いので、そこから先は具体的なところまでお話します。

まとめ

知識が一切ない、インターネットは利用してるがそこまで具体的なところに興味はない、業界人ではないがインターネット分野の感度もそこそこ高い、Webに関わる仕事をしている、くらいのパターン分けで解説しました。

連休前なので何か書いておこうと思ってこんな記事しか浮かばなかったのが残念ですが、参考にして頂ければと思います。それでは良い連休をお過ごしください。

ヴォラーレ株式会社 土居

このサイトの運営をお手伝いして頂ける方を募集します

さて、普段からこのブログを見て頂いている分には、空気感としては至って冷静に、割と草食系な記事を連投しているイメージを持っておられる方は多いかもしれません。

しかし運営側の実情をお伝えしますと、やれ更新頻度をもっと上げられないのか、やれそのための時間を作れ、など社内で上からも下からも横からもあれやこれやと日常的に言われている状況でございます。

個人的な感情としては好き勝手言いやがってとか思いつつ、いい機会ですしこちらのサイト運営のお手伝いを専任で行って頂ける方をここで募集してみることにしました。

ところでこのブログって何のために書いてるの?

さてここからはちゃんと真面目な話ですが、このブログについては、僕の文書でのアウトプットの主戦場としてやってる意味もありますが、ビジネス的な視点で言えば、

  • SEOについて色んな人により深く興味を持ってもらうこと
  • このサイトを知ってくれる人が増えること
  • このサイトに定期的に訪れてくれる人が増えること
  • 僕らが何を考えてSEOをやっているのかを色んな人に知ってもらうこと
  • ヴォラーレという会社に興味を持ってもらうこと
  • 最終的にはお仕事の相談やセミナーへの参加が増えること

こんなことがざっくりとした目的になっています。そして徐々に目に見えてそういう感じになってきました(ので余計にこういう所に力を入れようという空気になっているわけですね)。

ですので単純に流行りそうな記事を書いてとにかくPVを増やしたい、とかそういうことではないのです。僕らと仲良くなれそうな人が定期的にチェックしに見に来てくれる、みたいなサイトを目指しています。更新頑張り始めたのはここ数カ月ですけれども。

なんとも短期的な効率は決して良くないかもしれませんがそんな目論見でやっているサイトですので、真面目にお手伝い頂ける方がいらっしゃると嬉しいなと。

ということで誰か手伝ってくれませんか

こんな感じのメンバーを募集しています。

求めるスキル

こんな人が来てくれるとうれしいです。しかしこんな人がそうそう都合良くいるんでしょうか。

  • WebとかSEOとか検索が好きな人、勉強してる人、勉強したい人
  • リサーチ力、学習能力、文章作成力が高い人
  • ブログ等、Webで文章を書くことに慣れている人
  • 適当な仕事をしない人、長続きする人
  • 僕と気が合いそうな人

やってほしいこと

  • WebとかSEOとかに関してどんどん情報収集して学習してください
  • 有用なネタになりそうな話題を草稿として書いてください
  • 内容として問題がないのであればガシガシ投稿して下さい
  • あとは能力次第で色々お任せしていきます

お金以外に得られるもの

  • WebとかSEOとかをもっと知ることが出来ると思います
  • 僕が教えられることはいくらでも教えます
  • 自分の書いた文章をそこそこの数の人に見てもらえます(※1)
  • 僕とかうちのメンバーと仲良くなれます(※2)

※1:最近は1記事あたり1000~5000PVくらいです。
※2:人によりますが。

条件

とりあえず一旦は社員、アルバイト、大学生インターンなど特に問いません(週3~4とかでも大丈夫)。ただし、正社員なら相応のスキル(最低でもSEO実務経験者)を求めます。記事内容の監修は僕が行います。

こういうの大好き、みたいな大学生さんとかでも上記条件にマッチしているのであればきちんと教えられますので大歓迎です。

「別の団体の人間として寄稿とかって有りですか?」というのも内容次第では歓迎です。

何にせよ興味あればご連絡頂ければと。

どんな会社?

ちょうど弊社の採用サイトをリニューアルしたところなので興味あれば是非見て頂ければと。全体的に僕の露出が少ないのが会社の意図的なものかどうなのかはやや気がかりです。

ヴォラーレ株式会社 採用サイト
ヴォラーレ株式会社 採用サイト

働くメンバーはこんな人たちがいます
オフィスはこんな感じです

以上です

と、まあこういう感じです。あまりにも唐突な求人でアレなのですが、詳細は先ほどの採用サイトを見てそれらしきところからご応募頂くか、日常的にエゴサーチは欠かしていませんのでtwitterなどでコメント頂ければと思います。僕のtwitterアカウントに直接メンション頂いても構いません。

ヴォラーレ株式会社 採用サイト
僕のTwitterアカウント

以上よろしくお願いいたします。

ヴォラーレ株式会社 土居

【保存版】ユニバーサルアナリティクスって何が違うの?その機能や移行方法など徹底解説

もう既にいくつかのサイトで詳しくまとめられていますが、この記事ではユニバーサルアナリティクスって一体なに?何かしないといけないことがあるの??今までとの違いって何?という方向けに詳しく解説をしています。

ちょっとメモのような走り書きになっていますが、何かの際の説明書のように使って頂ければと思います。

この記事の内容

ユニバーサルアナリティクスとは
ユニバーサルアナリティクス機能紹介
・セッション設定
・オーガニック検索ソース
・参照元除外リスト
・検索キーワード除外リスト
・カスタムディメンション・カスタム指標
・User ID
ユニバーサルアナリティクスへの移行方法
・プロパティの確認
・トラッキングコードの確認方法
・トラッキングコードの入れ替え
参考サイト・書籍紹介

ユニバーサルアナリティクスとは

2012年10月31日にクローズド版がオープンし、2013年3月13日にクローズドベータ版が開始され、色んな機能が実装され2014年4月3日に正式リリースになった新しいアナリティクスのことです。

これまでのアナリティクスでは計測できなかったことが計測できたり、大変だった設定がとても簡単にできるようになったりしてパワーアップしています。

ですが、それらを利用するには移行作業を行わなければなりません。自動で移行してくれるわけではないので計測を今後も続けるサイトに関しては必ず行ったほうがいいと思います。

2年程度で従来のGoogleアナリティクスのコードでの計測が終了してしまう可能性があるそうなので、特にユニバーサルアナリティクスの機能に魅力を感じなかったとしても2年以内にアップグレードすることを強くお勧めします。

この記事では簡単に新機能の説明、移行方法、移行の注意点に関してまとめてみました。

新機能、変更された機能で目立つもの

  • セッション設定
  • オーガニック検索ソース
  • 参照元除外リスト
  • 検索キーワード除外リスト
  • カスタムディメンション・カスタム指標
  • User ID

設定する場所は アナリティクス設定>プロパティ の部分です。
※これから紹介する機能は設定しなくても激しく困るようなものではありません。

プラスアルファの設定だと思ってもらって大丈夫ですが、アナリティクスをより活用するためには使えるものもあると思うので参考にしていただければと思います。

変更点等

セッション設定

できること

セッションとキャンペーンの期限を指定できます。

これまでのアナリティクスではどうだったか

トラッキングコードに設定することで指定できました。設定してない場合のデフォルトは

セッション: 30 分後
キャンペーン: 6 か月後

でした。

_setVisitorCookieTimeout (トラッキングコードに←の文字列があれば設定されているということになります)

_setCampaignCookieTimeout
(トラッキングコードに←の文字列があれば設定されているということになります)

設定しなかった場合どうなるの?

既存と同じ状態、つまりデフォルトのままです。

セッション: 30 分後
キャンペーン: 6 か月後

どんな時に使うの?

・これまで_setVisitorCookieTimeout、_setCampaignCookieTimeoutメソッドで期間を指定していた場合にはこれまでの設定を継続するためには必要です。

・動画コンテンツ系やサイト内のコンテンツが豊富なサイトで1ページに滞在してる時間がとても長いサイトの場合にはサイトを見ている最中にセッションが途切れてしまうので設定を30分以上にしたほ行ったほうが良い場合もあります。(_setVisitorCookieTimeout)

・キャンペーンの運用期間に合わせたい場合に設定するようです。アドワーズとのデータの差とかに関係しているようです。(_setCampaignCookieTimeout)

個人的には、適当になんとなくデフォルトから変更するくらいなら何かこの点において課題がある場合に変更する必要があるときに変更するので十分かな。というイメージです。

気をつけること

セッション:1 分以上 4 時間以内
キャンペーン: 2 年以内

でしか設定できません。

設定方法

下記青枠内ので時間を指定するれば設定できます。確認を含めなければ時間の設定をするだけなのですぐに設定できます。
セッション設定2

オーガニック検索ソース

できること

アナリティクスのレポート画面で参照(referral)に分類されている検索からの流入を検索エンジンとして分類できます。

「referralに分類されている」とはざっくりいうと、 集客>チャネル でReferralに分類されている状態のことです。

「検索エンジンとして分類」とはざっくりいうと、 集客>チャネル でOrganic Searchに分類されている状態のことです。

これまでのアナリティクスではどうだったか

_addOrganic (トラッキングコードに←の文字列があれば設定されているということになります)の設定をしていなかった場合は「デフォルトの検索エンジン」のみが検索エンジンとして分類されていました。
(それ以外も検索エンジンに分類されているサイトがある気がするので随時追加されているかもしれません)

設定しなかった場合どうなるの?

デフォルトの検索エンジンのみが検索エンジンとして分類されます。それ以外はreferralに分類されます。

どんな時に使うの?

・これまで _addOrganicメソッドの設定をしていた場合
集客>チャネル>Referral でsearch.smt.docomo.ne.jpとかsearch.fenrir-inc.com といった表示が上位にたくさんある場合

は設定した方がいいかもしれません。多分だいたいそれは検索してきたセッションになります。

設定したらいいかもしれない検索エンジンの一覧がまとまっていますので設定したい方は下記サイトを参考にしていただくといいと思います。設定方法もわかりやすいです。
Google アナリティクスのオーガニック検索ソースのデフォルトのリストに検索エンジンを追加しました

個人的にはこの設定は下記気をつけることをクリアすれば設定しておいて損はないかと思います。そもそも検索からの流入の方が正しいと思われるものが大半なので。

気をつけること

この設定を行うと参照元からのセッションががくっと減って検索エンジンからの流入がぐっっと伸びる可能性があるので、アナリティクスを見ている人への共有やメモへの記入を忘れないようにしてください。

設定方法

検索エンジンを追加をクリックすると追加画面がでるので例えばsearch.smt.docomo.ne.jpを追加したい場合は

検索エンジン名:docomo
ドメイン名に次を含む:search.smt.docomo.ne.jp
クエリパラメータ:MT
パスに次を含む:(空白)

と記入して作成をクリックすれば登録されます。既に一覧にされているメディアを追加するならその通りに設定するだけなので時間がかからず設定可能です。

オーガニック検索ソース2

参照元除外リスト

できること

指定したドメインからの訪問を参照元ではなくノーリファラとして分類されるようにする

これまでのアナリティクスではどうだったか

_addIgnoredRef(トラッキングコードに←の文字列があれば設定されているということになります)の設定をしていた場合は除外されていました。
(30分以内に別サイト経由ので再訪した場合でも同一セッションになっていた)

設定しなかった場合どうなるの?

ユニバーサルアナリティクスでは参照ごとに新しいセッションが開始されるので異なるドメインを行き来するようなサイトの場合別セッションになってしまい、セッション数等が増える可能性があります。ですので外部のカートなどに遷移するサイトの場合は設定した方がいいと思います。
※参照とセッションに関しては後日別の記事で説明します。

どんな時に使うの?

・ドメインが異なっても同じセッションを維持したい場合
・クロスドメインの設定を行っている場合

気をつけること

アナリティクスを見るときによく見られている指標のセッションに影響があるのでサイトの構造に詳しく無い場合は分かる人にきちんと確認してから設定してください。

参照の除外を追加をクリックするとドメイン登録画面になるので除外したいドメインを追加して作成をクリックすれば登録されます。除外したいドメインが決まっていれば登録するだけなのですぐ登録できます。

参照元除外リスト3

検索キーワード除外リスト

できること

指定のキーワードをノーリファラーとして表示させられます。

これまでのアナリティクスではどうだったか

_addIgnoredOrganic の設定をしていた場合は除外されていた。

設定しなかった場合どうなるの?

ノーリファラにならずキーワードが表示されます。

どんな時に使うの?

・_addIgnoredOrganic を設定していた場合
・キーワードをノーリファラに含めたい場合
・訪問数やイベントなどの数値は変わらずキーワードだけ除外したい場合
・企業名やサイト名で検索した場合、ダイレクト訪問と扱い的には大きく変わらないのでそれをノーリファラにしたりする場合

気をつけること

間違ったキーワードで設定してしまった場合必要な情報を除外してしまうことになり、解析ができなくなってしまう可能性があります。

新しい検索キーワードをクリックするとキーワード登録画面が出るので除外したいキーワードを追加して作成をクリックすると登録されます。これも除外したいキーワードがきまっているなら登録するだけなのですぐ設定可能です。

検索キーワード除外リスト2

カスタムディメンション・カスタム指標

カスタムディメンションはこれまでカスタム変数と言われていた機能と同じ役割で、カスタム指標が新しい機能です。

「ディメンション」とは、集計する単位や区分のことです。(アナリティクスのレポート画面で選ぶときはだいたい背景黄緑の白文字で表示されています)。

「指標」とは、知りたい数字のこと。(アナリティクスのレポート画面で選ぶときはだいたい背景水色の青文字で表示されています)。

できること

セカンダリディメンション、カスタムレポート、セグメント等に独自の情報を設定できます。

例えば、会員/非会員、性別等何かしらサイト内で選択(入力)がある項目、またはアナリティクスに載らない外部データをセカンダリディメンション、カスタムレポート、セグメント等に設定できます。下記画像のような箇所で選択できるようになります。

カスタム変数2

これまでのアナリティクスではどうだったか

カスタム変数の設定を行っていた場合はディメンションを設定することができました。

設定しなかった場合どうなるの?

独自の分類で分けることができなくなります。

デフォルトのアナリティクスに存在しない項目でどうしても比較、抽出したい指標がある場合以外は特に設定しなくても困らないと思います。

どんな時に使うの?

・カスタム変数の設定を行っていた場合
・既存のディメンションでは抽出できない指標がある場合

気をつけること

コードの追加を行うので、ある程度知識のある人が行ってください。設定上限数が20なので、本当に必要なのか、イベント等で代用できないかどうか考えてから設定してください。

カスタム指標の作成: ガイドラインと例に書かれているチェック項目で「はい」と言えるようなら設定する意味があるのかなぁと思います。

個人を特定できるようなデータをアップするのは禁止されています。

設定方法
カスタムディメンション

1.新しいカスタムディメンションをクリックします。名前と範囲を設定します。

名前
日本語でも英数字でも大丈夫です。ただ、既存のディメンションや指標と区別できるものにしてください。

範囲
ヒット:特定のページに対して有効です。特定のページでお気に入りボタンを押した等の場合に選択します
セッション:セッション中に起きるアクションに対して有効です。
ユーザー:ユーザーに対して有効です。会員、非会員、プレミアムメンバー等。これを使用している場合が多い気がします。

アクティブのチェックボックスにチェックを入れたまま(チェックが入っているとこのディメンションが有効になります)作成をクリックすると、カスタムディメンション用のコードが発行されるのでコピーしてください。一部変更の必要があります。(アプリ等のコードも出されますので必要なコードを使用してください)

カスタムディメンション2

2.コードを書き換えます。

var dimensionValue = ‘SOME_DIMENSION_VALUE’;
ga(‘set’, ‘dimension1′, dimensionValue);

dimensionValue:名前と同じ文字に変更してください。※2箇所あるので注意
SOME_DIMENSION_VALUE:文字列固定でも値を動的に入れることも可能です。
dimension1:インデックス番号。作成ごとに1から番号をつけていけばいいかと思います。
※よくわからなかったら技術者に確認した方がいいかと思います。

3.書き換えたコードを計測対象ページにコピペします。

カスタム指標

1.新しいカスタム指標をクリックします。名前等を設定します。

名前
日本語でも英数字でも大丈夫です。ただ、既存のディメンションや指標と区別できるものにしてください。

フォーマットタイプ
整数:数字を指定できます。
通貨:ビューで設定した単位になります。
時間:レポートにはhh:mm:ssで表示されます。
最小値 最大値:設定しなくても大丈夫です。区切る必要があるときのみ使用してください。

アクティブのチェックボックスにチェックを入れたまま(チェックが入っているとこの指標が有効になります)作成をクリックすると、カスタム指標用のコードが発行されるのでコピーしてください。一部変更の必要があります。(アプリ等のコードも出されますので必要なコードを使用してください)

カスタム指標2

2.コードを書き換えます。
var metricValue = ’123′;
ga(‘set’, ‘metric1′, metricValue);

metricValue:名前と同じ文字に変更してください。※2箇所あるので注意
123(値):このコードを貼ったページヘのアクセスがあった時に与える値(任意の数字を入れてください)
metric1:インデックス番号。作成ごとに1から番号をつけていけばいいかと思います。
※よくわからなかったら技術者に確認した方がいいかと思います。

3.書き換えたコードを計測対象ページにコピペします。

カスタムディメンション、カスタム指標共にコードをサイトに埋め込まないといけないのでサイトによっては制作会社にお願いしたりしないといけなくなるので結構手間がかかります。
必要性と手間を考えてから設定してください。

Use-ID

順次アカウントにリリースされるようで、まだ実際につかってないのでなんともいえないのですが、「クロスデバイスレポートが利用可能に」の記事が詳しいと思うので詳細はそちらで確認してください。(この記事を書いてる時に1アカウントで使えるようになっているのを発見しました)

できること

朝スマホでサイトを閲覧→昼PCでサイトを閲覧→夜スマホでサイトを閲覧。これを(朝昼晩ログインした状態でサイトを見ていることが前提になりますが、)1人のユーザーの一連の行動として見ることができるようになります。

これにより、デバイスをまたいだコンバージョンまでの流れが分かったりするみたいです。便利!

これまでのアナリティクスではどうだったか

異なるデバイスを結びつけることは基本できなかった

設定しなかった場合どうなるの?

・これまで通り異なるデバイスからのセッションは別ユーザーになる
・新しく加わった機能なので、設定しないと困る。ということはない

どんな時に使うの?

・複数のデバイスからの流入があるサイト
・ログイン機能のあるサイト

気をつけること

ログイン機能のあるサイトでないと使えない

設定したことないのでまだわからないですが、コードを埋め込むだけではなくIDの設定方法とかもヘルプにあるので他の項目よりも設定に時間がかかると思ってください。

まだ情報が少ないのでこれからもっと情報がでてきれから設定しても遅くはないと思います。おもしろそうですね!

あと変更点として個人的にはrefferalの処理方法の変更に関して少し触れておきたいのですが、長くなってしまいそうなので別途記事にまとめさせていだきます。

そして、ざっくり説明した割に長くなってしまいましたが、ここからはユニバーサルアナリティクスの移行と注意点に関してまとめます。

3.ユニバーサルアナリティクスへの移行の流れ

※タグマネージャ使用の場合は別途記事にまとめます。

基本的な流れとしては

1. プロパティの移行
2. トラッキングコードの更新

この2つで完了です。あっさりです。

Universal Analytics アップグレード センター – アップグレード ガイド
ユニバーサル アナリティクスを導入する(概要)

ですが、運営サイトの設定状況を確認せずに安易に移行してしまうと、これまで計測できていたものが計測できなくなってしまう恐れがあります。

  • 前任の担当者から引き継いだものの設定とかあまりよくわからない
  • いろいろ設定しすぎて状況がわからない

という方はまず先にサイトの状況を確認してみましょう。

1. プロパティの確認

移行は開始されていません
移行前2

何も書かれていない
強制移行 プロパティ2
(プロパティには何も書かれていないがトラッキング情報に色々と出ている場合)

移行が完了しました
移行完了2

のどれかが書かれていると思います。プロパティ移行を行わないといけないのは「移行は開始されていません」と書かれている場合です。

それ以外の方は「2.トラッキングコードの確認方法」に進んでください。何も書かれていなく、トラッキング情報も何も出てこなかった場合も同様です。

プロパティ移行の方法

①移行は開始されていません、と書かれているところをクリック
②移行をクリック

移行前プロパティ 説明2

これでプロパティの移行は完了です!下記画像のように処理中になります。

移行処理中3

このあと2日程度で「移行が完了しました」と表示されます。それまではトラッキングコードの確認と最初に紹介した アナリティクス設定>プロパティ の設定を行ってしまいましょう。

この時点では3には進まないでください。コード書き換えるとデータが取れなくなってしまう可能性があります。

2.トラッキングコードの確認方法

今回はトラッキングコードが変更になっているのでそれに伴って設定してあるメソッドも変更する必要があります。設定されていそうなメソッドの有無を確認しましょう。

以下のいずれかに一致した場合は安易に3に進まず、注意点を読んでみてください。計測できなくなってしまう指標がでてきます。

確認方法は管理画面から確認する方法(上段)とソースから確認する方法(下段)があります。
※レポートの期間を計測出来てる全期間の表示にしてからご確認ください。

イベント
行動>イベント>サマリー で何か数字があった場合
・イベントの設定してあるページで _trackEvent と検索
※イベントは外部サイトへのリンクや資料DLや問い合わせボタンがあるページに設定されてることが多いです

e コマース
コンバージョン>eコマース>サマリー で何か数字があったら
・サンクスページで ecommerce と検索
※購入完了のページが多いです

カスタム変数
集客>チャネル>セカンダリディメンション>カスタム変数にカスタム変数以外の文言になっている場合
・分類したい項目のあるページで _setCustomVar と検索

仮想ページビュー
・トラッキングコードの入っているページで _trackPagevie と検索

ソーシャル インタラクション(ソーシャルプラグイン)
集客>ソーシャル>プラグイン で何か数字があった場合
・トラッキングコードの入っているページで _trackSocial と検索

ユーザー タイミング
行動>サイトの速度>カスタム速度
・トラッキングコードの入っているページで _trackTiming と検索

クロスドメイン トラッキング
アナリティクス設定>アカウント>すべてのフィルタ ドメイン表示するフィルタの設定がある場合
※参考:クロスドメイン トラッキングを設定する – アナリティクス ヘルプ
・別ドメインにつながるページで _setDomainName と検索
・トラッキングコードの入っているページで _setSampleRate と検索
※かなり昔に数字がでるようなら現在は使用されていない設定の可能性もあります。

注意点

2のいずれかに当てはまった場合、それらの設定をユニバーサルアナリティクス仕様に変更しないままにするとその指標が計測できなくなってしまいます。

変更方法に関しては公式の基本的なスニペットの置き換え等をみてわかるようでしたらそのまま3に進んで問題ありません。

もしよくわからないようでしたら、一旦移行作業はストップして、技術者や制作会社に確認してみてください。このブログでもどう変更するかをまとめる予定でおりますので良かったら参考にしてみてください。

ちなみに、実際いくつかテストしたところトラッキングコードは入れ替えたら浸透待ち、みたいな状況はなくパッと入れ替わりました。(サイトの規模により違いとかあるかもしれないですが。)

イベント等のメソッドもトラッキングコードが変更されればそれに合わせてすぐ切り替わります。ですので上記の設定が行われていたとしても使っていない指標だったりする場合は3に進んでいただいてもいいと思います。

サイト関係者と相談して進めてください。

3.トラッキングコードの入れ替え

トラッキングコードの入れ替え手順はおそらく色々あると思うのですが、実際テストしてみてこんな感じがいいかな、と思った方法を挙げさせていただきます。
※入れ替えに関してはサイトごとに異なると思うので一例として参考にしていただければと思います

基本型
  1. アナリティクス設定>プロパティ>トラッキング情報>トラッキングコードをクリック
  2. コードをコピー
  3. 既存のコードと入れ替える

すべてのコードが入れ替わったらユニバーサルアナリティクスへの移行は完了です。イベントの設定などを行っている場合はこの後または3の前に修正してください。

プラス点

一気に設定移行完了できるので楽

マイナス点

コードやメソッドの変更に失敗した場合や、時間がかかると計測できてない時間ができてしまう

どういうサイト向き?

サイト開設して間もないとか、メソッドの設定をあまりしていない場合や1日くらいデータが不安定にとれていても大きく問題ない。ある特定の時間のアクセスがほぼ無い。
という場合はこれが一番早くて楽だと思います。

混在型
  1. アナリティクス設定>プロパティ>トラッキング情報>トラッキングコードをクリック
  2. コードをコピー
  3. 特定のディレクトリ等区分けして順次既存のコードと入れ替えていく(同じページに同じプロパティIDのユニバーサルアナリティクスのコードと既存のアナリティクスのタグがはいってはいけない。)

すべてのコードが入れ替わったらユニバーサルアナリティクスへの移行は完了です。

イベントの設定などを行っている場合はコードが変更される前後でいれていくか、共通のイベントに一度入れ替え
てから変更していくのがいいかと思います。

プラス点

大きめのサイトの場合基本型では全部設定を完了させるまでに時間がかかる上にミスしたときの修正範囲も大きくなってしまうので小分けして移行していける点

マイナス点

・手間がかかる
・ユニバーサルアナリティクスの計測ルールとグーグルアナリティクスの計測ルールが混在するので解析するときに比較対象の計測方法が異なってしまう可能性がある

どういうサイト向き?

大きめのサイト、複数人で管理しているような場合、ユニバーサルアナリティクスの機能で早く設定したいものがある場合

注意点

テストで同じページに同じプロパティIDのユニバーサルアナリティクスのコードと既存のアナリティクスのタグを入れてみたところページビューが2倍に計測されました。

_gaq.push(['_trackEvent', 'カテゴリ', 'アクション', 'ラベル', 値]);ga(‘send’, ‘event’, ‘カテゴリ’, ‘アクション’, ‘ラベル’, 値);

上記タグでどちらのコードでもイベントを発生させるようにしたところ、同じプロパティIDのUAとGAのタグが入ったページではイベントも2つ計測されました。

また、混在させた場合、例えばAというページにユニバーサルアナリティクスのタグ、Bというページに既存のアナリティクスのタグをいれた場合(プロパティIDは同一)、Aのページはユニバーサルアナリティクスの計測ルール、Bのページは既存のアナリティクスの計測ルールでデータがだされるので、ちぐはぐのデータになってしまう可能性があるので、長期間混在させておくことは個人的にはあまりおすすめできないように感じます。

この辺りに関してはウェブ上で別の結果がでているという話もあるみたいですが、私がテストしたときはこのような結果でした。(少し曖昧で自信がありません。誰か詳細に解説して頂けたらリンクで紹介します。)

慎重型
  1. プロパティ>新しいプロパティ作成から新規のトラッキングコードを発行
  2. 対象サイトに1で発行したタグを追加(既存のアナリティクスのタグと新規のユニバーサルアナリティクスのタグが全ページに入っている状態)
  3. 適当な期間並行して計測(データは干渉しないようです)
    ↑この期間に別途ユニバーサルアナリティクスのタグを発行してテストサイト等で各種設定がうまく動くか確認してみてもいいと思います
  4. 3の期間に計測したアナリティクスとユニバーサルアナリティクスのデータを見比べて基本形で移行するか、混在型で移行するか、それとも別の方法で行うかを決める
  5. 4で決めたスケジュールで移行

すべてのコードが入れ替わったらユニバーサルアナリティクスへの移行は完了です。

プラス点

移行したあとにどの程度影響が出るか把握してからスケジュールを組めるのでアナリティクスのデータを何かの指標に使っている場合でもどの程度のずれが出るか先にわかっているので色々進めやすいと思います。

マイナス点

自社で管理していないサイトだと数回タグをいれたり設定を変更する必要があるので時間がかかりそうです。

どういうサイト向き?

自社管理で大きめのサイト、きちんとデータを活用してるサイト
※場合によってはこのタイミングでタグマネージャに変更してしまうのもいいと思います。

上記入れ替えのパターンに関しては実際にテストをしてこういう移行がいいかなぁと考えたもので、公式から移行方法で推奨されているものというのは現在特にありません。(手順は載ってますが。)
もしかしたら今回載せたものとは違う結果になることもあるかもしれません。

移行に関しては本当にサイトによりけりでスケジュールを決めて行っていくしかないと思います。サイトの大きめな改修の予定があるならそのタイミングに合わせて変更してしまうのもいいと思います。

可能であれば技術者や制作会社の人に確認しながら変更のスケジュールと方法を決めるのがいいと思います。

上記パターン以外にも技術者に相談したらサイトに合わせて別の方法を提示してもらえる可能性もあると思います。よくわからず安易にアップデートするのだけは危険なのでやめておきましょう。

長々と書きましたが、ユニバーサルアナリティクスにすることによってこれまでコードの変更を加えないと出来なかった設定が管理画面上でできたり、これまでできなかったデバイス間の繋がりを見ることができるようになり、よりユーザーの実際の動きがわかるようにもなります。

が、知識や情報がない人では便利さを享受できなかったりするし、最初に手間もかかります。サイトの状況やリソースによって上手に活用してみてください。

最後に:参考にさせていただいたサイト・書籍

そこまで多くの情報が存在するわけではない中で非常に参考にさせて頂きましたのでご紹介させて頂きます。(外部サイト)

1. ユニバーサルアナリティクスがベータ版から正式リリースとなりました
2. ユニバーサル アナリティクスが正式リリースされました※Google公式
3. 【緊急解説】ひと目でわかる!ユニバーサル アナリティクスへのケース別アップグレード方法(第92回)
4. Universal Analytics アップグレード センター※Google公式
5. ユニバーサル アナリティクスにおけるイベントトラッキングの計測方法
6. Google Analyticsパーフェクトガイド 増補改訂版 Ver.5/ユニバーサルアナリティクス対応

また後日、より細かい設定方法などにも触れようと思いますのでその際にはまた告知させて頂きます。何かお役に立てれば幸いです。

ヴォラーレ株式会社 三好

Googleがアルゴリズムを変更する目的とSEOの役割

ご存じの通り、Googleというシステムには日々様々な変更が加えられています。それに伴い、SEOを行う際に気をつけた方が良いこと、逆に気にしなくて良くなったこと、なども継続的に発生し、日々の情報収集と定期的な知識のアップデートが求められることは間違いありません。

しかし、そのようにGoogleに変更が加えられること、それに伴いSEOにも変更が必要になる場合があることなどから、「SEOはGoogleとのイタチごっこ」のような偏った理解をされている方や、逆に「SEOの時代は終わった、これから必要なのはSEOではない」などの極端な解釈をされている方が多いです。

出尽くした感の否めない話題ですが、改めてそのあたりについて整理しました。

改めて、検索エンジンについて理解する

Googleという検索サービスのビジネスについて、最近東証一部に上場されたファンコミュニケーションズの柳澤社長(@ankeiy)がこれ以上ないくらい端的に表現されていたので引用させて頂きます。

 

Googleは世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示します。

ここで表示された検索結果が検索ユーザーにとって都合の良いものであればあるほどツールとしての利用価値は高いと言えますし、利用ユーザー数の獲得や利用頻度の向上につながります。

一方で、GoogleはAdWordsという広告プラットフォームを広告主に公開し、検索キーワードと関連性の高い広告を検索結果に表示できる仕組みを持っています。この広告がクリックされた時点で、Googleには広告収益が発生します。

従って、シンプルに考えてしまえば、検索ツールの利用者数や利用頻度が増えれば、総合的に検索結果に広告が表示される回数や広告クリック数が増え、結果としてGoogleの収益も増える、と言えますね。

つまりGoogleが検索ツールとしての収益を高めるためには、まず基本的な取り組みとして検索ツールの利用価値を高める、つまり「検索した人が見たい情報にすぐに辿りつける検索ツール」にするような取り組みが継続的に必要になるのです。

今のGoogleは完璧なシステムではない

前の記事の中でも触れた内容なのですが、文脈的にこちらでも引用しておきます。

不完全というのはどういう根拠のもとで言っているかと言えば、

・検索する人が検索する言葉をある程度考えて打ちこまないとうまく欲しい情報に辿りつけないことが多い
・サイトが検索エンジンが理解できるように作られていないときちんとヒットしないことが多い
・ユーザーが本来求めていないような情報が上位に表示されることが多い

などの点からです。

ということですね。

つまり、適切な検索キーワードが上手く思いつかなかったり、見たいサイトが検索エンジンにとって読み取りにくい仕様で作られていたりすればユーザーは見たい情報に辿りつけませんし、また、未だに内容として間違いだらけの情報が上位に表示されていたりもするわけです。

Googleは何のために日々の変更を行っているのか?

Googleが今の時点で理想とは言えないのであれば、当然そのギャップを埋めていくために様々な改善を加えていく必要があります。いわゆる「アルゴリズム更新」なんていうのもこの一環です。変わるのはアルゴリズムだけではなく、先ほどの

世界中の情報をクローラーというプログラムで収集し、検索して取り出しやすいようにインデックス(索引)化し、検索キーワードが送信された際にその言葉の意味や検索の意図を理解し、ランキングアルゴリズム(≒ランキング算出ロジック)に基づき検索結果に表示する順序を決めて、それを検索結果に表示する

という、一連のプロセスを実行するための仕組み全般において様々な変更が日々加えられています。実際には、これに加えて、不正な手法でランキングを操作しているサイトを人為的なオペレーションのもとでランクを下げるなどのスパム対策(手動対応)も取られたりしています。

Googleはとにかく、検索ユーザーに対してより理想に近い検索結果を返すために出来ることは何でもやろうとする、ということです。イメージとしてはこんな感じでしょうか(今やってるセミナーの資料から抜粋)。

とにかくGoogleの実情と理想がまだまだかけ離れているのでそのギャップを埋めるためにGoogleは頑張っているんですよという図です

例えばですが、昨年に実施された「ハミングバード・アップデート」について、あまりこうした話題に不慣れな方々が「ハミングバードによってリンクやSEO会社の出る幕は終わった、よりコンテンツが重要視される時代に」と言うような主旨のエントリーが書かれているのをいくらか見かけました。

しかし実際にはハミングバードとは、リンク評価やコンテンツの評価などではなく、上図で言う「検索された言葉の意味や意図をより的確に把握するため」のアップデートです。

具体的には、フレーズや言葉ではなくて、(音声検索の普及などを見越して)「会話型の検索キーワード」を今までより適切に解釈して上手く処理できるようになりました、と言った趣旨の変更でした。

では、SEOの役割とは?

Googleが検索結果の改善のために様々な取り組みを行っている一方で、ではSEOという考え方はどのような役割を果たすべきなのか?と考えてみましょう。先ほどの図の延長で見ればこういうことでしょうか。やや無理やり感がありますが。

SEOとは、検索する人が打ちこむキーワードを想定してページに反映しておく、検索エンジンが正しく理解できるようにサイトを作る、検索エンジンがユーザーに提示したいような情報を用意し、それが正しく優先表示されるようにする、など検索エンジンの実情を理解し、それでもユーザーが検索を通じてサイトに辿りつける状態にしておく、そのために必要な取り組みのことです。

Googleが、自社システムの不完全な部分を埋めるための取り組みを行っているのに対して、SEOは、現状のシステムの性能、将来的な検索エンジンの向かう先を理解をした上で、多くの検索ユーザーが検索結果を通じてサイトに辿りつける、という状態を安定して作っておくために行われるものなのです。

その中で、直接的なビジネスへの貢献度が高い(≒売上に直結しやすい)一部の商用キーワードにおいては、そのポジション争いが熾烈となり、過剰な手法を用いてランキングを上げようとする対策が蔓延しており、それがいわゆるブラックハットSEOと括られるものです。日本で「SEO」と称されているものの多くは、ここの部分を指して言われているものなのです。なので話が時折おかしな方向に行くんですね。

しかし、これは検索結果全体からみればごく一部の検索結果で苛烈に発生していることであり、大半の検索結果においてはそうしたものとはほぼ無関係です(なぜなら皆さんは普段買い物をするためだけに検索をするわけではありませんよね?)。

とにかく、SEOはGoogleの不完全さを、技術的またはマーケティング的なアプローチを以て補完し、サイトを検索から辿りつける状態にするための取り組み、と言えるものなのです。

「SEOはGoogleとのイタチごっこ」というのは本当なの?

もちろん本当ではありません。ただし、これは全くの間違いですかと言えばそうではなく、何かものすごく偏った、というかごく一部の側面だけを切り出した視点からの表現と言えます。具体的には、

  1. SEOとは、Googleの意図と関係なくランキングを操作する手法である
  2. Googleは、そうした手法を駆逐するために日々アルゴリズム変更を実施している
  3. SEOとGoolgeは、そうした意味で対立関係にあるものである

こうした偏った観点でのSEOとGoogleの考え方である、と言って良いと思います。

実際には、そもそもSEOの意図はそういうところではありませんし、Googleの変更は不正な手法の排除だけでは決してありませんし(スパム対策は検索結果の品質改善の取り組みのうちの一部でしかない)、SEOとGoogleは本来は先ほどお伝えしたように補完関係にあるはずのものです。

もともと、ちょっとしたサイトのチューニングと、人為的にリンクを増やして上位表示する、ということがSEOとして普及してきていたので、そういう視点で見るのであれば、逆にこういう表現がシックリ来るのは間違いないと思いますが。

SEOというアプローチそれ自体を見限るということは、場合によっては本来得られるべき自然検索トラフィックの多くを放棄することにもつながります。検索トラフィックはまだまだWeb全般で見たときには非常に大きなインパクトのあるものです。SEOを正しく理解し、またその重要度について正しく評価できることが重要です。

Googleは完璧な検索システムになり得るか?

まず、完璧なシステムって何よ?というとどういうことかと言えば、例えば

  • ユーザーが今欲しい情報を完璧に理解できるようになったとき
  • ユーザーと全く同じようにコンテンツを閲覧できるようになったとき
  • ユーザーが欲しい情報を有機的に判別できるようになったとき

のようなことが実現出来れば、今の発展形としてはかなり理想に近い検索ツールと言えると思います。そしてこうなれば、今のSEOノウハウなどとされているものの大半は無用の長物になっているでしょう。

しかし、完璧になる時代って訪れるんでしょうか?と言うと、少なくとも当分は訪れないと思います。少なくとも、今の「検索」という形式を取っている以上はなかなか難しいのではないでしょうか。

万人共通のベストアンサーがあるわけでもなければ、同じような情報を求めていたとしてもシチュエーションに応じて本来ベストなアンサーは異なるでしょうし、そこまで含めて全ての検索に対して常に最適解を提示できるというのはちょっと想像が出来ませんね。

Googleが多くの人に使われている中で、それが検索システムとして完璧でないのであれば、それを補完する技術としてSEOはまだまだ必要、と言えると思います。

まとめ

Googleは不完全なシステムですし、検索技術が進歩しても完璧なシステムがすぐに出来上がるわけではない以上、それを補完する(=検索サービスと、Webサイトと、検索ユーザーをつなぐ)ための技術は必要で、それがSEOです。

人々の情報探索行動の中で「検索すること」が重要なファクターである以上は、SEOは終わりませんし、変わらず重要な取り組みと言えます。それだけで物事が全て解決するわけではないというのは間違いありませんが、面倒で難しいからという理由でSEOを放棄するのはただ勿体ないとしか言いようがありません。

初心者向けの内容とは言え、ここに書かれている内容は、SEOに関わる人は全員が共通認識としてもっておいたほうが良い内容と思っています。少しでもためになったとか役に立ちそうと思った方は是非シェアなりブックマークなりして頂けると幸いです。

ヴォラーレ株式会社 土居

これからSEOを始める方に、最初に知っておいて欲しいこと

新入社員として、あるいは部署移動などをきっかけに、4月からSEOの仕事をされるという方は多いと思います。しかしSEOの仕事とひとくちに言いましても、コツさえつかめば誰もが簡単に上手くできるようになります、というほど難易度の低い仕事ではないと思っています。

まがりなりにもこの業界でSEOに関わるような仕事を始めてから5年程度たちますので、決してベテランとは言えませんがそれでもこれから同じような仕事をする人に対して色々アドバイス出来ることはあるかと思いますので書きました。

この3つを前提としておきましょう

最初は10個くらい挙げていたのですが、だいたい同じようなこと言っているなと感じたので3つにまとめました。

  • SEOでは全ての問題を解決できません
  • 今のGoogleは完全なものではありません
  • アルゴリズムが公開されなくても基本的なやるべきことは分かります

1つずつざーっと説明していきます。

SEOでは全ての問題を解決できません

SEOに過剰な期待を持ってしまったり、ある種の全能感みたいなものを持ってしまわないようにしましょう、ということです。まずは、この前提をきちんと理解することから始めます。

SEOを成功させることが、必ずしもサイトの改善にとって最短でも最善でもない場合はいくらでもあります。そういう場合には、SEOの効果を盲信してしまうことはその他の色々な可能性を狭めてしまうことに直結します。

SEOはあくまでも検索者とサイト運営者が検索結果を通じて接点を得られる機会を増やすための取り組みです。簡単に言えば検索結果での露出を高めるための取り組みです。

その視点で極端な話で言えば、サイトに掲載されている情報を誰も検索して探そうとはしていない、のであればSEOにコストをかける意味はありません

つまりは、どの程度の問題を解決できるのかと言えばサイトによって様々で、自然検索トラフィックがどの程度ビジネスにとって重要なものなのかということに依存します、ということです。

また、SEOの仕事をする人がこういう視点でしかサイトを見れないようになってしまうと、「良いサイト=SEOに優れたサイト」のような狭い価値観になります。少なくとも、依頼者の視点に立てば、そういう人に自分のWebサイトの相談をするだろうか?ということを考えてみると良いと思います。

今のGoogleは完全なものではありません

不完全というのはどういう根拠のもとで言っているかと言えば、

  • 検索する人が検索する言葉をある程度考えて打ちこまないとうまく欲しい情報に辿りつけないことが多い
  • サイトが検索エンジンが理解できるように作られていないときちんとヒットしないことが多い
  • ユーザーが本来求めていないような情報が上位に表示されることが多い

などの点からです。

日本語でくくってしまえば、Web上の情報を収集したり整理したりする仕組みの性能、検索された言葉の意図の解釈の精度、ランキング決定のためのルールの精度、などまだまだ改善されていく余地は全然ありますよね、ということです。

ユーザーが欲しいと思っているベストな情報に検索を通じて瞬時にアクセスできる、という点をひとまず検索エンジンが目指している1つの目標とするのであれば、まだまだ遠い場所にいるのかなという所感です。

しかし、ある程度色んな勉強をしたうえで、色んなキーワードでの上位表示サイトとかの分析みたいなことをやったり自分である程度思った通りの成果が出せるようになると、突然「なんかGoogleのアルゴリズム掴んじゃったかも」という感覚に襲われたりすることもあります。

これは断言できますけどその感覚は100%単なる勘違いです。全部なんて見えるわけありません。傾向とか○○の点で改善してきているとかそういうことはもちろん日々の検索結果のリサーチで把握可能なものだと思いますが。

まだシステムとして不完全なもので不具合的な要素だって検索結果には多分に含まれていて日常的に変更が加えられているアルゴリズムに、手動対応などの人的要素がそこに加わっていて、更に人的な対応のルールすら固まっていない(頻繁にルールややり方に調整が入っている)ような印象を受けています。

つまるところ、バグとか曖昧なルールとか目下改善中とか目下テスト中の項目だってたくさんあるわけで、そういう検索結果を僕らは見ているわけですね。

ちなみに、「掴んだわ」的なことを言う人、あるいは掴めるものと信じて止まない人の特徴として、Googleというシステムの未熟さには気付きつつも、一方でものすごく不変的かつある意味で完璧な何かを期待していることが多いと思います。

ただ、実際にはそういう人が思っている以上にものすごく流動的かつ曖昧な要素が多い、という前提で考えなければいけないのです。

もちろん僕も昔は「なんか掴んだ気がする。分かってきた」とか言ってた時期がありました。本当ごめんなさい。

アルゴリズムが公開されなくても基本的なやるべきことは分かります

先ほどとは逆の議論として、「Googleのアルゴリズムはブラックボックスなので」というのは非常に違和感あって僕は使わないようにしています。まあ確かに全部が見えないという意味ではブラックボックスではあるのですが、大きな影響のある変更や、一般的に常識となっているような評価項目などについてはある程度までは情報も公開されていますし。

実際には、「検索結果にどのように反映されるか(何番目にランクされるか)は最終的には分からない」だけであって、「何をすればもっと改善するのか」は分かります。それをとにかくやってみてどこまでそれを評価してもらえるかを検索エンジンの今の不完全な評価システムに委ねるわけですね。

例えば、の話ですが。

「このサイトが3位、このサイトが6位となかなか上位にいるのですが弊社のサイトは9位にいます。この差はなんですか?」というような質問はたまにありますが残念ながら僕は答えられません。次の日になって検索結果上位のサイトがガラっと入れ替わっていることも多分にありますし、そうなった場合はその時に話したことは根拠を失うためです。

ここについては「考えても分からんものは分からん」という明確な割り切りが必要です。

ただ「こういう目標に対して、今どういうところに課題や不足があって、これから何をすればもっと良くなるでしょうか」であればいくらでも妥当な提案は出せると思います。その前に目標の見直しが必要な場合も多分にあるでしょうし。

どのような状況、どのようなサイトであれ、大枠としてやるべきことは割と明確なのです。

  1. 検索されることを考慮したサイトの設計、出現語句の最適化
  2. クローラー等の性能に合わせた技術面での最適化
  3. 長期的にビジネスに貢献し得るコンテンツの作成+リンクやシェアの獲得

まとめて括ってしまえば、かなり乱暴ですがこれくらいの3つくらいにまとめることは出来るとは思っています。そしてこのうちの1つでも著しく欠如しているとそれだけでSEOは減速します

ですのでSEOをしっかりやるのであれば、上記のような項目それぞれについて改善の余地があれば、伸び白の大きいもの(出来ればコストのかからないもの)から順々にやっていくようなイメージです。

もちろん、コンテンツ→リンクの取り組みは、最終的には地道に継続することでしか成功し得ないものでもありますのでここのあたりは工夫と根気が必要です。

ただ、これはあくまでもしっかりSEOをやりきる上で、の話であって、実際にはサイトを作るときにはビジネスサイドの要求、UIやビジュアルデザイン面の要求、SEO上の要求などがところどころで衝突する場面が出てきますし、全てにおいてSEO側の事情を優先させるということはほとんどありません。

ですので前提として、SEOの仕事をする人は、そのサイトにおけるSEOの重要度を正しく評価できる必要があります。この辺は結構ひとくくりに言えない部分なので難しいことですね。

※ちなみに今月は自分でも制作とか開発の人のためのSEOセミナーやりますけど、こういう話題にも少し触れますので興味ありましたら是非。

最後に、SEOの仕事に必要な能力は半端なく広く深いものです

冒頭で5年くらいSEOの仕事に関わってきました、というお話をしましたが、やるべきことがある程度分かったとしても企画~制作~運用改善まであらゆるフェーズで求められるSEOのスキルを全てカバーしてくのはかなり大変だと思います。

自分で言うのも気持ち悪いですが、個人的には自分は決して学習能力の低い方ではないとは思っていますが、今はもちろん、正直今後も全部なんて到底カバーしきれる気がしません。自分がここまでやってこの程度なのだから、という逆の意味での自信は最近になってようやく少しずつついてきたところです。

言いたいことは、そうそう簡単な仕事だと思って甘くみて欲しくはないですけれども、しっかり勉強すれば、その分しっかり成果の出せる仕事ではあります。一定水準をクリアしているSEOのプレイヤーの母数に対して、潜在的なSEOの需要が過剰にある環境だと思いますので、そういう意味でもチャレンジし甲斐のあるテーマではないかなと思います。

以上、これからSEOを専門で仕事とされる方に参考にして頂ければと思います。

ヴォラーレ株式会社 土居

Googleが日本のリンクネットワークに制裁を与えたようです

先ほど、GoogleのMatt Cutts氏がTwitterで「ここ数カ月で日本国内の7つのリンクネットワークに制裁を与えた」という内容のツイートをしたことが話題になっています。他のブログでも既に取り上げられていますが、こういう話題はあまり触れないのですが大事な動きですのでこちらでも書いておきますね。

“Over last few months”ということですので、今日そういうことがありました、ではなくて「ここ数カ月にわたってそういう対処をしてきました」という事後報告ですね。ですのでこの発表があったからどうこう、と慌てるような話題ではありません。

少し補足するとこういう発表のあるなしに関わらず、リンクネットワークの駆逐は小規模なものから大規模なものまで順次実施されています。また、こうした動きも今に始まったことではなく、以前からこういうようなネットワーク単位での制裁は行われています。

今回の「日本国内の7つのリンクネットワーク」がどれを指すのかは今時点では分かりませんが、海外ですと「○○のネットワークに対して制裁を与えた」という感じで名指しで公表されているものも多くありますね。

海外でのこうした発表は前から見られており、最近ではヨーロッパ諸国の話題が多かったのですが、日本国内のリンクネットワークに関する発表は初めてでしたので界隈では「ついにきたか!」という感じで話題になっていますね。

今回は結論とかはありません。

ヴォラーレ株式会社 土居

※参考記事※
Google、日本の7つのリンクネットワークに制裁
Google、国内7つのリンクネットワークに制裁を科したことを公表