2014年は大人数のSEOセミナー形式だけでなく少人数制のワークショップや勉強会を開催します

さて、放置気味だったサイトを1月に全面的にリニューアルし、ブログもしばらく更新が滞っておりましたが、2月からまた更新を再開いたします。2014年もよろしくお願いいたします。

SEO勉強会・ワークショップ定期開催のお知らせ

ということで、2014年最初の更新が告知のような内容で恐縮なのですが、昨年まで月次で開催する(しなかった月もありましたが汗)SEOセミナーが中心でしたが、今年は大人数を集めてセミナー形式、というよりも、少人数制でのワークショップや勉強会を中心に、頻度を上げてテーマを色々変えて毎週開催する予定です。

→詳細:ヴォラーレ SEOセミナー開催情報 | SEO HACKS

理由としては、実際に案内をしても「日程が合わないので」という理由で来られない方が結構いらっしゃったり、あと月に一回だとテーマもそんなに色々できるわけでもないですし、ということで、もうちょっと小回り効かせながら小規模開催をしていきましょう、ということになりました。

勉強会・ワークショップの内容

色々テーマを変えながらやっていますが、今やっているのは主に内部的な話、ペナルティ系の話題、事例中心の話題、初心者向けの話題、などなどまあ色々です。

ちょっと現時点でやってみて頻度が多すぎると既に思っている節もありますので頻度については今後は週1~2程度で開催されていく、程度に解釈して頂けるとよろしいかと思います。

講師の實川くんが講義している写真

これまで行った内容のアンケート

1月に行った勉強会のフィードバックとしてはこうしたものがありました。

実践に基づいた説明のため、リアルに伝わった。

受講者参加型で題材となるサイトのSEOのレビューを行うなど、普段あまり体験できない内容もあり、ためになった。

半分位は知っている知識でしたが改めて整理されました。もう半分は知らないことでしたので活用できそうです。

少人数だったこともあり、自分が気になる点をたくさん伺うことができました。無駄がない。

初心者にもわかりやすかったです。知識が追いつかずどう質問して良いのかわからないところもありましたが、自社HPの課題がなんとなく見えてきた気がします。

超初心者にもわかるSEO、みたいな内容も今後やって欲しいです。タグのこと、キーワードのこと、ブログの書き方で気を付けることなど。

こうしたフィードバックを受け、順次改善できるポイントは改善して参ります。

2月開催中の勉強会・ワークショップ

リンクに依存しない内部SEO改善のポイント
人工リンクのリスクが高まる中、インハウスでSEOに取り組まれる企業様向けに、見落としがちな改善ポイントをピックアップしていく形で内的SEOのエッセンスを学んでいただきます。

脱・広告依存!SEOでトラフィックを集めるための基本要件
リスティング広告の単価高騰×ブラックハットSEOの市況の変化に伴い、競合に対する優位性の確保に悩む企業様向けのSEO勉強会です。

不動産賃貸サイト事例に見る、内部SEO改善のポイント
不動産賃貸サイトや求人サイトなどによく見られる典型的なDB連携の検索サイトのような、なかなか独自性や差別化をはかることが難しいサイトのSEOのポイントについて解説します。

順位下落と手動警告の最新事例から読み解く、Googleペナルティ対処法最新セミナー
不自然リンクに起因するGoogleペナルティの解除対応事例を紹介した上で、今すぐに活用できるペナルティへの対処方法をお教えします。

【ワークショップ】Googleペナルティ対応担当が教える、不自然リンク調査(リンク精査編)
実際に不自然リンクペナルティを受けてしまった企業様が、自社でリンクの調査を行い解除まで導くために、ワークショップを通じて実際にどのようなリンクを削除対象とし、どのようなリンクを残すべきかを学んで頂きます。

Q&A

たまにお問い合わせで頂く内容についてはあらかじめ回答しておきます。

終わったあとにガッツリ営業されるの?

営業かけられるんじゃないの?という点については「後日営業しても良いですか?」というアンケート項目がありますのでそこにYesと書いていただけたら喜んで営業しますし、そうでなければ引き続きよろしくお願いいたします程度に留めますのでその点気負わずご参加頂ければと思います。セミナー案内くらいは継続的にお送りすると思いますがご了承ください。

営業を希望しますか?というアンケート硬毛k

SEOについて素人だけど大丈夫?

講師もSEOに不慣れな方でも分かるような説明を心がけておりますので、参加して意味がないことはないと思います。ただし、既にSEOを実践している方向けの内容も多く含まれたり、質疑応答もそうした内容が中心になることもありますので、講義の内容についてはある程度選ばれたほうが良いかもしれませんし、こういうのないの?というご要望などは大歓迎ですのでお気軽にお問い合わせ頂ければと思います。

このくらいの金額だったら無料にすれば?

特に数千円の収益を上げたいということではなく、真剣に勉強されたい、あるいは既に実践している中で明確な課題を感じている、といった方を中心に参加して頂きたいと思っています。

以前はほとんどが無料でのセミナーでしたが、例えば私が去年25,000円のセミナーを開催した際は2回とも満員御礼(第1回は40名、第2回は70名)までご来場頂きましたが、無料セミナーとの違いについて感じたこととしては、全体の真剣さが格段に違うなあ、というところ(タイプ音が半端ない)と、質問されるレベルも、普段から色々とSEOについて情報のキャッチアップをしつつ試行錯誤されてきたんだろうな、というようなご質問ばかりでした。

実際に1月の勉強会でも、わざわざ地方から複数名でいらっしゃったり、題材として是非自分のサイトを使って欲しい、というご要望も多く頂いたりしています。数十名で行うセミナーよりも講師とのコミュニケーションの機会は多くとっていただけますし個別の質問についても対応できることも多いですので、費用は頂きますがご参加頂く価値は十分あるかと思いますので是非日程合えばご参加下さい。

ということで2014年もSEO頑張っていきましょう。今年もよろしくお願いいたします。

※勉強会・ワークショップの詳細はこちら→ヴォラーレ SEOセミナー開催情報 | SEO HACKS

ヴォラーレ株式会社 土居

【保存版】2013年のSEO周辺事情の振り返り、2014年に向けて改めて読んでおきたいSEO情報×50記事

2013年度も終わりにさしかかり、今年のSEOを振り返る記事も既に多数出ていますが、それにやや乗り遅れて便乗する形で今年の主要な話題を一気に振り返るためのSEO総集編をお届けします。

目次

  1. アルゴリズム/検索技術も色々と変わってきています
  2. 「コンテンツマーケティング」の考え方はSEOにも必須です
  3. 不自然リンク/ペナルティ対応等の事情もどんどん変わっています
  4. スマートフォン/モバイルのSEOに関わる大きな変更がありました
  5. 国内、国外で行われたサーチ系イベントレポートも充実
  6. その他SEO情報、SEOの方法論など
  7. まとめ

このようなラインナップで、筆者のtwitterアカウント当サイトのFacebookページなどで言及した記事の中からピックアップしてお届けします。情報出典元が偏っていますが、重要な情報を、正確に、かつ下手な誤解を生まないよう配慮されて書かれている情報元は限られていると認識していますのでご了承下さい。

アルゴリズム/検索技術も色々と変わってきています

パンダアップデート、ペンギンアップデートと今では随分聞きなれたアルゴリズムに加え、新しく「ハミングバード」なるものも新しく導入され、心地良い感じに世間では勘違いされた情報がビュンビュンと出回ってきていますので、改めて、それぞれの意味やその対策などについて見直してみましょう。

パンダアップデートが通常アルゴリズムと統合されました

2011年の初回導入から早3年近く(驚き)、何かと世間を騒がせることの多い「パンダアップデート」ですが、これまでは通常のランキングアルゴリズムとは独立してデータ更新や「パンダ」アルゴリズムの刷新が行われていましたが、今ではその他のアルゴリズムに組み込まれる形で定期的に更新されるようになりました。

ペンギンアップデート×2回、大きな影響は出ず

「次のアップデートではかなり大きな変動が起こるだろう」と言われていて戦々恐々としていた2013年のペンギンアップデートですが、蓋を開けてみると「あれ?そうでもなくない?」といった反応が多かったように思います。今年は2回の更新でした。

(勘違いしてる人の多い)ハミングバード、「会話型検索」への対応強化

何故かはわかりませんが、一部のブロガーさん(?)等を筆頭に、「ハミングバードによってリンクの重要度が下がる」「コンテンツイズキングをハミングバードがもたらす」といった主旨の記事が出回ってしまいましたが、全くもってそういう類のものではありません。これはかなり勘違いされている方が多いです。

(おそらく)主に音声検索の普及を見越した、従来型の単語やフレーズでの検索語入力だけでなく「会話型の検索語」に対しても、「単語」ではなく「意味」をより高い精度で解釈して検索結果を提示できるようにした、大規模なアルゴリズムアップデートとなります。しかし、普段ビジネスで定点観測するような商用キーワードに対して大きな影響があったかと言えば、ほとんど影響はありませんでした。

その他:SSL化、オートコンプリートの是非、AppStore内SEO

Googleの検索のデフォルトでのSSL化により検索キーワードデータの取得が非常に困難になったり、Googleオートコンプリート機能などでのネガティブワード表示に起因する訴訟でGoogleが敗訴したり(昨年に引き続き)といった話題や、Googleではありませんが最近はAppStoreでの検索アルゴリズムでも大きく変化があったようです。

「コンテンツマーケティング」の考え方はSEOにも必須です

人為的なリンクソリューションによるSEOが徐々に肩身狭い状態になっている中、本質的にランキング全般を改善するには、如何にコンテンツを軸としたリンク獲得、ひいてはマーケティングを行っていくかは間違いなくSEOにおける必須の課題となります。

「コンテンツマーケティングって難しそうだしハードル高い」という声も多いですが、ここに挙げたような記事はその不安をある程度払拭し、またマーケティングにつながるコンテンツをどのように考えるのか、のヒントになると思います。

不自然リンク/ペナルティ対応等の事情もどんどん変わっています

今やSEOの話題では定期的にでてくる不自然リンク起因のペナルティや順位下落について。細かな話題は事欠かないですが大まかな流れとしては以下のようなトピックが挙げられます。

色んなリンクが次々と「不自然リンク」認定へ

リンク元がいくら信頼あるオーソリティサイトでもそのリンクがSEO目的とみなされればNG判定、リンク購入には有名サイトでも容赦なくペナルティ、プレスリリースや有料ディレクトリもnofollowを、などと、一部若干度が過ぎるのでは?と思うような対応もあり話題になりました。

Google公式ブログから

Googleサーチクオリティチームのスタッフも積極的に情報を公開し、ブログだけではなくセミナーや動画でもこの有料リンク問題については呼びかけを行うようになりました。不自然リンクに対するSEO業者の対応が悪質と見なされた場合についての言及など、少し強めな対応をとる姿勢を見せているように見えます。

再審査リクエスト、対応も色々変わっているようです

この1年で、再審査リクエストに対するGoogleの対応も大きく変わっています。具体的なリンクURLのサンプル提示、様々なタイプの通知テンプレートなど、正直やや不可解な部分もあるように感じていますが、ペナルティ解除に向けた取り組みの基本的なポイントは変わりません。

メジャーなブログサービスもSEOスパム対策を強化

livedoorブログや、最近ではサイバーエージェント社が運営するAmebaブログなどのブログサービスにおいても、検索エンジンスパムへの対応をより強化するような発表がありました。Googleの強めな呼びかけとも相まって、以前よりもリンクを削除できる可能性がかなり向上したというのは実感としてあります。

スマートフォン/モバイルのSEOに関わる大きな変更がありました

スマートフォンでのアクセスを全てスマートフォン版TOPにリダイレクトする、などの設定をしている場合、PCでの検索では上位にあるサイトがスマホ検索で全くヒットしなくなる、などの事象が実際に確認できています。ある意味、細かな技術要件とも言えますが、ユーザー体験を損ねないために正しい実装を心がけるべきポイントと言えます。

国内、国外で行われたサーチ系イベントレポートも充実

海外でのサーチ系イベントは過去から多く開催され一部レポートが出ていましたが、2013年度は国内でも多くのイベントが行われていたように思います。レポートも充実の内容で、今後のSEOの取り組みを踏まえても必読の内容です。

その他SEO情報、SEOの方法論など

その他、SEOの情報収集に役立つ記事や、今後の展望を踏まえてどのような取り組みが求められるか、その参考になりそうな記事をいくつかピックアップしておきました。

まとめ

このように、相変わらず激しく変化する検索エンジン環境の中で、それでもサービス利用者や商品を購入するターゲットユーザーが「検索して探す」ことをやめない以上、常にSEOの改善方法を模索していかなければならないことには変わりません。

検索エンジンは今後も更に改良を進めますが、その方向は「ユーザーの検索に対して、より良い検索結果を返せるようにする」ことであることは変わりなく、具体的には、

  • ユーザーの検索意図を、文字や単語、ではなく意味や文脈でより正確に理解する
  • コンテンツの品質や信頼性をより高い精度で評価する
  • 不正なSEO手法を正しく検出して順位操作を防ぐ
  • 検索意図に応じた、より多様な検索結果を提示する

などの方向性が挙げられると思います。

その上でサイト運営者が何を考えるか?ですが、このような検索エンジン技術の進歩に伴い、「(検索エンジンが未熟だから結果的に有効だったような)余計なことを考えずにサイトを運営する」「アルゴリズムの欠陥を突くような手法を模索するのではなく、本質的にサイトの価値を高めることを考える」といった方向に、嫌でもシフトしていくことが求められます。

2014年もSEO頑張りましょう。それではみなさん良いお年を。

ヴォラーレ株式会社 土居

おすすめの記事

Googleから「再審査リクエストされてもしばらく審査しないからちゃんと時間かけてリンク削除してから申請して」的な通知が来た

ご存知のとおり、ウェブマスターツール経由での再審査リクエストに対するGoogleの対応の内容もこれまで色々と変更が加えられていまして、今日も初めて見る内容の審査結果通知メッセージが返ってきましたので簡単にご紹介します。

通知メッセージ内容

記事タイトルにもありますが、「再審査リクエストが大量に来ています」「すぐリクエストされてもしばらくは審査しません」「ちゃんとリンク削除してからリクエスト送って」というような内容が新しい内容と思います。

少し長いですが最近になって追記されたのは後半の部分ですね。その他はこれまでにあったような内容と変わりありません。

http://www.○○○.com/ のウェブマスター様から再審査リクエストを受け取りました。
貴サイトへのリンクを確認しましたが、一部が現在も品質に関するガイドラインに違反しています。

URL の例:
http://ダメリンク1.com/
http://ダメリンク2.com/
http://ダメリンク3.com/

上記の例に限らず、人為的なリンクはすべて修正するか削除してください。人為的なリンクが含まれているサイトのウェブマスターへの連絡が必要となる場合もあります。

サイトへのリンクを削除できない場合は、リンクの否認ツールを使用できます。単にリンクを否認するだけでは、再審査リクエストの承認に十分ではありません。Google では、ウェブから人為的なリンクをできるかぎり大量に削除するよう努力したかどうかを確認する必要があります。

リンクの削除には時間がかかります。Google には大量のリクエストが寄せられているため、またあなたの次の再審査リクエストが承認される可能性を高めるため、Google では今から数週間、このサイトからの他のリクエストを審査することはありません。時間を十分にとってサイトへの不自然なバックリンクを削除してから、別の再審査リクエストを申請することをおすすめします。

サイトへの手動による対策の状況について詳しくは、ウェブマスター ツールの [手動による対策] ページをご覧ください。このページからサイトの再審査をリクエストできます。
ご不明な点があれば、ウェブマスター ヘルプフォーラムをご利用ください。

という感じです。ちなみにこの再審査リクエスト自体はリクエスト送信から2週間以内の返信でしたし、その他でもここ数ヶ月はおそらく大量のリクエストが送られたであろうにも関わらずほとんどが1~2週間程度で結果通知が来ていました。

複数のサイトで同じような通知を確認できますのでサイト毎の個別対応というわけではなく汎用的に通知されているものと思います。

内情というか本当のところは知らないですけど、おそらくGoogleもここに対してそれなり以上のコストはかかっているでしょうし、本当にここ数ヶ月は再審査リクエスト多かったというのは想像に難くはありません。

大まかな意図としては、「こちら(Google)側では再審査リクエストについては対応に制限かけておくから、その期間は闇雲にリクエスト送るんじゃなくてきちんとリンクを削除して頂戴」という意図であるとそのまま解釈して良いのかなと思います。また「問題解決の進展がない中でのリクエスト乱発は意味ないからやめてね」と言い換えることもできるかなと。

もちろん、裏の意図としていい加減キリなくなってきたし対応回らなくなりそうだから防衛線として、ていうのもあるとは思いますけど。

本日はこんなところで失礼いたします。

ヴォラーレ株式会社 土居

おすすめの記事

今をトキメク大学生16人にSEOとか検索について色々聞いてみた

弊社で先日主催したMILLION DOLLAR BOOTCAMPという、砕けて言えばビジコン的イベントがありまして、かなり突貫な企画の割に50人を超える応募を頂き、その中から書類・面接による選考を経て選ばれた16名の大学生が参加してくれました。

イベントの概要としては、3年間で100億オーバーの時価総額を付けるようなビジネスのプランを企画して、それを最前線で活躍されているプロの投資家や経営者に向かって全力でプレゼンしよう、それを3日間で必死こいてやってみよう、みたいな感じの割と無茶で楽しそうなイベントです。金曜日にオリエンして土日で五反田の新オフィスに閉じこもって頑張りました。
(※ちゃんと学生の宿泊先とかは用意しましたので文字通り閉じこもったわけではないです)

今回、その中で参加した大学生には、事業計画を作るのに必要となる、経営に関する総論とかファイナンス云々の研修に加え、弊社の領域であるWebとかSEO、アプリのマーケットについても学んでみよう、的なプログラムもありまして僕はその領域で研修をさせて頂いたわけですね。

研修風景

折角なので検索とかSEOに関して色々質問してみた

自慢ではありませんが採用イベントなどの活動にはあまり積極的にアサインされない質ですので、大学生とかとまとめて話す機会って最近ほとんどないのですが今回はこういう機会なので色々聞いてみようと思って聞いてみました。

あと写真見て頂くと分かるかもしれませんがとにかくMacユーザーは多いですね。16人中10人以上がMacだったと思います。このあとでも書きますけどスマホ率100%ですし。僕が21才とかでフラフラしてた時はまだPHSとガラケーで2台持ちとかでしたし良く考えたらパソコン持ってなかったですしね。なんというか時代と世代の違いを感じます。

学生に聞いてみた

ということでまあ色々と話はあったのですが特徴的なところを掻い摘んでみます。

SEOって知ってる?

7割くらいは「何となくは知ってる」と応えてくれていたと思います。「どういうものだと思う?」と聞くと『検索したときにサイトが上のほうにくるようにすること』っていうのが一番多い答えですね。まあ間違ってはないです。

ちなみに数少ない経験上ですが、学生の就活のフェーズが進むにつれてSEOを知ってる確率は高くなります。どこかでどこかのSEO会社とかにぶち当たるとかメディア系の会社を見てるときにSEOがどうのこうのとかいう話は聞くんでしょうね。

ケータイはガラケー?スマホ?

16人全員がスマホでした。これも大学生と言ってもうちのイベントに来るような学生なのでそれなりにWebとかITに関する感度が高い人も多かったのですが、本当にこういうの始めてですとかいう子たちも3割くらいいましたので、もう何か時代の流れを感じますね。

普段使ってる検索サービスは?

16人全員が「Google」でYahoo!はゼロでした。僕はYahoo!なんですけど。(ちなみに入社する前はYahoo!とかGoogleとかあんまりわかってなくてずっとMSN Live Searchとかいうのを使ってました)

これ「スマホでの検索とPCでの検索どっちが多い?」て質問を忘れたので全く無価値な情報かもしれませんが、PCでの検索よりもスマートフォンがメインなんでしょうね。

Yahoo!がGoogleのシステム使ってて検索結果同じなの知ってた?

「知ってました」が4割、「へー知らなかった」が6割くらいでした。まあ検索結果がどうとかほとんど気にしないですよね。特に、普段から2つを見比べてる人って僕らのような人種だけでしょうし普通は決まったサービスをだいたい使うから違いとか気づかないですよね。

「就活」(完全一致)って月にどれくらい検索されてると思う?

この辺がやっぱり一般の人と検索に関わる人の感覚が大きくズレてると思ってまして、おそらく検索を普段から見てる人だと、ツール使って調べなくとも、多く見ても月間数万回、とか時期によって変動ありで夏場が谷で冬から春が山かな、くらいの感覚は皆さんあると思うんですね。

学生たちの回答としては、大まかには

  • 月間1000万以上…1人
  • 月間100万~1000万…10人
  • 月間10万~100万…4人
  • 月間1万~10万…1人

みたいな感じでした。「なんで百万回とか検索されると思うの?」と聞いたら「就活生がそれくらいいるから」という回答でした。まあ素直な回答で良いと思いますが思ってたよりも規模の大きなものと捉えているみたいですね。

検索結果で9位とか10位だと何%くらいクリックされると思う?

これもうろ覚えですが大まかには

  • 20%くらい…3人
  • 10%くらい…7人
  • 5%くらい…4人
  • 1%くらい…2人

くらいの比率だったと思います。10%くらい、というのが多かったですね。もちろんクエリのタイプとかにも左右されますが1%~2%くらいと見ておくのが一般的です。10%とかクリックしてくれると良いんですけどネットサーファーは基本的にはそんなに悠長じゃないんですよね。

※「うる覚え」ではなく「うろ覚え」です。2割くらい間違えている方いますよね。

まあ全体的にはこんな感じで、ビジネスではなくフランクな感じでSEO談義をするのはそれはそれで楽しいものだなと思い結構時間おして話をしました。終了後アンケートには「長かった」「集中力が持たなかったが頑張った」などのコメントを多数頂きました。

中には「最近て中古ドメインとか昔みたいに効果ないって聞いたんですけど実際どうなんですか?」みたいな質問もあり、「大人になったら分かるよ」とか答えようと迷いましたが無難に「使い方次第かな」的な回答をしておきました。

大人は質問に答えたりしない それが基本だ

仕事でSEOの話をするときは営業だろうがコンペだろうがほとんど本音でしかしゃべらないんですけど、まだ何も知らない学生さんとかにはまだ変なイメージは持たれたくないなあというところでキワドイ話題を振られるとちょっと言葉を選んでしまうところはありますよね。白も黒も知ってる、または知っておいた方がよい人には何でもガシガシ伝えますけど。個人的には「よく分かんないけどなんか怪しいよねSEOって」が一番悲しいなと。

まずは綺麗な、というか本来あるべき側面を見てもらってその価値を理解してもらって、ただ実際にはその現場でおきてる色んな事情もそれはそれでなぜそういうことになっていたかとかも含めて知ってもらって、それでもなお、楽しそうな仕事、これから本格的に挑戦し甲斐のある市場なんだなと思える人がいれば嬉しいなと。

それはさておき普通に楽しいイベントでした

ビジネスプランとかは週末を使って僕らのような一部の社員がメンターとして付きつつ、4人ずつ4チームに分かれてプランを組むわけですね。なんか文化祭とかああいう感覚で懐かしいなーという感じでした。こんな感じで。

プレゼン資料作成の作業風景

とは言ってもですね、普段からそういう感覚でいるわけではない学生たちが、3日間でプロの目にかなうようなプランを考えてまとめて、レジュメとか事業計画書、簡易的なPL、プレゼン資料とかのドキュメントをまとめて、プレゼンの練習して、なんてのはそんなに簡単なことじゃないので、準備はみんな必死でしたね。夜もほとんど寝ないで頑張ってるチームもありましたし。

審査員も豪華な顔ぶれでみなさん割と素直にケチョンケチョンに言って頂いていて、悔しい表情の子たちも結構いましたが、と言っても実際の投資家や経営者にプレゼンしてフィードバックもらえるとか超貴重な体験ですしね。

偉い人たちにケチョンケチョンに言われてる感じ

なんか自分のチームの子たちの企画のプレゼンとかなんか親心みたいな感じでソワソワしながら見守っていましたが残念ながら総評で2位でした。ちょっと切り口変えて見せれば全然印象変えられたと思うので個人的にも反省でした。

こういうのは好きなので今後もやれたら良いなーと思っています。なんだかんだ学生の子たちもSEOとかの話にも結構興味もって面白そうに聞いてくれてて(多分)、そういうのは何か素直に嬉しいですしね。またこういう機会あれば関わらせてもらえると嬉しいなと思います。

集合写真

運営チームの皆は本当にお疲れ様。

ヴォラーレ株式会社 土居

おすすめの記事

スマートフォン版サイトがないのにスマホとPCで検索順位が全然違う、という事例を調べてみた

6月に、「スマートフォンユーザーにとって著しくユーザーエクスペリエンスを損ねるような実装をしている場合、スマートフォン検索においてのみランキングを下げることがある」というような話題がありました。

※参考:Google ウェブマスター向け公式ブログ: スマートフォン向け検索でのランキングの変更について

先日、うちのメンバーに頼まれてあるクライアント様のサイトを調査してみたところ、それに近い話題で、ただちょっと特殊っぽい事例にあたりましたので紹介しておきます。

結論:スマホでは普通に見れるけどGooglebot-Mobileには不適切な転送設定されていた

ざっくり言いますと、「通常のスマホブラウザでは問題なくレスポンスが返されてサイトが閲覧できるのに、スマートフォンのUAを持ったGooglebot-Mobileに不適切なリダイレクト、具体的には『全てTOPページへ転送』のような設定がされていた」という状態でした。

と言われても何のこっちゃピンと来ないという方も多いと思いますので簡単に解説していきます。

解説

まず状況としては、

  • 少し前からスマホ検索でのみ検索結果に表示されなくなった
  • でもスマホサイトもないし、スマホでの閲覧も問題なく出来る
  • 変なリダイレクトがかかってたりする様子もない
  • PCサイトでは問題なく検索トラフィック伸びてるのにスマホだけ激減してる

という感じで、最初は検索結果のバグかテストか何かかな?とも思ったのですが、それなりの期間そういう状態だったのでそういうわけでもなく、何かしら致命的な問題があるはずと思って改めて調べてみたわけですがしばらくの間は良く分からんという感じでした。

ようやく思い立ってFetch as Googleで投げてみた

ちなみにFetch as Googleって何、という人のために言うと、「Googlebotがどういう風に情報を取得しているのかを確認できる、ウェブマスターツールの機能」です。こんな感じです。

ウェブマスターツール左メニュー「クロール」から「Fetch as Google」の機能を選び、URLを指定してクローラの種類を指定する
こんな風にURLとクローラーを指定すると、

Googlebotが受け取る情報がそのまま表示される
こんな風にクローラーが受け取る情報を表示してくれます。(↑はテストなので気にしないで下さい)

さて話を戻しますが、ChromeでUAとかいじくりながら色んなUAでアクセスしてみても全部通常に見れて、冒頭の記事にあるように「スマホ閲覧に苦しいくらい表示が遅い」なんてこともないし、何だろうなあと思いながら色々見てたのですが、「あ、Googlebotで見てない」とようやく気付いてウェブマスターツールでFetch as Googleで投げたんですね。

そうしたら案の定、スマホUAを持ったGooglebot-Mobileでアクセスすると「リダイレクトループになる」とか「全てのURLがTOPページにリダイレクトされる」的な感じになっていました。Fetch as Googleで取得した情報は以下のようなものでした。

HTTP/1.1 302 Found
Date: Wed, 13 Nov 2013 11:36:07 GMT
Server: Apache
Location: http://www.**********.jp/
Keep-Alive: timeout=15, max=99
Connection: Keep-Alive
Transfer-Encoding: chunked
Content-Type: text/html; charset=iso-8859-1

<!DOCTYPE HTML PUBLIC “-//IETF//DTD HTML 2.0//EN”>
<HTML><HEAD>
<TITLE>302 Found</TITLE>
</HEAD><BODY>
<H1>Found</H1>
The document has moved <A HREF=”http://www.***********.jp/”>here</A>.<P>
</BODY></HTML>

※この辺りの見方についてはHTTPステータスコードについての記事を参考にしていただければと。

まとめ

「スマホ版のサイトを持ってないなら、変な仕様になってスマホ検索結果で変な結果になることはないはずなんだけどなあ」というところでちょっと先入観ありましたがあくまで情報を取得してるのはGoogleのクローラーなのですからそちらでチェックしないといけないですね。

あまり汎用的ではない話題だと思いますが、ここ最近だけでも数回、スマートフォン検索での検索結果が下がった、などの相談を頂きましたが、どれも不適切なリダイレクトなどの初歩的な設計ミスが何かしら発生しているという状態でした。

そもそも冒頭にあるような話題をキャッチアップしていなかった人は必ず知っておくべき事項ですし、こういう細かな設定ミスでもトラフィックに重大な影響を与える可能性もあるということで、きちんと予備知識として再確認をしておけると良いですね。

ヴォラーレ株式会社 土居

おすすめの記事

titleタグなどのキーワード最適化は「ページの内容」ではなく「検索する人」に合わせて言葉を書く

SEO視点でのキーワードチューニングについて書きます。比較的ライトな話題ですが大切なのに意外に考えられていないことも多かったりするなあと思いますので、というかそう思うことが何度か最近あったので書いてみることにします。自分で言うのも何ですが得意な領域ではありません。

キーワードは「ユーザーが検索に使う言葉」を使う

概要として何が言いたいかと言いますと、「ここはこういうページだからこのキーワードを入れる」「ここにはそういうキーワードを入れるのはちょっと違和感」みたいな感じで行くと、上手くいかないことは結構ありますよね、ということです。

そうではなくて、「このページを検索して探す人というのは(一連の検索行動に)どんな結果を期待している人で」「その人はどういう言葉を使って検索するんでしょうね」ということを考えないと本当はいけないと思うのです。

例:「○○ ランキング」みたいな検索

例えばですけど「結婚指輪 ランキング」という言葉。これ、直接的な検索の意図としては「結婚指輪のブランドの人気ランキングが知りたい」とかなんでしょうけど、このキーワード、ランキング形式とかじゃない普通のブランドサイトをLPとしても結構コンバージョンしますよね。

要はこの人の元のニーズを単純に考えれば「結婚指輪を探してる」人なんですよね。たまたまその手段として「ランキングで比較して調べよう」って思いついたからその検索を行っただけであって。

本質的に検索に求めるものと実際に検索窓に打ち込むものとは必ずしも一致しない

なので「うちはランキングサイトじゃないからランキングという言葉は要らない」という考え方は、ある意味正しいのかもしれませんが完全に捨ててしまうのはそれはそれでロスになってますよということが言えるはずです。

「このページはこういうページだから」よりも「この検索をする人が何を求めて検索してるのよ」ということを考えたり、CVに直結するようなワードでは「この検索をするような人はコンバージョンするの?しないの?」ということを考えるほうが重要ですよね。

更にその言葉がドンピシャでSEOで上位ヒットさせられるかとかコンテンツが作れるかとかはその後の話であって。(もしドンピシャでなければその言葉を含んだ細かなロングテールの掛け合わせ検索にコンテンツの可能性を探ったり云々)

SEOとリスティング広告の大きな違い

前出の例で言えば、ブランドサイトがランキング形式じゃないのにランキングという言葉にバシッとヒットするようなコンテンツを作るとか考えるというのはそんなに簡単なことではないと思います。こういうのは結構難しいなといつも感じるところです。

個人的に感じるSEOとリスティング広告の一番大きな違いはこういうところだと思ってるんですよね。短期的な云々とか中長期的な視野でとかいうよりも、「キーワードが(受け口となる)ページのテキスト情報に依存する」のがSEOで「ページのテキスト情報に依存せずにキーワードを考えられる」のがリスティング広告で、という感じで。

ですからリスティングで効果のあるキーワード→SEOでそのキーワードで上位表示、という昔からの常套手段的なアプローチですが、無理やりSEOでやろうとすると結構無理やりになったり効率悪くなったりするキーワードも中には含まれることもありますね。

例えば賃貸とかでも「ペット可」とか「保証人不要」とかこういう言葉ってSEMでCV穫れるイメージありますけどSEOでこの単ワードの上位を狙っていくのってそんなに簡単ではないですしね。何も考えなければ「エリア+賃貸」的な掛け合わせにSEOは寄りがちです。

「正しい言葉よりも候補に漏れないこと」

ここから先はどんどん話がそれていくのですが、何年か前にどなたかがブログかツイッターか何かで言ってらっしゃった言葉が印象的で未だに覚えているんですが「文章や言葉として正しいことより、検索結果で候補に漏れないことが大事」という感じのことですね。

確かこの発言自体は広告文の作り方か何かの話題だったと思うのですが、SEOのタイトル付けに関してもこれはほんとその通りだなと思ってまして、自分でSEO考える時には必ず意識するようにしています。日本語として矛盾があっても構わない、多少の羅列でも構わない、とか。助詞を変に使わずに半角スペースで区切る、とか。(もちろんウンザリするような羅列や詰め込みは色々アウトですよ)

※この辺の話題であんまり下手に掘り下げて変なこと言うとSEM專門の人達とかから怒られそうな気がするのでこの辺にしておきます汗

動的なサイトの検索結果ページなどのタイトル付け

「検索に漏れないことが大事」という意味では、動的に吐き出されるテンプレートの中のタイトル設計を見ていても、意外に「カテゴリ名 | ☓☓なら△△ナビ」みたいな感じになっているものも結構多いですが、これは検索という観点から見ても非常に勿体ないことですよね。

弊社のApplivというサイトでも結構な数の一覧ページがありますが、こんな感じで出し分けるようにしています。

実際の「家計簿アプリ一覧ページ」

例えばですが、「家計簿」というジャンルの一覧ページのtitleタグ表記とmetaディスクリプション表記について見てみます。(無料アプリ版ページも合わせて書いておきます)

(デフォルトの一覧ページ)

家計簿 アプリランキング | iPhone/iPadアプリ - Appliv
Applivでは「家計簿」に関連するiPhoneアプリ・iPadアプリを135件紹介しています。 Appliv独自のランキングやユーザーレビュー、アプリ画像などから、人気・おすすめの アプリを探すことができます。

(「無料」で絞り込んだ一覧ページ)

無料 家計簿 アプリランキング | iPhone/iPadアプリ - Appliv
Applivでは「家計簿」に関連する無料iPhoneアプリ・iPadアプリを75件紹介しています。 Appliv独自のランキングやユーザーレビュー、アプリ画像などから、人気・おすすめの アプリを探すことができます。

このような感じのタイトルやメタディスクリプションで今のところやっています。日本語として正しいかどうかは置いておいて、アプリを探す検索の組み合わせでかなり多い「ランキング」「無料」「おすすめ」「人気」などの主要な言葉は全て押さえておきましょうという感じです。もちろん検索結果表記だけでなくページ内でもそういう言葉が必ずでるようには設計しています。

要は「漏れたくない」のです。なのでちょっとキーワードの羅列的な表示であっても、検索結果で目についてクリックしてもらえればそれで良し、としています。

※もちろん絞りこまれた検索になるほど「全てのキーワードが書いてある」を満たさなくても、ある程度意図を満たしそうなものであれば検索にも普通にヒットするのですが、とは言えそれが「敢えて大事な言葉を書かない」理由にはならないと思っています。

勿体無いなあと思う形(例)

例えばよく見るのはこんな形です。同じような一覧ページがあったとして、

(デフォルトの一覧ページ)

家計簿 | Appliv[アプリヴ] - iPhoneアプリ・iPadアプリが探せる、見つかる
家計簿のページです。22196件のアプリレビューと独自のランキングから、あなたが欲しいアプリを探すことが できます。新着アプリもおすすめアプリも、iPhoneアプリ・iPadアプリをお探しならAppliv にお任せください。

(「無料アプリ」の一覧ページ)

家計簿 | 無料アプリ | Appliv[アプリヴ] - iPhoneアプリ・iPadアプリが探せる、見つかる
家計簿のページです。22196件のアプリレビューと独自のランキングから、あなたが欲しいアプリを探すことが できます。新着アプリもおすすめアプリも、iPhoneアプリ・iPadアプリをお探しならAppliv にお任せください。

こんな感じでしょうか。よくあります。こういうのだからヒットしないということはありませんが、掛け合わせ検索への対応はちょっと弱くなると思います。もちろんこのようなタイトル付けですとクリック率が下がることもあるでしょうし。

まとめ

珍しくこういう話を触れましたが、SEOの基本として「(よく検索される)大事な言葉は必ずタイトルや文章内に出現させる」ということはどこの本でも書かれていることですが、システムが絡んだり大きなサイトになったりすると、テクニカルな要件が優先されてこういうところは意外に抜け落ちやすいのかなあなどと思ったりもしています。

また制作する方がそういう要件を必ずしも汲んでサイトをいつも作っているかといえばおそらくそうでないことのほうが圧倒的に多いとは思っていますので、企画する人というかSEOに理解がある方がこういうところはある程度考えてサイトは作った方が良いですよね。

細かなテキストチューニングを行う場合とか、SEOの目標とする主要なキーワードを選ぶとかそういう場合にも、まずは「検索する人が使う言葉」を使って、「検索結果できちんと目にとまる」ことを意識するだけで、比較的大きな改善ができるサイトも多いんじゃないでしょうか。

ヴォラーレ株式会社 土居

おすすめの記事

WordPressって何?という人が読んでも5分で何となく分かる記事

今回はこのブログでもお世話になっているWordPressについて解説します。WordPressって何?という人向けの記事です。

WordPressとは?

WordPressはCMS(Contents Management System)というものの1種です。直訳で「コンテンツ管理システム」です。

通常、Webサイトを作成・公開するためにはHTMLやCSSの知識が必須ですが、WordPressに代表されるCMSを利用すればそのような専門知識などをもっていなくとも文章や画像といったコンテンツさえ準備する事が出来ればWebサイトを作成・公開する事が出来ます。Webの専門知識がない人でもブログなどでWebに記事を公開できるのは、そういう仕組みがあるからですね。

しかし一口にCMSといってもめちゃめちゃ幅広いものです( Google検索「CMS 種類」 )。

そのたくさんあるCMSの中でも特に多くのシェアをもっているのがWordPressなんです。

WordPressが使われる理由

WordPressには他のCMSと比較して以下のような特徴を持っています。

情報が豊富

ユーザが多いので情報が豊富です。WordPressに関する書籍は数え切れないくらい出ていますし、何か困った事が起きてもGoogle検索で大体の事が解決できます。

Webサイトの基本的な構造が作りやすい

トップページが有り、カテゴリページが有り、タグページが有り・・と言った基本的なWebサイトの構造をHTMLをいっさい触らずに作る事ができます。

プラグインが豊富

プラグインというのはWordPressに追加機能を簡単に付与させる事ができる仕組みです。サイトの表示を高速化するものや、サイトのバックアップを助けてくれるものなどたくさんのプラグインが有ります。「こんな機能があったらいいのにな・・・」と思う機能はだいたいプラグインを探せば有ります。

テーマが豊富

テーマはWebサイトの着せ替え機能みたいなものです。記事や画像、カテゴリやタグなどの情報はそのままに、サイトの見た目部分を変更する事が出来ます。

WordPressはテーマを作成して公開、利用する仕組みがよく整えられていて、世界中のデザイナー、デベロッパーが作成した様々なテーマが無料で公開されています(有料のものもあります)。ユーザはそれらを自由に利用する事ができ、自分でテーマを作成して使用する事もできます。

つまるところ、WordPressが多くのシェアを獲得している理由としては、

  • 数あるCMSの中でもすごくポピュラーで情報がたくさんある事
  • HTML、CSSなどの詳しい知識が無くても大丈夫なお手軽さ
  • プラグインやテーマなどが自由に使える拡張性の高さ

というところかなと思います。

WordPressの仕組み

さてここからは、WordPressというCMSが、どのような(技術的な)仕組みで動いているのか?管理画面から投稿した記事や画像が、どのようにWebサイトとして反映されているのか?ということにも触れていきたいと思います。

WordPressのサイトにアクセスしてサイトが表示されるまでの流れ

WordPressでは、ユーザが投稿した記事やそれに対するコメントなどが直接HTMLのファイルを生成する訳ではありません。

WordPressは「PHP」というプログラミング言語で構築されており、コンテンツの管理には「MySQL」というデータベースを利用して、CMSとしての機能を実現しています。

WordPressで作成されたWebサイトにアクセスした時、ブラウザあるいはブラウザの向こう側で一体どういう事が起きているのでしょうか。サイトが表示されるまでのざっくりとした流れは次の通りです。

1. ブラウザはサイトに見たいページの情報を送ります。
2. サーバサイトにアクセスがあるとPHPが動作し、MySQLから記事やコメントなどのデータを取り出してHTMLを生成、送信します。
3. 送信されてきたHTMLを、ブラウザがうまく変換して表示します。

ブラウザがサーバーにアクセスし、PHPがMySQLのデータを参照しHTMLを生成しブラウザに返すという流れ

WordPressを動かすPHPと、データを保存するデータベースが分かれており、連携して1つのページを表示させるというのがポイントです。

コンテンツの管理にデータベースを使う理由

WordPressではコンテンツの管理にデータベースを利用していると説明しました。

このような仕組みを取る事で「コンテンツ」と「Webサイトの器(≒テンプレート)」を別々に管理する事が出来るようになっています。

例えば、MySQLを操作するためのSQL文が書ければデータベース中のコンテンツを一斉に扱う事が出来ますし、HTML、PHP、CSSが書ければ自由なレイアウト、デザインでコンテンツを展開出来ます。

HTMLはPHP、CSSの部分とコンテンツの部分を別に管理しているから、独立してデザインの変更などが行える

また、Webサイトの見た目をテーマによって簡単に切り替える事が出来たり、プラグインによる拡張が容易に行えたりといった機能を提供できるのも、コンテンツ管理にデータベースを利用しているおかげです。

コンテンツをデータベース化し、表示をプログラムで作るという仕組みがWordPressの汎用性、拡張性の高さを支えているのです。

SEOから見るWordPress

WordPress自体にSEO効果があるという情報をよく見ますが、それは正しいと言える側面もある一方、捉え方次第では誤解を招きそうなので、SEOに関することも最後に解説しておきます。

別にWordPressを使ったからといってSEO効果があるわけではない

SEOとは「Webサイトが検索エンジンから正しい評価を受ける事が出来るように最適化する事」です。SEOを正しく行う事でWebサイトはその存在を正しく検索エンジンに理解・評価してもらう事が出来ます。そうする事でWebサイトは適切なキーワードにおける適切な順位に登場する事が出来るようになるのです。

ですので、WordPressを使ったからといってそのサイトが検索結果のより上位に表示されるかというと、そんな事はありません。それを踏まえた上で、WordPressはSEOとどういった相性にあるのか考えてみます。

SEOを行うには都合が良いという点はある

WordPressを使っただけでSEO的に何か効果があるかといえば全くそんな事は無いという話は先にしました。ただし、SEOを行う上で都合が良い点はあると言えます。

例えばプラグインを使って簡単に記事毎のmetaディスクリプションやキーワードを設定出来たり、カテゴリ、タグ構造を用いた内部リンクの調整やアイキャッチ画像の設定がやりやすかったりと、サイト訪問者がサイト内を迂回してくれるような仕組みが作りやすかったりします。

つまり、WordPressそれ自体にSEO効果は無いですが、SEOを比較的やりやすいのがWordPressだ、という認識で良いと思います。

全体まとめ

まとめると、

  • WordPressは最も使われているCMS(コンテンツ管理システム)の1つ
  • WordPressは文章やコメント、画像などのオリジナルなコンテンツと、サイトそのものの構造や見た目を切り分けて管理できる。
  • だから、コンテンツをそのままにサイトの構造やデザインを容易に調整できる。
  • 情報の豊富さ、ユーザの多さからWordPressにまつわる大体の事がググればなんとかなる。
  • WordPress使えばSEOばっちりかと言えばそんな事無い。
  • ただし構造の変えやすさ、SEOを助けるプラグインの存在などから、SEOはやりやすいと言える

という感じです。どうでしょう。WordPressがどのようなものなのか、ざっくりと伝わったでしょうか?この記事で少しでもWordPressに興味をもっていただけると嬉しいです。

ヴォラーレ株式会社 工藤

おすすめの記事

Webサイト高速化・表示速度改善のために知っておきたい基礎知識

Webサイトを高速化をする事によって得られるメリットは様々あると思いますが、ユーザーエクスペリエンスの改善といった話とは別に、個人的にはサーバの台数が減らせるというのも大きなメリットだと思っています。サーバサイド側のエンジニアとしてはやはりサーバの台数が減ればコストも下がるし、運用も楽になりますので、SEOに関わらず努力したいところではありますね。

しかしながら、「高速化しよう」「表示速度を改善しよう」といっても、実際にどういうところに高速化を阻害するような要因があるのか、ということを知っていなければそもそもどう取り組んで良いか分かるはずもありません。

ということで今回は、技術者の方でなくともサイト高速化のポイントがある程度理解できる(多分)ように、最低限「こんなことがあるのね」というポイントを大まかにまとめてみました。

高速化のための基礎知識

高速化という言葉の中には、大きく分けて2種類の概念が存在します。

  1. フロントエンド側での高速化
  2. サーバサイド(バックエンド)側での高速化

フロントエンドとは

ここで定義したいフロントエンドとは「HTML・CSS・JavaScriptなどの技術」と解釈してください。噛み砕いて言えば、「ページがブラウザに表示される」という部分に関する部分がフロントエンドということです。フロントエンドの領域では、ある程度HTMLが書ける方ならポイントさえつかめれば誰でも高速化する事が可能です。

サーバサイド(バックエンド)とは

サーバサイド(バックエンド)側、というのは文字通りサーバー側での最適化なのですが、状況によって見るべきポイントが異なりますし、ある程度は専門的な知識が求められるので、誰でも簡単に高速化、というのは難しいことも場合と思いますので、今回はいくつかの要素について掻い摘んでお話しようと思います。

フロントエンドの高速化

これに関しては様々な方法があると思いますが、シンプルに考えて以下の3つを注意した上で高速化を行っていけばいいと思います。

  1. サーバーへの通信の回数を減らす
  2. サーバーへの通信量を減らす
  3. レンダリングの速度を低下させない

1.サーバーとの通信の回数を減らす

まず、普段ウェブサイトを表示する時のブラウザの動作を考えてみましょう。ウェブページにアクセスする際には、ブラウザに「http://xxxx.○○.html」などといったURLを入力したり、リンクをクリックしたりすると思いますが、このサイトを開く場合にサーバへのアクセスは何回になるか?

と聞くと、意外に「1回しか通信しない」と思っている人も多いのではないでしょうか。

実は「http://xxxx.○○.html」を開いて中のHTMLを確認するまで、実際に何回サーバーとの通信が発生するかはわかりません。

なぜ開くまでわからないのか?といえば、それはHTML書かれている内容によって通信回数が異なるからです。通信回数はHTMLの中に記述されている、画像、外部CSSファイル、外部Javascriptファイルの数によって変わってきます。

外部ファイル化されたスタイルシート(CSS)やJava Scriptは、都度そのファイルの情報をサーバーから受け取ります。同じく画像ファイルも、都度サーバーから情報を受け取っているため、画像ファイルが多ければ多いほど通信も多く発生しています。ブラウザにキャッシュが残っている場合には、サーバーとの通信は発生せずキャッシュの情報を読み込みます。

単純に考えて画像の数だけ、CSSの数だけ、Javascriptの数だけ通信が発生していまします。
※304を返す場合は通信は発生しません。ステータスコードに関しては「よく見るHTTPステータスコード一覧とその意味を理解する」を参照してもらえればいいのかなと思います。

通信回数が多いということは、その分だけ表示が遅れることにつながりますので、なるべく少ない通信回数で表示が完了できるようにするという事がまず大切です。もちろん、決して「通信を1回に押さえろ」というわけではなく、あくまで無駄な通信をしないということです。

2. サーバーへの通信量を減らす

通信の回数、ではなく「通信量」を減らすということをイメージすると、例えば画像ファイルの容量を減らすことが思い浮かぶ方が多いと思いますが、そういうことです。画像や動画ファイルはファイルサイズがとても大きいので、通信量が増えます。

この点では、本当に基本的な事かもしれませんが、読み込むファイルのサイズを減らすということが重要になります。一番多くのサイトに関係があるのはやはり画像ファイルだと思います。

「これ以上は画質を荒くしたくない」という事情は多々あると思いますので、そんなときは、画質を落とさずにファイルサイズを減らす「画像の最適化」を行います。

通常の画像データにはウェブページとしては不必要なデータが含まれている事があります。それらを排除することで、ファイルサイズを軽くする事が出来ます。画像によっても変わってきますが、相当ファイルサイズが減るのでおすすめです。

最適化する際は専用のソフトウェアがあるので、そちらを使いましょう。

ちなみに、余力があれば、CSSとJavascriptのファイルサイズも少なくした方が良いと思います。もともと、画像に比べたらファイルサイズは小さいのですが、それでも軽量化をするべきだと私はを思います。

ある程度ウェブサイトを長年運用していると、CSSやJavascriptが徐々に追加され、気づいたら容量が増えていたなんてことがあります。また、簡単に軽量化できるので、導入しやすさもあります。

ただし、不必要なJavascriptやCSSは削除してしまえばいいんじゃないの?って思う方もいるかもしれませんが不必要だと思ってたら、必要だったCSSの記述だとか、使っていないと思っていたJavascriptの関数を削除してしまったり…と、もちろん不必要な記述は削除するべきですが、現実的にはなかなか難しいと思います。

そんなときは「ファイルの圧縮」を行います。不必要な空白や改行を削ってCSSファイルや、Javascriptファイルを軽量化する手法です。

もちろんエディタ等の置換機能を駆使して、消していく事もできますが、何千行なんてCSSやJavascriptファイルだった場合はとても大変なので自動で変換してくれる便利なツールがたくさんあるのでそちらを使いましょう。

3.レンダリング(≒HTML解析~ブラウザ表示)の速度を低下させない

ブラウザの表示速度を遅くしてしまう要因は通信だけではありません。HTMLの記述のしかた一つでブラウザの表示速度も下がってしまう場合もあります。

例えば一昔前はよくJavascriptをheadタグのなかに記述している事が多かったと思いますが、最近ではbodyの閉じタグの直前に記述するのが主流です。(ただし、Google アナリティクスの計測用コードなどはhead内に記述したほうがより正確な計測が出来るといった事情もあるように、必ず・全てということではありません。)

headタグ内への記述を推奨されない理由は、ブラウザの表示速度が低下してしまうからです。たとえばheadの中に外部Javascriptの読み込みがあると、その時点でJavascriptの読み込み、実行がされてしまいます。その間ブラウザは表示に関する処理は止まってしまうので、ユーザーに取ってはその分表示されるのが遅く感じてしまいます。

headタグ内にJSのタグが存在すると、これらのスクリプトが先に処理、実行される。bodyタグ内のコンテンツの表示はJSの処理が完了してから行われるため、<br />
				体感として表示が遅くなってしまう。

そこで、先にブラウザに表示できるものを表示させて、あとからJavascriptの処理をさせるという順序にすれば、体感的にユーザーに遅さを感じさせないようにすることができます。

body閉じタグ直前にコードが入っていれば、コンテンツの表示が完了してからその処理が実行されるため、その分ユーザーの体感速度は改善する。

もちろん1つ2つの処理であればそこまで影響が出ることは無いと思いますが、大量にJavascriptファイルがある場合などは大きな影響が出る可能性があります。

サーバサイド(バックエンド)側での高速化

さて、ここからは簡単にサーバサイド側の高速化の話を軽く触れていきたいと思います。どうしても技術よりの話題になりますので普段全く技術に関わらない方はナナメ読みで良いと思います。

サーバサイドは本当に様々な条件によって変わってきますので、状況によって高速化の手法はバラバラです。Ruby、Python、NodeJS、Perl、Java、PHPなどプログラミング言語によってももちろん違いますし、BtoCなウェブアプリケーション、BtoBなアプリケーションなど、ターゲットによっても変わります。また、サーバのスペックなどによっても変わってしまいます。非常に複雑で、ある程度以上の専門的な知識が必須になります。

とは言っても、高速化に関してサーバサイドで重要な事は、突き詰めていけばたった一つだけ。「ブラウザに返すレスポンスの速度を上げる」ということです。

特に速度が遅くなりやすい部分、アプリケーションによるデータベースの扱い方について私が意識的に注意している部分に関して簡単に掻い摘んで説明します。

使わなくてよい物はDBを使わない

Webアプリケーションではほとんどの場合、何かしらのデータベースが使われています。データベースは非常に強力なソフトウェア(ミドルウェア)ですが、アプリケーションから使い方を間違えると速度の低下につながります。

ついつい、データベースで何でも管理したくなってしまいがちですが、データベースに入れなくていいデータを入れるのはやめましょう。特にセッションデータをデータベースに入れているケースをたまに見かけますが、なるべく控えたほうがいいです。

このセッションデータと呼ばれる物は、ユーザーがアクセスする度にデータを取得して、更新して書き込むということが発生します。リクエストが発生する度に、データベースへの書き込み処理、読み込み処理が発生してしまうので、データベースに不要な負荷を与えてしまいます。

キャッシュを活用する

当たり前の事かもしれませんが、データベースは呼ばれれば呼ばれるほど、速度が低下します。小さい事かもしれませんが、比較的変更の少ない固定されているデータ「商品マスタ」「ユーザー情報」などはキャッシュしておくべきです。ユーザー数やアクセス数が多いサービスにはかなり有効な方法です。

※ただし、キャッシュを多様しすぎると、正しくないデータがブラウザに表示されてしまうなんて事もあるので使用する際は注意してください。

実行しているSQLの最適化

データベースを使う場合に、本当に最適なデータベースの使い方をしているのか見直しましょう。データを取得する際にSQLを使用しますが、その際に実行されているSQLが意図としたSQLになっているのか?見直してみると無駄がある事も多いので、ここは慎重に確認するべきです。

データベースのインデックスの見直し

データベースの高速化の技術の一つにインデックスという物が存在します。本で言うところの「索引」と同じような物ですが、このインデックスの設定の仕方で速度が何倍も変わってきます。

良いインデックスというのはデータベースの設計やアプリケーションによって変わってきますが、インデックスがしっかり使われているかを確認しましょう。

非同期処理でデータを保存する

データベースにデータを保存する際に、「保存しました」というレスポンスをデータベースから帰って来るのを待っていると速度が遅くなってしまいます。書き込む量が多くなれば多くなるほど速度は遅くなってしまいます。

大切なデータに関しては同期的に対応するべきですが、そこまで重要じゃないデータに関しては非同期で保存するという方法は有効です。

不必要なデータは保存しない

データベースはデータ量が多くなれば多くなるほど、速度が低下してしまいます。不必要なデータを保存するのは避けた方がいいです。

分割を意識した設計

データ量が多くなってしまうデータベースでは、データベースやテーブルが分割されても大丈夫なような設計をするべきです。

、、など、見るべきポイント、高速化を阻害する要因というのは様々あります。

まとめ

ウェブサイトの高速化というと例えば「CSSスプライトを使いましょう!」などのフロントエンド寄りの話が話題になりやすいですが、こういったサーバサイドでもしっかりと対応するために、どの程度のユーザーが使うのか、どの程度の規模のサービスなのか?といったあたりも意識しながらウェブサイトを設計・構築することが重要です。

サイトの高速化について大まかに掻い摘んで書きましたが、まだまだやらなければ行けない事はたくさんあります。今回紹介したポイントを意識して最適化することにより、確実に高速化できるのではないでしょうか。

ヴォラーレ株式会社 望月

おすすめの記事

自社メディアを事例としたSEOセミナー開催のお知らせ+過去に開催したセミナーの開催報告

ここのところ更新を完全にサボっておりましたが丁度良い話題として久々にセミナー告知させて頂ければと思っております。

ApplivのこれまでのSEOや現状についてゴリゴリお話します

昨年リリースした自社サービス「Appliv」がちょうど運用歴1年となりましたので、これまでのSEOへの取り組み方や、その経過報告などをしたいと思っています。トラフィックデータの公開とかは積極的に行いますのでそれだけでもそれなりに面白いと思います。

詳細:ヴォラーレSEOセミナー「広告を一切使わず1年で700万PVのメディアを作る方法」

ここでも補足で概要をご案内しておきますと、Applivは、簡単に言えばiPhoneアプリやiPadアプリを探すためのサイトです。本家のApp Storeさんやアプリレビューサイトの代表格のAppBankさんなどに比べて「ジャンル・目的でアプリを探す」ことに特化したメディアです。

ちなみに1年で700万PVてどうなのという声もあると思いますが、少なくともたくさんのPVを集めること自体を目的として運営しているサイトではありませんのでそこの数字自体はオマケで捉えて頂ければと思います。

どなたかが何かの記事で「メディアは1000万PVを超えてようやく中堅、1億PVを超えるとブランドに」というお話をされてたのですが(ソースを見つけられません、、ご存知の方いましたらお知らせ頂けると幸いです。)そういう意味で現状のApplivはまだまだ人間で言えば思春期に入る前くらいの段階だと思います。

2013年のオーガニック流入はこんな感じで推移しています。

当日お話するのはPV集めのテクニックではなくてあくまでこのサイトがどのようにSEOを行いどのような結果に至っているか、という情報を参加者の方に共有する目的が主となります。

今回は自社サイトの具体的なデータまで開示しますので珍しく有料とさせて頂けますが、他のサイトが1年間どのようなことを行ってきたのかということをお話しますので相応の価値はあると思っています。というか出せるように頑張ります。

詳細・申込はこちらから:http://www.seohacks.net/seminar/201309/

過去のセミナー開催のご報告

こちらもそういえば毎月ご報告します、というお話でしたが全然していなかったですね。基本的にはSEOセミナーは今も毎月開催していまして、こちらの過去の開催分についても簡単にまとめさせて頂きます。

8月:解除事例から見る 最新被リンクペナルティ解除対処法

開催:8月23日(金) 講師:實川  セミナー詳細はこちら

2012年以降、ペナルティ解除やリンク否認ツール、再審査リクエストなどに関連する話題は日常的に見るようになりましたが、Google側の対応含めてその内容はかなりの速度で変化をしてきています。最近では手動対策ビューアの登場などで色々と戸惑った方も多かったと思います。

今回のセミナーでは、8つの事例を元に、再審査リクエストのドキュメント作成例や、否認ツールの効果の有無、警告メッセージ受領→ペナルティ解除までの順位推移事例などについてお話させて頂きました。

リンクペナルティ関連のに関しては状況が順次変わっているものですので何ヶ月かに一度は今後も開催していきます。

過去の開催レポート:「ペナルティ解除はやるべきことを着実に、ただひたすらに泥臭く」
関連記事1:不自然リンクによるGoogleペナルティ解除事例 (基礎編)
関連記事2:不自然リンクペナルティ・再審査リクエスト絡みの質問を20個集めて汎用的かつ無難なQ&A集を作ってみた

7月:一から学べるSEO基礎セミナー

開催:7月26日(金) 講師:山田  セミナー詳細はこちら

内容としては久しぶりに超基礎に絞ったセミナーでしたので内容は割愛しますが、これまでのセミナーの中では圧倒的な自由度を表現できたセミナーだったのではないかと評価しています。

少しばかりスライドの一部をご紹介しておきます。




6月:キーワード選定プロセスを学ぶ

開催:6月21日(金) 講師:土居  セミナー詳細はこちら

珍しく(やったことなかった話題だったので)キーワード選定に関する内容でお話しました。

こちらはまとめようと思ったらkenjieeen’s blog様が内容を簡潔にまとめて頂いておりましたので、こちらをご紹介するに留めることとします。ご紹介有難うございます。

まとめ:セミナー@ヴォラーレ(キーワード選定編)

5月:Webサイト設計に関わるセミナー

開催:5月24日(金) 講師:土居  セミナー詳細はこちら

こちらについては4月に行いましたセミナーと同じ内容となります。4月に比較的多くの方から嬉しいFBを頂きましたので(省エネも兼ねて)第二回目を行わせて頂きました。

実況:ヴォラーレ:Webサイト設計に関わる無料SEOセミナー セルフまとめもいいとこ
開催報告:理解していれば回避できるはずの問題は予め回避しておくが吉
まとめて頂きました:Web制作・開発に関わる方が知っておくべきSEO設計ポイントまとめ

最後に:セミナーの反響からみるSEOの需要

毎月色んなテーマでセミナーやっていますが、テーマ毎に反響は全然違いますね(その時の集客への力の入れ具合にも寄るのかもしれませんが)。

  • リンクペナルティとか再審査リクエストに関する話題
  • Webの設計、コンテンツなど内部施策に関する話題
  • ペンギンアップデートとかパンダアップデートみたいな話題

やはりこうしたものが安定して需要があるみたいです。どの回もFacebookやTwitterでの簡単な告知と、最低限のリターゲティング広告での集客ですが、例えばキーワードの話題とか超基礎とかよりも上記のものの方が全然集客で勢いが違うなあと思っています。

今後も定期的にセミナーは開催させて頂きますのでよろしくお願い致します。

ヴォラーレ株式会社 土居

おすすめの記事

不自然リンクペナルティ・再審査リクエスト絡みの質問を20個集めて汎用的かつ無難なQ&A集を作ってみた

今の時代リンクペナルティ絡みの話題は無難に広くコンテンツとして需要がありそうなのと、社内的にも結構同じような質問を色んな方から頂くのでまとめておく価値はありそうねということで、特に目新しい話題はないと思いますがある程度網羅しておきます。

  • 1.リンク調査のツールは何を使えばいいの?
  • 2.リンクが全部外れないと解除できないの?
  • 3.不自然リンクとして外す必要があるリンクの見分け方は?
  • 4.「質の良いリンク」であっても外す必要がある?
  • 5.有料ディレクトリからのリンクってどうなの?
  • 6.明らかに不自然なリンクばかりで固められたようなサイトが今でも人気キーワードで上位に表示されている理由は?
  • 7.ペナルティを受けているサイトからリンク受けることって問題ある?
  • 8.nofollowでついてるリンクが怪しいと思う場合どうしたらいいの?
  • 9.リンク死ぬほど大量にありますけど、全部確認して削除しなきゃいけない?
  • 10.リンクを貼った人が剥がしてくれない場合、それ以上何も出来ない?
  • 11.リンク否認ツールってイマイチ実感ないんだけど使う意味あるの?
  • 12.ウェブマスターツールからダウンロードしたリンク全部まとめて否認しちゃダメですか?
  • 13.特に順位は下がってないんだけど本当に放置してたらダメなの?
  • 14.さっさと再審査リクエスト出したいんだけど問題ありますか?
  • 15.再審査リクエストってやりすぎたら解除されにくくなるとかある?
  • 16.内部的な問題で警告メッセージが来ることってあります?
  • 17.本当にGoogleの中の人が人的にチェックしてるの?
  • 18.警告メッセージきてたから再審査送ったのに、「手動での対応は行なっておりません」って返事きたんだけどどうすればいいの?
  • 19.ペナルティは自動解除されるって聞いたんですけど、わざわざリンク外す意味あるんですか?
  • 20.ペナルティ解除したらどれくらいで順位が戻りますか?
  • あくまで現時点(2013/07/30)情報であるということと、一部は数少ない事例を元に書いている内容も含まれますので、長期に渡って正確さを保証するものではありませんのでご了承下さい。

    リンクの分別・削除に関するQ&A

    不自然なリンクとはどういうものかを正しく理解し、削除できる不自然リンクは基本的には全て即座に外すことが求められます。

    1.リンク調査のツールは何を使えばいいの?

    自サイトに向けられている被リンクのデータを取得するには、主にはウェブマスターツールの「サイトへのリンク」から取得します。しかし、実際にはそれで全てのリンクデータが抽出できるわけではなく、特にリンク数が膨大な場合には、外部ツールを用いて初めて検出されるリンクがそれなりの割合で発生します。

    従ってウェブマスターツールに加え、いくつかの外部ツールを併用することで、なるべく多くのリンクデータを抽出し、再審査リクエストに望むべきと言えます。外部ツールとしては主に以下の3ツールが代表的です。

    1.Open Site Explorer ( http://www.opensiteexplorer.org/ )
    2.Majestic SEO ( http://www.majesticseo.com/ )
    3.ahrefs ( http://ahrefs.com/ )

    それぞれ無料プランでは取得リンク数に制限がありますので有料プランを申し込むか、或いはこうしたツールのアカウントを保有している外部の協力者に依頼すると良いでしょう。

    2.リンクが全部外れないと解除できないの?

    基本的には、不自然なリンクは全部外すことを前提としてリンクの精査を行う必要がありますが、過去数年間に渡り様々なSEO会社と取引があったり、自社でリンク対策(当時流行ったディレクトリ登録や相互リンク、ブログ投稿系のリンクサービス等)を行なっていた場合には、現実問題としてほとんどの場合で全てのリンクを削除することができません。

    そうした場合でも、出来る限りのリンク削除の努力と、削除出来ないものの否認申請やその経緯報告をGoogleに行うことで、仮に1回で削除出来なかった場合でも、粘り強く継続してチャレンジし続ければ解除できることは珍しくありません。

    最近では、最終的に7割程度のリンクが残っていながら、6ヶ月程度かけて複数回に渡りチャレンジした結果手動ペナルティが解除されたというような事例もあります。

    3.不自然リンクとして外す必要があるリンクの見分け方は?

    次の質問とも関連しますが、一言で言えば、「SEOのみを目的として設置されたリンク」は大方NGなものとして扱って良いです。

    内容によってはSEOを意図したリンクであっても一概にNGと扱われない場合もあると思いますが、素直にペナルティ解除を目指すのであればSEO目的のリンクは内容によらず削除する必要があります。

    4.「質の良いリンク」であっても外す必要がある?

    意外に多い質問だったりしますが、この「質の良い」という言葉もそもそも人によって定義や意味するものが全然違います。Googleが指定するところの「質の良い」というのは自然なリンクであることが前提にありますが、SEOの話題の中で「質の良い」というのは「1本あたりのSEO効力が高い」というような文脈で使われることが大半です。

    先ほどの質問の回答の中でも書きましたが、後者のような意味で使われている「質の高いリンク」であれば、手動ペナルティ発動後には基本的にはそのリンクは外すことが求められます。

    5.有料ディレクトリからのリンクってどうなの?

    名前を挙げるとしたら、Yahoo!カテゴリのような主要ディレクトリは一向に問題ありません。ただし有料ディレクトリについては、「登録は避けるべきで、現在ついているなら外した方が良い」というものも多くあるということは言及しておきます。具体的な事例はここでは控えさせて下さい。

    6.明らかに不自然なリンクばかりで固められたようなサイトが今でも人気キーワードで上位に表示されている理由は?

    色々と理由はありますが、まず「今の順位が良い=何も問題がない」ということではない、ということが前提にあります。ペナルティに起因して順位を大きく落としているようなサイト達も、時を遡れば「順位が落ちるまでは問題を抱えながらも悠々と上位に掲載されていた」わけですね。

    問題がある=必ずペナルティを受ける、ではありませんし、ペナルティを受けていない=何も問題がない、でもありません。Googleのスパム検知フィルタがまだ検知しきれていないのかもしれませんし、ひょっとしたら単純に手動対応が遅れているのかもしれません。手動対応が行われているのに、順位にまだ反映されていないだけかもしれません。

    現時点の順位を最優先と置くのか、その先のリスク等々まで含め総合的に考慮するのか、サイトや状況によって様々と思いますが、諸々のリスクまで含め判断があまりつかないようでしたら、すくなくとも「今」だけを軸に施策を講じるのはやや怖いかなと思います。

    ちなみに、「スパム検知されにくい不自然リンク」と「ペナルティの際に外さなくても良いリンク」も別ものです。これも混同されている方は多いので念のため。不自然リンクである以上は基本的には外す対象として考えておく必要があります。

    7.ペナルティを受けているサイトからリンク受けることって問題ある?

    一般的に言えばそれ自体に問題はありません。が、自分のサイトが密接につながっているサイト群の中にペナルティを受けているようなサイトが多くあるのであれば、そのサイト群との関わりを薄くするなどの考慮はあっても良いかもしれません。

    理屈としては、「悪い連中ばっかりとつるんでる奴は大概悪いやつだろう」というような感じで、一方的にペナルティを受けたサイトからリンクを受けるわけではなく、自サイトの周辺にそういうサイトが多くいてリンク構造として近しい位置にあるのであれば、リンクを制限するとかそういう対応はしたほうが良いかもしれないです。

    8.nofollowでついてるリンクが怪しいと思う場合どうしたらいいの?

    nofollowが最初から付与されているリンクについてはその内容如何によらず問題はありません。もともとクロール対象でもなければSEO上ではページランクも受け渡しませんのでランキングを操作するような要因とはなっていません。

    9.リンク死ぬほど大量にありますけど、全部確認して削除しなきゃいけない?

    先ほどの質問でも回答しましたが、死ぬほどリンクがついていようが何だろうが、再審査リクエストに求められるのは「問題となるリンクを削除すること」です。

    しかし現実的にそれが出来るケースは圧倒的に稀であり、ほとんどの場合はそれが出来ません。できませんが、基本的にはそれをやることでペナルティ解除の確率は高まりますし、やらなければその分ペナルティが遠のきます。

    昨年秋にはリンク否認ツールがリリースされ、そうした状況でもペナルティ解除に向けて前進はしやすくなっていますので、必ずしも全部が外れる必要はないかもしれませんが、全て確認し、削除しようとし、ダメであればそれが何故削除できないのか記録に残す、といった地道な作業はどちらにせよある程度は必要となります。

    10.リンクを貼った人が剥がしてくれない場合、それ以上何も出来ない?

    何もできないわけではありません。例えばリンクが掲載されているサイトの管理者に直接連絡することで個別にリンクを削除してもらえるケースや、例えばlivedoorブログなどでは最近SEOスパム報告フォームができ、こちらから申請すれば記事を削除してもらえる可能性もあります。

    参考:検索エンジンスパムへの対応について - livedoor ブログ ヘルプセンター

    基本的には粘り強く色々やってみると、何かしら好転することもあります。もちろん全部が全部対応してくれるわけではない、というよりも対応されることの方が少ないです。

    個人的にとある無料ブログサービスの運営担当者の方とお話したことがあるのですが、スパムリンクの削除依頼は鬼のように来るようで、仮に対応しようとしても、正直1つ1つチェックして対応するなんてのは現実的に不可能、なんていうお話をされていました。まあ、それはそうですよね。

    リンク否認ツールに関するQ&A

    2012年10月にリリースしたリンク否認ツールについてのご質問。具体的なレスポンスがGoogleから得られる類のツール・申請ではないので、ちょっと未知数なところがあることは否めません。

    11.リンク否認ツールってイマイチ実感ないんだけど使う意味あるの?

    正直、否認ツールを使用したからこうなった!的なものがそこまであるわけではありませんので確証はないのですが、もともとは「削除し切れなかったリンクは否認申請を出した上で再審査リクエストを送る」というような用途で作られたもので、そういう意味では少なからず意味はあるだろうと感じています。どちらにせよ削除できなかったリンクについては否認申請する、というのは標準で行うべき施策と思います。

    12.ウェブマスターツールからダウンロードしたリンク全部まとめて否認しちゃダメですか?

    ペナルティ解除、という意味では問題はないのかもしれませんが、非承認する必要のない価値あるリンクまで含めてリンクの価値を放棄するという行為ですので一般的に推奨されるものでは全然ありません。きちんとリンクを精査した上で、不自然なリンクに限定して否認申請します。数によってはとても大変ですが。

    再審査リクエストに関するQ&A

    再審査リクエストについても、基本的には問題が解消している状態で送るものであり、そうでない場合にはそうできない原因とどのように問題を解決しようとしたかを伝えなければなりません。

    参考:不自然リンクによるGoogleペナルティ解除事例 (基礎編) - SEO HACKS公式ブログ

    13.特に順位は下がってないんだけど本当に放置してたらダメなの?

    ある意味非常に難しい問題なんですけど、今の順位の優先度と後の順位下落リスクを天秤にかけて、前者が圧倒的に高いようであれば、場合によっては放置という選択肢が出るのかもしれないですが、少なくとも企業が管理するサイトがその選択をすることはほとんどないでしょう。

    不自然リンクに関する警告を受け取ったあともしばらく順位が下がらないとか、TOPページの主要キーワードでは下落したがロングテールの流入にはほとんど影響がないとか、そういうケースも中にはありますが、それでも中期的には下落傾向になることが多いです。
    少なくとも最終的には何かしらの悪影響が出るんだろう、と考えていて問題ありませんし、個人的には企業サイトに対して放置を推奨することはありません。

    14.さっさと再審査リクエスト出したいんだけど問題ありますか?

    再審査リクエストを送信すること自体に問題はありませんが、何も問題が解消せず、状況が改善していない状況で再審査リクエストを乱発しても「リクエスト待ち」の時間を無駄に要することになりますのであまりよろしくはないと思います。

    15.再審査リクエストってやりすぎたら解除されにくくなるとかある?

    再審査リクエストを処理しているのが機械ではなく人間ですので、そのあたりのオペレーションについては何とも確証がないし実際色々試行錯誤されているところなのでしょうが、少なくとも単に再審査を乱発することが良い印象を与えることはないでしょう。

    何回やるとかそういうことではなく、再審査リクエストとは、問題の解消、及び問題を解消するために行ったプロセスの共有を行い、手動対応を解除する旨の申請をするための人的なコミュニケーションである、と捉えておけば良いのではないでしょうか。

    16.内部的な問題で警告メッセージが来ることってあります?

    ありますが、不自然なリンクに起因するものとは無関係です。警告というわけではなくアラートとしてよくあるのが重複コンテンツ問題やソフト404の検出などです。

    17.本当にGoogleの中の人が人的にチェックしてるの?

    実際のところどの程度のものなのかはわかりませんが、少なくとも人的な対応はされていますね。最近ではウェブマスターツールを通したやり取りだけではなく、実際に内部の担当者からメールで連絡が来ることも増えて来ました。その中では、具体的にどのようなリンクが問題になっているかのサンプルを提示してもらえたりします。

    リクエスト実施後によくあるQ&A

    再審査リクエストに対するGoogleのレスポンスも時とともに変化してきています。返信メッセージも以前より大分柔軟な対応をとってくれるようになってはいるなと感じます。

    18.警告メッセージきてたから再審査送ったのに、「手動での対応は行なっておりません」って返事きたんだけどどうすればいいの?

    うーん、どうなんでしょうね。こういうケースがちらほら散見されるのですが、手動での対応が行われておりませんということは状態としてはペナルティを受けていない、ということになります。

    そう言われている以上、追加で再審査リクエストを送信したとしても「手動対応は行なっていません」のメッセージが来るだけですので、繰り返して行う必要はありません。

    しかし、再審査リクエストを送信している以上サイトに何かしらの問題があるわけで、それを解消できているのであればそれで問題ないんでしょうが、問題が残っているなら引き続きその解消にあたるべきと思います。

    19.ペナルティは自動解除されるって聞いたんですけど、わざわざリンク外す意味あるんですか?

    自動的に自然解除される、ということは実際にもGoogleが公式にアナウンスしていることですので特に疑う余地はないのでしょうが、自動的に手動対応が解除されるのであれば問題ない、とするのは少し違うと思います。

    問題を抱えたままにしておくのであれば仮に一定期間の後にペナルティが解除されたとしても、おそらく(同じ問題が要因となって)同様の処理を受けると考えておけば良いと思います。これについてはそれといった事例があるわけでもなく、断言は割けておきます。

    20.ペナルティ解除したらどれくらいで順位が戻りますか?

    これも状況によってまちまちですが、目安としては、手動対応の処置を取り消しました、というメッセージを受け取ってからおよそ1~3週間程度かなという印象があります。

    1週間程度で順位回復
    ↑1週間程度で回復しているものもあれば、


    ↑のように3~4週間程度かかるものもあります。どのみち、ある程度分かりやすい形で順位が回復するだろう、ということは分かりますね。

    ただし、難しいのは、必ずしも「ペナルティが解除=ペナルティを受ける前の順位に戻る」ではないということですね。特に不自然リンクに依存度の高いSEOを行なっていた場合、それらのリンクを外して再審査リクエストを行うわけですから、ペナルテイが解除されたとしてもその恩恵で得られていたランキングに戻ることはまずないと思います。

    まとめ

    以上、とりあえず汎用的な回答となります。ここ最近はGoogle側での再審査リクエスト対応も順次改善(?)され、少なくとも過去に比べれば解除難易度も徐々に緩和されてきたように思います。

    もちろん個別具体的な事例に関しては、それぞれで言えることは少しずつ変わります。警告後の順位推移やトラフィック推移も状況によって様々ですし、サイトを複数持っている場合にペナルティを受けているサイトの重要度もさまざまでしょうし、判断も色々ですね。

    ここではあくまで一般的な話題として、もし「最優先でペナルティを解除したい」となれば、上記のようなスタンスで解除に向けて地道にリンク精査と削除、リクエストを行えば最終的には解除される方向に向かいます。状況によっては結構大変なんですけども創意工夫というよりも泥臭い作業ですね。

    結構ボリュームありますが、何かの時にお役立て下さい。

    ヴォラーレ株式会社 土居

    おすすめの記事

    「デスクトップのアイコンが全部Wordになってしまいました何とかしてください」という深刻な問題

    Windowsユーザから標題の様な何を言っているのか意味が分からない質問が時々来る。この様なシチュエーションに遭遇した場合、速やかにPCを見せてもらって一体何が起きているのかを自分の目で直接確認しよう。自分の置かれている状況が飲み込めていないPC初心者にいま何が問題なのかを言葉で説明してもらおうと思っても、それは無理な話だ。スカイプ越しでこの様な相談をされている場合は尚更である。

    さて、標題の様な質問があった時、ユーザのPCが一体どんな状況であるかを説明しよう。要するにデスクトップやタスクバーに置いてある「ショートカット」のアイコンが全部Wordのアイコンに置き換わってしまったという事だ。

    ,. -‐””’”"¨¨¨ヽ
    (.___,,,… -ァァフ|
    |i i|    }! }} //|
    |l、{   j} /,,ィ//|
    i|:!ヾ、_ノ/ u {:}//ヘ
    |リ u’ }  ,ノ _,!V,ハ |
    /´fト、_{ル{,ィ’eラ , タ人
    /’   ヾ|宀| {´,)⌒`/ |<ヽトiゝ
    ,゙  / )ヽ iLレ  u’ | | ヾlトハ〉
    |/_/  ハ !ニ⊇ ’/:}  V:::::ヽ
    // 二二二7′T” /u’ __ /:::::::/`ヽ
    /’´r -―一ァ‐゙T´ ’”´ /::::/-‐  \
    / //   广¨´  /’   /:::::/´ ̄`ヽ ⌒ヽ
    ノ ‘ /  ノ:::::`ー-、___/::::://       ヽ  }
    _/`丶 /:::::::::::::::::::::::::: ̄`ー-{:::…       イ

    あ…ありのまま 今 起こった事を話すぜ!
    『おれが奴のPCをのぞいてみたらデスクトップやタスクトレイに置いてある
    ショートカットが全部「Word」のアイコンに置き換わっていた』
    な… 何を言ってるのか わからねーと思うが
    おれも何をされたのかわからなかった…
    頭がどうにかなりそうだった…
    催眠術だとか超スピードだとか
    そんなチャチなもんじゃあ 断じてねえ
    もっと恐ろしいものの片鱗を味わったぜ…

    情強な皆様なら「なんでそんな事になるねん?」と思うかもしれないが、マジで起こるんだ、こういう事が。

    「PC初心者は何をやらかすかわからない」という特性に立ち返って考えてみよう。大よそ初心者がトラブルに巻き込まれる時はユーザ自身が「余計な事をやらかした」時に発生する事が多い。「防波堤に居た釣り人が大波にのまれて行方不明」という事故は、大抵の場合釣り人が防波堤の入り口に設置してある「進入禁止」の看板と柵を乗り越えた時に発生する。「俺達は普通じゃないんだぜ」という慢心から普通の人とは違うアドバンスな事をしようとして痛い目を見る。この問題も正にそんな感じで発生する。

    例えばAさんがスカイプでWordファイルをBさんに送信するという状況を考えて欲しい。Aさんは送信対象のWordをスカイプにドラックアンドドロップするはずだ。これはわかる。しかし時々「Wordだと思ってWordのショートカットをスカイプにドラックアンドドロップする」という事があるのだ。

    さて、そのショートカットを受け取ったBさん。「こちらがWordになります」といってファイルを受け取ったはいいが、そのファイルのアイコンがなんか変な事になってる。ていうかダブルクリックしてもWordが開けない。という状況に陥る。そこで送信元のAさんに「ファイルが変だよ送り返して」とかなんとか言えばいいのに、何とかしてしまおうと思うのがIT企業に勤めている人間のサガである。PCなんて簡単に使えるし。単なる道具だし。俺達は普通じゃないんだし。

    そしてファイルを開く際に「このファイルを開けません」→「インストールされたプログラムの一覧からプログラムを選択する」→「Wordを選択」→「この種類のファイルを開く時は選択したプログラムをいつも使う」と自己解決を試みてしまい、結果「.lnk(ショートカットファイル)の関連付けがWordに設定→ショートカットのアイコンが全部Wordに・・・」となってしまうわけだ。参考までに、アイコンが全てWordになってしまったデスクトップの画像を載せておく。

    やらかす前のデスクトップ
    ↑やらかす前のデスクトップ

    やらかしてしまったデスクトップ
    ↑やらかしてしまったデスクトップ

    スタートメニューとか目も当てられない
    ↑スタートメニューとか目も当てられない

    この問題の解決法は以下の通りだ。ぶっちゃけ他のサイトからのコピペだ。しかしここまで結構な長文を書いてしまい、そろそろ時間がもったいないと感じてきたので許してほしい。

    Windows 7でショートカットをアプリケーションに関連付けた時の対処法

    1. Windowsキー + Rで「ファイル名を指定して実行」画面を表示します。
    2. regedit と入力し[OK]します。
    3. HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion
    \Explorer\FileExts\.lnk\UserCoiceキーを削除します
    4. ログオフしてログオンしなおします

    ※レジストリの編集は自己責任でお願いします!設定を間違えるとPCの動作に支障が出る事があります。

    PC初心者は何をやらかすかわからない。しかしその様なトラブルが発生した時は我々情強が即座に対応して通常業務が出来る状態にリカバリしてやる必要がある。ここで考えてみよう。もし我々情強が「全員Macユーザ」だったとしたら??もしかしたら彼らのトラブルを一瞬で解決する事が難しいかもしれない。何故なら開発者以外のユーザは大抵Windowsユーザだからだ。

    「やらかす」人間が使うパソコンは大抵Windowsである。MacやLinuxではない。やらかす人達が多くいる環境に身を置いている場合、情強はWindowsにも精通していなければならない。トラブル以外にも「PCの便利な使い方」や「オススメのアプリケーション」をアドバイスをしてあげることもある。そんな時はユーザ目線で考えてアドバイスする必要がある。だから私はWindowsを使い続けるのである。

    最後に

    あまりに唐突ですが今月末でヴォラーレを卒業するので記念にこんなどうでも良い記事を書かせて頂きました。もっと言えば社員向けブログに昔書いた記事をこちらにそのままコピペしました。今後また普通のSEOの記事がアップされるはずなのでそちらを引き続きお楽しみ下さい。

    それではまた。

    ヴォラーレ株式会社 青木

    おすすめの記事

    Googleからウェブマスターツール経由で「手動ペナルティでの処置を変更したよ」のような珍しい通知が来た

    普段あまりこういう時事ネタは書かないんですが、本日Googleからなんだか興味深い、新しい対応(のような気がする)通知を受け取りましたのでこちらに書いておこうと思います。

    http://******* の再審査リクエストを処理しました2013年7月21日
    http://******* のウェブマスター様から再審査リクエストを受け取りました。

    貴サイトはこれまで、Google の品質に関するガイドラインに違反しているとの判断に基づき、Google が対策を適用していました。今回、お送りいただいた再審査リクエストを検討した結果、この対策を変更いたしました。これによるサイトの状態の変更が、Google 検索結果に反映されるには、時間がかかることがあります。

    なお、サイトの一部またはサイトへのリンクが現在も品質に関するガイドラインに違反しています。品質に関するガイドラインへの違反がサイトにないことを確認したうえ、Google 検索結果に表示するためのサイトの再審査をリクエストしてください。

    他にご不明な点がある場合は、ウェブマスター ヘルプフォーラムをご利用ください。

    文面はいつもと同じテイストなのですが、これまでの通知と内容が大きく異なる点としては

    お送りいただいた再審査リクエストを検討した結果、この対策を変更いたしました。

    なお、サイトの一部またはサイトへのリンクが現在も品質に関するガイドラインに違反しています。

    の部分ですね。再審査リクエストによって、ペナルティで課せられていた処置が変更されたが、未だにガイドライン違反は解消されないためペナルティの根本的な解除はされない、という内容のようです。

    これまではウェブマスターツール上で受け取る通知としては大きくは「処置を取り消しました」という解除通知か、「ガイドラインに違反しています」という差し戻し、しかなかったと思いますが、今回は「処置を変更したよ」です。この通知を受け取った事例を他に見ていませんのでだからどうこう、ということは言えないわけですが、何と言いますかGoogleも色々試行錯誤しているんだろうなということは伺えます。

    少なくとも今回の通知を素直に解釈すれば、「ある程度解消されていることが分かれば、その分だけレベルは緩和してあげるよ」というメッセージと前向きに受け取れないこともありません。もちろん、今まで内部的には普通に行なっていた対応を、ご親切にアウトプットしてくれるようになった、というだけかもしれませんけれども。

    個人的にはあんまりこういうのにイチイチ何かを期待することはないのですが、引き続き何か新しいものがあればお知らせします。

    ヴォラーレ株式会社 土居

    おすすめの記事

    Googleタグマネージャを用いたイベントトラッキングやeコマーストラッキングの設定方法

    Google タグマネージャは複数の煩雑なタグ管理を容易に行うためのツールです。使い慣れないとなかなか便利さを実感しにくいツールではありますが、慣れてしまえば色々な場面で利用できます。特に専任の技術担当がいない商用サイトにおいては、非常に有用なツールだと思います。

    基本的なツールの使い方については、Googleタグマネージャ 初期設定の手順、使い方まとめで紹介しておりますので、そちらをご覧下さい。本記事では、データレイヤー変数を使用したタグマネージャのより応用的な使い方をご紹介いたします。

    今回紹介するのは、次の2つの例です。

    1. タグマネージャを使用してGoogleアナリティクスのeコマーストラッキングを設定する方法
    2. カスタムHTMLタグを使い、リファラによる検索順位の取得を行う方法

    特に後者のイベントタグを使用した例では、運用中のWebサイト自体には何ら手を加えず新しい機能を導入しています。

    サイトの制作を制作会社に外注している場合など、通常はタグの設置を制作会社に依頼する必要があると思います。タグマネージャを利用すれば運用側でタグを自由に追加できるため、このような煩雑なやり取りも不要になります。

    こうした点でも、タグマネージャの便利さを実感できるのではないでしょうか。

    それでは、具体的な利用方法を見てみましょう。

    タグマネージャを使用してGoogleアナリティクスのeコマーストラッキングを設定する方法

    Googleアナリティクスのeコマーストラッキング機能は、受注時の受注した商品や売り上げの情報を集計して、アナリティクス上で分析することのできる機能です。

    今回は、Googleタグマネージャを使用して、eコマーストラッキング機能を設定してみます。タグマネージャのタグがWebサイトの各ページに挿入されていることを前提としますので、タグマネージャの導入がまだの場合は、こちらの記事をご覧下さい。

    必要な作業は次の3つです。

    コンバージョンページに購入情報を含むJavaScriptを設置する

    それぞれの顧客が購入した商品の情報は、ECサイトのシステム上で管理されているはずです。この購入した商品の情報をGoogleアナリティクスで集計・分析するには、購入情報をGoogleアナリティクスへデータを渡す必要があります。

    タグマネージャを利用しない通常の場合、アナリティクスの_gaqオブジェクトを利用するのが一般的です。_addTrans, _addItem, _trackTrans の3つのメソッドで、受注した情報を送信します。

    一方タグマネージャを使用する場合、一般的な方法では_gaqオブジェクトを使用することができません。サンクスページで決済時の購入商品情報をデータレイヤー変数として渡す必要があります。

    データレイヤー変数については、末尾に簡単な解説を設けましたので興味のある方はご覧ください。ここでは設置方法のみを紹介しておきます。

    以下2つのタグの設置が必要です。

    1. タグマネージャタグより前に、以下のタグを挿入します。

    このタグをタグマネージャタグより前に設置することで、タグマネージャからデータレイヤー変数を参照することが可能になります。

    <script>
      // dataLayer(TagManagerとのデータ交換用)
      dataLayer = [];
    </script>

    2. 以下のような購入情報を含むタグを設置します。

    <script type=”text/javascript”>
    //<![EDATA[
      // 受注番号
      var transactionId = "0001";
      var cartProducts = [];
      // — 購入商品 —
      cartProducts.push({
        ”id”: transactionId, // 受注ID
        ”sku”: “product00000001″, // 商品番号
        ”name”: “サンプル商品”, // 商品名
        ”category”: “サンプルカテゴリ”, // 商品カテゴリ
        ”price”: “10000″, // 単価
        ”quantity”: “2′”// 数量
      });
      // — / 購入商品 —-
      // TagManagerへデータを転送
      dataLayer.push({
        ”transactionId”: transactionId,
        ”transactionTotal”: “20000″, // 合計
        ”transactionTax”: “0″, // 税金
        ”transactionShipping”: “0″, // 送料
        ”transactionProducts”: cartProducts, // 商品情報
        ”event”: “trackTrans” // イベント名
      });
    //]]>
    </script>

    こちらはサンプルなので固定値を入力していますが、商品名や金額などの値を含む箇所は、購入した商品の情報に合わせて動的に出力できるようにします。

    パッケージやオープンソースのECシステムを利用して構築した場合、購入した商品の情報は、完了ページで参照できるようになっているはずです。システムの構築を外部に委託している場合、この作業はシステム制作業者に依頼するとよいでしょう。

    データレイヤー変数の名前は、公式ドキュメントに推奨されるデータレイヤー変数名が例示されているので、この命名規則に合わせて設定します。個々の値の意味について詳しく知りたい場合は、Google アナリティクスの公式ドキュメントを参照してください。

    Google アナリティクスのeコマース設定を有効にする

    アナリティクスでeコマースの設定を有効にしていなければ、eコマーストラッキング機能が使用できないので設定しておきましょう。すでにeコマース機能を利用している場合は不要なので、読み飛ばしてください。

    アナリティクスにログイン後、ページ右上のアナリティクス設定に移動し、プロパティを選択します。次いでプロファイルを選択して移動、タブの中からプロファイル設定をクリックします。「eコマースの設定」という欄がありますので、ここで「はい、eコマースサイトです」を選択して「適用」をクリックします。

    アナリティクス eコマースの設定

    アナリティクス側の設定はこれで完了です。

    Google タグマネージャ上でeコマーストラッキング用のタグを作成し、サンクスページに配信する

    今度はタグマネージャ側での設定です。

    ここではタグの登録と(配信)ルールの設定を行い、バージョンを作成します。このバージョンを公開することで、実際にWebサイトへタグを配信することができます。

    タグマネージャでは、Google アナリティクスのトラッキングコードなど予め用意されたタグ以外、サードパーティ製のトラッキングコードや、オリジナルのタグなどもタグマネージャ上から配信できます。ただしGoogle アナリティクスのトラッキングコードに関しては、既にタグマネージャ上で用意されているため、わざわざカスタムHTMLタグを使用する必要も特にありません。

    今回も、タグマネージャ上に用意されているGoogle アナリティクスのタグを使用します。

    ログイン後、タグマネージャタグに一致するコンテナを選択して、コンテナのサマリーを開きます。eコマーストラッキング用のタグを作成する必要があるので、「新しいタグの作成」をクリックします。

    タグ名を適当に入力し、タグの種類は「Google アナリティクス」を選択します。Google アナリティクスのウェブプロパティIDを入力します。アナリティクスのウェブプロパティID は、トラッキングタグを複数導入する場合など、何度か必要なので、定数文字列のマクロ変数として登録しておくと後々便利です。

    eコマーストラッキングを行う場合、「トラッキング タイプ」は「トランザクション」を選択します。

    配信のルールについてはサンクスページに挿入したタグで、’event’ : ‘trackTrans’ というイベント名を設定しましたので、ルールは「{{event}} 含む trackTrans」としておきましょう。

    「trackTransイベント」ルールの追加

    eコマースタグの追加

    ここまで入力して、タグを保存します。次にバージョンを作成します。実際のWebサイトで公開する前に、まずはデバッグモードにして、タグが正しく配信されるかどうか見てみましょう。

    eコマースタグのプレビュー

    図のように、配信:イベント「trackTrans」となっていれば正しく配信されています。正しく配信されていることを確認したら、バージョンを公開しましょう。

    トラッキングデータを確認する

    実際に正しく測定できているかは、Google アナリティクスのレポートを確認してみましょう。受注データが集計されていれば成功です。お疲れさまでした。

    なお、eコマーストラッキングによるデータの反映は、少々タイムラグがあるので気長に待ってみましょう。

    カスタムHTMLタグを使い、リファラによる検索順位の取得を行う方法

    次は、例として海外SEO情報ブログで紹介されているリファラを使った検索順位の取得を、Googleタグマネージャ上のタグ発行のみで設置してみたいと思います。

    必要な作業は次の2つです。

    カスタム HTML タグで、Googleからのランディング時のリファラ解析用のタグを配信する

    参照元記事では _gaq オブジェクトを使用してタグマネージャのランディングを計測していますが、今回はタグマネージャを使用しますので、リファラ解析用タグをそのまま用いることはできません。先のeコマーストラッキングの例と同じく、データレイヤー変数を用いてイベントを発生させることになります。

    Google タグマネージャにログインし、コンテナを選択します。ドラフトコンテナを選び、新しいタグの作成をクリックします。「タグの種類」は「カスタム HTML タグ」を選択します。次いで以下のコードを貼り付けましょう。

    <script type=”text/javascript”>
    //<![EDATA[
      var myString, r, rank, kw, keyWord, p;
      if (document.referrer.match(/google.(com|co.jp)/gi) && document.referrer.match(/cd/gi)) {
        myString = document.referrer;
        r = myString.match(/cd=(.*?)&/);
        rank = parseInt(r[1]);
        kw = myString.match(/q=(.*?)&/);
        if (kw[1].length > 0) {
          keyWord = decodeURI(kw[1]);
        } else {
          keyWord = “(not provided)”;
        }
        p = document.location.pathname;
        dataLayer.push({
          ”event” : “trackEvent”,
          ”eventCategory” : “RankTracker”,
          ”eventAction” : keyWord,
          ”eventLabel” : p,
          ”eventValue” : rank
        });
      }
    //]]>
    </script>

    タグを配信するルールは特に気にならない限り、すべてのページで問題ありません。以上が設定できたら、タグを保存します。順位計測用のタグはこれでOKです。

    イベントトラッキング用のアナリティクスタグを発行してイベントを計測する

    先ほどのタグで抽出した順位の情報を、Google アナリティクスのイベントとして計測させるために必要な作業です。

    新しいタグを作成し、「タグの種類」として アナリティクスを選択します。「トラッキング タイプ」は「イベント」を選択します。

    先ほどのdataLayer.push内の設定値に対応するよう、マクロでデータレイヤー変数を設定していきましょう。このとき、マクロ名は自由に決めて構いませんが、データレイヤー変数はdataLayer.pushで送信した名前に合わせて入力しましょう。(逆に変更すると紛らわしくなる可能性もあるので、よくわからなければとりあえず同じ名前を使用しておくのがよいでしょう。)

    新しいマクロの作成

    配信ルールも dataLayer.push() で送信したオブジェクトの名前に合わせる必要があります。ここでは “event” : “trackEvent” というイベント名を設定しているので、これに合わせて {{event}} 等しい trackEvent としておくとよいでしょう。

    「trackEvent」ルールの追加

    最終的には、以下のようになります。

    順位トラッキング集計用タグの追加

    この配信ルールを有効にしたら「保存」 をクリックします。

    動作確認

    後は先ほどと同様に、バージョンを作成し、プレビューモードで確認してみましょう。

    Googleから適当なキーワードを入力して検索結果に表示させ、流入してみたときに、カスタム HTML タグとアナリティクスタグが配信されていればうまくいっています。

    Chromeの場合はリファラの関係上、このトラッキング自体が有効にならないようなので、配信されていることを確認したい場合、IEやFirefox、Operaなどを使って確認するとよいでしょう。

    問題なければバージョンを公開すると、検索順位が取得できるようになります。

    ここまでの流れで分かるように、今回の追加は、Webサイト内のHTMLを直接書き換えることは一切していません。それでいてWebサイト全体にタグを配信できるのですから、少しはタグマネージャが便利であると感じていただけるのではないでしょうか?

    その他、Googleタグマネージャの挙動について補足

    タグマネージャにはいくつか分かりづらい点がありますので、この場を借りて補足をしたいと思います。少々技術的な話になりますので、分からなければ読み飛ばしていただいて全く問題ありません。

    データレイヤー変数について

    通常、タグマネージャ上のタグは名前空間が分離されているため、ドキュメント内のスクリプトの変数にアクセスすることはできません。これを解消する方法として、タグマネージャ側から参照できるグローバル変数がデータレイヤー変数です。データレイヤー変数を使用することで、名前空間を無駄に汚さずデータのやり取りを可能にしてくれます。

    データレイヤー変数は、タグマネージャ側ではマクロを利用して内容を参照します。マクロは事前に登録しておき、 {{(マクロ名)}} の形で、タグマネージャ内に挿入するスクリプトや変数フィールドに挿入します。

    タグマネージャで配信するスクリプト内にマクロを挿入しておくと、dataLayer.pushで挿入した内容を参照できるようになります。

    なおデータレイヤー変数名は標準でdataLayerという名前ですが、名前を変更することも可能です。ただし、サイト内で同名の変数を使用しているなどの場合を除き、通常変更する必要はないでしょう。

    タグマネージャの “配信” とは

    タグマネージャからロードされるスクリプトを見てみると分かりますが、1つのアカウントで配信されるタグはルールによらずすべて同一のタグが配信されています。

    設定したルール自体がJavaScriptのコードになっており、タグマネージャの配信条件に合わせてスクリプトの実行をコントロールしていることが分かります。タグマネージャからロードされるJavaScriptを見ると、配信ルールの名前なども含まれているのが分かります。

    1度タグマネージャのスクリプトをロードしてしまえば、その後はキャッシュされたスクリプトを利用でき、読み込み時間を短縮できます。

    なお、タグマネージャに挿入したスクリプトは、自動的にMinifierで圧縮されるので、挿入タグの大きさ次第でWebページに直接タグを挿入するよりも転送速度の向上が期待できます。特に多くのタグを使用する場合や、タグ自体が長い場合は有効だと思います。

    まとめ

    今回の記事では、タグマネージャの少しだけ応用的な使い方を2つほど紹介しました。この他にも、例えばjQueryのプラグインをタグマネージャで配信し、サイトのメンテナンス情報をWebサイトに表示させるといった応用も可能です。

    まだまだ日本ではタグ マネージャに関する情報が少なく、利用しがたいところもありますが、使いこなせるようになると色々な応用が効くツールですので、ぜひ積極的に使ってみることをオススメします。

    ヴォラーレ株式会社 若松

    おすすめの記事

    2013.4.26 SEOセミナー開催レポート:「理解していれば回避できるはずの問題は予め回避しておくが吉」

    さて、最近セミナー報告ばかりになりつつある当ブログですが、今回は4月26日(金)に開催しました制作や開発に関わる方向けのSEOセミナーのレポートです。前回と同じくtwitterで内容お伝えしていたのでそれもまとめてあります。

    twitterまとめ:Webサイト設計に関わる無料SEOセミナー セルフまとめもいいとこ

    4月26日に開催されたセミナーの風景

    今回はマーケティングとかリンクとかコンテンツとか検索エンジンアルゴリズムといった話題にはあまり触れず、Webサイトの設計・制作にあたりどういったことを予め考慮しておかなければならないのか、という内容で予定では120分のところ150分くらいに渡りお伝えしました。

    諸注意として予めお伝えしたこと

    本題の前に皆さんに事前にお伝えしたこととして、

    • 検索エンジンが評価したいのはコンテンツ&リンク
    • 検索エンジンは「正しく作られたWebサイト」を評価したいのではない
    • 正しく作られたWebサイト≠高く評価されるWebサイト

    というのがまず原則としてあります。ですので、ここではあくまでSEOの観点から、という話にしますが、例えば実際にHTMLのマークアップを行う方がいくらそれらを美しく記述したところで、それ自体はSEOの完成ではなく、むしろSEOを行う土台を整える作業のうちのごく僅かな要素の一つ、というところでしかありません。

    しかし、それでも尚、「(ある程度)検索エンジンを考慮してサイトを作る」ということはとても重要なものであるという認識でおり、サイト規模が大きくなる、とか長きに渡ってコンテンツを配信していく、というサイトであればあるほど、運用に入る前、設計の段階でどこまでSEOが考慮されたか、によって運用後の検索トラフィックには大きな差が出ます。

    「クローラーの仕組みやランク付けアルゴリズムを研究して完璧なSEO設計をする」とかそういうことではなく、ある種の「普通に回避できるはずだった問題」を予め回避することが出来るのであれば、それは事前に対処して回避しておくのが吉じゃないですか(実際には、普通に回避できるはずだった問題点を回避できてなくて色々損してるケースがあまりに多く勿体ない)、ということが今回の本旨です。

    セミナーコンテンツ

    詳細はボリュームが多いので(スライド150枚以上)概要をラインナップとして並べます。

    150枚以上のスライドを小さく並べてみた
    ※実際のプレゼンで使用したスライド一覧

    1.検索エンジンの基礎知識

    今回はかなりサラッと流しましたが、これはどの回でも必ず行います。最低限、裏でどんなものがどのように、何のために動いているのかは理解しておかないとその先の話が通じなくなってしまいます。

    • 検索エンジンの仕組み
    • 検索エンジンの収益モデル
    • 検索結果が返されるプロセス

    2.企業がSEOに取り組む意義と得られるもの

    今回はメインの話題がサイトの作り方の部分だったりもするのでここも流してしまいましたが、目的と手段を混同しないように、ということと、最終的にどのようにSEOを通じて検索トラフィックが獲得されるのか、ということに簡単に解説しました。

    • 企業がSEOを行うメリット
    • SEOのWebプロモーション上の特性
    • SEOの運用と目標達成までのプロセス

    3.SEOの取り組み内容とその分類

    例えば内部対策と外部対策とか、コンテンツとリンクとか、ユーザビリティとクローラビリティとか、まあ色んな確度からそれぞれの要素が様々分類されて対比されます。まずはどういう要素がSEOには存在していて、それぞれがどういう分類をされるのか、みたいなことをかなりザックリまとめてお話しました。

    • 機械(検索エンジン)を考慮したサイト設計
    • キーワード/コンテンツ/リンク
    • 制作・開発担当者が直接SEOに貢献できる事
    • 内部と外部 / 機械と人間

    4.制作者が行えるSEO

    メインはこの部分です。事例を交えて、サイトのデザインや機能の実装にあたり最低限、少なくとも知っておかれたい、或いは気にされたい部分を約100枚くらいのスライドで駆け足で解説しました。

    限られた時間の中で、なのでこういうお話を新情報として聞かれる方もいらっしゃったと思いますが、もちろんボリューム的には一つ一つについて網羅できるはずもないので、まずは「なるほど、こういうことも気にしておかないといけないのね」ということだけでも理解して頂ければ良いかなとは思っています。

    • 検索キーワードと流入口ページの確保
    • テキスト情報の独自性の担保
    • 重複コンテンツ問題
    • クロール・インデックス
    • ページレイアウト
    • サイトの速度

    まとめ

    今回お話した内容は、一つ一つの項目としては取り立てて珍しい話ではないというかごく基本的なことの確認、おさらいのような感じでしたが、しかし基本的であることと皆さんがそれを満遍なく理解しているということはイコールではありません。

    実際に、少なくとも全体から見れば一部を除いた多くのWebサイトは、SEOに適しているとはとてもではないが言い難い、というような作り方をされていると思います。

    少なくとも、HTML構文チェックで100点を目指すこと自体のSEO的な価値というのはほぼ皆無だと思っておりますが、そういう類の「最適化」を求めるのではなく、最低限、作成するコンテンツの内容や得られたリンクが漏れ無く無駄なく評価される、ということがSEOの前提ですので、こうした認識は、Webの制作や運用に関わる皆さんにやはり最低限以上は知っておいて頂きたいなと感じる所存です。

    次回開催のお知らせ

    アンケートやTwitter上での反響は割と良かった方だったので、僕個人の省エネも兼ねて5月にもう一度同じ内容のセミナーをすることになりました。

    詳細:Web制作・開発に関わる方向けのSEO設計基礎セミナー(第二回)

    Web制作会社の方や社内のWeb担当者の方をメインターゲットとしていますが、マーケティング担当者の方とかまあ色々要は基本的にはご興味がありましたらご参加頂ければと思います。

    当日は事前に簡単なレジュメ(?)をお配りして、プレゼン資料とかは終了後にお持ち帰り頂けるようにしていますが、今回は資料印刷ミスりました。細かな誤字チェックとかは複数人でやったのにも関わらず表題だけが作成当初のまんまになってました。

    Web制作者が知っておきたい基礎SEO設計セミナー(仮) で印刷しました
    ※内容は本番でした。

    ということで5月のセミナーも告知前からちらほらと参加お申込み頂いている企業様もいらっしゃり大変有難い状況ではありますが、今後のセミナーも機会とご興味とお時間ありましたら是非ご参加下さい。

    ヴォラーレ株式会社 土居

    おすすめの記事

    よく見るHTTPステータスコード一覧とその意味を理解する

    404や503、301・302など「ステータスコード」とか言われるものをよく見るけど実はその意味はよく分かっていません、という方は意外に多いんじゃないかなと思ったので、よく見るものを一覧でまとめて解説してみました。このあたりの話題にそこまで詳しくない方でなくとも理解できるように解説しているつもりです。

    Webブラウザやクローラーが情報を受け取る仕組み

    私たちは普段、FireFoxやChrome、SafariなどのWebブラウザを通じてURLにアクセスしてWebコンテンツを閲覧しています。この「URLにアクセスする」ときに、Webブラウザは「リクエスト」を送り、Webサーバーが「レスポンス」を返す、というやり取り(通信)が行われています。

    ブラウザからリクエスト(URL)を送り、サーバーからレスポンスが返される図

    リクエストを送る側は、「サーバー(提供者)」に対して「クライアント(依頼者)」と呼ばれます。Googleのような検索エンジンのクローラーもブラウザと同じくクライアントという扱いになります。

    HTTPステータスコードとは?

    WebブラウザやクローラーがURLにアクセスしようとするとWebサーバーからどのようなレスポンスを受け取っているのか?というのは例えばGoogleのウェブマスターツールの基本機能「Fetch as Google」などを使って知ることができます。
    ※図の中の赤枠以下の情報を受け取っています。

    ウェブマスターツール Fetch as Google を使用してGoogleBotが受け取ったデータが表示。ステータスライン、メタ情報、ボディメッセージを受け取っている。

    少し見づらいですが、通常通りアクセスできてコンテンツの情報が得られる場合にはブラウザやクローラーはこのようなデータをWebサーバーから受け取っています。

    ここで少しだけ專門用語を使うと、上の図にあるようなレスポンスは「ステータスライン」「レスポンスヘッダ」「メッセージボディ」の3つから成っています。
    上からステータスライン、メタ情報(データに付随する情報)、ボディメッセージ(この場合はHTMLテキスト)という具合でデータを受け取っている

    レスポンスヘッダとメッセージボディについては今回本題から外れますが、折角ですので合わせて簡単に解説します。

    ステータスライン

    ステータスラインは一番上に記述されている「HTTP/1.1 200 OK」や「HTTP/1.1 301 Moved Permanently」等のようなもので、「レスポンスの状態」を表します。この中の「200」や「301」といった3桁の数字が今回の話題となる「ステータスコード」です。「OK」「Moved Permanently」は「説明句」というもので、その名の通りステータスコードの内容説明をするものです。

    HTTP/1.1 は「通信規約とそのバージョン」 200 はステータスコード OK は説明句

    クライアント(WebブラウザやGoogleBot)はWebサーバからどのステータスコードが返ってきたかによって、その中身を見なくとも次にどんな処理を行えばよいかを判断することができます。

    レスポンスヘッダ

    レスポンスに付与するメタ情報が記載されている部分です。ここでいうメタ情報とは、「(受け取った)データに関する補足情報」のようなものと思って下さい。例えば、URLが転送(リダイレクト)されている場合に転送先のURLの情報を「Location」として付与する、などの情報です。

    メッセージボディ

    いわゆる”本文”にあたるもので、Webページに問題なくアクセスできた場合にはHTML情報がここに記載されます。私達が普段見ているWebページはこのHTMLテキストをブラウザが解釈して表示したものです。

    さて、本題のHTTPステータスコードについて話を戻します。

    HTTPステータスコード

    ステータスコードは本来ブラウザやクローラーが処理するために付与されているものなので、普段私達がブラウザ上でWebページを見ている際に見ることはありませんが、時々エラーでこんなのをお目にかかることはありますね。

    404 Not Found

    503 Service Unavailable

    また、Google Chromeに標準搭載されているDeveloper Toolsや、Firefoxのアドオン(Live HTTP headersやFirebug等)を使えばレスポンスに含まれているHTTPステータスコードを確認することができます。今回はその使い方は割愛させていただきますが興味の有る方はお試しください。

    それでは次節からは本題であるステータスコードについてお話をさせていただきます。

    ステータスコードの大まかな分類と意味

    さて、ステータスコードは大まかに分けて5つに分けられます。

    • 100番台 : 処理中
    • 200番台 : 成功
    • 300番台 : リダイレクト
    • 400番台 : クライアントエラー
    • 500番台 : サーバエラー

    このようにそれぞれの番台によって異なる意味を持っています。個別のステータスコードの前に、まずここでは各番台について簡単にその意味を説明しておきます。

    100番台

    100番台はクライアントからのリクエストを処理中であることを示すステータスです。

    Webサーバ側からクライアント側に対して「もうちょっと詳しくやってほしいことを教えてくれ」とか「今、頼まれたことをやってるんだけども時間かかるわ」という内容のレスポンスを返します。これらのステータスコードが使われている場面はあまり見かけません。

    200番台

    200番台はクライアントからのリクエストが受付に成功したというステータスです。私達がWebページを見ているとき、多くが200番のステータスです。

    300番台

    300番台は「リダイレクト」と書きましたが、厳密には「リクエストを達成するためには、ブラウザ側で追加の処理を実行する必要がある」というステータスです。

    その追加の処理が301では例えば「別URLへの移動」になります。301番、302番のコードについては「301リダイレクト」「302リダイレクト」などサイトURL変更の際の転送処理として聞いたことのある方が多いのではないでしょうか。

    400番台・500番台

    400番台、500番台のコードはエラーコードであり、正常にリクエストされたものが返せない状態のときに使用されます。そのうち400番台はクライアント側に原因があるエラー、500番台はWebサーバ側が原因のエラーです。

    それぞれのステータスコードについて

    ここまででざっくりとした分類をお話ししたので、本節ではそれぞれのステータスコードについてお話します。今回は普段の業務を行う中で比較的頻繁に目にすることの多いメジャーなものに絞りたいと思います。

    200 OK

    リクエストは問題なく受理され、要求に従ったレスポンスが返されます。私達がWebページを正常に閲覧している際、大抵このステータスとともに返ってきたレスポンスの内容を見ています。

    200はそのまま「OK、問題ありません」の意味

    301 Moved Permanently

    リクエストで要求された情報の中身が別の場所に移動したことを示します。

    この移動は一時的なものではなく、恒久的なものです。サイトの引越しを行ったりしてアクセスするURLが変更され、ずっとそのURLを使用していく場合にこのステータスコードを返すようにしておく必要があります。

    301は恒久的な転送、つまり「引っ越したよ」の意味。

    googleからの評価を新しいURLに引き継がせるためにも301を設定しておきましょう。また、あるページへのアクセス経路を一本にまとめる、いわゆるサイトの正規化を行う場合にもこの301リダイレクトを使用します。

    302 Found (※Moved Temporarily)

    こちらもリクエストで要求された情報の中身が別の場所に移動したことを示します。301と異なるのは、その移動が一時的なものであるという点です。

    302は「今ここにいないよ、そのうち戻ってくるよ」の意味

    たとえばメンテナンス等で一時的にサイトを別の場所に移さなければならないが、また元の場所に戻す場合はこの302番のステータスを返すように設定しておきましょう。GoogleBotもそれが一時的な移動であることを読み取ってサイトの評価を移動先のURLに移すことはしません。

    ※302は昔の規格(HTTP/1.0)では説明句が「Moved Temporarily」でしたが現行の規格(HTTP/1.1)になって「Found」に変更されました。一時的な転送、という以外でも利用されることが多かったためのようで、現在別の307という比較的マイナーなステータスコードで「Temporary Redirect」が割り振られていますが、実際の使用例は見たことはありません。

    304 Not Modified

    これはリダイレクトではありませんが、補足的に説明をしておきます。

    304は「未更新」を表します。私達が正常にWebページを見れているとき、多くは200ステータスが返ってきているのですが、実際には304ステータスのコンテンツが混じっていることもあります。このときWebサーバからはメッセージボディ、つまりコンテンツが返ってきません。ブラウザ側では304を受け取ると、ブラウザ内のキャッシュに残っているコンテンツを使ってWebページを表示しています。

    ステータスコード304は「前に渡したのと同じだよ」という意味

    403 Forbidden

    サーバ側で外から見えないように設定してある領域へのアクセスをリクエストしたときに返ってくるステータスコードです。簡単に言えば立ち入り禁止です。

    403は立入禁止の意味。

    見せたいページでこのエラーが出ているときはアクセス制御の設定が間違っている可能性がありますので設定ができる方は確認してみましょう。

    404 Not Found

    リクエストしたページが見つからない場合に返されるステータスコードです。

    404はそのまま「探したけど見つかりませんでした」の意味

    ウェブマスターツールではGoogleBotが検出した404エラーをレポートしてくれていますが、特に404エラーが多いからといってgoogleからのサイトの評価が下がることはないと言われています。サイト内からリンクされているページが404エラーになっている(=リンク切れ)のは問題ですが、そうでない限りは放置しても良いかと思います。

    他サイトから多くのリンクを受けているようなページを404エラーとしてしまうと、折角サイトが得られた被リンクの恩恵を逃してしまうことになります。何かしら代替のコンテンツを用意してそのページを残しておくか、近い内容を持つページに301リダイレクトするなどでリンク資産をサイト内に残せる処理をするのが一般的です。

    410 Gone

    404と同じくリクエストしたページが見つからない場合に返されるステータスコードです。404と違う点は、そのリクエスト先のページが「消滅した」という意味合いがあることです。

    410は「前あったけどもう無いんだよね」の意味。

    こちらの記事によると最近はGoogleBotは404と410を微妙に区別しているとのことですが、記事でも書いてあるようにそこまで神経質になる必要はほとんどないと思います。

    補足:ソフト404エラー

    ブラウザ上ではそのページが存在しない旨のメッセージが表示されているにも関わらず、ステータスコードとしては404や410を返していない(つまり正常なレスポンスとして「200 OK」が返されている)パターンが存在します。これを「ソフト404エラー」などと呼びます。

    ソフト404はサーバーは「OK」と返しているのにユーザーには「無い」に見えている状態

    どういうときに発生するかというと、例えばサイト運営側で独自にエラーメッセージ表示用のコンテンツを作成して、想定していないURLに対してリダイレクトをかけてそのコンテンツに飛ばすというケースが考えられるでしょうか。

    Webページを見ているユーザに対してページがないことが伝わっても、機械的にHTTPステータスコードを読み取るbotに対しては伝わりません。このようなソフト404ページが存在するとGoogleBotがクロールのリソースを無駄に消費することになりますので、存在しないページにアクセスしたときはステータスコードとして404もしくは410が返されるように正しく設定するべきです。

    500 Internal Server Error

    サーバ側の何らかのミスによってリクエストに応えられない場合です。例えばシステム開発中にバグを混入させてしまうとこのエラーを起こすことがあります。

    500は「サーバー内部の調子が悪い」のエラーの意味

    503 Service Unavailable

    Webサーバの過負荷状態で一時的にWebページが表示できないときなどに発生します。例えばTwitterがクジラを表示させている状態、とでも言えばイメージが沸きやすいでしょうか。

    twitterが混雑してるとくじらが出ます。

    メンテナンスでサービスをストップさせている際に意図的に503を返すように設定することもありますが、基本的にはサーバー負荷の問題ですので頻発するようであれば、サーバーの変更を検討するか、サイト側での負荷軽減などの手を打つ必要があります。

    503は「今忙しいから後にして」の意味。

    まとめ

    ここまでHTTPステータスコードについてのお話をさせていただきましたがいかがでしたでしょうか。表には出てこない部分ではありますが、こうした部分まで意識してみることができれば、今よりもクローラにとって優しいサイトが作れるかもしれません。

    特に一般の方(技術に関わりのない方)にとってはこうした話というのはあまり重要視されにくい話題と思いますが、SEOの観点では、サイトが検索エンジンに正常にクロールされ、正しく検索インデックスに登録してもらえるための基本的な作法として、サイトを制作・管理する方には皆さまに理解していただけると嬉しいです。

    文責:ヴォラーレ株式会社 西村

    おすすめの記事

    2013.3.27 SEOセミナー開催レポート:「ペナルティ解除はやるべきことを着実に、ただひたすらに泥臭く」

    先の3月27日に”事例から見る被リンクペナルティの対処法とその結果“というテーマでのSEOセミナーを開催致しました。今回は、実際のセミナー内容をtwitterにて一部実況しておりましたものをTogetterでまとめておきましたので合わせてご覧頂けると良いかと思います。

    まとめ:リンクペナルティに関する無料SEOセミナー 実況中継セルフまとめ - Togetter
    ※何と言いますかこの記事と空気感に結構な差がありますが、ある程度ご了承下さいませ。

    セミナー風景

    今回は数多くのペナルティ解除実績を持っているスピーカーが、理屈や技術論というよりも主に事例を交えて実際の作業内容や解除までに必要となるフローなど具体的にお伝えさせて頂くといった内容になりました。以下に概要を改めてまとめさせて頂きます。

      セミナーでお伝えした内容(概要)

      当日の話題としましては、

      • 不自然なリンクがペナルティを受ける理由とその背景、予備知識など
      • 順位下落のパターンや影響範囲
      • ウェブマスターツールの設置方法や使い方
      • 手動ペナルティを受けた際の対処法、具体的な手順
      • 事例紹介

      といった内容でした。中間で質問が色んな方から様々飛び交い、比較的アクティブな感じの2時間だったとは思います。

      中盤までは基本的な不自然リンクやそのリスクの話、基本的なペナルティ解除の作業内容などをお話させて頂きました。基本的な部分は以下の記事に書いてあるような、一般的な流れ作業の詳細解説になりますので割愛します。
      ※参考:不自然リンクによるGoogleペナルティ解除事例 (基礎編)

      事例はそれなりにいろいろご紹介させて頂きました。流石に社名等は一切情報出せませんが、具体的にどういったシーンで、どのような形でペナルティが解除されたのか、結構詳細までお話させて頂きました。

      いろんな事例紹介。例えばリンクペナルティ受けてる関連サイトからのリンク。外す、という選択肢は基本的には取れないです。→ そういう場合nofollowが有効かもしれないですね

      警告来てないけど再審査送ったら「手動対応を解除しました」として解除されることももちろんあり。通常の被リンク警告来てたけど何度か再審査送ったら「手動対応とってませんよ」とか。

      再審査リクエストNG後の個別対応メール(具体的な不自然リンクの指摘を含むメール)の実例。具体例はさすがに伏せてますが。

      などなど。で、人がやっているとか人がやっていないとかに関わらず、100%決まりきった対応が常にされているわけではない、というのは変わらないと思っています。ですので、ある程度割り切って、再審査の内側の事情がどうであれ、考えても分からないようなことを考えていても仕方がなく、取り敢えずやらなきゃダメ、やった方が良い、と言われていることを素直に進めていくことが重要です。というような論旨ではありました。

      また、補足としまして今回はリンクの否認ツールについてはそこまで触れませんでしたが(何とも確証が得られない曖昧な情報が多かったという背景もあり)、否認ツールがあろうとなかろ再審査リクエストのフローにおいては主役とはなりにくいものですのであくまで補助的なツールとして認識して頂ければと思います。

      ペナルティに関する質疑応答

      セミナー中、話題の合間で参加者の方々から質問を頂くことがありましたので、そのうちの一部をご紹介しつつ、改めてまとめて回答しておきます。

      こういう場所では書きづらい、具体的な固有名詞が出るような内容、或いは情報としてあまりに不確かな内容のものについては割愛させて頂きます。

      質問1: 全体のうちどれくらいの不自然リンクが外れれば解除される?

      あくまで実際にあった事例を元に、という前提ですが、それなりの数(数百以上)確認できた不自然リンクのうち、6割強ほどの削除しかできなかった(それでもそれまでには相当な時間と労力を要した)ようなケースで、再審査に合格したケースはありますが、稀な部類です。全体の7~8割とかが削除できるとやや成功率は上がりますが、それでもNGな場合も多くあります。出来れば9割程度は削除しておきたい、というのを目安にしていただくと良いと思います。

      手動ペナルティを受けるようなケースで、100%全てのリンクが外れることは逆に珍しいですが、ただほとんど全部削除できましたよ、という状況まで持っていくことができればほぼ100%再審査は合格する、とお考え下さい。

      質問2: 向けられている被リンクの内容を把握するために使用するツールは?

      基本的にはウェブマスターツール(WMT)のリンクデータを利用します。
      ウェブマスターツール

      しかし、実際にはデータ量が多い場合にはこれだけではあまり網羅出来ないケースも多く、外部の有料ツールなども使用した方が漏れ無く調査することが出来ます。

      一般的に使われるリンク調査ツールでは以下のようなものが代表的です。

      ahrefs
      ahrefs

      Open Site Explorer(通称:OSE)
      ose

      MAJESTIC SEO
      majestic_seo

      こうしたツールを用いて抽出したリンクデータのうち、不自然なリンク(=SEO以外で価値を持たないリンク)を洗い出してどんなパターンのリンクを獲得していたのかを把握していきます。(自分のウェブサイトにどんなリンクが向けられているのか、ということは、ペナルティ云々に関わらず定期的にチェックされることをおすすめします。)

      質問3: Twitter等から一気に大量のリンクが得られることは問題になるか?

      いくら得られてもプラスにはなっても問題にはなり得ませんので存分に拡散されて下さい。という回答になります。

      twitterに限らず、一気に大量のリンクが集まること自体には何も問題はありません。一気に話題になればtwitterやはてなブックマークを始めとして様々なウェブ上の媒体で取り上げられ、一度に数千規模のリンクを獲得するようなことも日常的に起きています。こういうものは全て自然に発生したもので、少なくともSEOを意図して獲得したものではありませんので、マイナスとなるような要素は無いと思ってもらって大丈夫です。

      結局、非常に無機質で機械的なものであったり、特定のパターンの決まりきったリンクばかりを一度に大量に集めた場合などは、思い切り不自然なリンク増加パターンとして引っかかってしまい何かしら悪影響を受ける、ということだと思っています。

      さてここで少し補足しておくと、「質の高いリンク」という表現を良く聞くと思いますが、「リスクのないリンク」と「SEO効果の高いリンク」というのは全くの別ものですので注意が必要です。

      再審査がうまくいかない、と相談頂くケースでも、全くのSEO用の不自然リンクが外れていない、外そうともしていない状況で再審査を何度も送っているような場合があります。「これはSEO会社から質が高いリンクだから安全だと言われている」などという声もありました。

      基本的には、SEO目的で設置されているというよりも、「SEO以外に目的を持たないリンク」については、再審査リクエストの際には、全てとは言いませんが高確率で不自然リンクに分類して削除対象にしなければならない、と思っていて構いません。冒頭で紹介したまとめから引用しますが、

      ざっくりまとめると「SEOに効くリンク ≠ 本来Googleが良しとするリンク」と「今効果が出ているもの ≠ 今後も効果が出続けるもの」なので、それに対してどう捉えるか、という問題。

      ということだと思って色々と判断して頂ければと思います。

      質問4: 有料ディレクトリ登録サービスはNGなのか?OKなのか?

      具体的な名前は差し控えますが、一般に名の知れているディレクトリサービスにもOKなものとNGなもの、現状ちょっと不明なものがあります。誤解なきようにお伝えしておくと、本当に多くのサイトが申請を出すような一部の有料ディレクトリ登録は問題ない、としておきます。

      実際に、Googleから送られてきた再審査リクエストNGのメールで「不自然リンクの具体例ってこういうものです」として具体的なURLがいくつか羅列されていたケースがありましたが、その中身は思いっきり有料ディレクトリからのリンクでした。この時点で、「有料の審査を経たディレクトリ登録なら全て安全」ではない、ということですね。

      このライン引き、判断材料としましては、あまり断定することは避けたいとは思っていますが、事実ベースでお伝えしますとGoogleは基本的には金銭のやり取りに基づく「リンクの販売」をガイドラインで明確に禁止しています。

      厳密に「これはディレクトリ登録サービス、これは結果的にはリンク販売です」っていう明確なラインを引くことができるかどうかは別として、少なくとも、「高いSEO効果がある被リンクを獲得」「ページランク○○の良質な被リンクを獲得」といった宣伝文句は、少しこのご時世では慎重に捉えた方が良いんじゃないでしょうか。

      無料でも有料でも、それがディレクトリサイトとしてきちんと機能してたり、意味のあるディレクトリだったり、「適正な審査」の上での登録、ということであれば問題は全然ないと思うのですよ。まあ、どこまでのラインをそこで問題ないとするかは、ちょっと微妙なんですけども。

      少しふわっとした表現になりますが、この程度の表現に留めておきます。

      質問5: 再審査リクエストは人的なチェックを本当に挟んでいると思うか?

      基本的には、人的なチェックは普通にされていると思います。ただ、純粋に人的に全てチェック、というのは現実的に厳しいでしょうから、(それ以前に何かしらシステム的なチェックも入ると思いますが)一部を抜き取りチェックという形式なんじゃないでしょうか。と思います。

      ただ、こういう疑問を持つことは興味としてはもちろん有り得るとは思うのですが、「仮に人的なチェックじゃない、実は再審査の内容など誰も見ていなかった」ということだったとしても、特にやるべきことというのは変わらないんじゃないでしょうか、とは思っているわけです。

      全体の一連の作業の中でドキュメントにまとめるとかそういった作業というのはごく一部でしかなく、それ以外は問題が解消されたのか(リンクが外れてるのか、外れていないのか)というところのシンプルな判断だと思っています。大半外れていないのであれば再審査をどのように工夫したところでほぼNGですし、100%全ての問題が解消されたのであれば再審査リクエストをかなり簡易に記載してもペナルティは解除されます。

      ただ多くの場合、「外せるリンクは外せたが、本当にどうしても外せないものも残ってしまっている」からペナルティが解除されないわけで、その状況で解除の可能性を1%でも高くするためには、できることは全てやっておきましょうよ、というのは今まで色んなペナルティ解除対応を見てきて思ったところです。

      基本的には、ペナルティ解除は、決して何か高尚なテクニックが云々、ではなく、非常に地味で、そこに創造性を挟む余地のないような、泥臭い作業をひたすらやりきれるかどうか、というところなんじゃないかなと思っています。

      まとめ(とお知らせ)

      手動ペナルティの解除って、言ってしまえば基本的には生産的なものではなくマイナスをゼロに戻すだけの作業ですし、それなのに解除に向かうにあたっての時間と労力は相当にかかりますし、その上でずっと解除できないケースもそれなりにあります。

      ですので基本的には、今後は、特に外部リンクに関しての派手なリスクテイクは割けた方が良いと思います、ということと、万が一ペナルティ受けてしまった場合には、とりあえず諦めずにやれること全部やってみましょう、という結論になります。必要があればご相談下さい。

      最後にお知らせなのですが、弊社では2013年度の取り組みとして、1ヶ月に1回はこうしたSEOセミナーを(だいたい)無料にて開催させて頂く予定です。中には過去と重複した内容になることもありますが、出来るだけ毎回異なるテーマで開催できるようにしたいと考えています。

      次回は久々にが講師を努めさせて頂く予定で”Web制作・開発に関わる方向けのSEO設計基礎セミナー”といういかにもよく有りそうなテーマでの開催となりますのでご興味ある方はご参加頂ければと思います。
      ※詳細:2013年4月26日(水) Web制作・開発に関わる方向けのSEO設計基礎セミナー

      最後に、3月は僕の怠慢によりあまり記事の更新がありませんでしたので4月は更新頑張ります。(個人のSEOブログもやっていますが書いていません。)引き続きよろしくお願い致します。

      文責:ヴォラーレ株式会社 土居

      おすすめの記事

      Googleタグマネージャ 初期設定の手順、使い方まとめ

      Googleタグマネージャは、2012年10月1日(日本だと10月2日)にgoogleから公開された新ツールです。10月26日には日本語インターフェースがリリースされました。(タグマネージャー、と書きたくなりますが公式に合わせて「タグマネージャ」と書いておきます。)

      タグマネージャに関してはGoogleアナリティクスなどとは違い、まだまだそこまで世の中に情報が出回っているという状況ではないため、個別に細かな設定をしようかなと思った時には結構試行錯誤しながらやっていく、ということも出てくると思います。今後もう少し実用的な使い方についても解説したいと思いますが、今回はひとまず基本的な使い方、特に初期導入時の設定方法や手順をまとめておきました。

      Googleタグマネージャとは何か?

      名前の通り、タグの管理(タグマネジメント)が出来るツールです。
      ※参考: タグマネジメント、きちんと理解できてる? 【タグマネジメント概論第1回目】

      具体的には、googleアナリティクスやAdWordsなどでwebサイトに埋め込まないといけないタグやFacebookやtwitterなどJavascriptを使用するタグなど、今まで個別にサイトに埋め込んでいたような様々なタグを一括で管理することができます。

      例えば、今までGoogleアナリティクスのタグを変更したい場合(eコマース設定等でトラッキングコードを書き換えなければならない場合等)はウェブサイトの管理者にお願いして、全ページまたは指定箇所のタグ入れ替えを行わないといけませんでした。タグマネージャを利用することで、こうした変更が今までよりも簡単に行えるようになる、といったメリットがあります。

      analytics

      SEOやアクセス解析、リスティング広告などのマーケティングに関わっている方が、必ずしも自社のサイトを管理・更新しているわけではなく(というか管理していないことの方が圧倒的に多いと思いますが)、多くの場合は別の担当者か外部の管理会社にまかせていると思います。

      その場合、いちいち何かを変更する際にも、担当者間での依頼のやりとりが発生しますし、解析をより高い精度で、よりスピーディに行おうとすればなるほどそのコストもかさんでしまいます。

      tag_manager

      タグマネージャを使用することによって、何か変更が起きた時でもサイトに直接変更を加えるのではなく、タグマネージャの管理画面の情報を変更することでサイトに直接トラッキングコードを埋め込み直した状態と等しくなりますので、アクセス解析やマーケティングに関わる方が直接そうした変更を行えるようになります。

      とても便利!なのですが、例えば、既にアナリティクスのコードが直接サイトに埋め込まれている場合は、一度既存のトラッキングコードを削除してからタグマネージャのコードを埋め込まなければなりません。

      ちょっと手間な上に一時的に解析ができなくなります。また、サイト毎に設けている細かな指標の測定など、オリジナルな測定をしたい場合にはJavascriptなどの知識が必要になったり、導入に際してのコストが膨らんでしまうこともあります。

      ですので、何でもかんでもタグマネージャを使用する価値があるかないかといわれると、大きなメリットがある場合もあれば、メリットがそんなにない場合もあるんじゃないでしょうか?と思います。

      導入メリットが少なさそう

      以下のような場合では今時点では敢えて導入する必要もないんじゃないかと思います。

      タグの種類が少なく、変更頻度も少ない場合

      1種類のタグ以外は使用していないし定期的に変更する必要もない、そして今後も当分使用する必要がない場合などには、そもそも大した管理コストは割いていないはずですのでわざわざタグマネージャのタグを埋め込み直したりする方が手間だと思います。

      既に多くのタグが埋め込まれ、更に細かなオリジナルの設定を加えている場合

      タグマネージャは他のgoogleプロダクトに比べ新しいので、そこまで情報が多くありませんし、まさに改良が加えられている最中のものなので今世の中に出ている情報以外のことを行おうとする時に必ずしも誰でも設定が行えるわけではありません(今後はもっと使いやすくなるとは思いますが)。

      ですのでエンジニア(というかJavascriptが不自由なく使える人)のいない環境で、カスタマイズされた設定を必ずしもタグマネージャを使用して実現できるわけではないかもしれません。

      ・・・とは言え思いつくのはこの位でしょうか。。

      導入したほうがいい場合

      以下のようなケースでは導入する価値は十分にあるように思います。

      様々なタグが埋め込まれていて何がなんだかわからなくなってしまっている場合

      タグマネージャを使用すれば、全てのタグを一つの管理画面上で一元管理出来ますので、ごちゃごちゃしていて状況がサッパリ、という状態は改善できると思います。

      今後ウェブサイトの解析をしっかりと行なって行きたいと考えている場合

      それなりに細かな解析を行っていく場合、必要に応じて様々なタグを追加で埋め込む必要が出てくることがありますので、予めタグマネージャでの管理を行なっておけばより効率的にタグを運用していくことが出来ると思います。

      サイト内のタグ変更などを行う場合に、外部の管理会社とやり取りをして変更しなくてはならない場合

      タグマネージャを使用すれば、都度発生したタグ変更などの作業もいちいち管理会社に依頼しなくても変更が行えるようになります。
      (ただし先ほど述べた通り、それなりに細かな設定を行う場合はJavascript等の知識が必要になることもあります)

      ページ毎に異なるタグを埋め込む必要があるタグを使用している場合や、そのタグが発動するページを指定する場合

      「カテゴリページにはこのタグを埋め込むけど、TOPページには埋め込まない」などといった条件があるようなタグ、またそういったタグが多岐にわたってサイト内にバラバラと埋め込まれている場合には管理がかなりややこしくなってしまうと思うのですが、タグマネージャで管理することで、それぞれのタグが発動するページや条件を指定することができるので管理、整理がしやすくなります。

      新しいもの好きな方(おまけ)

      まだそんなに世の中に情報が多くないので、自分で調べて設定してテストして、を繰り返すことになると思います。そういう作業が好きな方にはとても楽しいツールだと思うのでお勧めです。実利が伴うのであれば使い倒して見るのもよいのではないでしょうか。

      つまり、長期的なタグの管理とか更新の手間や時間を考えれば、多くのケースでは入れておいた方が後々いいんじゃないでしょうか?と思います。

      タグマネージャでGoogleアナリティクスを計測できるよう設定する

      さて、ここからは、実際にタグマネージャを使ってGoogleアナリティクスの計測を行えるように設定してみます。(機会があれば、別途AdWordsの設定方法、アナリティクスeコマース設定、facebook等のアイコンの設定等もご紹介させて頂きます。)

      ※5/28追記※
      ちょっとした応用で、Googleタグマネージャーを用いてアナリティクスのeコマースやイベントトラッキングを設定する方法の記事を書きました

      今回は、最もよくあるタグの設置です。Googleアナリティクス側の設定の話は省きます。

      1.ログインします

      Google タグマネージャ公式サイトにて右上のログインボタンをクリック

      e383ade382b0e382a4e383b3e794bbe99da2

      2.アカウントを作成します

      Googleアナリティクス等でも最初にアカウント登録を行いますがそれと同じような感じで企業毎に1アカウント作成します。
      ※名前は 該当アカウント > 設定 から後で変更可能です。
      アカウント名

      3.コンテナを作成します

      Googleアナリティクスでいう”プロパティ”みたいな感じでウェブサイトごとに1つのコンテナを作成します。タイムゾーンを選択してドメインを記入します。
      ※名前は 該当アカウント > 該当コンテナ > ユーザーと設定 > 設定 から後で変更可能です。
      コンテナ名

      4.利用規約に同意します

      敢えて書くまでのことでもないですが同意しないと次に進めません。

      利用規約

      5.コードを取得します

      これが色々なタグの変わりにサイト内に埋め込むタグマネージャのタグになります。
      (固有のIDが割り振られているため一部画像を加工してあります。)

      コード

      6.コンテナにタグを追加します

      今回はGoogleアナリティクスなのでアナリティクスを選択。タグの追加は後で行っても問題ありません。
      タグ追加

      7.タグ名を記入します

      今回はタグの種類をGoogleアナリティクスにしたのでウェブプロパティIDを記入する枠が出てきます。ここにウェブプロパティIDを記入しましょう。
      ※アナリティクスの該当アカウント > 該当プロパティ > トラッキング情報 に表示されているUA-から始まるIDです。

      GA新規タグ追加

      ちなみにアナリティクス以外にも下図のタグを登録出来るようになっています。登録できるタグの種類はリリース直後よりも増えています。機会があればまた別で紹介しますが、ここに書かれていない種類のタグに関しては全て「カスタムHTMLタグ」で設定します。

      タグの種類選択

      さて、カタカナが多くてそろそろ混乱しそうです。

      ここで一回配信の流れに関して説明しますと、先ほど「タグマネージャの管理画面の情報を変更するだけでサイトに直接トラッキングコードを埋め込み直した状態と等しくなります。」と説明させて頂きましたがそこに関してもう少し具体的にみてみます。

      タグマネージャルール配信の流れ

      今、[7.タグ名を記入します]まで設定しましたが、これはタグマネージャの中にあるコンテナの1つに1つのタグを追加した。という状態です。

      この後各ページにコンテナ([5.コードを取得します]で発行したコード)を埋め込みますが、埋め込んだだけでは何も変わりません。なぜかというとそのコンテナが空っぽだからです。コンテナ単体では何かを計測することはできません。

      ではどうやって計測出来るようにするかというと、次の[8.ルールを設定します]で設定するルールによってコンテナの中にタグを入れてあげるイメージです。ルールはページ単位ではなくタグ単位で設定します。

      上の図でいうとGoogleアナリティクスのタグは「1、2、4ページ目のコンテナに入れてあげてね」というルールが設定されています。

      逆に「全ページのコンテナに入れてね、でも3ページ目にはいれないでね」というルール設定をすることもできます。

      その他にも「3ページ目のyahooプロモーション広告のタグは2ページ目にアクセスしたことのある場合のみコンテナにタグをいれてね」といった設定も可能です。

      最初にタグマネージャはタグを管理するツールとお伝えしましたが、もう少し具体的にいうと、ルールによってタグを管理・制御しているツール。という感じでしょうか。

      8.ルールを設定します

      「タグを配信するルールを追加」をクリックすると下図の様な画面に遷移します。
      ここでは最も普通なアナリティクスのタグの追加を行うので、「既存のルールから選択」でデフォルトで登録されている、「すべてのページ」をチェックし、「保存」をクリックします。

      ルールの追加

      9.登録情報を確認します

      トラッキングタイプは最も一般的なアナリティクスのタグの設置なのでページビューのままで問題ないです。

      プルダウンをクリックすればその他の種類がでてきます。イベントの設定に関しては今度記事にします。

      タグ名、タグの種類、トラッキングタイプ、配信のルールの4項目が記入されていることを確認したら「保存」ボタンをクリックしてください。

      ルール追加元

      10.コンテナの中身を確認します

      設定したコンテナに何のタグが入っていてどういうルールが入っているか確認できます。マクロに関してはちょっと分かりにくいので、ひとまず今回は触れないでおきます。

      11.バージョンを作成します

      バージョンを作成することでやっとタグ配信の準備が整います。
      バージョンを作成をクリックしてください。

      バージョン作成と言われてもピンと来ない方もいるかもしれませんが、ブログとかでもある「下書きで保存」と似たようなイメージをしていただければわかりやすいかと思います。[10.コンテナの中身を確認します]までの状態ではコンテナにタグとルールをいれただけで放置した状態になります。

      また、バージョンとは履歴。と考えてもらえればいいと思います。バージョン管理とか聞いたことあるかと思いますがそれと同じ様なことだと思っていただければいいかと思います。

      なので、何か新しいタグの設定を行ったけれど今までうまく計測できてたものがうまく行かなくなった。といった場合にはきちんと動いていた時のバージョンに戻せば前の状態できちんと動くことになります。

      タグの中身

      12.バージョン公開前にチェックします

      下書き状態のこのコンテナの内容が正常に公開されるかをチェックするためにプレビューを見てみましょう。プレビューをクリックしてください。

      バージョン公開

      13.プレビューとデバックを選択します

      自分ではよくわからない等、何か理由がある場合はプレビューを共有で他の人にもチェックしてもらうことができます。また、プレビューのみでもいいですが、両方できるプレビューとデバックを選択していいと思います。

      プレビューとデバッグ

      14.プレビューを確認します

      ドメインをクリックしてください。
      プレビュー確認

      15.プレビュー確認画面を見ます

      下図のように該当サイトの半分にタグマネージャが配信されているかどうかが表示されます。配信されている場合は「配信」と表示され、配信されていない場合は「未配信」と表示されます。

      配信されているということは、そのタグがそのページで読み込まれている状態なので、この場合だとGoogleアナリティクスの計測ができていることになります。

      未配信ということは、コンテナからきちんとタグが表示されていない状態なので、タグかルールの設定をどこかしらで間違えているということになります(基本的には。)

      プレビュー中

      16.ようやく公開!

      新しいタブでプレビューが開かれているはずですので、元のタブにもどってください。
      「プレビューモードを終了」をクリックしてください。[12.バージョン公開前にチェックします]の画面に戻ってきたかと思うので、「公開」ボタンをクリックしてください。
      下図が表示されるので、特に問題がなければ「はい」をクリックしてください。

      公開の確認

      17.バージョン一覧

      一番最初に作成したバージョンは恐らく2になると思います(最初から1が登録してあるので)。

      version

      これでアナリティクスが計測される状態になりました!!ひとまずお疲れ様でした。

      おまけ

      最後に、バージョン名の変更等に関しても少し触れておこうと思います

      バージョン名の設定

      バージョン > 該当バージョン > 編集

      バージョン名とメモを記入することができます。ここでバージョン名をきめておくと左側のメニュバーみたいなところに表示されるバージョンがIDではなくバージョン名で表示されます。

      バージョン名を設定せずにたくさんのバージョンを作成してしまうと数字が並んでいて意味わからなくなってしまいます。わかりやすいバージョン名を設定しておきましょう。

      また、複雑な設定を行ったバージョンの場合はメモにどういう設定したかを記入しておくと良いです。こうした管理は一人だけが把握できている、ではなくて他の人が見た時にもわかりやすい状態にしておいた方が良いと思います。

      ユーザー管理

      ユーザーと設定 > ユーザー

      ここでアカウントに対する権限とコンテナごとに対するユーザー権限の設定が行えます。

      以上になります。

      最後に注意点

      とても便利なツールなのですが、いろんな細かい設定をしたい、とかこれとこれを組み合わせてこういうことをしたい、とかいう場合に、ちょっとまだ情報が少なく調査やテストなどに時間がかかってしまってしまうなあというところが悩みどころです。

      例えば社内で導入に向けて提案するとき、或いはクライアントに提案するときに「今大変なのがめちゃくちゃ簡単になりますよ」みたいな感じで安易に伝えてしまうと、特に初期の導入時には「全然カンタンじゃないじゃないですか」ということになりかねません。導入するときにかかるコスト、或いは運用にかかるコストもある程度はかかるということは前提に導入されると良いのではないかと思います。

      とはいえ、まだリリースしてそこまで時間も経っていないなかでも徐々に使いやすくなってきている印象はあるので、ぜひ機会がありましたら早い段階で導入を検討してみてはいかがでしょうか。

      文責:ヴォラーレ株式会社 三好

      おすすめの記事

      2013.2.26 SEOセミナー開催レポート:「基礎と累積の2軸で考え、まずはスタートラインに立つ」

      先の2月26日、弊社主催の無料SEOセミナーを開催させて頂きました。スピーカーの實川自身は今回が初となるセミナーでしたが、アンケートではなかなかの高評価を頂いておりました。ご参加頂いた皆様、大変お忙しい中ご足労下さり、誠に有難うございました。

      セミナー風景、写真

      今回のセミナーでは、SEOの基本である内部対策、外部対策やその考え方について、基本的な部分を中心に90分弱お話させて頂きました。概要を以下にレポートとしてまとめます。

      1.SEOをとりまく環境の変化とその背景
      2.SEOの考え方と取り組み方
      3.具体的に何をすれば良いの
      4.まとめ

      SEOをとりまく環境の変化とその背景

      SEOをとりまく環境

      ここ最近の低品質外部リンクの淘汰や各種アルゴリズムアップデートを経て、これまで多くの企業(SEO会社を)がSEOの中で目指してきたベクトルと、検索エンジンが向かうベクトルに差異があることが結果として露呈するようになりました。

      ・企業の目標
      色んなキーワードで上位表示して、自然検索経由の流入を増やしたい。

      ・検索エンジンの目標
      検索サービスとしての価値を向上し、検索ユーザー数を維持、拡大したい。

      企業としては最終的には売上・業績を伸ばすことを目的に、ウェブサイトへのトラフィックを増やす一つの手段としてSEOに取り組み、ゴールを見据えた目標設定をします。

      しかし検索エンジンとしては、ユーザーの「検索して情報を見つける」という一連の行為の満足度を向上させることができるような検索結果を返せるようにする、ことがまず前提としてあり、この視点が欠落した施策が逆効果、裏目に出たり効果が薄れてきたりしている、という背景があります。

      検索エンジンの変化

      例えば外部リンクが検索順位に大きく影響するため「リンクを購入する」という考え方があります。しかし検索エンジンは昔よりもはるかに精度が向上していますので、リンクを貼れば順位が上がる時代から、少し間違えばそうしたリンクが原因となってサイトへの評価が思い切り下げられるような時代へと変化しました。

      Googleが不正リンクを使ったランキング操作の抑制や、低品質なウェブサイト(中身がない、コピーサイト、重複するコンテンツなど)を検索結果から除外するための動きが、最近では過去に比べより活発になり、そうした施策に対するSEOのリスク、特にそうした施策にばかり依存したSEOを行うことのリスクが顕在化してきています。

      ※筆者補足※
      一方で仮に有料リンク、人工リンクだったとしてもその累積によりウェブサイトへのアクセスや売上が一定量担保出来ている場合だと、すぐにその状況から脱却する(つまりそうした恩恵を破棄して、やり方を一新する)、といった選択肢を取ることも企業的な諸事情により難しいケースが多いのもまた事実と思います。

      つまり「わかっちゃいるんだけど、さあどうしたもんかね」という状態にある方が比較的多いのではないかな、ということですね。

      そうした中、今後は、一気には難しいけど徐々にそういう方向にシフトしていく流れが今後も加速していくでしょう、ということと、問題提起されている人工リンク施策については次第に衰えていくもののしばらくは健在で、リンク提供型のSEOサービスに対しても一定量の需要が引き続き残るでしょう、とは思っていますし、多分これが多くのSEO関係者の共通認識だと思います。そのことの是非については特に触れませんが、基本的にはそういうことだと思っています。

      SEOの考え方と取り組み方

      このような状況において、今後どうやってサイト運営に取り組めば良いのでしょうか。「人工的なリンク施策に頼るは怖いからコンテンツをとにかく増やそう」というような考え方はもちろん良いのですが、そうは言っても時間や労力、場合によってはお金がかかるお話ですのですぐ行動!とする前に一旦落ち着いて考えてみる必要があるのではないでしょうか。

      SEOを2つの軸で考える

      今回のセミナーでは、SEOを行う上で考えるべき軸を大まかに以下の2軸として解説していました。

      縦軸にリンクやコンテンツ(累積資産)、横軸にサイト設計(基礎)、のグラフ

      ①累積する資産:コンテンツやリンク

      • ユーザーがサイトを訪れる理由になる(コンテンツ)
      • 独自の資産となり、競合優位性を築く
      • 結果が出るまでには大抵それなりの時間がかかるしその覚悟が必要
      • 成功すれば、無料の検索トラフィックが安定して獲得できる
      • 基本的には終わりがない取り組み

      ②基礎となる土台:サイト設計

      • 累積したコンテンツやリンクを適切に認識、評価させる
      • 初歩的なWeb/SEO知識でもある程度改善できる
      • ちょっとした改善で大きな効果があることもある。(逆も然り。)
      • 応用的な改善は非常に難しいし高い専門知識が必要

      以上を踏まえ、少しばかり乱暴な分類ではあるかもしれませんが、以下のようなマトリックスでウェブサイトのSEOを考えてみると整理しやすいのではないでしょうか。(セミナーの前後の細かい文脈は割愛しますのでセミナー時資料とは若干修正入れています)

      先ほどのグラフを用いて 左上:コンテンツやリンクはあるが設計に難あり、 右上:コンテンツやリンクが十分で設計もよく出来ている、 右下:設計に問題はないがコンテンツやリンクは乏しい、左下:コンテンツもリンクも設計もダメダメ の分類をしているマトリックス図

      縦軸をコンテンツやリンクの軸、横軸をサイト設計の軸として、右上に行けば行くほどSEOとしては優れていて、左下のような状態(基本的な最適化も出来ていなければコンテンツもリンクも乏しい)は当然優れたSEOには程遠い、というイメージです。

      SEOに優れたサイトにするためには縦軸、横軸どちらか一方だけ優れていれば良い、というわけではなく、どちらも基本的なことはしっかり出来ていなければ継続的にSEOに取り組んだとて、十分な結果を得ることは難しいということですね。

      ですので次の図のように自社のサイトがマトリックスの右下枠に該当するのであれば、細かなチューニングにこだわるのではなく、コンテンツを見直したり増やしながらリンクを獲得していく必要がありますし、左上枠に該当する場合は、闇雲にそのまま突っ走るのではなく、改めてSEO設計を見直すことでコンテンツやリンクの評価を正しく受けることができるようになります。

      先ほどの図でマトリックスの左下から左上枠に向かって改善を図ろうとしている図:「適切に評価されるための土台が整っていないのにひたすらコンテンツやリンクを増やす」

      マトリックスの左下から右下枠に向かって改善を図ろうとする図:「コンテンツやリンクが乏しいのに細かなサイトチューニングばかりこだわろうとする」

      優れたサイトとして検索結果での露出アップを目指すために、何もないところからいきなり完璧を目指すのではなく、まずはスタートラインを目指す、ひとまず「損をしない」ところまでを見据えてSEOに取り組む、というのが今回の一つの主なテーマになります。

      マトリックスの中心をスタート地点として、コンテンツやリンクもまずは必要十分なものを揃え、基礎的なSEOを踏まえた実装が出来ているという状態を目指しましょう、という図

      具体的に何をすれば良いの

      ここから先は、ごく基本的なSEOの内容について概要を説明させて頂きました。このブログの読者の多くの方には改めて解説するようなことではないことも含まれるかもしれませんが、

      • 検索キーワードの考え方や探し方
      • 目標とするSEOキーワード選定の基準
      • コンテンツマップや主要なキーワード
      • キーワードチューニングの考え方と方法
      • クロールやインデックスの仕組み、その制御について
      • 内部リンクのSEO上で考慮するポイント

      等について、事例も含めながら少し駆け足で解説しました。今回のセミナーではいずれもごく基本的な事柄でしたので記事ボリュームの関係から詳細についてはここでは割愛させて頂きます。

      ※筆者補足※
      基本的なこととは言っても、本来これら一つ一つの項目でも最低1時間ずつくらいはかけてお話しないといけないくらい、考えることや知らなければいけないことは多いと感じているのですが、一つのセミナーでまとめて語ることはやっぱり難しいです(昔一度トライしましたが2時間半の予定が4時間くらいかかってなお、全然話しきれなかったです)

      まとめ

      基本的なこと、一般的にこうした方が良い、と言われていることをとにかくやってみる、ということが出来れば、度合いはともあれ基本的にSEOとは一定以上の効果が得られるものです。見る限り、世の中に公開されているウェブサイトの大半は、SEOの基本的なことがキチンと実践できているとは言い難い状態である、というのが現実だと思います。

      何か素晴らしいSEOの事例、素晴らしい技術、最新の動向などを知ることもとても大切と思いますが、まずは走り出しの段階で、当たり前にやった方が良いことを当たり前に実践できているか、ということがその後のSEOの成否を大きく左右することにつながると思います。

      情報収集される際の注意として、主にリンク関連の話題、「上位表示対策」についての話題などでインターネット上にある情報は玉石混交、かつ内訳は石が大半という印象ですので、情報の取捨選択に自信がない方や相応のリスクを負えない方、そもそもどういうリスクがあるかがよく分からないという方は、何かしらの根拠がない限りはあまり参考にされないほうが今は無難だと思います(SEO関連の書籍につきましても良著とそうでないものは同様に分かれる、という印象です)。

      最後に、今後も定期的にSEOセミナーは開催します(直近では3月に別テーマで開催させて頂く予定です)。基本的にはこうした基礎的なセミナーは無料で開催するスタンスですが、夏あたりに少し突っ込んだテーマで有料のセミナーも開催させて頂く予定ですので、その際には改めて告知させて頂きます。

      と、今回の記事は比較的堅苦しい感じで終わらせて頂きます。このブログにつきましても、基本的には若いメンバーを中心に(今度こそ)継続的に更新していく予定ですので、引き続きよろしくお願い致します。

      文責:ヴォラーレ株式会社 土居

      おすすめの記事

      Operaブラウザの開発者向けツール”Dragonfly” その機能

      私は常日頃からブラウザはOperaを愛用しています。今回はそのOperaの知られざる便利機能”Dragonfly”をご紹介します。

      このDragonflyは、SEOにも一役買うはずです。

      Opera Logomark

      ところで、そもそもみなさんはOperaをご存じでしょうか?

      そもそも「Opera」ってなに?

      ウェブブラウザです。

      公式サイト : Opera Web ブラウザ  http://jp.opera.com/browser/

      世界でのシェアは2%弱とされています。マイナーです。日本でのシェアは更に少なく1.5%弱とされていて、数としては絶対的少数派であろうブラウザです。
      browser_share

      参照: 「世界&国内のブラウザシェア(2012年11月更新)」
      http://groomee.com/blog/web-design/browser-share/

      Operaでなにができるの?

      • きっとクロームよりも速い(はず)
      • 回線が遅いときでも「Opera turbo」という加速装置が作動するので速い(はず)
      • Opera Turbo設定画面
        opera_turbo

      • マウスジェスチャー機能で「戻る」「更新」などが俊足で行える
      • 空白タブに「Speed Dial」という、よく使うブックマークを見やすい場所にまとめておける
      • opera_speed_dial

      • 「Private Tab」で、リファラはかない&キャッシュもたない&履歴残さない状態でブラウズできる(しかも右クリックで瞬時に起動)
      • Ctrl + Enter で自動でログインできる(もしくは鍵マークをポチ)
      • タブをグループにしてまとめておける(しかもグループ単位で最小化できる)
      • 「ページ情報」からtitle, meta keywords,description, 外部cssファイル, Javascriptファイル, ページのバイト数などの情報を瞬時に見られる
      • 広告ブロック、フィッシング対策も標準装備
      • タブを数多く開いた際に、二段にして表示できる
      • Opera Linkで自分のPCのすべてのOperaのブックマークを同期できる
      • Opera Miniというモバイル用のブラウザも完備(Opera Linkも実装しているのでPCと同期)
      • 利用者人口が少ないので、セキュリティ上相対的に安全

      などの機能がエクステンション(一般的なブラウザでいうアドオン)なしのデフォルトで使えます。Operaは基本的にデフォルトで使うものなのです。

      ですが、はっきり言えば、こんなことは他のブラウザでも代替できてしまうことなので、誠に残念ながら「Operaでないとできない」というほどのことではありません。

      なので早速本題、”Dragonfly”の便利機能にうつりたいと思います。

      Opera Dragonflyとは

      Dragonflyとは、一言でいえばOperaに実装されたディベロッパーツールです。
      opera_dragonfly
      「Opera Dragonfly | 解き放たれた新しいプレデター」   http://jp.opera.com/dragonfly/

      Dragonfly (とんぼ)というネーミングは、Bug(虫)を片端から食べていくことからきているそうです。この機能はOperaにデフォルトで入っているので、ブラウザをインストールすればすぐに利用することができます。

      Dragonflyの使い方

      ソースを検証したいページを開いて、左クリックし、「要素を検証する」という項目をクリックします。すると、とんぼがぱたぱたと羽ばたくエフェクトとともに、颯爽とOpera Dragonflyが起動します。

      Dragonflyの便利機能

      このDragonflyには便利機能がたくさんついていますが、Operaの公式サイトでも何故かその使い方の詳細が載っていません。なので、ここでその便利な機能を列記します。

      • HTMLソースをUIから選択して見れる
      • 外部CSSをHTMLから参照してくれる
      • そのページを取得するまでに何秒かかったか / ファイルをいくつ参照したかがわかる

      HTMLソースをUIから選択して見れる

      opera_dragonfly_amazon

      ↑こんな感じで、UIから部分を選択してソースを検証できます。

      クロームその他のディベロッパーツールでは、「ソースを選択→UIの該当部分を表示」というあんばいですが、Opera Dragonflyでは違います。UIを選択すると該当ソースが、ソースを選択すると該当UIがと、どちらからでも検証できるのです。

      たとえば「この画像にどんなalt属性(画像の代替となるテキスト要素)が記載されているかどうか見たい」と思った時には、Dragonflyを起動してその画像をクリックすることで調べられるわけです。

      外部CSSをHTMLから参照してくれる

      opera_dragonfly_source

      また、Dragonflyはlink要素で参照されている外部CSSファイルも読み込んでくれます。たとえば、先の画像がimgでなくbackground-imageであった場合にも、その記述を確認することができるわけです。

      また、そこで不適切にtext-indentが使用されていないか等も、あわせてチェックできます。

      そのページを取得するまでに何秒かかったか / ファイルをいくつ参照したかがわかる

      opera_dragonfly_resource

      そのページがどれだけのHTML、画像、CSS、Javascriptファイルを呼び出しているかを確認することができ、またそれらを呼び出すのにどれだけの時間、バイト数を要したかを項目別に一覧することができます。

      つまり、読み込みがものすごく遅いページがあり、ユーザビリティやクローラビリティを損なうと考えられる場合に、いったい何がその原因なのかを判断することができるのです。

      (ただ、この機能は今はまださほど完成度が高くないので、やたらめったら時間のかかる場合もあります。)

      ほか詳しくは書きませんがこんなこともできる

      • Javascriptだけひっぱってきて検証できる (Scripts)
      • W3C Validationを瞬時にかけられる (Errors)
      • ピクセルをマウス指定してそのカラーコードやRGBを取得できる (Utilities)
      • ページ内のオブジェクトの大きさをピクセル単位で測れる (Utilities)

      まとめ

      まとめると、Operaを使うとこのような機能がデフォルトで利用でき、とても便利なのです。

      とはいえ、率直にいえばこれらの機能は他のブラウザでもアドオンやエクステンション次第でほとんど実現できるので、絶対にOperaでなければならない強烈な理由があるかと問われれば、やっぱり見当たりません。

      Opera最強伝説?

      あとこれは補足なんですが、Operaは基本的にGoogleとの相性が良くありません。一例としては、Google docsが見れないことがよくあります。おまけにキーワードツールも使えません。そして、なににつけ「クロームのような最新のブラウザにしませんか?」とか提案されて涙目です。Operaも最新のブラウザなのに。

      例えばOperaからAdWordsキーワードツールを開くと、”Your Browser is no longer supported” だなんてけんもほろろの素っ気なさです。

      opera_adwords

      結論

      つまるところ、Operaを使う理由は、その機能面にではなく、全体としてのまとまりのよさ、使いやすさにあるのです。

      さて、そんなこんなで不遇の感があるOperaですが、私がもともと根っからのOperaユーザなのでこんな記事を書いてみました。でも、少なくともSEOに関わる方であれば出来ればChromeなどその他のブラウザを利用することをお薦めせざるを得ません。

      皆さま、今後ともOperaをよろしくお願いします。

      文責 : 植木

      おすすめの記事

      リンク否認ツールの使い方・注意点・使用事例などまとめ

      昨年10月にリンク否認ツールが公開されてから早4ヶ月が経ちまして、リンク否認ツールを使用した後に再審査リクエストに成功する事例なども見受けられるようになってきました。今回のブログでは、改めて否認ツールについての簡単なおさらいや、いくつかの事例のご紹介を致します。

      リンクの否認ツールとは

      何のためのツールか

      googleのウェブマスター向け公式ブログでは否認ツールについての記事が2つあります。昨年10月17日の記事には

      この新しいツールは、サイトへの不自然なリンクを理由に手動によるスパム対策が実施されているというメッセージが Google から届いた際に、ウェブマスター向けガイドライン違反となる箇所の違反状態を解消するためにお使いいただけます。サイトへの不自然なリンクに関するメッセージが届いていない場合は、このツールを使う必要はありません。

      というように書かれており、手動ペナルティに対する再審査リクエストのためのツールと説明されています。しかし10月26日の記事のQ&Aの中では、

      質問: 「サイトへの不自然なリンク」の通知を受け取っていなくても、予防策としてリンク ファイルを作成すべきですか?

      回答: 通称 “Penguin” アップデートの影響がサイトに及んでおり、スパムの疑いのあるリンクや低品質なリンクを設定したことが原因ではないかと思う場合は、サイトへのリンクを調査し、Google のウェブマスター向けガイドラインに違反するリンク プログラム などによるリンクを否認することをおすすめします。

      というQ&Aが記載されており、手動ペナルティを受けた状態でなくとも、粗悪なリンクによる悪影響を取り除くためにも使用したほうが良い、としています。

      後ほどの注意点にも書いてある内容になりますが、Googleは否認ツールについて、「本当に必要な時にしか使用すべきでない」と何度も解説しています。前者の記事で手動ペナルティを受けた状態で使用するツールであると説明しているのは、「なぜ貼られているのか不明で大した恩恵もなさそうなリンクはとりあえず全部否認してしまおう」というような使い方を防止するためのものでしょう。したがって、手動ペナルティ時に限らず粗悪なリンクによる影響やリスクを取り除きたいときに、やむなく使用するツールといえます。

      否認ツールの使い方

      否認前後のフロー

      否認するリンクを1行1URLずつ、プレーンテキスト(.txtのファイル)に記載します。ドメイン単位で否認することも可能で、その場合「domain:www.example.com」というように書きます。なお否認するリンクについては、WMTから確認できる被リンクの他、Majestic SEOOpen Site Explorer等のツールから検出できるリンクも合わせて精査することで、より多くのリンクをチェックすることができます。
      否認リンクリスト

      ファイルを準備したら、WMT上の設定画面より、下図のようにファイルをアップロードできます。
      リンク否認フロー
      なお、リンク否認が正しく行われると、以下のようなメッセージが届きます。
      否認確認メール
      また、否認ツール使用後はリンク登録画面が下図のようになります。否認したリンクの確認や、否認の解除を行うことができます。もちろん新たにリンクを否認することも可能です。
      否認編集

      使用上の注意点

      あまり安易に使わないことがまず重要です。Google公式ブログなどでも度々言及されていますが、まず粗悪なリンクについては削除を試みることです。削除を試みた上で、どうしてもできないものに限り否認を使う、というようにするのがよいでしょう。

      また、上図でも度々使用を確認されていますが、使用に当たっては慎重になる必要があります。間違って否認をしてしまった場合、内容を差し替えることはできますが、それが反映されるまで更に数週間かかると言われているからです。また、ドメイン単位で否認する際はそのドメインから正当なリンクを受けていないか確認した方がよいでしょう。

      リンク否認後の順位推移

      順位推移事例1

      否認ツールを使用した事例です。もともと上位を維持していたキーワードでしたが徐々に順位が下がってきており、特に昨年12月頃から下降のペースが上がってきていました。SEO目的の粗悪なリンクが設置されており、前々から削除を試みてはいましたが、削除しきれないものも多くありました。具体的には無料なディレクトリ型検索サイトからのリンクや、昔ながらのワードサラダで生成したテキストからのキーワードリンクがその大半を占めていました。そのような中で、12月中旬より大きく順位が下がったためリンクの否認を行う運びとなりました。

      リンクの否認後もしばらくは下がっていましたが、2週間ほど経った頃から順位が回復していき、1か月後には下がる前の水準まで戻りました。googleの公式ブログでも、否認後効果が出るまで数週間の期間を要することもあると書かれていますが、ちょうどそれに該当する時期での回復となります。

      順位推移事例2

      こちらも同様の事例で、どうしても粗悪なリンクが削除できていなかったため、順位の下降後リンクの否認を行いました。約2週間後に順位がある程度回復しています。これだけで否認の効果があるとは全く断定できませんが、このような事例はけっこうあるため、使う価値はあるでしょう。

      まとめ

      仮に粗悪でリスクを伴う不自然なリンクであっても、上位表示という恩恵を受けているケースは今でもまだまだあります。しかし、ペナルティなど明らかな下落は起きておらずとも、粗悪な被リンクにより順位が安定しないことや、伸び悩んでしまうことも現実には多くあります。

      そのような場合、どうしても問題の解消が不可能な場合は、リンク否認ツールの使用により改善が見込める可能性はありそうです。しかし、実際に否認ツールを使っても再審査リクエストに合格できない事例や、特に何の変化が見られないというような事例も多くあります。

      どちらにせよ問題を解決してくれる万能ツール、というわけではないことは間違いなさそうですので、不自然なリンクが多く残っている場合には、まずはそれらのリンクの削除を試みた上で、否認ツールはどうしても削除が難しい場合の「最終手段」として使用する、くらいが現時点ではちょうど良さそうです。

      文責 : 志水

      おすすめの記事