よく見るHTTPステータスコード一覧とその意味を理解する

404や503、301・302など「ステータスコード」とか言われるものをよく見るけど実はその意味はよく分かっていません、という方は意外に多いんじゃないかなと思ったので、よく見るものを一覧でまとめて解説してみました。このあたりの話題にそこまで詳しくない方でなくとも理解できるように解説しているつもりです。

Webブラウザやクローラーが情報を受け取る仕組み

私たちは普段、FireFoxやChrome、SafariなどのWebブラウザを通じてURLにアクセスしてWebコンテンツを閲覧しています。この「URLにアクセスする」ときに、Webブラウザは「リクエスト」を送り、Webサーバーが「レスポンス」を返す、というやり取り(通信)が行われています。

ブラウザからリクエスト(URL)を送り、サーバーからレスポンスが返される図

リクエストを送る側は、「サーバー(提供者)」に対して「クライアント(依頼者)」と呼ばれます。Googleのような検索エンジンのクローラーもブラウザと同じくクライアントという扱いになります。

HTTPステータスコードとは?

WebブラウザやクローラーがURLにアクセスしようとするとWebサーバーからどのようなレスポンスを受け取っているのか?というのは例えばGoogleのウェブマスターツールの基本機能「Fetch as Google」などを使って知ることができます。
※図の中の赤枠以下の情報を受け取っています。

ウェブマスターツール Fetch as Google を使用してGoogleBotが受け取ったデータが表示。ステータスライン、メタ情報、ボディメッセージを受け取っている。

少し見づらいですが、通常通りアクセスできてコンテンツの情報が得られる場合にはブラウザやクローラーはこのようなデータをWebサーバーから受け取っています。

ここで少しだけ專門用語を使うと、上の図にあるようなレスポンスは「ステータスライン」「レスポンスヘッダ」「メッセージボディ」の3つから成っています。
上からステータスライン、メタ情報(データに付随する情報)、ボディメッセージ(この場合はHTMLテキスト)という具合でデータを受け取っている

レスポンスヘッダとメッセージボディについては今回本題から外れますが、折角ですので合わせて簡単に解説します。

ステータスライン

ステータスラインは一番上に記述されている「HTTP/1.1 200 OK」や「HTTP/1.1 301 Moved Permanently」等のようなもので、「レスポンスの状態」を表します。この中の「200」や「301」といった3桁の数字が今回の話題となる「ステータスコード」です。「OK」「Moved Permanently」は「説明句」というもので、その名の通りステータスコードの内容説明をするものです。

HTTP/1.1 は「通信規約とそのバージョン」 200 はステータスコード OK は説明句

クライアント(WebブラウザやGoogleBot)はWebサーバからどのステータスコードが返ってきたかによって、その中身を見なくとも次にどんな処理を行えばよいかを判断することができます。

レスポンスヘッダ

レスポンスに付与するメタ情報が記載されている部分です。ここでいうメタ情報とは、「(受け取った)データに関する補足情報」のようなものと思って下さい。例えば、URLが転送(リダイレクト)されている場合に転送先のURLの情報を「Location」として付与する、などの情報です。

メッセージボディ

いわゆる”本文”にあたるもので、Webページに問題なくアクセスできた場合にはHTML情報がここに記載されます。私達が普段見ているWebページはこのHTMLテキストをブラウザが解釈して表示したものです。

さて、本題のHTTPステータスコードについて話を戻します。

HTTPステータスコード

ステータスコードは本来ブラウザやクローラーが処理するために付与されているものなので、普段私達がブラウザ上でWebページを見ている際に見ることはありませんが、時々エラーでこんなのをお目にかかることはありますね。

404 Not Found

503 Service Unavailable

また、Google Chromeに標準搭載されているDeveloper Toolsや、Firefoxのアドオン(Live HTTP headersやFirebug等)を使えばレスポンスに含まれているHTTPステータスコードを確認することができます。今回はその使い方は割愛させていただきますが興味の有る方はお試しください。

それでは次節からは本題であるステータスコードについてお話をさせていただきます。

ステータスコードの大まかな分類と意味

さて、ステータスコードは大まかに分けて5つに分けられます。

  • 100番台 : 処理中
  • 200番台 : 成功
  • 300番台 : リダイレクト
  • 400番台 : クライアントエラー
  • 500番台 : サーバエラー

このようにそれぞれの番台によって異なる意味を持っています。個別のステータスコードの前に、まずここでは各番台について簡単にその意味を説明しておきます。

100番台

100番台はクライアントからのリクエストを処理中であることを示すステータスです。

Webサーバ側からクライアント側に対して「もうちょっと詳しくやってほしいことを教えてくれ」とか「今、頼まれたことをやってるんだけども時間かかるわ」という内容のレスポンスを返します。これらのステータスコードが使われている場面はあまり見かけません。

200番台

200番台はクライアントからのリクエストが受付に成功したというステータスです。私達がWebページを見ているとき、多くが200番のステータスです。

300番台

300番台は「リダイレクト」と書きましたが、厳密には「リクエストを達成するためには、ブラウザ側で追加の処理を実行する必要がある」というステータスです。

その追加の処理が301では例えば「別URLへの移動」になります。301番、302番のコードについては「301リダイレクト」「302リダイレクト」などサイトURL変更の際の転送処理として聞いたことのある方が多いのではないでしょうか。

400番台・500番台

400番台、500番台のコードはエラーコードであり、正常にリクエストされたものが返せない状態のときに使用されます。そのうち400番台はクライアント側に原因があるエラー、500番台はWebサーバ側が原因のエラーです。

それぞれのステータスコードについて

ここまででざっくりとした分類をお話ししたので、本節ではそれぞれのステータスコードについてお話します。今回は普段の業務を行う中で比較的頻繁に目にすることの多いメジャーなものに絞りたいと思います。

200 OK

リクエストは問題なく受理され、要求に従ったレスポンスが返されます。私達がWebページを正常に閲覧している際、大抵このステータスとともに返ってきたレスポンスの内容を見ています。

200はそのまま「OK、問題ありません」の意味

301 Moved Permanently

リクエストで要求された情報の中身が別の場所に移動したことを示します。

この移動は一時的なものではなく、恒久的なものです。サイトの引越しを行ったりしてアクセスするURLが変更され、ずっとそのURLを使用していく場合にこのステータスコードを返すようにしておく必要があります。

301は恒久的な転送、つまり「引っ越したよ」の意味。

googleからの評価を新しいURLに引き継がせるためにも301を設定しておきましょう。また、あるページへのアクセス経路を一本にまとめる、いわゆるサイトの正規化を行う場合にもこの301リダイレクトを使用します。

302 Found (※Moved Temporarily)

こちらもリクエストで要求された情報の中身が別の場所に移動したことを示します。301と異なるのは、その移動が一時的なものであるという点です。

302は「今ここにいないよ、そのうち戻ってくるよ」の意味

たとえばメンテナンス等で一時的にサイトを別の場所に移さなければならないが、また元の場所に戻す場合はこの302番のステータスを返すように設定しておきましょう。GoogleBotもそれが一時的な移動であることを読み取ってサイトの評価を移動先のURLに移すことはしません。

※302は昔の規格(HTTP/1.0)では説明句が「Moved Temporarily」でしたが現行の規格(HTTP/1.1)になって「Found」に変更されました。一時的な転送、という以外でも利用されることが多かったためのようで、現在別の307という比較的マイナーなステータスコードで「Temporary Redirect」が割り振られていますが、実際の使用例は見たことはありません。

304 Not Modified

これはリダイレクトではありませんが、補足的に説明をしておきます。

304は「未更新」を表します。私達が正常にWebページを見れているとき、多くは200ステータスが返ってきているのですが、実際には304ステータスのコンテンツが混じっていることもあります。このときWebサーバからはメッセージボディ、つまりコンテンツが返ってきません。ブラウザ側では304を受け取ると、ブラウザ内のキャッシュに残っているコンテンツを使ってWebページを表示しています。

ステータスコード304は「前に渡したのと同じだよ」という意味

403 Forbidden

サーバ側で外から見えないように設定してある領域へのアクセスをリクエストしたときに返ってくるステータスコードです。簡単に言えば立ち入り禁止です。

403は立入禁止の意味。

見せたいページでこのエラーが出ているときはアクセス制御の設定が間違っている可能性がありますので設定ができる方は確認してみましょう。

404 Not Found

リクエストしたページが見つからない場合に返されるステータスコードです。

404はそのまま「探したけど見つかりませんでした」の意味

ウェブマスターツールではGoogleBotが検出した404エラーをレポートしてくれていますが、特に404エラーが多いからといってgoogleからのサイトの評価が下がることはないと言われています。サイト内からリンクされているページが404エラーになっている(=リンク切れ)のは問題ですが、そうでない限りは放置しても良いかと思います。

他サイトから多くのリンクを受けているようなページを404エラーとしてしまうと、折角サイトが得られた被リンクの恩恵を逃してしまうことになります。何かしら代替のコンテンツを用意してそのページを残しておくか、近い内容を持つページに301リダイレクトするなどでリンク資産をサイト内に残せる処理をするのが一般的です。

410 Gone

404と同じくリクエストしたページが見つからない場合に返されるステータスコードです。404と違う点は、そのリクエスト先のページが「消滅した」という意味合いがあることです。

410は「前あったけどもう無いんだよね」の意味。

こちらの記事によると最近はGoogleBotは404と410を微妙に区別しているとのことですが、記事でも書いてあるようにそこまで神経質になる必要はほとんどないと思います。

補足:ソフト404エラー

ブラウザ上ではそのページが存在しない旨のメッセージが表示されているにも関わらず、ステータスコードとしては404や410を返していない(つまり正常なレスポンスとして「200 OK」が返されている)パターンが存在します。これを「ソフト404エラー」などと呼びます。

ソフト404はサーバーは「OK」と返しているのにユーザーには「無い」に見えている状態

どういうときに発生するかというと、例えばサイト運営側で独自にエラーメッセージ表示用のコンテンツを作成して、想定していないURLに対してリダイレクトをかけてそのコンテンツに飛ばすというケースが考えられるでしょうか。

Webページを見ているユーザに対してページがないことが伝わっても、機械的にHTTPステータスコードを読み取るbotに対しては伝わりません。このようなソフト404ページが存在するとGoogleBotがクロールのリソースを無駄に消費することになりますので、存在しないページにアクセスしたときはステータスコードとして404もしくは410が返されるように正しく設定するべきです。

500 Internal Server Error

サーバ側の何らかのミスによってリクエストに応えられない場合です。例えばシステム開発中にバグを混入させてしまうとこのエラーを起こすことがあります。

500は「サーバー内部の調子が悪い」のエラーの意味

503 Service Unavailable

Webサーバの過負荷状態で一時的にWebページが表示できないときなどに発生します。例えばTwitterがクジラを表示させている状態、とでも言えばイメージが沸きやすいでしょうか。

twitterが混雑してるとくじらが出ます。

メンテナンスでサービスをストップさせている際に意図的に503を返すように設定することもありますが、基本的にはサーバー負荷の問題ですので頻発するようであれば、サーバーの変更を検討するか、サイト側での負荷軽減などの手を打つ必要があります。

503は「今忙しいから後にして」の意味。

まとめ

ここまでHTTPステータスコードについてのお話をさせていただきましたがいかがでしたでしょうか。表には出てこない部分ではありますが、こうした部分まで意識してみることができれば、今よりもクローラにとって優しいサイトが作れるかもしれません。

特に一般の方(技術に関わりのない方)にとってはこうした話というのはあまり重要視されにくい話題と思いますが、SEOの観点では、サイトが検索エンジンに正常にクロールされ、正しく検索インデックスに登録してもらえるための基本的な作法として、サイトを制作・管理する方には皆さまに理解していただけると嬉しいです。

文責:ヴォラーレ株式会社 西村

おすすめの記事

2013.3.27 SEOセミナー開催レポート:「ペナルティ解除はやるべきことを着実に、ただひたすらに泥臭く」

先の3月27日に”事例から見る被リンクペナルティの対処法とその結果“というテーマでのSEOセミナーを開催致しました。今回は、実際のセミナー内容をtwitterにて一部実況しておりましたものをTogetterでまとめておきましたので合わせてご覧頂けると良いかと思います。

まとめ:リンクペナルティに関する無料SEOセミナー 実況中継セルフまとめ - Togetter
※何と言いますかこの記事と空気感に結構な差がありますが、ある程度ご了承下さいませ。

セミナー風景

今回は数多くのペナルティ解除実績を持っているスピーカーが、理屈や技術論というよりも主に事例を交えて実際の作業内容や解除までに必要となるフローなど具体的にお伝えさせて頂くといった内容になりました。以下に概要を改めてまとめさせて頂きます。

    セミナーでお伝えした内容(概要)

    当日の話題としましては、

    • 不自然なリンクがペナルティを受ける理由とその背景、予備知識など
    • 順位下落のパターンや影響範囲
    • ウェブマスターツールの設置方法や使い方
    • 手動ペナルティを受けた際の対処法、具体的な手順
    • 事例紹介

    といった内容でした。中間で質問が色んな方から様々飛び交い、比較的アクティブな感じの2時間だったとは思います。

    中盤までは基本的な不自然リンクやそのリスクの話、基本的なペナルティ解除の作業内容などをお話させて頂きました。基本的な部分は以下の記事に書いてあるような、一般的な流れ作業の詳細解説になりますので割愛します。
    ※参考:不自然リンクによるGoogleペナルティ解除事例 (基礎編)

    事例はそれなりにいろいろご紹介させて頂きました。流石に社名等は一切情報出せませんが、具体的にどういったシーンで、どのような形でペナルティが解除されたのか、結構詳細までお話させて頂きました。

    いろんな事例紹介。例えばリンクペナルティ受けてる関連サイトからのリンク。外す、という選択肢は基本的には取れないです。→ そういう場合nofollowが有効かもしれないですね

    警告来てないけど再審査送ったら「手動対応を解除しました」として解除されることももちろんあり。通常の被リンク警告来てたけど何度か再審査送ったら「手動対応とってませんよ」とか。

    再審査リクエストNG後の個別対応メール(具体的な不自然リンクの指摘を含むメール)の実例。具体例はさすがに伏せてますが。

    などなど。で、人がやっているとか人がやっていないとかに関わらず、100%決まりきった対応が常にされているわけではない、というのは変わらないと思っています。ですので、ある程度割り切って、再審査の内側の事情がどうであれ、考えても分からないようなことを考えていても仕方がなく、取り敢えずやらなきゃダメ、やった方が良い、と言われていることを素直に進めていくことが重要です。というような論旨ではありました。

    また、補足としまして今回はリンクの否認ツールについてはそこまで触れませんでしたが(何とも確証が得られない曖昧な情報が多かったという背景もあり)、否認ツールがあろうとなかろ再審査リクエストのフローにおいては主役とはなりにくいものですのであくまで補助的なツールとして認識して頂ければと思います。

    ペナルティに関する質疑応答

    セミナー中、話題の合間で参加者の方々から質問を頂くことがありましたので、そのうちの一部をご紹介しつつ、改めてまとめて回答しておきます。

    こういう場所では書きづらい、具体的な固有名詞が出るような内容、或いは情報としてあまりに不確かな内容のものについては割愛させて頂きます。

    質問1: 全体のうちどれくらいの不自然リンクが外れれば解除される?

    あくまで実際にあった事例を元に、という前提ですが、それなりの数(数百以上)確認できた不自然リンクのうち、6割強ほどの削除しかできなかった(それでもそれまでには相当な時間と労力を要した)ようなケースで、再審査に合格したケースはありますが、稀な部類です。全体の7~8割とかが削除できるとやや成功率は上がりますが、それでもNGな場合も多くあります。出来れば9割程度は削除しておきたい、というのを目安にしていただくと良いと思います。

    手動ペナルティを受けるようなケースで、100%全てのリンクが外れることは逆に珍しいですが、ただほとんど全部削除できましたよ、という状況まで持っていくことができればほぼ100%再審査は合格する、とお考え下さい。

    質問2: 向けられている被リンクの内容を把握するために使用するツールは?

    基本的にはウェブマスターツール(WMT)のリンクデータを利用します。
    ウェブマスターツール

    しかし、実際にはデータ量が多い場合にはこれだけではあまり網羅出来ないケースも多く、外部の有料ツールなども使用した方が漏れ無く調査することが出来ます。

    一般的に使われるリンク調査ツールでは以下のようなものが代表的です。

    ahrefs
    ahrefs

    Open Site Explorer(通称:OSE)
    ose

    MAJESTIC SEO
    majestic_seo

    こうしたツールを用いて抽出したリンクデータのうち、不自然なリンク(=SEO以外で価値を持たないリンク)を洗い出してどんなパターンのリンクを獲得していたのかを把握していきます。(自分のウェブサイトにどんなリンクが向けられているのか、ということは、ペナルティ云々に関わらず定期的にチェックされることをおすすめします。)

    質問3: Twitter等から一気に大量のリンクが得られることは問題になるか?

    いくら得られてもプラスにはなっても問題にはなり得ませんので存分に拡散されて下さい。という回答になります。

    twitterに限らず、一気に大量のリンクが集まること自体には何も問題はありません。一気に話題になればtwitterやはてなブックマークを始めとして様々なウェブ上の媒体で取り上げられ、一度に数千規模のリンクを獲得するようなことも日常的に起きています。こういうものは全て自然に発生したもので、少なくともSEOを意図して獲得したものではありませんので、マイナスとなるような要素は無いと思ってもらって大丈夫です。

    結局、非常に無機質で機械的なものであったり、特定のパターンの決まりきったリンクばかりを一度に大量に集めた場合などは、思い切り不自然なリンク増加パターンとして引っかかってしまい何かしら悪影響を受ける、ということだと思っています。

    さてここで少し補足しておくと、「質の高いリンク」という表現を良く聞くと思いますが、「リスクのないリンク」と「SEO効果の高いリンク」というのは全くの別ものですので注意が必要です。

    再審査がうまくいかない、と相談頂くケースでも、全くのSEO用の不自然リンクが外れていない、外そうともしていない状況で再審査を何度も送っているような場合があります。「これはSEO会社から質が高いリンクだから安全だと言われている」などという声もありました。

    基本的には、SEO目的で設置されているというよりも、「SEO以外に目的を持たないリンク」については、再審査リクエストの際には、全てとは言いませんが高確率で不自然リンクに分類して削除対象にしなければならない、と思っていて構いません。冒頭で紹介したまとめから引用しますが、

    ざっくりまとめると「SEOに効くリンク ≠ 本来Googleが良しとするリンク」と「今効果が出ているもの ≠ 今後も効果が出続けるもの」なので、それに対してどう捉えるか、という問題。

    ということだと思って色々と判断して頂ければと思います。

    質問4: 有料ディレクトリ登録サービスはNGなのか?OKなのか?

    具体的な名前は差し控えますが、一般に名の知れているディレクトリサービスにもOKなものとNGなもの、現状ちょっと不明なものがあります。誤解なきようにお伝えしておくと、本当に多くのサイトが申請を出すような一部の有料ディレクトリ登録は問題ない、としておきます。

    実際に、Googleから送られてきた再審査リクエストNGのメールで「不自然リンクの具体例ってこういうものです」として具体的なURLがいくつか羅列されていたケースがありましたが、その中身は思いっきり有料ディレクトリからのリンクでした。この時点で、「有料の審査を経たディレクトリ登録なら全て安全」ではない、ということですね。

    このライン引き、判断材料としましては、あまり断定することは避けたいとは思っていますが、事実ベースでお伝えしますとGoogleは基本的には金銭のやり取りに基づく「リンクの販売」をガイドラインで明確に禁止しています。

    厳密に「これはディレクトリ登録サービス、これは結果的にはリンク販売です」っていう明確なラインを引くことができるかどうかは別として、少なくとも、「高いSEO効果がある被リンクを獲得」「ページランク○○の良質な被リンクを獲得」といった宣伝文句は、少しこのご時世では慎重に捉えた方が良いんじゃないでしょうか。

    無料でも有料でも、それがディレクトリサイトとしてきちんと機能してたり、意味のあるディレクトリだったり、「適正な審査」の上での登録、ということであれば問題は全然ないと思うのですよ。まあ、どこまでのラインをそこで問題ないとするかは、ちょっと微妙なんですけども。

    少しふわっとした表現になりますが、この程度の表現に留めておきます。

    質問5: 再審査リクエストは人的なチェックを本当に挟んでいると思うか?

    基本的には、人的なチェックは普通にされていると思います。ただ、純粋に人的に全てチェック、というのは現実的に厳しいでしょうから、(それ以前に何かしらシステム的なチェックも入ると思いますが)一部を抜き取りチェックという形式なんじゃないでしょうか。と思います。

    ただ、こういう疑問を持つことは興味としてはもちろん有り得るとは思うのですが、「仮に人的なチェックじゃない、実は再審査の内容など誰も見ていなかった」ということだったとしても、特にやるべきことというのは変わらないんじゃないでしょうか、とは思っているわけです。

    全体の一連の作業の中でドキュメントにまとめるとかそういった作業というのはごく一部でしかなく、それ以外は問題が解消されたのか(リンクが外れてるのか、外れていないのか)というところのシンプルな判断だと思っています。大半外れていないのであれば再審査をどのように工夫したところでほぼNGですし、100%全ての問題が解消されたのであれば再審査リクエストをかなり簡易に記載してもペナルティは解除されます。

    ただ多くの場合、「外せるリンクは外せたが、本当にどうしても外せないものも残ってしまっている」からペナルティが解除されないわけで、その状況で解除の可能性を1%でも高くするためには、できることは全てやっておきましょうよ、というのは今まで色んなペナルティ解除対応を見てきて思ったところです。

    基本的には、ペナルティ解除は、決して何か高尚なテクニックが云々、ではなく、非常に地味で、そこに創造性を挟む余地のないような、泥臭い作業をひたすらやりきれるかどうか、というところなんじゃないかなと思っています。

    まとめ(とお知らせ)

    手動ペナルティの解除って、言ってしまえば基本的には生産的なものではなくマイナスをゼロに戻すだけの作業ですし、それなのに解除に向かうにあたっての時間と労力は相当にかかりますし、その上でずっと解除できないケースもそれなりにあります。

    ですので基本的には、今後は、特に外部リンクに関しての派手なリスクテイクは割けた方が良いと思います、ということと、万が一ペナルティ受けてしまった場合には、とりあえず諦めずにやれること全部やってみましょう、という結論になります。必要があればご相談下さい。

    最後にお知らせなのですが、弊社では2013年度の取り組みとして、1ヶ月に1回はこうしたSEOセミナーを(だいたい)無料にて開催させて頂く予定です。中には過去と重複した内容になることもありますが、出来るだけ毎回異なるテーマで開催できるようにしたいと考えています。

    次回は久々にが講師を努めさせて頂く予定で”Web制作・開発に関わる方向けのSEO設計基礎セミナー”といういかにもよく有りそうなテーマでの開催となりますのでご興味ある方はご参加頂ければと思います。
    ※詳細:2013年4月26日(水) Web制作・開発に関わる方向けのSEO設計基礎セミナー

    最後に、3月は僕の怠慢によりあまり記事の更新がありませんでしたので4月は更新頑張ります。(個人のSEOブログもやっていますが書いていません。)引き続きよろしくお願い致します。

    文責:ヴォラーレ株式会社 土居

    おすすめの記事

    Googleタグマネージャ 初期設定の手順、使い方まとめ

    Googleタグマネージャは、2012年10月1日(日本だと10月2日)にgoogleから公開された新ツールです。10月26日には日本語インターフェースがリリースされました。(タグマネージャー、と書きたくなりますが公式に合わせて「タグマネージャ」と書いておきます。)

    タグマネージャに関してはGoogleアナリティクスなどとは違い、まだまだそこまで世の中に情報が出回っているという状況ではないため、個別に細かな設定をしようかなと思った時には結構試行錯誤しながらやっていく、ということも出てくると思います。今後もう少し実用的な使い方についても解説したいと思いますが、今回はひとまず基本的な使い方、特に初期導入時の設定方法や手順をまとめておきました。

    Googleタグマネージャとは何か?

    名前の通り、タグの管理(タグマネジメント)が出来るツールです。
    ※参考: タグマネジメント、きちんと理解できてる? 【タグマネジメント概論第1回目】

    具体的には、googleアナリティクスやAdWordsなどでwebサイトに埋め込まないといけないタグやFacebookやtwitterなどJavascriptを使用するタグなど、今まで個別にサイトに埋め込んでいたような様々なタグを一括で管理することができます。

    例えば、今までGoogleアナリティクスのタグを変更したい場合(eコマース設定等でトラッキングコードを書き換えなければならない場合等)はウェブサイトの管理者にお願いして、全ページまたは指定箇所のタグ入れ替えを行わないといけませんでした。タグマネージャを利用することで、こうした変更が今までよりも簡単に行えるようになる、といったメリットがあります。

    analytics

    SEOやアクセス解析、リスティング広告などのマーケティングに関わっている方が、必ずしも自社のサイトを管理・更新しているわけではなく(というか管理していないことの方が圧倒的に多いと思いますが)、多くの場合は別の担当者か外部の管理会社にまかせていると思います。

    その場合、いちいち何かを変更する際にも、担当者間での依頼のやりとりが発生しますし、解析をより高い精度で、よりスピーディに行おうとすればなるほどそのコストもかさんでしまいます。

    tag_manager

    タグマネージャを使用することによって、何か変更が起きた時でもサイトに直接変更を加えるのではなく、タグマネージャの管理画面の情報を変更することでサイトに直接トラッキングコードを埋め込み直した状態と等しくなりますので、アクセス解析やマーケティングに関わる方が直接そうした変更を行えるようになります。

    とても便利!なのですが、例えば、既にアナリティクスのコードが直接サイトに埋め込まれている場合は、一度既存のトラッキングコードを削除してからタグマネージャのコードを埋め込まなければなりません。

    ちょっと手間な上に一時的に解析ができなくなります。また、サイト毎に設けている細かな指標の測定など、オリジナルな測定をしたい場合にはJavascriptなどの知識が必要になったり、導入に際してのコストが膨らんでしまうこともあります。

    ですので、何でもかんでもタグマネージャを使用する価値があるかないかといわれると、大きなメリットがある場合もあれば、メリットがそんなにない場合もあるんじゃないでしょうか?と思います。

    導入メリットが少なさそう

    以下のような場合では今時点では敢えて導入する必要もないんじゃないかと思います。

    タグの種類が少なく、変更頻度も少ない場合

    1種類のタグ以外は使用していないし定期的に変更する必要もない、そして今後も当分使用する必要がない場合などには、そもそも大した管理コストは割いていないはずですのでわざわざタグマネージャのタグを埋め込み直したりする方が手間だと思います。

    既に多くのタグが埋め込まれ、更に細かなオリジナルの設定を加えている場合

    タグマネージャは他のgoogleプロダクトに比べ新しいので、そこまで情報が多くありませんし、まさに改良が加えられている最中のものなので今世の中に出ている情報以外のことを行おうとする時に必ずしも誰でも設定が行えるわけではありません(今後はもっと使いやすくなるとは思いますが)。

    ですのでエンジニア(というかJavascriptが不自由なく使える人)のいない環境で、カスタマイズされた設定を必ずしもタグマネージャを使用して実現できるわけではないかもしれません。

    ・・・とは言え思いつくのはこの位でしょうか。。

    導入したほうがいい場合

    以下のようなケースでは導入する価値は十分にあるように思います。

    様々なタグが埋め込まれていて何がなんだかわからなくなってしまっている場合

    タグマネージャを使用すれば、全てのタグを一つの管理画面上で一元管理出来ますので、ごちゃごちゃしていて状況がサッパリ、という状態は改善できると思います。

    今後ウェブサイトの解析をしっかりと行なって行きたいと考えている場合

    それなりに細かな解析を行っていく場合、必要に応じて様々なタグを追加で埋め込む必要が出てくることがありますので、予めタグマネージャでの管理を行なっておけばより効率的にタグを運用していくことが出来ると思います。

    サイト内のタグ変更などを行う場合に、外部の管理会社とやり取りをして変更しなくてはならない場合

    タグマネージャを使用すれば、都度発生したタグ変更などの作業もいちいち管理会社に依頼しなくても変更が行えるようになります。
    (ただし先ほど述べた通り、それなりに細かな設定を行う場合はJavascript等の知識が必要になることもあります)

    ページ毎に異なるタグを埋め込む必要があるタグを使用している場合や、そのタグが発動するページを指定する場合

    「カテゴリページにはこのタグを埋め込むけど、TOPページには埋め込まない」などといった条件があるようなタグ、またそういったタグが多岐にわたってサイト内にバラバラと埋め込まれている場合には管理がかなりややこしくなってしまうと思うのですが、タグマネージャで管理することで、それぞれのタグが発動するページや条件を指定することができるので管理、整理がしやすくなります。

    新しいもの好きな方(おまけ)

    まだそんなに世の中に情報が多くないので、自分で調べて設定してテストして、を繰り返すことになると思います。そういう作業が好きな方にはとても楽しいツールだと思うのでお勧めです。実利が伴うのであれば使い倒して見るのもよいのではないでしょうか。

    つまり、長期的なタグの管理とか更新の手間や時間を考えれば、多くのケースでは入れておいた方が後々いいんじゃないでしょうか?と思います。

    タグマネージャでGoogleアナリティクスを計測できるよう設定する

    さて、ここからは、実際にタグマネージャを使ってGoogleアナリティクスの計測を行えるように設定してみます。(機会があれば、別途AdWordsの設定方法、アナリティクスeコマース設定、facebook等のアイコンの設定等もご紹介させて頂きます。)

    ※5/28追記※
    ちょっとした応用で、Googleタグマネージャーを用いてアナリティクスのeコマースやイベントトラッキングを設定する方法の記事を書きました

    今回は、最もよくあるタグの設置です。Googleアナリティクス側の設定の話は省きます。

    1.ログインします

    Google タグマネージャ公式サイトにて右上のログインボタンをクリック

    e383ade382b0e382a4e383b3e794bbe99da2

    2.アカウントを作成します

    Googleアナリティクス等でも最初にアカウント登録を行いますがそれと同じような感じで企業毎に1アカウント作成します。
    ※名前は 該当アカウント > 設定 から後で変更可能です。
    アカウント名

    3.コンテナを作成します

    Googleアナリティクスでいう”プロパティ”みたいな感じでウェブサイトごとに1つのコンテナを作成します。タイムゾーンを選択してドメインを記入します。
    ※名前は 該当アカウント > 該当コンテナ > ユーザーと設定 > 設定 から後で変更可能です。
    コンテナ名

    4.利用規約に同意します

    敢えて書くまでのことでもないですが同意しないと次に進めません。

    利用規約

    5.コードを取得します

    これが色々なタグの変わりにサイト内に埋め込むタグマネージャのタグになります。
    (固有のIDが割り振られているため一部画像を加工してあります。)

    コード

    6.コンテナにタグを追加します

    今回はGoogleアナリティクスなのでアナリティクスを選択。タグの追加は後で行っても問題ありません。
    タグ追加

    7.タグ名を記入します

    今回はタグの種類をGoogleアナリティクスにしたのでウェブプロパティIDを記入する枠が出てきます。ここにウェブプロパティIDを記入しましょう。
    ※アナリティクスの該当アカウント > 該当プロパティ > トラッキング情報 に表示されているUA-から始まるIDです。

    GA新規タグ追加

    ちなみにアナリティクス以外にも下図のタグを登録出来るようになっています。登録できるタグの種類はリリース直後よりも増えています。機会があればまた別で紹介しますが、ここに書かれていない種類のタグに関しては全て「カスタムHTMLタグ」で設定します。

    タグの種類選択

    さて、カタカナが多くてそろそろ混乱しそうです。

    ここで一回配信の流れに関して説明しますと、先ほど「タグマネージャの管理画面の情報を変更するだけでサイトに直接トラッキングコードを埋め込み直した状態と等しくなります。」と説明させて頂きましたがそこに関してもう少し具体的にみてみます。

    タグマネージャルール配信の流れ

    今、[7.タグ名を記入します]まで設定しましたが、これはタグマネージャの中にあるコンテナの1つに1つのタグを追加した。という状態です。

    この後各ページにコンテナ([5.コードを取得します]で発行したコード)を埋め込みますが、埋め込んだだけでは何も変わりません。なぜかというとそのコンテナが空っぽだからです。コンテナ単体では何かを計測することはできません。

    ではどうやって計測出来るようにするかというと、次の[8.ルールを設定します]で設定するルールによってコンテナの中にタグを入れてあげるイメージです。ルールはページ単位ではなくタグ単位で設定します。

    上の図でいうとGoogleアナリティクスのタグは「1、2、4ページ目のコンテナに入れてあげてね」というルールが設定されています。

    逆に「全ページのコンテナに入れてね、でも3ページ目にはいれないでね」というルール設定をすることもできます。

    その他にも「3ページ目のyahooプロモーション広告のタグは2ページ目にアクセスしたことのある場合のみコンテナにタグをいれてね」といった設定も可能です。

    最初にタグマネージャはタグを管理するツールとお伝えしましたが、もう少し具体的にいうと、ルールによってタグを管理・制御しているツール。という感じでしょうか。

    8.ルールを設定します

    「タグを配信するルールを追加」をクリックすると下図の様な画面に遷移します。
    ここでは最も普通なアナリティクスのタグの追加を行うので、「既存のルールから選択」でデフォルトで登録されている、「すべてのページ」をチェックし、「保存」をクリックします。

    ルールの追加

    9.登録情報を確認します

    トラッキングタイプは最も一般的なアナリティクスのタグの設置なのでページビューのままで問題ないです。

    プルダウンをクリックすればその他の種類がでてきます。イベントの設定に関しては今度記事にします。

    タグ名、タグの種類、トラッキングタイプ、配信のルールの4項目が記入されていることを確認したら「保存」ボタンをクリックしてください。

    ルール追加元

    10.コンテナの中身を確認します

    設定したコンテナに何のタグが入っていてどういうルールが入っているか確認できます。マクロに関してはちょっと分かりにくいので、ひとまず今回は触れないでおきます。

    11.バージョンを作成します

    バージョンを作成することでやっとタグ配信の準備が整います。
    バージョンを作成をクリックしてください。

    バージョン作成と言われてもピンと来ない方もいるかもしれませんが、ブログとかでもある「下書きで保存」と似たようなイメージをしていただければわかりやすいかと思います。[10.コンテナの中身を確認します]までの状態ではコンテナにタグとルールをいれただけで放置した状態になります。

    また、バージョンとは履歴。と考えてもらえればいいと思います。バージョン管理とか聞いたことあるかと思いますがそれと同じ様なことだと思っていただければいいかと思います。

    なので、何か新しいタグの設定を行ったけれど今までうまく計測できてたものがうまく行かなくなった。といった場合にはきちんと動いていた時のバージョンに戻せば前の状態できちんと動くことになります。

    タグの中身

    12.バージョン公開前にチェックします

    下書き状態のこのコンテナの内容が正常に公開されるかをチェックするためにプレビューを見てみましょう。プレビューをクリックしてください。

    バージョン公開

    13.プレビューとデバックを選択します

    自分ではよくわからない等、何か理由がある場合はプレビューを共有で他の人にもチェックしてもらうことができます。また、プレビューのみでもいいですが、両方できるプレビューとデバックを選択していいと思います。

    プレビューとデバッグ

    14.プレビューを確認します

    ドメインをクリックしてください。
    プレビュー確認

    15.プレビュー確認画面を見ます

    下図のように該当サイトの半分にタグマネージャが配信されているかどうかが表示されます。配信されている場合は「配信」と表示され、配信されていない場合は「未配信」と表示されます。

    配信されているということは、そのタグがそのページで読み込まれている状態なので、この場合だとGoogleアナリティクスの計測ができていることになります。

    未配信ということは、コンテナからきちんとタグが表示されていない状態なので、タグかルールの設定をどこかしらで間違えているということになります(基本的には。)

    プレビュー中

    16.ようやく公開!

    新しいタブでプレビューが開かれているはずですので、元のタブにもどってください。
    「プレビューモードを終了」をクリックしてください。[12.バージョン公開前にチェックします]の画面に戻ってきたかと思うので、「公開」ボタンをクリックしてください。
    下図が表示されるので、特に問題がなければ「はい」をクリックしてください。

    公開の確認

    17.バージョン一覧

    一番最初に作成したバージョンは恐らく2になると思います(最初から1が登録してあるので)。

    version

    これでアナリティクスが計測される状態になりました!!ひとまずお疲れ様でした。

    おまけ

    最後に、バージョン名の変更等に関しても少し触れておこうと思います

    バージョン名の設定

    バージョン > 該当バージョン > 編集

    バージョン名とメモを記入することができます。ここでバージョン名をきめておくと左側のメニュバーみたいなところに表示されるバージョンがIDではなくバージョン名で表示されます。

    バージョン名を設定せずにたくさんのバージョンを作成してしまうと数字が並んでいて意味わからなくなってしまいます。わかりやすいバージョン名を設定しておきましょう。

    また、複雑な設定を行ったバージョンの場合はメモにどういう設定したかを記入しておくと良いです。こうした管理は一人だけが把握できている、ではなくて他の人が見た時にもわかりやすい状態にしておいた方が良いと思います。

    ユーザー管理

    ユーザーと設定 > ユーザー

    ここでアカウントに対する権限とコンテナごとに対するユーザー権限の設定が行えます。

    以上になります。

    最後に注意点

    とても便利なツールなのですが、いろんな細かい設定をしたい、とかこれとこれを組み合わせてこういうことをしたい、とかいう場合に、ちょっとまだ情報が少なく調査やテストなどに時間がかかってしまってしまうなあというところが悩みどころです。

    例えば社内で導入に向けて提案するとき、或いはクライアントに提案するときに「今大変なのがめちゃくちゃ簡単になりますよ」みたいな感じで安易に伝えてしまうと、特に初期の導入時には「全然カンタンじゃないじゃないですか」ということになりかねません。導入するときにかかるコスト、或いは運用にかかるコストもある程度はかかるということは前提に導入されると良いのではないかと思います。

    とはいえ、まだリリースしてそこまで時間も経っていないなかでも徐々に使いやすくなってきている印象はあるので、ぜひ機会がありましたら早い段階で導入を検討してみてはいかがでしょうか。

    文責:ヴォラーレ株式会社 三好

    おすすめの記事

    2013.2.26 SEOセミナー開催レポート:「基礎と累積の2軸で考え、まずはスタートラインに立つ」

    先の2月26日、弊社主催の無料SEOセミナーを開催させて頂きました。スピーカーの實川自身は今回が初となるセミナーでしたが、アンケートではなかなかの高評価を頂いておりました。ご参加頂いた皆様、大変お忙しい中ご足労下さり、誠に有難うございました。

    セミナー風景、写真

    今回のセミナーでは、SEOの基本である内部対策、外部対策やその考え方について、基本的な部分を中心に90分弱お話させて頂きました。概要を以下にレポートとしてまとめます。

    1.SEOをとりまく環境の変化とその背景
    2.SEOの考え方と取り組み方
    3.具体的に何をすれば良いの
    4.まとめ

    SEOをとりまく環境の変化とその背景

    SEOをとりまく環境

    ここ最近の低品質外部リンクの淘汰や各種アルゴリズムアップデートを経て、これまで多くの企業(SEO会社を)がSEOの中で目指してきたベクトルと、検索エンジンが向かうベクトルに差異があることが結果として露呈するようになりました。

    ・企業の目標
    色んなキーワードで上位表示して、自然検索経由の流入を増やしたい。

    ・検索エンジンの目標
    検索サービスとしての価値を向上し、検索ユーザー数を維持、拡大したい。

    企業としては最終的には売上・業績を伸ばすことを目的に、ウェブサイトへのトラフィックを増やす一つの手段としてSEOに取り組み、ゴールを見据えた目標設定をします。

    しかし検索エンジンとしては、ユーザーの「検索して情報を見つける」という一連の行為の満足度を向上させることができるような検索結果を返せるようにする、ことがまず前提としてあり、この視点が欠落した施策が逆効果、裏目に出たり効果が薄れてきたりしている、という背景があります。

    検索エンジンの変化

    例えば外部リンクが検索順位に大きく影響するため「リンクを購入する」という考え方があります。しかし検索エンジンは昔よりもはるかに精度が向上していますので、リンクを貼れば順位が上がる時代から、少し間違えばそうしたリンクが原因となってサイトへの評価が思い切り下げられるような時代へと変化しました。

    Googleが不正リンクを使ったランキング操作の抑制や、低品質なウェブサイト(中身がない、コピーサイト、重複するコンテンツなど)を検索結果から除外するための動きが、最近では過去に比べより活発になり、そうした施策に対するSEOのリスク、特にそうした施策にばかり依存したSEOを行うことのリスクが顕在化してきています。

    ※筆者補足※
    一方で仮に有料リンク、人工リンクだったとしてもその累積によりウェブサイトへのアクセスや売上が一定量担保出来ている場合だと、すぐにその状況から脱却する(つまりそうした恩恵を破棄して、やり方を一新する)、といった選択肢を取ることも企業的な諸事情により難しいケースが多いのもまた事実と思います。

    つまり「わかっちゃいるんだけど、さあどうしたもんかね」という状態にある方が比較的多いのではないかな、ということですね。

    そうした中、今後は、一気には難しいけど徐々にそういう方向にシフトしていく流れが今後も加速していくでしょう、ということと、問題提起されている人工リンク施策については次第に衰えていくもののしばらくは健在で、リンク提供型のSEOサービスに対しても一定量の需要が引き続き残るでしょう、とは思っていますし、多分これが多くのSEO関係者の共通認識だと思います。そのことの是非については特に触れませんが、基本的にはそういうことだと思っています。

    SEOの考え方と取り組み方

    このような状況において、今後どうやってサイト運営に取り組めば良いのでしょうか。「人工的なリンク施策に頼るは怖いからコンテンツをとにかく増やそう」というような考え方はもちろん良いのですが、そうは言っても時間や労力、場合によってはお金がかかるお話ですのですぐ行動!とする前に一旦落ち着いて考えてみる必要があるのではないでしょうか。

    SEOを2つの軸で考える

    今回のセミナーでは、SEOを行う上で考えるべき軸を大まかに以下の2軸として解説していました。

    縦軸にリンクやコンテンツ(累積資産)、横軸にサイト設計(基礎)、のグラフ

    ①累積する資産:コンテンツやリンク

    • ユーザーがサイトを訪れる理由になる(コンテンツ)
    • 独自の資産となり、競合優位性を築く
    • 結果が出るまでには大抵それなりの時間がかかるしその覚悟が必要
    • 成功すれば、無料の検索トラフィックが安定して獲得できる
    • 基本的には終わりがない取り組み

    ②基礎となる土台:サイト設計

    • 累積したコンテンツやリンクを適切に認識、評価させる
    • 初歩的なWeb/SEO知識でもある程度改善できる
    • ちょっとした改善で大きな効果があることもある。(逆も然り。)
    • 応用的な改善は非常に難しいし高い専門知識が必要

    以上を踏まえ、少しばかり乱暴な分類ではあるかもしれませんが、以下のようなマトリックスでウェブサイトのSEOを考えてみると整理しやすいのではないでしょうか。(セミナーの前後の細かい文脈は割愛しますのでセミナー時資料とは若干修正入れています)

    先ほどのグラフを用いて 左上:コンテンツやリンクはあるが設計に難あり、 右上:コンテンツやリンクが十分で設計もよく出来ている、 右下:設計に問題はないがコンテンツやリンクは乏しい、左下:コンテンツもリンクも設計もダメダメ の分類をしているマトリックス図

    縦軸をコンテンツやリンクの軸、横軸をサイト設計の軸として、右上に行けば行くほどSEOとしては優れていて、左下のような状態(基本的な最適化も出来ていなければコンテンツもリンクも乏しい)は当然優れたSEOには程遠い、というイメージです。

    SEOに優れたサイトにするためには縦軸、横軸どちらか一方だけ優れていれば良い、というわけではなく、どちらも基本的なことはしっかり出来ていなければ継続的にSEOに取り組んだとて、十分な結果を得ることは難しいということですね。

    ですので次の図のように自社のサイトがマトリックスの右下枠に該当するのであれば、細かなチューニングにこだわるのではなく、コンテンツを見直したり増やしながらリンクを獲得していく必要がありますし、左上枠に該当する場合は、闇雲にそのまま突っ走るのではなく、改めてSEO設計を見直すことでコンテンツやリンクの評価を正しく受けることができるようになります。

    先ほどの図でマトリックスの左下から左上枠に向かって改善を図ろうとしている図:「適切に評価されるための土台が整っていないのにひたすらコンテンツやリンクを増やす」

    マトリックスの左下から右下枠に向かって改善を図ろうとする図:「コンテンツやリンクが乏しいのに細かなサイトチューニングばかりこだわろうとする」

    優れたサイトとして検索結果での露出アップを目指すために、何もないところからいきなり完璧を目指すのではなく、まずはスタートラインを目指す、ひとまず「損をしない」ところまでを見据えてSEOに取り組む、というのが今回の一つの主なテーマになります。

    マトリックスの中心をスタート地点として、コンテンツやリンクもまずは必要十分なものを揃え、基礎的なSEOを踏まえた実装が出来ているという状態を目指しましょう、という図

    具体的に何をすれば良いの

    ここから先は、ごく基本的なSEOの内容について概要を説明させて頂きました。このブログの読者の多くの方には改めて解説するようなことではないことも含まれるかもしれませんが、

    • 検索キーワードの考え方や探し方
    • 目標とするSEOキーワード選定の基準
    • コンテンツマップや主要なキーワード
    • キーワードチューニングの考え方と方法
    • クロールやインデックスの仕組み、その制御について
    • 内部リンクのSEO上で考慮するポイント

    等について、事例も含めながら少し駆け足で解説しました。今回のセミナーではいずれもごく基本的な事柄でしたので記事ボリュームの関係から詳細についてはここでは割愛させて頂きます。

    ※筆者補足※
    基本的なこととは言っても、本来これら一つ一つの項目でも最低1時間ずつくらいはかけてお話しないといけないくらい、考えることや知らなければいけないことは多いと感じているのですが、一つのセミナーでまとめて語ることはやっぱり難しいです(昔一度トライしましたが2時間半の予定が4時間くらいかかってなお、全然話しきれなかったです)

    まとめ

    基本的なこと、一般的にこうした方が良い、と言われていることをとにかくやってみる、ということが出来れば、度合いはともあれ基本的にSEOとは一定以上の効果が得られるものです。見る限り、世の中に公開されているウェブサイトの大半は、SEOの基本的なことがキチンと実践できているとは言い難い状態である、というのが現実だと思います。

    何か素晴らしいSEOの事例、素晴らしい技術、最新の動向などを知ることもとても大切と思いますが、まずは走り出しの段階で、当たり前にやった方が良いことを当たり前に実践できているか、ということがその後のSEOの成否を大きく左右することにつながると思います。

    情報収集される際の注意として、主にリンク関連の話題、「上位表示対策」についての話題などでインターネット上にある情報は玉石混交、かつ内訳は石が大半という印象ですので、情報の取捨選択に自信がない方や相応のリスクを負えない方、そもそもどういうリスクがあるかがよく分からないという方は、何かしらの根拠がない限りはあまり参考にされないほうが今は無難だと思います(SEO関連の書籍につきましても良著とそうでないものは同様に分かれる、という印象です)。

    最後に、今後も定期的にSEOセミナーは開催します(直近では3月に別テーマで開催させて頂く予定です)。基本的にはこうした基礎的なセミナーは無料で開催するスタンスですが、夏あたりに少し突っ込んだテーマで有料のセミナーも開催させて頂く予定ですので、その際には改めて告知させて頂きます。

    と、今回の記事は比較的堅苦しい感じで終わらせて頂きます。このブログにつきましても、基本的には若いメンバーを中心に(今度こそ)継続的に更新していく予定ですので、引き続きよろしくお願い致します。

    文責:ヴォラーレ株式会社 土居

    おすすめの記事

    Operaブラウザの開発者向けツール”Dragonfly” その機能

    私は常日頃からブラウザはOperaを愛用しています。今回はそのOperaの知られざる便利機能”Dragonfly”をご紹介します。

    このDragonflyは、SEOにも一役買うはずです。

    Opera Logomark

    ところで、そもそもみなさんはOperaをご存じでしょうか?

    そもそも「Opera」ってなに?

    ウェブブラウザです。

    公式サイト : Opera Web ブラウザ  http://jp.opera.com/browser/

    世界でのシェアは2%弱とされています。マイナーです。日本でのシェアは更に少なく1.5%弱とされていて、数としては絶対的少数派であろうブラウザです。
    browser_share

    参照: 「世界&国内のブラウザシェア(2012年11月更新)」
    http://groomee.com/blog/web-design/browser-share/

    Operaでなにができるの?

    • きっとクロームよりも速い(はず)
    • 回線が遅いときでも「Opera turbo」という加速装置が作動するので速い(はず)
    • Opera Turbo設定画面
      opera_turbo

    • マウスジェスチャー機能で「戻る」「更新」などが俊足で行える
    • 空白タブに「Speed Dial」という、よく使うブックマークを見やすい場所にまとめておける
    • opera_speed_dial

    • 「Private Tab」で、リファラはかない&キャッシュもたない&履歴残さない状態でブラウズできる(しかも右クリックで瞬時に起動)
    • Ctrl + Enter で自動でログインできる(もしくは鍵マークをポチ)
    • タブをグループにしてまとめておける(しかもグループ単位で最小化できる)
    • 「ページ情報」からtitle, meta keywords,description, 外部cssファイル, Javascriptファイル, ページのバイト数などの情報を瞬時に見られる
    • 広告ブロック、フィッシング対策も標準装備
    • タブを数多く開いた際に、二段にして表示できる
    • Opera Linkで自分のPCのすべてのOperaのブックマークを同期できる
    • Opera Miniというモバイル用のブラウザも完備(Opera Linkも実装しているのでPCと同期)
    • 利用者人口が少ないので、セキュリティ上相対的に安全

    などの機能がエクステンション(一般的なブラウザでいうアドオン)なしのデフォルトで使えます。Operaは基本的にデフォルトで使うものなのです。

    ですが、はっきり言えば、こんなことは他のブラウザでも代替できてしまうことなので、誠に残念ながら「Operaでないとできない」というほどのことではありません。

    なので早速本題、”Dragonfly”の便利機能にうつりたいと思います。

    Opera Dragonflyとは

    Dragonflyとは、一言でいえばOperaに実装されたディベロッパーツールです。
    opera_dragonfly
    「Opera Dragonfly | 解き放たれた新しいプレデター」   http://jp.opera.com/dragonfly/

    Dragonfly (とんぼ)というネーミングは、Bug(虫)を片端から食べていくことからきているそうです。この機能はOperaにデフォルトで入っているので、ブラウザをインストールすればすぐに利用することができます。

    Dragonflyの使い方

    ソースを検証したいページを開いて、左クリックし、「要素を検証する」という項目をクリックします。すると、とんぼがぱたぱたと羽ばたくエフェクトとともに、颯爽とOpera Dragonflyが起動します。

    Dragonflyの便利機能

    このDragonflyには便利機能がたくさんついていますが、Operaの公式サイトでも何故かその使い方の詳細が載っていません。なので、ここでその便利な機能を列記します。

    • HTMLソースをUIから選択して見れる
    • 外部CSSをHTMLから参照してくれる
    • そのページを取得するまでに何秒かかったか / ファイルをいくつ参照したかがわかる

    HTMLソースをUIから選択して見れる

    opera_dragonfly_amazon

    ↑こんな感じで、UIから部分を選択してソースを検証できます。

    クロームその他のディベロッパーツールでは、「ソースを選択→UIの該当部分を表示」というあんばいですが、Opera Dragonflyでは違います。UIを選択すると該当ソースが、ソースを選択すると該当UIがと、どちらからでも検証できるのです。

    たとえば「この画像にどんなalt属性(画像の代替となるテキスト要素)が記載されているかどうか見たい」と思った時には、Dragonflyを起動してその画像をクリックすることで調べられるわけです。

    外部CSSをHTMLから参照してくれる

    opera_dragonfly_source

    また、Dragonflyはlink要素で参照されている外部CSSファイルも読み込んでくれます。たとえば、先の画像がimgでなくbackground-imageであった場合にも、その記述を確認することができるわけです。

    また、そこで不適切にtext-indentが使用されていないか等も、あわせてチェックできます。

    そのページを取得するまでに何秒かかったか / ファイルをいくつ参照したかがわかる

    opera_dragonfly_resource

    そのページがどれだけのHTML、画像、CSS、Javascriptファイルを呼び出しているかを確認することができ、またそれらを呼び出すのにどれだけの時間、バイト数を要したかを項目別に一覧することができます。

    つまり、読み込みがものすごく遅いページがあり、ユーザビリティやクローラビリティを損なうと考えられる場合に、いったい何がその原因なのかを判断することができるのです。

    (ただ、この機能は今はまださほど完成度が高くないので、やたらめったら時間のかかる場合もあります。)

    ほか詳しくは書きませんがこんなこともできる

    • Javascriptだけひっぱってきて検証できる (Scripts)
    • W3C Validationを瞬時にかけられる (Errors)
    • ピクセルをマウス指定してそのカラーコードやRGBを取得できる (Utilities)
    • ページ内のオブジェクトの大きさをピクセル単位で測れる (Utilities)

    まとめ

    まとめると、Operaを使うとこのような機能がデフォルトで利用でき、とても便利なのです。

    とはいえ、率直にいえばこれらの機能は他のブラウザでもアドオンやエクステンション次第でほとんど実現できるので、絶対にOperaでなければならない強烈な理由があるかと問われれば、やっぱり見当たりません。

    Opera最強伝説?

    あとこれは補足なんですが、Operaは基本的にGoogleとの相性が良くありません。一例としては、Google docsが見れないことがよくあります。おまけにキーワードツールも使えません。そして、なににつけ「クロームのような最新のブラウザにしませんか?」とか提案されて涙目です。Operaも最新のブラウザなのに。

    例えばOperaからAdWordsキーワードツールを開くと、”Your Browser is no longer supported” だなんてけんもほろろの素っ気なさです。

    opera_adwords

    結論

    つまるところ、Operaを使う理由は、その機能面にではなく、全体としてのまとまりのよさ、使いやすさにあるのです。

    さて、そんなこんなで不遇の感があるOperaですが、私がもともと根っからのOperaユーザなのでこんな記事を書いてみました。でも、少なくともSEOに関わる方であれば出来ればChromeなどその他のブラウザを利用することをお薦めせざるを得ません。

    皆さま、今後ともOperaをよろしくお願いします。

    文責 : 植木

    おすすめの記事

    リンク否認ツールの使い方・注意点・使用事例などまとめ

    昨年10月にリンク否認ツールが公開されてから早4ヶ月が経ちまして、リンク否認ツールを使用した後に再審査リクエストに成功する事例なども見受けられるようになってきました。今回のブログでは、改めて否認ツールについての簡単なおさらいや、いくつかの事例のご紹介を致します。

    リンクの否認ツールとは

    何のためのツールか

    googleのウェブマスター向け公式ブログでは否認ツールについての記事が2つあります。昨年10月17日の記事には

    この新しいツールは、サイトへの不自然なリンクを理由に手動によるスパム対策が実施されているというメッセージが Google から届いた際に、ウェブマスター向けガイドライン違反となる箇所の違反状態を解消するためにお使いいただけます。サイトへの不自然なリンクに関するメッセージが届いていない場合は、このツールを使う必要はありません。

    というように書かれており、手動ペナルティに対する再審査リクエストのためのツールと説明されています。しかし10月26日の記事のQ&Aの中では、

    質問: 「サイトへの不自然なリンク」の通知を受け取っていなくても、予防策としてリンク ファイルを作成すべきですか?

    回答: 通称 “Penguin” アップデートの影響がサイトに及んでおり、スパムの疑いのあるリンクや低品質なリンクを設定したことが原因ではないかと思う場合は、サイトへのリンクを調査し、Google のウェブマスター向けガイドラインに違反するリンク プログラム などによるリンクを否認することをおすすめします。

    というQ&Aが記載されており、手動ペナルティを受けた状態でなくとも、粗悪なリンクによる悪影響を取り除くためにも使用したほうが良い、としています。

    後ほどの注意点にも書いてある内容になりますが、Googleは否認ツールについて、「本当に必要な時にしか使用すべきでない」と何度も解説しています。前者の記事で手動ペナルティを受けた状態で使用するツールであると説明しているのは、「なぜ貼られているのか不明で大した恩恵もなさそうなリンクはとりあえず全部否認してしまおう」というような使い方を防止するためのものでしょう。したがって、手動ペナルティ時に限らず粗悪なリンクによる影響やリスクを取り除きたいときに、やむなく使用するツールといえます。

    否認ツールの使い方

    否認前後のフロー

    否認するリンクを1行1URLずつ、プレーンテキスト(.txtのファイル)に記載します。ドメイン単位で否認することも可能で、その場合「domain:www.example.com」というように書きます。なお否認するリンクについては、WMTから確認できる被リンクの他、Majestic SEOOpen Site Explorer等のツールから検出できるリンクも合わせて精査することで、より多くのリンクをチェックすることができます。
    否認リンクリスト

    ファイルを準備したら、WMT上の設定画面より、下図のようにファイルをアップロードできます。
    リンク否認フロー
    なお、リンク否認が正しく行われると、以下のようなメッセージが届きます。
    否認確認メール
    また、否認ツール使用後はリンク登録画面が下図のようになります。否認したリンクの確認や、否認の解除を行うことができます。もちろん新たにリンクを否認することも可能です。
    否認編集

    使用上の注意点

    あまり安易に使わないことがまず重要です。Google公式ブログなどでも度々言及されていますが、まず粗悪なリンクについては削除を試みることです。削除を試みた上で、どうしてもできないものに限り否認を使う、というようにするのがよいでしょう。

    また、上図でも度々使用を確認されていますが、使用に当たっては慎重になる必要があります。間違って否認をしてしまった場合、内容を差し替えることはできますが、それが反映されるまで更に数週間かかると言われているからです。また、ドメイン単位で否認する際はそのドメインから正当なリンクを受けていないか確認した方がよいでしょう。

    リンク否認後の順位推移

    順位推移事例1

    否認ツールを使用した事例です。もともと上位を維持していたキーワードでしたが徐々に順位が下がってきており、特に昨年12月頃から下降のペースが上がってきていました。SEO目的の粗悪なリンクが設置されており、前々から削除を試みてはいましたが、削除しきれないものも多くありました。具体的には無料なディレクトリ型検索サイトからのリンクや、昔ながらのワードサラダで生成したテキストからのキーワードリンクがその大半を占めていました。そのような中で、12月中旬より大きく順位が下がったためリンクの否認を行う運びとなりました。

    リンクの否認後もしばらくは下がっていましたが、2週間ほど経った頃から順位が回復していき、1か月後には下がる前の水準まで戻りました。googleの公式ブログでも、否認後効果が出るまで数週間の期間を要することもあると書かれていますが、ちょうどそれに該当する時期での回復となります。

    順位推移事例2

    こちらも同様の事例で、どうしても粗悪なリンクが削除できていなかったため、順位の下降後リンクの否認を行いました。約2週間後に順位がある程度回復しています。これだけで否認の効果があるとは全く断定できませんが、このような事例はけっこうあるため、使う価値はあるでしょう。

    まとめ

    仮に粗悪でリスクを伴う不自然なリンクであっても、上位表示という恩恵を受けているケースは今でもまだまだあります。しかし、ペナルティなど明らかな下落は起きておらずとも、粗悪な被リンクにより順位が安定しないことや、伸び悩んでしまうことも現実には多くあります。

    そのような場合、どうしても問題の解消が不可能な場合は、リンク否認ツールの使用により改善が見込める可能性はありそうです。しかし、実際に否認ツールを使っても再審査リクエストに合格できない事例や、特に何の変化が見られないというような事例も多くあります。

    どちらにせよ問題を解決してくれる万能ツール、というわけではないことは間違いなさそうですので、不自然なリンクが多く残っている場合には、まずはそれらのリンクの削除を試みた上で、否認ツールはどうしても削除が難しい場合の「最終手段」として使用する、くらいが現時点ではちょうど良さそうです。

    文責 : 志水

    おすすめの記事

    不自然リンクによるGoogleペナルティ解除事例 (基礎編)

    ここ1年で、ペナルティを受けてサイトの検索順位が下落したというケースが急増しましたが、2013年に入ってもペナルティにお悩みの方はまだまだ多くいらっしゃるのが現状です。弊社におきましても、未だにペナルティ解除に関するご相談のお問い合わせを数多く頂きます。そこで今回は、改めて初心者の方向けに基本的なペナルティ解除方法とペナルティ解除に成功した事例に関してご紹介させて頂きます。

    ペナルティ解除までの大まかな流れ

    1. 自サイトに向けられている外部リンクの調査・精査
    2. 不自然なリンクに該当すると思われるリンクの削除
    3. 何かの事情でどうしても削除できないリンクの否認
    4. 改善の経緯をドキュメント化し、再審査リクエストの送信

    基本的な流れは上記4項目です。あとは解除されるまで粘り強く上記の繰り返しです。

    ペナルティ解除の一例

    以下、ペナルティ解除に成功した事例についてのご紹介です。

    ・ご契約に至るまで
    クライアント様が自社サイトの順位下落を不安に思い、ペナルティを受けていると判断されて弊社にご依頼頂きました。
    (この時点でウェブマスターツールに警告メッセージは来ておりませんでした。)

    ・ペナルティ解除フロー
    下図は、解除に至るまでの順位推移とその期間の対応です。
    flow1

    解除のために、先ずはクライアント様が過去にご依頼していたSEO会社に、残っていたリンク削除依頼を出し、6月中旬に1回目の再審査リクエストを送信したところ、7月中旬にウェブマスターツール上で「ガイドラインに違反しています」のメッセージが確認されました。

    この時点で手動ペナルティを受けていることが確定しました。初回で解除に失敗したのは、削除依頼したリンクが少し残ってしまっていたことが理由と考えられます。(この時ガイドライン違反と思われるリンクがおよそ90リンク残っていました。)

    解除に失敗した際の返答メッセージです。
    miss

    そこで再度リンクを精査し、過去のSEO会社に改めて削除依頼を行い、SEO会社が管理していないリンクに関してはブログサービスなどのサービス会社に直接削除依頼を行い、9月初旬に2回目の再審査リクエストを送信しました。

    その際、どうしても削除できなかったリンクに関しては、その理由と削除努力を記載しました。その結果、9月中旬にウェブマスターツールに「Webspamチームによる手動の対応が取り消されました」との返答メッセージがきてペナルティ解除に成功しました。

    解除に成功した際の返答メッセージです。
    success

    ペナルティを解除するために必要なこと

    「ペナルティの要因となっていたリンクをしっかりと削除すること」これに尽きるでしょう。上記の事例では、そのためにクライアント様にも迅速に対応頂き、過去のSEO会社にも削除に対応してもらえました。

    当時はまだリンクの否認ツールも公開されておらず、とにかくペナルティの原因と考えられるリンクを削除する以外に方法がありませんでした。また、どうしても削除できないリンクに関しては、削除できない理由と削除するためにどのような努力をしたのかをしっかりとドキュメント化し、再審査リクエストに盛り込みました。

    このように順調にリンクの削除とその他の対応が進められれば、ほとんどのケースでペナルティ解除に成功しています。また、裏を返せばそれ以外のケースはいつまでたってもペナルティを解除できないということが大半です。

    1. リンクを削除できない、過去のSEO会社が削除対応してくれない。
    2. 削除努力をせずに再審査リクエスト、否認ツールを利用する。
    3. 削除のためにとった行動の詳細を再審査リクエストに記載しない。

    といった場合です。ご相談いただくお問い合わせの中には、リンクを削除する前に再審査リクエストを送っていたり、否認ツールを利用している方もまだまだ多いようです。それだけではペナルティを解除するのは難しいでしょう。
    (再審査リクエストに記載すべき内容はGoogleも公式に発表しています。)

    まとめ

    一にも二にも、問題となっているリンクが削除され問題が解消されることがペナルティ解除のための最大の近道であり、かつ唯一の手段であると言えます。特にペナルティを受けていてもある程度の順位がついていたり、ロングテールのキーワードでの流入が残っていたりすると、「アクセスがなくなったわけでもなし、リンクを削除してしまうとこれが更に減ってしまう可能性があるのではないか」との思いからリンク削除に躊躇しがちになってしまうこともあるかと思います。

    しかし、サイトのSEOに関してもしも長期的な視座に立てる状況であれば、その場しのぎの対応をとるのではなく、しっかりと問題を解消してペナルティを解除した上で改めてSEOを行っていく、ということが、結果的にサイト全体のパフォーマンスを高めることにも繋がるでしょう。

    文責:ヴォラーレ株式会社 渡邉

    おすすめの記事

    SEOではページ数より「情報量」+「充実度」

    こういう仕事をしていると、WEBサイトの現状を把握するために何かしらのSEO系の調査ツールを使うことがしばしばあります。そういうツールでは被リンク数、タイトルやmeta情報、インデックス数、など様々な数値がまとめて見られるため、ぱぱっと概要を把握するには便利です。ただし、そこで得られる表面的な数値を根拠に何かを話すことはあまりありません。

    今回はその中でも「ページ数が少ないので増やす」ということに関してたまたまクライアント様から質問を受けましたので記事にしてみます。

    巨大なサイトは確かにビッグキーワードでも上位になりやすい

    例えば「賃貸」とか「求人」などのいわゆるビッグキーワードと呼ばれるキーワードで検索すれば、ほとんどが有名どころの巨大ポータルサイトなどが上位にあり、ポッと出の10ページそこそこしかないWEBサイトはいないですね。

    この事実だけを見ても分かりますが、ページ数が多いということはもちろん重要なことなのです。ただしそれはあくまでも「検索されたキーワードに対してコンテンツ(=中身)が十分にある」という意味で重要なのであって、たくさんページ数があればいいと言うことは全くありません。

    むしろ、メインテーマに無関係なコンテンツや中身がスカスカなページの量がサイトの中で大きな比重を占めてくると、今後はマイナスにも作用すると思っていて良いでしょう。そういうサイトは見かけのページ数は多くても充実しているとは言えません。

    ページ数・インデックス数は後からついてくるもの

    よく「被リンクは後からついてくるものだ」などという議論がなされます。この議論の本意としては「リンクは本来は増やすものではなく増えるものだ」ということです(もちろん狙ってリンクを増やすというテクニックは重要です)。

    「ページ数」という指標も結局はコンテンツを充実させていく結果として増えていくものであって、ページ数が多いからエライ、なんていうことは全くありません。検索されたキーワードに呼応するコンテンツがどれだけあるかどうか?がそもそも重要になります。

    上位に表示されたWEBサイト=Googleが選ぶ「ベストアンサー」

    別のブログのエントリーでGoogleに評価されやすいコンテンツ設計という記事にも書きましたが、検索エンジンから見てどれが最もユーザーを満足させられそうか?がWEBサイトの評価を決めると考えて良いでしょう。

    結局は「検索=リクエスト」であり「検索結果=アンサー」である以上、検索結果の上位はベストアンサー群というわけです。当然そのアンサーを選ぶ基準として被リンクというのは非常に重要な要素なわけですが、土台はやはり中身です。キーワードに見合ったコンテンツがあり、それがテーマ毎に分けて整理されていて、検索エンジンにそれぞれ分かりやすいように表現されている、という状態がまずは基本であって、前提になります。

    (参考)
    インデックス数を増やすことでSEO対策に効果はありますか?

    アンサー度とは

    薄い100ページよりは中身の詰まった10ページを

    まとめになりますが、ただ増やしただけのコンテンツを排除して、本来ベストなアンサーとなるべきコンテンツを上位に残す為にGoogleのアップデート(パンダ・アップデート)も進んでいますし、仮にそれが日本で本格導入された際にそこまでのインパクトを与えられなかったとしても、いずれは濃いページが残り薄いページは排除される方向に進むのは間違いありません。

    ※画像はイメージです
    ※画像はイメージです

    こういう感じにならないためにもユーザーの期待にこたえるコンテンツを、テーマをぶらさずにできるだけ多く用意しておいた方が良いでしょう。少し具体性のない漠然とした内容に終始してしまいましたが、次回(か分かりませんがいずれ)は用意したコンテンツをまとめて整理する方法なんかについても書こうと思います。

    ヴォラーレ株式会社 土居健太郎

    おすすめの記事

    内部リンクの構造の変化がアクセス数に与えた影響

    今回の記事は内部リンクの最適化がSEO対策上及ぼす効果に関する話題です。SEOで「リンク」と言えば外からのリンク(外部リンク)を指すというイメージもある方もいるかもしれませんが、内部リンク(サイト内リンク)はサイト内で行き来するリンクのことで、ユーザーを受け渡すという意味では大きく価値は変わりません。

    内部リンクのSEO対策における重要性

    「外部リンクだけではなく、内部リンクも変わらず重要です」というのは簡単ですが、実際にどのような価値があるのかということを言われると、その役割は様々で一口に言うのは難しいです。

    こちらで書くと長くなりますので別のブログの関連記事を紹介します。

    「検索エンジン最適化」について再考・まとめておく- 天照SEOブログ

    私が個人的に別で書いている記事ですが、この中に内部リンクに関する重要事項がかいつまんで話されているので参照下さい。上記記事の言葉を借りて以下に内容を簡単にまとめると、

    • ページランクの調整
    • リンク階層の調整
    • WEBページ間の情報の関連付け
    • アンカーテキストで端的にページの主なテーマを示す

    という内容になっています。詳細はこちらでは割愛しますが、サイト内のナビゲーションという意味だけではなく、SEO対策に於いても色々な意味を持っていると言えます。

    内部リンクの改悪・改善が検索流入数に与える影響

    約1年半前にオープンし、SEOを弊社で行ってきたとあるクライアントさまのWEBサイトを2011年の春~7月にかけてリニューアルしました。目的は主にUI(ユーザーインターフェース)の改善によるPV(ページビュー)数の増加と直帰率の低下、SEO対策面での強化、その結果としての問合せ数の向上です。

    UI・デザイン面での向上をはかるにあたり、少し(見た目上)目立って露出されていた内部リンクを、一旦どのページからも外してみた時期がありました。その関係で、一部のアーカイブのページへの内部リンク(※)が極端に減少しました。それが下記図の①の時期です。

    この時期に検索エンジンに関わる変更はそれ以外には行っておらず、その減少が内部リンクの構造の改悪によるものと判断し、その後にそれを修正し、見た目上のストレスにならない位置へとそれを以降しました。また、その他でもそれが下図の②の時期です。

    クリックで拡大
    ※クリックすると画像が拡大して見られます。

    ちょっと見た目には分かりづらい変化ではありますが、実際に数字を見てみると6月中旬から7月上旬にかけて、それまでのアベレージのアクセス数に比べて約10~15%程度(数で言えば約25~40/日 程度)の減少があり、実際に新しいコンテンツを追加した後にそのページが明らかにランキング上位にヒットしなくなったということも実際に見られました。

    ②以降数日後からは順調に回復し始め、最終的にはその他のUIの改善に伴い更に内部リンクを強化(主にTOPページから下位ページへのリンクの見直し)を行い、つい先日ようやく過去最高の検索流入数(492)をマークしました。2ヵ月前からの推移を見ればそれなりの%での改善が出来ています。

    また、PV数もまだまだとは言えリニューアル前後で見れば大分改善しています。

    PV数の推移

    ※①の内部リンクは、イメージではブログでいう「タグ」とか「カテゴリ」へのリンクのようなアーカイブに飛ばすリンクのイメージです。

    簡単にまとめ

    少しざっくりとした内容ではありますが、基本的なことは昔から誰かが言ってきたことで、特に難しいテクニックを使っているわけではなく、重要なページには内部リンクを集めた方がよく、関連性の高い内部リンクは価値があり、アンカーテキストは端的にキーワードで書いた方が分かりやすく、、などということです。

    言われてみればどこかで聞いたことがあるようなフレーズですが、やはりSEOと言うとどうしてもそのあたりの意識が飛んでいってしまってテクニックというか小技を頭に描いてしまうのは我々SEO業者の良くないところかもしれませんが、一旦冷静になって考えてみるとちょっとした一部の改善だけで少なくとも数%とか数十%くらいのアクセス改善は行えるのではないかと思います。

    内部リンクの最適化は特にページ数が多い、更新が多いなどというWEBサイトでは特に影響力が大きいので、あまりナメてかからない方が良いですね。ご参考までに。

    ヴォラーレ株式会社 土居健太郎

    おすすめの記事

    SEO HACKSの公式ブログを開設致しました。

    ヴォラーレ株式会社が提供するSEOサービス「SEO HACKS」の公式ブログを開設致しました。SEO対策に関する情報を事業責任者を中心に弊社スタッフが更新していきます。

    当ブログのご紹介

    さて、当ブログでは主に、

    • SEO対策のクライアント様からよく聞かれるご質問に対する回答
    • SEOに関して社内で実際に行った実験・検証結果レポート
    • Googleアルゴリズムのアップデートなどの最新情報
    • 基礎的なSEOの知識のおさらい・再確認
    • SEO関係者のなかでとりわけ話題になっているテーマ
    • セミナーのようなイベント情報など、弊社からのお知らせ

    などといったテーマで更新していく予定です。頻繁な更新はなかなか出来ないと思いますが、定期的に新しい記事を公開できるよう努力致します。

    弊社SEOサービスのご紹介

    サービスサイトにも記載していますが、当サービスでは基本的には初期に内的な要素のチューニングで土台を整え、そこに外部リンクを少しずつ増加させながら目標キーワードでの安定した上位表示を目指していく、基本的な上位表示サービスです。

    特に変わった施策や全く新しい手法を用いているわけではなく、無理な上位表示をコミットするわけでもなく、あくまでも私たちなりの根拠に基いて、丁寧な施策を心がけております。

    弊社主催のWEB交流会イベント告知

    最後に、かなり唐突ですが、ここで一つイベントの告知をさせて頂きます。

    今までに無いSEO交流会イベント SEO-NIGHT 2011SEO-NIGHT サイトイメージ

    開催:8月26日(金)19時~

    思い切りSEO臭が漂ってきますが、かなりフランクな(砕けた)WEB交流会ですので、SEOに普段から関わっている方もそうでない方も楽しめるイベントとなっております。

    今年の新卒入社のフレッシュなメンバーを中心に企画・運営を行っておりますので、皆様是非奮ってご参加ください!

    ではでは、本日はこのあたりで。

    ヴォラーレ株式会社 土居健太郎

    おすすめの記事