SEOが生まれて間もない頃は、大勢の専門家が、ブラックボックステストを実行し、検索エンジンが見返りを与えるページを確かめていた。
ブラックボックステストは、IT業界で用いられる専門用語であり、機械やコンピュータプログラムの内部の仕組みに関する知識を必要とするタイプのテストではない。どちらかと言うと、システムが、入力に対してどのように反応するのかを見るためのテストである。
そのため、長年の間、SEOとは、テストを行い、検索エンジンの反応を見る取り組みであった。ランキングが高くなれば、SEOの担当者は、相関関係と因果関係が等しいと推測し、ランキングを上げたと思われる原因の手法を大幅に増やす。当該のトリックが、繰り返し実行することが出来るなら、因果関係に関して、少なくとも、検索エンジンが新しいアルゴリズムのコードを導入し、ブラックボックステストの段階に後戻りさせるまでは、確固たる結論を導き出すことが可能であった。
ただし、すべてのSEOの関係者が、テスト段階に戻ったわけではない。一部のSEO業者は、自分では、ほとんどテストを行わず、その他の業者に依存している。その結果、SEO業界では、「真実」だと思われる事柄に関して、誤解を招きやすい環境が生まれ — 多くの誤った情報が、絶対的な真実と考えられるようになるまで、至る所で繰り返されるようになった。例えば、「有料リンクが、危険をもたらす」と言う指摘がある…確かにダメージを与える可能性はあるが、有料リンクを利用していない方が、より大きなダメージを受ける可能性もある…すべてケースバイケースである。
テストしている手法の状態を正確に把握することは出来ないため、SEOのテストは、確実な結果をもたらすわけではない。つまり、テストしているトリックが、今後も持続するとは限らない。例えば、リンクを増やしたところ、ランキングが上がったものの、テストしている最中に、グーグルが導入していた新しいエンゲージメントのアルゴリズム等、別の要因によって、ランキングが上がった可能性もある。そのことを知らなかっただけだ。
以前は、このテストを実施するのは、遥かに楽だった。アップデートが規則的なスケジュールで行われていたためだ。次回のアップデートが行われるまでは、アルゴリズムは変化しないとある程度推測することが出来るため、因果関係が、今よりも明白であった。サーチエンジンランドを運営するダニー・サリバン氏は、2013年の年明けに、Mozで検索の歴史を分かりやすく説明していた:
歴史を振り返ると、SEOのテストが徐々に難しくなった理由が見えてくる。以前と比べると、見つけ出す必要がある不確定要素の数が遥かに多くなったのだ。また、検索エンジンは、賢くなった。SEO関係者によるブラックボックステストを妨げるには、ターゲットを動かし続ける手法が有効である。 ひっきりなしにコードの変更を行い、黙っていればよい。あるいは、ある領域で行った小さなコードの変更を大々的に発表しつつ、重要な変更を別の場所で実施して、無駄な努力をさせる手もある。
これが今日のSEOを巡る状況だ。
しかし…ここから文句のコーナー :)
バカバカしいにも程がある、と表現せざるを得ないSEOの専門家達がいる。
最近、私はある記事に遭遇した。ただし、記事にリンクを張るつもりはない。なぜなら、リンクを張ると、不安を拡散させる人達に見返りを与えてしまうためだ。また、悪口を言うことは、重要ではない。この記事は、一つのタイプのサイトから、幾つまでならリンクを得ても「安全」なのかを指摘していた。
問題は、反対の証拠を容易に発見することが出来る点である。この記事のケースでは、SERPにざっと目を通すだけで、サイトのタイプ YからX本以上のリンクを獲得しているものの、上位にランクインしているサイトを見つけることが出来る。すると、この指摘は何だったのか?と言う疑問が湧く。上位にランクインしているサイトは、「安全ではない」のだろうか?大勢のSEOの専門家は、善意でアドバイスを提供している。グーグルの公式の推奨事項を繰り返していることも多い。しかし、その結果、反対の証拠が巷に溢れている場合、アドバイスを受けた人達を騙してしまうことになる。
今日のSEO業界を一言で表すなら、「リンクの被害妄想」がピッタリだ。
実際に起きていること
実際に効果のあるリンク構築の取り組みに関しては、絶対的なルールはほとんど存在しない。様々な分野の1位のサイトの被リンクプロフィールを確認すれば、ある一定の法則に気がつくはずだ….
それは、一定の法則が存在しない法則である。
一部のサイトは、明らかに自動キャンペーンからリンクを獲得しているものの、ランキングに影響を与えているようには見えない。その一方で、信頼できるリンクばかりを集めているものの、下位に沈んでいるサイトがある。何が重要なのか?何が重要ではないのか?他にどんな要素がカウントされているのか?質問に答えてもらうことでしか、正確に事態を把握することは出来ない。
グーグルは、週末に幾つかの大きなリンクネットワークを葬ったと言われている。グーグルのスパム対策を統括するマット・カッツ氏は、Anglo Rankの名前を具体的に挙げていた。
それでは、リンクネットワークを利用しても効果がないなら、なぜ、グーグルは、リンクネットワークを葬ったことを強調しているのだろうか?それは、リンクネットワークが有効だからだ。何でそんなことが言えるのだろうか?多くの利益が出る分野のSERP、そして、企業が進出していない分野(つまり、メジャーなブランドに独占されていない分野)のSERPをチェックすれば、すぐにアグレッシブなリンクネットワークは見つかるものの、「正当」な被リンクのプロフィールは、なかなか見当たらない。
当然、ブランドのサイトなら、デジタルマーケティングにおいて、もっと理想的なアプローチを取ることが出来るため、アグレッシブなリンクネットワークからは、リンクを向けてもらいたくないはずだ。しかし、このような証拠を目にすると、一部のSEOの関係者が惜しみなく提供しているアドバイスが空っぽに見えてしまう。このようなアドバイスは、憶測に基づいているのだろうか?それとも、グーグルの推奨事項を繰り返しているのだろうか?もしくは、テストの結果を根拠としているのだろうか?リンクネットワークの効果があるか、あるいは、効果はないものの、ランキングには影響を与えないのだろう。さもなければ、このようなサイトが上位にランクインすることはない。
この手のアドバイスは、無料で提供されている。それもそのはずだと私は思う。
リスク管理
要はリスクの問題である。
このタイプのサイトは、最終的にペナルティーを受ける可能性があるのだろうか?その可能性はある。しかし、「使い捨てのドメイン」アプローチを用いるサイトは、リンクを獲得するためなら、どんな手も使う。なぜなら、上位にランクインしないことが、リスクに該当するためだ。ペナルティーを受けることは、ゲームオーバーではなく、仕事を行う上での危険に過ぎない。
ブランドにとってドメインが重要なら、「SEO」の定義によるが、SEOから距離を取った方がいいかもしれない。デジタルマーケティングの大半は、従来の考え方(アルゴリズムを意識して最適化を積極的行って、上位にランクインさせる)においては、SEOに当たらない。デジタルマーケティングの多くの領域は、人に対する最適化をベースとしており、SEOを二次的なメリットと考えている。もちろん、この考え方に問題があるわけではない。実際に、多くのサイトにとって理想的なアプローチであり、事実、私達も推奨している。大半のサイトは、この一連の流れのどこかに帰着する。しかし、どこに流れ着くのであれ、必ず管理するべきマーケティングのリスクが存在する。「パフォーマンスが良くない」をリスクと見なす考えは、軽視されている気がする。
アドバイスに従う前に、実際のSERPで起きていることを確認し、その後、リスクを評価するべきである。SEOの関係者が何らかのルールを提案したら、効果があるように見えるケース、そして、効果がないように見えるケースを探し出すと良いだろう(後者の方が面白い)。直に問い合わせ、そして、テストを行うことで、貴重なSEOの見解が得られるのだ。
SEOには、芸術の要素と科学の要素が存在する。テストすることは出来るが、あくまでも一定の範囲内である。テストを越えた未知の部分には、芸術の要素が対応する。この芸術を巧みに実施する取り組みは、現実と証拠のない事実を見極める上で有効である。
そのためには、経験が必要である。
しかし、事実を確認していれば、何が正しいのか、自ずと見えてくるはずだ :)
この記事は、SEO Bookに掲載された「Beware of SEO Truthiness」を翻訳した内容です。