Google、アプリを介さずモノのインターネットと会話できる標準規格Physical Webを開発中

Googleのユーザー体験デザイナーのScott Jensonは一度Goolgeを離れた後、昨年11月にChromeチームに戻ってきた。そのJensenがオンデマンド・インタラクションを提供するThe Physical Webという開発中のプロジェクトを紹介している。

その目的はアプリの仲介なしに各種のスマート・デバイスを使ってモノのインターネットと会話できるようにすることだ。ユーザーがスマートフォンを持ってバス停に近づくと、特別のソフトウェアを開かずに、次のバスがいつ来るか知ることができるようになる。

このプロジェクトはスマートデバイスの将来を大きく変えようという大胆な賭けだ。アナリストの予測によれば、インターネットに接続されるデバイスの数は向こう数年で爆発的に増大するという。Ciscoは2020年までに500億個のインターネット接続デバイスが活動するようになると予測している。Intelは来年中に150億個が接続されると考えている。Jensonが指揮するGoogleのプロジェクトはこのインターネット接続デバイスを日常簡単に使えるようにするための試みだ。

「いちいち専用のアプリを立ち上げたり、インストールしたりする必要なしに、スマートフォンやスマートウォッチを持っているだけで、レンタカー、自動販売機、おもちゃ、ポスター、バス停などに近づくだけで会話ができるようになる。すべてワンタップだけでつながる」とJensonはPhysical Webのページで説明する。

しかしPhysical WebはGoogleのOSやデバイスだけの利用を考えておらず、ウェブ規格同様、誰もが自由に使えるオープンな標準を目指している。オープン化はモノのインターネットの実用性を大きく拡大するはずだ。しかしこの種のテクノロジーではAppleはiBeaconとそれに関連するiOS 8のコンテキスト的推薦機能で独自のテクノロジーを構築する方向に進み始めている。

Jensonはプロジェクト・ページでPhysical Webの実用的な応用について、パーキング・メーターや自販機に対してアプリなしで支払いができるなどの例を上げている。またこれを拡大して、現実店舗での販売をモノのインターネットで自動化したり、ZipCarなど共有型レンタル自動車が駐車場の看板と会話できるようにして希望の場所で車の貸出、返却、支払いが自動的に行われるといった応用も提案している。当面Chromeがこのプロジェクトのユーザー・インターフェイスを担うことになるが、Jensenのチームはサイロ型の独自規格とネーティブ・アプリの並立を排除し新しい「スマートデバイスのウェブ標準」を目指すという。

実際に公的な標準化が進むのは(実現するとしても)何年か先のことだろうが、中央集権的なハブやSmartThingsのような専用アプリを必要としないモノのインターネットの標準化というアイディアは魅力的だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


リンクを削除してくれないなら、Googleに言いつけるよ

先日、久しぶりに登壇したイベントで疲れ果てしばらくお休みいただいてしまいました(こちらからご覧いただけます)。当日は「これからのSEOはリンクよりコンテンツマーケティング」的な話をさせていただきましたが、最後の質疑応答でも述べたように人口リンクがまだまだ効く場合があるのもまた事実。時間の問題とはいえ、米国でもリンクにまつわるトラブルは後をたたないようで。。。米国のリンク騒動の一こまをSEO Bookから。 — SEO Japan

リンクを削除する作業は面倒この上ない。

特に、リンクを削除しなければならないサイトのオーナー側にとって、とりわけ面倒である。Googleが、内部でフラグを立てたリンクを無視してくれれば、それで済む話であった。しかし、質が悪いと思ったリンクを削除するよう、たちの悪い「提案」を行ったため、ウェブマスターはフラストレーションを抱えるようになった。

これも「愛のムチ」と言うなら、Googleに対するウェブマスターの愛情は冷める一方である。実は、これは偽装であり、Google自身は、どのリンクが悪いのか分からないため、ウェブマスターに申告させて、より包括的なデータベースを構築しようとしているのだろうか?「愛のムチ」と「偽装」を少しずつかじっているのかもしれない。また、SEOのコストを増やし、小さな会社がSEOに取り組めないようにする意図があるのかもしれない。もしくは、リンクが実際よりも重要だと信じさせるための、囮のような存在なのかもしれない。

残念ながら、何が正しいのか、知る術はない。

巻き添え

SEO業界は、検索エンジンが、口を閉ざし、懲罰を与え、そして、曖昧な表現をすることに慣れている。SEOに携わる者は、この難題を業界の一部として受け入れている。しかし、SEOとは関係のないウェブマスターが、巻き添えを食らうようになり、興味深い展開を迎えている:

先日、リンクを張った会社から、面白いEメールが送られてきた。簡単に言うと、サイトへのリンクの削除を要請するメールであった。 私達は自分達の意思でリンクを張った。頼まれたわけではない。サイトのビジターにとって有益だと感じたため、リンクを張った。通常、リンクを張る行為は、このような理由で行われるはずである。

Hacker Newsでの関連する議論も注目に値する。マット・カッツの最初の投稿は、誠実さに欠けていると言わざるを得ない:

シチュエーション #1は、最も一般的だ。リンクスパムを指摘されると、サイトは、リンクを一掃する試みを行る。その多くは、権利を振りかざし、大量のリンク削除要請メールを送信する。

Googleから通知を受けたウェブマスターは、被リンクの整理を促される。なぜなら、そのままにしておくと、ランキングに損害が出てしまうためだ。


しかし、ウェブサイトに向かう不自然なリンクに関しては、ウェブから実際に削除するために、十分な対策を講じた証拠を見たい、と言うのが本音だ。ただし、自分で削除することが出来ないリンクがある場合、もしくは、削除するためには料金を支払わなければならない場合、否認ファイルにリストアップしても問題はない。

(ボールド体を用いたのは、個人的な判断)

つまり、Googleから通知を受けたウェブマスターは、リンクを削除してもらうために、ウェブサイトに連絡を取る。Googleは、ウェブマスターに、単純に否認ツールを利用するのではなく、リンクを削除するために努力してもらいたいと望んでいる。

その結果、当然、質の低いリンクの通知が届いたウェブサイトにリンクを張っているウェブマスターの下には、最新のEメールスパムとも言える、「僕のリンクを削除して」メールが届く。ウェブマスターによっては、「誰かがナイジェリアの銀行であなたに大金を預けました」の類の詐欺メールよりも、リンク削除メールの方が多くなり、また、粘り強さ、そして、煩わしさに関しては、「ナイジェリア」詐欺に引けを取らない。

ウェブマスターの立場

ウェブマスターは、スパムフィルターにフレーズ「リンクを削除してください」とワード「否認」を加えることが出来る権利を持っている。

ウェブマスターAは、特に問題のある行為は取っていないものの、たまたま、リンクの削除を要請されたとする。リンク先のサイトのSEOの担当者は、誤って、リンクが悪質だと勘違いし、削除の要請を行ったのだろう。ウェブマスター Aは、リンクの削除要請に時間を費やさなければならない。リンクを1本削除するために、数分間を要する — しかし、ちょっと待ってもらいたい — 相手が、不誠実な競合者ではなく、実際のサイトのオーナーなのだろうか?所有者を確かめるには時間がかかる。そもそも、なぜ当該のリンクを削除したいのだろうか?サイトのオーディエンスにとって、有益だと思ったから、リンクを張ったのではないだろうか?あるいは、ボットが、ウェブマスターの希望とは異なり、フォーラムのリンクやブログのコメントのリンクとしてリンクを張った挙句、今度はそのリンクを削除して欲しいとでも言いたいのだろうか?

だとしても、リンクが1本だけなら、まだ許せる。しかし、大きなサイトを運営しているウェブマスターにとっては、面倒な作業になり得る。長期間をかけて、多数のリンクを構築してきたサイトの場合、削除の要請が積み重なっていく。すると、スパムフィルターの力を借りることになる。

すると、遠回しに脅されるようになる。「リンクを張ってくれてありがとう。君のせいではないけど、リンクを削除してくれないと、否認せざるを得ない。すると、君のサイトのイメージが悪くなってしまうかもしれない。出来れば避けたいんだけど…」

何てことだ。

また、SEO業者が実際に否認を行うかどうかは、ウェブマスター側には分からない。あるSEOのカンファレンスでは、リンクを削除するかどうかは別として、SEO業者にこの取り組みを薦めていたような気がする。

つまり、削除を要請されたウェブマスターにとっては、とりわけマット・カッツの提案を聞いている場合、リンクを削除する動機がないことになる:

元々の記事の中に、Googleが、実際にリンクが悪質だと指摘している部分は存在しない。これは、ランダムなサイトからのリクエストであり(詳細は記載されていないため、サイトを特定することは出来ない)、このリンク削除要請を無視しても構わない。

しかし、Googleがリンクを特定することもある:

サイトへのリンクを確認したところ、品質ガイドラインに違反しているリンクが幾つか見つかりました。

サンプルのURL:
ask.metafilter.com/194610/get-me-and-my-stuff-from-point-a-to-point-b-possibly-via-point-c

上のサンプルのURLだけでなく、全ての不自然なリンクを是正、もしくは、削除してください。場合によっては、不自然なリンクを持つサイトのウェブサイトのウェブマスターに連絡する必要があるかもしれません。

また、リンクを特定する際に、Googleはミスすることもある。事実、DMOZ & 同様のリンクに警告を与えたことがあった: 「不自然なリンク」の主張を調べる度に、MetaFilterの昔からの評判の良いメンバーが、他のメンバーを助けようと試みるコメントが見つかる。通常は、Ask MetaFilterで何かを特定しようとしている。

行動の変化

すると、ウェブマスターは、このように考えるようになる。

「リンクを張ると、逆に損をするような気がする。Googleにペナルティーを科されるかもしれないし、「リンクを削除して下さい」メールが大量に送られてくるかもしれない。」

すると、どのような事態が起きるのだろうか?

ウェブマスターは、リンクを張る行為に非常にデリケートになる。デビッド・ネイラーは、「No リンク」ポリシーを採用するサイトが増加していると指摘している。予防措置として、全てnofollow化する可能性もある。ウェブに息吹を与える血管になるどころか、リンクは、有害な存在だと見られている。全てのアウトバウンドリンクが、nofollow化されたら、インデックスから追い出される確率、そして、「リンクを削除して下さい」メールが送られてくる確率は減る可能性がある。しかし、nofollowのリンクであっても、削除を要請されることもある。

リンクを問題視するウェブマスターが増えると、正当なサイトが得られるリンクは減少する。 一方、現在、痛い目に遭うことが多い悪徳サイトは、キュレートしたリンクネットワークによって、全てのリンクを獲得することになり、ランキングを上げていくだろう。

以下のコメントに注目してもらいたい:

Googleのウェブスパム対策チームは、とりわけ最近、問題の解決にテクノロジーよりも心理学を利用することに熱を上げているようだ。過去18ヶ月間のマット・カッツの発言は、ほぼ全て、脅しに近い。
個人的には、事業計画の中に、ペナルティーを科されるケースを想定しているブラックハットによって、「簡単に作れる」ウェブサイトが増加していく気がする。不完全で、熱心過ぎるアルゴリズムにスパムだと思われ、全ての努力が水の泡と化してしまうなら、わざわざ時間と労力を割いて、質の高いウェブサイトを構築する必要はあるのだろうか?インターン、または、Googleの職員ではない人物が、手動のレビューを行い、誤って、ウェブマスターガイドラインに違反していると判断されてしまうケースもある。

熱心なネガティブSEOキャンペーンにより、あるいは、Googleが診断を誤ったことにより、サイトが壊滅的なダメージを受けてしまう状況で、なぜ、わざわざ優れたコンテンツを提供しなければならないのだろうか?トラフィックの大半をGoogleに依存しているなら、ウェブパブリッシングモデルのリスクは、より高くなる。

MetaFilterも同様の問題を抱えている:

Googleは壊れてしまったのだのだろうか?それとも、自分のサイトが壊れてしまったのだろうか?Googleのクリックスルー率が急激に落下すると、誰もがこの疑問を持つ。伝説のインターネットフォーラムサイト、MetaFilterを設立したマット・ホーヒーは、過去1年半にわたって、この疑問を問い続けてきた。その一方で、広告収益の減少によって、数名のスタッフを解雇せざるを得なくなった。

あるいは、Googleは、MetaFilterの取り組みを嫌いになっただけなのかもしれない。

意図(した?)しなかった結末

これは、非競争的なアプローチに該当するのだろうか?ペナルティーを受けているサイトは、圧倒的に営利目的のサイトばかりなのだろうか?営利目的ではないサイトの割合を知りたい。自然な手法では、リンクの獲得が難しくなるため、営利目的のサイトにAdwordsを利用させようとしているのだろうか?SEOのコストを増やすことだけが目的なら、その目的は十分に達成されていると言えるだろう。

答えは分からないが、このような疑問を持つ理由は理解してもらえたのではないだろうか。

例えば、実は善意のある行動であり、Googleは、単純に検索結果を改善することを目指していると仮定しよう。しかし、ウェブマスター達は、リンクを張る行為に二の足を踏むようになる。これは意図とは異なる結果だ。実際にこのシチュエーションが発生したら、リンクを張る取り組みは、今以上に閉鎖的になる。リンクを獲得するのが難しくなり、リンク自体が問題になると、PPCとソーシャルメディアは、遥かに魅力的に映るようになる。


この記事は、SEO Bookに掲載された「Please Remove My Links or Else」を翻訳した内容です。

SEO Bookらしい斜め目線の状況解説ではありましたが、確かにリンク削除依頼メールを偽装することはできますよね。これを悪用すると、競合のサイトの被リンクを調べてリンク元のウェブマスターにリンク解除の依頼メールを一斉配信なんて行為もできてしまいそうです。

私もペナルティの経験は人並み以上にありますが 汗、リンク元を1つ1つチェックして問題ありそうな場合は削除依頼メールを送る作業、相当の時間と労力が必要なのは事実です。悪質な「ペナルティ解除請負業者」であれば、リンク元の精査もそこそこにとりあえず一斉解除依頼メールを送り付けそうな所もありそうですし。

人口リンク頼みのSEOは終焉に近づいているとはいえ、ここまで長年放置してしまったウェブマスターをやらなければいけない状況に追い込んでしまった責任がGoogleに全くないとも思いませんし、この辺りの状況が余り悪い方向に進まないことを望みたいですね。

また、記事の途中にあった「ペナルティーを科されるケースを想定しているブラックハットによって、「簡単に作れる」ウェブサイトが増加」、確かに日本でもこういうケースが増えているような気がしなくもない点は別の意味で怖いです。

現状効果があるリンクへの取り組みを完全に0にすることはすぐには難しい場合もあると思いますが、少しずつコンテンツマーケティングへの取り組みを本格化していきたいと思う今日この頃でした。 — SEO Japan

Google、容量無制限のDrive for Educationの提供を開始

Google Apps for Educationを採用している学校の生徒は、Google Driveに好きなだけファイルを保存できるようになるようだ。

6月にGoogleはDrive for Workスタートしている。月額10ドルで、容量が無制限になるなど、仕事でも便利に使えるようになるというものだ。ここで提供されている無限容量サービスをGoogle Apps for Educationでも提供を開始するのだそうだ。サービス名をDrive for Educationという。

ファイルひとつの最大サイズは5TBとなっている。普通はそれほどに大きなファイルを扱うことなどまずあり得ないだろう。

他のGoogle Apps for Educationサービスと同様、Drive for Educationも教育関連機関で非営利目的ならば無料にて利用することができる(広告表示などもない)。Googleのスポークスパーソン曰く、Drive for EducationはGoogle Apps for Educationの利用者メニューに表示されるようになるはずだとのこと。徐々に適用対象を増やしているので、メニューに現れなくてもしばらく待っていて欲しいとのことだ。すべての利用者のメニューに現れるまでには数週間程度を見込んでいるとのこと。

またGoogleは、年内にもコンプライアンス目的でのメールないしチャットのアーカイブなどを行うことのできるGoogle Apps Vaultについても、教育関連機関利用者に無料での提供を開始したいとしている。さらには会計監査用のサービスについても教育機関に提供していくプランがあるようだが、こちらについては今のところタイムスケジュールなどは明らかになっていない。

これまで、Google Apps for Educationの利用者は、ディスク容量として「わずか」30GBが提供されているに過ぎなかった。それでも一般的な利用者にとっては十分な容量だったはずだ。しかしディスク容量の無料化は着実に進みつつある。Googleは無償でディスクスペースを提供することで(学生の側もきっと大規模ディスクスペースの有効な使い方を見出してくるに違いない)、Googleエコシステムの利用者を増やしていこうと考えてもいるわけだ。Google Drive for Educationの利用者からも、一定の割合て月額10ドルのDrive for Workを使いたいと考える人が出てくるであろうという見込みもあるのだろう。

原文へ

(翻訳:Maeda, H


Niantic Labs、Ingressにユーザーが新しくミッションを作れる機能を追加

GoogleのNiantic Labsは、人気のAndroid版、iOS版の拡張現実ゲーム、Ingressユーザー生成のミッションという新機能を追加した。ユーザーは友達あるいは一般プレイヤーのために、独自のミッションを作れるようになった。作成にはブラウザ・ベースのミッション・クリエーターを利用する。

といっても、すべてのユーザーがすぐにこの機能を利用できるわけではない。Niantic Labsは、レベルの高いプレイヤーから順次機能を公開していくという。そうしたプレイヤーの反応や作成されたミッションの実績を見ながら徐々に利用範囲を広げていくようだ。Niantic Labsのプロダクト担当副社長、John Hankeは「この機能は当初、一定の基準をクリアしたユーザーに対して公開される。将来は一般ユーザーも利用できるようになるだろう」と述べた。

ミッション作成ツール自体はかなりシンプルだ。Ingressのスキンを載せたGoogleマップが表示されるので、作成しようとしているミッションでプレイヤーが行かねばならない場所にマーカーを落とせばよいだけだ。場所の特定にはNiantic LabsのField Tripアプリのデータを用いてもよいし、非常にあいまいにして、ヒントだけを残しておくこともできる。 現実の世界である地点に到達したとき、プレイヤーはその地点を「スキャン」しなければならない。この動作でプレイヤーが目的地を実際に踏んだことを確認する。

他のプレイヤーが作ったミッションの表示はAndroid版でアプリではサポートされている(iOSでは近くサポートされる)。ただし表示されるミッションは自分がプレイしている都市中のものに限られる。たとえばオークランドの自宅でベッドに寝そべったままサンフランシスコのミッションを表示することはできない。これに対して世界中どこにいてもあらゆる場所でのミッションの作成が可能だ。外国で素晴らしい休暇を過ごして帰ってきてから自宅で現地でのミッションを作ることもできる。自分が気に入った景色や名所旧跡をミッションに逐一追加して、現地を訪れた友達を案内するなどということも可能だ。

IMAGE BY Niantic Labs

[原文へ]

(翻訳:滑川海彦@Facebook Google+


Google、見ているテレビ番組が検索結果に影響を与える「テレビランク」 を採用?

コンテンツマーケティングワールドのレポート記事連投の真っ最中ですが、Googleがこの度、ユーザーのテレビ番組の視聴動向を検索結果に反映させる新たなアルゴリズム「TVランク」の特許を取得した、との気になるニュースが飛び込んできたので速報させていただきます。 — SEO Japan

google-tv-1920

Googleは、ウェブ上のリンクのパターン、個人の位置情報、検索履歴等、様々なシグナルを使って、検索結果のランク付けを行っている。この要素に、テレビで視聴する番組が、加わろうとしている。

SEOの特許の神様こと、ビル・スラウスキが、ブログの中で、テレビで見ている番組が、検索結果に影響を与えるコンセプトを描いた特許が、Googleに付与されたと伝えていた。

2011年6月30日に申請された当該の特許「電子デバイスの近くにあるテレビで放映されている番組を特定して、ユーザーの検索結果を強化するシステムおよびメソッド」は、2014年9月16日にGoogleに付与された。

以下に、この特許の要約を掲載する:

テレビ番組に関連する検索クエリを利用するコンピュータに実装されたメソッド。サーバーは、電子デバイスからユーザーの検索クエリを受け取る。続いて、サーバーは、検索クエリ、および、特定の期間において、電子デバイスに関連する場所で視聴可能なテレビ番組に関する情報を基に、電子デバイスの近くでユーザーが視聴しているテレビ番組を特定する。尚、テレビ番組に関連する情報には、関連する場所で放映されているテレビ番組の本数に対する記述も含まれる。

この特許は、Googleが、- このプロセスの下 – 現在テレビで視聴している番組を記録することが出来る可能性があると示唆している。そして、ユーザーが検索を実行する際に、検索結果に影響を与えるため、視聴している番組をシグナルとして利用するべきかどうかを判断する。

この特許は、例として、ある特定の自動車に関するテレビ番組を見ているユーザーが、自動車に関する包括的なクエリで検索を行ったケースを紹介している。放映されている番組、そして、番組で言及されている特定の自動車を把握すると、Googleは、より具体的な結果を提供することが可能になる。以下に、特許の一部を抜粋する:

あるユーザーが、コーナーの一つで、ポルシェの特定のモデルを紹介するテレビ番組を見ており、当該のユーザーが、コーナーで取り上げられていた特定のモデルではなく、「ポルシェ」、あるいは、「スポーツカー」で検索をかけたと仮定する。

当該のポルシェのモデルが「911 Turbo」であり、ユーザーが入力した検索クエリが「ポルシェ」の場合、サーバーは、次のいずれか一つに関する情報、または複数に関する情報を返す可能性がある:

1) 「911 Turbo」モデルに関連する情報(「911 Turbo」に関連するPorsche.comのウェブサイトへのリンク)

2) 現在、このコーナーを放映しているテレビ番組に関連する情報

3) 現在放映中、もしくは、今後、放映される予定の同様の番組の提案

こうすることで、このシステムは、番組の視聴者に対して、見ている番組、もしくは、見たいと思うであろうテレビ番組の内容に関連する、改善された検索結果を提供する。

以下に、このプロセスを説明する図を掲載する:

google-tv-process-diagram

検索結果を受信 602

テレビ番組を視聴しているかどうかを特定 604

No -> 修正を加えずに、そのまま検索を実施 620

Yes -> サーバーは、電子デバイスからユーザーの検索クエリを受信する。続いて、サーバーは、検索クエリ、および、特定の期間において、電子デバイスに関連する場所で視聴可能なテレビ番組に関する情報を基に、電子デバイスの近くでユーザーが視聴しているテレビ番組を特定する。尚、テレビ番組に関連する情報には、関連する場所で放映されているテレビ番組の本数に対する記述も含まれる 606

スコアを生成する。受け取ったクエリの用語に関連するスコアを、考えられるテレビ番組のセットにおける各番組に対して生成する 608

検索クエリの用語に関連する最初のセットのカテゴリーを特定する 610

テレビ番組に関連する2番目の一連のカテゴリーを特定する 612

最初のセットのカテゴリーと2番目のセットのカテゴリーにマッチング機能を適用する 614

生成されたスコアに応じて考えられるテレビ番組のセットの順序を決める 618

特定したテレビ番組として最高のスコアを持つテレビ番組を選択する 616

以前も指摘したように、Googleがこの特許を所有しているからと言って、実際に検索結果のランク付けにこのプロセスを利用するとは限らない。

ただし、Googleは、既にこのタイプのプロセスを、ある程度、Google Nowの一環として実際に利用している。

Google Nowとは、Google版の知的パーソナルアシスタント機能であり、ユーザーが求める前に、情報を提供する。その中に、テレビカードも含まれる。このカードは、視聴している番組に関する情報を提供し、その上、今後の番組、そして、見ている番組を基に、ユーザーが見たいであろう番組をリマンドする。

テレビの音声を聞き、見ている番組を理解することで、このカードは表示される(この機能を有効にしている場合)。このシステムを試したいなら、既に活用が進んでいるGoogle Nowを利用すると良いだろう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「TV Rank: Google Gets Patent On Using What You’re Watching To Influence Search Results」を翻訳した内容です。

SEO by the Seaよりサーチエンジンランドの解説付きの記事の方がわかりやすかったので、後者を翻訳紹介させていただきました。実際の検索結果に現状反映されているかは微妙ですが、2011年時点でこういったアルゴリズムを考え特許申請していたという先見性は流石ですね。実際、様々なリサーチを見ても、テレビを見ている人の多くがインターネットにも同時にアクセスする「ながら視聴」を行っているようですし、テレビで気になったことをその場でネット検索という行為は普通にありますよね。スマホファーストの今日、こういったアルゴリズムがテレビはもちろん、様々なユーザー行動が検索結果に反映されていく時代になっていくのでしょう。Googleの進化はまだまだ続きます。 — SEO Japan

ペンギンアップデート3.0が年内に導入予定

日本はもちろん世界のリンク構築主体のSEOを風前の灯火に追い込んだGoogleのペンギンアップデート。今年に入って大きな更新がなかったのですが、Googleいわく、年内に次回のアップデートを予定しているということでその内容をさらり。 — SEO Japan

google-penguin2-ss-1920

今日から22日後の10月4日、Google ペンギンアルゴリズムの5回目のアップデート(コードネーム: ペンギン 2.1)がリリースされてから、丁度1年が経過することになる。ご想像の通り、11ヶ月と8日間待機するのは、辛いものがある。とりわけ、この懲罰的なアルゴリズムの制裁を受けたサイトにとっては、拷問に近い。既にリンクを一掃しているはずだが、今は、ただじっと我慢し、次回のペンギンアップデートのリリースにより、ビジネスが復活することを祈るしかない。

その日はもうすぐやって来るかもしれない。Googleのジョン・ミューラーが、今朝行われたGoogle ハングアウトで、ペンギン 3.0、つまり、6度目の更新が、今年中に行われる見込みだと指摘したのだ。事実、ジョン・ミューラーは、後日、妥当な頃合いにリリースする自信がある、と発言していた。

「後日、妥当な頃合い」とは、いつのことだろうか?既に、11ヶ月以上にわたって更新が行われていない点自体、妥当とは言い難いが、個人的には、ペンギン 2.1のリリースから1年が経過する前に行ってもらいたいと願っている。現時点では、それが妥当な頃合いに該当するのではないだろうか。しかし、あくまでも推測に過ぎない。

以前、ペンギンアップデートが行われた、と思ったことがあったが、Google曰く、ペンギンではなかったようだ。また、私は、Googleが、ペンギンアップデートのテストを実際のインデックスで行っていると確信しているが、完全にリリースされているわけではない。

ペンギン 3.0は、大型のアップデートになり、より頻繁に発動することが可能になると見られている。そのため、更新が行われるまで、長期間待つ必要はなくなるようだ。現在、パンダは、1ヶ月に1度の頻度で実施されている。

Googleは、ペンギンアルゴリズムをアップデートする取り組みにおいて、多くの難問に遭遇したと指摘していた。しかし、どうやら、ペンギンの更新は近いうちに行われるようだ。

Googleから、リリースの日時が公表されたら、報告させてもらう。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Nearly A Year Later, Are We Finally Going To Get A Penguin Update Refresh?」を翻訳した内容です。

更新したリンクのアルゴリズムを全体的に適用することで、SEOの取り組み有無に関わらず予期せぬ順位変動が起こりうるペンギンアップデート、今回はGoogleもかなり時間をかけて取り組んでいるようですが、果たして年内にリリースされるのでしょうか。そしてその影響は、、、今から気になります。 — SEO Japan

Googleが新人スタートアップに10万ドルを提供…ただしそれはGoogle Cloudを使うためのクレジット

【抄訳】

今あなたが創業ほやほやのスタートアップなら、Googleが、Google Cloudプラットホームの1年かぎりの、10万ドルぶんのクレジットをくれる。つまりAWSでもAzureでもなく、Googleのサーバの上でアプリケーションをホストできて、その1年間の料金が10万ドル以下なら料金を請求されない。GoogleはスタートアップをCloudプラットホームのお客として取り込むために最近、Cloud Platform for Startupsというキャンペーンを開始したのだが、この10万ドルクレジットはそのメニューの一部だ。このキャンペーン企画を、今日行われたGoogle for Entrepreneurs Global Partner Summitというカンファレンス*で、Googleの技術インフラ担当SVP Urs Hölzleが発表した。〔*: パートナーについては後述。〕

GoogleのCloudプラットホームを1年間、10万ドル相当ぶん使える、というこのクレジットをもらえるスタートアップは、①創業5年未満で②年商50万ドル未満でなければならない。 しかも、すでにGoogleのパートナーとなっているアクセラレータやインキュベータあるいはVCの③傘下でなければならない。Googleは今後パートナーを増やすつもりなので、まだGoogleのパートナーでないVCなどは、打診してみるとよい。下の図には4つの条件が載っているが、4つ目は、④これまでこのクレジットをもらったことがない、だ。

【中略】

このクレジット企画には、インフラの管理サービス(をGoogleが代行)も伴う。Googleのエキスパートが一対一でアーキテクチャのリビューをしてくれるし、24/7のサポートもつく。

Googleには初心者向けの無料プランがすでにあったし、またAWSには2013年からAWS Activateという企画の一環として、アクセラレータやインキュベータやVC向けの”Portfolio Package“という事業がある。実はこの事業が、今回のGoogleの10万ドルクレジット企画とそっくりなのだ。Amazonの場合はスタートアップに、15000ドルぶんのAWSのクレジットを与える。一方Microsoftがかなり前からやってるBizSparkという事業の中にも、ほやほやスタートアップのためのクレジットがある。そのAzureのクレジットは月額150ドルだから、Googleに比べると小さい。

でも、小さなスタートアップが1年でGoogleのサーバを料金10万ドルぶん使うのは、現実にありえないほどたいへんだから、これはGoogleのマーケティング的花火のようなものでもある。実際にGoogleを使っているSnapchatのような、大きな人気サイトになれが、話は違うが。Googleのサーバを計算集約的な処理に使えば、10万ドルぶんぐらいすぐに使ってしまうかもしれないが、Bitcoinのマイニングをやりたい、なんて言ったらGoogleは拒絶するだろう。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleオーサーシップは消えてもオーサーランクは健在

Googleのオーサーシッププログラムがまさかの終了というニュースが話題になりましたが、Googleがオーソリティの評価指標を根本的に変えたわけではありませんし、オーソリティ構築は変わらず重要な課題です。ページランクと違ってオーサーランクの概念は今後ますます重要になる、ということで、オーサーランクについて勉強しなおしてみた記事をサーチエンジンランドから。 — SEO Japan

google-authorship-content-writing-ss-1920

Googleは、3年間にわたって実施した実験「オーサーシップ」を昨日終了した。しかし、オーサーランクを使って、検索結果を改善する試みは、今後も継続されるようだ。たった今、「Google オーサーシップがなくても、オーサーランクを持つことが出来るのか?」&「そもそも、Google オーサーシップとオーサーランクは何が違うのか?」と言う疑問を持った方は、読み進めていってもらいたい。なぜなら、オーサーシップとオーサーランクは同じではなく、オーサーランクは今後も生き続けるからだ。

Google オーサーシップとは何だったのか?

Google オーサーシップは、主に、コンテンツのオーサー(作者)が、自分自身を特定し、目立つことが出来るようにするためにGoogleが与えた手段である。 オーサーは、人間には見えない「マークアップ」コードをウェブページ内に配置し、オーサーシップを活用していた。その後、Google自身が、アイデンティティを管理するシステムを作るためのステップとして、Google+に緊密に連携させ、もともとのアイデアをスケールアップさせていた。

Google オーサーシップのユーザーは、コンテンツの隣に名前と画像を表示してもらい、大きな見返りを得ていた。Google自身がオーサーシップ付きのストーリーはより多くのクリックをもたらすと示唆していたこともあり、作者にとっては、大きな魅力であった。以下に、Google オーサーシップの例を掲載する:

google-authorship-image

ご覧のように、オーサーの画像と名前が掲載された署名欄が、リスティングに与えられている。

昨日、Googleは、そのオーサーシップを見限った(日本語)。画像のサポートは6月に終了していたが、現在、署名欄を含む全てのアイテムが姿を消した。完全に閉鎖されたのだ。

Google曰く、過去にページに掲載したマークアップが、今後、害を与えることはないようだ。ただ単に無視されるだけである。それでも削除するつもりなら、マークアップがGoogle以外の会社やサービスに用いられる可能性がある点を肝に銘じておこう。rel=authorrel=me等のマイクロフォーマットは、他のサービスに用いられる可能性がある(注記: 当初、schema.orgと記していたが、訂正させてもらった — アーロン・ブラッドリーがコメントで教えてくれた)。

オーサーシップの追加に力を入れていた場合(今は単なる時間の無駄遣いになってしまったが)、今後、削除する取り組みに力を入れるべきかどうかに関して、今後の記事で、詳しく検証していく予定だ。

オーサーランクとは何か?

オーサーランクは、Google オーサーシップとは異なるアイデアである。オーサーランクとは、Googleがストーリーの作者が誰だか分かっている場合、そのストーリーのランキングを変えるシステムであり、信頼されている人物が作ったストーリーは優先される可能性がある。

オーサーランクは、実はGoogleが公式に用いている用語ではない。SEOコミュニティが、このコンセプトに与えた用語である。Googleのエリック・シュミット会長が、2013年に出版した書籍「The New Digital Age」の中で、認証を受けたオーサーを高くランク付けするシステムのアイデアに触れたことから、改めて注目を浴びるようになった:

認証を受けたオンラインプロフィールに関係する情報は、検索結果の中で、このような認証を受けていないコンテンツよりも高くランク付けされる。すると、大半のユーザーは上位の(認証された)結果を自然にクリックするようになる。無名でいると、相手にされなくなってしまう。

オーサーランク、および、シュミット会長の発言の背景の詳細に関しては、私が昨年投稿した記事「オーサーランク、オーサーシップ、検索ランキング & エリック・シュミットの本の抜粋」を参考にしてもらいたい。

オーサーランクは実在する — 今後も続く

シュミット会長は、本の中で、実際にGoogleで行われている取り組みを説明していたのではなく、あくまでも推測していただけである。Google自身、昨年、オーサーランクを、分野の専門家を特定し、検索結果で優遇するめに利用する手段として何度か取り上げていた:

これはあくまでも机上の論理であった。実際に行動が起こされたのは、今年の3月になってからである。Google 検索を統括するアミット・シンガルが、オーサーランクは、まだ利用されていないと発言した後、ウェブスパム対策を引っ張るマット・カッツが、オーサーランクが用いられる場所に関して、ヒントを与えた — 検索結果に時折登場する「詳細な記事」セクション。

オーサーシップなしのオーサーランク

Google オーサーシップは姿を消してしまったが、Googleは、どのように、オーサーランクを今後も限定された形式で利用していくのだろうか?オーサーランクが用いられていた可能性があるその他の方法も、効力を失ったのだろうか?

Googleは、オーサーシップが終了しても、詳細な記事のセクションの仕組みに影響が及ぶことはないと指摘していた。また、オーサーシップの中止が、オーサーが報われるシステムを調査するその他の試みに影響を与えることもないようだ。

そんなことは可能なのだろうか?事実、Googleは、オーサーシップのマークアップを無視することも明言している。

Googleは、その気になれば、ストーリーの作者を特定することが可能な別の手段を持っている。Googleは、とりわけ、ニュース記事に掲載されることが多い署名欄を探す可能性が高い。 署名欄は、Google オーサーシップが登場する前から存在しており、今後も消えることはない。

従って、オーサーランクの利用が今後増えると本気で考えているなら、署名欄を意識すると良いだろう。署名欄は、ストーリーの作者を合図する後継者の筆頭として注目されている。前任者は既にGoogleによってクビにされている。

オーサーランクのことを必要以上にあれこれと考える必要はない。Google検索の極めて限られた部分に対して、効果が確認されただけである。今後、さらに効果が拡大していく可能性はある。そうなったとしても、Googleのリスティングを構成する数あるSEOのランキング要素の一つに過ぎない。ストーリーに適切に署名欄を記すことも重要だが、それよりも、作者と特定されることに誇りを持てるような質の高いストーリーを作成する取り組みに力を入れるべきだ。

この記事の中で述べられている意見はゲストライターの意見であり、必ずしもサーチ・エンジン・ランドを代表しているわけではない。


この記事は、Search Engine Landに掲載された「Google Authorship May Be Dead, But Author Rank Is Not」を翻訳した内容です。

Googleが公式に認めた用語というわけでもないようですし、記事自体もそこまで気にする必要はないと結論づけてしまっているのですが汗、オーソリティを測る上での概念として理解しておくことは重要と思いますし、名称が何にしろ、コンテンツ制作者のオーソリティレベルを判断する指標はGoogleが必ず取り入れてくる要素でしょう。オーソリティ構築を通じてオーサーランク向上を目指すことはSEOにもコンテンツマーケティングにもますます重要な作業となっていくのでしょうね。 — SEO Japan

Google、室内マッピング用バックパック「カートグラファー」を披露

ここ数年Googleマップの進化を見守っている人なら、Trekkerをご存じだろう。ストリートビュー用カメラ一式を備えたバックパックで、グランドキャニオンでのハイキングから、南極のペンギンコロニーまで、あらゆる物をマップにする。今日、Googleマップツール・ファミリーに新しいバックパックが仲間入りした:室内マッピング用カートグラファーだ。

カートグラファーでは、 “simultaneous localization and mapping“(SLAM)というプロセスを使用する。これは、自己位置推定と環境地図作成を同時に行う技法で、Googleはこれを、ホテルから美術館まであらゆるもののマッピングに利用しようとしている。

パックパッカーが建物の中を歩くと、フロアプランがリアルタイムで自動的に作られる、とGoogleは言っている。使用者は建物内を歩き回りながらタブレットで追加情報を登録できる(ホテルのルームナンバーや美術館の展示物等)。

すでにGoogleマップには、カートグラファーを使って作られた室内マップが6ヵ所登録されている。サンフランシスコのJW Marriott、San Jose Marriott、Museum of Children’s Arts、ミュンヘンのドイツ博物館の航空部門、San Francisco Marriott Marquis、およびDiscovery Museumだ。Googleによると、39階建てのSan Francisco Marriott Marquisのマッピングに、わずか数時間しかかからなかった。

このバックパックは、最新バージョンのTrekkerと比べて見映えがよいとは言えない。実際その外観は、センサーをいくつか内蔵したメタルプラットフォームにデスクトップPCをネジ止めしたように見える。

しかしここ数年Googleは、改善された室内マップの提供かなり関心を持っており、利用可能地域は急速に増えている。ビルオーナーが自分でマップをアップロードすることもできるようになった。

GoogleがProject Tangoで使っているタブレット(開発者向け)は、非常に高度な3Dセンサーを備え、室内環境のマッピングにも使用できる。しかしGoogleは、このプロジェクトはProject Tangoとは全く別物であると言っている。バックパックには、マルチエコー・レーザースキャナー(Googleの写真を見るとこの4500ドルのユニットが2台) と慣性計測装置が装備されている。

[原文へ]

(翻訳:Nob Takahashi / facebook


より正確な地図を作るGoogle MapsのGround Truthプロジェクトがついに50か国をカバー

2008年にGoogle Mapsのチームが立ち上げたプロジェクトGround Truthは、Googleが持っている地図データと各地のボランティアの知見を合わせて、もっとも正確な地図を作る、というねらいがあった。そのプロジェクトはささやかにスタートしたが、今日はこれまでカバーしていなかった台湾マレーシアポーランドルーマニア、それにロシアの一部を加えることが発表され、これで計50か国がサポートされることになった。

これらの国では今後地図がより詳しくなり、たとえば、歩行者専用道路や、車の右左折禁止、大学のキャンパスの詳細などもわかるようになる。

Ground Truthでは、各国政府や各種専門機関によるデータや、GoogleがStreet Viewや衛星画像の(コンピュータビジョンアルゴリズムによる)解析から得たデータも利用される。そしてさらに、人間の手作業による訂正や情報の追加が行われる。

以下は、Ground Truthを詳しく説明している長いビデオだ:

また、ロシアと台湾とマレーシアやで地図データをクラウドソーシングしていくためのツールとしてMap Makerが、これらの国向けにも今日から提供される。ポーランドやルーマニアなどそのほかの国ではすでに可利用だ。Googleによると、とくにこれらの国では、ボランティアのコミュニティの努力が、ベースマップをオンライン化していくためにも欠かせない、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleに新ブランド‘Google For Work’が生まれる…一連の生産性ツールのブランドイメージ強化/明確化のため

今朝(米国時間9/2)Googleは同社のサンフランシスコのオフィスで、同社のエンタプライズプロダクトのブランド名を変えて、一連のツールと生産性サービスを’Google for Work’にリネームする、と発表した。

この新しい呼び方は同社のさまざまなビジネスツールをすべてカバーし、そのそれぞれに’for Work’という接尾詞が付く。Drive for Work、Search for Work、などのように。

改名の理由としてGoogleは、すでに好評な各ツールのブランドイメージが向上することと、それぞれのツールの目的が直感的にわかることを挙げている。それはDriveだけど、お仕事(work)用、という具合に。すでにGoogleの教育用ツールやサービスは、このように束(たば)ねられて、独自のブログを持った。

Googleのエンタプライズ方面と生産性ツール(OAソフト)方面の取り組みは、とりわけ、Microsoftとの競合を意識している。Microsoftの新CEO Satya Nadellaが最近掲げたスローガンが、‘生産性とプラットホーム’だが、Googleもまさにそうだろう。BoxやDropbox、Appleなども、この炎の中で自分の剣を鍛えている。

Googleのエンタプライズ担当部長Amit Singhは記者たちに、同社の企業顧客向けクラウドストレージサービスDrive for Workは、新規の登録ユーザが毎週2000名近くある、と語った。そして今ではFortune 500企業の60%がGoogle for Workを有料サービスとして利用しているそうだ。

Googleは、クラウドコンピューティングとクラウドストレージの料金に関して思い切った値下げを行ってきた。同社のデータセンターは巨大だから、コモディティ(日用品)のようなツールは最低の料金で提供できる。Amazonなども同じく料金を下げているので、市場全体としても安値傾向だ。

コモディティ的なクラウドサービスから大きな売上が得られなくなると、エンドユーザ向けのツールやサービスに意識が向かう。でもGoogleは、どっちの市場でも一定のシェアを握りたいようだ。

Singhによると、ITの費用など一部の費用はムーアの法則に従って下降しないが、それは、企業が抱えているレガシーの遺産から発生する費用のせいだ。それらのリソースは昔は会社の経営に貢献したが、今のビジネス環境では重荷になっている。それらを全部捨てて、クラウドサービスに移行した方がコスト的にも良い、とSinghらは主張する。

しかしGoogleの一連の生産性サービスは、今後、Googleの主要な収益源になるのだろうか。この前の四半期の決算報告では、‘その他の売上’が全売上のわずか10%だった。ただし売上成長率は全科目の中で最高、前年同期比で53%増だった。Googleの総売上は前年同期比で22%増だから、‘その他’という科目はちょっとした優等生なのだ。

Google自身が、この分野を重視していることは、確実だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google、カリフォルニア大サンタバーバラ校と協力して人工知能のための量子コンピュータ開発へ

今日(米国時間9/2)、Googleはカリフォルニア大学サンタバーバラ校(UCSB)のJohn Martinisの率いる研究チームがGoogleの量子コンピュータ研究プロジェクトに参加したと発表した。Martinisのグループは量子コンピューティングの分野でトップクラスであり、超電導電量子コンピューティングを2008年に世界でもっとも早く実現したグループの一つだ。

Googleは以前から量子コンピューティングの研究を行ってきた。たとえば、D-Waveのコンピュータを、それが本当に量子コンピューティングであるのかどうかさえ不明な段階で、世界でもっとも早く購入したユーザーの1つだ。2013年の量子コンピュータの研究開始以来、GoogleはNASAやUniversities Space Research Associationの量子人工知能ラボと協力している。

今回の発表はGoogleが独自のハードウェア開発に乗り出したことを示すものだ。「Googleの量子人工知能チームは独自のハードウェア開発グループを擁することになった。これにより 最近の理論の進歩とD-Waveの量子アニーリング・アーキテクチャーの利用に基づく知見を利用した新しいデザインの量子最適化と推論プロセッサーの実現を目指すことができるようになった」とエンジニアリング担当ディレクターのHartmut Nevenは今日のブログに書いている

MartinisのグループはGoogleのサンタバーバラ・オフィスに本拠を移すが、UCSBの学生、大学院生が引き続き協力する。またUCSBの製造、測定施設の利用も続けられる。

Martinisは「Googleに参加したことにより、量子コンピューティングを機械学習アプリケーションに適用するチャンスが得られることに興奮している」と語った。ディープラーニング・ニューラルネットワークのパイオニアであるGeoff Hintonが2013年にGoogleに参加したことをMartinisはおそらく念頭に置いているのだろう。自ら設立したスタートアップ、DNNresearchがGoogleに買収されたのを機にトロント大学からGoogleに移った。

Nevenは「Googleは自ら量子コンピュータ・ハードウェアの開発に乗り出すが、今後もD-WaveとNASAと協力し、D-WaveのVesuviusマシンを利用していく」と述べた。

[原文へ]

(翻訳:滑川海彦@Facebook <A


Googleの最新ランキングシグナル大全集

常に進化を続けるGoogleですが、Googleの社員以上にGoogleのアルゴリズムに詳しいといわれるGoogle特許オタクのSEO by the Seaが最新のGoogleのランキングシグナル、つまり上位表示の要素についてまとめてくれた記事を。Google+視点で書かれておりソーシャル要素が中心となっていますが、オーソリティプログラム無き今、オーソリティ構築の観点からも重要な項目が目白押しです。 — SEO Japan

最近、Googleのランキングシグナルをリストアップした長文の記事を数本読んだ私は、自分でもランキングシグナルに関する記事を書いてみたくなった。

今回のブログの投稿では、7つ目までのシグナル、そして、8つ目の「フレーズベースのインデックス」特許に記載されていた共起マトリックスを取り上げる。

また、取り上げたシグナルに関連するSEOの取り組みにおいて、特に重要だと私が考えた論文と特許へのリンクも提供する。

それでは、8つ目までのシグナルを紹介していこう:

1. ローカルの相互的なつながり

この連載では、Googleが、過去に、クエリに対する検索結果のランク付けに利用してきた可能性が高い、各種のランキングシグナルを検証していく。

2001年、クリシュナ・バーラトが、米国特許商標局に特許を出願した。この特許は、2年後の2003年に付与された。この技術は、上位の検索結果(トップ 100、トップ 1000等)の中から、「ローカル」の背景において相互に「言及」している、または、「リンク」が張られている頻度に応じて、一部の検索結果のランキングを押し上げるものであった。

本特許によると、検索結果は、関連性や重要度(PageRank)等、通常の順序で並べられる。続いて、再び精査が行われる。そして、ローカルの関連性スコアが加えられ、結果の順序が変更される:

A Local Rank is considered with an old score for Pages

ローカルランクは、ページに対する古いスコアと平行して考慮される

さらに、このメソッドは、生成された一連の文書をランク付けして、各文書に対するローカルスコアの値を計算する。ローカルスコアの値は、生成されたセットの別の文書から言及された回数を数値化している。

クリシュナ・バーラトが、ヒルトップアルゴリズムを適用して、2000年代前半のGoogleの仕組みを書き直したことは、よく知られている。本特許の「その他の参照情報」の欄には、Googleに入社する前に、バーラトが、ヒルトップについて、そして、その仕組みについて説明した論文が言及されている:

ヒルトップ: 専門的な文書をベースとした検索エンジン

Googleは、それ以来、その他のシグナルに応じて、ローカルの結果を押し上げる、または、格下げする仕組みを説明する、複数の特許と論文を発表しており、今後、この連載で取り上げていく予定だ。

ローカルをつながりを基に結果のランキングを変更

2. ハブとオーソリティ

ウェブページに2つのセットのスコアが与えられたと仮定しよう。この2つのセットのスコアは、例えば、「バイクについて詳しく知りたい」、のような「広範なトピック」に与えられる。

1つ目は、オーソリティスコアであり、広範なトピックにどれだけ答えられているかに応じて決められる。2つ目は、ハブスコアであり、リンクの複雑な関係を示す。このスコアは、当該のトピックに対するオーソリティのレベルに高いページを見つけるために用いることが可能である。

リンクを張った特許は、考案者がAltaVistaに務めていた際に作成したものである。その後、OvertureがAltaVistaを買い取り、続いて、Yahoo!がOvertureを買収し、Yahoo!のものになった。考案者の一人は、1つ目のシグナルで取り上げたクリシュナ・バーラトである。そして、この特許には、モニカ・ヘンジンガーも参加している。いずれかの特許に目を通しておくことを薦める。

特許で言及されている論文には、SEOを研究しているなら、そして、ページが検索結果でランク付けされる仕組みを学んでいるなら、読んでもらいたい。この論文を綴ったのは、ジョン・クラインバーグである:

ハイパーリンク環境での信頼できるソース(pdf)

特許に進む前に、出来るだけこの論文を読んでもらいたい — 特許を読み、理解しやすくなるためだ。

この特許は、クラインバーグが綴った論文におけるハブとオーソリティのアルゴリズムを改善し、意味が複数存在する可能性がある用語に焦点が絞られる際に、トピックの脱線を防ぐことを重視している(例えば、Jaguarは、自動車メーカー、動物、または、ジャクソンビルを本拠地にするNFLのチームを指すこともある)。

The content is pruned, and then re-ranked based upon connectivity

コンテンツが取り込まれ、続いて、つながりに応じてランクの変更が行われる

バーラトとヘンジンガーは、共にGoogleに入社したものの、この特許と論文は、Googleが所有しているわけではない。ハブとオーソリティのスコアの要素は、この文書で確認してもらいたい。

コンテンツとつながりの分析を用いて、ハイパーリンク化されたページをランク付けするメソッド

3. 到達することが出来る確率

この特許には触れずにはいられなかった — 100-200点のランキングシグナルを1日に1つ取り上げていくつもりだが、このペースを辛抱強く続けることが出来るかどうかは不明だ :)

始めに取り上げた2、3つシグナルでは、重要な役割を担うオーソリティとハブをGoogleが特定しようとしている点、そして、一部のページは、高くランク付けするべきである点に注目した。

この特許は、他のページからリンクが張られたページに対して、リーチャビリティ(到達することが出来る確率)を特定するため、ユーザーの行動に関するシグナルの確認に焦点を絞っている。良質なハブページは、オーソリティレベルの高いページに導く傾向がある。ある程度、優れたハブとしての役目を持つページのスコア付けに似ている。

本特許は以下の記事で取り上げたことがある:

Googleは文書のランキングにリーチャビリティのスコアを用いているのか?

つまり、その他のリソースに向かうページのリンクの品質の数値を基準として、優れたページは、当該のページのランキングを押し上げることもあり得る。

Initial Rankings Changed by Reachability Scores

リーチャビリティスコアによる当初のランキングの変更

スティーブン・レヴィは、Googleに関する本を綴り、Googleが、品質のシグナルとして「ロングクリック」を重視していると指摘している。本特許でも、Googleがロングクリックを特定する仕組みには触れているものの、直接的なランキングシグナルとして利用しているとは明記されていない。本特許は、ロングクリックを用いて、複数のページにリンクを張り、結果的にロングクリックを実現したページの質を特定する仕組みを描いている。このページは、良質なハブページの可能性が高い。:)

リーチャビリティの特定

4. バースト

ジョン・クラインバーグは、一定の時期に、例えば、中間試験や期末試験が近づいて来ると、テストや業務時間の延長に関するeメール等、特定のトピックに関するeメールが増えることに、ある時、気がついた。

クラインバーグは、この類の行動はウェブ上でも行われており、様々イベントによって、ブログで、ニュースで、そして、検索クエリ等で、特定のトピックの発生を促していることを察知した。そして、大統領のメッセージ、2回目の任期、このメッセージを導くイベント等、アーカイブを調べ、情報の流れについて注目するようになった。

Kleinberg's study included looking at words in Presidential addresses.

クラインバーグは、調査の中で、大統領の演説に用いられたワードに注目していた。

トラフィックがネットワークを通る際は、安定して流れるのではなく、一気に移動する(バースト)。バーストにパターンが見られることもある。人気の高いトピック、既に落ち着いたトピック、季節限定のトピック、または、時間や曜日の影響を受けるトピックを把握しておくと、役に立つかもしれない。

検索エンジンが用いるランキングシグナルを挙げるリストには、「新鮮さ」等の用語が登場することが多い。ニュースやブログ検索等のアイテムに対するアルゴリズムには、「新鮮さ」が重要なシグナルの役割を果たすものの、検索エンジンが、図書館のように情報源の役目を果たす際は、歳月を経た結果が求められている可能性もある。

モニカ・ヘンジンガーが、ウェブ文書の始期に関する特許をGoogleのために作成した際、文書は、初めて配信された日付、また、検索エンジンに初めてクロールされた日付に応じて、始期が決定されると指摘していた。日付によって、このような文書のランキングが決まることもあれば、一連の検索結果の相対的な古さの影響を受ける可能性もある。

「declaration of independence」(独立宣言)を検索し、古い文書が多く返されたら、Googleは、古い文書の表示を求めており、検索結果で優先していると思われる。一方、「Windows 8.1」を検索すると、検索結果には新しいページが多く掲載されているはずである。この結果では、新しい文書が優先されると見られる。

「justin bieber canada」(ジャスティン・ビーバー カナダ)の検索が急激に増えた場合、集中的に情報が流れ、その結果、より新鮮な文書が上位に押し上げられると、Query Deserves Freshness(新鮮さを優先したクエリ)アルゴリズムが発動され、ニュース記事や新しいページが、検索結果で優遇される可能性がある。

ただし、古いページが、上位に掲載されることもあるため、一概に「新鮮さ」と言う用語を使うべきではない。

オンライン情報の一時的な動態(PDF)

5. セマンティックな面での近さ

「セマンティック」と言うワードを聞くと、セマンティックマークアップやschema.orgのマークアップを探す方がいる。このグループに属するなら、この投稿を読む必要はない。

また、ヘッダーの要素を確認し、その他のテキストよりも大きく、そして、濃いため、ヘッダー内の用語における検索結果で、優遇されるのかどうかを考える方もいる。このグループに該当する方もまた、この投稿を読まなくても良い。

その一方で、ページ上でリストを目にした際に、厳密には、HTMLのリストの要素を使う必要がない状態で、リスト内のアイテムをアルファベット順、または、ワードの長さ順、もしくは、適当に並び替えることが可能である点、また、リストのそれぞれのアイテムが、その他のアイテムと同じぐらい重要である点を考える方もいる。そして、ヘッダーのリスト内のワードとその他のリストのアイテムとの距離が同じだと考える。

この「近さ」は、検索エンジンおよびSEOにおいて、魔法のような効力を持つ。「アイスクリーム」で検索を行った場合、フレーズ「アイスクリーム」を含むページは、「店にクリームを買いに行ったら、アイス(氷)の上で転んだ」より関連性が高く、上位にランク付けされるはずである。

I've annotated this patent image to show semantic closeness in a list.

リストでセマンティックの近さを示すため、この特許の画像に注釈をつけた。

このリストのアイテムは、ヘッダーからの距離が等しいだけでなく、ページのヘッダーの要素への距離、そして、ヘッダーの中身の各ワードへの距離も等しい。この点を私が心得ているのは、Googleの「セマンティックの近さの定義で取り上げられていたためだ。

先程も申し上げた通り、セマンティックの近さをもたらす上で、schema.orgのマークアップは、必ずしも必要とされるわけではない。ワードには意味が存在し、そして、一部のHTMLの要素には、意味が刻み込まれている。HTMLのページで、それぞれのアイテムを提示する以上の役割を担っている。

従って、ヘッダーの要素とGoogleでのランキングの間に相関関係が存在しないと誰かが言っていたら、セマンティックの近さを説明してもらおう。考え込んでしまうはずだ。この段階で、答えを出せないなら、永遠に理解することは出来ないだろう。

文書内の用語間のセマンティックな距離を基に文書をランク付け

6. ページの分割

なぜMicrosoftのリンクが?と訝しく思う方もいるかもしれない。それは、ページの分類に関する調査をGoogleやYahoo!よりも本格的に行い、アイデアとコンセプトをより深くし理解しているからに他ならない。

Microsoft's VIPS paper image showing segmentation.

分割を説明するMicrosoftのVIPSの論文。

Googleもページ分割のコンセプトそのものを取り上げた特許を幾つか持っている(「SEOの最重要特許」シリーズで言及している)。

以下に、レポートと特許でMicrosoftが指摘しているポイントの一部を挙げていく:

  • ブロックレベルのPageRank: ページの異なるブロックやセクションのリンクが、PageRankの過去のアプローチでのページのようにPageRankを運ぶ。
  • ページで、とりわけ、複数のストーリーを持つ雑誌タイプのページで、最も重要なブロックを特定する方法 — 最も重要なブロック内のテキストのRelevance Value(関連値)が最も高くなるように。
  • ブロック、または、セクションの言語の特徴を基に、ページの異なるブロックやセグメントを分析し、理解する手法。

ブロックのコンテンツは、基本的に、センテンスケース内の完全な文を用いており、最初の複数のワードのみ大文字で表記されているか?

ブロックは、タイトルケース内で、ワード/フレーズのリストのみであり、主に、別の場所にリンクを張っているか?

ブロックには、著作権通知が、主にフッターに掲載されており、関連性の面で、とりわけ低くランク付けされるようになっているか?

ウェブページの分割に関しては、ブログで何度か取り上げたことがあり、もう少し詳しい情報が欲しい方は、是非、参考にしてもらいたい:

VIPS: ビジョンベースのページ分割アルゴリズム

7. リーゾナブルサーファー PageRank

PageRankは、Googleが、その他の検索エンジンと一線を画すきっかけを作ったアルゴリズムであった。しかし、当初のアルゴリズムと、現在のアルゴリズムは同じではない。90年代後半のPageRankを正確に説明することが出来る自信はないが、異なるモデルに注目してもらいたかった。

リンクによって、重み(重要度)、PageRankの量、さらには、ハイパーテキストの関連性のレベルは異なる。これは、Googleのスタッフが数年前に明らかにしているポイントである。Yahoo!やBlekko等の検索エンジンにおいては、例えばブログのコメント欄のリンク等、リンクによっては、完全に無視されることもある。

Features of Links determine weights

リンクの特徴が重みを決める

この特許でも指摘されているように、Googleは、ページの「利用規約」のアンカーテキストを確認すると、自動的に当該のページにはPageRankを送信しない決断を下すと見られる。

本特許を発明した人物の欄に、ジェフリー・ディーンの名前が掲載されている。この人物の名前は、その他のGoogleの特許にも何度も登場する。ジェフリー・ディーンは、Googleが作っている全世界的なデータセンターに関わる技術的な課題、そして、機械の全体的な仕組みを取り上げることが多い。Googleの特許を読む時間があるなら、ディーンが書いた特許に目を通してみる価値はある。「Googleでのリサーチ活動」ページを見ると、圧倒されてしまうだろう:

ジェフリー・ディーン — Googleでのリサーチ活動

数年の間に、PageRankに関する文書が多数綴られているが、リーゾナブルサーファーに関する文献を読んでいないなら、ランダムサーファーからの移行を理解することは出来ないため、是非、読んでもらいたい。

以下に、手始めに読んでもらいたい記事を紹介する:

Googleのリーゾナブルサーファー: リンク、文書の特徴、ユーザーデータに応じてリンクの価値は異なる

ユーザーの行動/特徴のデータに基づいて文書をランク付け

8. 共起マトリクス

過去10年で、フレーズベースのインデックスに関する記事を多数投稿してきたが、これは当時、SEOのトピックとして、とりわけ重要度が高かった。しかし、無視されることも、軽視されることも多かった。それでも、実際には、フレーズベースのインデックスの仕組み、そして、Googleの転置インデックスの仕組みを指摘する特許は多い。

フレーズベースのインデックスを考案した発明者は、21世紀で最大級の検索エンジン、Recall(インターネットアーカイブでデータとして用いられていた)の発明者にも名を連ねていたアンナ・パターソンである。アンナ・パターソンは、Googleを去り、夫のトム・コステロと共に検索エンジンのCuilをローンチした。Cuilは、ローンチ時に1兆2000億ページがインデックスされていると推定されていた。Cuilは失敗に終わったが、アンナ・パターソンは、すぐにGoogleのリサーチ部門の責任者に就任していた。

フレーズベースのインデックスでは、ウェブページで有益で良質なフレーズが特定され、転置インデックスにおいて、ページにフレーズが散りばめられていく。クエリに対する検索結果では、トップ 100、または、トップ 1000で共起するフレーズの特定が行われると見られる。複数の意味を持つワードやフレーズにおいては、同様のトピックに関するページにまとめられ、共起するフレーズを探し出す。

An overview of the phrase-based indexing ecosystem

フレーズベースのインデックスにおけるシステムの概要

この共起するフレーズは「関連するワード」と呼ばれ、初回のクエリに対して上位にランク付けされている可能性のあるページに表示される際、Googleは、検索結果で優先すると考えられる。「関連するワード」が、統計的に見て、多過ぎる場合、Googleは当該のページをスパムと判断すると推定される。

Googleは、「関連するワード」をアンカーテキストの中で探し、共起するレベルに応じて、アンカーテキストに関連するリンクの重みを別々に判断する可能性がある。以下に、この仕組みを説明する特許に記載されている一節を紹介する。先程述べたHITSアルゴリズムを鑑みると、共起の多い関連するワードを「専門的な文書」と呼んでいる点は注目に値する。

[0206] R.sub.i.Q.関連するフレーズのベクター R*D.Q.関連するフレーズのビットのベクター。

[0207] プロダクトの価値は、アンカーフレーズ Qの文書 Dに対する関連度のスコアで決まる。このスコアを、「インバウンド・スコア・コンポーネント」と呼ぶ。このプロダクトは、参照する文書 R内のアンカーフレーズの関連性ビットベクターによって、現在の文書 Dの関連性ビットベクターを計測する。参照する文書 R自体が、クエリフレーズ Qに関連している場合(そして、関連性フレーズのビットベクターの値が高い場合)、現在の文書 Dのスコアの重要度を引き上げる。本文のヒットスコアとアンカーのヒットスコアを組み合わせて、先程説明した文書スコアを生成する。

[0208] 次に、参照する文書 Rに対して、それぞれのアンカーフレーズ Qの関連するフレーズのビットベクターを取得する。これは、アンカーテキスト Qが、文書 Rに対して、どれだけ関連しているかを計測する値である。この値を、アウトバウンド・スコア・コンポーネントと呼ぶ。

[0209] インデックス 150から、アンカーフレーズ Qに対して、(参照する文書、参照された文書の)全てのペアが抽出される。このペアは、関連する値(アウトバウンド・スコア・コンポーネント、インバウンド・スコア・コンポーネント)に応じてソートされる。実装に応じて、片方のコンポーネントは、第一ソートキーになり、残りのコンポーネントが、第二ソートキーになる。ソートされた結果は、ユーザーに提示される。アウトバウンド・スコア・コンポーネントで文書をソートすると、クエリに対する関連するフレーズを多く持つ文書は、高くランク付けされ、「専門的」な文書として提供される。一方、インバウンド・コンポーネント・スコアでソートを行うと、アンカーの用語において頻繁に参照される文書が上位にランク付けされる。

特許「フレーズベースのインデックス」は、とても内容が濃く、また、詳細を検証する必要のある要素が多数追加されている。この要素については、以下の投稿で多数取り上げているが、残りの特許を見ていくと、Googleが共起マトリクスを活用するその他の多くの手段が明らかになる。

フレーズベースの情報検索とスパム検知

SEOの最重要特許ベスト10 その5 – フレーズベースのインデックス」(日本語)で特許の多くを取り上げているので、是非、目を通しておいてもらいたい。

複数のインデックスをベースとした情報検索システム

エピローグ

このシリーズは今後も継続していく。ただし、裏付ける情報が存在しないため、このシリーズから漏れるシグナルも多数あるだろう。ランキングシグナルのリストの中には、作り話以外の何でもない要素も多く、このシリーズで幾つか言及するかもしれない。

Googleは、複数のアルゴリズムを利用している可能性は高く、また、1年間に約500点の変更をランク付けの仕組みに加えていると明らかにしている。

この点に関しても、詳しく調べていくつもりだが、自分でリサーチしたい方々が、調査に取り掛かることが出来るように、十分な量の特許を紹介していきたいと思う。因みに、リサーチを行うなら、是非、連絡して頂きたい。


この記事は、SEO by the Seaに掲載された「The Incomplete Google Ranking Signals, Part 1」を翻訳した内容です。

余りに濃すぎるその内容、マニア以外は読む気にならないかもしれませんが、改めて考えてみると過去にSEO Japanで紹介してきた様々なGoogleの最新アルゴリズムが適度にまとまった記事でした。これまでの記事を敬遠して読んでこなかった方も、これ一本で十分かも、と記事の最後にいうのもなんですが。 — SEO Japan

未来の検索を導くGoogleのナレッジボールトとは

Googleが過去数年取り組んできたオーサーシップが終了することが発表されました。とはいえ、Googleの進化は決して止まることはありません、ということで、先日、なんと米国の科学誌New Scientistに掲載されたGoogleが新たに構築しているらしい「ナレッジボールト」に関する話題を。「ナレッジ」とあるだけに、Googleのセマンティック検索のベースを担うコンテンツグラフに大いに関係がありそうですが、その内容はいかに。ちなみにどうもまだ研究(論文?)の段階なようですが、オーサーシップ無き後のGoogleに必要な技術の1つともいえるかもしれませんし、紹介したいと思います。 — SEO Japan

google-algorithm-fade-ss-1920

Googleのナレッジグラフは、増え続ける構造化コンテンツをPC、および、モバイルの検索結果に供給する特命を帯びている。これは「ユニバーサル検索」を機にスタートした進化の一環であり、モバイルデバイスで「リンクではなく答え」を提供するため、加速を続けている。

現在、Googleは、コンテンツのナレッジベースの後継者を開発している。これは、最終的にナレッジグラフに取って代わり、遥かに規模の大きな製品になると見られている(追伸を確認してもらいたい)。New Scientistによると、このシステムとデータベースは、「ナレッジボールト」と呼ばれるようだ。Googleは、パブリッシャーへの依存を徐々に軽減している。そのため、時間の経過とともに、ナレッジボールトはパブリッシャーに大きな影響を与える可能性を秘めている。しかし、Googleのビジネスモデルが、この流れにある程度歯止めをかけている。

「人類史上、最大の知識の宝庫」と言うセンセーショナルな称号が与えられたナレッジボールトは、人間による編集を介さず、インターネット中から集められたコンテンツで構成される。「ナレッジボールトは、単独でウェブ上の情報を集め、世界、人物、そして、物事に関する事実のデータで構成される単一のデータベースに統合する」とNew Scientistは指摘している。

Googleは、どうやら、既に16億点の「ファクト」(事実に関するデータ)を集め、精度の確実性に応じて、スコアをつけているようだ。 データベース内の16%の情報が、「確実な事実」と認定されている。

ナレッジボールト、そして、Googleの「自信」が拡大すると、様々な状況、とりわけモバイル(Google Nowを含む)で利用されるようになる可能性がある。これは、Star-Trekの「どんな疑問にも答えを出す」コンピュータとして、究極のビジョンを構築する取り組みの一環だと言える。このビジョンを実現するには、莫大な量の情報が必要になるが、このシステムが構築されると、様々な利用法や演算のシナリオが現実のものとなる。

New Scientistの記事は、ナレッジボールトを未来の人工知能、機械対機会の通信、拡張現実、予測モデル、そして、バーチャルアシスタントのユースケースの土台と位置づけている。以下に、同サイトの記事の中で挙げられていた、このテクノロジーの用途の例を挙げる:

その他のエージェントは、同じプロセスを実施し、医学的症状のナレッジベースを調べ、個人の健康の記録に関するデータとの相関関係を見つけ出すことで、健康に気を配り、指導を行う。IBMのWatsonは、既にニューヨークのメモリアル・スローン・ケタリング病院で、癌に対して、この取り組みを行っている。

被害妄想の度合いによっては、ナレッジボールトは、コンピューティングにバラ色の未来をもたらす刺激的な展開とも、もしくは、アメリカ政府の全情報認知プログラムを思い起こさせる恐怖の展開とも受け止められるだろう。

New Scientistの記事は、Googleだけではなく、全ての主要なインターネット関連の会社が、同じような情報とデータの「ボールト」(保管室)を構築していると指摘している。

追伸: 昨日、Googleは、New Scientistの記事では、「ナレッジボールト」が不正確に伝えられている、もしくは、誤って解釈されていると指摘した。どうやら、ナレッジボールトは研究論文(2014年5月)であり、Googleは開発を進めているわけではないようだ。さらに、Googleは、機械を使ってナレッジベースを構築するモデル、あるいは、テキストから意味を抽出するモデルは、同社にも、そして、他社にも多数存在すると表明していた。


この記事は、Search Engine Landに掲載された「Google “Knowledge Vault” To Power Future Of Search」を翻訳した内容です。

まさに想像を超える未来の話のようにも聞こえますが、Googleならいつか実現しそうな気もしますね。いずれにしても名前や内容に多少違いはあっても、こういったデータベース(ボールトって保管室の意味なんですね、初めて知りました)を独自に構築していくことが最終的には必要になってくると思います。ユーザ依存のやり方では今回のオーサーシップのように難しい点も多そうですし。オーサーシッププログラムが過去の微々たる失敗と笑われそうな日が近い将来確実に来そうな常に進化するGoogleでした。 — SEO Japan [G+]

Googleがオーサーシップを諦めた理由を検証

Googleが導入を積極的に推進していたオーサーシッププログラムがまさかの完全終了となったようです。検索結果上の著者名表示は既に取り止めとなっていましたが、オーサーシップデータを利用すること自体を終了することを正式に発表しました。SEO的にいずれ役立つはずとGoogle+がイマイチ不人気な日本でも頑張って導入を行ってきたウェブマスターの皆さんには衝撃ともいえるこのニュース発表、改めてオーサーシップの歴史を振り返り終了に至った理由を考察した記事をサーチエンジンランドから。 — SEO Japan

end-over-finished-typewriter-ss-1920

3年間に渡って行われた、素晴らしきGoogleオーサーシッププログラムの実験がついに終了した– 少なくともしばらくの間…。

本日、Googleウェブマスターツールを担当するジョン・ミューラーが、Google+の投稿の中で、Googleが、検索結果でオーサーシップを表示する取り組みを終了し、今後は、rel=authorマークアップを利用したコンテンツのデータを追跡することはないと発表した。

マーク・トラファゲンと共同で作成した今回の詳細な記事では、・オーサーシップ終了の告知、・オーサーシップの歴史、・中止の要因として挙げられた理由を裏付けるために行われたStone Temple Consultingによる調査、そして、・検索におけるオーサー(著者)のオーソリティの未来に関する考えを取り上げている。

authorship-ends-experiment-ss-800

消滅へのカウントダウン

オーサーシッププログラムの中止が発表されるまでの8ヶ月の間に、2つの主要なオーサーシップのリッチスニペットが削減されていた。まず、2013年12月には、同年の10月に行われたPubconのキーノート講演で、ウェブスパムの取り組みを統括するマット・カッツが予告した通り、クエリ一つにつき表示するオーサーの写真のスニペットが姿を消した。そして、12月に入ると、一部のオーサーシップの結果のみに写真が掲載されるようになり、残りの結果は署名欄のみになった。

続いて、2014年の6月、世界の検索結果から全てのオーサーの写真が削除され、全ての正規のオーサーシップの結果に、署名欄のみが掲載されるようになった。

当時、ジョン・ミューラーは、Google+の投稿で、Googleがデスクトップ検索とモバイル検索のUXの融合を目指しており、オーサーの写真はモバイルの限られたスクリーンと回線容量では、あまりうまくいかなかった点を理由として挙げていた。また、オーサーの写真があってもなくても、「クリックの行動」に大きな違いがなかった点も明らかにされていた。

Googleオーサーシップの歴史を簡単に振り返る

オーサーシッププロジェクトのルーツにあるのは、2007年のエージェントランクの特許である。Googleの特許に詳しいビル・スラウスキが説明していたように、エージェントオーサーランクの特許には、複数のコンテンツを、一名の(もしくは数名の)エージェント(オーサー)を示すデジタル署名を結びつけるシステムが描かれていた。

この認識システムは、エージェントのコンテンツに向けられた各種の信頼のシグナルおよびオーソリティのシグナルに応じてスコアを与えるために用いられ、さらに、このスコアは、検索のランキングに影響を与えるために利用される可能性があった。

エージェントランクは、実用的に適用する手段がない状態では、理論的な概念でしかなかったが、Googleが、構造化マークアップの基準としてschema.orgを採用するようになったことから、180度運命が変わった。2011年6月に投稿されたブログの記事で、Googleは、オーサーシップのマークアップへの対応を始めると発表していた。そして、rel=author、 & rel=me タグを使って、サイトのコンテンツをマークアップし、コンテンツをオーサーのプロフィールと結ぶ取り組みをウェブマスターに促すようになった。

オーサーシップが、本格的にGoogleに貢献する上で最後のパズルのピースの役目を果たしたのは、2011年6月末にリリースされたGoogle+であった。Google+のプロフィールには、オーサーとコンテツを結びつけるGoogleの共通特定プラットフォームとしての役目が与えられた。

google-matt-cutts-othar-hansson

ハンソン & カッツ

同年の8月に配信されたYouTubeの動画で、当時、オーサーシッププロジェクトを統率していたオサー・ハンソンとマット・カッツは、コンテンツをGoogle+のプロフィールと結びつけた方が良い理由を詳しく説明し、その結果、プロフィールの写真が検索結果に表示されると指摘し、そして、初めて、オーサーシップのデータが、ランキングの要素として用いられる可能性が「今後」あると述べていた。

その後の3年間、オーサーシップには、様々な変更が加えられていったが、ここでは割愛させてもらう(アン・スマーティが、オーサーシップの変更の歴史をまとめているので、興味がある方は目を通すと良いだろう)。マット・カッツを始めとするGoogleの広報は、オーサーのオーソリティに関するコンセプトに、Googleが、長期的に力を入れていると繰り返し言及していた。

Googleがオーサーシッププログラムを終了させた理由

Googleは、同社が始めた取り組みが何であれ、不可侵、または、不死の称号を得ることはないと何度も指摘してきた。あっさりと廃止されたGoogleの製品とサービスをリストアップしていけば、小冊子を作れるボリュームに達する。

このような製品のシャッフルが行われるのは、主に、Googleが、徹底してテストを実施しているためだ。全ての製品、そして、各製品に対する変更、または、工夫に対して、絶えずテストが行われ、評価される。利用者の人数が足りない、ユーザーに大きなメリットを与えていない等、Googleの目標に到達したいものは、見捨てられる。

ジョン・ミューラーは、この記事を共同で綴ったマーク・トラファゲンに対して、3年前から集めてきたデータを参考にする限り、オーサーシップの結果を表示する試みは、データを処理するために用いるリソースを考慮すると、十分なメリットを与えているとは言えないと、述べていた。

ミューラーは、オーサーシップの実験が、期待外れに終わった2つの具体的な領域を挙げている:

1. オーサーとウェブマスターへの普及率が低い。この記事の後半で提供する調査のデータにも表れているが、オーサーシップのマークアップに参加するオーサーは、ひいき目に見ても、まばらであった。また、参加者がゼロの分野も数多く存在した。サイトが参加を試みても、マークアップを誤ってしまうケースも多かった。さらに、大半のテクノロジーに詳しくないサイトのオーナーやオーサーは、マークアップとリンクに対して、あまりにも複雑だと感じており、そもそも、実装を試みる確率は低かった。

このような問題を受けて、Googleは、2012年の始めに、マークアップが存在しないケース、あるいは、不適切に行われているケース、もしくは、オーサープロフィールのリンクが存在しないケースで、オーサーシップを自動的に与える取り組みを始めた。2012年11月、Forbesが作成した50名の影響力の強いソーシャルメディアマーケッターのリストから、30%はオーサーシップマークアップをブログで使っている点、そして、34%はマークアップを使っていないものの、オーサーシップのリッチスニペットを得ている点をマーク・トラファゲンが発見している。これは、エリック・エンゲが実施した調査で得られたデータとも一致している。この調査に関しては、後程詳しく説明する。

しかし、オーサーに対する自動アトリビューションの取り組みは、作家のトルーマン・カポテが、死後28年が経過しているにも関わらず、New York Timesのオーサーとして表示される等、エラーが続出し、Googleは恥をかくことになった。当然だが、ウェブページのオーサーを特定し、コンテンツと結びつけ、続いて、信頼性のレベルとオーソリティのレベルを隠れたランキングの要素として評価するGoogleの願いは、Googleに詳しくない人達との協力に左右される状況では、見通しは明るくなかった。

2. 検索エンジンのユーザーに対するメリットが少ない。今年の6月、検索結果からオーサーの写真を削除する件を発表した際、ジョン・ミューラーは、オーサーシップのスニペットがあるケースとないケースを比較したところ、「クリックの行動」にほとんど違いがなかったと指摘していた。この発言は、オーサーのスニペットが、クリックスルー率を高くすると確信していた人達にショックを与えた(そして、この情報の真偽を疑う人達も多かった)。

マーク・トラファゲンとの今回の変更に関する議論の中で、ミューラーは、Googleが集めたデータを参考にする限り、オーサーシップのスニペットから、ユーザーは十分なメリットを得ていなかったと何度も主張していた。「メリット」が何かは詳しく説明してくれなかったものの、検索ページでのユーザーの行動が、オーサーシップのスニペットの存在の影響を受けているように見えなかった、と推測することが出来る。もしかしたら、ユーザーは、何度も見るうちに、目新しさを感じなくなったのかもしれない。

(この記事を書いている時点で)Google+のアカウント(パーソナライズ検索)にログインしている状態では、Googleのネットワークに参加している人物のGoogle+のコンテンツに対しては、引き続きオーサーの写真が掲載されている。

ミューラーは、この写真の表示を中止する予定は今のところない、と語っていた。しかし、トラファゲンの下には、写真が表示されなくなった点を指摘する報告が幾つか届いている。Googleは、パーソナライズの結果からオーサーの写真を本当に削除しているかどうかに関して、今後も動向を追い、ここで最新の情報を提供していく。

Authorship Photos in Personalized Searchj

Googleが、一部のパーソナライズの結果に対して、引き続きオーサーの写真を表示するなら、個人的な関係持つ人物がコンテンツを投稿している場合、リッチスニペットがユーザーにメリットを与えることがデータに出ていると推測することが可能だ。この件に関しては、最後のセクションで再び取り上げるつもりだ。

rel=authorの実装に関する調査

幸運にも、弊社、Stone Temple Consultingは、rel=authorマークアップの利用に関する調査をまとめるプロセスを行っていた。データを見ると、Googleがこの取り組みで直面していた問題の一部が、浮かび上がってくる。この調査により、利用者が少ないこと、そして、rel=authorを試みたものの、正確に実装されたケースが少ないことが明らかになった。さらに、オーサーによる利用も少なかった。それでは、実際のデータで確認していこう。

オーサーシップの普及

私達は、150の主要なメディアサイトから、500名のオーサーを選んだ。Google+のプロフィール内でのオーサーシップのタグ付けの実施状況に関するデータを以下に掲載する:

G+のプロフィールでの実装状況 人数 全体の%
プロフィールがない 241 48%
プロフィールはあるが、コンテンツを投稿するサイトにリンクを張っていない 108 22%
プロフィールがあり、1本、または、数本のリンクをコンテンツを投稿するサイトに張っている 151 30%

 

なんとオーサーの7割が、オーサーシップをメジャーなウェブサイトで投稿したコンテンツに結びつけていない現状が判明した。もちろん、Googleが、この類の取り組みを宣伝する仕組みにも原因がある。そもそも、Googleは宣伝を行っていない。インターネットの口コミに頼っており、これでは、均等に情報が伝わるわけがない。

パブリッシャーの利用

150サイトのうち50サイトは、オーサーページを用意していない。また、用意しているサイトであっても、実に3/4以上が、オーサーの名前しか、アトリビューションの要素を提供していない。残りのサイトでは、記事の下の方でアトリビューションへのリンクを掲載していたが、オーサーの大半は、この利点を活用していなかった

この投稿のために、オーサーページを持つ20のサイトを選び、オーサーシップの実装における成功を詳しく分析した:

  1. 20サイトのうち13サイトが、オーサーシップのマークアップを実装していた(65%)。
  2. 実装を試みた13サイトのうち10サイトにエラーが見られた(77%)。
  3. 実装を試みた13サイトのうち12サイトが、GoogleのSERPでリッチスニペットを受けていた(92%)。

オーサーシップを実装する方法に関する資料は、ウェブを探せば、山ほど見つかる。しかし、タグの形式が誤っているサイト、そして、オーサーシップを実装しているものの、オーサーのG+のプロフィールにリンクを張っていないサイト、タグが矛盾し、ある記事に対して数名の人物をオーサーとして報告するサイトを私達は発見した。また、2名のオーサーが記事にタグ付けされていたものの、2人目のオーサーのみがGoogle+のプロフィールにリンクを張っており、Googleが2人目のオーサーのみに功績を認めていたケースにも遭遇した。

  1. 20サイトのうち、7サイトは、オーサーシップのマークアップを実装していなかった(35%)。
  2. 7サイトのうち2サイトは、GoogleのSERPでリッチスニペットを受けていた(28%)。

マークアップが存在しないにも関わらず、Googleがリッチスニペットを与えていたケースでは、オーサーは、Google+のContributor Toのセクションからサイトにリンクを張っていた。

調査のまとめ

手短に言うと、適切にrel=authorを実装しているサイトは、極めて少ない。Googleは、多くの問題に直面しつつも、オーサーとパブリッシャーを結びつける試みを徹底的に行った。より大きな視点に立って考えると、パブリッシャーからデータを集めるのが、いかに難しいかが分かる。とても難しく、やっとのことで得たにも関わらず、その情報の質は低い。

結論

Googleは、過去3年間、オーサーのオーソリティを理解することに関心を持っていると何度も述べていた。この点に関するエリック・シュミット会長による発言を忘れることが出来ない:

検索結果で、認証を受けたオンラインプロフィールに結び付けられた情報は、認証を受けていないプロフィールよりも、高くランク付けされる。すると、大半のユーザーは、自然に、上位の(認証済みの)結果をクリックするようになるだろう。その結果、匿名を維持するために支払う対価は、ますます高くなっていく。

エリック・シュミット — The New Digital Age

しかし、この問題を解決するのは、非常に難しいことが判明した。このデータを望むものの、現在のアプローチは有効ではなかった。先程も申し上げたように、これは、オーサーシップの取り組みが見捨てられた2つの大きな理由の1つである。

ジョン・ミューラーが特定したもう1つの問題も同じぐらい重要だ。写真であれ、あるいは、単純に署名欄であれ、何らかの形式のリッチスニペットを取り込むアプローチは、SERPでエンドユーザーにメリットを与えていなかった。Googleは、検索の品質を絶えずテストしており、特別扱いは存在しない。エンドユーザーがメリットを受けていないなら、Googleは、容赦なくその取り組みを終わらせる。

また、この試みに費やす処理能力の影響も無視するわけにはいかない。Googleは、無限の処理能力を持っていると考えたくなるが、それは事実とは異なる。そんな力を持っていたなら、光学式文字認識技術を使って画像内のテキストを読み、画像処理技術を用いて写真を認識し、音声テキスト変換技術を使ってインターネットの動画を文字に起こし、そして、毎日すべてのウェブページをクロールする。しかし、Googleにも限界はある。

Googleは、処理能力の利用に関して、意識的に判断を下さなければならない — つまり、予算を賢く割り当てる必要がある。現時点で、オーサーシップの試みは、与えていた予算の額に見合う結果を残していないことになる。

モバイルの台頭が、この結果に影響を与えた可能性もある。オーサーシップのリッチスニペットを導入したものの、SERPのクリックの行動に大きな変化は見られなかった、とジョン・ミューラーが語っていたが、現在、Googleのトラフィックの半分はモバイルである。モバイルデバイスの貴重なスクリーンのスペースを、このタイプのマークアップで食いつぶしてしまうのは、得策とは言い難い。

それでは、オーサーシップは二度と帰ってこないのだろうか?恐らくその可能性が高いと私達は見ている。コンセプト自体は良かった。トピックに関する知識に差があると言う考えに関しては、間違えていないと思う。この問題を解決するための試みが失敗しただけであり、コンセプト自体は失敗していない。

セマンティック検索への取り組みを強化する上で、Googleは、マークアップ等の人間の行動以外で、例えば、信頼されているオーサー等のエンティティを特定する方法を作り出さなければならない。先日行われたナレッジボールトプロジェクトの告知は、Googleがセマンティック化を進めていることを裏付けている気がする。従って、このプロジェクトを介して、Googleは特定する取り組みにアプローチする可能性があると言えるだろう。

もし、本当にこのデータをGoogleが利用するようになったら、どのような結果になるのだろうか?インパクトがあまりにも小さく、全く気がつかない可能性も十分にあり得る。恐らく、オーサーの写真が結果に表示されることは二度とないだろう。何らかの形式のオーサーランクが現れる可能性はあるが、十分にパーソナライズされた形式で表示されるか、あるいは、その他の多くの要素と組み合わされ、事実上、検知することが出来なくなるのではないだろうか。

つまり、しばらくは、オーサーシップに会うことは出来ない。オーサーシップは、気高く、輝かしい実験であり、我々は寂しい思いをするだろう。しかし、今後、オーサーシップにとってさらに素晴らしい展開になることを願っている。

エリック・エンゲマーク・トラファゲンによる共同作成。


この記事は、Search Engine Landに掲載された「It’s Over: The Rise & Fall Of Google Authorship For Search Results」を翻訳した内容です。

今後のSEOではオーソリティ構築が不可欠であり、その要素として重要視されていたオーサーシップだけに、その突然の終了には正直私も驚きましたが、ダメならダメで次に進むスピード感はGoogleならではですね。今後どのような形でオーソリティの参照データを構築していくのか、Googleの新たな挑戦が気になるところですね。 — SEO Japan [G+]

Google、ドローン支配を巡りAmazonに挑戦

歯みがき粉がなくなったので今すぐ欲しい? Googleがドローンで届けようとしている。マウンテンビューのIT巨人が今日発表した

GoogleはAmazonに続き、消費者向け配達用ドローン技術を構築していることを発表した。Amazonは、買い物客に小さなパッケージを配達するドローンを開発中であることを以前に発表している。

しかし、両社のビジョンは異なる。Googleの計画は、驚くほど早い配達、恐らく2分くらいを目指していると、The Atlanticの長文記事は伝えている。一方Amazonは、30分程度の時間に焦点を合わせている。

私は、Googleがどんな商品であれドローンを使って2分間配達を実現できるとは信じられない。商品の取り出し、荷作り、飛行時間、および配達に必要な時間は、サプライチェーンの効率化によって削減可能ではあるが限界がある。一方Amazonは、様々な商品を揃え配達することに関して多くの経験がありはるかに高い即応性を有している。

違いは他にもある。Googleのドローンは、商品を空中から下に降ろすが、Amazonの機体は着地する、少なくとも現在の方式では。

非軍用ドローンは、未だ初期段階にあるテクノロジーだが、今や企業の投資によって急速に成熟しつつある。

Googleは、一部の地域で従来型の自動車を使った同日配達サービスも運用している。この会社は、自動運転車も開発中であり、ベンチャーキャピタル子会社を通じてUberにも出資しいる。こうした行動から見て、同社のドローンへの取り組みは、物理的製品を移動する方式の一環であり、怪しげな科学実験ではなさそうだ。

The Atlanticは今日(米国時間8/28)、Googleのテクノロジーを未だに発達段階にあることを指摘した。

製造品質はピカ一だ。遠くからは、カスタム製エレクトロニクス満載の輝く完成品のように見えるが、近くで見ると、本体はハンドメイドで作り込まれていることがわかる。指紋の汚れもある。いくつかの部品は専門的に作られているようだが、社内の作業場で工作したと思われるものもある。これは進行中のプロジェクトだ。

というわけで、Googleドローン一般公開は、まだまだ先になりそうだ。

両社共に国の強い規制の壁に直面している ― 米国航空局(FAA)は、ドローンの商業利用を取り締る一方で、公式ドローン試験場をサポートしている。FAAが締切りを守っていないという不満も出ている。

Amazonは、規制の緩和を要望している。

次は何か? Google、Amazon共に、平均的消費者が欲しがるような安全で便利な機体を作るだけでなく、経済的に立ち上げ可能なものにする必要がある。これは並み大抵の挑戦ではない。

トップ画像提供:Google

[原文へ]

(翻訳:Nob Takahashi / facebook


Google、検索結果の著者名表示を廃止

今日(米国時間8/28)Googleは、検索結果に著者(author)名の表示するのをやめると発表した。

同社が検索結果ページに著者名を表示し始めたのは数年前のことだった。当初そのプロセスはかなり複雑だった(その頃Googleのエンジニアが私に手順を説明してくれたことを思い出す)。しかし、その後やり方は簡単になり、Google+プロフィールを自分のサイトにリンクして、投稿にちょっとした記述を加えるだけでよくなった。

しかし過去数ヵ月間Googleは、著作者表示機能に備っていた機能の一部を削除し始めた。例えば6月末頃、Google+のプロフィール写真とフォロワー数が検索結果に表示されなくなった

今日GoogleのJohn Muellerが書いているところによると、同社はこの著作者情報機能が、当初思っていたほど有効に働いていないばかりか、「検索結果を混乱させる恐れさえある」と判断したようだ。それなら機能削除の決定もうなずける。
われわれはライターとして、読者は記名に注意を払うものといつも考えているが、少なくとも検索結果においては、著者が誰であるか ― あるいはGoogle+で何人がフォローしているか ― は、殆どのユーザーにとって重要な情報ではなかったようだ。

この変更に伴い、Googleは検索結果からGoogle+関連の情報を減らしつつある。それが真の狙いであるかどうか、私にはわからない(多くの評論家はそうだと主張しているが)。こと検索結果ページに関して、Googleは何が役に立ち何がそうでないかしか見ていない。たしかに多くの人々にとって、ライターに何人フォロワーがいるかなど興味がないだろうし、その人数表示をやめた後でも、著者名機能は十分働いていなかったようだ。というわけで、Googleはこの会社らしくそれを捨て、次の何かに向かって進んでいく。

[原文へ]

(翻訳:Nob Takahashi / facebook


Googleが同社のクラウドで映画の視覚効果の制作もできるためZync Renderを買収

Googleが今日(米国時間8/26)、 Zync Renderを買収したことを発表した。 Zync Render(ZYNC)は、映画スタジオなどがクラウドで視覚効果(visual effects, ビジュアルエフェクト)を描く(レンダリングする)ためのサービスだ。同社の技術はStar Trek: Into DarknessLooperなどで利用されている。Googleがここを買収したねらいは、映画スタジオなどに同社のCloud Platformを、彼らの制作の場としてもっと使ってもらうためだ。

現在ZYNCはAmazonのEC2向けに最適化されているが、これからはGoogleのCloud Platformに統合される。ZYNCによると同社の技術は1ダース以上もの長編商業映画や、数百ものコマーシャルに利用され、その全描画時間は650万時間にもなる。

Googleが今日述べているように、映画の特殊効果を描画するためには、とても強力なインフラストラクチャを必要とする。多くのスタジオが自社独自のレンダーファームを持っていて、クラウドサービスは主に、制作効率化のための容量拡大として利用される。しかしそういう専用のコンピューティングインフラを持ってないところや、自社でやりたくないところは、エフェクトのレンダリングもクラウドからのコンピューティングサービスに依存したい。

Googleは、課金は分単位と言っているが、サービスのそれ以外の詳細はまだ明らかでない。ZYNCの側は、“Google Cloud Platformのような大規模で安定性の高いインフラを使えるなら、これまでよりもさらに良いサービスを顧客に提供できる。大きな仕事も十分にできるし、提供パッケージの種類も増やせる、料金もよりリーズナブルにできるだろう”、と言っている。

なお、Amazonはこれまで何度も、うちは視覚効果をレンダリングするためのプラットホームとして最適だ、と主張してきた。同社は、ZYNCも仕事をしたStar Trek: Into Darkness — における、Atomic Fictionの仕事ぶりに関するケーススタディーまで発表している。Microsoftもときどき、うちのクラウドは映画制作にも最適、と売り込みの言葉を述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


SEOの賢者、ペンギンアルゴリズムを語る。

SEO Bookのアーロン・ウォールが米国SEO業界の重鎮二人とペンギンアップデートに関して語りつくしたインタビュー記事を。普段は表には出てこない米国のSEO事情が垣間見えて大変興味深い内容となっています。 — SEO Japan

Googleが、大きなアルゴリズムのアップデートを行うと、大勢のウェブマスターは、慌ててデータをチェックし、ランキング、および、検索トラフィックに関する変化を確かめ、続いて、トレンドを見出し、変化を解明しようとする。

大きなアルゴリズムの変更が行われる際、通常、私はジョー・シンクウィッツとジム・ボイキンに連絡を取る。先日も、ペンギンアルゴリズムに関して、この二人に意見を求めた。

今回は、次のトピックについて話し合ってもらった:

  • ペンギンアルゴリズムとは?
  • どのようなインパクトをもたらすのか?
  • なぜ、しばらくアップデートされていないのか?
  • 問題が、ペンギンに関連しているのか、あるいは、ペンギンとは関係ないのかを判断するには、どうすればいいのか?
  • (ペンギン、および、手動のリンクペナルティからの)回復のプロセス
  • その他諸々

今回のインタビューのために、特別に発注した絵を以下に掲載しておく。
Pang Win.

このイメージをウェブサイトに埋め込みたい方は、以下のコードをコピー & 貼り付けしよう。

現在までに、5回のペンギンアップデートが行われている:

  • 2012年4月24日
  • 2012年5月25日
  • 2012年10月5日
  • 2013年5月22日(ペンギン 2.0)
  • 2013年10月4日

しばらくの間、アップデートは行われておらず、まだ復帰することが出来ていない大勢のウェブマスターにフラストレーションを与えている。それでは、早速、インタビューに移ろう…

根本的に、Google ペンギンとは何か?

ジム・ボイキン: ペンギンとは、ペナルティを引き起こすリンクフィルターだ。

ジョー・シンクウィッツ: 根本的には、品質の低いリンクプロフィールを持つサイトに罰を与えることを目的とした、アルゴリズムベースのバッチ処理のフィルターだと見て良い。

ペンギンでは、通常、どの程度ランキング、および、トラフィックの減少が生じるのか?

ジム: 30-98%。一部では、トラフィックに関しては、ほとんど変わらない「手動の部分的なマッチング」も見られたが…これは稀なケースだ。

ジョー: ほぼ全面的な減少だと言えるだろう。もう少し詳しく説明しよう。ペンギン 1.0は、後のペンギンとは一線を画す。初回のペンギンは、ほぼ固定のフラグ形式を採用していたが、後のペンギンは、初回ほどシビアではない。

初回のアップデートが行われた1ヶ月後、再びアップデートが行われ、その後、約6ヶ月おきに行われるようになった。前回のアップデートから既に10ヶ月が経過している。なぜ、ペンギンのアップデートは、頻度が少ないのか?また、なぜ、前回のアップデートから、期間が長くあいているのか?

ジム: 良い質問だ。誰もが6ヶ月おきにアップデートが行われると考えていたが、既に6ヶ月以上経過している…マット・カッツが休暇を取っているからか…あるいは、逆に、次回のアップデートの予定時期が、まだまだ先であるため、マットは休暇に出掛けたのか…もしくは、Googleは、ペナルティを受けたウェブサイトに、半年間以上、苦痛を味あわせたかったのかもしれない。

ジョー: 1.0は、サイトを301することを厭わない場合、一時的に逃れることが可能であった。1.1以降は、リダイレクトしてもダメージが出るようになった。最新のアップデートまでに、随分と長く時間がかかっているのは、出来るだけ大きな苦痛を与えたいからだと私は思う — Googleは、ウェブマスターを苦痛から、まだ解放するつもりはなく、どんなに低姿勢で懇願しても、許してもらえない。その上、クリーンなリンクプロフィールのほぼ全てを否認してしまう輩がいる。そもそも、「汚い」リンクと「綺麗」なリンクを区別するのは、容易ではない。

ジム: 大半のウェブマスターは、一部のリンクを否認し、続いて、さらに否認するリンクを増やす…1年待って、全てのリンクを否認している気がする :)

ジョー: 同感だ。

ジム: その後、Googleは、…からかい半分で…ペナルティから解放する。

ジョー: 98%以上のリンクを否認したサイトを見たことがある。Wikipedia、Yahoo!ディレクトリをはじめとする、素晴らしいソースのリンクもその中に含まれていた — 勿体ない。

ジム: 同じようなサイトを私も知っている。ほとんどの人は何も分かっていない…トラフィックが落ち、ペンギンに捕まったに違いないと考え、リンクの否認を始める人達が多過ぎる。

ジョー: その通りだ。パンダに捕まったものの、すぐにリンクを否認したがる人達は多い。まずは、落ち着くことが必要だ。

ジム: ペンギンペナルティからの解放を約束するサービスが存在する。と言っても、リンクの全てを否認するだけだ。確かに、手動のペナルティからは解放されるかもしれないが、これでは何も残らない。

ジョー: ついでなので、ペナルティから逃れることを約束するのは、まやかしに過ぎないと言っておこう。

ジム: あるいは、サイトに寄せられている全てのリンクを否認しているだけだ。

たった今言及した「サイトに寄せられている全てのリンク」の件は重要だと思う。それでは、どのリンクのソースを利用するべきなのか?また、Google ウェブマスターツールのデータは、どの程度網羅しているのか?ウェブマスターツールのデータは、サイトを復帰させる上で十分なのか?

ジョー: 十分とは言えない。Ahrefs、Majestic SEO、ウェブマスターツールで、手動のアクションを見つけ、リンクを一掃したにも関わらず、Googleに、ウェブマスターツールのデータリストには掲載されていなかったリンクを問題視されたケースに遭遇したことがある。事実、1年間にわたって、リンクの否認と削除ばかり行ってきた優良ドメインを買ったクライアントを私は抱えている。Googleは、休む余裕も与える気も、仕切り直しさせる気もない。

ジム: まず…Googleからリンクを得ているなら、サイトのwwwバージョンと非wwwバージョンの被リンクを考慮する必要がある。一つだけではなく、両方の被リンクを取り出さなければならない。つまり、ウェブマスターツールを使って、wwwと非www版を検証する必要がある。

弊社では、まずは、この作業から始めることが多い。原因と思われる大きなパターンを見つけたら、Open Site Explorer、Majestic SEO、そして、Ahrefsを開き、同じ被リンクを探し出し、さらに、パターンに一致するリンクを引っ張り出す。ただし、Googleで被リンク分析を最初に実施するようにしている。

先ほど、パンダに捕まったものの、勘違いして、リンクを否認する人達がいると言っていたが、ペンギン、パンダ、手動のリンクペナルティを見分けるにはどうすればいいのか?

ジョー: Googleは、アップデートを重ねて繰り出し、見分けにくくしている。この点を鑑みると、良い質問だと思う。ペンギンは、リンクを最も重要視している。簡単に見つけられるものの、修復するのは最も難しい。初めてウェブサイトを訪れる際は、アンカーの%、リンクのソース等を確認する。ペンギンと手動のリンクペナルティの大きな違いは(ウェブマスターツールを確認していない場合)、タイミングだ — 時限爆弾とスナイパーの違いと言うことも出来る…大勢のウェブマスターが、不満をもらしているなら、アルゴリズムだ。数名が文句を言っているなら、手動のアクションが行われたのだろう。手動のアクションの場合、ウェブマスターツールに通知が届いている。パンダに関しては、まずは、ページ上で、悪質なキーワードスタッフィング、薄いコンテンツ/コンテンツの重複を発生させる奇妙なインフラ構造等をチェックして、エンゲージメントの数値、さらに…外部でサポートされているページ:インデックスされているページの合計の比率を検証するようにしている。

ジム: 手動に関しては、何度も投稿を繰り返し、判断してもらうことが出来る。アルゴリズムのアップデートの場合、次回の更新を待ち、十分に対応を講じて、復帰させてもらうことを願うしかなく、まさに踏んだり蹴ったりの状態だ。

手動ペナルティに関して、Googleとやり取りをすること自体は、特に問題視していない。少なくとも、答えを得られるからだ。

トラフィックが減ったら、パンダとペンギンが行われた日付と照らし合わせれば、見極めることが出来る。アップデートの日付とは関係なく、トラフィックが減っていたら、ペナルティではなく、ただ単に、その日は、たまたまトラフィックが減っただけなのかもしれない。

ジョー: このインタビューを受けている最中に、スタッフから連絡をもらい、domain.com/?var=var&var=varのようなURLで、手動アクションに拒否された、と言う報告を受けた。実際には、既に、ドメイン全体が否認されていた。検索のことをよく知らない第三者が、適当にレビューしただけでは、何とも言えない。

ジム: その通り。昨日、SEOchatに投稿した記事で同じ指摘をした。レビューの担当者は、絶対に真剣に検証を行っていない。

復帰を100%保証するソリューションは、まやかしに過ぎないと指摘していたが、復帰する確率はどの程度あるのか?また、復帰に力を入れる意味があるのは、どのようなケースか?反対に、新しいサイトを始めた方が無難なのは、どんな時か?また、双方を同時進行すると良いのは、どんな時か?

ジム: 私はサイトを守る努力をしている。「このサイトは、もう手遅れだから、新しくサイトを始めた方が良い」と言ったことは一度もない。リンクは非常に重要であり、サイトに向かうリンクをたった数本でも救うことが出来るなら、私は手を尽くす。二つのサイトに取り組むアプローチは好きではない。コンテンツが重複する問題を生みだし、また、2つのサイトに対応しなければならないためだ。

ジョー : 何に違反したかに左右される。パンダ、手動アクション、そして、ペンギンの2回目以降のアップデート(理論的には、最新版の更新も含む)から、サイトを復帰させることに私は成功してきた。ただし、ペンギン 1.0に捕まったサイトの救出を要請されても、料金は受け取れない…無料でアドバイスを送り、データベースを追跡するリストには加える。ただし、確実にペンギン1.0であり、否認ツールを利用した結果、回復したものの、技術的な理由ではなく、意図的に回復するケースは、ごく稀である。

短い期間において、うまくやれば、リダイレクトとカノニカルは、今でも一定の効果をもたらす…ただし、戦略を変更するほど、改めて力を入れるような取り組みではない。

否認プロセスに関して、先ほど、一部のリンクを否認し、時間の経過と共に、さらに多くのリンクが否認している、と述べていたが、Googleは、主に苦痛をもたらすために、プロセスを長引かせているのだろうか?あるいは、集めたデータを何らかの方法で活用しているのだろうか?

ジョー: 間違いなく、わざと長引かせている。数学的な観点から見て、下降を引き起こす閾値はX%で、回復を引き起こす閾値はX-10%だと考えられる。さらに、当初、Googleは、否認のデータを大いに気に入っていたものの、神経質になり、何でも否認する行為が続出してしまった。このシグナルをもてあそぶため、意図的に多くの質の高いサイトを否認する巨大なネットワークを持つ集団を私は知っている :)

ジム: 苦痛を与えるためだ :) … データを活用しているかどうかは不明だが、その可能性はある。Googleなら、無料でリンクを手に入れましょう-directory.com等のサイトからのリンクを大勢のウェブサイトが否認していることを容易に特定し、「誰もこのリンクを信頼していないようなので、このサイトを追放し、リンクのカウントをやめる」判断を下すことが出来る。

自分達が所有しているツールで、同じ行為をすることが可能だ…ドメインが否認リストに登場する回数を数え、否認した回数を数えよう…例えば、spam.comが20回否認リストに登場し、20回とも否認している…あるいは、good.comが20回にわたって登場し、1度も否認していないなら、簡単に判断することが出来る。Googleも同じようなことをしているはずだ。

Googleが、引き延ばしていると仮定すると、手動ペナルティにおいて、追加の要請で、作業をスケールアップさせていく中で、苦痛を味わい、苦労をしていることをGoogleに分かってもらうため、徹底した取り組みを行う意味はあるのか?初回の取り組み、次回の取り組みにおいて、どの程度のリソースをつぎ込めばいいのか?通常、いつ頃回復するのか(再審査リクエストの回数)?

ジョー: 「否認」および「申告」を行う際は、さらに深い苦痛の留意事項が存在する可能性を自覚した上で、複数のレベルで実施するようにしている。1回目の挑戦で復帰したケースもないわけではないが、通常、3回以上、再審査リクエストを投稿する。

ジム: 2、3回、再審査リクエストを送信する必要がある…私は最初から「大胆」な取り組みを行い、さらに「スケールアップ」させていく。

と言っても、これはサイト全体のペナルティの話だが…

サイト全体のペナルティが、一部に縮小されることもある。一部に縮小されたら、遥かに容易に、影響を受けていないページに向かうリンクを残しながら、問題を特定し、対応することが出来るようになる。

サイト全体のペナルティは、サイトを壊滅させる…一部のペナルティでは、ランク付けの対象になるものもあれば、対象にならないものもあり…サイトの一部に限定されていれば、問題を解決する自信が湧いてくる。

先ほど、良質なリンクを否認してしまう、あるいは、否認する必要がないにも関わらず、リンクを否認してしまうミス、そして、新しいサイトに対処する際に、過去の否認のデータを活用することが出来ると言っていたが、自分で回復作業を行う方が良いケース、または、プロを雇って代行してもらう方が無難なケースを挙げてもらいたい。被リンクプロフィールの規模に応じて、大体のコストを算定する際に役立つ目安はあるのか?

ジョー: 知識に左右される。ペナルティの原因を自分で作ってしまった場合、すくにプロを雇うよりも、まずは、その原因を解消する試みを行うことも出来る。苦痛に「全力を注いでいる」姿を見せることで、1度目の否認が却下された際に、必死さが伝わる可能性がある。また、機会費用(選択肢Aを採用することで失われた選択肢Bを採用した際に得られた利益)にも左右される。予想される修復の可能性を考慮し、修復につぎ込む自分の時間の価値を考えると良いだろう。

ジム: 私の会社では、分析に5000ドル、そして、リンクを削除するプロセスに新たに5000ドルを課金する。高過ぎると思うかもしれないが、良質なリンクを削除してしまうと、そして、劣悪なリンクを残してしまうと、壊滅的なダメージを被る可能性がある。まさしく科学的な取り組みであり、誤ってしまうと、5000ドル以上の被害が出る…私自身がこのサービスを販売しているように、プロに相談することを薦める…そもそも、リンクの専門家ではないにも関わらず、なぜ自分でやろうとするのか、私には理解できない。

ちなみに、このサービスでは、追加費用なしで、サイトを回復させることが出来るまで責任を持って対処する。

ジョー: 良い心掛けだ。

ジム: どうも。

先ほど、既に否認されているリンクを理由に、再審査を却下されるケースに触れていたが、Googleのレビューワーが多くのミスを犯すことを考えると、否認ツールを使うよりも、積極的にリンクを削除した方が良いのか?リンクを削除する最良の戦略を教えてもらいたい。

ジョー: DDoSかな。

ジム: そういう手があったか(笑)。

ジョー: リンク否認サービスを利用する際は、素直に、そして、正直になるべきだ(1本1本対処していくよりも、私ならツールを使って、まとめて実施する)。

ジム: 実際に、リンクを削除する人は1%程度である。Googleに対して、リンクを削除することに疲れたとアピールするのが、本当の狙いだ。

ジョー: ペナルティを科されたことをリンクの所有者に伝えよう。自分のウェブサイトが、被害を受けているため、整理しているだけであり、無理なお願いをしていることを弁えて、礼儀正しく要請する必要がある。

私のサイトは、ドメインの規模が大きいため、様々な戦略の対象にされたこともある。かつては、料金を払って私のサイトにリンクを張った人物から、要請を受けることなく、いきなり訴えられたこともある。

ジム: 3回ほど削除を申請し、リンクに関するメッセージを送ったなら、再審査リクエストを投稿する際に、Eメールを送信した相手、送信した時期、そして、リンクを削除したサイト、nofollowしたサイトをスプレッドシートにまとめて紹介しよう…と言っても、これは、あくまでもGoogleに「アピール」することが狙いである。

ジョー: その通り。強制ではない。ウェブマスター達は、既にリンクを削除する作業に追われ、疲労している。

SEOと言うよりも、事業に関する質問だが、回復にかかる費用に対する予算の編成と同じぐらい、サイトがペナルティを受けている間の利益の減少に対応することも重要である。そこで、手動のペナルティから回復するまで、通常、何ヶ月を要するのか問いたい。また、どのタイミングで人員整理に踏み切ればいいのか?裏でSEOに対する取り組みを行いつつ、その他のマーケティングのチャンネルにも積極的に力を入れるべきか?

ジム: 手動のペナルティから回復するまでに、通常、2-4ヶ月間を要する。回復にも色々種類がある。手動のペナルティが解除され、最大で5%回復したものの、以前と比べると、90%低い場合もある。手動ペナルティの解除は、リンクプロフィールに優れたリンクが残されているなら、喜ぶことが出来るが、全てのリンクを否認しているなら、何も残らない。「回復」したらどうなるのか?と問われることがあるが、それは、残っているリンクに左右される…それでも、ペナルティを受ける前の状態に戻ることはない。

ジョー: 変動するコスト次第だ。コストが固定されているなら(条件が同じだとすると)、人員を削減するまでに、ある程度待つことが出来る。一方、2500ドル/月をリンクに用意しているなら、生き残るために、出来るだけ早く対応した方が良い。

その他のチャンネルへの取り組みに関しては、1つのチャンネルを極め、その他の複数のチャンネルをある程度マスターするアプローチは、非常に重要だと言っておこう。他のチャンネルのエキスパートを雇って提携を結ぶことが出来るなら、それが一番だ。ある大手の会社は、SEOでは、平凡であったが、TVとラジオでも実績があるため、多くの問題を抱えても、良い成果を残すことに成功していた。また、Eメールアドレスの収集を忘れずに行ってもらいたい。Eメールは、適切に利用する限り、今でも価値は高い。

長い間、ペンギンがアップデートされていないのは、ウェブマスターが、武器としてリンクを利用することに恐怖を感じるようになり、また、ライバルのサイトを葬ろうと試みることで発生する誤検出をGoogleが出したくないからだと私は考えている。苦痛を与えるためではなく、この動機を私が挙げるのは、Googleは、いつでも回復を遅らせることが可能であり、その一方で、アップデートで新たなサイトにペナルティを与えることが出来るためだ。先程、2度目のペンギンのアップデート以降、ペナルティがリダイレクトにも送られるようになったと話していたが、ウェブマスターは、ペナルティを受けたサイトを競合者のサイトに向けているのだろうか?

ジョー: その通りだ。また、競合者の自然なリンクにも向けている。私は、長年、ネガティブ SEOを非難してきた…2012年1月、初めての手動アクションが発生した時からだ。あの手動ペナルティが転機となった。現在、リンク構築に投資して、自然にサイトのランキングを上げるよりも、ライバルのサイトをランクを下げる方が、経済的である(この点に関しては、かなり自信がある)。

ネガティブ SEO向けのリンク戦略に関する話題は尽きることがない。この手法は、驚くほど浸透している。事実、大企業から、週に数回、ネガティブ SEOの実行を要請される。混雑した状態を正常に戻すのが、ブランドだと、誰かが言っていたような気がするが…

ジム: 間もなく、月に1度のペースで被リンクを監視するようになる。事実、ある大企業は、毎週、最新の否認リンクリストをGoogleに提出している。

その点に関連することだが、先制否認について問いたい。どのようなケースで、事前に自らリンクを否認するべきなのだろうか?このタイプの取り組みに特に注目する必要があるのは、どんなサイトだろうか?

ジョー: Fortune 500に挙げられない会社は、不利な立場にある。少なくとも、リンクプロフィールには注意してもらいたい — 私なら、何か大きな問題が浮上しない限り、先制してリンクを否認するアプローチは取らない。

ジム: 自分のサイトに対して、先制否認を行ったことがある。劣悪な被リンクを一掃するために、先制否認を行うべきだと私は思う。

ジョー: 私は認可サービスを始めたくて仕方がない…数千ドルで、否認を一掃するサービスだ :))

ジム: コンビを組んで、そのビジネスを始めよう :)

ジョー: 後で打ち合わせしよう。

ジム: ペンギンペナルティから地球を救おう。Googleのために、リンクを綺麗な状態に戻すのだ。

ジョー: Googleを救うのか?それとも、Googleから救うのか?:) また、時間があったら、刑罰の持続期間に関する法律の書籍を見習い、Googleのペナルティの種類に関する本を書きたいと思う。知名度の低いサイトを使って、RapGeniusと同じ行動を取っていたら、修正を行ったとしても(因みに、RapGeniusは修正を行っていない)、今でもペナルティの解除を待っているはずだ。なぜなら、基本的に、Googleは、直接的にも間接的にも私のサイトに資金を投じていないからだ。

SEO業者は、Google VenturesやGoogle Capital向けのプレゼンの資料を作るサービスを始めるようになるのだろうか?名称は、BeatThatPenalty(BeatThatQuote)?あるいは、BanMeNot(BugMeNot)でも良いかもしれない ;)

ジョー: あるいは、元Googleの従業員から資金を絞り出す手もある…ブランドを狙うベンチャーキャピタルのおかげで、Googleの元従業員が立てる計画には、続々と資金が投じられている。Googleでは、ボタンやフォントの色を変えることが主な仕事だったのかもしれないが、大ピンチを覆す力を持つ人物と今でもつながっている可能性があるためだ。

Googleの投資を受ける以外で、競争の激しい分野に参入する際に、SEOのリスクを減らす良質な方法を知っていたら、教えてほしい。

ジム: 今後は、特定のフレーズを狙って、上位へのランクインを試みる方法は薦められない。時間がかかり過ぎる。

ジョー: Googleへの依存を軽減すると、力を得られる。仕事の面接だと思ってもらいたい。その仕事をどうしても必要としているのだろうか?必要とする度合いが低ければ低いほど、交渉しやすくなる。Google以外のチャンネルからの収益が増えれば、重要なブランドのシグナルを得ている可能性が高い。

ジム: 素晴らしい作品を提供しなければならない。その結果、ブランドは構築されていく…この取り組みを優先させてもらいたい…手っ取り早くランクを上げる手法を採用し、Googleからペナルティを受けるリスクを背負う覚悟があるなら、話は別だが。

ジョー: 同感だ。プレミアムドメインの獲得 + SEOオンリーの取り組みを行う回数はめっきり減った。有効だった時期もあったが、現在は、状況が変わっている。

一部の人達(非リンク構築業者)は、SEO業者がリンクのことをあまりにも深く考え過ぎていると茶化している。コアのコンテンツ、UX、そして、ソーシャルメディアは、なぜ、リンク構築よりも、重要だと考えられているのだろうか?

ジム: リンクは、今でもGoogleのアルゴリズムで最も重要度が高い要素である — 無視することは不可能だ。ウェブで言及してもらえるような作品を用意し、出来れば、リンクを張ってもらいたいところだ。今でもリンクは、一番大事なアイテムである…リンクに次いで、優れたコンテンツ、UX等にも力を入れる必要がある。

ジョー: CopyPress(私が経営する会社)は、コンテンツを販売している(お願いだから、誰かコンテンツを買って下さい。私には幼い子供が3人もいるんです)。しかし、最高のコンテンツだけあれば、全てが解決するわけではないことを指摘しておく。ユーザーが一人もいない状態で、UXに力を入れることが出来るのだろうか?リンク構築、トラフィックの購入、注目の獲得は、SEOにおいてだけではなく、マーケティング全般において、重要である。Googleは、リンクを票として利用している。多様性は、変化し、進化していくものの、大半は今でも変わっていない。来年、または、再来年にリンクが消え去るとは、私には思えない。

例えば、私は大学生の頃に詩に関する本を2冊執筆した。内容には自信があったが、出版したことも、注目を集めようと試みたこともない。それでは、実際に、この本は、どれぐらい読む価値があるのだろうか?宣伝、そして、普及させなければ、推測に頼るしかない。

最後に、時間を割いて、今回のインタビューを快諾してくれたお二人に感謝したい。


SEOの賢者について:

ジム・ボイキンは、Internet Marketing Ninjasの創設者であり、CEOでもある。また、Webmasterworld.com、SEOChat.com、Cre8asiteForums.comを含む複数のコミュニティサイトを運営している。ジム・ボイキンは、自然な被リンクを集めるデジタルコンテンツの作成、および、ペナルティから復帰するため、リンクを分析し、不自然なリンクを否認する取り組みを得意としている。

ジョー・シンクウィッツ、通称、Cygnusは、CopyPress.comで最高収益責任者を務めている。ビーチでの散歩、必要なコンテンツの供給、そして、ランキングを上げるアドバイスの提供に生き甲斐を感じている。


この記事は、SEO Bookに掲載された「Understanding The Google Penguin Algorithm」を翻訳した内容です。

日本に負けじと、いやそれ以上に米国のSEO業界も大変なんだなぁ、と思わずにいられない内容でしたが、日米問わず共通の悩みは多そうですね。インタビューの端々に出てくる普段は余り耳にしない米国のリアルな現場界隈の話が聞けてとても新鮮な記事でもありました。 — SEO Japan [G+]

Google、自動で360°全天球パノラマを撮って共有できるカメラアプリのiOS版をリリース

Googleはさきほど、Photo Sphere CameraというiOS版のカメラアプリを公開した。このアプリを使うと、簡単に360°パノラマ写真を撮影し、Googleマップやソーシャルメディアにアップロードして共有することができる。 このアプリはGoogleが4月にリリースしたAndroid版のGoogleカメラ(Play Store)の機能の一部を独立させたものだ。

今回iOS版が出たアプリで360°パノラマを撮るのは非常に簡単だ。カメラを顔の前で構えると画面に白いリングとオレンジ色の丸が表示される。ユーザーがカメラを動かして白いリングをオレンジの丸に重ねると自動的にシャッターが切られる。表示されるオレンジの丸をすべて撮影すれば全天パノラマの完成だ。

しばらく前からスマートフォンで360°パノラを撮影するアプリが出回っている。iOS自身のカメラアプリにも“Pano”モードがあり、Sphere、360 Panorama、自動でカメラを回転させるCycloramicなど、似たようなサードパーティーのアプリがある。

しかしGoogleのPhoto Sphereは単に水平にパノラマ写真を撮れるだけではない。上下に動かし撮影することができる。つまりGoogleストリートビューのような全天球写真が撮れるのだ。これは臨場感が圧倒的で、ビーチでも山でも宮殿の中でも、本当にその場にいるように感じることができる。

〔日本版〕訳者の環境ではPhoto SphereでApp Storeを検索してもなぜかヒットしない。iOSデバイスで記事中のリンクを開くのが確実。アプリはすでに日本語化ずみ。

なお、Googleが4月に公開したカメラアプリ、Googleカメラはこの記事で紹介されている全天球パノラマのPhoto Sphereの他に、通常のパノラマ、レンズぼかし、普通のカメラ、動画撮影などの機能があり便利だ。パノラマ合成は自動的に処理される。撮影の対象や方法にもよるが、建物、群衆などの場合、画像の継ぎ目ほとんど目立たない。下はGoogleカメラによるパノラマ撮影例(クリックで拡大)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+