Facebookが読みたい最新、既読投稿をタブで開ける新フォーマットをテスト中

Facebookは、ニュースフィードを現在と異なるアルゴリズムで簡単に表示できるタブに基づいた新しいフォーマットをテスト中だ。

Facebookはモバイル・アプリでこのタブ利用のプロトタイプをテストしている。これには現在使われている関連性の高さによってランキングする標準のニュースフィードの他に、新しい情報を優先する「最新情報(Most Recent)」、「既読の投稿(Already Seen)」といったタブが簡単に選べるようになる。これらのフィード自体は現在でも提供されているが、「最新情報」はサイドバーのメニュー(「ニュースフィード」の右側の「…」を開く)に埋め込まれており、「既読の投稿」はデスクトップからURL(facebook.com/seen)でアクセスするしかなかった。

タブ方式はまだ一般公開されていないが、 このバージョンが正式に公開されればユーザーのニーズに応じて多様な情報にダイナミックかつ容易にアクセスできるようになる。これはFacebookに活気を取り戻すのに役立つだろう。

「最新情報」はその名が示すとおりリアルタイム性が高く、今何が起きているかを知るのにつごうがよい。また「既読の投稿」タブは興味を感じた投稿だがニュースフィードの中に見失ってしまったときに便利だ。投稿を読んでしばらくしてからリンク先を読みたいとかコメントを付けたいなどと思うのはよくあることだ。インターフェイスがタブ化されれば、この操作がワンクリックでできるようになる。実装されれば、ニュースフィードとして最大のデザイン変更になるだろう。2013年にFacebookは写真、音楽、「友達のみ」など複数のアルゴリズムでフィードを提供するオプションを発表したものの、結局実現しなかった。

タブ版ニュースフィードのプロトタイプは Android版アプリのコード中で発見された。TechCrunchに情報を提供してくれたのは、最近も重要なリバース・エンジニアリングを成功させている専門家、Jane Manchun Wong(ジェーン・マンチュン・ウォン)氏だ。ウォン氏はこのコードから上のスクリーンショットのようにタブ版Facebookの画面を生成することに成功した。

左側スクリーンショットでは投稿上部に「関連(Rlevance)」、「最新(Recent)」、「既読(Seen)」というタブが表示される。右のスクリーンショットはニュースフィードの設定画面で、さらに詳細な設定が可能だ。

マーク・ザッカーバーグは「複数フィード」を発表したが、後に公開を中止

Facebookの広報担当者は、TechCrunchの取材に対して「このプロトタイプを外部で実験する可能性はあるが、今のところ部内のみ公開」だと認めた。ユーザーが「最新情報」や「既読の投稿」にアクセスする手段としてタブ化するのが最適な方法なのかどうか判断するにはまだ少し時間がかかるもようだ。

目的の情報へのアクセスが容易になれば、ユーザーはそれだけ長くFacebookに滞在してくれるはずだ。標準のニュースフィードが退屈な投稿ばかり選んでくる、友達がこの瞬間に何をしているのか知りたい、以前見ておもしろかった写真ををもう一度みたい、などということはよくある。こういうときに投稿のトップにタブが表示されていればワンタッチでアルゴリズムを切り替えることができる。一方、ユーザーの滞在時間が増えればFacebookの広告価値がアップし売上増に貢献する。利益の増加ペースが落ちていると最近ウォールストリートに文句を言われているFacebookとしてはこれが重要な点だ。

部外者の多くにとってFacebookの投稿選択アルゴリズムは巨大なブラックボックスだ。セレブだからというだけで「いいね!」が多数ついた投稿やセンセーショナルというだけで(多分誤った内容の)ビデオばかりが選択されるアルゴリズムでは、Facebookのユーザーに不満を感じさせることになる。すでに成熟したソーシャルメディアなのだから、Facebookはコンテンツに対するユーザーのコントロールをもっと拡大すべきだろう。

[原文へ]

滑川海彦@Facebook

YouTubeがUIをリニューアル、ユーザビリティー重視、クイックリスト復活

YouTubeがトップページのリニューアルを発表した。同社は米国時間10月7日、メジャーアップデートを行い、使いやすさを優先したシンプルなデザインを採用した。

これまでYouTubeのトップページは情報過多でゴチャゴチャした印象だったが、これが整理され視認性が向上した。またAdd to Queue(キューに追加)というクイックリスト作成機能が復活した。ビデオをこのキューに追加していけば、YouTube側のお勧めが次々に再生されてしまうことはない。

新デザインはデスクトップPCとタブレット端末をターゲットとしており、本日から公開が始まっている。YouTubeによれば、ウェブ、アプリともモバイル版には変化はないという。

YouTubeの親会社であるGoogleはすでに検索ページをコンパクトにし、テキスト、画像とも一見してコンテンツが理解しやすいレイアウトに変えてきた。例えば、7月にはGoogle検索でニュースのタブのデザインがアップデートされ、密集した大量の見出しから見やすいカードになった。 こうしたアップデートは可読性を大いに改善したが、一方ではスクロールせずに一見して読める情報量の減少も招いている。今回のYouTubeのデザイン変更にも同じきことが言えそうだ。

新デザインでは各行に表示されるビデオの数が減少している。そのかわりタイトルも詳しくなり、サムネールも大型化されてどんなビデオなのかわかりやすくなっている。

プレビューの精細度もアップされ、ビデオ下部のチャンネルアイコンも目立つデザインになった。ユーザーはお気に入りのクリエーターの作品であることがすぐに見てとれる。

こうしたアップデートにともなってページのレイアウトにも変更が加えられている。YouTubeによれば、 チャンネルやトピック別の表示部分をいくつか削除したという。新デザインでもビデオが所属するチャンネル、トピックは表示されるが、それぞれにグループ化はされない。新デザインでは「新着ビデオ」「トップビデオ」という分類となる。

一方、YouTubeのデスクトップ版の新しいオプション、Add to queueはビデオのサムネールに付加されたアイコンで、クリックすると従来どおり「後で見る」に追加できると同時に、新オプションであるクイックリストにも追加できる。

Add to Queueアイコンはビデオ視聴中はページの隅に最小化されているが、随時クリック可能だ。

「キューに追加」するというのは簡単にいえばクイックリスト作成機能だ。その場で簡単にプレイリストを作れるのはとても便利だ。ただしここで作られるリストは一時的ななもので、本来のプレイリストを代替するわけではない。つまりクイックリストをすべて再生してしまえばリストは消滅する。YouTubeではデスクトップのクイックリストはブラウザを閉じたときクリアされるという。つまりテレビやタブレットなど別のデバイスでビデオを見たい場合は、従来どおり「後で見る」リストに追加する必要がある。

さらに今回、モバイルのみの機能のいくつかがデスクトップに追加された。今年に入って、YouTubeはいくつかのアップデートを行ったが、これはこれはアルゴリズムによりトップページのサムネールや「次のおすすめ」としてビデオが選択される際に、ユーザーのコントロールを大きくしようとするものだった。モバイルでは「次に再生」をキャンセルすることが可能なった。

この「チャンネルのおすすめ」のキャンセルがデスクトップにも移植されたわけだ。.これはトップページのビデオのタイトル右横の「…」メニューに含まれる。5番目のオプションをクリックすると、そのチャンネルに属するビデオはトップページに表示されなくなる。ただし、これは完全なブロックボタンではない。検索結果や人気急上昇には表示されるし、そのチャンネルを訪問しても表示される。

これも今年のアップデートだが、YouTubeのAndroidアプリではユーザーが好みのトピック選ぶことでビデオのフィードをカスタマイズできる機能が導入された。この機能はデスクトップ、タブレットの各アプリにも近く導入されるというが、今回のアップデートには含まれていない。

新デザインによって見通しがよくなったことは確かだが、クリエーター側から見ると副作用もなくはない。サムネール、キャプションが大きくなり視認性がアップしているが、トップページの情報密度は減った。つまりスクロールせずに表示されるビデオの数、つまりはクリエーターの数も減少したわけだ。

ヘイトスピーチやフェイクニュースの拡散をアルゴリズムが手助けしているという批判が強まっているが、一方ではどんな内容であれ、多くの人々見ていればアルゴリズムはそれを取り上げる。

ヘイトスピーチや人々の過激化にYouTubeがどの程度責任があるかというのが激しい議論の的となっている。ニューヨークタイムズの主張とは逆にWiredは人々の過激化にアルゴリズムはほとんど関係がない、責任があるのはむしろオンライン上で積極に活動するグループだと報じている。これは判断が難しい問題だ。孤独な若者がたまたま目にしたYouTubeビデオをきっかけにさらに暗い迷路に迷い込み過激化して最後にはそうしたコミュニティーに加わるというコースもなくはないだろう。

YouTubeではこうした批判に対し、(少なくともある程度)言論の自由を擁護しつつ、人々に「見たくないものを見ない」ですむような裁量権を増やそうとしているようだ。今回のアップデートもこの流れに沿ったものだろう。

「見たくないものは表示しない」(「おすすめ」キャンセル)機能の導入はYouTubeに限ったことではなく、最近はビデオサービスの標準となりつつある。Facebookでも他人のスレッドに反対意見を書き込む人間は「いやなら読むな」と言われがちだ。YouTubeも「良識あるコメント」を心がけるようユーザーに注意している。インターネットではますますユーザー個々の責任が重要となっている。

YouTubeによればこのアップデートはデスクトップ(Android、iOSのタブレット・アプリを含む)ですでに公開を始めたところだというという。すぐにユーザー全員が利用できるようになるはずだ。

原文へ

(翻訳:滑川海彦@Facebook

今年のDisrupt SFではコンピューターが犯す偏った決定「アルゴリズミック・バイアス」について学ぼう

あなたがNetflixで“Unbreakable Kimmy Schmidt”を見終わったあと、Netflixが“Everything Sucks”を見るよう薦(すす)めたら、それはアルゴリズムが、この人が次に見るべきものはこれだ、と決めているのだ。Googleが、ある検索結果を別のよりも先に見せたら、アルゴリズムが、そっちのページの方が重要、と決めているのだ。そして、警察が顔認識を使って違う人を容疑者と認めたら、それはアルゴリズムが間違いを犯した例のひとつだ

アルゴリズムはルールの集合で、コンピューターはそれらに従って問題を解いたり、取るべきアクションを決めたりする。ルールに従ってコンピューターは、私が受け取る情報のタイプや、私について人びとが知る情報、私に見せるべき求職情報、クレジットカードの承認、さらに未来には、運転手のいない車が歩行者の私に気づくか気づかないかを決める。アルゴリズムは日増しに、私たちの生活の重要な部分になりつつある。

しかしアルゴリズムには、その基本的な部分や、さまざまな利用の部分に、本質的な問題がある。それは、それらの機械による決定に含まれる人間的な偏りだ。

では、たとえば保釈か拘束かという人生の大事件を決めるアルゴリズムが公平であるためには、何をどうすべきか? そもそも、公平とはどういう意味なのか?

今度のTechCrunch Disrupt San Franciscoでは、KairosのファウンダーでCEOのBrian Brackeenと、Human Rights Data Analysis Group(人権データ分析グループ)のKristian LumとPatrick Ballをお招きして、私の司会でこの問題を掘り下げる。

Disrupt SFはサンフランシスコのMoscone Center Westで9月5日から7日まで行われる。すべての議題はここにある。チケットの購入はここで

〔ここで紹介されているアルゴリズミック・バイアスに関するパネルは、現地英文記事が載り次第、翻訳します。参考: Wikipedia記事(英文)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

InstagramのアルゴリズムをInstagramのチームが詳しく説明

Instagramが2016年に逆時系列フィードのアルゴリズムを捨てるまでは、すべてのポストの70%、友だちのポストの50%が失われていた。順序の混乱に対する批判はあったが、今のInstagramは、関連性ソート(relevancy sorting)によって8億あまりのユーザーが友だちのポストの90%を見ており、このアプリ上で過ごす時間が増えている、と同社は主張する。

しかしInstagramはこれまで、そのアルゴリズムがどのようにしてユーザーに見せるものを選んでいるのか、説明したことはなかった。そして、オーナーがFacebookであるこの企業は今日(米国時間6/1)、サンフランシスコに建築中の新しいオフィスに記者たちを集め、Instagramのフィードのランク付けアルゴリズムの蓋を開けて見せた。

InstagramのプロダクトリードJulian Gutmanがアルゴリズムを説明している

Instagramのフィードのランク付けの基準

Instagramは、ユーザーの過去のビヘイビアに基づく機械学習により、誰にとってもユニークな(その人だけの)フィードを作っている。誰かと同じアカウントをフォローしていても、それらのアカウントとの対話の内容に基づいて個人化されたフィードが来る。

Instagramのフィードで何を見るかを決める、三つの主な要素は次のとおり:

  1. 関心: ユーザーが関心を持つ、あるいは気にする物事は、類似のコンテンツに対する過去のビヘイビアや、ポストのコンテンツに対するマシンビジョン(機械視覚)の分析で判断している。
  2. 新しさ: そのポストが共有されたのはどれぐらい最近だったか。何週間も前のものより、至近のポストが優先される。
  3. 関係: 共有したその人とどれだけ親(ちか)しかったか。ポストにコメントした、写真にタグをつけたなど、過去のInstagram上で多く対話した人ほど、ランクが高くなる。

以上の中心的な要素のほかに、以下もランク付けに影響する:

  • 頻度: どれぐらい頻繁にInstagramを開くか。最後の訪問以降のベストポストを、なるべく見せようとする。
  • フォロー: たくさんの人をフォローしている人ほど、広い範囲からコンテンツを拾う。
  • 使い方: 短時間、ベストポストだけを見たか、それともカタログをじっくり見て閲覧に多くの時間を割いたかで、見せるコンテンツが決まる。

Instagramの神話を退治する

Instagramのチームは、フィードに関する陰謀説などの疑問にも答えた。本誌TechCrunchは、その答の真偽を検証できない:

  • Instagramは現時点で古い逆時系列フィードをオプションとして検討していない。それは、複雑さをさらに増したくないからである。ユーザーは、今がどのフィードか忘れてしまうだろう。ただし、そのアルゴリズムが嫌いなユーザーには耳を傾けている。
  • Instagramはポストをフィード中へ隠していない。スクロールすれば、フォローしている人全員のすべてのポストを見ることができる。
  • フィードのランキングに写真やビデオのフォーマットは関係しない。ユーザーがエンゲージしているコンテンツに基づいて、フィードもチューニングされる。ビデオを見ることが少なければ、フィード中のビデオも少ないだろう。
  • InstagramのフィードはStoriesやLiveなど、特定の機能を好むユーザーを優遇しない。
  • Instagramは、あまりにも頻繁にポストする人や、特定のビヘイビアを繰り返す人のランクを下げないが、頻繁なポストの合間に別のコンテンツを入れることはある。
  • Instagramは個人アカウントや企業アカウントをフィードで優遇することはないから、アカウントを切り替えてもリーチに変わりはない。
  • シャドウバンは(shadowbanning)は実際にはない。Instagramは人びとのコンテンツを、ハッシュタグが多すぎるなど、特定のアクションを理由として隠すことはない。

〔shadowbanning, ポストが投稿した本人には見えるが、そのほかの人には見えない(見せない)こと。〕

今日のInstagramの、初めての記者たちとのホワイトボードセッションで、やっと誤解の多くが解けたと思われる。自分のポストが自分のお気に入りの人たちに届いているという、確信を持てるなら、広いオーディエンスを確実に構築できる。そして、いつもすばらしいコンテンツが見られるなら、Instagramのアプリをもっと頻繁に開くだろう。

しかし、地平線上には、Facebookのアルゴリズムが2015年に経験したものと同種の問題が、首をもたげている。それは、競争によるリーチの減少だ。Instagramの個人会員や企業会員が増えてポストが増え、しかし一ユーザーあたりの滞在時間が同じなら、多くのポストが水底で溺れ死に、そうでないポストもビューは少なくなる。人びとは必然的に、Instagramは広告が多すぎると不平を言うが、でもそれは、アルゴリズムでフィードを作っている人気サイトの宿命だ。

余剰コンテンツをStoriesに押し込めたり、フィードについてユーザーを教育してこの問題を和らげる努力をすれば、不平は減るだろう。Facebookはすでにクールでなくなったが、Instagramがユーザーの人気を失ってはいけない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アルゴリズムは私たちの思考をハッキングしているのか?

【編集部注】著者のAdriana Stanは、W magazineの広報担当ディレクターであり、メディア、文化、テクノロジーに関する著作も行っている。彼女はまた、Interesting People in Interesting Times(興味深い時代の興味深い人びと)イベントシリーズとポッドキャストの共同創業者だ。またもうひとりの著者Mihai Botarelは、RXM Creativeの共同創業者であり、社会とテクノロジーに関する著作を行っている。

Facebookは私たちの情報へのアクセス方法を決めTwitterは世論を左右しTinderはデートの意思決定に影響を与える。私たちの選択作業を助けるために、私たち自身が開発したアルゴリズムが、現在の私たちの生活のすべての側面を積極的に動かしているのだ。

しかし、ニュースを探す方法から、周囲の人びととつながる方法に至るまで、すべてのことに対してアルゴリズムへの依存を深めるようになるにつれて、私たちは自分自身の振る舞い方を自動化しているのではないだろうか?人間の思考はアルゴリズムのプロセスを模倣し始めているのだろうか?そして、ケンブリッジ・アナリティックによる大失敗は、アルゴリズムが私たちの集団的思考に入り込んできたときに、何がやって来るのか、そして何が起きるのかに関する警告なのだろうか?

このようになることは想定されていなかった。製品、人物、そして常に溢れる驚くべき量の情報からの選択作業に圧倒された私たちは、取り巻く世界をより良く、より早く、より簡単に生きていくために、プログラムを行ってきたのだ。明確なパラメータと一連の単純なルールを使用することで、アルゴリズムは複雑な問題を理解することを助ける。彼らは私たちのデジタルコンパニオンであり、 あらゆる局面で生じる現実的な課題を解決し、意思決定の方法を最適化してくれる。近所で最高のレストランは何処だろう?Googleがそれを知っている。目的地にはどう行けば良いのか?Apple Mapが役に立つ。最新のトランプスキャンダルは何だろう?Facebookを読めば分かるかもしれないし、分からないかもしれない。

私たちのあらゆる必要性と欲望を予測できるように、コードとアルゴリズムが、私たちの好きなもの、嫌いなもの、嗜好などに関して、よく知っているなんて、素敵なことではないだろうか?このおかげで、私たちは見ているものに対して考え込んで時間を浪費する必要はないのだ:ただ自分の意見を強化するのに最適な記事を読み、個人的な基準に見合う人物とデートを行い、お馴染みのお楽しみの中に我を忘れることができる。私たちはいつでも自由であると想像して欲しい、本当に大切なことに集中することができるのだ:注意深いデジタルペルソナを調整し、自分自身のアイデンティをInstagramに投影する。

私たちの思考が機械によって決定されると最初に述べたのはカール・マルクスだった。この考えはEllen Ullmanによる1997年の本”Close to the Machine“の中で言及されているものだが、今日私たちが取り組んでいる問題の多くを予測していいる。インターネットの発明から始まり、私たちの生活を楽にするために開発してきたアルゴリズムは、最終的には私たちの振る舞い方をプログラミングするようになってしまった。

写真提供:Shutterstock/Lightspring

以下で、3つのアルゴリズムプロセスと、それらが人間の思考に侵入して私たちの行動をハイジャックするやり方を紹介して行く。

1. 製品比較:オンラインショッピングからデートまで

Amazonのアルゴリズムを使えば、製品をブラウズして比較し、後で選ぶために保存し、最終的に購入することができる。しかし、電子商取引の体験を向上させるためのツールとして始まったそれは、いまや当初のものを遥かに超えたものとなっている。私たちはこのアルゴリズムを内面化し、それを私たちの生活における他の領域にも適用している ―― 例えば人間関係など。

現代のデートは、オンラインショッピングによく似ている。ソーシャルプラットフォームやアプリによって支えられ、私たちは無限の選択肢をブラウズし、その特徴を比較して、自分の欲望を満たし詳細な個人の嗜好に完全に適合するものを選択する。あるいは、電子商取引の世界やデジタルデートの世界に浸透する選択肢の幻想を彷徨い(さまよい)、永遠に判断を先延ばしにして「後で見る」に保存し続けることもできる。

オンラインでは、世界は無限の製品供給源となり、今や人間に関しても同じことになりつつあるのだ。「ウェブではこれまでにないほどの種類の商品やサービスにアクセスすることが可能です、そこから最も気に入ったものを選択することができるのです」とUllmanはLife in Codeの中で説明している。「選択することで幸せがやって来るという考え方がある。空っぽで、幻で、惨めさを連れてくる選択に満たされた海だ」。

私たちは皆、自分のニーズは完全にユニークなものであると考えることが好きだ。そして自分の欲望に完璧にマッチするものを見出すという約束がもたらす、誘惑と喜びの感覚は確かに存在する。

ショッピングや出会いを問わず、私たちは常に検索、評価、比較するようにプログラムされている。アルゴリズムによって駆動され、より大きな意味で、ウェブデザインとコードによって、私たちは常により多くの選択肢を探している。Ullmanの言葉を借りれば「あなたは特別だ、あなたのニーズはユニークだ、そしてアルゴリズムはあなたのユニークなニーズと欲望に完全に合致するものを見つけるのに役立つ」という考えを、ウェブは強化しているのだ。

一言で言えば、私たちの生活の方法が、インターネットに向き合う方法を真似ているのだ。アルゴリズムは簡便な手段だ、厄介な人間生活…絡み合った人間関係と可能なマッチングに対して2つのうちのどちらかを行わせてくれるからだ:そのことに対処する明快でアルゴリズミックなフレームワークの適用、もしくはアルゴリズム自身に選択そのものも任せてしまうやり方。私たちは、自分自身の言葉でテクノロジーを使うのではなく、アルゴリズムに適応し付き合うことを強制されている。

このことは、もともとは単純なデジタル行動から始まった、また別の実世界現象へとつながる:製品と経験の格付けだ。

2. 人間の数値化:評価とレビュー

他の善意のアルゴリズムと同様に、これはあなただけを念頭に置いて、あなただけのために設計されている。あなたのフィードバックを利用することで、あなたのニーズに的確に応えることができ、あなたのためだけにターゲットを絞ったお勧めを提供し、これまでに好んでいたものをより多く提示することで、何も考えずに消費を続けることができる。

Uberの乗車から、Postmateの配送、Handyの清掃まで、およそ全ての実生活でのやりとりが、1から5のスケールでデジタルにスコアリングされる。

社会として、これほどまでに、私たちがどのように認知され、どのように行動し、他の人々の期待との差異を気にする時代はかつてなかった。私たちは突如、Airbnbホストのデザイン趣味や清潔さのような主観的なものを、定量化することができるようになった。そして、それを私たちが差し迫って行う感覚は信じられないほどだ。Uberを降りるか降りないかのうちに、神経的に5つ星を付け、パッセンジャーレーティングを上げるために多額のチップをはずむといった具合。そうすれば、見返りに素早くレビューを受けられる!そして至福の喜びで満たされるという流れだ。

おそらく、あなたはそのことをディストピアであるBlack Mirrorのシナリオめいていると考えるかもしれないし、(風刺の効いたコメディ番組である)Portlandiaのいちエピソードのようなものだと感じるかもしれない。しかし、私たちはデジタルスコアが私たちの生活の中のすべての意味を同時に置き換えて動かす世界から、さほど遠く離れているわけではないのだ。

私たちは他の人との交流の方法を自動化してきた。私たちは、無限の自己改善のサイクルの中で、そうした相互作用を絶えず測定しては最適化しているのだ。それはアルゴリズムから始まったものの、いまや後天的な習性となっている。

Jaron Lainierが”Close to the Machine”の前書きに書いたように「私たちは自分たちのアイデアを使ってプログラムを作成したが、そのプログラムを使った暮らしを続けるうちに…(中略)…それらを自然に埋め込まれた事実だと受け容れるようになった」のだ。

なぜなら、技術は抽象的でしばしば捕らえどころのない、望ましい性質を定量化できるからだ。アルゴリズムを通して、信頼はレーティングとレビューに、人気は「いいね!」に、社会的認知度はフォロワーに変換されていく。アルゴリズムは、ある意味ボードリヤールの予見した世界を生み出したのだ、そこではそれぞれのレーティングが対象としている実際の物を完全に置き換えてしまう。そしてそこでは、デジタルレビューの方が実際の実体験よりも、よりリアルで確かに有意義なもののような気がしてしまうのだ。

実生活の複雑さと混乱に向き合って、アルゴリズムは私たちがそれを単純化する手助けをする。社会的なやりとりから厄介事を取り除き、同様に様々な意見や実生活におけるフィードバックからもたらされる不安も無くして、全てをレーティングボックスのなかにきちんと収めるのだ。

しかし、私たちが自分の思考の一部として、プログラミング言語、コード、そしてアルゴリズムを取り入れていくとき、人間の本性と人工知能は一体化して行くのだろうか?これまでの私たちは、AIを私たちの力があまり及ばない外的な力と考えてきた。もしAIの最も直接的な脅威が、ロボットが世界を支配するということよりも、テクノロジーが私たちの意識と主観に埋め込まれてしまうことだとしたらどうだろう?

スマートフォンが私たちの身体の感覚の延長となったように、アルゴリズムは私たちの思考の延長に成りつつあるのだ(マーシャル・マクルーハンが生きていたら、おそらくそう言うだろう)。しかし、それらが私たちを人間たらしめる性質を置き換えて行くとき、私たちは何をするのだろうか?

そして、Lainierが問いかけるように「コンピューターが人間の言語を、どんどん仲介するようになるにつれて、言語そのものは変わり始めるのだろうか?」。

画像:antoniokhr/iStock

3. 言語の自動化:キーワードとバズワード

Googleはキーワードに基づいて検索結果をインデックス化する。SEOは特定の戦術に基づいて、ウェブサイトを検索結果のトップに浮上させる。これを達成するために、アルゴリズムに取り組み、どうすれば上手くいくのかを探り、Googleの目にとまるようなキーワードをウェブサイトにまぶすのだ。

しかし、Googleのアルゴリズムとよく似て、私たちの心は、情報をキーワード、繰り返し、および素早いヒントに基づいて優先付けている。

それはテクノロジーに関して構築した戦略として始まったが、いまや見出しを書く方法から、ツイートで「エンゲージメント」を生み出すやり方、そしてビジネスや日々の生活の中で自分自身を表現する方法に至るまで、私たちが行うことすべてに浸透を始めている。

メディアの世界とスタートアップシーンの両方を支配する、バズワードの流行を考えて欲しい。そこに出現するいくつかのトップスタートアップを素早く眺めてみれば、人びとの注意 ―― そして投資家の資金 ―― を引きつけるための最善な方法は、「AI」「暗号」あるいは「ブロックチェーン」といういう言葉を会社の売り文句に加えることだということがわかる。

企業は、キーワードを通して世界に発信していることに基いて、評価されている。プレゼンテーションの場がより多くのバズワードで埋められるほど、煙に巻かれた投資家がそこに投資をしてくれる可能性が高まる。同様に、バズワードを含む見出しの方がクリックされる可能性が遥かに高いので、バズワードの方が実際の内容よりも勝るようになりはじめる。(派手な見出しでクリックを誘う手段である)クリックベイトはそれを示す1つの例だ。

私たちはどこに向かうのだろう?

技術は私たちにあからさまなパターンを与えている。例えば、オンラインショッピングは溢れる選択肢の中を進んでいくための簡単な方法を提供している。よって私たちは改めて考える必要はない ―― 私たちはただ、アルゴリズムが最善のやり方を知っていると仮定して操作しているだけだ。私たちはそれらがどのように働いているのかを本当に理解しているわけではない。コードは隠蔽されているので、私たちはそれを見ることはできず、アルゴリズムはただ結果とソリューションを魔法のように提示するだけだ。UllmanはLife in Codeで次のように警告している「私たちのために、複雑さが隠されて扱われることを許容するのなら、最低限私たちが何を手放しているのかに注意を払うべきです。私たちは用意された部品の利用者になるという危険性を犯しています…(中略)…私たちが本質的に理解していないメカニズムを、相手にしているのです。全てが期待通りに働いている限りは、こうした『無知』も許容されるでしょう。しかし、何かが壊れたり、間違ったり、根本的な変化を必要とするときには、私たち自身の創造物を前にして、為す術もなく立ち尽くす以外に何ができるのでしょう?」。

トランプ時代の、フェイクニュース、誤報、ソーシャルメディアのターゲティングの始まりだ。

画像提供:Intellectual Take Out

さて、そうだとしたら、批判的思考を奨励し、プログラミングにもっと関心を寄せ、旧き良き時代の論争と異議をどのように取り戻せば良いのだろうか?意見の相違を醸成し、繁栄させ、私たち自身の見解に挑戦させるようにするために、私たちは何ができるのだろうか?

私たちが、テクノロジーが生み出す気を散らす泡の中で行動するとき、そしてソーシャルメディアフィードが、自分と同様の考えを持つ人で構成されているとき、社会が変わることは期待できるのだろうか?起きることと言えば、アルゴリズムが私たちに促すように、結局行動してしまうことだ。これを打ち破るには現状に疑問を呈し、事実を分析して、自分自身の結論に達することが必要だ。しかし、そうしたことに割ける時間を持つものはいない。こうして私たちはFacebookマシンの歯車と化し、プロパガンダの影響を受け、おめでたいことに働いているアルゴリズムを意識することもない ―― そしてそれは私たちの思考プロセスの中に組み込まれているのだ。

自分自身の意志決定に対するプログラマーやアーキテクトではなく、アルゴリズムのユーザーとしての私たちは、自分自身の知性を人工的なものにしてしまう。Douglas Rushkoffが言っているようにこれは「プログラムするのかそれともプログラミングされるのか」の問題なのだ。もしケンブリッジ・アナリティカの事件と2016年の米国選挙から学んだものがあるとすれば、世論をリバース・エンジニアリングにかけて、結果に影響を与え、そしてデータ、ターゲット、そしてボットが誤った合意の感覚に導く世界を作り出すことは、驚くほど簡単だということだ。

さらに厄介なのは、私たちがとても信頼しているアルゴリズム ―― 私たちの生活に深く織り込まれ、私たちの最も個人的な選択に影響を与えている ―― は、私たちの思考プロセスへの浸透をやめない。それどころか、ますます大きく重要なものとなっている。もし私たちが、アルゴリズムのユーザーではなく、プログラマーとしての役割を取り戻さなければ、最終的にはアルゴリズムが私たちの社会の未来の形を作り上げていくことになるだろう。

[原文へ]
(翻訳:sako)

Facebookのアルゴリズム変更によって閉鎖に追い込まれたと主張するLittleThings

Facebookが最近アルゴリズムを変えたことによって、著名なサイトに犠牲者が生じたようだ。女性のための生活のヒントやハウツーを紹介しているLittleThingsが、昨日(きのう)(米国時間2/27)閉鎖した。

同社については、2016年に書いたことがあるが、それはCity National Bankからの融資を得たときだった。当時の同社は好調なようで、最大のライフスタイルサイトのひとつになろうとしていた。そして2015年にはFacebook上のトップ人気のポストでもあった。

しかしここ数か月は、厳しい状況だった。そのことを、Business Insiderに載ったCEO Joe Speiserのスタッフ宛メモが記している。どうやら8月には“特別に大きな後退”があり、LittleThingsは“それへの対応と事業の立て直し”に追われる中、Speiserは大手メディアに買収について語り始めた。

当時Facebookはアルゴリズムの大きな変更を行い、ニュース発行者のコンテンツよりも友だちや家族からのコンテンツを優先する、とした。Speiserによると、これによってLittleThingsのインフルエンサーと、最も貴重なトラフィックであるオーガニックなトラフィックが75%減った。

“これほどまでに壊滅的な効果をもたらすアルゴリズムのアップデートは過去になかった”、とSpeiserは書いている。“それはわれわれを悲惨な状況に突き落とした。LittleThingsを買収する気だった企業はみな怖気(おじけ)づき、買い手から降りた。われわれは融資返済の目途が立たなくなり、最終的にわれわれのすばらしいストーリーに、早すぎる終止符を打つことになった”。

Speiserは、将来的にはLittleThingsブランドの再建策を見つけたい、と言っている。しかし現状では、同社は終わっている。

画像提供: LittleThings

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アルゴリズムによるゾーニングは、より安い住居と公平な都市への鍵となるか?

米国のゾーニングコード(都市の地区にコードを割り当て、そこに建築できる施設を規制する制度)の歴史は1世紀に及ぶ。そしてそれは、米国のすべての主要都市( おそらくヒューストンを除く )の生命線であり、何をどこに建築できるのか、近隣では何を行うことができるのかを決定するものだ。だが現在、研究者たちが、その複雑さが増してきたことを受けて、都市空間を合理化するための現在のルールベースのシステムを、ブロックチェーン、機械学習アルゴリズム、そして空間データにに基く動的システムで置き換えることができるかどうかの探究をさらに進めている最中だ。おそらくそれがこの先100年の都市計画と開発に革命を起こすだろう。

これらの未来のビジョンは、都市と都市ガバナンスの改善を現在のキャリアの中心に置く、2人の研究者であるKent LarsonとJohn Clippingerとの会話の途中で触発されたものだ。LarsonはMITメディアラボの主任研究者であり、シティサイエンスグループのディレクターである。そしてClippingerはヒューマンダイナミクスラボ (メディアラボの一部でもある)の客員研究員であり、非営利組織ID3の創設者でもある。

米国の主要都市が現在直面している最も困難な課題の1つは、過去数十年に渡って急騰してきた住宅価格である。このことによって、若年層や高齢者たち、単身者や普通の家族世帯の予算に信じられないような負担がかかっている。たとえばサンフランシスコエリアの1ベッドルームのアパートの平均は3400ドルであり、ニューヨークでは3350ドルである。こうした事情から、これらのイノベーションのメッカは徐々に、アーティストや教育者たちはもちろん、余裕のあるスタトートアップの創業者たちにとってさえ手の届かない場所になりつつある。

しかし、住宅だけでは、現代の知識経済労働者たちを十分に満足させることはできない。そこにはいつでも、素敵で安価なレストラン、広場、文化施設、そして食料品店、ドライクリーナー、ヘアサロンなどの重要な生活サービスに至る十分な近隣の環境アメニティが期待されているのだ。

現在のゾーニング委員会は、様々な開発案件の許可プロセスの一部として、必要な施設が単純に含まれるようにしているだけだ。このことは食糧砂漠や、興味深いいくつかの都市部における魂の喪失につながっている。しかし、LarsonとClippingerの思い描く世界では、ルールベースのモデルは、トークンと呼ばれるものを中心にした「動的な自律制御システム」にとって替わられることになるだろう。

すべての都市の近隣地域は、人生の目標が異なるさまざまなタイプの人たちで構成されている。Larsonは、「私たちは、どのような人たちがここで働きたいか、どのような施設が必要とされるかに関する様々なシナリオをモデル化することができます。そしてそれはアルゴリズムとして数学的に記述することが可能です、そのことでリアルタイムデータに基く人びとのインセンティブを、動的に計算することができるようになります」と説明した。

基本的アイデアは、まず移動時間、個別経済状況、各種施設スコア、そして健康状態、その他多くのデータセットを集め、機械学習に投入することで、近隣の住民の幸福度を最大化しようとするものだ。ここでトークンは、幸福度を改善するために、コミュニティに追加すべきものや、取り除くべきものを表すマーケットに対して、意味を与える通貨の役割を果す。

豪華なマンションの開発者は、建物が重要なアメニティ施設を提供していない場合は特に、トークンを支払う必要があるかもしれない。その一方、所有物件をオープンスペースに転用する他のデベロッパーは、既にシステムに対して支払われたトークンを全額補助として受け取ることになるだろう。「トークンの意味を単一の価格体系にまとめてしまう必要はありません」とClippingerは言う。その代わりに「フィードバックループを使用することで、維持しようとしているダイナミックレンジがあることがわかります」と語る。

このシステムベースのアプローチを、現在私たちが抱える複雑さと比較してみて欲しい。建築と都市計画に対する嗜好が変わり、デベロッパーたちが盲点を発見するたびに、市議会はゾーニングコードを更新し、更新の上に更新を重ねてきた。ニューヨーク市の公式ゾーニングブックは現在、4257ページの長さになっている(警告:83MBのPDFファイルだ)。これが目指しているポイントは、美しく機能的な都市の見え方を合理的に導くことだ。その複雑さは大きな影響を生み出しロビー業界を栄えさせた、そしてEnvelopeようなスタートアップがその複雑さを扱おうと努力を重ねている。

システムベースのアプローチはこれまでのルールは放棄するが、変わらず良い最終結果を求めている。しかしLarsonとClippingerはさらに一歩進んで、住居自体の購入も含め、地元の近隣経済のすべてにトークンを統合したいと考えている。そのようなモデルでは「あなたは参加権を持っているのです」とClippingerは言う。たとえば、地元の公立学校の教師や人気のあるパン屋は、隣人とはあまり交流のない銀行家とは、近隣のマンションに同じ金額を支払う必要はなく、アクセスすることができるだろう。

「財政的利益のために最適化する代わりに、社会的利益、文化的利益、環境的利益を最適化できる代替案を作ることは、素晴らしいことではないでしょうか」とLarsonは語る。社会性のある行動は、トークンシステムを通じて報酬を受けることができて、活気に満ちた近隣を生み出した人びとがその一部として残り続けることができるようになる。一方新しい人たちにも転入のチャンスが与えられる。これらのトークンは、都市間でも相互に利用できるようになる可能性がある、そうなれば、ニューヨーク市への参加トークンによって、ヨーロッパやアジア地域にアクセスできる可能性も出て来る。

もちろん、これらのシステムの実装は簡単ではない。数年前のTechCrunchで、Kim-Mai Cutlerは、これらの課題の複雑性を深く分析した記事を書いた、その中では、許可プロセス、環境レビュー、地域社会の支持や反対などと共に、自治体のリーダーたちにとって住宅の建築や開発を、最も扱いにくい政策問題にしている、基本的な経済性について述べている。

2人の研究者によれば、少なくとも複数の都市が、都市計画に対するこのアルゴリズムベースのモデルの試行に強い興味を示しているということだ。その中にはバルセロナや韓国の複数の都市が含まれている。これらのすべての実験の中心にあるのが、古いモデルは今日の市民のニーズにはもはや十分ではないという考えだ。「これは根本的に異なるビジョンです…ポストスマートシティですね」とClippingerは述べた。

[原文へ]
(翻訳:sako)

FEATURED IMAGE: NICKY LOH/BLOOMBERG/GETTY IMAGES

この新しい折り紙アルゴリズムならどんなものでも折れる

折り鶴を千羽折ったら、どんな願いでも叶う、と言われている。学生のころ、一度やってみたが、目が赤く充血した。しかしMITから発表されたペーパーは、たとえばたった一枚の紙から千羽の折り紙を作る方法を記述している。折り紙を実現するアルゴリズムを見つけたため、そんなことも可能になったのだ。

計算機に折り紙をやらせることは、コンピューターサイエンスの長年の難問だった。2008年には、Tomohiro Tachi(舘知宏)が、主に長い巻紙のような紙の上に折りのパターンを作り出す、世界で初めてのソフトウェアを考案した。しかし今度のMITのアルゴリズムはふつうの大きな紙を使い、折りが多くて接合部の少ない、“水が漏れにくい”折り紙パターンを作る。

研究者の一人Erik Demaineは語る: “このアルゴリズムの方が、折り方が実践的でずっと良いと思う。実はまだ、折り紙を完全に数学的に定量化できたわけではないが、やってみてこっちの方が良いことは確かなんだ。でも、前の方法とは完全に違う数学的特性がひとつある。われわれの方法では、作ろうとする面の境界として元の紙の境界をキープしている。そのことをぼくらは、水が漏れない(watertightness)と呼んでいる”。

折り紙ソフトがこのアルゴリズムを使うと、何でも折れることになる。紙が十分に大きければ、一枚の紙でシンプルな折り鶴を1000羽折ることもできるだろう。

“多面体を細い紐で巻くような方法は、‘いかさま’と呼ばれていたし、うまくいくはずがない、とも言われていた”、と数学のJoseph O’Rourke教授は語る。“この新しいアルゴリズムは折りを作り出せることが保証されているし、多面体のどの面もシームレスな小面でおおわれているから、いかさまではない。そして紙の境界が多面体の面の集合の境界と同じだから、“水漏れしない”。また、折りを実現するために必要な余計な部分は全部中に隠れているから、外からは見えない”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MakerBotの新しい3Dプリントドライバーは、材料もプリント時間も平均30%節約する

MakerBotのMinFillが昨夜(米国時間3月19日夜)、既存顧客に対するファームウェアのアップグレードとしてひっそりと登場した。同社は既にそれを「3Dプリンティングのスピードと幅広い応用に対する重要な評価基準だ」と呼び始めている。当然のことながら、この分野のメーカーたちによる、このような気宇壮大な宣言には少々気を付ける必要がある、特にそれが、インフィル(モデルの内部で支えになる構造)という、どうにも魅力的ではないものに関する話題の場合には。

しかし、少なくとも新しくリリースされたMinFillは、潜在的に優れた数値を誇示している。社内で同社のPrintソフトウェアのために設計されたこの技術は、モデルに対して、必要最小限のインフィルを決定するアルゴリズムを実行し、材料とプリントコストを節約する。この2つは、このテクノロジーにおける2大重要課題である。

「複雑な形状をプリントするとき、その形状を正しい場所から支えるための、沢山の興味深い内部幾何を想像することができると思います」と、同社の技術担当副社長であるDave VeiszはTechCrunchに語った。「全体としての効果は、フィラメントの量が減り、プリント時間が短縮されることです。なので、最終結果を得るために、少ない時間と費用でプリントすることが可能になります」。

もちろん、異なるサイズと形状に影響を受けるので、時間とコストの節約の程度はプロジェクトごとにまちまちだ。しかしVeiszは、それぞれの節約率は平均で30%で、あるオブジェクトをプリントするために必要な材料の3分の1をカットできると語った。一方、本当に幾何的に複雑なオブジェクトの場合には、80から90%の節約を達成することができる。

これは、未来のデスクトップ3Dプリンティング技術の適用を、真に推進するもののように思わせる。これが既存顧客にとっての主要な問題を取り除いてくれるだろうことは容易に想像することができるし、将来の3Dプリンティングハードウェアの進歩と組み合わせることによって、デスクトップ3Dプリンティング体験が相当にパワーアップされることも理解できる。

ユーザーがプリントを開始する前に簡単な設定をすることだけで使えるMinFillは、3Dプリンティングのプロセスにおける、単純な繰り返しのラティスあるいはクロスハッチ構造を、特定のプリントのためにカスタマイズされたユニークなデザインの構造に変える。「結果は幾何構造に依存します」と、同社は語る。「これはオブジェクト内部に支えるための必要最小限の構造を作ります。例えば端の細い柱といったオブジェクトなどの内部で、支えの必要な場所に枝が作られ、極めて密度の低いインフィルが作られて、そうした柱を支えます」。

「それはとても複雑です」とVeiszは言う。「コンセプトを作るのはとても簡単ですが、実際に行うのはとても困難です。沢山の手作業によって、それを行う手段はありますが、単純にプリントモードを選択するだけで様々な幾何構造に対応させるようにすることは、とても難しいのです」。

これは、3Dプリントテクノロジーへの初期の熱狂に続いて起こった、激動の過渡期を過ごした会社にとっては、小さいながらも重要な前進のためのステップとなる可能性がある。MakerBotは長期に渡った沈黙のあと、教育分野へのコミットメントの強化を表明しつつ、昨年の9月に新製品を発表した。

その時には、同社は報道陣に対し、教育分野はビジネスのおよそ60%を占めていて、2015年の時点で約5000校に対して出荷を行ったと発表した(これが最後の公式発表だった)。

MakerBotにとって、MinFillはプロフェッショナルの領域での活躍を期待するものだ、これは同社の購入者のおよそ30%に相当する(一般消費者はおよそ10%だ)。今回の新しい設定で作られるモデルは、特に耐久性のあるものではない。その代わり、プロトタイピングが念頭に置かれたものとなる。

「私たちは本気で、デスクトップ3Dプリンティングが、産業市場をディスラプトすると考えています」と語るのは、メディアリレーションチームのJosh Sniderだ。「なので、本当に高価なオブジェクトプリントを外注したり、私たちの親会社(Stratasys)から10万ドルから100万ドルの機械を買うような会社が、デスクトップ3Dプリントに対してより高い関心を寄せるようになると思っています」。

[ 原文へ ]
(翻訳:Sako)

【ペンギンアップデート4.0実施】今見直しておきたい。SEOにおける『良い被リンク』『悪い被リンク』の見分け方

ペンギンアップデートが先月ついに更新され、SEO界隈では世界的に大きな話題となっています。 Web担当者の皆様の中には、計測しているキーワードで自社サイトや競合サイトの大幅な順位の変化が見られ、「自分のサイトはペンギンア […]

Apple Musicのパーソナライズした最新プレイリスト、iOSとmacOSのベータ版ユーザーはもう試せる

screen-shot-2016-05-17-at-2-07-44-pm

Appleが9月7日に開催するiPhoneイベントが目前に迫る中、同社は近々リリース予定のiOS 10モバイルOSとmacOS Sierraのベータ版に登録しているApple Musicのサブスクライバーに対して、パーソナライズした音楽プレイリストの展開を開始した。この機能は、今年の6月にAppleが開催したWorldwide Developers Conferenceで発表されていたものだ。Apple Musicの最新プレイリストは、Spotifyが提供している「Discover Weekly」プレイリストに真っ向から挑むものだ。Spotifyのこの機能は、ローンチした年に4000万人が使うほど人気を得た。

Appleは、独自の「Discover Weekly」ならぬ「My New Music Mix」プレイリストを提供する。このプレイリストの楽曲は、毎週金曜日に更新される。

WWDCで、このプレイリストの名前は「Discovery Mix」と発表されていたが、AppleもさすがにSpotifyの機能と名前が似すぎていると思ったのか、リブランディングを行ったようだ。

  1. img_6629.png

  2. img_6630.png

「My New Music Mix」はミュージックアプリの「For You」のセクションにあり、現段階ではユーザーの視聴履歴に基づいて選んだ25曲を配信している。

この機能の目的は、頻繁に聞く音楽に基づいて提案することで、Apple Musicの登録者が好きな楽曲やアーティストをより多く見つけられるようにすることだ。Spotifyの「Discover Weekly」と同じ意図だ。

本当の問題は、どちらのサービスのアルゴリズムが良いかということだろう。Apple Musicの機能はこの週末に展開し始めたばかりで、現段階では誰も十分に試せていない。結果が分かるのはもう少し先になる。

「My New Music Mix」以外にも、iOS 10のベータ版を利用しているApple Musicの有料登録者は、「My Favorites Mix」という別のプレイリストも追加されていることに気がつくだろう。これは毎週水曜日に更新され、このプレイリストではお気に入りの曲に加え、「他の曲も追加して」配信すると、Appleは説明に書いている。この「他の曲も追加」というのは、アプリがユーザーの最も気に入っている楽曲に基づき、ユーザーの好みにマッチすると選ばれた曲がこのプレイリストに追加されることを指している。ユーザーの好きな曲の中に、巧妙にいくつか新しい楽曲を忍ばせるもので、Appleはユーザーが楽曲を発見する手法に一捻り加えた。

Apple Musicのカスタマーはどちらのプレイリストにも登録でき、Spotifyと同じように新しい楽曲が配信されるごとに自動でダウンロードするよう設定することができる。

この最新プレイリストはiOS 10 ベータ版のApple Musicアプリ内にある。macOS SierraのiTunes 12.5にも同様に更新されている。

プレイリストの追加は、Apple Musicの大幅改訂の一環だ。Apple Musicのもともとのデザインは少しごちゃごちゃしていると批判を受けていた。AppleはWWDCで、Apple Musicの新な装いを発表した。アプリの下にあるナビゲーションタブから「Connect」と呼ぶソーシャルネットワーク機能を撤廃し、ユーザーの楽曲ライブラリをアプリの前面に持ってきて、それをアプリの中核に据えるようにした。

最初のレイアウトには課題があったものの、Apple MusicはApple OSに最初から内蔵されているという優位性だけで、Spotifyの脅威となることを示した。Appleは6月に、有料登録者が1500万人に届いたと発表している。Spotifyは3000万人の有料カスタマーを持ち、1億人の無料視聴者がいるのでまだリードしている。しかし、Apple Musicアプリの刷新と、より良い音楽発見機能が実装されれば、Spotifyにとってさらなる脅威となるだろう。

(画像クレジット:9to5Mac.comに感謝)

[原文へ]

(翻訳:Nozomi Okuma /Website

準備は大丈夫?ペンギンアップデート3.0の順位回復事例から見るペンギン対策

年内最後のテーマは、年明け以降に更新が延期されたペンギンアップデートについてです。 詳細のタイミングについては語られていませんが、年明け最初の大きなSEOの話題はペンギンアップデートの更新になる可能性も高いと思われます。 […]

Google、スマホ対応サイトをモバイル検索結果で優遇するアルゴリズム変更を発表、4月21日から適用

Googleは、スマートフォン利用に最適化されたサイトが「モバイルでの」検索結果で優遇されやすくなるように変更すると発表しました。この変更は2015年4月21日より実施されます。

2015年、確実に成果を出すためのSEOの方程式

土居です。この記事では僕がSEOに携わるときにほぼ例外なく考えているイメージを可視化してお伝えします(脳内整理も兼ねて)。初心者の方は全体観を把握するために、実務者の方は思考の整理に、それぞれ一助になれば幸いです。

スマートフォン時代にGoogle検索は不要?よりコンパクト化される情報サイズと、これからの検索の課題

土居です。僕の最近の情報収集源として大活躍のNewsPicksさんで話題になっていたテーマについて書いてみようかなと。あんまり検索に関わる人たちの目には触れていなかったみたいですが。

スマホ時代はGoogle検索が激減する:「コンテンツの面白さ」だけが評価される時代に!

誤解なきようにお伝えしますと全体の傾向としての話や記事の大半については同意できることもありますので反論・否定といった意図ではなく、個人的な見解とポジショントークをふんだんに交えつつ、引用させて頂きながら補足解説を出来ればなといった意図です。

スマホでは検索されない?

パソコンを利用して仕事をする人が多いでしょうから実感は薄いかもしれませんが、移動中や自宅などでスマホを利用している時にGoogle検索(いわゆるググる)を利用することは少なくないでしょうか?

色々なサイトの流入を見ていまると感じることが出来ると思いますが、スマホの検索母数自体は減ってはいない、まだ増えているようにも思います、これはスマホ自体の普及が進んでいることに起因すると考えれば自然でしょう。
(※これ、日本とかグローバルでの検索数推移の公式データってなかったでしたっけ汗)

一方でPCの検索は既に頭打ちから微減、これも時代の流れとして必然でしょう。

全体的には検索は徐々に上限値に漸近しつつも数年は増加傾向と思います(ユーザーの母数自体が増えてますからね)。

スマホの場合はアプリが中心になりますので検索する(ググる)ことが減ります。

検索の絶対数というよりも「ネット閲覧行動全体に対する検索行動の割合」は微減傾向が進むでしょう、という観点では同意ですが、絶対数はまだまだ微増傾向でしょうね。つまり「ネット閲覧行動全体におけるGoogleへの依存度が”割合として”下がっている」というのが正しい表現でしょうね。途端につまんない主張になりますけど。

ユーザーが情報を受け取る手段が多様化しているのは確実ですが、こちらから情報を取得する、という方法についてはGoogleは依然として健在、今のところ完全な代替手段は出てきていない状態ではあると思います。

Googleとしては直近でスマホでの検索頻度をあげるためには音声検索の普及は必須の取り組みとも言えそうです。音声検索に対応できるよう”会話型の検索クエリ”への対応強化(昨年秋の”ハミングバード”とかはそれですね)も行っているのですが、音声検索の普及はまだまだ追い付いていないため、そこまでのインパクトは今のところ見えていないように思います。

閲覧デバイスの変化

スマートフォン…77%、タブレット…6%、パソコン…17%、つまり「パソコン以外が83%」になり、今後この流れはもっと加速するでしょう。ちなみに当サイトの「検索流入」はGoogle、Yahoo!合わせて約40%ですが、読者にスマホ利用者が圧倒的に多いことを考えると、占める割合としては「まだ多い方」です。

こちらは記事で指摘されている通り、全体として確実にスマホに流れています。ただしビジネス向けの商用サイトなど特殊なケースではこんな感じ(下図)で未だに大半がデスクトップだったりもします。

デスクトップ77%、モバイル21%、タブレット2%を示すGoogleアナリティクスのデータ

「(自然)検索流入は結果として得られる」ものと考える

検索流入は「結果として得られるもの」ぐらいに考え、SEOにかけていた時間、費用、思考を向けるべき先は一点だけです。

こちらも半分くらいは同意です。これは「検索エンジンを根拠にサイトを運営しない」という前回の記事で書いたことにも通じます。

ただしビジネスのジャンルによっては検索が圧倒的優位なジャンルが多々ありまして。情報特性によっては情報設計やプロモーション戦略の中でSEO要件を優先しないと大変な目に合いますというのは補足しておきます。

ストックされ、後に検索され得る情報でしたら、是非その辺りも考慮して検索しやすい状態にしておくことは、後に検索して情報を探されているユーザーにとっても、もちろんサイト運営者にとっても有益なことと思います。

この辺りは特に一般的な内容として語る内容ではないかもしれません。ネット時代に時代遅れだとはずっと言われつつも、実際にはテレアポや訪問販売という営業手法が未だ有効な業態だってあるわけですしね。

(3~4年前は「これからは検索じゃなくてソーシャルだ」ってみなさん騒いでましたが、蓋を明けてみるとソーシャルメディアを上手に活用してグロースできたというサイトのほうが逆に珍しいのではないでしょうか。)

人を呼べるコンテンツが重要

まとめ:今後は「人を呼びこめる面白いコンテンツを作れるか?」の勝負となり、メディア格差が生まれる

検索を考慮するにせよ考慮しないにせよ、コンテンツ提供側としてはこれはもう”単なる前提”でしかありません。

それを前提として、その情報はどういう人にどういう形でリーチするべきか、或いは探されるべきか、という点を主軸に考えるべきです。それがもし継続的に検索されるタイプの情報なのであれば、その導線を作っておくことビジネス上必須の課題になるでしょう。

PVが多くても検索流入が多ければ、もっとおもしろい独自のコンテンツを考えるべき

全ての情報がフロー情報として流れていくわけではありませんし受動的に発見されるコンテンツなのか能動的に探索されるコンテンツなのかの違いで優先すべきチャネルは大きく変わります。面白い面白くないだけの価値観で判断すべき問題ではありません。

どちらにせよ情報過多の時代、それでも敢えて閲覧される価値のないコンテンツはいずれインターネットの中から淘汰され埋もれていくのは間違いありません。もちろん検索結果においても同じことが言える流れになってきています。

「検索流入は結果として得られるもの」のスタンスで、全リソースをコンテンツの質に向けるべき

質を高める工夫をするはもちろんですが、コンテンツの質を高めることだけではなく、そのコンテンツをプロモーションしていくこと、どちらも重要です。良い製品があれば売れるはずです、はマーケティングとはいえません。

コンパクト化される情報サイズ

さて、ここからはこの記事独自の話として。閲覧デバイスがスマホに寄ってきている中で、今後はスマホ向けに最適化されたコンテンツが更に多く作られる時代になるのも間違いありません。

コンパクト化される情報サイズ

一つの大きな課題として、情報がPC向けに作られてPCで閲覧されるという時代が終わり、モバイル端末向けの情報サイズを前提に設計をされるコンテンツの割合が急増している時代です。この流れはもう止まらないでしょう。

例えば、冒頭で紹介したようなNewsPicksの連載記事を見ていても、確実に情報サイズはスマートデバイス向けに最適化されている用に思えます。「あっさりしすぎて物足りない」というコメントもちらほら見かけますし。

PCで3000文字の記事を読むのはさほど苦痛ではなくても、移動中にスマホで3000文字ガッツリ読みたいという人はそんなにいないのではないでしょうか。

スマホ閲覧におけるUXと検索エンジン最適化のバランス

Googleが依然としてデスクトップ向けコンテンツをもとにインデックス(検索対象のデータベース)を形成していることはご存知の方もいらっしゃると思いますが、「より信頼できる、有益な情報を提示する」という観点からすれば、多くのクエリではやはり重厚長大なコンテンツが検索結果において未だ優位です。

しかしコンパクトでスピーディな情報収集を求めているスマートフォンユーザーにとってそうした重厚長大なコンテンツは時に検索体験を損ねる要因にもなるでしょうし、このあたりはサイト運営者にとってはもちろん、Googleにとっても課題になってくるのではないかなと感じています。

生産されるコンテンツと、発見されるコンテンツが不釣り合いに成り得るからです。

今のところスマートフォン向けに最適化されたコンテンツを限定したインデックスは存在していませんしその予定があるとも思えませんが、このあたりのバランスは確かに悩ましいところですね。

少なくともコンテンツ提供者側が検索流入をある程度考慮されるのであれば、コンテンツの情報量や品質は保ちつつも、スマートデバイス向けには「コンパクトな見せ方をする」などの工夫をする必要があります。

総じて

なんか結論のない記事で申し訳ありませんが、どちらにせよ多様なデバイス、多様なチャネルでコンテンツが発見される時代になっているということは、少なくとも「検索にヒットしなければ世界に存在しないのと同じです」みたいな10年前のような時代と比べて情報発信側としては歓迎すべきなのは確かですよね。

しかし、マルチチャネル・マルチデバイスを前提とすればコンテンツを作る際にもそれぞれへの最適化を考慮しないといけないわけですし、SEOに関わる人が対応していかないといけないこともどんどん増えてしまいますね。

個人的に最近思うこととしては、アルゴリズムの変更とかそういう話は、日常的な実務においてはもちろん大きな影響ある場合もありますけど、PC→スマホ、Web→アプリ、検索→??みたいな大きな環境の変化という中で考えると結構スモールな話だなと感じることはありますね。

検索の未来としては、「わざわざ検索しなくても情報が受け取れる検索サービス」みたいな感じでしょうか??人工知能なんかも力を入れていますし。そういう時代の”SEO”は更に楽しそうです。

「クロールバジェット」という言葉について

何やら「クロールバジェット」という言葉が最近お客様の一般的に使われているのを聞くということで先週くらいに社内でちょいちょい話題になっていました。

クロールバジェット(Crawl Budget)って何ですか

簡単に言うと、「このサイトは1日あたりこれくらいクロールしますよ」という上限値(Budget)をPageRankなどの指標を元にGoogleが割り当てており、このバジェットが低いとサイトが十分にクロールされません、みたいな雰囲気で使われる言葉です。

耳慣れない方には耳慣れないと思います。かくいう自分も業務上使ったことはないですしそんなに話題になることもありません。たまに海外のフォーラムなどで話題になっていることはありますね。

で、そもそもGoogleの公式で出ている言葉でしたっけと思って英語圏の公式サイト巡ってみましたが現時点ではGoogleの公式情報では確認できていません。Googleの技術的な用語というよりも便利な造語という捉え方をした方が良いかもしれません。

諸情報によると以前行われたWeb系のイベントでGoogleの方が「(クロールバジェットという概念は)Googleには存在しない」と発言もされていたようでして。ということで、まあ言葉としてはなかなか曖昧なものとして捉えておいて良いのかなと考えています。

で、言葉の説明についてはそれくらいにしまして、ここから本題。

あろうがなかろうが、考え方としては重要

仮にクロールバジェットなるものが存在するとした場合、単純に考慮すべきポイントは以下です。

・より多くのクロールバジェットを確保するためには多くのリンク(=高いPageRankやAuthority)を得ていることが重要
・クロールリソースは無限ではないので、無駄遣いさせない工夫が必要

そしてこれはクロールバジェットなるものがあろうとなかろうと、とても大きなサイトを運営している方にとっては非常に重要なSEOの要素だと認識しています。

クロール絶対量を増やしてサイトを十分にクロールさせる

ページがクロールされるのはクローラーがリンクを辿る中でURLを発見できるからであり、ほとんどリンクを得られていないページと多くのサイトからリンクをされているページでは後者の方がクロール対象になる確率は高くなります。

全体のクロールリソースが一定だとすれば、クロール対象になる確率が高い(=クロール中にリンクURLが発見される機会が多い)ということはクロールされる絶対量が増えるということです。

つまりクロールの絶対量を増やすのであれば、より多くのリンクを獲得することがそれに直結すると考えて良いでしょう。これはクロールバジェットの考え方と相反することはありませんね。

注意:SEOにおいてリンクを軽視する傾向はダメ

話題がそれるので別途まとめようと思いますが、コンテンツ重視の流れになってきているなか、逆にリンクが軽視されつつあるように思います。これは全くもってダメな流れと思います。

誤解を恐れずに言いますと、今のGoogleはまだまだ“Link is King”を否定できない検索結果です。すなわち今のSEOにおける最重要業務の一つは以前と変わらずリンクを獲得することと断言して良いと思っています。

変わってきているのは、そのプロセスとして人工的な簡易サイトからリンクをもらって順位を上げるような旧来の施策がGoogleには淘汰されつつあり、その分なおさらコンテンツやプロモーションによってリンクを構築していくことが重要になっている、という話です。

リソースを無駄遣いさせないための工夫

仮にクロールリソースが有限だとした場合、全てのURLが確実にクロールされる保証はありません。従って、不要なページにリソースが割かれないよう、重要なページのクロールに集中させる工夫が必要です。

それは例えば無駄な重複コンテンツを発生させない仕組み、理論上URLが無限に生成される仕組みが存在するのであれば運営側でのコントロール、(本当に)クロール不要なコンテンツへのrobots.txtなどの制御、などです。

少なくとも、例えば全くリンクも得られていなくてクロールされる絶対量が十分でないのに、本来クロール不要なコンテンツばかりクローラーがたどっているといった状態は避けるべきでしょう。

注意:不適切なクロール制御は単なる逆効果

クロールを制御することはコンテンツの認識に大きく影響する施策です。テクニカルな意図でrobots.txtを乱用するとかnofollow埋め込みまくるなどは基本的にはほとんどのサイトで考えなくて良いはずです。

あくまでも「クロール不要なURL」とか「制御しきれないほどの大量の重複コンテンツや空ページ量産」などへの制御を場合によっては検討する、レベルで十分と思います。

単純な絶対量(Budget)の割り当て、というよりもクロールされる確率と優先度の問題かなと思いますがどうなんでしょうか

見出しの通りなのですが。絶対量ではなくて「URLが見つけられてクロールされる機会の多さ」「クロールされる優先度」なのかなと。優先度は、「重要な情報どうか」だけではなく「クロールに支障がないか」などによっても決められるんではないかと感じています。

  • 獲得しているリンクが多ければ、その分クロールされやすくなります。
  • どちらにせよサイトが無限にクロールされることはありませんのでリソースは有限です。
  • 有限なリソースなら、より効率よく重要なページがクロールされる工夫をしましょう

ということに加えて、例えばサーバーサイドでエラーが頻発するとか待機時間が鬼のように長い、みたいなことがあればそれは有限なリソースを食いつぶすことにも繋がりますので、そうしたサイトは必然的にクロールの優先度を下げられると考えて良いと思っています(これは体感でめっちゃ感じるところ)。

個人的にはこの(特にサーバサイドの)速度改善もクロール優先度を上げるために必要な施策と思っております。特に新規のサイトでコンテンツ量は多いけどリンクは集まってないし速度も遅い、みたいなサイトだと本当にSEOは全く機能しないなという印象です。

なんだかとりとめないですがここまでまとめますと、

  • 多くのリンクを集める
  • クロール負荷をかけないよう速度改善する
  • クロールを制御する(その必要があれば)

大きなサイトで重要なページのクロール絶対量を増やすために特に重要なポイントはこの3点でしょうか、と思っています。なんだか当たり前な感じになりましたけども。

以上です。ちょっとライトな話題ですが社内用メモとして書いておきました。(この辺り実務レベルでしっかり語れる方で補足頂けるようでしたら是非ご遠慮なくお願いします)

【お騒がせ?】Google大変動!ペンギン3.0来たか!? → 「ちょっと待て、そんなに動いてないじゃん」

先の8月22日(金)の深夜から週末にかけて、Googleの大規模な順位変動(?)が話題になっておりました。SEO関係者以外でもそれなりに話題になっていたようでしたので、今の時点で可能な範囲で経緯や状況をお伝えします。

8月23日(土)未明:最大級と言える検索結果の変動が話題に

ディーボさんが運営するnamaz.jpという変動記録ツールにおいて大変動を表す数値が出ている、として関係者の間でワイワイ騒がれておりました。

大変動という文字。週末から本日にかけて、日常よりも大幅な変動があることを示すグラフ。

細かい解説は省きますが、下段の変動グラフが高い値を示していれば「変動が大きい」という意味を持ちます。

その他でも、晴錬雨読さんが公開している順位変動ウォッチャーにおいても、通常時よりも遥かに大規模な順位入替えが発生していることが記録されています。

晴錬雨読の異常値ウォッチャでは、22日23時以降に継続的に異常値を示す赤文字が羅列されている

実際に検索結果を確認してみると、確かに今まで見ていたものとは明らかに違う検索結果が返されていました。SEOに関わる仕事をされている方は、これはただごとではない、と多くの人が感じたことと思います。

しかし、検索結果を見ていても、「気持ち悪い」というか明らかにバグとか不具合なんじゃないですかと言いたくなるような結果であったことも印象としてはありました。

騒いでいたのは実は日本だけ?

さて、ここで、海外のGoogle検索結果変動を示すツールMOZCASTの変動データを見てみます。

mozcastにおいては、22日~23日にかけての変動幅は決して高くないことがグラフから伺える
※棒グラフでは最後の2列が22日~23日の変動を示しています。

米国時刻では日本で「大変動」が発生していたのは22日午前~23日午後くらいだと思いますが、両日とも「やや不安定」くらいのレベルで、日常の変動の幅を大きく超えるものではありませんね。

先ほどのnamazとの比較をしてみますと、8月13日~14日にかけて、通常時よりもやや大きめの変動が確認されていることは一致していますが、先週末の異常と思える変動についてはMOZCASTでは記録されていません

かなり大規模な変動であったため、やんわりと予告されていた「ペンギンアップデート3.0」が導入されたのかという話も出ておりました。

しかし、ペンギンのようなアップデート(”言語”などのローカルな要因に左右されにくいアップデート)はこれまでも世界共通で実施され、日本でのみ大きな変動が発生することはあまり考えにくいと言えます。

ですので今のところ、「ペンギンじゃないと思います」と一旦結論付けておきます。(まだ分からないですけどね)

実際に、検索結果はどのように動いたか(8/25時点)

計測対象キーワードのうち10000キーワードをサンプルとしてランダム抽出、集計しました。分析というにはほど遠い代物ですがおおよその動向をつかむには問題ないと思います。

「前日対比」での集計結果

各日の「前日対比」のランキングの変動幅(絶対値)の平均を見てみます。やはり平時(変動前)の変動幅に比べて大きく動いているように見えます。

前日対比データでは、確かに週末以降に平時の数倍規模の変動があったことがわかる

同じく、ランキングの入れ替わり率(掲載されていたポジションから大きく入れ替わったキーワードの率)はこちらです。全体の約15~20%のキーワードで、検索結果上のポジションが連日大きく入れ替わっていることがわかります。

前日対比で、ランキング分布における入替えが20%程度のキーワードで発生している

同じく、検索結果に表示されていたURLの変更率について(もともとTOPページだったのに下層ページが表示された、などのキーワードの率)も調べてみました。

前日対比の検索結果表示URLの変化率。21から22にかけても比較的高い水準だったのでわかりにくいが、それでも15%ほどのキーワードで表示URLが変化していることも分かる
※ちょっとこれはわかりづらいデータでしたね。。

何にせよ、各種ツールが提示しているような大きな変動があったことは間違いないように思えます。しかし、これはあくまでも「前日からどれくらい動いたか」の集計ですので、ちょっと異なる集計として「(変動前の)22日(金)と比較して」でも行ってみました。

「大変動前(22日)対比」での集計結果

変動前と比較したランキングの変動幅(絶対値)の平均を見てみます。金曜日対比では、平均値で「1.3位程度」しか変動していないですね。

22日規準では、本日のランキングはほとんど変更なし、という状態。平時よりもやや不安定な動き、というレベル。

同じく、ランキングの入れ替わり率はこちら。こちらも、金曜日対比では全キーワードのうち「3%程度」しか入れ替わりが発生していないことがわかります。

22日対比では、25日はランキングはほとんど入れ替わっていないことが分かる

同じく、検索結果に表示されていたURLの変更率はこちら。表示されているURLも、金曜日対比ではほとんど変化ありません。

22日対比の表示URL変化率。25日時点では、金曜日とほぼ変化なしの状態。

つまり、土日は激しく変動していたが、本日時点では変動前の状態と大差ない検索結果に戻っていることがここから伺えます。

結論:「日常の変動に比べ、やや動きが大きかったかも」程度?

今回の変動は何だったのでしょうね。今のところGoogle関係者から正式な情報は出ておりませんが、何かのテストを行っていたのか、マイナーアップデートかデータリフレッシュの際に変な不具合が混入したのか、ちょっと不明です。

ただ体感として、「あれ、大きく動いたのに今日になったら戻ってる」というのは皆さん感じられているところかなとも思います。

もちろん何か大きな変更の予兆なのかもしれませんのでしばらく様子見は必要と思いますが、「今回の変動を機に具体的なアクションを起こす」根拠はちょっと今のところ見えてこない状況です。

最後に:世間の皆さんの反応

個人的には、こうしたニュースが出た際に、検索結果がどう動くか、ということももちろんなのですが、一般の(=SEO関係者以外の)方々の反応も同様にウォッチの対象としています。

最近NewsPicksというサービスを使っており、普段あまりSEOなどの話題は出ないのですが、週末にはこの変動の話題がピックアップされていました。

  • Googleに依存するビジネスは危険。きちんと流入のポートフォリオを組まないと。
  • こういう変動に振り回されるのが分かってるんだから、最初からSEOなんて無駄。
  • もう時代はコンテンツの時代。良い記事を書くことだけ考えれば良い。
  • SEOなんてもう不要な技術。そこにコストかけるのは無駄。

などなど、色んなことを言われているわけですね。もちろん皆さんSEOについて專門で仕事をされているわけではないし、日常的に何百とかのWebサイトを見ているわけでもありませんので仕方ないですけれども。

ということで、次回はこうした方向けにSEOの事情を少しは理解して頂けるよう、何かしらの形で自分の解説をまとめて書いてみようかと思います。

『HTTPSをSEOで優遇』 SSL化を推奨するアルゴリズム導入をGoogleが公式発表

昨日、SEOやWeb周りの方々が少しざわめいておりました。話題となっているのがこちらです。

Google ウェブマスター向け公式ブログ: HTTPS をランキング シグナルに使用します

本件につきましてはきっと多くの方からお問い合わせを頂くことが増えるでしょう、ということが明確ですので、あらかじめ記事にまとめさせて頂く次第でございます。

Q: まず、これは一体何の話ですか?

概要としては、SSL化されたWebサイトをSEOの評価として優遇します(=HTTPSであることが、SEO上のプラスになります)、といったものです。

こうした方針を検討している、という旨をGoogleが初めて発表したのが2014年の初頭に行われたイベントにおいてでした。( 参考:Google、安全なSSL導入サイトの検索順位を優遇したい? 実現は難しそうだが・・・ SMX West 2014 )

関係者の間では、当時から変わらず導入の賛否は分かれているように見えます。どちらかというとサイト全体へのSSL対応についても慎重派がマジョリティな印象です

Q: 影響度はどれくらいあるのですか?

冒頭のGoogleの公式記事をそのまま拝借しますが、

全体的に見ると、このシグナルは良質なコンテンツであるといった、その他のシグナルほどウェイトは大きくありません。HTTPS は、優れたユーザー エクスペリエンスを生み出す多くの要素のうちの 1 つです。

 
ということですのでそこまで大げさなものではなく、実際に公式にも検索の全体のうち1%未満にしか影響しません、と言っていますので、数字だけ見れば、決して日常的な変動に比べて「とても大きな変動」という規模ではありません。ですが、

これから長い期間をかけて強化していきます。

 
とあるように、これからどの程度この流れが加速していくかについては不明です。今すぐに導入せずとも、いずれどこかのタイミングで検討するかもしれない、ということは頭の片隅に置いておいて良いでしょう。

Q: この件について、何か懸念事項はありますか?

例えば、規模にもよりますが導入コストはもちろんですが、SEO的な課題では、URLが変更する問題(全て正しくHTTPSに評価を引き継げるか?とか正規化処理ミスは発生しないか?など)が一般的な問題でしょう。そのほかにも、関係者の皆さんの意見として色々あがっておりまして、

とか、同じくリファラー関連の話では

などの懸念も早速上がっていたり。direct増えるというのは確かに解析を専門としている人にとっては結構厄介な話でしょうね。また、

とか、同じような切り口で

とかっていう、無責任な提案も増えそうで(しかもそのとおりになってしまう事案が本当に多そうで)怖いなというのも思います。更に、

これはもう過去にもありましたし本当に色々想像に難くないのですが、「Googleも公認、SEOに絶大な効果」的な宣伝文句でSSL証明書が販売されるということが絶対にあるでしょうね。

結果としてセキュアなWebサイトが増えるというのは悪いことではないのかもしれませんが、きちんとした意味や背景を理解した上で導入するのと、間違った認識で導入するのではやはり意味は違うかなと思います。

Q: なぜGoogleがSSL化されたHTTPSを優遇するのですか?

基本的に、Googleは「ユーザーがより良質なコンテンツに到達できるように」を基本として検索アルゴリズムを改良しています。

しかし、HTTPSであるかどうかはコンテンツの内容そのものの改善ではなく、通信環境の問題です。少なくとも大部分のユーザーが普段から求めていることではないでしょう。

では、これをなぜGoogleがSSL化を大々的に推奨し、ランキングにまで反映させるのか?というのは実際僕もそんなに腑に落ちていないこともありました。が、

と言えば確かにそれなりに納得できますね。また、

サイト運営会社はグーグルの検索結果で上位に入りたいと考えている。このため、グーグルは検索アルゴリズムで開発者の慣行を促進したり阻止したりできる。例えば、読み込みの遅いサイトは検索結果で不利な扱いを受ける一方、質の高いサイトは上位に表示される。

( 引用元:グーグル、検索結果で暗号化サイトを優遇 「HTTPS」増加を期待 )

 
とあるように、インターネット全体をSSL化の動きに促進するのであれば、Googleが自らのランキングアルゴリズムへの反映というのはサイト管理者の大きなモチベーションになりうる、という理屈も理解できます。

Q: この動きに対して、どう対応するべきですか?

SSL化することで検索結果においてどれだけ優位になるのか?が不明確なこと(少なくとも今は微小)、その中でコストやリスクを負うことになるというのはあまり手放しで推奨しにくいものです。

個人的な見解としては、皆さんがこぞって「SEOの目的で」ワサワサと導入する必要はないんじゃないでしょうかとは思っています。

ですので僕からは現時点では積極提案することはありませんが、いやいや、でもせっかくだからこれを期にSSL化しようよ!という意向であればそれはGoogleも本意でしょうし早速導入されて良いと思います。ただしURL引き継ぎの処理などに漏れのないよう、慎重に進められることをお勧めします。

読み返してみたら引用だらけですみません。また追加情報などございましたら追記いたします。

※8/8追記

こちらにより具体的なQ&Aが紹介されています。
HTTPからHTTPSへの移行で出てきた質問に回答 | 海外SEO情報ブログ

UIやユーザビリティという問題とSEOは「別物」として切り離して考える

SEOの文脈で「検索エンジンではなく、ユーザー視点でサイトを作りましょう」ということがよく言われます。SEOの観点から話をするにあたり、果たして本当にそれで良いのでしょうか。

Googleが特に重視したいこと

もし、「ユーザー重視」がユーザーの検索体験の向上、であったり、ユーザーが検索に求める価値ある情報をコンテンツとして提供する、という意味でユーザーの視点を重視するべきという話であれば、そうした観点での改善は概ねSEOの改善につながりますので正解です。

しかし、同じようにユーザー視点でのサイト改善施策として括られる「ユーザビリティやUIの改善」などの施策が直接SEOに貢献するかといえばそれは決してそうとは言い切れません。少なくとも現時点では、これらはひとまずSEOとは別の改善施策として考えておく必要があります。

Googleが重視するのはあくまでユーザーが発見できる情報の質であり、また到達したサイトの仕様によりユーザーの検索体験を著しく損ねないことです。

言いかえれば、素晴らしいUIではなく、検索者にとって価値ある情報を検索結果で提示したい、その結果として、ユーザーの検索体験をより良いものにしたい、ということです。

UIやユーザビリティの改善≠SEOの改善

例えば、ユーザーテストを繰り返し実施したりアクセス解析をもとに課題を抽出して、よりユーザーがサイト内で迷わず目的を達成しやすいように変更する、ということは多くのWebサイトの改善施策として有効です。

では、そこで挙げられた改善項目はSEOにとってプラスになる改善なのか?といえば、必ずしもそうではありません。UIとかユーザビリティを重視してサイトを改善すれば自ずとSEOがよくなるほど今のGoogleは都合良くなってくれてはいません

従って、逆にSEOを少し妥協してでも全体の転換率を高めるかどうか、などの判断を求められる場合も多いでしょう。

例えば下図のように、自然検索流入が20%減少しても全体のコンバージョンが10%向上して総合的なROIが改善するのであればそちらを選択すべきですね、とかそういう世界です。

検索トラフィックが減ったとしても、広告やソーシャルメディア経由の流入をはじめ全体の目標達成率が改善し、結果として目標達成数が改善することはあり得る。

※さすがにここまで都合良く数字が動くわけではないにせよ、言いたいことのイメージとして。

ユーザビリティの改善がSEOの改善に繋がるケースも多くある

もちろんユーザビリティやUIの最適化を行うことで、それがSEOの改善に直結することは少なくありません。例えば、

  • ユーザーに不適切な転送設定がある
  • 実質的なコンテンツを持たず広告への橋渡ししかしていない
  • 広告表示量がページの情報量に対して異常に多い
  • ファーストビューの表示が著しく遅い
  • そのページのメインとなる情報の起点がファーストビューに存在しない

などの問題は、ユーザーの検索体験を大きく損ねる要因になるでしょう。ユーザビリティ上の問題だけではなく、検索順位に直接的に悪影響を与える可能性が高いため、SEOの観点でも改善すべきポイントと言えます。

また、これとは別に、検索者や彼らの検索行動を考慮した情報設計のもとでナビゲーションを変更するなどの施策でしたら、それは多くの場合にSEOに直結する改善施策になります。

SEOを考慮する上では、検索エンジンの制約が前提にある

しかし、今の検索結果で露出を高めるための最適化を行うということは、今の検索エンジンの性能などといった制限を考慮する必要があります。今のGoogleは昔に比べ進化したとは言え、人間と同様の情報処理が行えるわけではありません。

ですので、SEOという制約の中でサイトを考えるときには、やはりクローラビリティやインデクサビリティ、アクセシビリティなどへの考慮がまだまだ必要です。

具体的には、例えば大半のユーザーにとってはサイト利用上で不要かもしれない文章を用意したり、同様に不要なリンクナビゲーションを用意することがSEO上の改善に繋がる場合もあるのです。

モバイルファーストで作られたサービスのSEOの課題

こうした課題は、特にモバイルファーストで発進したWebサービスにおいては顕著に現れます。スマートフォン向けサービスにおけるサービス設計やUI設計においてSEO要件が優先的に考慮されるケースはまずありません。

文字情報やナビゲーションも、スマホUIを重視するのであれば操作性やコンテンツの視認性を考慮して「不要な情報をできるだけ削る」というステップを踏むのが一般的でしょう。

その要件を基準にサイトを作れば、必然的に検索エンジンがインデックスできる情報量や、クロールできるURLについても制限されることになります。

最近ではよく「スマホ版のコンテンツをとりあえずそのままデスクトップ版に拡張しました」というサイトを見ることがありますが、上記のような理由でSEOには不利になります。

スマートフォン端末を優先した情報設計を行うサイトが増えても、Googleのインデックスは依然としてデスクトップを前提として形成されているという実情が、このギャップを更に広げている気がしなくもありません。そしてそれは検索者の都合を考慮すれば自然なスタンスだと思います。

これはインターネットにおける情報探索行動が年々スマートフォンに移行していく中で、モバイルファーストで作られたWebサービスの普及が進むにつれよりいっそう顕著な課題となるでしょう。

どこまでSEOを重視するか

サービスの内容によっては、上手にUIやユーザビリティとの妥協点を見つけ、デスクトップ版とスマホ版、アプリ版などでUIとSEO要件のバランスのとれた設計をすることが可能と思いますが、そうではないケースも多々あります。

では、そういうケースではSEOに取り組む必要がないのか?といえば決してそうではありません。

そのあたりの線引きは、「この情報は(ユーザー視点で見た時に)検索結果に載るべきか?載る必要はないか?」で考えるべきです。テキスト情報があるか、ないか、とかそういう事実だけで判断するべきではありません。

検索結果に載るべき情報(=他にない付加価値を持っている情報)なのであれば、コストの許容する限り&サービスを損ねない要件においてSEOを考慮するべきと思います。

「テキスト情報が少なすぎてこれでは何とも、、」などのことも勿論あるでしょうが、それでも保持しているデータと情報そのものの性質を元に、持っている情報をページの情報やリンクナビゲーションにどのように反映させるかを考えるだけでも、改善させることはできると思います。

まとめ

いろいろなSEO系の記事のコメント欄を見て、「SEOじゃなくてユーザー視点でサイトを作ることだけ考えれば良いのに」的なコメントもちょくちょく見かけますが、検索エンジンという特殊なプラットフォームの制限を無視することは今の段階ではオススメできません。

SEO要件を考慮せずあえて無視する、が功を奏することもあるでしょうが、ある程度の知識と判断材料なしにその判断をするのであれば、それは単に検索流入を放棄することになりかねませんので、注意してください。

お知らせ

しきりにSEOの話をしてきましたが、最近、サイト改善ソリューションとしてユーザビリティ改善に特化したサイト改善サービスの強化にも力を入れています(実はユーザーテストルームなんていう専用部屋とかアイトラッキングシステムなんてものもオフィスに存在していたりします)。

その流れで、そちら系のテーマでの話題での勉強会なども行いますので、SEOだけではなくこういうところでも皆さまの支援を出来ればと思います。SEOの会社としては珍しい方向性かもしれませんが、この人たち珍しいなと思って是非お越しください。

詳細:【初心者向け】サイトパフォーマンス向上の為のユーザビリティ改善セミナー
※残席少ししかないみたいなのでお早めにお願いします。

知っておいて損はない!Googleの検索エンジンに関する「特許」まとめ

以前に検索エンジンとSEOの歴史について書いてくれた大学生の佐々木くんに、次のテーマで「Googleの検索に関する特許」についてまとめてもらいました。

Googleの特許は「何がしたいの?」を理解する手がかりに

Googleの特許を知る事はSEOを考える上でとても重要な事です。何故ならSEOを実施するにあたって、検索エンジンとしてのGoogleの考えや方針は必ず理解しておく必要があり、Googleが持っている特許の内容は、その考えや背景を読み取るための材料になるからです。

この記事ではGoogleの特許の中から検索エンジンに関する特許を一部ピックアップし、紹介します。

※年代は申請日で記載しています。
※発明者もしくは譲受人がGoogle Inc.になっている特許を記載しています。
※ここに挙げられていないものも含め、特許を取得していることと、それがランキングに反映されていることは別問題です(特許はとったが使っていない、があり得るということ)。

PatFT:認定された特許

※PatFTとは公式に認定されている特許を指します。
 

リンクされたデータベース内におけるノードのランキングに関する方法

(1998年1月 特許番号:6285999)
検索技術に関わる特許の中で最も有名かもしれません。いわゆる”PageRank”のアルゴリズムに関する特許です。特許権の所有者はスタンフォード大学ですが、Googleが独占で使用する権利を持っています。

※参考1:ページランク(wikipedia)
※参考2:SEOの最重要特許ベスト10 その1 ページランクとは?

 

検索エンジンの音声インターフェース

(2001年2月 特許番号:7027987)
音声による検索システムに関する特許です。以下の参考URLをご覧いただくとわかりますが、現在少しずつ普及してきている音声検索について、今から10年以上も前から、それが使われるシーンを想像されていたわけですね。

ちなみに「特許の一部は製品化・サービス化するが、そうでないものもある」というのはこの記事の最後にも書かれています。

※参考:米Google、検索エンジンの音声インターフェースに関する米国特許を取得

 

曖昧な検索クエリに対して検索結果を提供する為に修飾されたインデックスを使用する方法及び装置

(2003年3月 特許番号:6529903)
ユーザーが検索する時にサイトの管理者が想定した具体的なキーワードを打ちこまず”曖昧な言葉”での検索をしてしまった場合を想定した施策に関する特許です。

※参考:「Google」の知的財産戦略

 

ユーザーの行動や特徴のデータに基づいた文章のランキング

(2004年7月 特許番号:7716225)
いわゆる”リーズナブルサーファーモデル”の特許です。全てのリンクを均等に扱うのではなく、データや特徴に基づきリンクに妥当な重み付けをして扱う、という考え方です。

※参考:GOOGLE’S REASONABLE SURFER: HOW THE VALUE OF A LINK MAY DIFFER BASED UPON LINK AND DOCUMENT FEATURES AND USER DATA

 

ソーシャルネットワーク内の関連メンバーを評価する為の方法とシステム

(2004年8月 特許番号:8010459)
SNSでの友人のクールさ、セクシーさ、信頼度などによって評価が出来るシステム、といった少し変わった特許です。

参考:知人の「セクシーさ」を評価:Googleが特許出願

 

カメラ付き携帯電話用の画像ベースの検索エンジン

(2005年5月 特許番号:7565139)
“画像での検索”に関するシステムの特許で、内蔵カメラ付きケータイの普及が背景にあります。携帯電話で撮影した画像そのものを検索に利用するための技術です。
 

フレーズベースの情報検索システム内のスパムドキュメントを検出する

(2006年6月 特許番号:7603345)
文書内の関連フレーズの数に基づいてスパム文書を特定するシステムに関する、とする特許。スパム文書にありがちな「キーワードの集合体」のような文書のパターンを検出し、スパム文書と非スパム文書を識別します。

参考:http://www.seobythesea.com/2006/12/phrase-based-information-retrieval-and-spam-detection/

 

コンテンツに基づいた広告サービスの提供

(2006年7月 特許番号:7734624)
サイトの内容に近いジャンルの広告を表示する技術の特許です。コンテンツを閲覧しているユーザーに関連性の高い広告を表示することで、より高い広告効果を実現することができます。
 

強化された検索結果

(2006年1月 特許番号:7624101)
電話番号または住所を含んだクエリ検索に応じる事と、クエリに関連のある住所のリンクを示す事が出来るといった検索機能の強化に関する特許です。この特許にはWebの膨大な情報量に対して、ユーザー(特に新規でWeb検索に不慣れなユーザー)が求めている情報を探す為に労力を使ってしまう可能性が高いという背景があります。
 

電子メール環境内でのメッセージランキング

(2008年9月 特許番号:8095612)
自分の受信メールの内容を検索結果にランク付けして反映する方法に関する特許です。以下の記事で詳細に紹介されていますが、ウェブページとは異なり、メールならではのシグナルにもとづいてランク付けされます。

※参考:Googleの新特許「メールランク」であなたのメールが格付けされる?

 

AppFT:出願した特許

※公式に認定されていないが、公開されている特許を指します。

MapReduce内のフレームワークデータの処理

(2011年4月 特許番号:20120254193)
MapRuduceというGoogleのサーバー処理に用いられている分散処理アルゴリズムで、「処理速度の向上→検索結果反映までの時間短縮」の技術に関する特許です。

※参考:GoogleのMapReduceアルゴリズムをJavaで理解する

 

ポリシーに違反してるかをチェックするシステム

(2012年8月 特許番号:20130110748)
過去の”問題あり”なデータと比較して、ポリシーや法律に抵触するような悪意のある書き込みを事前に防止出来るようにする技術ですが、以下の記事にもあるように「道徳的な判断をGoogleが行う」というところに賛否が分かれそうな技術とも言えます。こちらも製品化されるとは限らないとのこと。

※参考:Google、「検閲システム」の特許を導入

 

ソーシャルネットワークオブジェクトランキング

(2013年10月 特許番号:20140108428)
ブログやコミュニティなどのソーシャルネットワーク内のコンテンツのランク付けには、一般的なウェブページとは異なるシグナルも利用するべきだ、といった主旨の特許です。例えば友達やファンの数、プロフィールの閲覧数、投稿へのコメント数、最新の話題かどうか、などです。

※参考:HINTS OF HOW GOOGLE MAY RANK SOCIAL NETWORKS?

補足:特許の探し方

Googleの特許は登録までしている特許(PatFT)も公開までしかしていない特許(AppFT)もすべて米国特許庁データベースで検索する事が出来ます。
特許番号や譲受人、発明者など様々な条件で検索する事が出来ます。

america_patents_engine

しかし、こちらの検索ページはそんなに見やすい訳ではないので私はGoogleの特許検索エンジンをオススメします。

google_patent_engine

一番の違いは、実際に特許の概要が説明してあるページにアクセスして自動翻訳をした時です。米国のデータベースだと活字がひたすら並んでいて見づらいですが、Googleの方だと項目が分かれていて見やすいです。

america_trans
▲米国データベースの説明内容を翻訳したらこうなる

google_trans
▲Googleだとこんなに見やすい

出典

まとめ

検索技術に関する様々なテーマからピックアップして、ごく一部を紹介させて頂きました。これらの特許内容はGoogleがこれからの検索エンジンをどうしていきたいのかを知る材料になり、ひいてはSEOをどのように考えていけばいいのかを知る材料になります。

こうした技術を読むにあたり、「どういう技術なのか」はもちろん大切ですが、「こび技術が開発された背景はなにか」「何が実現できるのか」「利用者にどういう利点があるのか」などを考えてみると、テクニカルな解釈ではなく、Googleが本質的に目指す方向性などを理解するのに役立つと思います。

しかし、前述の通りGoogleが特許を取得していてもその特許内容を検索エンジンに全て反映させているという訳ではないので注意して下さい。

参考:特許取得=Googleの検索アルゴリズムに組み込まれている訳ではない

ヴォラーレ株式会社 佐々木