ペンギンアップデート4の展開が始まる

ご存じの方も多いと思いますが、ペンギンアップデートが実施されたようなのでご報告。 — SEO Japan

penguinグーグルのスパム対策「ペンギンアップデート」が発動された。今回で4度目である。ペンギン 4は今までのペンギンとは少し異なる。グーグルがスパムの阻止を改善するテクノロジーとして期待しているペンギン 2.0のテクノロジー(日本語)を搭載しているのだ。

グーグルの検索スパム対策を統括するマット・カッツ氏は、今週のグーグル – エピソード #199で、新たなペンギン 2.0のアップデートに関する告知を行った。同氏は、動画(日本語)で次世代のペンギンのアップデートに触れ、「数週間以内」に発動されると述べていた。

ウェブマスターおよびSEOの担当者なら、検索結果が大きく変動すると予め理解しておくべきである。カッツ氏は、具体的に英語のクエリの2.3%がこのアップデートの影響を受けると指摘していた。

その後、同氏はブログで今回のアップデートに関する詳しい情報を提供していた。カッツ氏は、「世界の別の言語への変更の展開が終わった」と述べ、米国外にもアップデートが展開されると明言している。インパクトの大きさは、「言語のウェブスパムのボリューム」に左右される。例えば、フランス語が大量のウェブスパムに汚染されているなら、グーグルフランスはより大きな影響を受けるだろう。

過去のペンギンアップデート:

ペンギンアップデートのバージョンに不慣れな人達のために、ペンギンアップデートを行われた順番で挙げていく:

しかし、2度目および3度目のペンギンアップデートは、基本的に最初のペンギンのアルゴリズムを採用しており、変化の規模は小さかった。4度目となるリリースはメジャーなアップデートであり、社内ではペンギン 2.0と呼ばれているようだ。

切れ味の鋭いペンギン 2.0、さらに多くのウェブサイトに影響を及ぼす

以前もお伝えしたように、マット・カッツ氏は、最近投稿した動画の中で、今回のペンギンアップデートはメジャーなアプデートであり、最初のアップデートよりもウェブの奥深くに浸透し、より多くのSEOおよびウェブマスターに影響を与えると明言している。以下に当該の動画を再び掲載する:

ペンギンアップデートの詳細が知りたいなら、ここをクリックしよう。


この記事は、Search Engine Landに掲載された「Penguin 4, With Penguin 2.0 Generation Spam-Fighting, Is Now Live」を翻訳した内容です。

2.3%の変化といえば、最初のペンギンが3%程度ですから、それなりの変化ではあるはずなのですが、イマイチまだ「これ!」というわかりやすい動きはないようで、大騒ぎしていた割には盛り上がりにかける状況のようです。今後新規情報あればまた別記事で紹介していきたいと思います。特に日本での大きな動きは今の所、余り感じられない気もしますが、「言語のウェブスパムのボリューム」が変化の影響に与える度合いが大きいのであれば、日本語はもっと動いてもいい気がするのは私だけでしょうか。。。 — SEO Japan [G+]

Googleの新しい会話型検索サービスを徹底解明

Googleが新型Chromeでリリースした会話型検索サービスその名も「カンバセーショナル・サーチ」がスゴイらしい、ということでその機能をサーチエンジンランドが徹底解説した記事を早速。 — SEO Japan

先週のグーグル I/Oカンファレンスでグーグルがデモを行った「Conversational Search」(会話型検索サービス)が、クロームブラウザのユーザーに公開された。この会話型検索サービスによって、検索エンジンを利用するアプローチが大幅に進化すると見られている。

私は検索に関する記事を17年間に渡って書き続けており、検索に革命を与えると言われてきたあらゆる検索製品、とりわけ「自然言語」や「セマンティック検索」等の用語で飾られたものの、期待を裏切った製品をこの目で見てきた。

会話型検索は、自然言語やセマンティック検索等の技術が活かされた製品である。完璧とは程遠いものの、「酸いも甘いも噛み分けた」私のような人物でさえ、思わず緊張し、好奇心を掻き立てられるポテンシャルを持つ。

グーグルは複雑なシステムを用いているものの、実際には、自然且つスムーズに稼働する。幾つか例を挙げ、最後に「内部」の仕組み、そして、コツを紹介する。

クロームの音声検索

クロームの最新版では、検索ボックスのマイクをクリックして、音声で検索を実行することが出来る。

Google Search By Voice

これは新しい機能ではなく、グーグルは2年近く前に音声検索機能を導入していた。しかし、iPhoneとアンドロイド向けのグーグル検索アプリと同じように、検索エンジンが音声で答える点が以前とは異なる:

how old is barack obama

検索結果が表示される:

how old is barack obama

時折、とりわけグーグルがナレッジグラフのデータを呼び出すことが可能な検索においては、直接の答え、または、情報「カード」(グーグルナウ(日本語)でデータを提示するアプローチ)が結果の上部に掲載される。

上の例では、「how old is Barack Obama」(バラク・オバマは何歳)と問いかけると、グーグルは答えをカードで提示し、さらにカードからオバマ大統領の年齢のカードを引き、[Balack Obama is 51 years old]と答えを音声で伝えてくれた。

会話を交わす

検索エンジンに話しかけられると、結果を音声で提供すると言う機能は、実にスタイリッシュであり、見事だとしか言いようがない。しかし、驚くのはまだ早い。なんと、代名詞や過去のクエリ内の情報を参照するその他の近道を活用し、さらに質問を投げかけて、検索による“会話”を継続することが出来る点こそが、この機能の最大の目玉である。これは通常の検索では考えられない。

例えば、上の検索を行った後に、[how tall is he](彼の身長は?)と問うと、次の答えが得られる:

how tall is he

「Barack Obama is six feet one inch tall」(バラク・オバマは6フィート1インチです)とテキストと一緒に再び音声で答えが返ってくる。しかし、私はオバマ大統領の身長を尋ねたのではなく、「彼の身長」を尋ねたのだ。グーグルは「彼」がバラク・オバマ大統領に言及している点を理解したことになる。

人間はこの点を容易に理解する。会話を交わし、会話の中で話した内容を把握し、既述した事柄 – 代名詞や前に登場した事柄を参照する近道 – を区別する。しかし、検索エンジンはこのような記憶を持たない。検索エンジンは、通常、それぞれの検索を以前の検索とは関連させることなく処理する。

「過去のクエリ」だけではない

グーグルとビングは「知的な履歴」を用意している。グーグルは2008年から過去のクエリの提供を行っている。ビングは、2011年からアダプティブ検索を提供している。この2つのサービスでは、過去に検索したクエリが事実上後続のクエリに追加されることがある。例えば、「new york」を検索し、次に「travel」(旅行)で検索をかけると、一部の検索は、ニューヨーク旅行に関する検索結果を表示させる可能性がある。

過去のクエリによる絞り込みは便利だが、会話型検索はそのさらに先を進んでいる。単純に後続のクエリに用語を加えるのではなく、言語を解析して、クエリを完全に理解することが出来るのだ。

「how old is Barack Obama」の検索を行った時、グーグルは、文字をマッチさせようと試みる2つのワードではなく、バラク・オバマが実在する人物である点を理解する必要があった。これは一年前に導入されたナレッジグラフ(日本語)がもたらした知性である。この知性は、「年齢」が、オバマに関する特定のデータに該当する可能性がある点を把握する上で貢献する。

次の検索が行われると、グーグルは、再び単純にワードをマッチさせるのではなく「he」が誰かの代名詞である点を理解しなければならなかった。その後、「he」が誰なのか考え、過去のクエリを確認し、それがオバマを参照している可能性があることに気づいた。最後にナレッジグラフに戻り、オバマ大統領の身長にマッチするデータを見つけ出した – つまり、グーグルは[tall]が身長を間接的に求めている点を理解したのだ。

実に難解なプロセスである。これは、自然言語処理であり、セマンティック検索と連動し、文の意味を正確に理解するための力である。データとページが、見えないところで全てつながっているのだ。

会話を続行

それでは会話を継続していく。次にグーグルに「who is his wife」(彼の妻は誰)と尋ねたところ次の答えが返ってきた:

obama's wife

「Barack Obama’s spouse is Michelle Obama since 1992」(バラク・オバマの配偶者は、1992年からミシェル・オバマです)。グーグルは「his」がバラク・オバマに言及し、[wife]がナレッジグラフで調べることが可能なデータのリクエストであると理解し、答えを出したのだ。

さらに会話を継続してみる。次に「how old is she」(彼女は何歳)と尋ねてみた。すると、次の答えが返ってきた:

グーグルの答えは[Michelle Obama is 49 years old](ミシェル・オバマは49歳です)であった。この答えを得るため、グーグルは最初の質問から延長された3つの先行するクエリを理解した。

残念ながら、この一連の動きを適切にとらえることが可能なソフトウェアをインストールしていないため、直接見せることは不可能だが、これから説明していくように、皆さん自身で試してもらうことは可能である。それでも、次のアニメーション画像を見て頂ければ、何となく分かってもらえるのではないだろうか。

conversational search

これは、先週グーグルI/Oで行われた会話型検索のデモの最中に撮影したスクリーンショットである。

完璧ではないが素晴らしい

会話型検索は常に適切に動くわけではない。さらに会話を続けていくと、失敗する確率が高くなる点に私は気づいた。予想に反して質問に対する答えが返ってこないときもある。事実、上の例にある4つのクエリで構成される検索で正しい結果を得るまでに数回試さなければならなかった。

グーグル I/Oでこの製品を直接試し、参加者と話をしている時、グーグルはこの点を認めていた。クロームでのサポートを正式に発表していたら(現時点では正式な発表はなく、そっとリリースされている)、バグを警告する注意書きが掲載されていただろう。

エンジニアやその他の製品のスタッフは、私が目の前でテストを行い、バグに遭遇すると顔を歪めていたが、私は正常に動く頻度の高さ – そもそも正常に動いた事実 – に感動していた。さらに改善していってもらいたいものだ。

誰 & どこに基づいて提供される答え

グーグルはユーザーの場所を把握しているため、または、個人情報の一部にアクセスすることが出来るため、一つの質問から、実際に述べた情報を越える答えを得られることがある。

天気が良い例だ。[Will it rain tomorrow?]と尋ねてみた:

newport beach weather

すると、グーグルは「No, rain is not expected tomorrow in Newport Beach. The forecast is 70 degrees and cloudy」(いいえ、ニューポートビーチでは雨が降るとは予想されていません。予想気温は華氏70度で、曇になる見込みです)と答え、天気予報を表示した。私は自分の居場所も教えたわけでも、天気予報を求めたわけでもないが、グーグルは私の場所を把握し、雨が天気に関連していると理解し、素晴らしい答えを提供してくれたのだ。

Gメールのフィールドトライアル(Gメール以外の情報も含まれているため、名称として相応しくない)を介して、個人情報へのアクセスを認めているなら、[what’s happening today](今日の予定は何?)等の検索を行うと、スケジュールが表示される:

calendar

スケジュールを音声で伝えるわけではないが、- グーグル自身のサービスを使うことに抵抗がないなら – 称賛に値すると言えるだろう。グーグルカレンダーやGメールを利用していない場合、ユーザーエクスペリエンスのレベルは格段に下がる。

「カード」以外 & 音声で答えが提供されない結果もある

答えは、オバマ大統領のクエリで紹介した情報カードから必ずしも得られるわけではない。例えば、「places to eat in San Francisco」(サンフランシスコで食事をする場所)と尋ねてみるとグーグルから次の答えが返ってきた:

restaurants

グーグルは、「There are several listinsg for restaurants near San Francisco」(サンフランシスコ近郊のレストランに対するリスティングが幾つかあります)と音声で答え、地域のレストランのレビューを表示した。レビューは音声で紹介されなかった。

同様に[Newport Beach]と語りかけると、[Here is some information about Newport Beach](ニューポートビーチに関する概要です)と答えるものの、実際の結果は音声では紹介してくれなかった:

newport beach

グーグルは、右側のナレッジグラフボックスを使ってニューポートビーチの詳しい情報を読もうともしなかった。オバマ大統領に関する音声検索では、この程度の手間は惜しまなかった。

当然だが、デスクトップでは、情報を読んでもらうことが便利だとは言い切れない。事実、音声検索は、2年前に導入された頃、とりわけオフィスで仕事をする人達にはいまいち受けが良くなかった。レスポンスを読んでもらう機能は確かに高度な技術だが、モバイルデバイスとは異なり、デスクトップでは必ずしも便利だとは言えない。

待ち遠しい音声による起動 & OK グーグル!

音声で会話型検索を起動することが出来るようになれば、利便性は改善されるかもしれない。この機能は今回のリリースには含まれていない。

音声起動検索では、コンピュータは「ホットワード」 – 恐らく先週デモが行われた「OK グーグル」を聞くと、ユーザーが検索を実行しようとしている点を把握する。

そのため、キーボードが存在しない環境で、検索を実施する必要がある場合、「OK グーグル バラク・オバマは何歳?」と話しかけると、コンピュータは自動的に検索を行ってくれる。

それでは、コンピュータは常に耳を傾けているのだろうか?グーグルによると、現在、このシステムを動かす仕組みを開発しているようだが、グーグルのホームページ、または、検索結果ページにアクセスしている際にのみ耳を傾けるブラウザのエクステンション等が採用されるのではないだろうか。 また、コンピュータが耳を傾けている時、実際にグーグルに送信されるのは、「OK グーグル」コマンドの後のクエリのみだとグーグルは明言している。

今後その仕組みが明らかになっていくだろう。会話型検索が、移動時に実行可能な取り組みを深くユーザーに理解してもらうための訓練場としてデスクトップを位置づけ、ユーティリティとしてモバイルに残るのかもしれない。

また、会話型検索サービスが、現在とは異なる方法で、先行する検索を用いて、より会話を意識したスタイルでクエリを入力するきっかけを与える可能性もある。

「会話」モードは入力では動作せず

現時点では会話型検索サービスは、クエリを入力すると動作しない。これは会話型検索がもたらす大きな違いである。

試しに、バラク・オバマ関連のクエリを音声ではなく、文字を入力して検索してみよう。次のイメージをご覧になれば分かるように、「身長」を問うクエリで白紙に戻ってしまう:

how tall is he

入力しているために会話型検索モードではなくなり、グーグルは「he」が誰に言及しているのかを特定する試みを止めるため、トム・クルーズとジョニー・デップに関する答えが代わりに表示されている。

自分で試してみる

先程も申し上げた通り、グーグルは会話型検索のリリースを正式に発表しているわけではない。しかし、実際に利用することが可能である。アンドロイドセントラルは、クロームの最新版を利用しているユーザーはこの機能を利用することが出来ると指摘している。そのためこの機能を使うためには、アップデートする必要がある。クロームの設定画面にアクセスし、次にヘルプを選択する。すると、最新版がインストールされているかどうかの確認が行われる。

Macでは、アップデートを行った結果、バージョンは27.0.1453.93になった。奇妙にもクロームブックでは、バージョン26以降にアップデートすることが出来なかった。ウィンドウズ 8のコンピュータはまだ確認していない。

参考までに伝えておくが、これはグーグルナウではない。確かに似ており、また、クローム/デスクトップ向けのグーグルナウはいずれ登場すると見られているものの、会話型検索からは、グーグルナウ(日本語)が提供する推測検索結果を得ることは出来ない。

いろいろ試してみよう。検索マーケッターにとっては、クエリが検索の意図を表現しなくなるため、とても一般的な用語でユーザーがウェブサイトを探し出す、全く新しい世界を垣間見るチャンスである。

皮肉にも、不評であったここ1~2年の「不透明なグーグル」の方針 – ログインしたユーザーが検索した用語を(広告主以外には)明かさない方針 – は、ユーザーがグーグルと“会話”するため、ユーザー自身が正確な用語の提供を差し控える状況への対応をトレーニングする格好の機会になっている。

検索エンジンのユーザーにとっては、検索の習慣を根本的に変える可能性がある大きな飛躍である。今後は、様々なタイプのトピックに対する答えを得るために昔から頼りにしてきた「親友」に対して、違和感なく話しかけることが出来るようになるだろう。

グーグルの競合者にとっては、新たに対応しなければならない難問がまた一つ増えたことになる。グーグルナウは既に検索を巧みに推測する取り組みに成功している(日本語)。現在、グーグルの会話型検索は、ユーザーにサービスを試してもらい、また、ユーザーが「今日の予定」等を検索エンジンに尋ねることが出来るように、グーグルのその他のサービスを介してより多くの個人情報を共有してもらおうと試みている段階である。


この記事は、Search Engine Landに掲載された「Google’s Impressive “Conversational Search” Goes Live On Chrome」を翻訳した内容です。

Google NowGoogle Glassサーチと革新的なサービスを送り出している最近のGoogleですが、またもやってくれたという感じですね。路線的にはどれも関連していると思いますが、次世代検索の幕開けといった感じですね。しかしGoogle以外のプレイヤーが黎明期の検索エンジン市場と違って余りいないのも残念というか怖いというか。MicrosoftとAppleに頑張ってもらうしかないのですが、、、さてさて。 — SEO Japan [G+]

Amazon、巨大温室のようなバイオ・ドーム付き新本社の建設計画を発表―すぐ近所に立派な公園もあるんですけど

Amazonは未来的な本社ビルの建設計画を関係当局に提出したと報じられている。この計画では高層タワーに加えて半球形の温室のようなバイオドームが3棟併設される。このドーム内では多様な植物が育てられると同時に、公園のような環境で社員が働けるよう、オフィスおよび各種福利厚生施設が設けられる計画だという。

これがその計画案だ(最初に報じたのはGeekWire)。一般的に言って、たいへん洒落ていて未来的で、さらに流行に乗っている。

つまりAppleもだいぶ前になるが、宇宙船オフィスの計画を発表しているし、他の大手テクノロジー企業もオフィスに社員を引き止めておくために非常な努力を払っている。 最近もMarissa MayerがYahooの服務規程を改定してYahooの社員の在宅勤務を禁止して大きな話題になった。その後Yahooは昔ニューヨーク・タイムズの本社だったタイムズ・ビルに広いスペースを借りた。聞く所では、タイムズ・スクエアを見下ろすこのオフィスには、700人の社員を収容することができるという。

現在Google、Apple、Facebook、Amazonというテクノロジー企業のトップ社が期せずしてオフィス環境の整備に力を入れている。

Googleのオフィスはマウンテンビューの本社にせよ、ニューヨーク・オフィスにせよ、一流シェフが腕をふるう無料の食事が用意されるなどまずは最良の職場環境といってよいだろう。Appleはスティーブ・ジョブズの最後のビッグ・プロジェクトである空飛ぶ円盤のような新本社の建設に取り組んでいる。FacebookもGoogleと同様、チェス、ビデオゲーム、バスケット・コート、無料ランチなどの福利厚生をふんだんに提供している。

そういう次第で、第四の騎士たるAmazonも優秀な社員を引き止めておくためには何か手を打たねばならないと感じ始めたのだろう。誰にとってもよいことだ。社員は快適な環境で働くことができるし、雇用者は社員の能率が上がれば十分に投資の元が取れる。

とはいうものの、Amazonの場合、たった3ブロック先に完璧な公園があるのだが。

Here’s the full set of plans:

Amazon's new HQ design by John Cook

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Androd版Google Drive、カードスタイルの新デザイン。OCR付きスキャナー機能も追加

Google DriveのAndroidアプリがつい先ほど全面デザイン改訂され、Google Nowライクなカードスタイルのルックスになった。

この新デザインは、Googleが以前よりすっきりしてシンプルになったと言っており、最初にユーザーの目に止まる部分だろうが、アプリには新機能もいくつか加えられている。殆どは、ファイルをAndroid端末にダウンロードできるなど小さな機能追加だが、新しいドキュメントスキャン機能は、Google Driveに全く新しい利用場面を提供するものだ。

スキャナーツールは「Add New」メニューの中にあり、レシート、手紙、請求書などの紙書類を簡単にPDFに変換できる。Googleの高度なOCR技術によって、後で検索することも可能だ。これは明らかにEvernote的であり、果たしてGoogleが今後のアップデートでさらにこの方向へ進むのかどうか興味深い。

新バージョンではGoogleスプレッドシートの編集操作も改善された。フォントのタイプやサイズ、セルのテキスト色や配置をアプリから設定できるようになった。また、Googleのクラウドプリントもようやくサポートされた。

[原文へ]

(翻訳:Nob Takahashi)


Android版Chrome、全画面モードを追加、オムニボックスからの検索を簡易化。iOS版にも音声検索追加へ

Chrome 27のデスクトップ版が昨日公開され、今日(米国時間5/22)Googleは、Andorid版Chromeもバージョン27にアップデートした。デスクトップ版のアップデートは主として性能改善だったが、Android版には新機能がいくつか追加された。一番大きいのは、スマートフォンの全画面モードだろう。iPhoneアプリ(あるいはかつてのAndroidブラウザー)と同じように、スクロールダウンするとツールバーが消える。

さらにこのバージョンでは検索体験がいくらか簡易化された。オムニボックスから検索した際「検索クエリがオムニボックスに表示されたままになるので、編集が容易になり、検索結果の表示が増える」とGoogleは言っている(下図参照)。

Googleでは類似の機能をデスクトップ版Chromeでも実験している。これは、オムニボックスを事実上Google.comの検索フォームに変えるものだ。これまでは、表示を検索結果のURLに切り替えてから、検索結果ページ上に検索インターフェースを再現していた。デスクトップでは、新しいやり方はいつも私を混乱させるのだが、画面サイズの制約を考えれば、これでスクロールせずに検索結果を何行か余計に表示できるのだろう。

他にこのアップデートで加わった新機能には、クライアント側認証(企業のイントラネットに接続する際によく必要になる)とタブレット版でのタブ履歴(戻るボタンの長押しでタブ履歴を見ることができる)がある。

iOSはどうなるのか?

iPhoneおよびiPad版Chromeにも近々音声検索が追加されると今日Googleが発表した。公開は数日以内の予定で、ユーザーは「ローマの天気は?」「サンアントニオからダラスまでは何マイル?」などの質問ができるようになるだろう。

[原文へ]

(翻訳:Nob Takahashi)


Googleが提供するIDE Android Studioとアプリ展開に便利なデベロッパコンソール

Android Studio IDE

今年のGoogle I/Oデベロッパカンファレンスでは、アプリデベロッパのための一連のツールも発表された。その中には、Android Studioと呼ばれる新しいデベロッパスイートもある。それは、IntelliJ IDEA〔の無料版Community Edition〕をベースとするIDEだ。

この発表はカンファレンスの会場でも高い関心を喚び、ステージ上にスクリーンショットが映し出されるたびに“オォ!”とか“アァ!”という喚声が上がった。

このツールにはAndroid開発のためのいろいろなオプションが盛られていて、開発過程を迅速化し、生産性を高める。たとえば“ライブレイアウト”機能は、コードをエディットしているときリアルタイムでそのアプリの画面を表示する。

画面のサイズとレイアウトは、3.7インチの携帯電話や10インチのタブレットなど、さまざまに変えられる。これはアプリの国際化のために便利であり、アプリを実機にインストールしなくてもルックスが細部まで分かる。

Googleは、Android Studioに関しては今後の“ビッグプラン”がある、と言っている〔現状はプレビューバージョン〕。

デベロッパコンソールと段階的展開

Studioの発表のあとには、デベロッパがアプリをベータテスターたちの手に渡すときの便利機能が紹介された。その過程は、これまでは少々厄介だったが、これからは専用のコンソールからベータユーザたちとアプリの段階的展開過程の両方を管理できる。

GoogleのプロダクトマネージャEllie Powersがこの新機能を共有し、Googleとしての収益化の方法についても述べた。上図のように、デベロッパコンソールには最適化チップやアプリ多国語化のための翻訳の支援なども含まれる。たとえばロシア語をセレクトするなど、翻訳機能とその結果の利用も、コンソール上でできるし、またGoogle翻訳以外のプロの翻訳サービスベンダも紹介される。

アプリのプロモートキャンペーン機能(有料)を利用すると、そのアプリをダウンロード〜インストールした個々のユーザを追跡でき、インストール後の利用状況も分かる。利用状況の数値も、コンソールに表示される。

●Android Studio Googleオフィシャルページ
●Android Studio試用記(Eclipseよりも良い、と)
●Android Studio Windows 7上のインストール(環境変数JAVA_HOME or JDK_HOMEの設定など)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


検索の未来が変わる?!グーグルグラスの検索機能を徹底解剖

試用版のレビューがウェブで投稿され発売も時間の問題とされるGoogle Glass、今回はその検索機能の焦点を当てたサーチエンジンランドの記事を紹介します。様々な用途に使えるGoogle Glassですが、サーチマーケッター的に気になるのが検索との連動性。検索の未来を変えるかもしれない?!その機能を今から徹底解剖。次世代の検索革命を今から体感してみませんか? — SEO Japan

ok-glass-240グーグルグラスの「エクスプローラ」版には7つの音声コマンドが搭載されている。6つのうちの2つは検索に関連している – [google]と[get directions to](~へのルートを調べる)。その他の音声コマンドは、[take a photo](写真を撮影する)、[record a video](動画を録画する)、[make a call to](~に電話する)、そして、[start a Hangout with](~とハングアウトのチャットを始める)である。

また、グーグルナウを経由した予測検索機能も搭載されており、グーグルグラスは、ユーザーが求めているとグーグルが考える情報を自動的に表示する。

そのため、グーグルグラスを使ったアクティビティの多くには、検索が関係する可能性は高いと言える。因みにグーグルはこの行為を「googling」(グーグルする、または、ググる)と呼んでいる。グーグルは、「検索」の代わりに「ググる」を利用することに反対し、商標を守る試みを継続しているものの、グーグルグラスで初めて提供されるコマンドは、「検索」ではなく「google」であった。しかも、その他の音声コマンドと同じように小文字で綴られている。グーグルの法務部がこの方針を認めたことは意外であった。

グーグルグラスでの検索は、今までの検索の体験とは大きく異なる。次のように、グーグルグラス自体が大きく異なるためだ

  • グーグルグラスにウェブブラウザが用意されていないため、ナビゲートするものがない。
  • グラスでの検索は、ウェブページを探すためではなく、情報を探すために内蔵されている。

この違いは、検索の仕組みに大きなインパクトを与える。

グーグルグラスを使って15分間検索をしただけで、ナレッジグラフグーグルナウ、そして、その他の検索ツールにおけるグーグルの取り組みの価値を大いに理解することが出来た。グーグルがここ数年の間に力を入れていた検索の取り組みの多くは、グラスで真価を発揮しており、ストリートビューやおみせフォトがグラスに統合されるようになれば、さらにパワーアップするはずだ。

現在、グーグルグラスで検索を行っても、伝統的な10本の“青いリンク”もなければ、スマートフォンでの閲覧時に表示される2-3本のリンクさえも表示されない。ユニバーサル検索の結果は提示されるものの、例えば、画像の結果とニュースの結果の違いは分からない。サイトリンクもない。リンクが1本も存在しないのだ。

それでは、グラスで検索を行うと何が表示されるのだろうか?

Cards(カード)である。

それぞれの検索結果は、その他のグラスの情報と同じように、「カード」として表示される。ディスプレイは基本的に白黒だが、スニペットと結果を区別するため、フォントには差がつけられている。また、大半の結果/カードにはソースのURLが掲載されている。

グーグルグラスでの検索の仕組み

グラス経由の検索において、第一に理解しなければならないのは、キーワードが存在しないため、検索が音声で起動する点である。「okay glass」、次に「google」と話しかけ、検索スクリーンを表示させる。

glass-googling-searching-voice

私の知る限り「google」は検索を稼働させる唯一の方法である。「okay glass、search」ではなく、「google」と述べ、次に検索クエリを伝える必要がある。

幸いにも、グーグルの音声認識の性能はとても高い – しかし、完璧ではない。先日、フィラデルフィアに出張した際にある問題に遭遇した: 「Estia」と言う名前のレストランを私は探していたものの、グラスは私がS、T、Aと言っていると勘違いし、- それが何であれ、あるいは、誰であれ – 「St. A」に対する結果を提示した。もう一度、今度はより細かくフレーズを指定して試したところ、求めている情報が表示された。

その次に知ってもらいのは、グーグルグラス日記の1通目でも指摘した通り、グラスは、長時間のコンテンツを見ることを目的として開発されたわけではない点だ。グーグルのI/Oカンファレンスで、グラスの製品ディレクターを務めるスティーブ・リー氏は、グーグルグラスに適するコンテンツのタイプについて次のように述べていた:

「グーグルグラスは、映画を最初から最後まで見る行為や本を読む行為のために作られたわけではなく、私達がマイクロインタラクションと呼ぶアクティビティを考慮して開発されている。早く、簡潔なユーザーエクスペリエンスを基調としている。」

早く、簡潔なアクティビティ。つまり、大量の検索結果ページを再現するのも – そして、読むのも苦労する。検索はグラスの重要な機能の一つではあるものの、これから紹介していくように、特定のタイプの検索を考慮してグラスは作られている。

(エクスプローラはグーグルグラスの1作目であり、今後、様々な変更が加えられていくはずである。事実、グラスを手にした時、グーグルのスタッフは、エクスプローラは、一般向けの販売を行う前にテストを行い、デバイスを改善するための試作品だと説明していた。そのため、これから紹介する内容が、今後のグラスの仕組みとは異なる可能性がある点を理解してもらいたい。間違いなく改善されるはずだ。)

ナビゲーショナルクエリ

米国では「Facebook」が、4年間連続で最も多く検索されている。

グラスに「google facebook」とコマンドを送ると、合計で14枚のカードが表示される(1つの結果につき1枚のカード)。以下にFacebookに対して表示されたカードのうち最初の3枚を掲載する。

glass-facebook-1

glass-facebook-2

glass-facebook-3

同じクエリをグラスベースの検索とデスクトップの検索と比べてみたところ、1-8位までは順位は変わらなかった。9位以降の6つの結果は、色々なアイテムが混ざっており、デスクトップとはかけ離れていた。グラスは、デスクトップでは30以内にランクインしていない結果/カードを幾つか表示している。また、デスクトップで関連するキーワードとして提示されるMySpaceのカード、そして、ツイッターのカード(デスクトップでは関連するクエリに含まれていない)も提供している。

このような結果は役に立たず、ナビゲーショナルクエリに関しては高い評価を与えることは出来ない。繰り返すが、これはグーグルグラスが、ウェブを閲覧することを考慮していないためである。

インフォメーショナルクエリ

グーグルグラスは情報を見ることを意図して作られており、インフォメーショナルクエリに対しては、役に立つ結果を提供すると思われる。事実、役に立つ結果を得ることに成功した。

Albert Einstein

「Albert Einstein」で検索を行うと、7つの検索結果/カードが表示された – 全てのカードには、グーグルのナレッジグラフのエントリと全く同じ情報が掲載されていた。

glass-einstein-1

1枚目のカードを見ていると、グラスはコンテンツを読み/話し始める。別のカードを見ていても、1枚目のカードを読み続ける。声はロボット調だが、Albert Einsteinに関する情報を求めるユーザーにとっては適切な対応だと言えるだろう。その他の6つのカードを一つの画像にまとめておく:

デスクトップのナレッジグラフとは異なり、グーグルグラス版の結果は、詳細を得るためのクリックすることが可能/話かけることが可能なリンクが用意されておらず、「People also search for」の結果は含まれていない。しかし、違いはこの2点だけである。

U2

アインシュタインは難易度の低い結果である。アインシュタインのナレッジグラフはテキストおよび情報で構成されているためだ。それでは、デスクトップのナレッジグラフではスクロール可能な楽曲のリスト等、テキスト以外のアイテムが用意されている結果に対して、グラスはどのように対応するのだろうか? 以下に「U2」の検索結果を掲載する:

「U2」と言ったつもりが、グラスは「you too」と勘違いしてしまった。全く同じ音に聞えるのは当然であり、グラスを責めるべきではない(U2は昔のバンド名を変えるべきではなかったのかもしれない – FeedbackやHype等)。事実、求めるクエリの検索結果を表示させるため、私は複数のアプローチを試みなければならなかった。

一時、グラスは、私がYouTubeを求めていると考えていた。

glass-youtube

私は「capital U number 2」(大文字のU、数字の2)や「letter U number 2」(文字のU、数字の2)等も試したが、どれも失敗に終わった。また「u2 rock band」も試してみたが、駄目だった。グラスは、音楽ゲームのRock Bandを私が検索していると勘違いした。

glass-rockband

このように様々なアプローチを試してみたものの、求めている結果は得られていない。

ウィズでもウィズアウトでも、グラスでは検索は不可能だと思うようになった。

まさにRunning to standstill(行き詰ってしまい)、Stuck in a moment You can’t get out of(抜け出せない)状況であった。

Vertigo(めまい)がしてきた。

その後、Beautiful day(状況が好転)した: 「band U2」が功を奏したのだ。

glass-u2

glass-u2-2

再びグラスはデスクトップのナレッジグラフと全く同じ情報を提示するカードを提供した。しかし、幾つか例外が見られた。最後のカード、Awardsは、グラスではスペースが限られているために割愛され、また、デスクトップでは提供されているリスト全体を見ることは出来なかった。さらに、思った通り、グラスの結果には、デスクトップでは表示される「Songs」や「Albums」のセクションは存在しなかった。

Space Needle

さらに別のインフォメーショナルクエリの結果を試してみた – このクエリでは全く予想していなかった結果が表示された。「Space Needle」(シアトルにあるタワー)で検索を行うと、グラスは情報ではなく場所に焦点を絞ったカードを表示した。

glass-space-needle

カードをクリックしてルートを引き出すことも、Space Needleに電話をかけることも出来るが、情報を得ることは出来なかった。同じクエリのデスクトップのナレッジグラフは、情報と場所の双方を掲載しているものの、情報に若干力を入れているように思える。

space-needle-knowledge-graph

グーグルグラスはモバイルデバイスであり、通常の検索よりもルート/場所を利用するケースが多いと考えられるため、グラスは、このタイプのクエリに対して、場所を優先するように設定しているのではないだろうか。私自身がSpace Needleがあるワシントン州にいる事実が、表示される結果に影響を与えているようには思えない。実際に「Mount Rushmore」(サウスダコタ州)をグラスで検索したところ、情報ではなく、地図がデフォルトで表示されていた。

トランザクショナルクエリ

グラスが「buy seatle mariners tickets」(シアトルマリナーズの試合のチケットを購入)等のトランザクショナルクエリに向かない点は、明白である。グーグルグラスは、ナビゲーショナルクエリと同じように、トランザクショナルクエリを処理するために開発されたわけではない。

glass-seattle-mariners-tickets

グラスは10枚のカードを提示してくれたが、話す、または、クリックすることが可能な結果は一つもなかった。上の画像は1枚目のカードであり、公式のマリナーズのチケット販売ページが反映されている。

グーグルグラスでグーグルナウ

グーグルナウは、グーグルグラスでもその他のモバイルデバイスと同じように動作する。メインの「ok glass」ホームスクリーンの左側には、グーグルナウ経由の情報を提供する複数のカードが用意されている。本日の太平洋時間午前11時の時点で、グラスは2枚のグーグルナウのカードを表示していた:

glass-google-now-sports

glass-google-now-weather-1

天気のカードの右上の白い三角形は、クリックして「サブカード」にアクセスすることが可能である点を示しており、実際にクリックすると、グーグルナウはとてもベーシックな3日間の天気予報を提供してくれる。

glass-google-now-weather-2

グーグルナウは、基本的には速やかに情報を提供するものの、今朝、マリナーズのカードは、試合が始まってから40分間経過してからようやく動作し始めた。2イニングまでは、昨夜の試合の結果が表示されていた

先日フィラデルフィアとサンフラシスコで車を運転している時、グーグルナウは、私が向かっているとグーグルが考えた場所の名前のカードを表示した(タップしてルートを知ることが出来る)。しかし、どちらの場合もグーグルの推測は誤っていた。

それでも、グーグルナウが提供するスポーツ関連のカードは気に入っている。先週、東海岸に滞在し、グーグル I/Oカンファレンスに参加している際に、タップ & スワイプしてマリナーズの試合結果を楽に把握することが出来た。

結論

検索を実行すると、グーグルグラスの現時点での弱点が浮き彫りになるものの、手っ取り早く、情報を得ることが出来ると言う長所もまた際立っている。検索を行うことで、グーグルグラスとは何か、そして、何を意図しているのかを再認識することが出来る。

グーグルグラスは、(写真や動画等の視覚機能を持つ)モバイル情報デバイスである。ナビゲーショナルクエリやトランザクショナルクエリを考慮して作られたわけではない。そもそもウェブブラウザ自体が存在しない。ウェブページではなく、情報を探すことを念頭に置いて開発されているのだ。また、グラスは、情報がグーグルのナレッジグラフに含まれている場合、巧みに情報を探し出す傾向が見られる(先程挙げたSpace Needleの問題は、複数のカードを提示することで容易に解決することが出来る – 場所のカードと情報のカードを提示し、ユーザーに欲しいアイテムを選ばせればよい)。また、- グーグルナウを介して求めている情報 – 推測検索の質も高い。

グーグルグラスは、ローカル検索とナビゲーションを主に意図して開発されている。次回のグーグルグラス日記でこの点を詳しく説明していく。乞うご期待。


この記事は、Search Engine Landに掲載された「Google Glass Diary, Part 3: How Search Works On Google Glass」を翻訳した内容です。

キーボードで文字入力するわけではありませんし、音声認識で検索する難しさというのは確かにあるのでしょうね。U2の事例がそうですが、音声検索のコツを覚えてしまえば意外と違和感ないのかもしれませんが。ナビゲーション、インフォメーションでの用途が大半なのでしょうが、いずれはトランザクションまで簡単に行えるようになるのでしょうか。この部分は検索経由というよりはグラス自体にコマース機能が搭載され、それを利用する、という形に進化していくのかもしれません。従来の(スマホ/タブレット含む)ウェブ検索を置き換える存在には当面なりそうもないですが、検索の未来を確実に感じさせてくれるレベルの機能は最初から搭載されているようですね。Google Glass、その発売が待ち遠しいばかりです。 — SEO Japan [G+]

Googleトレンドに「月刊トップチャート」が登場―急上昇キーワードのビジュアルなアニメ速報も

毎年Googleは各ジャンルの年間トップ検索キーワードをZeitgeistとして発表しているが、今回、トップチャートとして月間のトップ検索キーワードをまとめたページがGoogleトレンドの新しいセクションとして公開された。 この順位はGoogleの知識グラフが利用されており、キーワードの単なる検索回数という以上に一般ユーザーの関心を的確に集約したものとなっているということだ。

チャートは、ミュージシャン、俳優、テレビ番組、動物、薬、ウィスキーなど多様なジャンルが網羅されている。メインのページには相対的な関心の度合いを表す棒グラフと上昇中か下降中か表す矢印つきで表示される。現在トップチャートには40のセクションが用意されている。

さらにGoogleはクールな全画面アニメ方式のホットな検索キーワードページを発表した。カラフルな背景に大きな文字でその瞬間にもっとも人気のあるキーワードが表示される。対象となる国を選ぶこともできる〔上のスクリーンショットは日本のもの。キーワードをクリックするとメインのGoogle検索結果ページにジャンプする。たとえば『ポテトスナック』をクリックすると「販売終了を惜しむ声」というニュースが表示される〕。また左上の格子型のアイコンをクリックすると最大25件までのキーワードを同時に見ることができる。

Googleトレンドのトップページは左サイドバーにこれらのセクションへのリンクが表示され、右側メイン・ページには急上昇キーワードが詳しくリストされる。従来とくらべてさほど大きく変わったわけではないが、UIデザインが見やすくなり、更新も速くなったようだ。メディアや広告関係者のように現在どんな現象が一般の関心を集めているのかをリアルタイムで知りたいユーザーには大いに助けになるだろう。もちろん単なる好奇心から覗いても面白い。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Google Cloud PlatformはAWSなどとどこが違うのか

先週のGoogle I/Oで一般公開が発表されたGoogle Cloud Platformをめぐって、誤解があるようだ。しかしそれは、今度できた新しいプラットホームではない。むしろそれは、Googleがこれまで何年も使ってきたものだ。それは、Googleの基盤だ。それは、GoogleをGoogleたらしめているものだ。そしてそれが今初めて、デベロッパや企業に公開されようとしている。

Google Platformは、誰もがそれを利用できるようになったという点が新しい。これまでは、限られた人たちしかアクセスできなかった。

Google Cloud Platformが公式にローンチしたのは、昨年のGoogle I/Oでだ。だからまだ、Google I/OのようなイベントではGoogleの新しいサービスであるかのように騒がれる。しかしその機能集合は、Amazon Web Services(AWS)に比べると見劣りがする。サービスレベルアグリーメント(service level agreement, SLA)の深さでは、Windows Azureにかなわない。PaaSを導入しようとしている顧客には、ほかにも、Openshift、Red Hatといった選択肢があり、自社でオープンクラウドを構築したければOpenStackがある。ほかにも、IBM、HPなど、選択肢は数多い。

では何がGCPの強みか?

しかしGoogle Cloud Platformには、他にない強みが一つある。それは、企業が自分のデータセンターをそこに接続すれば質問の答が数ミリ秒で得られるネットワークだ。Googleが、3D地図や翻訳APIやGoogle Glassなどを提供できるのも、そんなネットワークがすでにあるからだ。

Google I/Oの分散データベースセッションのパネルでMongoLabの協同ファウンダWill Shulmanは、“それは猛烈に速い”、と言った。“顧客企業はインターネットに直接接続するのではなく、データセンターをGoogleのプライベートな分散バックボーンに接続するのだ”。

ネットワークが高速であることは、いくつかの重要な違いをもたらす。Google Compute Engineでは計算処理とストレージがそれぞれ別だが、ネットワークの速度が速いためにユーザは一つのもののように感じる。一台の、巨大なスーパーコンピュータを自分のプログラムから使っているような感覚だが、実はそれは数千台ものサーバに分散しているコンピューティング&ストレージサービスなのだ。

また、ネットワークが速ければ、一定時間内に処理できるデータ量も多くなるから、コストに関しても有利だ。

Googleの料金体系には、このようなネットワーキング効果が織り込み済みだ。そのやり方はクラウドプロバイダProfitBricksに似ており、ProfitBricksはInfniBandを使ってGoogleの10GBネットワークよりさらに大きな帯域を提供している。しかしそれでもGoogleのファイバネットワークとデータセンター最適化構成は、時間単位ではなく分単位の料金体系を可能にしている。

つまりGoogleのプラットホームでは、顧客がコアを倍にして、それまで1時間を要していたデータジョブを、同じ費用で30分で終えることができる。

Googleは、データセンターを生き物のように見ている。それらは孤立した島ではなく、接続されている。そのほかのデバイスやサーバや、ほかのデータセンターに、接続されているのだ。

サービスの実体がサーバではなくネットワークだとの認識から、Googleはネットワークに力を入れざるをえない。今や、世界はデータの群ではなく、データの織物(ファブリック)だ。しかし、ネットワーキングは高くつく。計算(CPU)コストとストレージコストがますます低下していく中で、ネットワーク費用はそれほど劇的に低下しない。昨年6月に行われたOpen Network SummitでGoogleのプロダクトマネージャAmit Argawalが、プレゼンでそう語った。

上のビデオでArgawalは、同じ10GBの接続パイプでも、合衆国国内の二地域間と、市場が急速に発展しているアジアの二か国間ではコストが大きく異なる、と言っている。デバイスは至るところにあり、今や使い捨て状態だ。スマートフォンを紛失しても、新たに買ってバックアップするのに30分もかからない。しかしデータはデバイスではなくクラウドにある。データに対するサービスはネットワーク上に住まう。だから、高速で対話的でなければならないのは、今やネットワークだ。ネットワークが速くないと、ユーザのエンゲージメントも滞る。高可用性が、このスタックのあらゆるレイヤに組み込まれていなければならない。

Googleではデベロッパの役割が大きい理由

ネットワーキングやそのほかの費用を抑えるために、Googleはオペレーションの最適化に絶えず努めている。インターネットのビジネスモデルは、無料または低額を要求する。したがってGoogleは、そのサービス上でデベロッパがアプリケーションを作る場合、それがGoogleの広告プロダクトの拡大に貢献し、Google Appsのようなローコストのサブスクリプションサービス(定額会費制サービス)であることを求める。

そしてそのためにGoogleがデベロッパを集める「場」が、Google Cloud Platformであり、そしてデベロッパたちはGoogleの明日の経営にも貢献するのだ。

Google I/OでGoogleは、デベロッパがGoogleのバックエンドを利用するために提供しているツールについて説明した。Google Mapsにも、Chromeにも、AndroidにもBigQueryにも、それらが組み込まれている。Google Glassも、いずれそうなる。

AWSにはリッチなデベロッパのエコシステムがあり、提供しているサービスもきわめて多様かつ深い。しかしAmazonにはGoogleのような自己同一性がなく、Google的なサービスのプロバイダでもない。AmazonになくGoogleにあるものは、デベロッパに提供できる豊富なデータ(とそれらを取り出すAPI)だ。それが、多くのデベロッパを抱える企業に対してもGCPの強力なセールスポイントになる。

たとえば分散データベース企業Cloudantなどにとっては、Google Cloud PlatformはAWSと並ぶ重要なコミュニティだ。“Google上のデベロッパは数が多いだけでなくどんどん増えている”、分散データベースパネルに同席した同社の協同ファウンダでチーフサイエンティストのMike Millerはそう語った。

Google App Engineは、デベロッパにとってのGoogleの魅力を象徴している。GoogleはGoogle I/Oで、Google App EngineでPHPをサポートする、と発表した。PHPを使ってWebサイトを構築している大量のデベロッパたちが、これからはGoogleを利用できることになる。3月にGoogleがTaleriaを買収したのも、動的(ダイナミック)プログラミング言語のサポートを拡大し、システムのスケールアウト(==分散化)のニーズに効率的に対応していくためだ。本誌のFrederic Lardinoisは、この買収についてこう書いている:

同社のサーバを使うと、アプリケーションのコードはそのままで、“より少ない台数でより多くのユーザを扱える”、という。また、“自分の好きな生産性の高い言語を使えるが、スケーラビリティとパフォーマンスはコンパイル言語並になる”、という。

そしてさらにGoogleは、Google App Engineの使いやすさの増大に努めている。たとえばバックエンドをサービスツールとして提供し(上述)、また管理機能の充実により、デベロッパがバックエンドのことを忘れてアプリケーションのコードに集中できるようにしている。

デベロッパでない人でもアプリを構築できるという“ヴィジュアルPaaS”サービスOrangeScapeなどにとっては、とくにこの点が重要だ。デベロッパから見ての、Google App Engineの利用インタフェイスの単純化、それにより同社はITチームの肥大を防げている、とCEOのSuresh Sambandamは言う。

Googleのネットワークは、一社が持つものとしてはおそらく世界最大だ。しかし同社の今後の最大の課題は、そのデータセンターの費用低減である。いわばGoogleは、同社のインフラストラクチャを公開してその分散ネットワークをより効率的に拡大し、しかもそれと同時に、多くのデベロッパを惹きつけてそのビジネスモデルをスケールしていかなければならないのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


2005年にスタートしたYouTubeは8歳へ。毎分100時間分のビデオを加えて成長中

YouTubeが8歳になった。もうそんなになるのかと思う人もいれば、もっと昔からあったんじゃないのかと驚く人もいることだろう。サービスがスタートしたのは2005年のことだった。マイケル・ジャクソンの児童に対する性的虐待疑惑について無罪が言い渡され、ランス・アームストロングがツール・ド・フランスで7度目の勝利を収め、そして人気テレビドラマのArrested Developmentが放送されていた時代のことだ。

振り返ってみれば、多くのことが当時とは異なったものとなっている。しかしYouTube成長の勢いというのは当時のまま、変わらないようでもある。YouTubeのアナウンスによれば、YouTubeへの動画アップロードの規模は、毎分100時間分以上となっているそうなのだ。書き間違いではない。毎分100時間分以上がアップロードされているのだ。60秒毎に4日分の動画がアップロードされているということだ。

もちろん、アップロードされているというだけでは、サービスの人気が高まっているということもできまい。供給に応じた需要があるのかどうかも重要な視点だ。YouTubeによれば、月毎の全世界からの閲覧者数は10億人を超えるのだそうだ。これはすなわちインターネットにアクセスできる人の半数程度にもなる数字だ。

成長の様子を示す数値を見ておこう。2年前、YouTubeは毎分48時間分のビデオがアップロードされていると言っていた。そして昨年はこれが72時間になった。そして、今回の数字だ。つまりYouTubeは誕生から8年を経て、未だに成長を続けるプラットフォームであると言うことができる。たとえば若年層が離れ始めているとか、ニッチを目指す新たなサービスに利用者を食われつつあると言われているのとは対照的だと言えるのかもしれない。

またYouTubeは、そのサービスが抱える膨大なアクティブユーザーやコンテンツを活用しようとするスタートアップにとっても注目に値するサービスとなっている。たとえば、Betaworksが展開しようとしている、膨大なビデオをキュレーティングして、モバイル環境における効率的な閲覧環境を提供するTelecastなどが良い例となるだろう。

本稿最後に、YouTubeの公式ブログでの投稿を如何に掲載しておくことにする。

8度目の誕生日を迎えることとなりました。YouTubeを使い、育ててくださったことに深く感謝いたします。投稿していただいたビデオが人々を繋げ、また国境を超えて広がっていき、新しいものを生み出していくのを見るのは、非常に面白い経験でもありました。YouTube上にあるもの全てが皆さんの好みに合致するわけでもないし、あるいは何を意味しているのかわからないものも多くあると思います。しかしそうしたこともありながら、大勢の方がYouTubeを楽しんでくださっています。世界規模で見ても、あるいは個々人の観点から見ても、YouTubeが面白い場所として育つことができたのは、利用者のみなさんのおかげです。皆さん自らが繰り広げる、YouTube上での新しい創造的行為を楽しみにしています。

原文へ

(翻訳:Maeda, H)


Google+のAndroidアプリは画像フォーマットを秘かにWebPにチェンジ, 帯域を50%節約

今日(米国時間5/17)のデベロッパカンファレンスGoogle I/Oにおける発表によると、約一か月半前にGoogleは、Google+のAndroidアプリの画像を、同社作のWebPフォーマットに変えた。今日のプレゼンテーションを行ったWebPとChromeリモートデスクトップ担当プロダクトマネージャStephen KonigとMake the Web FastチームのメンバーでChromeのデベロッパ情宣担当Ilya Grigorikによると、それにより使用帯域の50%が節約された。

Google+は言うまでもなく画像の多いサービスで、Androidは4.0以降WebPに対応しているから、かなり必然的な移行だとも言える。ただし、今後は、というか来年中には、WebPをGoogleのプロダクトのほとんどすべてに導入していくという計画がある。チームが今日のセッションで見せたスライドには、YouTubeやGoogle Image Search(画像検索)をはじめ、Googleの主なプロダクトのほとんどすべてが‘出演’していた(よく分からないのもあったが)。

この変更は外部に対し黙って行われた。今年初めのChrome Web Storeの場合もそうだった。チームが今日述べたところによると、StoreではWebPの利用によって画像のファイルサイズがPNGのときの約70%に減少した。

現時点でのWebPの問題は、圧縮率の改善で帯域の大きな節約になるとはいえ、AndroidとChromeとOperaしかサポートしていないことだ。そのほかのプラットホームでは従来どおりJPEGやPNGなどしか使えないし、WebPをあえて使うためにはデベロッパが工夫しなければならない。しかし今日の話では、来年はFirefoxもWebPをサポートするそうだ。いずれにしても担当チームとしては、建前上からもこのフォーマットの将来に関してきわめて楽観的であった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


全世界のスマートフォンの営業利益シェア: トップはApple(57%), Android世界でトップはSamsung(95%)

2013Q1の数字を見るかぎり、Appleは依然として利益額が最大のスマートフォンメーカーであり、同時にそれは、利益が最大のモバイルプラットホームでもある*。Q1のスマートフォンの営業利益総額125億ドルの57%をAppleが占めている。これを報じたStrategy Analyticsによると、Android全体の利益額シェアは43%、額面で53億ドルとなる。同社のチーフアナリストNeil Mawstonが、本誌にそう語った。〔*: iOSプラットホームはデバイスのメーカーが複数化していない。〕

Q1のスマートフォンの売上に関しては、複数のアナリストハウスがさまざま数字を上げているが、Strategy Analyticsが今回発表した数字は、それらと趣を異にしている。

たしかに、Androidはスマートフォンの売れ行きを支配している(Gartnerの先日の数字では、このGoogleのプラットホームが同じ三か月で台数ベースでは全売上の75%を占めている)。同じく台数ベースでは、SamsungがAppleとの差を広げ、スマートフォンの全売上の31%を占めている(Appleは18%)。しかしそれでも、利益では、高級ブランドを確立しているAppleを抜いてトップには立てない(これまでAppleが低価格機を出さなかったのも、ブランドイメージがその理由かもしれない)。

[表1]

[表2]

しかし話をAndroidに限定すると、営業利益におけるSamsungのシェアはとても大きい。同社の51億ドルの営業利益は、Android全体の営業利益の95%の相当し[表2]、またスマートフォン全体ではAppleの57%に次いで40.8%である[表1]。Nokia、BlackBerryなどのその他大勢は、全体でQ1の利益額が3億ドル、シェアは2.2%となる[表1]。

Samsungは昨年、一貫して成長を続けたが、そこには確実に利益も伴っていたということだ。1年前の同社のモバイル製品(スマートフォンとフィーチャーフォン計)の売上額は、わずかにAppleの半分にすぎなかったし、利益率も薄かった。

これらの数字は、今月初めに調査会社Canaccord Genuityが発表した数字とおおむね符合する(AllThingsDより)。違いは下位の部分のみで、Canaccord Genuityによると、上位二社以外のベンダは実質的には無に等しい。

たまたまGoogle I/Oが始まったばかりという時節だが、Strategy Analyticsの数字はAndroid世界におけるSamsungの、異常なほどの大きさを示している。同社の営業利益51億ドルはAndroid全域の利益の95%だから、かろうじてLGの2,5%を除けば、世界中のすべてのAndroidベンダが、利益を全部合わせても2.7%の“その他大勢”になってしまうのだ[表2]。

“効率的なサプライチェーンと無駄のない製品設計、そして切れ味の良いマーケティングが、Samsungの驚異的な高利益を支えている”、とStrategy AnalyticsのシニアアナリストWoody Ohは書いている。これと対照的に“LGはこの四半期に少額の利益を上げたが、規模が小さすぎるのでSamsungと互角に論ずることはできない”。

ではもっと小さなAndroid OEMは、どうしたらいいのだ。

Mawstonの考えでは、Androidから生み出している収益はSamsungの方がGoogleよりも大きい。モバイルの広告量もアプリの売上も、Samsungが上だろう。

“Androidプラットホームから上げている売上と利益は、SamsungがGoogleよりも大きいと思う”、と彼は書いている。GoogleのAndroid担当チーフSundar PichaiはI/Oのキーノートで、全世界のAndroidのアクチベーションが9億に達したと報告したが、しかしAndroidという車の運転席に座っているのは本当は誰なのか? 世界のスマートフォン市場を本当に牛耳っているのは?

“Samsungはその強力な市場支配力により、これからもAndroid世界の進むべき方向性に関し影響力を発揮し続けるだろう”、とMawstonは書いている。“たとえばAndroidの新しいアップデートなどは、他社に先がけてSamsungが要求することになるかもしれない”。ソフトウェアに関する要求がSamsungという一介のベンダから来た場合でも、これからのGoogleは、それに抵抗して、従来と同じく完全平等公平なモバイルプラットホームを維持し続けることが、難しくなるのかもしれない。

なお、Strategy Analyticsによると、これらの数字にはタブレットはいっさい含まれていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Mapsで仮想スカイダイビングを体験しよう: Google I/OのChromeデモより

今年のGoogle I/Oで、けっこうおもしろかったのが、仮想スカイダイビングないし“スカイダイビングのシミュレーション”だ。8台のコンピュータの上でChromeが動いていて、それをASUSのXtion ProというKinectふうのモーションセンサーが制御する。この“Maps Dive”〔仮訳: “Google Mapsでダイビング”〕と名付けた実験は、ポートランドのデジタルエージェンシーInstrumentの作品だ。

デベロッパのBen Purdyの説明では、これはChromeで何ができるか、ということのデモとして作られた。ご覧のように、最新のゲーム用高級機ではなく、そこらの安価なマシンの上でLinuxと、Webデベロッパなら誰もが知っているコード…Chromeブラウザ…を動かすだけで、マルチディスプレイ上の見事なレンダリングができるのだ。

Maps Diveから得られる体験は、本物のKinectゲーム並に精密で、感度〜反応もよい。Purdyによるとこれは、誰もが持ってるようなコンピュータで今はこれだけのことができる、ということを示す、初期的な例にすぎない。モバイルデバイスについても、同じことが言える。Web技術とChromeの現時点の到達点を見るかぎり、これからは低価格のChromebookやAndroidタブレットでも、すごい表現が可能だ、ということ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google+の写真機能、大幅強化―全自動で色調・露出補正、GIF、パノラマ、HDR、 グループ写真の合成などを実行

Google+の重要なセールスポイントは写真だったが、I/Oカンファレンスで発表されたGoogle+のリニューアルでも写真に重点が置かれていた。

今回Googleが発表したGoogle+写真のアップグレードには昨年11月に買収したNik Softwareのテクノロジーが多用されている。画像の補正と共有の自動化だ。たとえばホワイトバランスや肌色の調整、エッジのシャープ化、ノイズ除去などがワンクリックで自動的にできるようになった。画像処理はすべてクラウド上で実行される。

GoogleのVic Gundotraが事前のわれわれに取材で対して語った(そしてI/Oでも繰り返した)ところによれば、写真というのはもはや「撮影」するものではなく「作り上げる」ものなのだという。ユーザーは写真のハードとソフトに何千ドルも投じているが、写真を整理し、補正する作業は依然として高度に労働集約的で時間のかかる作業だ。「しかし普通のユーザーにはそんな時間がない。それならGoogleのデータセンターがユーザーのデジタル暗室になればどうだろう?」とGundotraは言う。

Googleが今回ローンチしたのはユーザーがアップロードしたデータを解析して、ユーザーにさまざまなフィードバックを提供する仕組みだ。ひどいブレや重複している写真などには印をつけて注意を促す。露出不足の写真は修正する。有名なランドマークが写っている良い写真があればチェックする。顔を認識して笑っているかどうか、ユーザーのGoogle+サークルに含まれている人物かどうかを判断する。これまでユーザーが何時間もかけていた写真の整理がクラウド上で文字通り数秒のうちに処理されてしまう。

そこでGoogle+システムは緑を鮮やかに、肌を魅力的に、湖をブルーにし、コントラストを強くし、等々の画像処理を自動的に行う。またフラッシュによる人物の赤目も自動的に修正してくれる。ユーザーはこうした補正処理を一括して適用することも、個別のフィルタだけを適用することもできる。

すべて非破壊処理なので元の画像ファイルはオリジナルの状態に保たれる。ユーザーはオリジナルと補正後の画像をワンタッチで往復して比較ができる。Googleは今や全ユーザーに無料で15GBの記憶容量を提供しているのでユーザーはフルサイズの画像を大量にアップロードできる。

オートAwesome機能

アニメの人気を反映してGoogle+チームはGIFファイルの制作もサポートすることにしたが、その手法がなかなかユニークだ。Awesomeと名付けられたシステムはアニメに合成可能な一連の写真を見つけ出して自動的にGIFファイルを作成する。Gundotoraは「ユーザーがバーストモードであれ手動であれ短時間に連射した写真があれば、自動的にアニメを作成できる。システムは背景が動いていないこともチェックする」と述べた。

オート“Awesome機能はGIFファイルを作るだけではない。人物が笑っている写真を集めて切り貼りし、全員が笑っているグループ写真を合成したり、風景写真の場合、継ぎ合わせてパノラマ写真を作れる また露出ブラケット撮影した写真があればHDR写真を合成することもできる。しかもこうした処理はGoogleの巨大データセンター内で実行されるので非常に短時間ですむ。

以上の機能はすでに公開ずみで、Googleはユーザーの既存の写真からいろいろすばらしい写真をせっせと作っているところだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Google Glassでrootになる方法

Google Glassをrootする方法や、そんなことができるのか、といった議論がにぎやかだ。できることはできる。Google I/O二日目の今日(米国時間5/16)、Hacking Google Glassセッションで、rootになれる方法が公開された。

使えるのはUNIXのFastbootツールのみ、OS Xのは問題あり。公式のネイティブ開発キットも、前に発表されていたように、手に入る。SDKの提供を待たずにアプリをAndroidからGlassにポートしたければ、rootになろう。

これは保証外なので、ご用心を。:

所要時間は10ないし15分、途中でウォーニングメッセージが何回か出る。

以上が終わったら、データパーティション(/data)全体にアクセスできるようになる。rootになったデバイスは、何の役にも立たない。

GlassでUbuntuを動かしたデベロッパがいる。ごく一部のギークしかやらないことだが、けっこう楽しい:

“Glassのチームは、こんなやり方のアプリ構築を推奨しません”、とチームは言った。でもハッキングは、やってみる価値ありだね。rootになると、そのデバイスはGoogleのサポート対象外になるから、何が起きてもGoogleは助けてくれない。それがいやなら、Glassチームはこのデバイスのデバッグモードというものを説明してくれた。それなら安全だ。

入手でき次第、セッションの完全収録ビデオをここに埋め込もう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Glassでrootになる方法

Google Glassをrootする方法や、そんなことができるのか、といった議論がにぎやかだ。できることはできる。Google I/O二日目の今日(米国時間5/16)、Hacking Google Glassセッションで、rootになれる方法が公開された。

使えるのはUNIXのFastbootツールのみ、OS Xのは問題あり。公式のネイティブ開発キットも、前に発表されていたように、手に入る。SDKの提供を待たずにアプリをAndroidからGlassにポートしたければ、rootになろう。

これは保証外なので、ご用心を。:

所要時間は10ないし15分、途中でウォーニングメッセージが何回か出る。

以上が終わったら、データパーティション(/data)全体にアクセスできるようになる。rootになったデバイスは、何の役にも立たない。

GlassでUbuntuを動かしたデベロッパがいる。ごく一部のギークしかやらないことだが、けっこう楽しい:

“Glassのチームは、こんなやり方のアプリ構築を推奨しません”、とチームは言った。でもハッキングは、やってみる価値ありだね。rootになると、そのデバイスはGoogleのサポート対象外になるから、何が起きてもGoogleは助けてくれない。それがいやなら、Glassチームはこのデバイスのデバッグモードというものを説明してくれた。それなら安全だ。

入手でき次第、セッションの完全収録ビデオをここに埋め込もう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleの水中ストリートビューはこうして作られる

Googleの水中ストリートビューは昨年9月にスタートしたが、実は同社のOceanプログラムは、6年前にKeyhole(後にGoogleに買収されてGoogle Earthになった)のファウンダーの一人が、海もマップにしようとひらめいた時に始まった。ここ数年、Googleは海の地図化を進めてきたが、ストリートビューを水中にもちこむことは依然として難題だ。

「われわれのゴールは、海のデータを増やすことによって地図データをより完全なものにすること。みんなを自分の家から海亀の家まで連れていきたい」とGoogleのJennifer Austin Foulkesは語った。これまでにGoogleは、オハフ島、マウイ島、グレートバリアリーフ周辺など6ヵ所でこれを実施している。

このプロジェクトには科学的要因が多く関わっているため、チームは画像を撮影するための厳格な手順を定めた。同プロジェクトでGoogleのパートナーを務めるCatlin Seaview Surveyのディレクター、Richard Veversは、彼のチームがこのプロジェクトで使用するカメラはGoogleが他のストリートビュー撮影者で使用するものとは全く異なると言う。まず、広角レンズを使う必要がある。Googleの水中ストリートビュー艇には、前面にカメラが3台あり、3秒毎に画像を撮影する。カメラの1台は下方に向けられており、これは従来から岩礁撮影で用いられている方法だからだ。水中スクーターの後部にはカメラを制御するためのタブレットが装着されている。

通常1回の潜水で約2kmをカバーし、カメラ1台当たり3000~4000枚の画像を撮影する。チームは1日に3回潜水し、それぞれ約1時間を要する。これまでに合計15万枚の画像が撮影されており、Veversはこの数字が今後数ヵ月で指数的に増えると予想している。長期的には、12時間以上潜水できる無人システムを作ることが目標だ。

通常のカメラに加え、同チームは3D画像を作るためのステレオカメラをテスト中で、最近では水中Hangoutを行ったり、Photo Sphereを使ってユーザーを魅せる実験をしている。

カメラシステムは1式約5万ドルで、現在4セット作られているが、うち2セットはまだ進水していない。

この水中データをストリートビューに取り込むために、VeversはGoogleの標準的ビジネス写真ツールを使用した。なお、画像の実際の位置は三角測量で求めた。これらの画像は科学者たちが無料で利用できることも特筆に値する。

チームは現在アメリカ大陸に焦点を絞っているが、今後3年間のうちに水中ストリートビューを世界中の海に持っていく計画だ(もちろん、全地域ではなくごく一部の場所だ)。もう一つの目標は、もっと多くのデベロッパーを巻き込むこと。データのクラウドソーシングおよび岩礁認識アルゴリズムの改善の両方が目的だ。既存のアルゴリズムは下方を向けたカメラの画像しか解釈できないが、同チームはカメラが捕えた全データを利用できるツールを作りたいと考えている。

海に対する脅威を踏まえれば、当然このプロジェクトには深刻な役割があるとVeversは指摘する。ストリートビューは、現在海が直面している脅威について大衆に知らせる重要なツールの一つだと彼は主張する。「人々は自分の目に見えないものを保護したいとは思わない」と彼は言う。殆どの人はダイビングをしないが、その人たちを仮想ダイビングに連れていけない理由はない。大衆や為政者の手に届かない限り、科学をやる意味はない。

[原文へ]

(翻訳:Nob Takahashi)


App Storeの累計ダウンロード数が500億、追うGoogle Playもその差を詰めて480億を達成

モバイル向けのソフトウェア販売ということでは、AppleがAndroidに対して一日の長がある。しかしこの両者の差(ダウンロード数)が徐々に接近しつつある。Google PlayおよびApp Storeの双方からアナウンスがあったのだが、その数値はお互いに非常に近いものだった。

Appleの方は、発表によると500億件のダウンロードを達成したのだそうだ。実のところ、アナウンス前からAppleのサイトの隠れた場所でアナウンスのためのコードが用意されていて、発表時には既にみんなが知っているという状態だった。発表のタイミングがGoogle I/Oと重なったのは偶然かどうか、本当のところはちょっとわからない。いずれにせよGoogleもダウンロード数についてのアナウンスを行い、これまでに480億件のダウンロードがあった旨を発表した。

すなわち両ストアからのダウンロード数は非常に近い数値になっており、少なくともダウンロード数に関して言えば、ほぼ対等とも言える状態になっているようなのだ。

今回のアナウンスはダウンロード数のみについてのもので、有料アプリケーションと無料アプリケーションの区別などは行なっていない。また双方のストアの売り上げがどの程度なのかもアナウンスされていない。ただ、掲載しているグラフを見ればわかるように、一時期はGoogleが相当な遅れをとっていたが、今や追いついたと言える状況にある。全世界レベルで見れば、スマートフォンセールスでもAndroid OSデバイスが多数を占めており、そこからすればダウンロード数で追いついたのも当然のことと言えそうだ。

原文へ

(翻訳:Maeda, H)


Google+のハングアウトがリニューアル―GmailやG+のチャットを統合したクロスプラットフォームのビデオチャットサービスが誕生

今日(米国時間5/15)、サンフランシスコで開催中のI/O 2013カンファレンスで, Googleはハングアウトをリニューアルし、クロスプラットフォームの統合メッセージ・サービスに生まれ変わらると発表した。

ユーザーはAndroidとiOSのハングアウト・アプリ、Gmail、Google+サイトのすべてからテキストやグループ・ビデオ・メッセージをやり取りできるようになる。新しいハングアウトは今日中に公開され、GoogleTalk(GChat)、G+メッセンジャーを置き換える。現在まだSMSはサポートしていないが、やがてFacebookメッセージやAppleのiMessageに対する有力ライバルとなりそうだ。

1年以上前から、Googleはばらばらなメッセージ・サービスを統合するリニューアルに踏み切るだろうという観測がGigaOmDroid Lifeなどに現れていた。今日、Googleは新しいiOSおよびAndroid版のハングアウト・アプリ(無料)を公開し、Google+との統合、GoogleTalkの置き換えを実施する。 Windows PhoneとBlackberryに対する対応については情報がない。

GoogleのVic Gundotra副社長は今日、 I/Oカンファレンスで「テクノロジーはユーザーの生活、学び、愛を邪魔しない目立たぬ存在であるべきだ。OSもデバイスもそれ自身が目立ってはならない。愛する人と会話をする手助けに徹すべきだ。」と述べた。今回のハングアウトのリニューアルもそこを重視した。ユーザーとユーザーの会話そのものに焦点を当てている」と述べた。

ハングアウトはさまざまなメッセージを入れるキッチン・シンクになる

プレゼンス、サークル、配信

新しいハングアウトを少し詳しく検討してみよう。まずプレゼンスというか、誰が現在オンラインになっていてチャット可能なのかが簡単に見てとれるようになった。友だちがログインしている、現在入力中か、自分のメッセージをすでに読んだか(開封通知)がわかる。またGoogle+のサークルを利用すると特定の相手だけでなくグループ全体を相手にチャットが開始できる。

さらにメッセージを送られた相手がどんなデバイス、OS、アプリを使っていてもハングアウトがそれぞれの環境に合わせて適切に表示を行う。ユーザーがオフラインの場合はハングアウトのメッセージを一時保管し、オンラインになると同時に配信する。またオフライン中のユーザーに対しメッセージが着信したことをメールで通知する。通知を完全にオフにすることもできる。

したがって、ユーザーはデスクトップ、Androidデバイス、iOSデバイスの間で自由にプラットフォームを切り替えながらチャットを始め、中断し、再開することができる。

テキスト、絵文字、写真、ビデオ

テキスト・メッセージがやり取りできるのはもちろんだが、ハングアウトの強みはなんといってもビデオを始めとするマルチメディア・コミュニケーションだ。またテキストには850種類の手描き絵文字を埋め込み、Google+のアルバムにアップロードした写真を送ることもできる。チャットの相手に写真の編集や共有の許可を与えることも可能だ。

そしてもちろんハングアウトのスタート当初からのセールスポイントであるビデオ・チャットの機能も強化された。まず10人までの友だちと同時にビデオ会話ができる。複数の相手とビデオチャットをしている場合、発言中のユーザーのビデオが自動的に拡大表示される。友だちに対してHangoutのビデオチャットをスタートさせると相手側で着信音がなる。

しかしハングアウトは単なる複数ユーザーをサポートするFaceTimeではない。Googleはこれに多様な拡張機能を付け加えている。たとえばビジュアル・エフェクトで海賊の帽子を被ったり、バーチャル花火を打ち上げたりできる。また友だちといっしょに同じYouTubeビデオを見てがやがや騒ぐこともできる。スクリーンショットを撮り、保存することも可能だ。

SMSは未実装

ただし現在、ハングアウトには重要な機能がひとつ欠けている。SMSによるメッセージ機能がないのだ。これでは Hangoutは本当にユニバーサルなサービスとはいえない。Apple’siMessageやFacebook’のAndroid版MessengerにはSMS機能がある(iOS版にはない)。

そこでハングアウトアプリをインストールしていない相手とハングアウトでやり取りしたかったらまずSMSやメールでハングアウト・アプリをインストールするよう頼む必要がある。これは大きな障害だ。しかし近くこの機能もサポートされるようだ。

あと、ボイスチャットやVoIPもサポートされていない。またハングアウトのビデオを直接YouTubeに公開するHangouts On Air機能の実装も今後の課題だ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Google株、Google I/O初日に52週最高の915ドルで引ける。Apple再び下げる

Googleの株価は今日(米国時間5/15)Google I/O初日に、52週間最高値の915ドルを記録した。一方Appleは、今日だけで15ポイント下げて428ドルで引けた。52週間最高値より277ポイント安。

今日の午前Googleの株価は、共同ファウンダーLarry Pageがステージに上った11:45頃、始値の895ドルから、909ドルへと急騰した。あるアナリストは上昇の理由を、Googleのストリーミングサービス“All Access”の発表、およびApple、HPといったハードウェアメーカーとの交代劇だろうと私に語った。

Google株とApple株の価格差は、テクノロジー界展望のバロメーターだ。Googleはデータの会社。Appleはデザインをより重視し、美しいデバイスを作る。

その違いはここGoogle I/Oでも明らかだ。Googleは、世界中どこの会社よりも多くのデータを扱うインフラストラクチャーを構築した。そしてこのデータを使い、今日の基調講演でハイライトされたサービスを提供する。Google Translate APIや次世代のGoogle Mapsなどだ。iPhoneはいつも変わずエレガントだ。本誌のJosh Constineが指摘するように、デバイスの美しさは、世界中がデータオブジェクトで構成されるようになるにつれ、重要でなくなっていく。

[原文へ]

(翻訳:Nob Takahashi)