Snapchatの新しいフィルターは、頭上の空を置き換える

Snapchatの最新AR(拡張現実)機能は、写真を撮る時に顔ではなく、世界に向かって働く新技術だ。”Sky Filters” と呼ばれるその機能は、画像内の空を自動的に検出し、全く別の景色に書き換えてしまう。

この新しいフィルター群は今日からiOSとAndroidで配布されるとSnapchatは言っている。毎日エフェクトが入れ替わり、バーチャル天気、日の入り、星空、虹、暗雲など様々な空のフィルターがある。

このフィルターは、Snapchatがフレーム内に空があることを認識すれば、ほかのフィルターと同じように使うことができる。

Snapchatは、様々なARの新機能を投入しており、最近では周囲とやりとりするアニメーション3D Bitmojiや、ユーザーのまわりにバーチャル物体やエフェクトを追加するWorld Lensesも今年公開した。

[原文へ]

(翻訳:Nob Takahashi / facebook

Instagram、月間アクティブユーザー8億人を突破、日間アクティブも5億人に

Instagramは未だに急成長を続けている。前回データを発表してからわずか4カ月あまりで、月間アクティブユーザーを1億人増やした。同サービスを少なくとも月に一度は利用するユーザーが8億人いることを、月曜日(米国時間9/25)にニューヨークのイベントで同社が明らかにした。毎日サービスを利用しているユーザーが5億人いることも発表した。

Instagramが、節目の月間アクティブユーザー数7億人を公表したのは4月のことで、その4か月前は6億人だった。つまり、今も同じペースで増えていることになる。すでに膨大なユーザー数を抱える同サービスだが、成長のスピードは落ちておらず、親会社のFacebookをユーザー数で抜く道筋も見えてきた。

またInstagramはTechCrunchに、同プラットフォーム上の広告主が200万社に達したことも話した。3月には100万社だった。成長の大部分が中小規模の企業によるものだと同社は言っている。

ユーザーがInstagramでビデオを視聴した時間が前の年から80%以上増え、ユーザーの制作するビデオも増えている ―― 1日あたりの本数は前年比で4倍近い。

こうした数値は、プラットフォームであるInstagramに投資している誰にとっても勇気づけられるものであり、Facebookの壮大な野望にとっても同様だ。しかし、Instagramとユーザーの注目を奪い合う主要なライバルであるSnapchatにとっては落胆させられるデータだ。Instagramのとどまるところを知らない成長は、ストーリーズを始めとするSnapchatのいくつかのユーザー体験を、Instagramが模倣、実装したことによるところが大きい。

[原文へ]

(翻訳:Nob Takahashi / facebook

Pointyは地域の店をAmazonに対抗させる――PoSレジ連動で商品情報をオンライン化するプラットフォーム

アイルランドのスタートアップ、Pointy​は地域の店舗が在庫商品を簡単にオンラインで公開し、消費者が簡単に検索できるようにするシステムを開発した。このほど同社はシリーズAのラウンドで600万ドルの資金を調達した。このラウンドはFrontline Venturesがリードし、ポール・アレンのVulcan Capital、Draper Associates、さらに何人かの著名なエンゼル投資家が加わっている。

エンゼル投資家にはWordPressのファウンダー、Matt Mullenweg、Google Mapsの共同ファウンダー、Lars Rasmussen、Transferwiseの共同ファウンダー、Taavet Hinrikus、Beboの共同ファウンダー、Michael Birchが加わっている。Pointyはこれ以前にLocalGlobe、Frontline、Seedcampから120万ドルのシード資金を得ている。

共同ファウンダーのMark CumminsとCharles Bibbyはスタートアップの起業に経験を積んでいる。Cumminsは2010年にGoogleによって買収されたビジュアル検索エンジン、Plinkの共同ファウンダーでもある。

Pointyはソフトとハードを統合したプラットフォームで、店舗の在庫商品をオンラインで検索可能にして顧客の流入増を図る。 カギとなるのは​Pointy​Boxと呼ばれる小さなデバイスで、店舗のPoSレジに接続するとバーコードのスキャン結果を自動的にPointyが運営するウェブサイトに転送し、オンラインでの検索を可能にする。

Pointy上の各ストアのページは検索エンジン向けに最適化されており、ユーザーが商品を検索すると、Pointyはユーザーの所在地付近でその商品をストックしている店舗を表示する。つまりお気に入りのクラフト・ビールを検索すると、どこに行けばそのビールが買えるか、近所の店を教えてくれる。簡単に言えば、地域の店舗がAmazonのような巨大通販会社に対抗できるようにするシステムだ。Pointyを利用する地域店舗は最小の投資で顧客の増大を実現できる。

電話取材に対して共同ファウンダーたちは(ちなみに両者ともロボティクスで博士号を持つ)はPointyの仕組を説明してくれた。商品の販売時にPoSレジでバーコードがスキャンされると、そのデータはPointy Boxを通じてPointyサイトに送られる。Pointyはこの際、複雑な在庫管理システムの導入なしに店舗に在庫があるかどうかを決定しなければならない。開発されたアルゴリズムでは推定のベースとして販売頻度などが利用されている。ある製品が頻繁に販売されているなら在庫も補充されている可能性が高い。

Cumminsは、 「消費者が何あるアイテムを買いたいと考えてスマートフォンで検索したとすると、 たいていの場合、​Amazonの在庫が表示される。たとえ50メートル先の実店舗にその商品が置いてあっても検索結果には出てこない。これは消費者にとっても店舗にとっても苛立たしい状況だ。Pointy​は店舗側の資金や時間などの負担を最小限にしてこの問題を解決しようとしている」と説明する。

現在Pointyはすでにアメリカの48の州の店舗で利用されており、「登録された商品は何千万回も検索結果に表示されている」という。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Instagramのライブビデオに顔フィルターが来た

今日(米国時間9/21)、Instagramはアプリからライブストリーミングする際に顔フィルターが使えるようになったと発表した。Instagramにはすでに顔フィルターがある。顔を認識してその上に各種の効果を表示するフィルターは去る5月に追加されている。しかしこれまでは顔フィルターを利用するためにはまずビデオないし写真を撮影しておく必要があった。顔フィルターを適用してからInstagram Storyに公開する手順だ。

今回のアップデートで、既存の顔フィルターはすべてライブストリーミングで利用できるようになる。またライブストリーミング専用の顔フィルターも登場した。これはタップ一つで顔にサングラスを掛けさせるもので、ちゃんとレンズに景色が反射する。このエフェクトは来週中ライブストリーミングに限られるのですぐに試してみたいならライブ動画を公開する必要がある。

サングラス・フィルターなどの顔フィルターはライブストリーミングのスタート前でも実行中でも適用できる。利用法は簡単だ。Instagramのライブビデオの画面で右下隅の顔アイコンをタップするだけでよい。フィルターの公開は今日からスタートするが、世界の全ユーザーに行き渡るまでには「数週間かかる」と
Instagramは言っている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Apple、アプリの携帯網ダウンロード上限を150MBに

iOS 11の一般公開を期にAppleはアプリのダウンロード制限を多少緩和した。これまでiOSデバイスのオーナーは携帯ネットワークでアプリをダウンロードする場合、100MBが上限で、それ以上の場合はWiFiを使うことを求められた。生産性アプリ iWorkや多数のゲームがこの制限にかかっていた。今後、OTA(Over-the-Air)ダウンロードの上限は150MBになる。

この変更はAppleのデベロッパー向けサイトで簡単に報じられた。今回AppleはサードパーティーのデベロッパーにAR〔拡張現実〕アプリを開発する新しいテクノロジーも紹介している。これにより、ポケモンGOのような現実世界にバーチャル・オブジェクトを重ねて表示させるアプリの開発が容易になる。

しかし現在の人気ゲームのサイズを考えると、150MBはやはりかなり厳しい制限だ。

ダウンロード制限が緩和されることは1年も前から9to5Macが報じていた。Appleは2013年にダウンロード制限を 50MBから100MBに拡大したものの、それ以降は変更がなかった。もっともiOSのダウンロード制限は当初10MBだった。それから比べれば大進歩を遂げたことになる。

ただしなぜこうしたダウンロード制限が存在するのかは不明だ。ダウンロード制限は設定のオプションとすればよいはずだ。

現在、多くのiOSユーザーは無制限ないし事実上無制限に近いデータ転送量の契約をしており、大型アプリをダウンロードしても問題ない。 データ契約に制限があるユーザーの場合でも、設定で「上限あり」をデフォールトにしておけばすむことだ。これなら、自動アップデートなどで、知らないうちにデータ転送量を使い果たしてしまうことを防げる(セルラーでのダウンロードでデータ転送量を食ってしまう可能性が高いのはFacebookで、ほぼ2週間ごとに新バージョンを送り出している)。

しかしAppleは一部のユーザーに不便をさせても他のユーザーを守ることを優先しているようだ。同時にこの上限はデベロッパーに対して「望ましいアプリのサイズ」を示唆しているのかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

iOS11ですぐに試せるARKitアプリ6選

AppleがiOS 11を公開した。大きな特徴の1つは、開発者たちがすばらしい拡張現実アプリケーションを簡単に作成できる、SDKのARKitだ。

Appleが数ヵ月前にARKitを発表していたにも関わらず、電話機の上でARを試してみるためのオプションはそれほど多くはない。とはいえ、私たちは、拡張現実とARKitの可能性をチラ見せしてくれる、幾つかの良いアプリを見つけた。

iPad Pro、Phone 6s/6s Plus、iPhone 7/7 Plus、iPhone SE、またはiPhone 8/8 Plusを使っているのならiOS11を今すぐダウンロードしてAppStoreからこれらのアプリをダウンロードしてみよう。

以下に拡張現実を使う幾つかのアプリケーションをスクリーンショットと簡単な説明と共に紹介した。2D画像を見るだけでその雰囲気を感じるのはとても難しいので、是非自分でダウンロードして試して欲しい。

1/6 :World Brush

WorldBrushは、現実世界に3Dの図形やデザインを描くことができる。GoogleのTilt Brush VRアプリによく似ている。とってもクールな点はあなたが描き込んだものがそのまま(意図的に削除しない限り)そこに留まり続けるということだ。なのであなたが公共の場所に描いたものを別の人たちがそれぞれの電話機から見ることができる。

2/6 :Edmonds

車の調査と購入アプリのEdmondsは、目の前に実物大の車を置く機能を持っている。Edmondsによれば、あなたが買いたいと思っている車がガレージに入るかどうかをみるために使えると言っている。何千種類もの車を選ぶことができるが、変わるのはボディの形と大きさだけだ。そして現段階ではAR車は本物のようには塗装されていない。、

3/6 :Stack AR

Stack ARは、目の前にブロックを積み重ねるシンプルなゲームだ。とてもシンプルだが、もし友人がARとはどんなもの?と聞いてきたときにはすぐに試して貰える楽しいゲームだ。

4/6 :Thomas and Friends(ミニミニサイズのThomasと仲間たち)

Thomas and Friends MINISは、今日Appleが米国App Storeでフィーチャーしている唯一のARアプリだ。トーマスが走るための線路をデザインすることができる。そしてARをオンにすれば、作った世界を床などの平面の上に出現させることができる。かなりシンプルなゲームだが、子供たちにARの可能性を示す良いやりかただ。

5/6 :Housecraft

Housecraftは、家のどこにでも実物大の家具を置くことができる。Techcrunch Disrupt SFの会場の外に置かれたこのベッドの写真を見て欲しい。アプリは様々な種類の大量の家具のカタログを内蔵している。そしてARKitをまだ見たことがない人に対して説明をするときに、私が使うお気に入りの方法だ。多くの家具会社たちが、この先とても似通った機能を提供してくるだろう。例えばWayfairのARアプリIkeaのもうすぐリリースされるアプリなどだ。

6/6 :AR MeasureKit

AR MeasureKit(ARメジャーキット)はその名が示す通りものだ。ARKitを使って身の回りの現実世界の寸法を測ることができる、多目的測定ツールだ。これもまた友人向けの素晴らしいデモだ。他に物差しを持ってきて、それがどれほど正確なものかを友人たちに見せてみよう。

[ 原文へ ]

(翻訳:Sako)

Googleの検索アプリ、関連記事のおすすめを開始

今日(米国時間9/19)GoogleのiOSアプリは、ウェブを閲覧中のユーザーを、ホーム画面に戻さずブラウザーに留めておく新機能を導入した。アップデートされたアプリには「関連コンテンツ」セクションが追加され、Googleアプリ経由で訪れたウェブページの下端に表示される。

つまり、Googleで何かの話題を検索し、タップして話題の記事を読んでいくと、読み終わったときに関連するほかの記事をアプリが推奨してくれるしくみだ。推奨リストはアプリ画面下端の「G」ボタンの下に表示されるが、スクロールして記事を読んでいる間には見えない。

推奨記事のバーは、読み終わって上に戻ろうとしたとき初めて現れる。そのときも、関連記事は一部が隠されている ―― “People Also View”[他の人はこちらも閲覧]とヘッドラインがいくつか表示され、全体を見るためにはこのGoogleバーを上にスワイプする必要がある。

そこから横にスワイプすると記事のサムネイルを一覧できるので、読みたい記事をタップすればよい。

1つの話題を掘り下げていくと、様々な推奨記事を読み続けることになる場合もある。しかし、多くの場合Google検索はごく限られた答えを見つけるために使うので、その場合関連記事はうまく働かない。

例えば、Mars Rover[火星探査車]を検索しているとき、おそらくあなたが欲しいのは火星探査車そのものの情報であって、宇宙探検一般の話題ではない。しかしGoogleが推奨するのは、火星探査機オポチュニティーや火星探査プログラムディレクターやパノラマ画像などだ。元の検索クエリには必ずしも役に立たない。

もちろん、あなたがGoogle検索の穴にはまり次から次へと薦められる記事を読み続けることがない、という意味ではない。しかし、そもそもGoogle検索はウェブをさまようためのものではない ―― 答えを見つけるためだ。Google自身でさえこれを理解していて、だから知識グラフを使って検索結果のトップに “instant answers” を表示している。

Googleはこの変更について、ウェブ閲覧中の「コンテンツの探索と発見」を容易にするためだと説明しているが、同時にユーザーをアプリに引き留めておく副次効果もある。そしてそれはGoogleの利益に貢献する。検索ユーザーがアプリを離れなければ、もっと多く広告を見せられるからだ。

新機能は、今日からiOS版Googleアプリに追加される。

[原文へ]

(翻訳:Nob Takahashi / facebook

Angry BirdsのRovioが10億ドルのIPOを計画

Angry Birdsを覚えているだろうか?まあ、おそらくIPOを正当化できる位には沢山の人がまだ遊んでいるのだろう。

この人気のあるスマートフォンゲームの親会社であるRovio Entertainment(フィンランド)は、2週間以内のHelsinki Nasdaqでの株式公開の準備を進めている。そして、同社はIPOのための価格設定を、評価額およそ10億ドルとして算出した。これは彼らが望んでいると言われていた20億ドル以上の価格よりもずっと少ない。

しかし、同社が目標としている1株当たり10.25ユーロから11.50ユーロの価格で公開されれば、まだ「ユニコーン」になることができる。IPOでは約3000万ユーロ(現時点で約40億円)を調達することになる。

Angry Birdsアプリは2009年に発売されて以来37億回ダウンロードされている。昨年にはこのゲームの成功を利用して、映画”Angry Birds Movie”も制作された。

同社はAccel、Atomico、Felicis Venturesなどから、少なくとも4200万ドルの出資金を調達している。

[ 原文へ ]
(翻訳:Sako)

Facebookの「スヌーズ」ボタンは、友達を一時的にフィードから外す

友だちのエンドレスな休暇の写真にうんざり? どこかの企業ページのグランドオープニングの話題なんか聞きたくない? グループからの今度の会合の話題が止まらない? Facebookにスヌーズボタンが出来る。友達やFacebookページやグループを、一時的に24時間または30日間フォローから外す機能だ。

スヌーズボタンの狙いは、ユーザーにある程度フィード内容を制御させることで、完全にフォローを外したり、友達を解除するのを思いとどまらせることだ。Facebookは、ユーザーが密なソーシャルネットワークを維持することで、広告ターゲティングにも、遠方の知り合いからの重要な知らせを届けることにも役立てられる。つまり、これからは面倒な人や物ごとに悩まされたときでも、つながり完全に絶つことなく問題を解決できるようになる。

TechCrunchは、今日の午前(米国時間9/14)に米国内のFacebookデスクトップサイトでスヌーズボタンを目撃した。

【アップデート 11:30am PT:Facebook広報はスヌーズ機能をテストしていることを正式に認め、TechCrunchに次のように話した。「われわれはユーザーがニュースフィードを制御して、自分にいちばん関係のある話題とつながるための新しい方法をテストしている」】

誰かをスヌーズするには、その人の投稿の右上にあるドロップダウン矢印をクリックする。「フォローをやめる」の代わりに「フォローをやめるまたはスヌーズ」というオプションが表示されるので、クリックすると、1日、1週間、あるいは1カ月スヌーズするか、永久にフォローを外すかを選べる。

Facebookはこれまでにも、ユーザーが混乱することなくニュースフィードを制御するベストな方法を追求してきた。2012年には、友だちのプロフィールに“See Less”[見る機会を減らす]オプションが加わった。しかし、結局Facebookは、これがユーザーに混乱をもたらすことに気づいた。なぜなら、その友達はその後もフィードに現われるので、オプションの効果があったのかどうかはっきりしないからだ。2014年、Facebookは “See Less” をやめ、明白な「フォローを外す」ボタンを導入し、友達関係は続けるがフィードから消すことができるようになった。

Facebookはスヌーズを導入することで、おしゃべりな人やグループやページの雑音を、明確で直観的な方法で減らしつつ、今後も最も重要な投稿をユーザーに届けることを可能にする手段を得た。

企業ページやグループも、スヌーズの恩恵にあずかることができる。いいね!を外されたり脱退されたりする機会を減らせるからだ。さらには、多すぎる投稿やスパムを自粛するきっかけにもなるはずだ。さもないと、押し入れに入れられてしまう。

今でもFacebook、ユーザーのいいね!やクリック、コメント、シェアなどによる暗黙の信号に基づいて、フィードの表示内容を定期的に調整している。私はスヌーズを、その人が戻ってきたら出現頻度を減らしてほしい、という信号として使うつもりだ。Facebookによる顔のないアルゴリズムが集めたニュースフィードを読むことに、生活の大きな部分を費やしている今、この会社がわれわれ人間に二択だけでない制御方法を与えるのは喜ばしいことだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebook Messenger Dayは1日7000万――アプリは月間13億、グループビデオチャットにも力

FacebookはSnapchat Storiesのクローン、24時間で投稿内容が消えるメッセージ・サービスの運用成績を発表した。同じFacebookグループのInstagram版やWhatsApp版に比べれば成長速度は爆発的ではないものの、Messenger Dayの1日当たりユーザーは7000万だという。Messenger Dayがスタートして半年経ったところで、毎日それだけの人間が1日で消える写真やビデオを見たり投稿したりしているわけだ。

比較してみると、 Instagram Storiesはユーザー1億に到達するのにわずか2ヶ月、WhatsApp Statusに至っては1億7500万に到達するのに10週間しかかかっていない。両方とも現在では1日当たり2億5000万のユーザーがいる。これに対してライバルのSnapchatは全アプリを合計して1日当たり1億7300万ユーザーだ。

一方、Facebook Messengerは全体として拡大を続け、西側諸国において複数OSをまたぐメッセージ・アプリとして最大となっている。Messengerのユーザーは月間13億人となり、今年4月の12億人から1億人アップしている。2016年7月には10億人だった。これはFacebookのもうひとつのチャット・アプリ、WhatsAppと同サイズだ。

Messengerの成長率は年を追ってわずかに減速している。8億から10億まではわずか半年しかかからなかったが、そこから12億人に達するまでには9ヶ月かかり、最後の1億人を加えるために5ヶ月かかっている。Messengerは一部のコア市場においては飽和点に近づきつつあるようだ。

Facebookグループ以外のMessengerのライバルとしては、中国のWeChatがこの5月に月間9億3800万人を記録している。同じく中国のQQは2017年の第1四半期で月間8億6100万人、Snapchatは2017年第2四半期で1日当たり1億7300万人(ただし全員がメッセージのやり取りに用いているわけではない)などとなっている。AppleのiMessageもiOS 11では平凡なSMS代用品から脱してアニメーション、絵文字を加えたダイナミックなプラットフォームを提供することになる。iOS 11のAnimojiはARテクノロジーを利用してユーザーの表情をアニメーションに変えてくれる

【略】

Messengerのビデオチャット機能はユーザーに歓迎された。昨年12月にMessengerに画面分割により同時に6人が参加するビデオチャットが導入された後、月間ユーザーは2億4500万に達した。このグループ・ビデオチャットのデザインはティーン向けアプリのHousepartyにやや似ていたが、その後FacebookはHousepartyの本格的クローン、Bonfireを独立アプリとして開発し、テストを行っている(昨日、一部ユーザーが発見している)。Bonfireはゼロからユーザーを獲得する必要はなく、Messengerの13億人のユーザーはBonfireアプリをダウンロードする必要なしに、Messenger内からBonfireのグループビデオチャットに参加できる。

またMessengerはついに収益化に向けての動きも開始している。企業、ブランドはスポンサード・メッセージをアプリのユーザーに送信することができる(すでにユーザーと会話を行っている場合)。また6月にはバナー広告の表示を始めている。【略】

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ARネイティブアプリのUXについて考える――単なる流行りのプロダクトで終わらせないために何ができるか

【編集部注】執筆者のMatt MiesnieksはSuper Venturesのパートナー。

ARKitのローンチにより、向こう1年のうちに5億台ものiPhoneで拡張現実(AR)アプリが使えるようになる。さらにそれから1年以内には、ARCoreに対応したAndroidデバイスの登場で、その数は少なくとも3倍以上になると言われている。

このような明るい展望をもとに多くの開発者がARに興味を持っており、今後彼らがARという全く新しいメディアに挑戦する中で、数々の実験的な取り組みを目にすることになるだろう。もしかしたらARのインパクトはそれ以上かもしれない。これまで人間は視覚的なコンテンツを四角形のメディア(石版から映画館のスクリーン、スマートフォンなど)を通じて消費してきたが、ARは歴史上初めて形の制約から解放されたメディアなのだ。

ちょうど紙とウェブのように、ARと従来のメディアの違いはスケールというよりも根本的な種類にある。インターネットが普及し始めた頃の商業的なウェブサイトで一般的だった、印刷物の中身がウェブ上にアップされただけの「ブローシェアウェア型」ウェブサイト同様、初期のARアプリはきっとAR空間に従来のモバイルアプリを貼り付けただけのようなものになるだろう。つまりこれからたくさん発表されるであろうARアプリのほとんどは、ブローシェアウェアのようにひどいものになるだろうが、それでも新しい時代の幕開けということには変わりない。

このように新しいメディアが誕生した直後は、旧来のメディアで成功をおさめたプロダクトを無理やり新しいフォーマットにはめ込んだようなものが中心となる。消費者としてもその方がイメージをつかみやすく、発展途上にあるメディアを受け入れやすい。例えば、Uberの車が近づいてくる様子を確認するためにARが使えるという話をよく聞く(実際は2次元の地図の方がこの目的には合っているが)。しかし最終的にAR界で成功をおさめるのは、ARにしかない機能を活用し、これまでのメディアでは実現できなかったようなことができるアプリなのだ。

10年以上前に私がOpenwave(モバイルブラウザを発明した企業)で働いていたときは、同僚と「小さなスクリーンにフィットするウェブサイト」とは違う、「モバイルネイティブ」なエクスペリエンスに関する議論を交わしていた。Fred Wilsonが2010年に公開したモバイルファーストに関する有名な記事の方がこのコンセプトをよっぽどうまく表現しているが、本稿がARについてWilsonの記事と同じような価値を持つようになることを願っている。

最近ではAppleがHuman Interface Guidelines for ARKitという文書を公開した。GoogleからはARCoreに関して似たような文書が発表されていないようだが、もしもご存知の方がいれば教えてほしい。本稿ではAppleのガイドラインと似たトピックについて、私たちが学んできたことを踏まえて深掘りしていく。

「ARネイティブアプリ」の要件

以下では、ARKitやARCoreで開発できるスマートフォン向けのARアプリを特徴づける種々の要因について掘り下げていきたい。ここでは意図的にヘッドマウントディスプレイ(HMD)向けのARアプリについては触れていない。というのも、HMDでできることは(ハンズフリーアプリの実現、セッション時間の長大化、没入感のあるエクスペリエンスなど)スマートフォンよりもかなり範囲が広いからだ。

なお各要因は、ARアプリのコンセプトを考える際に検討した方がよいと思われる事項で、リストの順番に特別な意図はない。私の友人であるHelen Papagiannisの著書『Augmented Human』では、同じ内容についてさらに深い考察がなされているが、本稿の内容も合計50年以上分のARスマートフォンアプリ開発の経験が反映されていることを考えると、現時点ではかなり包括的な内容だと言えるだろう。

Super Venturesではかなり頻繁にARアプリのピッチを聞く機会があるが、開発者がARネイティブのプロダクトを作っていないときはすぐにわかる。「なぜARじゃないといけないのか? ユーザーにとっては普通のアプリの方が便利ではないか?」というシンプルな問いについて考えるだけで、ARアプリのことを全く新しい視点から見られるようになるはずだ。

スマートフォンという枠にとらわれない考え方

ARアプリのプロジェクトに取り組むにあたって、デザイナーや開発者はスマートフォンという枠にとらわれないようにしなければいけない。さらに、ユーザーがスマートデバイス一般とどう関わり合うかについて考え直すことも重要だ。現実世界の様子やスマートフォンがどのような位置・状態にあり得るか、さらにはユーザーの周囲の人やモノ、音といった要素が、全てプロダクトの設計に関わってくる。ARアプリでは全てが(たとえコンテンツは2次元でも)3次元空間で起きるのだ。

ユーザーはAR空間をスマートフォン経由でしか体験できないため、その外に「生きる」コンテンツを設計するには考え方を大きく変える必要がある。(出典:Mortar Studios

また、ユーザーとのインタラクションやコンテンツの移り変わり、アニメーション、アップデートといった要素は検討すべき内容の一部でしかなく、開発者は「アプリ外」で発生するであろう種々の要因についても考えなければならない。この部分が理解できれば、あとはそこまで難しくないはずだ。

手首vs頭vs胴体

手に持って使うというスマートフォンの特徴は、設計上の制約とともにチャンスでもある。人間の腕は頭(と首)に比べて可動域が広く、両手を使うアプリよりも片手だけを使うアプリの方がユーザーはデバイスを自由に動かせる(両手で使うアプリだとデバイスを物理的に動かすために胴体も一緒に動かさなければならず、前後動には歩行が不可欠だ)。

あるものの長さを測るのに頭を動かさなければならないとなると不便で仕方がないというのは想像に難くないだろう。このようなユースケースではスマートフォン向けのARアプリが真価を発揮する。

このように考えていくと、ユーザーが常にディスプレイを見ていなくてもいいようなARアプリは(スクリーンを視界の外に向ける場合も考えられるため)うまく機能するとわかる。Tape Measureや小さなものを3DスキャンできるARアプリはその好例だと言える。

逆に動きの早いシューティングゲームだと、デバイスをさまざまな位置に動かす際にスクリーン上で何が起きているか確認しきれない可能性があるため、AR化するのは難しいだろう(もしもデバイスを全く動かさないなら、そもそもARアプリにする意味もなくなる)。

ポケットに入れたまま使えるアプリ

AR開発者は見逃しがちだが、移動中の人はスマートフォンをポケットやカバンの中にしまっていることがほとんどだ。一般的に「ユーザーエクスペリエンス」は、ユーザーがアプリのアイコンをタップするところから始まると考えられている。しかし、ユーザーの位置に応じてリアルタイムにコンテンツを変化させられるというARの利点を考えると、ユーザーエクスペリエンスの開始地点はもっと早い段階であるべきだ。そうでないと、もしもユーザーがアプリを使い始めるタイミングが想定よりも30秒遅ければ、(アプリが意味をなす地点をユーザーが通り過ぎてしまい)アプリの意味がなくなってしまう可能性さえある。FacebookやSMSの通知であれば場所は関係ないので、このような問題は発生しない。

「どうすればスマートフォンをポケットから取り出すようユーザーを仕向けられるか?」というのはスマートフォン用のAR(さらにはビーコンを使った)アプリを開発する上で極めて重要な問題だ。(出典:Estimote

このように、アプリにとって最適な位置でユーザーにスマートフォンを取り出させるというのは、実用上の大変難しい問題だ。従来のアプリのようにプッシュ通知を使うという手もあるが、もしもユーザーがアプリの機能を理解していれば、現実世界で何かを見かけたときに自然とスマートフォンを取り出すということもあるだろう(外国語のメニューをきっかけにGoogle Word Lensを使う場合など)。

それ以外の場合は、構造物ではない何かをトリガーにしたり、どこにでもあるようなものを活用したりして、とにかくユーザーがどこにいてもサービスを提供できるようにしなければならない。他のユーザーに向けてメモを残せる「AR落書き」のようなアプリが抱える1番大きな問題がまさにこれなのだ。ユーザーはアプリを開かなければ、自分のいる場所にメモが残されているかどうかさえ知ることができない。ビーコンを使ったプロダクトも同じような問題を抱えており、各企業はお得情報を見てもらうために買い物客にいかにスマートフォンをポケットやカバンから取り出させるかという課題に取り組んでいる。

この問題は、ARアプリの開発者が「競争」について考えたときに違う形で表出する。AR技術の可能性の大きさゆえに、AR界にはチャンスがそこら中に転がっていると考える人は多い。しかし実際のところ、ユーザーにあなたのARアプリを使ってもらうためには、その他のさまざまな活動とユーザーの時間を分単位で常に奪いあっていかなければならないのだ。既にユーザーの時間はARアプリ以外のものにつぎ込まれているが、どうすればARアプリがそこに入り込めるのだろうか。

機能としてのAR(YelpのMonocle、Google Lens)

ARKitを使ったアプリといえば、アプリ全体が「ARモード」で現実世界に情報を付加するようなものを思い浮かべがちだ。しかし多くの機能(パスワードの入力など)はARでない方が使い勝手が良い。例えば位置情報だと、ARよりも2次元の地図を使った方が拡大・縮小ができたり、周囲の様子を見回せたりとユーザーにとっては便利だ。つまり、アプリのどの部分がARと親和性が高いかをよく考え、ARを機能のひとつとして使うようなハイブリッド型のアプリ開発も視野に入れた方が良いということだ。YelpのMonocleはまさにこの「機能としてのAR」の好例だ。

Yelpのアプリには「ARモード」があくまで機能のひとつ(Monocle)として搭載されており、これはARが目的化していないうまいやり方だ。

現実世界とのインタラクション

デジタルコンテンツと物理的な現実世界の間で何かしらのインタラクションを生み出せるかどうか、というのがARネイティブアプリの必要条件だ。もしも両者の間にインタラクションがなければ、それは普通のアプリということになる。もっと言えば、私たちにとっては現存するスマートフォン向けのアプリこそが「デフォルト」のUXであるため、ARテクノロジーを使ってしか実現できない機能がないとARアプリの意味がない。ここでいう「インタラクション」とは大きく分けて次の3つだ。

3Dジオメトリ:デジタルコンテンツが現実世界の環境に沿った反応を示すというのがひとつめのインタラクションだ。Tangoのデモの多くはこのタイプで、現実世界の坂からジャンプするDekkoのラジコンカーや机の下で動き回るMagic Leapのロボットなども全て同じカテゴリーに含まれる。

 3Dジオメトリを活用したアプリでは、周囲の物理的な環境が重要な要素となる。

視界・環境の共有:他の人が物理的に近くにいないといけないアプリがあれば、おそらくそれはネイティブARアプリだ。このタイプの例としては、建築家が建築物の3Dモデルを使って顧客に詳細を説明するためのシステムや『スターウォーズ』のホロチェスなどが挙げられる。

同じ空間にいる友人や同僚との「幻影」の共有は、ARだからこそ実現できる素晴らしい体験だ。

モーションコントローラー:これはコンテンツ自体は静的で、ユーザーがデバイスを動かしたり、Wiiさながらデバイスをコントローラーのように使ったりするケースを指している。このインタラクションのあり方がARネイティブと言えるかどうかは、個人的に微妙なラインだと考えている。例えば、アプリを通して見ると目には見えない何かが机の上に現れ、デバイスの位置によって違った角度からそのコンテンツを眺められるという類のアプリは、ただ目新しいだけでARネイティブとは言えないというのが私の意見だ。さらにこのユースケースに限って言えば、ズーム機能などが使える従来型のアプリの方がよっぽど使い勝手が良いだろう。

ユーザーが実際に動き回ることで感じられる物理的なスケールこそがARネイティブの核だと主張する人もいる。しかしここで重要なのは、目新しさ以外に何かメリットがあるかどうかということだ。コントローラー型のインタラクションがARネイティブな形で機能しうる例としては、Wiiのコントローラーのように、デバイスを動かすことでコンテンツを操作できるようなものが考えられる。例えばAR空間に風船が浮かんでいるとして、スマートフォンをバーチャルな風船に向かって押し当てることで実際に風船を「押す」ことができれば、これはARネイティブだと言えるかもしれない。

ARアプリを作ろうとしている人は、上記のようなインタラクションを活用することで、ユーザーに何かしらのメリットをもたらせられるかどうかをよく考えなければならない。もしもAR要素がユーザーのメリットに繋がらなさそうであれば、開発中のアプリを単に目新しいおもちゃ(これ自体は全く悪いことではないが、繰り返し使われる可能性はゼロに等しい)として考えるか、むしろ従来型のアプリを開発した方が良いだろう。

位置情報が希少性を取り戻す

2011年に行われた、Super Venturesのパートナー(OriとTom)主催のAWEというイベントで、私にとってはここ数年で1番興味をそそられるアイディアをJaron Lanierが語っていた。インターネットが希少性という概念を壊した(デジタルデータは無尽蔵にコピーでき、働く場所も制限されなくなってきた)が、ARには希少性を取り戻す力があるというのが彼の考えだ。ARエクスペリエンスはユーザーがいる場所と深く関係しているため、たとえ違う場所で同じ体験を再現できたとしても、やはりもともと想定された場所で使ってこそアプリの真価が発揮される。これは「音楽ファイル対ライブ」のデジタル版のような構図だと言える。

希少性にはかなりのビジネスチャンスが秘められており、特にブロックチェーンや非中央型のビジネスと組み合わさることで面白いことが起きるだろう。クリエイティブ系のビジネスは、特に希少性の崩壊でダメージを受けた業界ということもあり、ARを活用することで大きな利益をあげられるかもしれない。少なくとも音楽業界ではライブイベントこそが主な収益源なのだ。

Pokémon GOはレイドイベントの導入でこのコンセプトを活用し始めた。例えばレアポケモンのミュウツーを捕まえるには、日本で先日開催されたレイドイベントに参加しなければならなかった。

他にも例えばAR版のMMOで、ある鍛冶屋にたどり着くためには現実世界でアフリカまで行かないといけないといった使い方も考えられる。このように、希少性をデジタル世界に蘇らせることで、今後さまざまな面白い試みが生まれることだろう。

どんなに良いアイディアが思い浮かんでもそれにとらわれるな

ARはなんとも魅力的な概念だ。ARについて考えれば考えるほど、AR技術の大きな可能性に気づき、全く新しいアイディアが浮かんでくる。そんな素晴らしいアイディアとともに私たちのもとを訪れるスタートアップは後を絶たない。彼らは自分たちが解決すべき問題を発見し、次なるGoogleにさえなれそうな巨大プラットフォームの構築を夢見ている。しかし、彼らの夢を実現するのに必要なテクノロジーやUXはまだ(さらにもしかしたら向こう数年間は)存在しない。起業家は自分たちのアイディアを信じて新しいことを始めようとしているが、残念ながら市場やテクノロジーがそのアイディアに追いつく頃には彼らの資金が底をついてしまっているだろう。

最高のアイディアだと信じているものを保留するのは極めて難しいことだが、現時点で本当にそれを実現できる(真の意味で確かな)確証があり、あなたのアイディアに投資する人(本当にそんな人がいればぜひ名前と連絡先を教えてほしい)がいない限り、そうせざるをえない。

もしもこの条件を満たせないようであれば、自分のアイディアが現実とマッチしているか確認した方が良いだろう。

念のため付け加えておくと、「良い」アイディアとは単にクールなアイディアという意味ではなく、ユーザーにとって必要不可欠な存在になりうるアイディアのことを指している。つまり社会に受け入れられていて、効率的かつユーザーが自然と使っている非ARプロダクトから移行するだけの価値があるものということだ。

視野の問題

スマートフォンとHMDとでは視野に明らかな差異があり、HMD用のARアプリが登場すればかなり没入度の高いエクスペリエンスを味わえるようになるだろう。一方スマートフォン用のARアプリには大きな問題がふたつある。

  • ユーザーとARコンテンツの間には、スクリーンという名の小さな「窓」しか存在しない。もしも友人と視界を共有するとなると、その友人にとっての窓のサイズはさらに小さくなる。この問題はトラッキング技術が向上すればある程度軽減できるかもしれない。
  • そもそもスマートフォンに表示される映像は、カメラが見ているものであって、ユーザーが目で見ている景色そのものではない。カメラの向きが映像にも反映され、その視野は人間のそれとは異なる。仮に眼球の中心から直線をひき、その線に沿ってカメラを持てば両者の差異は縮まり、透明なガラスをのぞき込んだような映像が映し出されることになる。しかし実際にそうする人などおらず、誰もがその事実を気にせずスクリーンに表示される情報だけに注目している(ちなみにこの点に関してはいくつかの研究がなされており、人間の目が見ているものに近い映像を撮影できる技術も存在するが、恐らくこれが大衆向けのスマートフォンに搭載されることはないだろう。もしも興味があれば、こちらを確認してみてほしい)。

それでは、普段目で見ている景色とは異なる映像が表示されるスクリーンを使い、さらに没入感を高めるにはどうすればよいのだろうか?

まず、一般的にユーザーは疑うことなく、ARアプリが映し出す情報のことを現実世界に投影されたデジタルコンテンツとして受け入れるだろうという認識を持つことが大事だ。

次にコンテンツのサイズについても配慮が必要だ。もしもコンテンツがスマートフォンのスクリーンとカメラの画角に収まる程度の大きさであれば、端のほうが切れてしまうという事態を避けられる。例えば実物大のティラノサウルスよりも実物大の猫を投影するアプリの方が、ユーザーエクスペリエンスという点では優れている。コンテンツのサイズをうまく利用することで、没入感や魔法のような感覚をつくり出すという点については、仮想現実(VR)での学びを応用し、スケールインバージョンを使っても良いだろう(例:植木の周りを漂う小さな妖精)。

もしもコンテンツがスクリーンに収まらないほどの大きさになるのであれば、全体像は確認できないのだとユーザーが自然と理解できるような仕組みを導入しなければならない。例えば、ユーザー(の持つスマートフォン)が見ている部分だけコンテンツをハッキリと表示させ、スクリーンの端には霧を漂わせるという仕組みはうまく機能した。この仕組みを使えば、ユーザーはスクリーンに表示されたエリアの外には面白いものがないのだと感じる上、他の部分を見たい人はデバイスを動かすだけでいい。1点注意が必要なのは、スクリーン外のコンテンツがどのあたりにあるかという情報を同時に提供するということだ。ユーザーが周りを見渡してどこに残りのコンテンツがあるのか探し回らなければいけないということがないようにしたい。

視野をうまく使った没入感の創造というのはとても難しい課題だ。また、ARアプリを単なる目新しいものとしてではなく、繰り返し使ってもらえるようなプロダクトにすることも簡単ではなく、ユーザーエクスペリエンスのさまざまな要素について再考が必要になる。そこで基本的な機能からユーザーテストを行うことが極めて重要になってくる。特にARでは、目新しさというバイアスを取り除いて現実的なデータを収集するために、同じユーザーを対象に時間をかけて繰り返しテストを行わなければいけない。YouTubeの動画上ですごいと思えるようなアプリと、実際にユーザーが満足できるようなアプリとの間には大きな差がある。

シーンはコントロールできないと理解する

開発者にとってのARアプリとその他のソフトの大きな違いは、ユーザーがアプリを開く場所をコントロールできないということだ。例えば60x60センチのスペースが必要なARゲームを開発したとしても、ユーザーはバスに乗っているときにアプリ開くかもしれないし、小さなテーブルや食器が残ったテーブルにスマートフォンのカメラを向けているかもしれない。するとそのARゲームは使い物にならなくなってしまう(もしくは非ARアプリとして使うしかない)。この問題についてはふたつの対策と実現に時間がかかるであろうアイディアがひとつある。

まずひとつめの対策として、利用場所に関する具体的なインストラクションを提供するという手がある。別の部屋に移動したり、テーブルの上をきれいにしたり、家に到着するまで待つようにユーザーに指示を出せばいいのだ。しかし、もしもユーザーが想定外の場所でアプリを開いたときはエクスペリエンスが悪化してしまうため、種々の指標が低下してしまう可能性があるというのは想像に難くないだろう。利用場所を限りなく絞って、それ以外の場所でユーザーがアプリを開こうともしないようにするというのも手だ。

もうひとつのオプションとして、どこででも機能するようなコンテンツを採用するという手段がある。Dekkoではこの方法を採用し、当初はレベルや難易度が設定されたゲームを作ろうとしていたが、結局どこでも遊べるようなおもちゃの車が走り回るアプリを開発することに決めた。ARKitでゲームアプリを開発しようとしている人に対する私のアドバイスは、どこでも遊べるデジタルおもちゃ(バーチャルラジコン、バーチャルスケートボード、バーチャルボールとバットなど)を作るということだ。

そして現時点では技術的に実現不可能とはいえ、将来的にはどのARアプリもこの方向に進むであろう最後のアイディアが解決策としてはもっとも優れている。そのアイディアとは、アプリ自体が3次元空間を理解できるような仕組みを導入し、ユーザーの周りの環境に応じて自動的かつスマートにコンテンツを配置していくというものだ。このアイディアを実現するには、次のふたつの技術が実用化レベルに達するまで待たなければならない。ひとつは3Dシーンをリアルタイムで再構築して(これはほぼ実現しつつある)その内容を理解する技術、そしてもうひとつがコンテンツの自動レイアウト技術だ。

これらの技術が実現するまでにはまだ数年ほどかかることが予想されるため、少なくとも現時点では最初のふたつのいずれかを選ばざるをえない。

MoatboatのARアプリは特定の環境を必要とせず、ユーザーはどこにでもコンテンツを投影できる。このように自由度の高いコンセプトは、どんな環境で起動されるか予想できないスマートフォン向けARアプリとの相性が良い。Moatboatのアプリは物で溢れた部屋の中でも平らな床と何ら変わりなく機能し、バーチャルの小屋や牛を洗濯物の山の上に投影し、そこからオブジェクトがずり落ちる様子を見て楽しむことができる。

その一方で、開発者側にコントロールがなく、主体性がユーザーに委ねられているからこそ新しいものが生まれる可能性もある。これこそがARというメディアの特徴なのだ。Charlieがこの点について素晴らしい講義を行ったのでこちらから動画を見てみてほしい。

上記に加え、現状の開発ツールではアプリ内で任意の座標系しか利用できず、セッションごとに座標が変わってしまう。さらにARアプリは原点(X=0、Y=0、Z=0)から計測した周囲のオブジェクトの相対位置しか把握できない。つまりユーザーの周囲に関する情報には持続性がなく、絶対座標系による修正もなく、ユーザーが他の人と自分の「スペース」を共有することもできないのだ。ARCoreとARKitのどちらに関しても、この点はきっと近い将来(1年〜1年半のうちに)変わっていくだろうし、オーバーレイAPIを開発中のスタートアップも存在するが、とりあえず現時点では座標系についても設計時に頭に入れておかなければいけない。

コンテンツと現実世界の間でインタラクションを起こすためには、周囲の様子を反映したデジタルモデルをカメラから取り込むか、どこかからダウンロードしなければならない。(出典:Roland Smeenk

デバイスの自然な持ち方

モバイルARの黎明期には、ユーザーが目の高さまでスマートフォンを持ち上げてアプリを使う(このことをハンズアップディスプレイと呼んでいた)だろうと私たちは楽観的に考えていた。人の行動に変化を起こすことの難しさを過小評価し、スマートフォンを持ち上げている人を見た他の人も特にそれを気にしないだろうと考えていたのだ(グラスホールのことを覚えているだろうか?)。しかしARアプリをもってしてもこの状況を変えることはできない。つまり開発者は自然なデバイスの持ち方をもとにアプリを設計しなければならないのだ。

  •  デバイスを持ち上げる必要がある場合は、最長でも写真を撮るときくらいの長さにする。この持ち方は長時間利用するようなアプリではなく、疑問に対する視覚的な答えを見つけるようなものに向いている。

もしもタブレットやスマートフォンを写真のように持ち上げる必要がある場合は、1〜2秒間でおさまるようにする。(出典:GuidiGo

  • 普段のように下向きに45度の角度をつけて持つ。これはユーザーの目の前で小さなコンテンツ(高さが30〜60センチ程度のもの)を表示するのに適している。

この持ち方だと、ユーザーは一定時間にわたってアプリを使い続けられる。しかしスクリーンに映し出されるシーンは、デバイスを持ち上げた場合よりも狭く、面白みに欠けたものになる。

スマートフォンのセンサーを活用し、持ち方に応じてモードを切り替えるという方法もある。例えばデバイスが地面に対して水平な状態にあれば2次元の地図を表示し、垂直になった途端にARモードに切り替わってビジュアル検索機能が起動するといったアイディアが考えられる。NokiaのCity Lensアプリは2012年の段階で既にこのようなUIを採用していた。これは熟考する価値があるポイントだ。

スクリーン経由のインプット

アプリのテストを行っていると、ユーザーがまずスマートフォンの周辺に手を伸ばして画面に映っているものを触ろうとし、触れないとわかった途端に困ったような表情を浮かべる様子をよく見かける。これは面白いアプリができつつあるという証明でもあるのだが、それと同時に、コンテンツはユーザーから何十センチも離れたところにあるように表示されつつも、全てのインプットやインタラクションはユーザーの手の中にあるスクリーンを介して行われるのだということに気づかされる。

ユーザーは3次元でコンテンツを楽しんでいるのに、何かしらのアクションをとるには、またスクリーンという2次元の世界に頭を切り替えなければならないのだ。これは認知的負荷であるとともに没入感を損なうポイントでもある。その一方で、操作時に大きなジェスチャーが必要になったり、誰かが近くにいないといけなくなったりすると、それはそれで問題だ。

ユーザーが「目の前にある」にあるコンテンツを選んだり、両者の間にインタラクションを発生させたりするために、どんなアフォーダンスをUIに与えばいいのかというのは難しい問題だ。Dekkoのラジコンアプリでは、スマートフォンをコントローラーという現実世界にあるものに見立てることでこの問題に対処している。しかしDekkoで猿のキャラクターが登場するアプリを開発していたときや、SamsungでSamsung SmartHome製品の開発に携わっていたときは、全ての人がすぐに使い方を理解できるようなアイディアがなかなか浮かんでこなかった。

ラジコンのデザインコンセプトを利用することで、車とは別に手で持つコントローラーがあるはずだとユーザーに想起させることができた。その結果、スクリーンに触れながら、離れた場所に映し出された車を操作するというユーザーの課題を解決できたのだ。

単にコンテンツに「タッチ」できるだけでは、根本的な問題の解決にはつながらないということも覚えておいた方が良い。もしもMeta HMDやLeap Motionを試したことがあれば、触覚フィードバックがないと、ユーザーとコンテンツが分断されてしまうということがよくわかるだろう。個人的にはARへのインプットの問題こそ、消費者一般にARを普及させる上でまず解決しなければいけないことだと思っている。

現実世界の映像を加工する(VS透過型ディスプレイ)

映像を加工することで、仮想世界と現実世界の差が縮まり、UXの向上が図れる。上記のシーンに映った物のうち、何が現実に存在するもので、何がデジタルコンテンツなのか見分けられるだろうか? 加工の度合いが強まるごとに両者を見分けることが難しくなってくる。

透過型HMDと比べたときのスマートフォン向けARの特徴は、カメラのとらえた映像が「現実世界」としてスクリーン上に表示されるということだ。そしてその映像を加工することで、アプリ内の世界観の統一が図れる。Will SteptoeはFacebookに参画する前の2013年に素晴らしい研究を行い、現実世界の映像をわずかに加工することで、現実世界と仮想世界を見分けづらくなり没入感が増すという研究結果を発表した。これはARKitを使ったアプリ開発にも応用できる、かなり興味深いアイディアだ。

機能の切り替えにアプリのコンセプトを採用するVSネイティブAR UI

スマートフォン向けのARアプリは、(そもそものOSの性質としてデスクトップ画面が起動画面になるということもあり)モードを切り替えるときに「アプリ」を開いたり閉じたりするようなアクションをとることになる(メッセージアプリとゲームアプリの切り替えを例にとってみると、恐らくこのふたつをひとつのアプリに詰め込まれても不便だろうし、アプリに私が何をしたいのか推測してもらいたくもない)。なので(カメラ経由の)ARビューとそうでないモードは、ユーザーの意向に沿って絶えず切り替えられることになる。

つまりアプリの開発側はダイナミックなモード切替(建物にカメラを向けたときに、アプリが住所を表示しなければならないのか、それともYelpのレビューなのか、Truliaの価格情報なのか、建物の歴史なのか、中に友人がいるかどうかなのか)のことをそこまで深く考えなくてもいいということだ。さまざまなユースケースに対応するため、数え切れないほどの機能を搭載したアプリ(プラットフォーム的なアプリ)を開発するというのは魅力的なアイディアではあるが、ユーザーがほしいものを理解し、それを表示するというのはとてつもなく難しい問題なのだ(恐らくこの記事から何かしらの学びがある人には到底解決できないほど難しいだろう)。

スキューモーフィズム(実物に似せたデザイン)は良いこと

繰り返しになるが、ARは全く新しいメディアであり、ユーザーは単純にどうARを使えばいいのかわかっていない。インタラクションを設計する上ではさまざまな可能性があるが、ユーザーはその凄さには気づかないだろう。しかし現実世界にあるものをコピーしたようなデザインを採用すれば、ユーザーは直感的にアプリの使い方を理解できる。

Dekkoで小さな猿のキャラクターが登場するARアプリを開発したとき、キャラクター自体はかなり気に入ってはもらえたものの、ユーザーはそのアプリで何をすればいいのか全くわからなかった。しかしその後、猿のキャラクターからラジコンに方向転換し、本物のラジコンに似たコンテンツを準備したところ、もはやユーザーに何かを説明する必要がなくなったのだ。SamsungではAR空間で電話をとるプロトタイプを開発した。電話のとり方にはさまざまな方法(メッセージを握りしめたホグワーツのふくろうがユーザーの前に舞い降りるなど)が考えられたが、結局ユーザーテストでもっとも良い成績を残したのは、緑のマークで応答、赤のマークで拒否といったiPhoneの電話アプリとよく似たUIだった。

ここで重要なのは、恐らくARでは2Dではなく(影や透明度などで)奥行きを感じさせる3Dの新しいシンボルが登場するが、それを実物そっくりにする必要もないということだ。

ユーザーにとって全く新しいエクスペリエンスを提供する中で、現実世界の物に似たデジタルオブジェクトを準備するというのは良いアイディアだ。

シンボル化がうまくいっているかどうかを判断するには、ARに触れたことのないユーザーにアプリをテストしてもらうしかない。どれだけものごとをわかりやすく単純化しないと、何かしらの説明が必要になるという事実にきっと驚くことだろう。

目にするものを信じないユーザーのためのアフォーダンス

日常的にARテクノロジーに接している私たちにとって受け入れがたかったのが、目にするものを信じないユーザーの多さだ。彼らはデジタルコンテンツが「3次元空間」にあるのではなく、スクリーン上にあるだけだと考えていたのだ。

この点については、現実世界との繋がりを想起させるアフォーダンスや、かすかなシグナルを使うことで、アプリ内で一体何が起きているのかをユーザーに理解させることができるだろう。光源やダイナミックな影まで再現する必要はないが、少なくともドロップシャドウくらいは使わないといけない。デジタルコンテンツに加え、グリッド線などで現実世界に何かしらの目印をおくことでもユーザーの理解度は向上する。

Dekkoでもエッジに色のついたグリッド線を導入し、アプリが奥行きや3次元空間を理解しているということをハッキリさせ、さらに他のものを全て隠すことで、内部で何が起きているのかをユーザーにやんわりと伝えなければならなかった。こうすることでユーザーは、自分たちの信じていなかったようなことをアプリができるのだと理解できた。

その他には、デジタルコンテンツが現実世界のオブジェクトに衝突したり、行く手を阻まれたり、スマートフォンの動きやユーザーのインプットに反応したりする様子を表現することも、(実装は大変だが)コンテンツをリアルに見せる方法のひとつだ。トラッキングがズレることなく安定しているというのは、その一部でしかない。例えばキャラクターがAR空間を歩いているときに、一歩ごとにわずかにスライドしていることがよくあるが、これではユーザーは説得できない。同様に、キャラクターが現実世界の何かにぶつかったのに何の反応も示さないという場合もリアルさが損なわれてしまう。

逆にキャラクターとのアイコンタクトなどがあると楽しさが増してくる。ここではどのようなキャラクターを選ぶかということも大変重要だ。キャラクターがリアルであればあるほど、ユーザーが「正しい」と考える動きのハードルが上がってしまう。ARでは現実世界と仮想世界が混ざりあっているため、不気味の谷現象はアニメ映画よりもAR空間内の方が顕著に感じられる。私たちの経験によれば、できるだけリアルじゃない漫画っぽいキャラクターを選ぶことで、キャラクターの行動に関するユーザーの期待値が下がり、動きに多少の問題があっても見過ごされる可能性が高い。『ポーラー・エクスプレス』ではなく『ロジャー・ラビット』のように考えなければいけないということだ。

AR空間にアフォーダンス与える上での大きな問題としては、コンテンツのオーバーラップと情報の密度が挙げられる。ほとんどのデモでは、平らな場所でラベルがそれぞれから十分な距離を取って綺麗に並んでいる。しかし展示会のブースをデザインする人や建築家であればよくわかると思うが、動きながらでも読めるようなラベルやサインを3次元空間でデザインするのはかなり大変なことなのだ。

キャラクターやアセットのデザイン

HuckがデザインしたDekko Monkeyは本当にたくさんの人に気に入ってもらえ、アプリの誕生から3〜4年経った今でも知らない人にこのアプリについて尋ねられることがある。

どんなキャラクターやアセットを使うかについて考えていたときに、私たちは素晴らしいアプローチを思いついた。そして実は、今では私たちの考え方が業界全体に広がっているようなのだ。2010年にDekko Monkeyに関するさまざまな研究やユーザーテストを行ったSilkaは、「大人向けのピクサー」を目指してキャラクターをデザインすればいいのだという結論にたどり着いた。不気味の谷を越えず、かつある程度のアフォーダンスが残されていて、洗練されつつもポリゴン数の少ないキャラクターだ。このようなキャラクターのスタイルは、どんな性別や年齢の人にも馴染みがあり、さらには国境や文化の壁をも越える可能性を秘めている。

そこで彼女はKidRobotのビニール人形をデジタル化したようなキャラクターこそがピッタリだと考え、KidRobotのトップデザイナーHuck Geeに連絡をとった。結局彼がDekko Monkeyをデザインしてくれることになり、今では私の良き友となった(彼は本当に優秀なデザイナーでARキャラクターの制作にはピッタリの人物なので、もしも彼に連絡したい人はまず私にコンタクトしてほしい)。

数年後には、PentagramのNatasha JenがMagic Leapのデザインで(KitRobotの人形も含めて)ほぼ同じ結論にたどり着いた。彼女の考えにも興味がある人はこちらの動画見てみてほしい(30分前後の時点から)。

最新のARCoreのデモにも似たスタイルのキャラクターが登場する(特にWizard of Ozのキャラクター)。

最後に

私たちの経験をこの記事で共有することで、ARアプリの開発を考えている人たちがイテレーションサイクルを何回かスキップできるとともに、ユーザーを魅了するようなプロダクトが早く市場に登場することを願っている。YouTubeには10年近く前から素晴らしいコンセプトのデモ動画がアップロードされているが、私は素晴らしいプロダクトを実際に試したいのだ。両者の間には多くの人が思っているよりもかなり大きな差がある。

終わりの言葉として開発者のみなさんに覚えていてほしいのが、「経験豊かなAR、UXもしくは工業デザイナーを幹部に招き、あとは全てについてユーザーテストを繰り返す」ということだ。

グッドラック!

謝辞

この記事はAR UXに対する造詣が私よりも遥かに深く、それぞれ少なくとも5年間はARプロダクトのUXに関する課題に取り組んできた以下の人たちの協力なしには実現しなかっただろう。

  • Charlie Sutton:以前はSamsungのARチームでデザイン部門のトップを務め、それ以前にはNokiaでARプロダクトのデザインチームを率いていた(あまり知られていないが、Nokiaは2000年代後半にAR界の最前線を走っており、現在でも世界トップレベルのAR関連特許数を誇る)。現在はFacebookに勤めている。
  • Paul Reynolds:開発者・デザイナー向けに、AR・VRネイティブアプリの開発を簡素化するためのTorchというシステムを開発している。以前はMagic LeapでSDKチームのトップを務め、アプリとプラットフォームの中間にあるようなARプロダクトの開発にあたっていた。
  • Mark Billinghurst:世界トップレベルのAR研究者で、AR空間でのインタラクションに関する分野では知らない人がいないくらいの伝説的な人物。研究歴は20年以上におよび、ARやVRに関する本や論文のほぼ全てに彼の研究内容が引用されている。以前はHIT Lab NZに、現在はアデレードのEmpathic Computing Labに勤務しており、彼の研究のほとんどはこの2つの機関のウェブサイトに掲載されている。私にとっては良い友人であり、Super Venturesのパートナーでもある。
  • Jeffrey Lin博士:視覚から得た情報が脳でどのように表現されるのかという研究で世界的に有名な専門家。研究内容を応用し、以前はValveとRiot Gamesでプロダクトデザインに携わっていた。現在はMagic Leapでデザインディレクターを務めている。彼のMediumポストはARデザインに関する有益な情報で溢れている。
  • Silka Miesnieks:私の妻であり、2009年以降ARプロダクトの開発に取り組んでいる。私とともにDekkoを創設し、まだAR業界の人々が考えてもいないようなARのUXに関する問題を解決してきた。現在はAdobeのDesign Labに勤め、非エンジニア向けのイマーシブデザインツールの開発に携わっている。

この記事にもしも何か誤りがあれば、それは上記の人たちからのアドバイスをうまく表現できなかった私に全責任がある。ぜひ彼らをソーシャルメディア上でフォローして、何か質問があれば尋ねてみてほしい。そして願わくば、新しいプロジェクトに彼らを引き込んで、彼らが今の仕事をやめてしまうくらいのことが起きてくれれば幸いだ。

原文へ

(翻訳:Atsushi Yukutake

iPhone 8にはAppleが設計した独自のGPUが新しいA11 Bionicチップとともに載っている、機械学習のためだ

iPhone 8のカメラには、A11 Bionicという新しいチップが載っていて、それは6-coreチップを上回るパワーを秘めているが、今日(米国時間9/12)の発表でいちばん重要なのは、たぶんそこではない。

AppleがiPhone 8に載せたのは、独自に設計したGPUなのだ。GPUの、大量のコアの配列を動員する高速かつ強力な計算力は、自然言語処理や画像認識など機械学習のタスクにうってつけだ。ハイスペックなGPUはもちろんゲームにも向いているが、デバイスの配列をベースにしてSiriのエコシステムに人びとを閉じ込めたいAppleにとっても、これ〔カスタムGPU〕は大きな一歩だ。

ここまでの道も、長かった。4月には、AppleがiPhone用の独自のGPUを設計している、と囁(ささや)く声があった。機械学習のためにカスタムハードウェアやGPUを作って、ハードウェアをそのニーズに向けて最適化しようとしているのは、Appleだけでなない。しかしAppleにとっては、Siriとカメラと今後の機械学習ツールのために最適化されたツールを作ることが目的だ。

それにまたこれは、拡張現実におけるAppleの取り組みにとっても重要だ。デベロッパーには、拡張現実を開発するためのツールを提供して彼らの気を引きたい。またスマートフォンが高品質な消費者体験をサポートして、その魅力を一層高めれば、それもより多くのデベロッパーの心を捉える。

一方A11 Bionicの重要な特長は、下図に‘表示’されている:

Appleは通常、スマートフォンのアプリやそれが取り扱うプロセスの高度化ニーズに対応して、プロセッサーの高速化と効率化に努めてきた。でも今回独自のGPUを使うようになったことは、長年その部分を独り占めしてきたNvidiaを袖にすることだから、重大事件だ。しかもそれは今後、デベロッパーにとっても重要な意味を持つ。

今回本誌TechCrunchは、iPhoneイベントの記事やライブブログがめちゃめちゃ多いから、ぜひお楽しみいただきたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



Facebook、事前にWi-Fiでデータ読み込んでおく「インスタントビデオ」 をテスト中

Facebookは、ユーザーがビデオを見続けて通信データ枠を使い果たしてほしくないと考えている。同社のテストしているInstant Videosという機能は、Wi-Fiが使えるときにFacebookビデオをダウンロードしておき、後で見ることができる仕組みだ。プレロードされたビデオには稲妻アイコンが表示される。

Instant Videosは、Instant Articlesを思い出させる機能だ。Instant ArticlesはFacebookの定めた形式のコンテンツを速く読み込むことで、ユーザーが外部記事の表示を待たずに済むシステムだ。ビデオの読み込みはウェブページ以上に遅いため、自分のビデオを見て欲しいと思うパブリッシャーには魅力だ。

この機能は、Facebookに新たに加わったオリジナルビデオコンテンツ用のWatchタブにとっても有益だ。キャッシュされたコンテンツを出先でもデータプランを気にせずにみることができる。

FacebookはInstant Videosのテストはごく限られた割合のAndroidユーザーを対象に行っていると本誌に話した。Instant Videosを最初に報告したのは “Devesh Logendra” と名乗る人物で、TNWのソーシャルメディア担当ディレクター、Matt Navarraに匿名でスクリーンショットを送ってきた。本誌はFacebookに連絡をとり、この機能の目的はFacebookのビデオを見るための通信料金という障壁をなくすことだと正式に確認した。

これまでFacebookは、帯域幅や通信料金の異なるユーザーのために、ファイルサイズの小さいコンテンツを優先してニュースフィードに流したり、すでに見たコンテンツを再掲するなどの方法をとってきた。

Instant Articlesの主な狙いがFacebookでニュースを読む際のスピードと利便性であったのに対して、Instant Videosはコストとアクセスしやすさに重点を置いている。これは途上国での利用を開拓しているFacebookにとって重要な機能になるだろう。データ料金が平均収入とくらべて著しく高く、通信も途絶えがちの地域ではビデオの閲覧はストレスのたまる体験だ。

しかし、もしFacebookが今日だけでなく明日のソーシャルネットワークになりたいのなら、ビデオをもっと前面に押し出す必要がある。ビデオはテキストや写真以上に魅力的なエンターテイメントや個人間のつながりをつくる。モバイルビデオの利用は急増しており、eMarketerが報じたNewsWhipの調査結果によると、Instagramで配信されたニュースビデオの視聴は前年比53%も伸びている。

ビデオは、ブランドが制作に慣れているテレビCMに近い広告を利用できるため、実入りのいいメディアでもある。通常のビデオを見ることに慣れたユーザーは、ビデオ広告を受け入れやすい。さらにFacebookは、ビデオの途中に広告を入れ、収益の55%をクリエイターに分配するシステムも開始している。Instant VideosにもこうしたCMが挿入される可能性がある。

Instant VideosのテストをAndroidで行うことで、FacebookはiPhoneが稀な途上国と、予算に敏感な若者の両方を取り込の基盤を作ろうとしている。技術を駆使し将来を見越したアクセス拡大への取り組みと普及の高さを利用して、FacebookはYouTube、Snapchat、Twitterを始めとするビデオのライバルとの戦いを優位に進めようとしている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleが今日ローンチしたDrive File StreamはG SuiteユーザーのGoogle Driveデスクトップアプリケーションをリプレースする

Googleが今日(米国時間9/7)、Google Driveのユーザーのための新しいデスクトップアプリケーションDrive File Streamを発表した。G Suiteの顧客は、今すでにそれを使える。このアプリケーションはGoogle Driveのデスクトップアプリケーションに置き換わるもので、こちらは来年、最終的に閉鎖される。エンタープライズの顧客にとっても、十分に長い移行期間と言えるだろう。

この移行についてGoogleは前に、詳細を報じていた

7月のGoogleの発表では、消費者向けのGoogle DriveとGoogle Photosのデスクトップファイルシンクアプリケーションを“Backup and Sync”と呼ばれる新しい単一のアプリケーションに一本化する、とされた。そしてそのあと、Google PhotosとGoogle DriveのMac用およびPC用のクライアントアプリケーションのサポートは終了することになった。

それと関連して、Drive File Streamと呼ばれるエンタープライズ向けソリューションがローンチされることになり、それは後日G Suiteの顧客全員に展開される、と言われた。そのときは、Drive File StreamのEarly Adopter Program(初心者入門事業)も開始された。

消費者アプリケーションとエンタープライズバージョンの主な違いは、その管理機能(アドミン機能)だ。

G SuiteのAdmin Consoleには今日から、Drive File Streamのセッティングが表示される。そこでアドミンは、シンクのon/offや、ソフトウェアのインストールの仕方、手作業でアップデートする場合のGoogle Updateの無効化など、さまざまな構成項目を指定できる。

Drive File Streamの設定は今日からできるが、実際にそれらが有効になるのは9月26日の火曜日からだそうだ。

ただしDrive File StreamがリプレースするMac, PC用のGoogle Driveは、今日から公式に非推奨になる。

そしてGoogle Driveのデスクトップソフトウェアのサポート終了は12月11日、完全閉鎖は2018年3月12日とされている。

さらにGoogleは曰く、消費者向けツールBackup and Syncは、エンタープライズソフトウェアのDrive File Streamの代わりに使ってもよいし、併用してもよい。

Backup and Syncはコラボレーション用のTeam Drivesをサポートしていないが、Drive File Streamとともに、DocumentsやDesktopなどDriveのフォルダーをシンクできる。その機能の一部はDrive File Streamと重複している。ついでに両者を一本化/単純化してほしいけどね、Googleさん。

この記事の文章だけではよく分からない人は、このページの表(上図)をご覧いただきたい。

このローンチのニュースと並行して今日は、Google Driveクラウドサービスの不具合が報じられた。今朝はDriveとGoogle Classroomがダウンしたのだが、後者はアタッチメントの保存にDriveを使用している。この問題は、二時間後に解決した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apple曰く今度のデベロッパーサービスの事件はバグのせい、セキュリティ侵犯ではない

Appleの説明によると、デベロッパーのアカウントに短時間影響を与えた問題はバグが原因で、一部の説のようなセキュリティの侵犯ではない。

今朝(米国時間9/6)、Appleのシステム上にある一部のデベロッパーのアドレスが、ロシアのある場所に書き換えられた、という報告がいくつか入ってきた。ヒラリー・クリントンの選挙参謀のメールアカウントのハッキングをはじめとして、最近はロシアを悪者視する風潮もあるため、今回のその事件も、アクセス権限のない第三者の仕業(しわざ)か、という不安が走った。

[ぼくのチームの全員がロシアで登録している。すごいな。]

しかしAppleは、システムは侵犯されていない、と述べた。

同社はデベロッパーたちに次のような注記を送り、まだ特定されていなかったバグが一時的な問題を起こした、と説明した。被害者はデベロッパー全員ではなく、“一部”だそうだ:

アカウント管理アプリケーションのバグにより、あなたのアドレス情報が、Apple Developer Webサイトのアカウント詳細で一時的に不正に表示されました。被害を受けたデベロッパー全員が、同じ不正なアドレスになりました。原因となったコードレベルのバグは直ちに解決され、あなたのアドレス情報は今では正しく表示されています。セキュリティの侵犯はなく、Apple DeveloperのWebサイトやアプリケーション、サービスなどはいっさい毀損されておりません。また、あなたのApple Developer会員の詳細情報は誰からもアクセスや共有、表示をされておりません。

2013年には、AppleのDeveloper Centerがハックされてまる三日間ダウンしたが、今週の事件はそれの繰り返しではない。でも、ロシアとAppleのデベロッパーの二つが並んで登場することは、一部の人にとって、とてもおもしろいかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook、オリジナルビデオ番組が見られる「Watchタブ」を米国で一般公開

本日(米国時間9/5)Facebookは、オリジナルビデオコンテンツを見られるWatchタブを、米国の全ユーザーに公開した。ひと月前に限定公開され、先週公開範囲が拡大されたところだった。Watchは、Facebookのモバイルアプリ、ウェブサイト、およびTVアプリで利用が可能で、ユーザーはニュースフィードに無差別に流れてくるビデオと違う、気に入ったシリーズを定期購読できる。米国のユーザーには、モバイルアプリのナビゲーションバー、あるいはウェブサイトのブックマークにTVアイコンが表示される。

またFacebookは、ユーザーの作成したビデオが、主要レコード会社の音楽を含んでいたために削除されることへの対策を検討している。Bloombergによると、Facebookは、数億ドルを支払うことによって、著作権に触れるビデオを削除されることなく公開しておける契約をレコード会社に提案している。

当初Facebookは、YouTubeのContent IDと同様のシステムを作り、レコード会社が自社作品の利用を検出できるようにすることで、収益の一部を請求できるようにするつもりだった。しかしBloombergによると、そのシステムの開発には最大2年を要するため、Facebookは削除要求を回避するために今すぐ支払う方法を選んだ。

タイトルは貧弱

Facebookは、ビデオコンテンツを見つけるためのさまざまな方法を提供している。特集プログラムの回転トレイ、「今日のスポットライト」「今週の新着」「人気作品」「友だちの見ている作品」「話題の作品」「あなたにお勧め」などだ。

現在目立っている番組はリアリティー・ショウがほとんどだ。安上がりで、脚本も不要で、気楽に見られるため、コンテンツパートナーが挙って作るからだ。しかし、YouTubeやNetflixを見慣れた視聴者を引き付けるためうには、質の高い台本のあるコメディーやドラマが必要だ。

そんなコンテンツとして期待できるのが、独立映像作家のFrancois Ferracciが作ったSF短編映画 “Lost Memories” で、「ホログラムに囲まれた」未来が描かれている。ほかに魅力的な作品は今のところ見当たらない。スター不在で大作も続きが気になる作品もない。それでも、Discovery Channelに回してソファでくつろぎながら見るタイプの人には、Facebook Watchは楽しい暇つぶしになるかもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook

Alibabaが顔認識による決済システム‘smile to pay’をKFCの杭州店でテスト開始

中国はデジタル決済ではかなり先を行っている。その最新の跳躍は顔認識技術、お客は笑顔を見せるだけで支払いができるのだ。

Alibaba傘下のAnt Financialが、その‘smile to pay’(笑顔でお支払い)サービスを、本社のある杭州で開始した。テストするお店はKFC(ケンタッキーフライドチキン)だ。

下のビデオでお分かりのように、顧客がすでにAlipayアプリで登録して顔認識を有効にしていれば、支払いのためにスマートフォンは要らない。POPのところにある3Dカメラが顧客の顔をスキャンして、本人性を確認する。電話番号入力で、セキュリティを強化することもできる。

今回の試行は、Alibabaにとっていろんな努力の成果だ。

同社は2年前にドイツで行われたIFAで、初めて顔認識技術を披露したが、そのとき社長のJack Maが紹介したのは、セルフィー(自撮り写真)を撮ってから支払いをするオプションなど、いくつかの基本的な機能だった。その後オプションは、かなり進歩した。ここでAlibabaが使っているのは中国のスタートアップMegviiのFace++と呼ばれる技術で、MegviiはFoxconnなどから1億5000万ドルあまりの資金を調達している。

KFCをテスト店に選んだのは、KFCの中国のオペレーターYum ChinaにAlibabaが投資しているからだ。McDonaldsやTaco Bellも、中国では同社がオペレーターだ。

Alibabaがこの技術をeコマースの未来と位置づけているのは、オンラインとオフラインのリテールを統合できる、と考えているからだ。同社は今年の初夏にキャッシュレスのストアを開店し、上海ではモバイルアプリで顧客体験を最適化できる近隣ショップを10店営業している

だから‘smile to pay’も、そういった戦略の一環だ。また、Alipayの人気を高めることにも貢献する。こちらはTencentのWeChat Payという強敵がいるから、とくに重要だ。なんといっても、WeChatは中国で巨大な人気を誇るメッセンジャーアプリだから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iOS向けGoogle検索アプリが、Twitterのようなトレンド機能やインスタント回答機能を提供するようになった

木曜日(米国時間8月31日)の遅くにアップデートされたiOS上のGoogle検索アプリには、TwitterやFacebookのTrendsに似たトレンド検索機能が追加されている。米国版App Storeに追加されたAppの「What’s New」(新機能)の説明によれば、Googleは検索ボックスをタップすると「身の回りのトレンド」に関係する検索を表示するようになる。また、入力するに従いリアルタイムに「インスタント回答」も表示する。すなわち検索ボタンを押さなくても迅速に情報を得ることができる。

もしトレンド検索のことを聞いた覚えがあるとすれば、それはこの機能が昨年Android上で公開され、すぐに大量の苦情が殺到したことがあるからだ。実際、Google検索プロダクトフォーラムの1つのスレッドには、その機能を嫌いそれを無効にすることを望む人たちが投稿した500件もの投稿が溢れた。

人びとは口々に、この機能は迷惑で邪魔になると主張した。それらのコンテンツが個人的に興味のないものばかりだったせいだが、何しろそれが反映していたのはGoogle全体で検索されていたものだったのだ。当時ある人は次のように書いている「私はこれまでキャプテン・アメリカやマンチェスター・ユナイテッドのサッカーを探したことは決してない。すぐにこの機能を無効にして欲しい」。

数ヶ月後、Google は、このフィードバックに対応し、Google検索アプリにオプトアウト設定を実装したアップデートを提供した。

App Store上でアップデートされたアプリは、モバイルユーザーに再びトレンドを提供するつもりのようだ。そして、もちろんオプトアウトオプションも提供されている。

現在はトレンド検索として、青く丸い「上向き矢印」アイコンが表示される。これによってユーザー自身の検索履歴との区別がつきやすくなっている。昨年この機能が提供された際には白い背景に灰色のアイコンが表示されていた。

このアップデートでは、Trendsは「ユーザーの周りで起きていること」に関連しているものだと主張されてはいるものの、特にローカルなものだとは思えない。その代わりに、今日のリストとして示されているのは、米国内の一般的なトレンド、例えばもうすぐ開催されるiPhoneのイベント、Big Brotherのネタバレ、そしてスターバックスのカボチャスパイスラテといったものたちだ(わわっ、それは確かにアメリカを一言で表したものだよね?)。

それに加えて、検索機能自身も少々スマートなものになった、検索文字列を入力して行くと、その質問に対する答えを表示するようになったのだ(たとえミスタイプしたとしても)。

たとえば、「goog stock」(goog株)とか「how tall is the Eiffel Tower」(エッフェル塔の高さは)と入力した場合に、検索ボックスの下にすぐに回答が表示される。このデータはGoogleのナレッジ・グラフから得られるものだ。これは WikipediaやCIA World Factbookのような場所から得られた情報に基く、事実に関するデータベースである。

これらのアップデートは、Googleアプリへ最近行われた大きな変更である「フィード」の導入に続くものである(フィードはGoogle独自のアルゴリズムによって生成される、個人の興味に焦点を当てたニュースストリームである)。

アップデートされたGoogle検索アプリは現在App Storeで公開されている。

(日本版:AppStore内のGoogle検索アプリのバージョンは、英語版と日本版の両者とも34.1であるが、訳者の手元のiOSアプリではまだトレンド表示は現れていない。9月3日18:00時点)。

[ 原文へ ]
(翻訳:Sako)

DropboxのコラボレーションツールPaperがドキュメントのプレビュー機能などを加えてアップデート

大企業を相手に一挙に大量のユーザーを獲得したいDropboxは、そのためにプロダクトのチューンナップを続けている。今日(米国時間8/30)のアップデートではコラボレーションツールPaperに、ドキュメントをプレビューしてからロードする機能などを加えた。

シリコンバレーでデザイナーに話を聞くと、みんなPaperの使いやすさをほめる。プロダクトをデザインし構築する過程を、ネット上の呼吸する生き物のような、情報の流れにしてくれるからだ。この製品のユーザーをだいじにすべきだ、と気づき始めたDropboxは、ユーザーの要望に応えて、徐々徐々にプロダクトのアップデートをするようになった。

今日のアップデートをまとめるとこうなる: (1)モバイルデバイス上にフォルダーを作ってPaperのドキュメントを移動〜保存できる。(2)スマートフォン上でPaperのドキュメントを削除したりアーカイブできる。(3)Paperのドキュメントを開く前にプレビューできる。いずれもささやかなアップデートのようだが、Dropboxはかねてからプロダクトの単純性を頑固に守り、機能満載にはしない主義だから、これだけでもすごいことなのだ。

デベロッパー向けには、彼らのアプリケーションの中でPaperドキュメントの作成編集ができる、という機能、すなわちAPIが提供される。いわばDropboxの外で、Dropboxの機能を使えるようになるのだ。また、アプリケーションがそれらのドキュメントを操作しなければならない場合には、このやり方のほうがずっと便利だ。

このようなコラボレーションツールないしコラボレーションの機能は、そのほかの大型製品にもかねてからあるが、Dropboxのねらいは、多くのユーザーの多様なニーズにいちいち対応して複雑怪奇な製品になってしまうことではなく、むしろ、汎用的で抽象レベルの高い製品を維持するところにある。

いよいよ機が熟したと言われている同社のIPOを成功させるためにも、それは重要なことだ。その際、投資家たちは必然的に、同社をBoxやMicrosoftのような企業と比較すると思われるが、消費者製品を起源とするDropboxが彼らに訴求していくためには、Boxなどにはない独自の姿勢が必要なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Mapsで駐車場を見つけやすくなった(アメリカとヨーロッパのみ)

Googleが今日(米国時間8/29)発表したGoogle Mapsのアップデートにより、都市内で駐車場を見つけるのが容易になった。

最初はアメリカのユーザーのみだったが、Google Mapsのデスティネーションカード(行き先カード)(左図)で、目的地の場所ないし地域が駐車困難か容易かを、“駐車難度(parking difficulty)”アイコンで教えてくれる。この機能が今や25の都市に拡大され、アムステルダムやロンドン、マドリッド、モスクワ、パリ、ローマ、サンパウロ、トロント、バンクーバーなどでも利用できる。

アメリカのユーザーにはさらに、行き先近くの駐車用ガレージ(駐車場ビル)を見つけやすくなり、それはトリップ地図に自動的に加わる。しかも、最終目的地までの歩行時間も分かるけど、ガレージの利用料金や、いまいくつ空いているかなどは分からない。ヨーロッパで発達している駐車アプリなら、それらもすべて分かるけど。でもGoogle Mapsにもその機能がいずれ加わるだろうし、予約もできるようになるだろう。

Google Mapsのこの機能を利用できるアメリカの都市は、アトランタ、ボストン、シャーロット、シカゴ、クリーブランド、ダラス/フォートワース、DC、デンバー、デトロイト、ヒューストン、ロサンゼルス、マイアミ、ミネアポリス/セントポール、ニューヨーク、オルランド、フィラデルフィア、フェニックス、ピッツバーグ、ポートランド、サンディエゴ、サクラメント、サンフランシスコ、シアトル、セントルイス、タンパ、の計25都市だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))