オンラインミーティングソフトウェアのZoomが、ARとAIをミーティングに持ち込む

Zoomは、その第1回ユーザーカンファレンスZoomtopiaに於いて、人気のミーティングソフトウェアに対する一連の機能拡張を発表した。拡張現実(AR)ミーティングの導入、議事録の自動作成、そしてSlackやFacebook Workplaceを含む様々なパートナーとの完全な統合などが含まれている。

まずARから始めよう。現段階ではまだ限られた機能だが、これはZoomによるミーティングに拡張現実機能を導入した最初のものだ。CEOのEric Yuanによれば、これはオンライン授業を強化することが目的だということだが、課題もある。教師がARのヘルメットを着用する必要があり、現在サポートされているのは(今のところ)Metaのみだということだ。それでもYuanによれば、生徒たちは教師が拡張現実の中に見ているものを何でも見ることができるということだ。例えば、もし教師が太陽系を表現したものの回りを歩くとすれば、それを生徒たちはZoomプラットフォーム上で見ることになる。生徒側が特別な機器を持つ必要はない。

同社はまた、FacebookによるWorkplaceやSlackを含む、一般的なエンタープライズワークフロー/コラボレーションツールとの統合を発表した。これまでもZoomは、Slackと一緒に使うことができていたが、今回はさらに緊密な統合である。ユーザーが単純にSlackの中で”/zoom”と入力するだけで、他のSlackユーザーをミーティングに招待することができる。同様に、Facebook Workplaceの中で”zoom”とタイプすれば、Zoomのライブミーティングが開始される。

同社はまた、人工知能への初めての関心を、記事録の自動作成という形で示した。これによって議事録を人間が記述する必要がなくなり、検索可能な議事録が作成される。AIを使用することで、ミーティング内の全ての発言がテキストに変換される。そして誰の発言だったかも併せて識別される。

オンラインミーティングソフトウェアビジネスは、GoToMeeting(LogMeIn)、BlueJeans Network、Fuze、そしてUber Conferenceといった同種のサービスを提供する会社間での競争が激化している。大手ベンダーもこのマーケットで活動を行っている、例えばFacebook Workplace、Microsoft Teams、Google Hangouts、Cisco WebEx、そしてCisco Sparkなどだ。

興味深いのは、Yuanは、2007年にCiscoに32億ドルで売却されたWebExの、創業者の1人であるということだ。彼の新しい会社は、この1月に発表された1億ドルのラウンドを含み、これまでに1億4500万ドル以上を調達している。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: PEOPLEIMAGES/GETTY IMAGES

SketchfabのアプリがARKitを体験するのに最高かも

iOS 11の大きな約束の1つだったのがARKitである。この新しいフレームワークは、拡張現実を利用して、現実世界に置かれた仮想オブジェクトを簡単に見ることができるようにするものだ。これまでSketchfabは、3DモデルのためのYouTubeと呼ぶことができる世界最大の3Dモデル共有プラットホームを構築してきた。それが本日(米国時間26日)行われたiOSアップデートで、Sketchfabが完全な拡張現実アプリに変わった理由だ。

今回の実装は、現実世界上のウェブビューを利用しているため、まだ完璧ではない。これが多少の遅れが生じる原因だ。ともあれまずはiOS 11をインストールする必要がある。

しかしSketchfab内にある膨大なライブラリの中の、任意のオブジェクトを選べるということで、アプリで素晴らしい驚きを味わえる。同社は現在、200万もの3Dオブジェクトを提供しているので、さまざまなものを試すことができる。

アプリでモデルをブラウズすると、画面上部にARボタンが表示される。このボタンはカメラを起動する。このあと、iPhoneやiPadなどを平らな面に向けて、画面をタップする必要がある。すると3Dモデルが現実の世界の真中に現れる。

画面をピンチすることで、オブジェクトを拡大したり縮小したりすることができる。将来のバージョンでは、デフォルトの大きさをコンテンツクリエイターたちが指定できるようになるので、居間が巨大で恐ろしい蟹で埋まることもなくなる。オブジェクトを指で回転させることも可能だ。

モデルの配置が完了したら、オブジェクトの周りを移動しながら、近寄って詳細を見ることができる。あたかもモデルが、現実の部屋の中に置かれているように感じることができる。

Googleもまた、ARKitへ対抗するARCoreを発表した。Sketchfabによれば、Androidアプリでも同様に、ARCoreをサポートする予定だということだ。

[ 原文へ ]
(翻訳:Sako)

ハンズフリーARヘッドセットのMira(製品名Prism)の将来性に投資家も着目、が二度目の資金調達で$1M、最初の1000台をデベロッパー向けに出荷、SDKもリリース

昨日(米国時間9/19)のiOS 11のリリースと共に、スマートフォン上のARが熱いニュースになりつつあるが、しかしMiraは、iPhoneによって消費者向けのハンズフリーのヘッドセットを使うARの世界も開けた、と期待している。

今日MiraはSDKをリリースし、著名なVCたちからの資金調達も発表した。

同社のPrismは比較的シンプルな構成だ。副次的な部位やセンサーなどはない。その巧妙な設計/デザインにより、同社がターゲットとねらう人びとの関心を集めつつある。

今年初めのシードラウンドは投資希望者が予定枠を超えるほどの人気で、Sequoiaのリードにより150万ドルを調達した。そして今日同社は新たに、Greylock Partners, Founders Fund Angel, およびMacro Venturesから100万ドルを獲得した。

さらに同社は、ヘッドセットの最初の1000台をデベロッパー向けに発送し始めた。99ドルのPrismの予約売上の総台数は分からないが、消費者もデベロッパーも今でもまだ予約注文が可能だ。対応アプリはiPhone 6, 6S, 7, 8をサポートしている(デバイスのサイズによって違いがある)。

iPhone Xの場合は、ARを体験するためにはMiraのアップデートを待たなければならない。でも今開発中の“バージョン1.5”なら、いろんなサイズのデバイスをサポートするそうだ。

今日(米国時間9/20)は、デベロッパー向けの発送の次のステップとしてSDKをリリースし、コンテンツのパートナーたちがハンズフリーならではのクールなアプリケーションを作ってくれることを同社は期待している。同社に限らずヘッドセットは、デベロッパーをやる気にさせることが、最大の課題だ。

〔[MiraのヘッドセットPrismの宣伝ビデオ]


[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ARネイティブアプリのUXについて考える――単なる流行りのプロダクトで終わらせないために何ができるか

【編集部注】執筆者のMatt MiesnieksはSuper Venturesのパートナー。

ARKitのローンチにより、向こう1年のうちに5億台ものiPhoneで拡張現実(AR)アプリが使えるようになる。さらにそれから1年以内には、ARCoreに対応したAndroidデバイスの登場で、その数は少なくとも3倍以上になると言われている。

このような明るい展望をもとに多くの開発者がARに興味を持っており、今後彼らがARという全く新しいメディアに挑戦する中で、数々の実験的な取り組みを目にすることになるだろう。もしかしたらARのインパクトはそれ以上かもしれない。これまで人間は視覚的なコンテンツを四角形のメディア(石版から映画館のスクリーン、スマートフォンなど)を通じて消費してきたが、ARは歴史上初めて形の制約から解放されたメディアなのだ。

ちょうど紙とウェブのように、ARと従来のメディアの違いはスケールというよりも根本的な種類にある。インターネットが普及し始めた頃の商業的なウェブサイトで一般的だった、印刷物の中身がウェブ上にアップされただけの「ブローシェアウェア型」ウェブサイト同様、初期のARアプリはきっとAR空間に従来のモバイルアプリを貼り付けただけのようなものになるだろう。つまりこれからたくさん発表されるであろうARアプリのほとんどは、ブローシェアウェアのようにひどいものになるだろうが、それでも新しい時代の幕開けということには変わりない。

このように新しいメディアが誕生した直後は、旧来のメディアで成功をおさめたプロダクトを無理やり新しいフォーマットにはめ込んだようなものが中心となる。消費者としてもその方がイメージをつかみやすく、発展途上にあるメディアを受け入れやすい。例えば、Uberの車が近づいてくる様子を確認するためにARが使えるという話をよく聞く(実際は2次元の地図の方がこの目的には合っているが)。しかし最終的にAR界で成功をおさめるのは、ARにしかない機能を活用し、これまでのメディアでは実現できなかったようなことができるアプリなのだ。

10年以上前に私がOpenwave(モバイルブラウザを発明した企業)で働いていたときは、同僚と「小さなスクリーンにフィットするウェブサイト」とは違う、「モバイルネイティブ」なエクスペリエンスに関する議論を交わしていた。Fred Wilsonが2010年に公開したモバイルファーストに関する有名な記事の方がこのコンセプトをよっぽどうまく表現しているが、本稿がARについてWilsonの記事と同じような価値を持つようになることを願っている。

最近ではAppleがHuman Interface Guidelines for ARKitという文書を公開した。GoogleからはARCoreに関して似たような文書が発表されていないようだが、もしもご存知の方がいれば教えてほしい。本稿ではAppleのガイドラインと似たトピックについて、私たちが学んできたことを踏まえて深掘りしていく。

「ARネイティブアプリ」の要件

以下では、ARKitやARCoreで開発できるスマートフォン向けのARアプリを特徴づける種々の要因について掘り下げていきたい。ここでは意図的にヘッドマウントディスプレイ(HMD)向けのARアプリについては触れていない。というのも、HMDでできることは(ハンズフリーアプリの実現、セッション時間の長大化、没入感のあるエクスペリエンスなど)スマートフォンよりもかなり範囲が広いからだ。

なお各要因は、ARアプリのコンセプトを考える際に検討した方がよいと思われる事項で、リストの順番に特別な意図はない。私の友人であるHelen Papagiannisの著書『Augmented Human』では、同じ内容についてさらに深い考察がなされているが、本稿の内容も合計50年以上分のARスマートフォンアプリ開発の経験が反映されていることを考えると、現時点ではかなり包括的な内容だと言えるだろう。

Super Venturesではかなり頻繁にARアプリのピッチを聞く機会があるが、開発者がARネイティブのプロダクトを作っていないときはすぐにわかる。「なぜARじゃないといけないのか? ユーザーにとっては普通のアプリの方が便利ではないか?」というシンプルな問いについて考えるだけで、ARアプリのことを全く新しい視点から見られるようになるはずだ。

スマートフォンという枠にとらわれない考え方

ARアプリのプロジェクトに取り組むにあたって、デザイナーや開発者はスマートフォンという枠にとらわれないようにしなければいけない。さらに、ユーザーがスマートデバイス一般とどう関わり合うかについて考え直すことも重要だ。現実世界の様子やスマートフォンがどのような位置・状態にあり得るか、さらにはユーザーの周囲の人やモノ、音といった要素が、全てプロダクトの設計に関わってくる。ARアプリでは全てが(たとえコンテンツは2次元でも)3次元空間で起きるのだ。

ユーザーはAR空間をスマートフォン経由でしか体験できないため、その外に「生きる」コンテンツを設計するには考え方を大きく変える必要がある。(出典:Mortar Studios

また、ユーザーとのインタラクションやコンテンツの移り変わり、アニメーション、アップデートといった要素は検討すべき内容の一部でしかなく、開発者は「アプリ外」で発生するであろう種々の要因についても考えなければならない。この部分が理解できれば、あとはそこまで難しくないはずだ。

手首vs頭vs胴体

手に持って使うというスマートフォンの特徴は、設計上の制約とともにチャンスでもある。人間の腕は頭(と首)に比べて可動域が広く、両手を使うアプリよりも片手だけを使うアプリの方がユーザーはデバイスを自由に動かせる(両手で使うアプリだとデバイスを物理的に動かすために胴体も一緒に動かさなければならず、前後動には歩行が不可欠だ)。

あるものの長さを測るのに頭を動かさなければならないとなると不便で仕方がないというのは想像に難くないだろう。このようなユースケースではスマートフォン向けのARアプリが真価を発揮する。

このように考えていくと、ユーザーが常にディスプレイを見ていなくてもいいようなARアプリは(スクリーンを視界の外に向ける場合も考えられるため)うまく機能するとわかる。Tape Measureや小さなものを3DスキャンできるARアプリはその好例だと言える。

逆に動きの早いシューティングゲームだと、デバイスをさまざまな位置に動かす際にスクリーン上で何が起きているか確認しきれない可能性があるため、AR化するのは難しいだろう(もしもデバイスを全く動かさないなら、そもそもARアプリにする意味もなくなる)。

ポケットに入れたまま使えるアプリ

AR開発者は見逃しがちだが、移動中の人はスマートフォンをポケットやカバンの中にしまっていることがほとんどだ。一般的に「ユーザーエクスペリエンス」は、ユーザーがアプリのアイコンをタップするところから始まると考えられている。しかし、ユーザーの位置に応じてリアルタイムにコンテンツを変化させられるというARの利点を考えると、ユーザーエクスペリエンスの開始地点はもっと早い段階であるべきだ。そうでないと、もしもユーザーがアプリを使い始めるタイミングが想定よりも30秒遅ければ、(アプリが意味をなす地点をユーザーが通り過ぎてしまい)アプリの意味がなくなってしまう可能性さえある。FacebookやSMSの通知であれば場所は関係ないので、このような問題は発生しない。

「どうすればスマートフォンをポケットから取り出すようユーザーを仕向けられるか?」というのはスマートフォン用のAR(さらにはビーコンを使った)アプリを開発する上で極めて重要な問題だ。(出典:Estimote

このように、アプリにとって最適な位置でユーザーにスマートフォンを取り出させるというのは、実用上の大変難しい問題だ。従来のアプリのようにプッシュ通知を使うという手もあるが、もしもユーザーがアプリの機能を理解していれば、現実世界で何かを見かけたときに自然とスマートフォンを取り出すということもあるだろう(外国語のメニューをきっかけにGoogle Word Lensを使う場合など)。

それ以外の場合は、構造物ではない何かをトリガーにしたり、どこにでもあるようなものを活用したりして、とにかくユーザーがどこにいてもサービスを提供できるようにしなければならない。他のユーザーに向けてメモを残せる「AR落書き」のようなアプリが抱える1番大きな問題がまさにこれなのだ。ユーザーはアプリを開かなければ、自分のいる場所にメモが残されているかどうかさえ知ることができない。ビーコンを使ったプロダクトも同じような問題を抱えており、各企業はお得情報を見てもらうために買い物客にいかにスマートフォンをポケットやカバンから取り出させるかという課題に取り組んでいる。

この問題は、ARアプリの開発者が「競争」について考えたときに違う形で表出する。AR技術の可能性の大きさゆえに、AR界にはチャンスがそこら中に転がっていると考える人は多い。しかし実際のところ、ユーザーにあなたのARアプリを使ってもらうためには、その他のさまざまな活動とユーザーの時間を分単位で常に奪いあっていかなければならないのだ。既にユーザーの時間はARアプリ以外のものにつぎ込まれているが、どうすればARアプリがそこに入り込めるのだろうか。

機能としてのAR(YelpのMonocle、Google Lens)

ARKitを使ったアプリといえば、アプリ全体が「ARモード」で現実世界に情報を付加するようなものを思い浮かべがちだ。しかし多くの機能(パスワードの入力など)はARでない方が使い勝手が良い。例えば位置情報だと、ARよりも2次元の地図を使った方が拡大・縮小ができたり、周囲の様子を見回せたりとユーザーにとっては便利だ。つまり、アプリのどの部分がARと親和性が高いかをよく考え、ARを機能のひとつとして使うようなハイブリッド型のアプリ開発も視野に入れた方が良いということだ。YelpのMonocleはまさにこの「機能としてのAR」の好例だ。

Yelpのアプリには「ARモード」があくまで機能のひとつ(Monocle)として搭載されており、これはARが目的化していないうまいやり方だ。

現実世界とのインタラクション

デジタルコンテンツと物理的な現実世界の間で何かしらのインタラクションを生み出せるかどうか、というのがARネイティブアプリの必要条件だ。もしも両者の間にインタラクションがなければ、それは普通のアプリということになる。もっと言えば、私たちにとっては現存するスマートフォン向けのアプリこそが「デフォルト」のUXであるため、ARテクノロジーを使ってしか実現できない機能がないとARアプリの意味がない。ここでいう「インタラクション」とは大きく分けて次の3つだ。

3Dジオメトリ:デジタルコンテンツが現実世界の環境に沿った反応を示すというのがひとつめのインタラクションだ。Tangoのデモの多くはこのタイプで、現実世界の坂からジャンプするDekkoのラジコンカーや机の下で動き回るMagic Leapのロボットなども全て同じカテゴリーに含まれる。

 3Dジオメトリを活用したアプリでは、周囲の物理的な環境が重要な要素となる。

視界・環境の共有:他の人が物理的に近くにいないといけないアプリがあれば、おそらくそれはネイティブARアプリだ。このタイプの例としては、建築家が建築物の3Dモデルを使って顧客に詳細を説明するためのシステムや『スターウォーズ』のホロチェスなどが挙げられる。

同じ空間にいる友人や同僚との「幻影」の共有は、ARだからこそ実現できる素晴らしい体験だ。

モーションコントローラー:これはコンテンツ自体は静的で、ユーザーがデバイスを動かしたり、Wiiさながらデバイスをコントローラーのように使ったりするケースを指している。このインタラクションのあり方がARネイティブと言えるかどうかは、個人的に微妙なラインだと考えている。例えば、アプリを通して見ると目には見えない何かが机の上に現れ、デバイスの位置によって違った角度からそのコンテンツを眺められるという類のアプリは、ただ目新しいだけでARネイティブとは言えないというのが私の意見だ。さらにこのユースケースに限って言えば、ズーム機能などが使える従来型のアプリの方がよっぽど使い勝手が良いだろう。

ユーザーが実際に動き回ることで感じられる物理的なスケールこそがARネイティブの核だと主張する人もいる。しかしここで重要なのは、目新しさ以外に何かメリットがあるかどうかということだ。コントローラー型のインタラクションがARネイティブな形で機能しうる例としては、Wiiのコントローラーのように、デバイスを動かすことでコンテンツを操作できるようなものが考えられる。例えばAR空間に風船が浮かんでいるとして、スマートフォンをバーチャルな風船に向かって押し当てることで実際に風船を「押す」ことができれば、これはARネイティブだと言えるかもしれない。

ARアプリを作ろうとしている人は、上記のようなインタラクションを活用することで、ユーザーに何かしらのメリットをもたらせられるかどうかをよく考えなければならない。もしもAR要素がユーザーのメリットに繋がらなさそうであれば、開発中のアプリを単に目新しいおもちゃ(これ自体は全く悪いことではないが、繰り返し使われる可能性はゼロに等しい)として考えるか、むしろ従来型のアプリを開発した方が良いだろう。

位置情報が希少性を取り戻す

2011年に行われた、Super Venturesのパートナー(OriとTom)主催のAWEというイベントで、私にとってはここ数年で1番興味をそそられるアイディアをJaron Lanierが語っていた。インターネットが希少性という概念を壊した(デジタルデータは無尽蔵にコピーでき、働く場所も制限されなくなってきた)が、ARには希少性を取り戻す力があるというのが彼の考えだ。ARエクスペリエンスはユーザーがいる場所と深く関係しているため、たとえ違う場所で同じ体験を再現できたとしても、やはりもともと想定された場所で使ってこそアプリの真価が発揮される。これは「音楽ファイル対ライブ」のデジタル版のような構図だと言える。

希少性にはかなりのビジネスチャンスが秘められており、特にブロックチェーンや非中央型のビジネスと組み合わさることで面白いことが起きるだろう。クリエイティブ系のビジネスは、特に希少性の崩壊でダメージを受けた業界ということもあり、ARを活用することで大きな利益をあげられるかもしれない。少なくとも音楽業界ではライブイベントこそが主な収益源なのだ。

Pokémon GOはレイドイベントの導入でこのコンセプトを活用し始めた。例えばレアポケモンのミュウツーを捕まえるには、日本で先日開催されたレイドイベントに参加しなければならなかった。

他にも例えばAR版のMMOで、ある鍛冶屋にたどり着くためには現実世界でアフリカまで行かないといけないといった使い方も考えられる。このように、希少性をデジタル世界に蘇らせることで、今後さまざまな面白い試みが生まれることだろう。

どんなに良いアイディアが思い浮かんでもそれにとらわれるな

ARはなんとも魅力的な概念だ。ARについて考えれば考えるほど、AR技術の大きな可能性に気づき、全く新しいアイディアが浮かんでくる。そんな素晴らしいアイディアとともに私たちのもとを訪れるスタートアップは後を絶たない。彼らは自分たちが解決すべき問題を発見し、次なるGoogleにさえなれそうな巨大プラットフォームの構築を夢見ている。しかし、彼らの夢を実現するのに必要なテクノロジーやUXはまだ(さらにもしかしたら向こう数年間は)存在しない。起業家は自分たちのアイディアを信じて新しいことを始めようとしているが、残念ながら市場やテクノロジーがそのアイディアに追いつく頃には彼らの資金が底をついてしまっているだろう。

最高のアイディアだと信じているものを保留するのは極めて難しいことだが、現時点で本当にそれを実現できる(真の意味で確かな)確証があり、あなたのアイディアに投資する人(本当にそんな人がいればぜひ名前と連絡先を教えてほしい)がいない限り、そうせざるをえない。

もしもこの条件を満たせないようであれば、自分のアイディアが現実とマッチしているか確認した方が良いだろう。

念のため付け加えておくと、「良い」アイディアとは単にクールなアイディアという意味ではなく、ユーザーにとって必要不可欠な存在になりうるアイディアのことを指している。つまり社会に受け入れられていて、効率的かつユーザーが自然と使っている非ARプロダクトから移行するだけの価値があるものということだ。

視野の問題

スマートフォンとHMDとでは視野に明らかな差異があり、HMD用のARアプリが登場すればかなり没入度の高いエクスペリエンスを味わえるようになるだろう。一方スマートフォン用のARアプリには大きな問題がふたつある。

  • ユーザーとARコンテンツの間には、スクリーンという名の小さな「窓」しか存在しない。もしも友人と視界を共有するとなると、その友人にとっての窓のサイズはさらに小さくなる。この問題はトラッキング技術が向上すればある程度軽減できるかもしれない。
  • そもそもスマートフォンに表示される映像は、カメラが見ているものであって、ユーザーが目で見ている景色そのものではない。カメラの向きが映像にも反映され、その視野は人間のそれとは異なる。仮に眼球の中心から直線をひき、その線に沿ってカメラを持てば両者の差異は縮まり、透明なガラスをのぞき込んだような映像が映し出されることになる。しかし実際にそうする人などおらず、誰もがその事実を気にせずスクリーンに表示される情報だけに注目している(ちなみにこの点に関してはいくつかの研究がなされており、人間の目が見ているものに近い映像を撮影できる技術も存在するが、恐らくこれが大衆向けのスマートフォンに搭載されることはないだろう。もしも興味があれば、こちらを確認してみてほしい)。

それでは、普段目で見ている景色とは異なる映像が表示されるスクリーンを使い、さらに没入感を高めるにはどうすればよいのだろうか?

まず、一般的にユーザーは疑うことなく、ARアプリが映し出す情報のことを現実世界に投影されたデジタルコンテンツとして受け入れるだろうという認識を持つことが大事だ。

次にコンテンツのサイズについても配慮が必要だ。もしもコンテンツがスマートフォンのスクリーンとカメラの画角に収まる程度の大きさであれば、端のほうが切れてしまうという事態を避けられる。例えば実物大のティラノサウルスよりも実物大の猫を投影するアプリの方が、ユーザーエクスペリエンスという点では優れている。コンテンツのサイズをうまく利用することで、没入感や魔法のような感覚をつくり出すという点については、仮想現実(VR)での学びを応用し、スケールインバージョンを使っても良いだろう(例:植木の周りを漂う小さな妖精)。

もしもコンテンツがスクリーンに収まらないほどの大きさになるのであれば、全体像は確認できないのだとユーザーが自然と理解できるような仕組みを導入しなければならない。例えば、ユーザー(の持つスマートフォン)が見ている部分だけコンテンツをハッキリと表示させ、スクリーンの端には霧を漂わせるという仕組みはうまく機能した。この仕組みを使えば、ユーザーはスクリーンに表示されたエリアの外には面白いものがないのだと感じる上、他の部分を見たい人はデバイスを動かすだけでいい。1点注意が必要なのは、スクリーン外のコンテンツがどのあたりにあるかという情報を同時に提供するということだ。ユーザーが周りを見渡してどこに残りのコンテンツがあるのか探し回らなければいけないということがないようにしたい。

視野をうまく使った没入感の創造というのはとても難しい課題だ。また、ARアプリを単なる目新しいものとしてではなく、繰り返し使ってもらえるようなプロダクトにすることも簡単ではなく、ユーザーエクスペリエンスのさまざまな要素について再考が必要になる。そこで基本的な機能からユーザーテストを行うことが極めて重要になってくる。特にARでは、目新しさというバイアスを取り除いて現実的なデータを収集するために、同じユーザーを対象に時間をかけて繰り返しテストを行わなければいけない。YouTubeの動画上ですごいと思えるようなアプリと、実際にユーザーが満足できるようなアプリとの間には大きな差がある。

シーンはコントロールできないと理解する

開発者にとってのARアプリとその他のソフトの大きな違いは、ユーザーがアプリを開く場所をコントロールできないということだ。例えば60x60センチのスペースが必要なARゲームを開発したとしても、ユーザーはバスに乗っているときにアプリ開くかもしれないし、小さなテーブルや食器が残ったテーブルにスマートフォンのカメラを向けているかもしれない。するとそのARゲームは使い物にならなくなってしまう(もしくは非ARアプリとして使うしかない)。この問題についてはふたつの対策と実現に時間がかかるであろうアイディアがひとつある。

まずひとつめの対策として、利用場所に関する具体的なインストラクションを提供するという手がある。別の部屋に移動したり、テーブルの上をきれいにしたり、家に到着するまで待つようにユーザーに指示を出せばいいのだ。しかし、もしもユーザーが想定外の場所でアプリを開いたときはエクスペリエンスが悪化してしまうため、種々の指標が低下してしまう可能性があるというのは想像に難くないだろう。利用場所を限りなく絞って、それ以外の場所でユーザーがアプリを開こうともしないようにするというのも手だ。

もうひとつのオプションとして、どこででも機能するようなコンテンツを採用するという手段がある。Dekkoではこの方法を採用し、当初はレベルや難易度が設定されたゲームを作ろうとしていたが、結局どこでも遊べるようなおもちゃの車が走り回るアプリを開発することに決めた。ARKitでゲームアプリを開発しようとしている人に対する私のアドバイスは、どこでも遊べるデジタルおもちゃ(バーチャルラジコン、バーチャルスケートボード、バーチャルボールとバットなど)を作るということだ。

そして現時点では技術的に実現不可能とはいえ、将来的にはどのARアプリもこの方向に進むであろう最後のアイディアが解決策としてはもっとも優れている。そのアイディアとは、アプリ自体が3次元空間を理解できるような仕組みを導入し、ユーザーの周りの環境に応じて自動的かつスマートにコンテンツを配置していくというものだ。このアイディアを実現するには、次のふたつの技術が実用化レベルに達するまで待たなければならない。ひとつは3Dシーンをリアルタイムで再構築して(これはほぼ実現しつつある)その内容を理解する技術、そしてもうひとつがコンテンツの自動レイアウト技術だ。

これらの技術が実現するまでにはまだ数年ほどかかることが予想されるため、少なくとも現時点では最初のふたつのいずれかを選ばざるをえない。

MoatboatのARアプリは特定の環境を必要とせず、ユーザーはどこにでもコンテンツを投影できる。このように自由度の高いコンセプトは、どんな環境で起動されるか予想できないスマートフォン向けARアプリとの相性が良い。Moatboatのアプリは物で溢れた部屋の中でも平らな床と何ら変わりなく機能し、バーチャルの小屋や牛を洗濯物の山の上に投影し、そこからオブジェクトがずり落ちる様子を見て楽しむことができる。

その一方で、開発者側にコントロールがなく、主体性がユーザーに委ねられているからこそ新しいものが生まれる可能性もある。これこそがARというメディアの特徴なのだ。Charlieがこの点について素晴らしい講義を行ったのでこちらから動画を見てみてほしい。

上記に加え、現状の開発ツールではアプリ内で任意の座標系しか利用できず、セッションごとに座標が変わってしまう。さらにARアプリは原点(X=0、Y=0、Z=0)から計測した周囲のオブジェクトの相対位置しか把握できない。つまりユーザーの周囲に関する情報には持続性がなく、絶対座標系による修正もなく、ユーザーが他の人と自分の「スペース」を共有することもできないのだ。ARCoreとARKitのどちらに関しても、この点はきっと近い将来(1年〜1年半のうちに)変わっていくだろうし、オーバーレイAPIを開発中のスタートアップも存在するが、とりあえず現時点では座標系についても設計時に頭に入れておかなければいけない。

コンテンツと現実世界の間でインタラクションを起こすためには、周囲の様子を反映したデジタルモデルをカメラから取り込むか、どこかからダウンロードしなければならない。(出典:Roland Smeenk

デバイスの自然な持ち方

モバイルARの黎明期には、ユーザーが目の高さまでスマートフォンを持ち上げてアプリを使う(このことをハンズアップディスプレイと呼んでいた)だろうと私たちは楽観的に考えていた。人の行動に変化を起こすことの難しさを過小評価し、スマートフォンを持ち上げている人を見た他の人も特にそれを気にしないだろうと考えていたのだ(グラスホールのことを覚えているだろうか?)。しかしARアプリをもってしてもこの状況を変えることはできない。つまり開発者は自然なデバイスの持ち方をもとにアプリを設計しなければならないのだ。

  •  デバイスを持ち上げる必要がある場合は、最長でも写真を撮るときくらいの長さにする。この持ち方は長時間利用するようなアプリではなく、疑問に対する視覚的な答えを見つけるようなものに向いている。

もしもタブレットやスマートフォンを写真のように持ち上げる必要がある場合は、1〜2秒間でおさまるようにする。(出典:GuidiGo

  • 普段のように下向きに45度の角度をつけて持つ。これはユーザーの目の前で小さなコンテンツ(高さが30〜60センチ程度のもの)を表示するのに適している。

この持ち方だと、ユーザーは一定時間にわたってアプリを使い続けられる。しかしスクリーンに映し出されるシーンは、デバイスを持ち上げた場合よりも狭く、面白みに欠けたものになる。

スマートフォンのセンサーを活用し、持ち方に応じてモードを切り替えるという方法もある。例えばデバイスが地面に対して水平な状態にあれば2次元の地図を表示し、垂直になった途端にARモードに切り替わってビジュアル検索機能が起動するといったアイディアが考えられる。NokiaのCity Lensアプリは2012年の段階で既にこのようなUIを採用していた。これは熟考する価値があるポイントだ。

スクリーン経由のインプット

アプリのテストを行っていると、ユーザーがまずスマートフォンの周辺に手を伸ばして画面に映っているものを触ろうとし、触れないとわかった途端に困ったような表情を浮かべる様子をよく見かける。これは面白いアプリができつつあるという証明でもあるのだが、それと同時に、コンテンツはユーザーから何十センチも離れたところにあるように表示されつつも、全てのインプットやインタラクションはユーザーの手の中にあるスクリーンを介して行われるのだということに気づかされる。

ユーザーは3次元でコンテンツを楽しんでいるのに、何かしらのアクションをとるには、またスクリーンという2次元の世界に頭を切り替えなければならないのだ。これは認知的負荷であるとともに没入感を損なうポイントでもある。その一方で、操作時に大きなジェスチャーが必要になったり、誰かが近くにいないといけなくなったりすると、それはそれで問題だ。

ユーザーが「目の前にある」にあるコンテンツを選んだり、両者の間にインタラクションを発生させたりするために、どんなアフォーダンスをUIに与えばいいのかというのは難しい問題だ。Dekkoのラジコンアプリでは、スマートフォンをコントローラーという現実世界にあるものに見立てることでこの問題に対処している。しかしDekkoで猿のキャラクターが登場するアプリを開発していたときや、SamsungでSamsung SmartHome製品の開発に携わっていたときは、全ての人がすぐに使い方を理解できるようなアイディアがなかなか浮かんでこなかった。

ラジコンのデザインコンセプトを利用することで、車とは別に手で持つコントローラーがあるはずだとユーザーに想起させることができた。その結果、スクリーンに触れながら、離れた場所に映し出された車を操作するというユーザーの課題を解決できたのだ。

単にコンテンツに「タッチ」できるだけでは、根本的な問題の解決にはつながらないということも覚えておいた方が良い。もしもMeta HMDやLeap Motionを試したことがあれば、触覚フィードバックがないと、ユーザーとコンテンツが分断されてしまうということがよくわかるだろう。個人的にはARへのインプットの問題こそ、消費者一般にARを普及させる上でまず解決しなければいけないことだと思っている。

現実世界の映像を加工する(VS透過型ディスプレイ)

映像を加工することで、仮想世界と現実世界の差が縮まり、UXの向上が図れる。上記のシーンに映った物のうち、何が現実に存在するもので、何がデジタルコンテンツなのか見分けられるだろうか? 加工の度合いが強まるごとに両者を見分けることが難しくなってくる。

透過型HMDと比べたときのスマートフォン向けARの特徴は、カメラのとらえた映像が「現実世界」としてスクリーン上に表示されるということだ。そしてその映像を加工することで、アプリ内の世界観の統一が図れる。Will SteptoeはFacebookに参画する前の2013年に素晴らしい研究を行い、現実世界の映像をわずかに加工することで、現実世界と仮想世界を見分けづらくなり没入感が増すという研究結果を発表した。これはARKitを使ったアプリ開発にも応用できる、かなり興味深いアイディアだ。

機能の切り替えにアプリのコンセプトを採用するVSネイティブAR UI

スマートフォン向けのARアプリは、(そもそものOSの性質としてデスクトップ画面が起動画面になるということもあり)モードを切り替えるときに「アプリ」を開いたり閉じたりするようなアクションをとることになる(メッセージアプリとゲームアプリの切り替えを例にとってみると、恐らくこのふたつをひとつのアプリに詰め込まれても不便だろうし、アプリに私が何をしたいのか推測してもらいたくもない)。なので(カメラ経由の)ARビューとそうでないモードは、ユーザーの意向に沿って絶えず切り替えられることになる。

つまりアプリの開発側はダイナミックなモード切替(建物にカメラを向けたときに、アプリが住所を表示しなければならないのか、それともYelpのレビューなのか、Truliaの価格情報なのか、建物の歴史なのか、中に友人がいるかどうかなのか)のことをそこまで深く考えなくてもいいということだ。さまざまなユースケースに対応するため、数え切れないほどの機能を搭載したアプリ(プラットフォーム的なアプリ)を開発するというのは魅力的なアイディアではあるが、ユーザーがほしいものを理解し、それを表示するというのはとてつもなく難しい問題なのだ(恐らくこの記事から何かしらの学びがある人には到底解決できないほど難しいだろう)。

スキューモーフィズム(実物に似せたデザイン)は良いこと

繰り返しになるが、ARは全く新しいメディアであり、ユーザーは単純にどうARを使えばいいのかわかっていない。インタラクションを設計する上ではさまざまな可能性があるが、ユーザーはその凄さには気づかないだろう。しかし現実世界にあるものをコピーしたようなデザインを採用すれば、ユーザーは直感的にアプリの使い方を理解できる。

Dekkoで小さな猿のキャラクターが登場するARアプリを開発したとき、キャラクター自体はかなり気に入ってはもらえたものの、ユーザーはそのアプリで何をすればいいのか全くわからなかった。しかしその後、猿のキャラクターからラジコンに方向転換し、本物のラジコンに似たコンテンツを準備したところ、もはやユーザーに何かを説明する必要がなくなったのだ。SamsungではAR空間で電話をとるプロトタイプを開発した。電話のとり方にはさまざまな方法(メッセージを握りしめたホグワーツのふくろうがユーザーの前に舞い降りるなど)が考えられたが、結局ユーザーテストでもっとも良い成績を残したのは、緑のマークで応答、赤のマークで拒否といったiPhoneの電話アプリとよく似たUIだった。

ここで重要なのは、恐らくARでは2Dではなく(影や透明度などで)奥行きを感じさせる3Dの新しいシンボルが登場するが、それを実物そっくりにする必要もないということだ。

ユーザーにとって全く新しいエクスペリエンスを提供する中で、現実世界の物に似たデジタルオブジェクトを準備するというのは良いアイディアだ。

シンボル化がうまくいっているかどうかを判断するには、ARに触れたことのないユーザーにアプリをテストしてもらうしかない。どれだけものごとをわかりやすく単純化しないと、何かしらの説明が必要になるという事実にきっと驚くことだろう。

目にするものを信じないユーザーのためのアフォーダンス

日常的にARテクノロジーに接している私たちにとって受け入れがたかったのが、目にするものを信じないユーザーの多さだ。彼らはデジタルコンテンツが「3次元空間」にあるのではなく、スクリーン上にあるだけだと考えていたのだ。

この点については、現実世界との繋がりを想起させるアフォーダンスや、かすかなシグナルを使うことで、アプリ内で一体何が起きているのかをユーザーに理解させることができるだろう。光源やダイナミックな影まで再現する必要はないが、少なくともドロップシャドウくらいは使わないといけない。デジタルコンテンツに加え、グリッド線などで現実世界に何かしらの目印をおくことでもユーザーの理解度は向上する。

Dekkoでもエッジに色のついたグリッド線を導入し、アプリが奥行きや3次元空間を理解しているということをハッキリさせ、さらに他のものを全て隠すことで、内部で何が起きているのかをユーザーにやんわりと伝えなければならなかった。こうすることでユーザーは、自分たちの信じていなかったようなことをアプリができるのだと理解できた。

その他には、デジタルコンテンツが現実世界のオブジェクトに衝突したり、行く手を阻まれたり、スマートフォンの動きやユーザーのインプットに反応したりする様子を表現することも、(実装は大変だが)コンテンツをリアルに見せる方法のひとつだ。トラッキングがズレることなく安定しているというのは、その一部でしかない。例えばキャラクターがAR空間を歩いているときに、一歩ごとにわずかにスライドしていることがよくあるが、これではユーザーは説得できない。同様に、キャラクターが現実世界の何かにぶつかったのに何の反応も示さないという場合もリアルさが損なわれてしまう。

逆にキャラクターとのアイコンタクトなどがあると楽しさが増してくる。ここではどのようなキャラクターを選ぶかということも大変重要だ。キャラクターがリアルであればあるほど、ユーザーが「正しい」と考える動きのハードルが上がってしまう。ARでは現実世界と仮想世界が混ざりあっているため、不気味の谷現象はアニメ映画よりもAR空間内の方が顕著に感じられる。私たちの経験によれば、できるだけリアルじゃない漫画っぽいキャラクターを選ぶことで、キャラクターの行動に関するユーザーの期待値が下がり、動きに多少の問題があっても見過ごされる可能性が高い。『ポーラー・エクスプレス』ではなく『ロジャー・ラビット』のように考えなければいけないということだ。

AR空間にアフォーダンス与える上での大きな問題としては、コンテンツのオーバーラップと情報の密度が挙げられる。ほとんどのデモでは、平らな場所でラベルがそれぞれから十分な距離を取って綺麗に並んでいる。しかし展示会のブースをデザインする人や建築家であればよくわかると思うが、動きながらでも読めるようなラベルやサインを3次元空間でデザインするのはかなり大変なことなのだ。

キャラクターやアセットのデザイン

HuckがデザインしたDekko Monkeyは本当にたくさんの人に気に入ってもらえ、アプリの誕生から3〜4年経った今でも知らない人にこのアプリについて尋ねられることがある。

どんなキャラクターやアセットを使うかについて考えていたときに、私たちは素晴らしいアプローチを思いついた。そして実は、今では私たちの考え方が業界全体に広がっているようなのだ。2010年にDekko Monkeyに関するさまざまな研究やユーザーテストを行ったSilkaは、「大人向けのピクサー」を目指してキャラクターをデザインすればいいのだという結論にたどり着いた。不気味の谷を越えず、かつある程度のアフォーダンスが残されていて、洗練されつつもポリゴン数の少ないキャラクターだ。このようなキャラクターのスタイルは、どんな性別や年齢の人にも馴染みがあり、さらには国境や文化の壁をも越える可能性を秘めている。

そこで彼女はKidRobotのビニール人形をデジタル化したようなキャラクターこそがピッタリだと考え、KidRobotのトップデザイナーHuck Geeに連絡をとった。結局彼がDekko Monkeyをデザインしてくれることになり、今では私の良き友となった(彼は本当に優秀なデザイナーでARキャラクターの制作にはピッタリの人物なので、もしも彼に連絡したい人はまず私にコンタクトしてほしい)。

数年後には、PentagramのNatasha JenがMagic Leapのデザインで(KitRobotの人形も含めて)ほぼ同じ結論にたどり着いた。彼女の考えにも興味がある人はこちらの動画見てみてほしい(30分前後の時点から)。

最新のARCoreのデモにも似たスタイルのキャラクターが登場する(特にWizard of Ozのキャラクター)。

最後に

私たちの経験をこの記事で共有することで、ARアプリの開発を考えている人たちがイテレーションサイクルを何回かスキップできるとともに、ユーザーを魅了するようなプロダクトが早く市場に登場することを願っている。YouTubeには10年近く前から素晴らしいコンセプトのデモ動画がアップロードされているが、私は素晴らしいプロダクトを実際に試したいのだ。両者の間には多くの人が思っているよりもかなり大きな差がある。

終わりの言葉として開発者のみなさんに覚えていてほしいのが、「経験豊かなAR、UXもしくは工業デザイナーを幹部に招き、あとは全てについてユーザーテストを繰り返す」ということだ。

グッドラック!

謝辞

この記事はAR UXに対する造詣が私よりも遥かに深く、それぞれ少なくとも5年間はARプロダクトのUXに関する課題に取り組んできた以下の人たちの協力なしには実現しなかっただろう。

  • Charlie Sutton:以前はSamsungのARチームでデザイン部門のトップを務め、それ以前にはNokiaでARプロダクトのデザインチームを率いていた(あまり知られていないが、Nokiaは2000年代後半にAR界の最前線を走っており、現在でも世界トップレベルのAR関連特許数を誇る)。現在はFacebookに勤めている。
  • Paul Reynolds:開発者・デザイナー向けに、AR・VRネイティブアプリの開発を簡素化するためのTorchというシステムを開発している。以前はMagic LeapでSDKチームのトップを務め、アプリとプラットフォームの中間にあるようなARプロダクトの開発にあたっていた。
  • Mark Billinghurst:世界トップレベルのAR研究者で、AR空間でのインタラクションに関する分野では知らない人がいないくらいの伝説的な人物。研究歴は20年以上におよび、ARやVRに関する本や論文のほぼ全てに彼の研究内容が引用されている。以前はHIT Lab NZに、現在はアデレードのEmpathic Computing Labに勤務しており、彼の研究のほとんどはこの2つの機関のウェブサイトに掲載されている。私にとっては良い友人であり、Super Venturesのパートナーでもある。
  • Jeffrey Lin博士:視覚から得た情報が脳でどのように表現されるのかという研究で世界的に有名な専門家。研究内容を応用し、以前はValveとRiot Gamesでプロダクトデザインに携わっていた。現在はMagic Leapでデザインディレクターを務めている。彼のMediumポストはARデザインに関する有益な情報で溢れている。
  • Silka Miesnieks:私の妻であり、2009年以降ARプロダクトの開発に取り組んでいる。私とともにDekkoを創設し、まだAR業界の人々が考えてもいないようなARのUXに関する問題を解決してきた。現在はAdobeのDesign Labに勤め、非エンジニア向けのイマーシブデザインツールの開発に携わっている。

この記事にもしも何か誤りがあれば、それは上記の人たちからのアドバイスをうまく表現できなかった私に全責任がある。ぜひ彼らをソーシャルメディア上でフォローして、何か質問があれば尋ねてみてほしい。そして願わくば、新しいプロジェクトに彼らを引き込んで、彼らが今の仕事をやめてしまうくらいのことが起きてくれれば幸いだ。

原文へ

(翻訳:Atsushi Yukutake

CurioPetsはARを駆使した世界探索型ペット育成ゲームだ

Appleが拡張現実を組み込んだiOS 11をリリースすれば、スタートアップCurioPetsはポケモンGOとたまごっちを合体させたようなゲームの出荷が可能になる。

CurioPets(curious pet「好奇心が強いペット」の略)は、マルチプレイヤー対応の拡張現実ペットシミュレーターだ。AppleのARKitで開発され、その目的は現実世界の探究を促すというものだ。これはポケモンGOに似ている。そして仔犬もしくは仔猫を連れて世話をしながら歩き回る。こちらはたまごっちやネオペットに似ている。

CurioPetsの創業者であるNathan Kongは、世界中のすべてが好奇心のエネルギーだと語った。ゲーム全体を通して、ゲーム内の通貨であるCuriosを収集するために、美術館、アートギャラリー、文化的関連性を持つ他の場所などの、現実世界での様々な場所に移動する。Curiosを使用して、あなたの仮想ペット用の衣服、家具、食品、その他のものを購入することができる。

ゲームには2つの世界がある。最初のものはあなたのペットが暮らす仮想世界だ。ペットは浮遊する島の木の中に隠れている。ペットは、あなたがそこで遊び、住まいを飾り、服を着せることを待っている。

もう1つのARの世界は、あなたのペットがCuriosを集める場所だ。Curiosを収集するには、ARモードに入り、文化的なものに関連するスポットに行って、Curios球を探す。あなたのペットを幸せで健康的な状態に保つためには、十分に餌を与え、沢山愛情を与え、世界で経験を積むようにしなければならない。

Appleが、先週末の段階でARアプリをTestFlight(Appleの提供するiOS用のβテストプラットフォーム)で開発者が公開することを許諾していなかったので、Kongはその代わりに私に予告編ビデオを送ってきた。

あなたがどうかは知らないが、私はこれを試してみたくて仕方ない。正直に白状すると、私は非常にハマりやい性格なので、このゲームが私の生活を奪ってしまうかもしれないことに恐怖を覚えている。ちょうど数年前にCandy Crush Sagaにハマったときのように。 なので、もし最近私の消息を聞かないなあと思ったら、その理由は推して知るべし。

CurioPetsは、Sequoia Capitalの夏期プログラムへ参加したことによる助成金、そしてAmino Capitalの両者から30万ドル以上の資金を調達した。同社はまだプレシードの段階だが、Kongは近いうちにシードラウンドを行なうことを望むと話している。

[ 原文へ ]
(翻訳:Sako)

拡張現実を歯科で活用する

大掛かりな歯科治療や再建手術を受ける人が、その後どのように見えるようになるかを視覚化することは難しいかもしれない。プラスティックスやロウで型をつくることもできるが、それはいささか…19世紀的だ。ということでスイスのスタートアップが、言われてみればもっともな、拡張現実ソリューションを生み出した。患者に結果の仮想的なスマイルを提示するのだ。

その会社Kapanuは、スイス連邦工科大学チューリッヒ校のスピンオフで、CEOのRoland MörzingerはDisney Researchと協力して医療目的の拡張現実エンジンを作り出した。そして歯科が最初の適用対象として選ばれたのだ。

これは人間の口腔の3Dスキャン(既に多くの歯科医が行っている)を、用意された良い歯のセットのスキャンに対してマッチさせることで動作する。ソフトウェアがユーザーの口や歯の位置を決定すると、その上に改善後の歯が重ねられる。そこからがお楽しみの始まりだ。そこから利用者は様々調整をすることが可能だ。例えばお互いの歯の近さや、様々な形状、歯間距離などなど。全ての変更がその場で表示される。

患者がカスタマイズされた歯を完成させて、AR「仮想ミラー」でプレビューを行い、最終決定を行ったあとで、結果のモデルが義歯製造のために送られる。

このシステムは昨年の冬ドイツのケルンで開催された国際歯科展示会でお披露目され、大きな注目を集めたようだ。これは健康業界におけるこの領域の大企業たちに非常な感銘を与えた。この6月にKapanuはIvoclar Vivadentに買収された。条件については公表されていないが、会社は独立して運営されている。

これは、しばしばおもちゃ程度の扱いしかされないアプリケーションへと追いやられている、拡張現実の素晴らしい成功事例の1つだ。人びとに、目に見える便益をもたらす日常的なアプリケーンを使った本当のビジネス —— 想像して欲しい!

[ 原文へ ]
(翻訳:Sako)

VRの今回のハイプ・サイクルは終わった

最近、アメリカでは多くの人々がデバイスを装着して普段見られない珍しい光景を眺めた。残念ながらそれはVRヘッドセットではなかった。人々が皆既日食を観察するときに使ったのは専用メガネだった。VRに暗い影を投げかけるニュースだった。

今年のE3(Electronic Entertainment Expo) で目立ったのはOculus RiftというよりむしろOculusという谷間(rift)だった。最近HTCはVive VRヘッドセットのキット価格を200ドル値下げした。Facebook傘下のOculusはRiftの価格をこのサマー・セールで399ドルまで下げた(夏が終われば値上げする予定だが、その幅は小さい―499ドルになるはず)。両社は皆既日食に対抗して消費者の関心を引き戻すために値下げ競争を始めたわけではあるまい。

TechCrunchの同僚、Lucas Matneyはこう書いている。

ここ数ヶ月、HTCとOculusのハイエンドVRヘッドセットにおける競争はどちらがVHSでどちらがベータかを争う戦いではなかったことがはっきりしてきた。両社とも〔ビデオテープではなく〕レーザーディスクの地位に転落するのを防ぐのに必死なだけだった。まだ有力プレイヤーは認めようとしていないが、投資家やアナリストはこの1年のVRヘッドセットの売れ行きに強い懸念を抱いている。

HTCもFacebook/Oculusも販売台数を公表していないという事実そのものが、販売が低調であることのなによりの証拠だ(アナリストの推定ではそれぞれ50万台以下)。

この2月、ソニーが Playstation VRヘッドセットの販売数を発表したときには一瞬期待が高まった。同社によれば2016年10月の発売以後、 91万5000台が売れたということだった。しかし6月になってもこの数字はは100万台を超えるのがやっとだった。

VRヘッドセットは夏向きの商品ではないのだろうか? 皆ビーチに出かけてInstagramでセルフィーを撮っているせいでVRは忘れられてしまうのかもしれない。

ハイプ・サイクルを急降下

ガートナーが発表した2017版の新しいテクノロジーのハイプ・サイクルのレポートによれば、VRテクノロジーは「回復(啓蒙)期の坂を上昇している」とされている。しかしこれは寛大すぎる判断だろう。

いずれにせよVRがハイプ・サイクルの頂上から一挙に転落したことはガートナーも認めているわけだ。インフレ評価の頂上から幻滅の谷間への急降下はすでに起きており、VRデバイスの現在の能力に比べて価格は依然として高止まりしていることもあって消費者の需要は最低の水準だ。

ガートナーが示唆するようにVRの前途に、ゆるい角度であれ、上り坂が控えているなら良いニュースだが、それにしても長期間の苦闘が必要だろう。

ガートナーはVRはすでに幻滅の谷間を後にしていると評価するが、すくなくとも近い将来、VRというテクノロジーに対する熱狂は復活しそうにない。ガートナーはVRがメインストリーム入りの幸運を引き当てるために2年から5年程度が必要だとしている。私には5年というほうが現実的に思える。

逆にVRはメインストリームにはならない、ニッチにとどまるテクノロジーだという意見もある。

どちらが正しかったか分かるようになるには時間がかかりそうだ。ともあれVRは、溺れてはいないものの、水に落ちて苦闘している。

最近、私は熱狂的なVRファンの起業家と話をした。彼は近い将来VRがリビングルームの中心となると信じている。ガールフレンドと並んでソファに腰掛けテレビの画面に代わってVRヘッドセットを眺めるようなるというのだ。

なるほどひとつの考えには違いないが、私には奇妙に思えた。

いくらソファに並んで座っていようと、あのVRヘッドセットを付けた2人がどうやって微笑、目配せ、身じろぎといったコミュニケーションができるだろう? またVRヘッドセットが消費者に広く受け入れられるためにはハードウェアとして劇的に改良される必要がある。普通のメガネに近い程度まで軽量化される必要があるし、現実の外界と仮想現実の表示を瞬時に(おそらくは人工知能を用いて)切り替えることができなければならない。並んで座っている恋人に向かって振り返ると自動的にVRがフェードアウトして恋人の表情が判別できるようになるなどだ。

正直そのレベルにまで柔軟性が高まるのでなければテクノロジーとして十分とはとはいないだろう。

もちろん現実のVRはエンジニアリングとしてもソーシャルメディアとしてもとうていその段階にはない。

何年も前から評判になっているもののまだプロダクトの形が見えないMagic LeapのIRLというある種の混合現実にしても同様だ。

キラーコンテンツ不在

業界トップクラスのゲーム開発者に話を聞いたことがある。彼の会社はOculusを始めとするVR全般に当初から強い関心を抱いており、その当時は彼もVRの将来に強気な見通しを持っていた。しかし最近再びVRの現状について尋ねてみたところ、その返事は「5年経ったらまた聞いてくれ」だった。

ゲーム開発者はまた有力なコンテンツが現れていないことについても触れて次のように述べた。

〔VRテクノロジーには素晴らしい可能性があるものの〕例えていえば、任天堂が革命的なゲームプラットフォームを作っただけで宮本氏とソフト事業部を売り払い、その後何も新しいゲームを作っていないような状況だ。VRには有力なコンテンツが決定的に欠けている。OculusはJason Rubinをトップに据えて巨額の投資をしているが、この点では失敗を続けている。

ソニーのデバイスはエレガントだが、処理能力が不足しており、PS4レベルのグラフィクスの表示も十分にできない。

現在、トップラスのVRを体験するには1000ドル程度のキットが必要になる。しかし消費者はかさばる上にケーブルが煩わしいVRヘッドセットを嫌っており、そんな金額を支払う気はまったくないというのが現実だ。

ハードの売れ行きが鈍いこと以上に利用率が低いのも致命的だ。VRのハードをすでに所有しているユーザーは新しいソフトを買おうとしていない(すくなくともビジネスとして意味あるレベルの売上になっていない)。

VRが成功するためには現在の任天堂のようなコンテンツとブランド・パワーが必要だ。しかしそのようになる兆候は見えない。

つまり古典的な「ニワトリが先がタマゴが先か?」というジレンマに陥っている。

Job SimulatorはVRを数分体験するには面白いゲームだが、世界の消費者をとりこにするような力はない。

VRゲームのJob Simulatorはバーチャル・オフィスで新しい職を体験できる

【略】

VRはSecond Lifeの没入版になる危険性に直面している。悪くすると「Second Lifeの運命はVRの失敗を10年も前に予言していた」といった記事が書かれかねない。

VRは次のハイプ・サイクルで復活するかもしれいない。そうであってもエコシステムの無視は致命的だ。

「VRは最低だ!」(動画はVRシューティングゲームでピストルのマガジン交換に手間取っているところ) 

ARには大きな可能性がある

現在いちばん利用されているVRはモバイルデバイスを利用したエントリー版だろう。Samsung Gear VRや Googleの段ボールを折って自作できるシステムがそうだが、それであってもブームを作るほどの売れ行きではない。しかもこうしたVRは本当のプロダクトというよりジョークの混じったギミックだ。

私見によればVRのディストピア的性格を遺憾なく表現したのは2016年のカンファレンスで撮影された写真だ。Facebookのファウンダー、マーク・ザッカーバーグが引きつり気味の微笑を浮かべながら通路を進んでくるというのに、着席している聴衆は誰一人それに気づいていない。全員がヘッドセットを被って外界から切り離されているからだ。

FacebookのCEO、マーク・ザッカーバーグが 2016のSamsung VRイベントに到着したところ

ウェアラブルデバイスであっても通常のメガネとあまり変わらないサイズに必要な機能を詰め込んだAR〔拡張現実〕やMR〔混合現実〕デバスなら外界の情報を遮らないので、こういった馬鹿げた事態は防げる。

もちろんGoogle Glass(Glassholeと呼ばれた)という大失敗の例は忘れてはならない。あまりにもギーク臭丸出しのデバイスは一般ユーザーからは強く拒否される。

興味ある点だが、モバイルARはすでに膨大なユーザーを集めるソーシャル・テクノロジーになっている。しかもヘッドセットなどのウェアラブルデバイスを一切必要としない。手持ちのスマートフォンだけでよい。コンテンツはすべてスマートフォンだけで完結する。

つまりSnapchatのセルフィーやFacebookのライブビデオのフィルターなどの機能だ。AIを利用してユーザーの顔を置き換えたり加工したりできる人気アプリは数多い。

Snapchatの顔加工セルフィー・レンズ

【略】

旅行者がパリのエッフェル塔の前で任天堂のポケモンGOをプレイ中( 2016年9月8日:: Chesnot/Getty Images)

【略】

Facebook Spacesで友達とバーチャル・ミーティング

【略】

逆にモバイルARがすでに巨大なユーザーを集めていることは明白だ。

ポケモンGOのイベントに集まった人々

なるほど任天堂には巨大なブランド力があり、Snapchatなクレージーなまでにチャット・ブームを巻き起こした。そうではあってもモバイルARが本質的のソーシャルであることに変わりはない。現在でも友達がスマートフォンを手にして集まり、会話しながら写真を取り合い、(準リアルタイムで)互いの写真を眺めたり共有したりするという光景を見ることがある。これは初歩的なモバイル・ソーシャルARの例と言っていい。

ここではオンラインとオフラインの体験をシームレス(に近く)混合でき、さらに友達の表情やボディーランゲージを認識することを妨げるようなものがない。

一方で高価なVRハードウェアはアーリーアダプターの家やデスクの引き出しで埃をかぶるままになっている。VRにガートナーの言う「啓蒙」が訪れるのはいつだろうか?

このサイクルは死んだ―5年後にはどうなるだろう?

つまり現在のVRは死んだ。

しかしVR業界では、これは単に現在のハイプ・サイクルが終わりを迎えたにすぎないと望んでいる。 5年後か何年後かはともかく、次のサイクルでは新しいエコシステムを確立できるに違いない――だがそれはどんなものになるのか?

映画館にはプレミアム席が設けられ、新しいテクノロジーを用いて一層完全な没入感を得られるエンタテインメントが提供されるかもしれない。飛行機の乗客向けのサービスも一つの可能性だ。教育、訓練、医療、リハビリなどの分野における応用のシナリオが考えられる(VRポルノも忘れてはならない)。

しかしこうした応用分野をすべて足し合わせてもVRが次世代のコンピューティング・パラダイムの主要な部分にはならないだろう(ザッカーバーグでさえVRが「可能性をフルに発揮できるようになるには10かかる」と述べるようになった)。

今のところAR > VRだという点に疑問の余地はない。

しかもARに勢いがつくことはVRにとって悪いニュースとなる可能性がある。【略】

結論

人間の本性として世界を風変わりなフィルターを通して観察してみたいという気持ちは強い。

しかし、今のところ仮想現実は人間に知られているエンタテインメントの中でもっとも人気がないツールという不名誉な賞を得るにとどまっている。この傾向にはまったく変化の兆しがない。

実はアメリカでは比較的近い未来にまた皆既日食を観測できる。それが起きるのは2024年の4月だ。もし次回の皆既日食でも人々が古典的な日食メガネをかけており、VRメガネについては関心がないようだったら皮肉な事態ということになる。

記事タイトルはTechCrunchnの同僚、Romain Dilletのアイデア。トップ画像はBryce Durbinのオリジナル・アート

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AppleのARkitベースのARアプリをプレビューしてきた――iOS 11公開で一挙巨大市場に

私はこの数週間、デベロッパーと投資家に混じって、急成長中のARKitの世界を体験してきたところだ。関係者がAR時代の到来に興奮する理由はいくつもあるが、その一つがスケールの可能性であることは確かだ。潜在的なARのユーザー数は巨大だ。来月公開されるiOS 11の場合、インストールされた瞬間から誰もが拡張現実を利用できるようになる。今年中にARを使うようになるユーザーは数億人に達するはずだ。これはARの可能性を示すうえできわめて説得力ある数字だろう。

巨大企業も1人か2人のエンジニアのチームもともにクールなARアプリの開発に全力を挙げている。

昨日のデモ・イベントでは多数のARアプリをテストしそのデベロッパーに話を聞いた。近い将来のARアプリについて私なりのイメージを抱くことができたように思う。以下に紹介するのはコンシューマー向けアプリだが、ご覧のようにこのテクノロジーの間口はきわめて広い。デモ・アプリはiOSのARKitでどんなことができるのか興味を抱いているデベロッパー、投資家の参考になると思う。

まずデモビデオを見ていただきたい。最後にいくつか感想を述べる。

Ikea

家具AR: カタログから選んだIKEAのソファーを実物大で現実の場所に置くことができる。 カタログに搭載されたアイテムは2000種類。

Food Network

キッチンAR:家庭のキッチンで手持ちの皿にリアルなカップケーキなどのデザートを載せてみることができる。デザートが気に入った場合、アプリからレシピにアクセスがが可能。

GIPHY World

現実ビデオとGIFによるソーシャルAR: ユーザーはビデオを撮影し、GIF画像を配置して共有することができる。デモでは両親がベビーシッター向けに朝食用食材、与えてよいおやつ、与えてはいけない食材などをGIFで説明している。ファイルを受け取ったユーザーはさらに素材の追加、リミックス、再共有などが可能。

Arise

ARゲーム:: Climax Studiosが開発したゲームでは居間のテーブル(でも何でもよい)の上にリアルな3Dの廃墟を出現させ、その上を主人公のキャラクタ^が進んでいく。ユーザーは通常のゲームコントロールでキャラクターをなるべく遠くまで進ませるよう試みる。

Very Hungry Caterpillar

AR絵本: 記録的なベストセラー絵本、『はらぺこあおむし』 をAR化している。現実の庭にりんごの木などが配置され、りんごを地面に落としてあおむしを誘導する〔この点については後述〕。あおむしはエサを食べると次第に大きくなり最後に美しいチョウになって飛び立つ。絵がキュートである上にターゲットとする子供の発達段階に合わせてコントロールが簡単であり、優れたARアプリだと感じた。

Walking Dead: Our World

AR版ゾンビシューティング: 現実空間にゾンビが登場し、プレイヤーは一人称視点で射撃して倒す。ゾンビの描写はリアルで精細度も高い。プレイヤーはゾンビの攻撃をかわすために素早く向きを変えるなど体を動かす必要がある。iPadでのデモの動きはスムーズだった。

以下は私が興味を感じた点だ。

スキャン:. ARアプリはまず最初に周囲の現実をスキャンして置かれている環境を認識する必要がある。私が見たデモでは、ARKitに環境を認識させるためのスキャニングはアプリごとに独自の手法を用いていた。ただし多くのアプリでは現実世界にARオブジェクトを配置することができる平たい表面を見つける必要があった。アプリが適当な表面を見つけるまでユーザーはカメラをあちこちに向けてみる必要がある。別に難しい動作ではなく、普通は数秒しかかからないはずだ。

ただしユーザーはARアプリのこの特性を知っていたほうがいいだろう。Ikeaのアプリは対話性が高く、ユーザーにまず「部屋をスキャンしてください」と要請する。ゾンビゲームのWalking DeadFood Network のデザート・アプリでも同様だ。ARKiがオブジェクトを配置できるよう、ユーザーにカメラを動かしてもらうために各アプリともプロンプトやバッジなどを利用し、知恵を絞っていた。

コントロール:ユーザーが選んだ位置にオブジェクトを配置するアプリ以外は画面内にコントロールを配置していない。たとえばAriseゲームの場合はユーザーがカメラを向ける方向を変えることがコントロールの役目を果たす。ユーザーはカメラのアングルを変えることでキャラクターを所望の方向に進ませることができる。画面内にはボタンなどのコントロールはいっさい表示されない。

一方、Very Hungry Caterpillar 〔はらぺこあおむしAR〕のコントロールは視線だ。ユーザーが木の枝のりんごを長く見つめていると、りんごは地面に落ち、あおむしが食べることができる。木の切り株を見つめるとあおむしはその上によじ登って眠る。他のアプリもコントロールはせいぜい1回タップする程度だ。この「コントロール・フリー」ないし「ライト・コントロール」というパラダイムはARアプリのトレンドのようだ。アプリをARに移植したいと考えているデベロッパーはこうした新しいコントロール方式を研究しておく必要がある。

開発期間: いろいろ考え合わせると、非常に短いといっていい。私がテストしたアプリの多くはARKit上で製作ないし移植されるのに 7週間から10週間程度しかかかっていない。ゲームなどアセットが重いアプリはも開発にさらに時間がかかるが、もしすでに非AR版でキャラクターなどのアセットを持っているなら移植はかなりやさしい。たとえばGIPHY Worldアプリには現実空間に3Dで浮かばせることができるGIFファイルが多数用意されているが、ユーザーは何千万も作られている既存のGIFをドロップすることもできる。

「はらぺこあおむし」のAR版を開発したTouch Pressでは既存の「あおむし」のグラフィックスを大きくアップグレードする必要があった。これは子どもたちはARであおむしをあらゆる角度から、かつ至近距離で眺めることになるためだった。同様の理由でIKEAも家具のグラフィックスの精細度、テクスチャーなどをアップする必要があった。しかしARアプリの開発、移植の期間は月というより週や日の単位で計れそうだった。つまり9月月にARKitをサポートするiOS 11が一般公開されると同時に多数のARアプリが登場するはずだ。そしてその後にもっと大量のARアプリの大波が続くことになるだろう。

〔日本版〕デモアプリの作動のメカニズム紹介は原文を参照。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Unityのプラグインで各種ARプラットホームの違いを吸収する8th Wallが未来でなく今のスマートフォンARの活況を展望

拡張現実のスタートアップは、その多くが、スマートグラスの常時着用がもたらす未来の世界にフォーカスしている。しかしARは、今現在のモバイルデバイスの使い方にも、私たちがまだ見たこともないような変化をもたらし得る。

でもこれまでARのそんな使い方の多くは、最新かつ最高性能のハードウェアを必要とした。そこへ、FacebookやGoogle出身の技術者たちが作った8th Wallは、今あるスマートフォンの90%以上で使える技術によって、スマートフォンARのリーチを広げようとしている。

Palo Altoに拠を構える同社のより大きな目標は、スマートフォンARアプリの開発をこれまでの10倍早くし、ネイティブのARライブラリを有効利用し、あるいは必ずしもスマートフォンのセンサーやカメラなどを使わなくても、十分なAR体験を実現することだ。

今日同社がローンチしたUnityデベロッパー用の無料のプラグインXRを使えば、拡張現実のアプリを作って実験することができる。同社はまた、Norwest, Betaworks, VR Fund, SV Angel, Greylock, そしてThird Kindらからの240万ドルの資金調達を発表した。

8th Wallの協同ファウンダーErik Murphy-Chutorian

8th WallのXRソフトウェアで、光や面の推定、シーンディスプレイのキャリブレーションなど、物理的世界の中にデジタルオブジェクトをシームレスに置き、それらが環境に反応できるために必要な機能を実装できる。

“ARをネイティブに設計するやり方は、まだ誰も知らない”、Betaworksの投資家Peter Rojasはそう語る。“モバイルの初期のころを、思い出してしまうね”。

8th Wallの最大の売り物は、すでにそこらにあるさまざまなARプラットホームを横断して開発ができるとともに、個々のデバイスの特徴も利用していく点にある。

“いろんなプラットホームがばらばらでも、それらを橋渡しできるし、またXRで十分な付加価値を与えることができる”、8th Wallの協同ファウンダーErik Murphy-Chutorianは、こう語っている。

そのプラットホームは、AppleのARKitやGoogleのTangoなどさまざまなARプラットホームをシームレスに統合し、またiPhone 5C以降やKitKat以降のAndroidなど、あまりロバストでないデバイスでも、3DoF(three degrees of freedom, 3次元方向) ARの機能をやや制限つきで実装できる。チームは今後、サポートする機種をもっともっと増やしたい、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビデオ編集時に画面から何かを取り去ったり加えたりする技術を持つFayteqをFacebookが買収

Facebookは、ビデオを編集するとき、画面中のオブジェクトを取り去ったり新たに加えたりできるコンピュータービジョン応用のソフトウェアを作っているドイツのFayteqを買収した。買収を最初に報じたのはドイツのスタートアップ情報誌だが、アメリカではVariety誌だった。本誌TechCrunchも事実を確認したが、Facebookはビデオフィルターを、ライブのストリーミングとInstagramのStories的なプラットホームの両方で充実させようとしているから、そのための買い物だろう。

ライブのビデオから何かを取り去ったり、加えたりするのは、これから流行ると思われる拡張現実(AR)の得意ワザでもある。Facebookは今年の4月のF8カンファレンスで、その内蔵カメラ用のARプラットホームをローンチし、スマートフォン上のFacebookで使うAR体験をデベロッパーたちが積極的に作るよう、仕向けている。Mark Zuckerbergによればそれは、“メインストリームになる初めての拡張現実プラットホーム”だそうだ。

このプラットホームには、スマートフォンのカメラで撮った現実世界のオブジェクトを認識する機能や、それらのオブジェクトにエフェクトを加える機能もある。AppleはiOSのARKitで、Facebookと同じことをシステムレベルでやるらしいから、仮想オブジェクトをシーンに加えるのがずっと簡単になるだろう。

Fayteqの特技によりFacebookは、この分野を一層充実させていくだろう。そのIPと特許がFacebookのものになったことによって、ARへの注力がなお一層明確になると思われる。

Facebookは買収を確認したが、今後の計画についてはまだ何も発表がない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VRデバイスでキャラクターを操作してライブ配信、カバーが3000万円の資金調達

VR/AR向けソーシャルサービスを開発するカバーは8月1日、みずほキャピタル、TLMおよび個人投資家数人を引き受け先とした総額約3000万円の資金調達を実施したことを明らかにした。

カバーは2016年6月設立のスタートアップ。代表取締役の谷郷元昭氏は、地域情報サイトの「30min.(サンゼロミニッツ)」の開発・運営を手がけた(現在はイードに譲渡)サンゼロミニッツの創業者でもある。カバーにはアエリア元取締役でエンジェル投資やスタートアップ支援を行う須田仁之氏、アジャイルメディア・ネットワーク元CTOの福田一行氏が参画している。同社はVR特化のインキュベーションプログラム「Tokyo VR Startups」の2期生に採択されている。

創業当初はVRデバイスを使って楽しめる卓球ゲームを開発していたカバーだが、今年に入ってピボット。3Dキャラクターを自由に操作し、インタラクティブな番組を配信できる、AR対応のバーチャル版ライブ配信サービスを9月にも提供する予定だという。サービスについては言葉で説明するよりも、まずはこの動画を見て頂いたほうが理解しやすいだろう(複数の動画が)。

この動画内で動いている女性の3Dキャラクターは、VRデバイス(テスト環境ではHTC Viveを使用していた)で操作しており、リアルタイムにその動きが表示されている(顔や手の向きだけでなく、ボタン操作で表情や指の動きを変えたり、マイクで認識した音をもとに、唇を動かしたりもできる)。3D空間上では写真や動画の再生をしたり、3Dペイント機能を使って立体的なお絵かきをしたりもできる。デモには音声が入っていないが、もちろん音声会話も可能だ。

以前に比べれば楽になったとは言え、モーションキャプチャーをし、そのデータを使ったリアルタイムなアニメーションを配信するには設備もコストもかかる。それをVRデバイスだけでまかっているというわけだ。同社はこのキャラクターによるライブ配信プラットフォームを開発。まずは自社やパートナー企業のキャラクターによる番組を制作・配信していくという。キャラクターを持たない企業に対しては、3Dモデルの制作も支援する。

サービスのイメージ

カバーではiOS11のARKitに対応したAR機能も準備中だ。ライブ配信時に、ARモードでキャラクターだけを自分がいる場所に呼び出して、表示することも可能になる。そのほか、ライブ配信とは別に「撮影モード」を用意しており、ARでキャラクターの動画・写真撮影もできる。

AR動画の撮影イメージ

8月中にもアルファ版のサービスとして、この配信環境で制作した番組をYouTubeやニコニコ生放送で配信する予定。そして9月をめどに視聴者向けのアプリを提供するとしている。アプリでは、ライブ配信にコメントしたり、ギフトを送ったりする機能や前述の撮影モードを搭載する。

「もともとはゲーム会社の出身。IPには一番労力を割いていたので、『キャラクターもの』の事業はやりたかった。VRとキャラクターの相性がいいのは分かっていたが、それが実際にできるのか? ニーズはあるのか? と考えていた。そんな中で最初は卓球ゲームを作ってみた」

「だが(VRゲームの)市場はまだ広がっていないし、モバイルのようなカジュアルな市場があるかと言えば、なかった。しっかりしたコンシューマーゲーム会社でないと作れない。このプロジェクトは今年の2月くらいから始めていたが、Tokyo VR Startupsのデモデーまでの1カ月で、ほぼ突貫で作っていった」(谷郷氏)

同社が狙うのは、アニメの市場だという。「(アニメに関する)ライブやVRのシアターもできている。3Dモデルさえあれば、アニメを作ることはできる。VRやARといった『空間』をディスプレイにできる場所に、キャラクターやコンテンツを提供していく」(谷郷氏)。ライブまでの実現したボーカロイドの「初音ミク」から、人気アイドルグループを手がける秋元康氏がアニメキャラクターによるアイドルユニットの「ナナンブンノニジュウニ」をプロデュースしたり、バーチャルYouTuberの「Kizuna AI」が70万人以上のファンを集めているような状況だ。バーチャルキャラクターによるファンビジネスの時代は眼前にまで来ているのかも知れない。

同社は今後プラットフォームや視聴、配信用のアプリケーションの開発に注力する。「まずは自前での番組も配信するし、権利者のコンテンツも載せていく。このプラットフォームはただの『美少女・イロモノ』には見られたくない。IPのマーケティングに使えるものにしていきたい」(谷郷氏)

The VR FundがAR業界の最新カオスマップを公開――四半期でARアプリが6割増

シリコンバレーでVR、AR、MRを手がけるスタートアップに特化したVCのThe Venture Reality Fund(以下、The VR Fund)。同社は現地時間7月20日、最新のAR業界の動向をまとめたカオスマップを公開した(2017年Q2版)。

このカオスマップの作成のため、The VR Fundは2000社以上の企業を調査。その中から、資金調達額や収益力などをもとに150社をピックアップして掲載している。同社によれば、「ARアプリケーションを手がける企業数はQ1と比べて60%増加した」そうだ。

The VR Fundはプレスリリースのなかで、「Q2において最も活発だったエリアは、デバイスとSDKツール開発だった。これは業界全体がいまだ前進を続けていることを表している」とコメントしている。

「Q1では、FacebookやAppleといったビックプレイヤーたちによる大きな動きがあった。それにより、開発者たちの活動は活発化し、マーケットがカバーする領域も拡大した」(The VR Fund)。

日本では、2017年5月にGoogle Tangoに対応したASUSの「ZenFone AR」が発売したこともあり、ARを身近に感じる機会が増えてきた。

The VR Fundは、「開発キットはまだ未熟ではあるものの、Microsoft HololensとGoogle Tangoによって、ARがもつ可能性が広く知られることとなった。近い将来、AppleのARKitに対応する形でこれらのプラットフォームがさらに進化することが期待される」と、Q2でARプラットフォームが果たした役割を評価している。

しかし、その一方で「現在のAndroidエコシステム内の分断は、開発スピードとTangoの普及スピードを鈍化させることになるだろう」とも加えた。

「FacebookのカメラプラットフォームとAppleのARKitの登場により、AR業界はさらに活発化。この業界に対する注目度も上がった。これはコンシューマー向けアプリケーションの分野で特に顕著だ。現時点での開発者からの反応を見る限り、Appleはこの“ARプラットフォーム戦争”で強大な勢力になるだろう」(The VR Fund)。

AppleがAR/VRに欠かせない視標追跡技術のSensoMotoric Instruments(SMI)を買収

拡張現実と仮想現実の技術をめぐるAppleの今後の動きに関して、噂の火に油を注ぐかのように、同社は指標追跡(eye-tracking)技術のSensoMotoric Instruments(SMI)を買収した、とMacRumorsが報じている。

1991年ドイツ生まれの同社はこれまで、視標追跡の研究で重要な業績を上げ、特殊な単眼鏡ハードウェアを開発したり、仮想現実のための視標追跡など消費者アプリケーションの研究もしている。昨年同社は、VRヘッドセットHTC Viveのための視標追跡開発キットを発表している。

問い合わせに対してAppleは、昔から変わらぬワンパターンで答えてきた: “Appleは小規模な技術企業をときどき買収し、一般的にそのとき、弊社の目的や計画を明らかにすることはない”。

買収の条件は現時点で不明だが、今後分かり次第お伝えしよう。

VRやARの重要なユースケースのひとつが、ユーザーが今見つめている場所の位置を調べてその領域を最高の解像度で描画し、周辺はやや手抜きをして処理負荷を軽減する、中心窩レンダリング(foveated rendering, 視線追跡型レンダリング)と呼ばれる技術だ。VRやARのヘッドセットで超高解像度な視界を実現するためには、欠かせない技術と言われている。

ヘッドセットを用いるARやVRでは、視標追跡技術のユースケースがほかにもある。たとえば昨年10月にGoogleが買収したEyefluenceは、ユーザーインタフェイスのマウスクリック等に代わるセレクション(ユーザーの指定)の判定に、視標追跡を用いる。

先月Appleは、拡張現実を利用するアプリケーションを作るデベロッパーのために、APIセットARKitを発表した。また同社のデスクトップ機の最高級機iMac Pro向けには、VR開発のサポートを提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「高級Pinterest」のHouzzが評価額40億ドルで4億ドルを調達

シリコンバレーの投資家たちに、アプリHouzz(とんでもなく豪奢な家を見学しつつ、興味深いインテリアデザインのアイデアをチェックできるアプリ)について尋ねたなら、彼らは単に自分たちのビジネスを拡大しているだけさ、という答が返ってくるだろう。私たちがHouzzのビジネスについて聞くことはほとんどなかった。

そんなHouzzが、4億ドルにものぼる資金調達を発表した。このラウンドはIconiq Capitalが主導したもので、Sequoia、Zeev Ventures、そしてGGVも参加している。ブルームバーグによれば、新しい資金調達ラウンドでは、このスタートアップの評価額は40億ドルとされたということだ。これは消費者向けスタートアップとしても高額で、家庭装飾まわりの企業としては並ぶものがない。同社は米国外14カ国でローカライズ版を発売していて、Houzzマーケットプレイスには2万以上の売り手から900万点以上の製品が出荷されている。

Houzzはプロダクトサイドでもまだ機能拡張を続けている。同社は5月に基本ARモードを開始した今後リリースされるiOS向けのARkitが入れば、こうした機能が今後数カ月の内にもっと進化し、より堅牢になるところを見ることになるだろう。これらの大型機能が、既に家庭関連のコンテンツを検索しているユーザーの手に渡れば、会社にとっては新たなきっかけを与えるものになるだろう。

私はHouzzの顧客ではないが、間違いなくこのアプリケーションは麻薬的喜びを与えてくれるものだと言うことができる。興味深いデザインやブロダクトの心地よくキュレートされた写真で、Houzzは利用者の未来の家のための、ニッチなPinterestの役割を果たす。ここでの違いは、Houzzがターゲットとして売ることができる商品の種類は、高価なものだということだ。すなわちHouzzを通じて実際に商品を購入する人びとは、FacebookやPinterestのような大きなプラットフォームで見られる典型的な顧客層よりも高価なものを購入するということだ。

それはHouzzがニッチを占めることを意味するが、間違いなく高価なニッチだ。これは、特定のユーザーセグメントがとても高価なビジネスになることを期待して、より大きなプラットフォームの一部を切り出し、それを本当にうまく使うことができた会社の1例だ。Houzzは、顧客たちが、たとえぼんやりと眺めているのか、あるいは実際に家の装飾アイテムを購入しようとしているのかに関わらず、こうした高額コンテンツに対するさまざまな需要に耳を傾けているように見える。

興味深い点は、Houzzが、Pinterestの存在がありながら、それほどまでに巨額の評価額を得ることができたということだ(なおPinterestの評価額は120億ドル以上で月刊アクティブユーザーは1億7500万人にも及ぶ)、そして消費者の購買サイクルにおける発見とインスピレーションパートを担おうとしている。Pinterestはその大きさによって、広告主たちを説得しやすいだろうが、Houzzの巨額の評価額は、極端に偏ったコンテンツ領域ではまだ顧客の注意を引くことが可能なことを示しているのかもしれない。

訂正:最初の投稿では、Houzzは昨年、米国外の6つの国の150市場に進出していると書いたが、その成長は同社の企業向けソリューションチャンネルのものだった。

[ 原文へ ]
(翻訳:Sako)

ビジネスサービスこそがVRのキラーアプリだ

【編集部注】著者のChris Youngは、B2BソフトウェアのアーリーステージベンチャーファンドであるRevel Partnersの、マネージングジェネラルパートナーである。

仮想現実(VR)と拡張現実(AR)は、2016年に現実的な試練に晒された。膨大な投資と業界でのもてはやされ方にもかかわらず、予測されたVR/ARの大量採用は決して現実のものとはならなかった。しかし、その水面下では、地味で目立たない領域からではあるが、この技術の確実な動きが始まっていることがわかる。

B2Bとエンタープライズアプリケーションに於けるVR/ARの活動は、表面的には目立たずとも非常に活発な年だった。そしてその勢いは2017年も続いている。実際に、今やエンタープライズVRからのアプリケーション収益は、2020年までにはコンシューマーエンターテイメント収益を上回ると予測されている。しかも誇大宣伝は抜きで。

ゲームやエンターテイメントのためのVR/ARの早期の試みは、今だに初歩的な状況にあるままだ。Mark Zuckerbergでさえ、この技術が主流になるまでには、丸々10年はかかると見積もっている。不恰好で高価なハードウェアや、ヒット商品の欠如、そして消費者自身の関心の欠如などにその原因を求めることはできるが、業界による2025年までに7000億ドルの売上という予想は、少々野心的に思える。消費者向けのVR/ARが、いつか「やってくる」のはほぼ確実だが、一方業界の規模がどれ位のものになるのか、いつどのように成長が始まるのかは重要な疑問として残されたままだ。

調査会社のTracticaによれば、VR/ARの企業支出は、ハードウェア関連の収益を除いても、2020年までに消費者たちがVR/ARエンターテイメントに対して行う支出よりも約35%大きくなると予想されている。Tech Pro Researchによれば、彼らの調査に回答した企業のうち67%が現在ARの利用を検討しており、47%がVRをの利用を検討している。デジタルトランスフォーメーションは、VRハードウェアのコストの低下と共に、注目度が上がっている。関連するソフトウェア、システム、ツールの進歩との組み合わせと、企業による採用が、業界のための最も現実的な発射装置として成長しつつある。

2017年には、VR/ARのユースケースが、イノベーター、起業家、スタートアップたちが取り組むさまざまなビジネス分野で拡大し続けている。ヘルスケア、教育、CPG/FMCG(Consumer packaged goods / Fast-moving consumer goods:トイレットペーパーや洗剤のように安価かつ短いライフサイクルで大量に消費者に売られる商品のこと)、テレコム、広告、不動産などはすべて、VRもしくは強化現実(enhanced reality)から恩恵を受け始めている。何百もの3Dビジュアライゼーションと拡張のための、クリエイティブなアプリケーションたちが登場している。

スマートな起業家たちと開発者たちは、早期成功の鍵となる要素を特定し、その教訓を、B2Bに焦点を当てた消費者関連産業に応用するだろう。

マーケティングおよび広告セグメントには、VRスタジオ、アプリケーション開発者、流通ネットワークがひしめいている。多くの場合、彼らは広告代理店やブランドを支援して、販売やマーケティングのための没入型ブランド体験を提供している。たとえば、Outlyer Technologiesは、360度のモバイル広告フォーマットを使用して、ユーザーの関心を引きつけようとしている。最近のSXSW(サウス・バイ・サウスウエスト)では、メトロアトランタ商工会議所が、Foundry 45の技術を利用してアトランタの仮想体験を提供し、求職者の候補を募った。特に、アトランタではVR/AR企業が急増しており、数年前には1ダース程だった企業数が現在では50程になっている。

これらのタイプのユースケースが急成長しているのは、マーケティングと広告分野だけに限らない。製造業では、WorldVizが、その企業向けのVizardとVizmove VRアプリケーションスイートを使い、ビジュアライゼーションとテスティングのリーダーとなっていて、P&G、Philips、3M、Perkins & Willなどの多くの企業で採用されている。オープンソースで拡張可能なライブラリにより、大企業や中小企業は、現実世界のシナリオで、新製品を迅速に設計、操作、そしてテストすることができる。

教育での利用は — それが従業員訓練でも、初等教育でも、そして先進的研究だとしても — 大量のデータを視覚化したり、遠隔地で学生の教育を行なうことのできるVRの能力から恩恵を受けている。GoogleのProject Expeditionは、仮想的な探検と、没入型世界旅行を教室にもたらす。アイスランドのSólfarStudiosは最近、エベレストVRプロジェクトを英国王立地理学会に寄付したAlchemy VRUnimersiv、そしてCuriscopeなどは、没入型で経験型のカリキュラム、ツール、トレーニングで急速に教育の世界を変えつつある。

ヘルスケアのVRは、患者のケア、遠隔医療、リハビリ、そしてトレーニングにまで及んでいる。実際、2016年はVRカメラを使用した手術が行われた最初の年として記憶された。医学生たち(および一般の人びと)は、Mativisionの手術視覚化アプリケーションでVRを使用する医師と共に、手術の現場に立ち会うことができた。VisitUは、ヘッドセットと家庭内の360度カメラを通して、病院の子供たちを自分の部屋につなぐことができる。The Virtual Reality Medical Centerは、恐怖症や他の慢性的なメンタルヘルスの問題を持つ患者を支援するために、サイバー心理学の中で急速に成長している医療実践の1つだ。

業界全体では、7000億ドルもの規模に達するだろうと予測する専門家もいる。こうしたエンタープライズ分野におけるイノベーションを促進する新規用途の例は、この技術の意義ある収益への明確な道筋を示している。確かに、この分野は消費者向けの分野で、発達し発展を続けるだろうが、今や企業とB2Bのケースが急速に成長している。スマートな起業家たちと開発者たちは、早期成功の鍵となる要素を特定し、その教訓を、B2Bに焦点を当てた消費者関連産業に応用するだろう。そここそが、このテクノロジーがその基盤を見出し、大量採用への扉を開く場所なのだ。

[ 原文へ ]
(翻訳:Sako)

リフォーム仲介のHouzzが巨額$400Mを調達、コマース部門はディープラーニングとARをフル活用

住宅リフォームのHouzzは成長を続けており、再び大きな資金調達に臨もうとしている。同社によるとその金額は4億ドル、複数の報道が告げる評価額は40億ドルだ。

2009年に創業したHouzzはリフォーム仲介サービスのほか、必要な家具や設備を見つけるためのツールも提供している。ユーザーは世界中におり、その市場はアメリカ、イギリス、オーストラリア、フランス、ドイツ、ロシア、日本、イタリア、スペイン、スウェーデン、デンマーク、インドと幅広い。

同社の主な収益源は、各地元のリフォーム店や工事店などの紹介料(リスト掲載料)だが、同社のWebサイトやモバイルアプリからの、ディープラーニングやARを利用した直販にも熱心だ。

昨年の秋に導入したディープラーニングツールは、サイトに載ったユーザーの家の写真を分析して、そこに写っているのと同じような製品を同社のページから買うよう勧める(リコメンドする)。またモバイル上のAR機能で、新しい家具などと今のユーザーの家との相性をチェックできる。

最新の投資ラウンドは、Recodeの報道によるとIconiqがリードし、これまでにHouzzがSequoia, New Enterprise Associates, GGV Capitalなどから調達した2億ドルあまりに上乗せされる。

〔訳注: 写真はHouzzの協同ファウンダーでCEOのAdi Tatarko。このほか、最優秀アプリ賞インパクトの大きい女性ファウンダーなど、記事多し。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビジュアルイフェクトのSpektralが$2.8Mを調達してAI制御のグリーンスクリーンに取り組む

拡張現実は今、買収ブームだ。FacebookやSnap、Appleなどなどが、ユーザーエンゲージメントの増大につながりそうなチームや技術にお金を投じている。デンマークのSpektralも、大きな将来性のありそうなこの分野で成功をねらっているビジュアルイフェクトの新人企業だ。すでにVCたちも注目しており、今日同社はLitecapAmp Venturesからの280万ドルの資金調達を発表した。その資金は同社の、機械学習に支えられたリアルタイムのグリーンスクリーン〔映像合成用グリーンバック〕技術の開発の継続に充てられる。

Spektralは、ベンチャー支援のスタートアップの多数派と違って通常の意味での製品がない。製品を作ってそれを市場に出す、という路線ではなく、Spektralは研究開発によるパテントの蓄積をねらっている。最初はCloudCutoutと呼ばれるスチルフレームを追究したが、その後はリアルアイムビデオへ移り、機械学習とスペクトラルグラフ理論を組み合わせて人や物を背景から分離し、それらを新しいストリームにオーバレイする技術を研究開発している。

この技術がSnapchatやMessengerに実装されている、と想像するのはきわめて容易だが、だからといってその技術が広く採用されているとは限らない。Spektralがその技術の用途を、プロダクションや広告などそのほかの分野に広げようと努力しているのも、たぶんそのためだ。

オブジェクトを背景から分離するための新しい設計の可能性を機械学習に求める研究は、そのほかの研究グループでも行われている。たとえばAdobe, Beckman Institute for Advanced Science and Technology, University of Illinois at Urbana-Champaignの三者の共同研究により、その処理を自動化する方法が発表されている。とは言うものの、ビデオと画像は二頭のまったく異なるモンスターだ。

これまでずっと、細線〔例: 人間のヘアー〕がカットアウト(切り抜き)を評価するときの重要な規準だった。SpektralのファウンダーでCTOのToke Jansenは曰く、髪の毛の切り抜きが難しいことを、人びとは簡単に忘れてしまう。人間が鋏を使って切り抜くときは、何も考えなくても複雑な形の周辺を正しく切り抜ける。しかしコンピューターの場合は、最新のディープラーニングのモデルを百万点の画像で訓練しても、マシンは間違える。

Spektralはその名のように、ビデオのフレーム中の部分画像のスペクトラルクラスタリング(spectral clustering)を実験している。その付加的な情報を事前に加えることによって、従来的なモデルを拡張する。将来的には、この技術から今よりも複雑なビデオ編集の道が開けるだろう。チームは、オブジェクトの操作に言及する。たとえば、友だちの手を自分の手で動かすなどが、彼らの開発の次のステップだ。

同社は今、その技術を次の段階へ進めるために、各分野の専門家を多数起用している。たとえばUnityで機械学習を仕切っているDanny Langeが、同社の取締役会に加わった。Langeは以前、Uberで機械学習部門のトップだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

HoloKitはARのためのGoogle Cardboardだ、レンズとミラーで像を二重化

Google Cardboardから得た啓示は、スマートフォンを目に十分近づけるとVRのヘッドセットになることだった。でも、MicrosoftのHoloLensのような混成現実(mixed reality, MR)の装備では、それほど単純ではない。…じゃないかな? しかしここにご紹介するHoloKitは、最小限の装置で拡張現実の体験を拙速に作り出す、とても巧妙なDIY製品だ。

そのアイデアはとても単純で、一対の鏡がスマートフォンのディスプレイを、角度のついた、半透明のフレネルレンズに反射する。そうすると、画像とその後ろの世界がARのように重なって見える。一方スマートフォンは、カメラとセンサーで目の前の世界を追跡する。

うまいやり方だし、数十年前にあった、ハーフミラー状のガラスを使う光学的トリックを思い出す。ARは二つの視像を重ねなければならないから、構造はCardboardほど単純ではない。でもこれなら、HoloLensを買うほどのお金がない人でも安上がりにARアプリケーションを試せるし、複数買ってグループに配布することもできる。

たとえば博物館が、あの有線方式の大げさで高価なHoloLensを導入して子どもたちに、ティラノザウルスの骨格の上にその体の画像を重ねて見せたりするだろうか? ありえないだろうね。でもこの製品なら、そんな目的にも使える。ユーザーがデバイスの方にばかり気を取られないようにするためには、ストラップを使うなど、装着方法を工夫すべきだね。

今HoloKitは(Microsoftが文句を言いそうな名前だが)、iPhone 7と同Plus, Google Pixel, そしてProject Tangoのハードウェアをサポートしている。

これを作ったAmber Garageは、Botao Huが創業したAR企業だ。彼は昨日(米国時間6/1)これを、Augmented World Expoでプレゼンし、コードとドキュメンテーションを来週GitHub上で公開する。

あなたも、欲しい? 組み立てキットは7月に発売される。Webサイトをチェックし、来週行われるAR in Actionで注文しよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

英ガトウィック空港、屋内ナビゲーション用に2000個のビーコンを設置

空港やショッピングモールなど複雑な構造をした施設の中では、なかなか目的の場所にたどり着けないことがある。Googleは3Dセンサーを搭載したスマートフォンを使って、GPSでは測定しきれない場所でもナビゲーション機能を使えるようにしようとしているが、それ以外の解決策になり得るのがビーコンだ。施設のいたるところにビーコンを設置すれば、スマートフォンがその信号を拾って現在地を特定できるようになるので、ユーザーはスムーズに目的地へ向かうことができる。

イギリスで2番目に利用者数の多いガトウィック空港は、数年間にわたる改革プログラムの一環として、この度ビーコンを使った屋内ナビゲーションシステムの導入を決めた。

ふたつのターミナルには、既に合計約2000個のバッテリー駆動のビーコンが設置されており、今後地図アプリを開くとより正確に現在地が表示されるようになる。さらにこのビーコンはARナビゲーションツール(冒頭の写真)にも利用される予定で、ユーザーはスマートフォンのスクリーン上に表示される矢印に従って進むだけで目的地にたどり着けるようになる。なお、このシステムではユーザーの現在地を誤差3m以内で特定できるとされている。

また、ガトウィック空港は自分たちのアプリだけでなく、各航空会社のアプリやサービスとも屋内ナビゲーションシステムを連携させようとしている。もしもこれが実現すれば、航空会社は搭乗口に現れない乗客に通知を送ったり、位置情報をもとにその人の荷物をおろすかどうかといったことを決めたりできるようになる。

空港内の小売店やテナントもこのシステムを使うことで、ユーザーが店舗の近くにきた際にマーケティングメッセージや割引情報を送れるようになる(少なくとも通知を受け取るよう設定しているユーザーに対しては)。

なお、ガトウィック空港はビーコン経由で利用者の個人情報を集めることはないが、列の長さを見たり、混雑を解消するために人の流れをコントロールしたりといった運営上の理由で「エリア別の人の密度」に関する情報は集める予定だと話している。

システムの開発にあたり、ガトウィック空港はイギリスのスタートアップPointrの協力を仰いだ。ソフトの開発やシステムの保守以外にも、Pointrは3D ARナビゲーションをサポートしたSDKをサードパーティに提供していく予定だ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

機械学習による画像認識とAR(拡張現実)を結婚させて企業のツールにしたいBlipparが車の車種年式当て技術を発表

自分は、車をよく知ってる方だ、と思う?

でも、Blipparの今度の機械学習技術は、どんなに車通(つう)の人より、すごいかもしれない。この拡張現実/ビジュアル検索企業が今日、自動車を認識する技術を発表したのだ。

BlipparのAIは、2000年以降に作られたアメリカ車のメーカー、車種、そして年式を当てる。ただしその車の現在の速度が15mph以下である場合。

Blipparは最初、企業やパブリッシャーのためのARプラットホームとしてローンチした。Blippと呼ばれる小さなタグを使って、企業はケチャップの瓶のラベルとか雑誌の中の広告などのコンテンツを指定する。ユーザーがそれをスマートフォンのカメラでスキャンすると、その上に拡張現実のコンテンツが現れる。

その後同社は方向を変えて、ビジュアル検索に注力した。Googleの検索は言葉(その物の名前など)を知らないと検索できないが、ビジュアル検索なら、花やファッションなどをカメラで覗くだけでよい。

同社は昨年まで、テーブル、椅子、コップなどなど一般的な物のビジュアル検索を作っていたが、それによって、もっと特定の物をビジュアル検索できるための技術的基盤を獲得した。

その最初の挑戦が、自動車の認識だ。

車種当てで遊んでみたい人のためには、Blipparアプリにこの技術が導入される。メーカー、車種、年式だけでなく、その車の評判や360度写真も見れる(車内と車外両方)。でも同社としての本格的なビジネスは、同じく今日ローンチしたAPIだ。

中古車販売店や保険屋さんは、この自動車認識技術を自分のアプリに組み込み、ビジネスに利用できる。店員や営業は、自分の脳に大量詳細な車種知識がなくても務まるだろう。

現在の認識精度は97.7%以上で、Blipparの主張では、ほとんどの人間の目視判断能力を超えているそうだ。

来年はBlipparから、もっといろんな商品種や業種用の認識技術/APIが登場するだろう。CEO Rish Mitraによると、次はファッションで、もうすぐ出るそうだ。

Crunchbaseによると、Blipparはこれまでに、Qualcomm VenturesやKhazanah Nasionalなどから総額9900万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))