Mark ZuckerbergがVRのアバターになってFacebookのプエルトリコ救難活動を説明

FacebookのCEO Mark Zuckerbergが今日(米国時間10/9)、同社がアメリカの赤十字と協働してプエルトリコの災害救助に取り組み、とくに人工知能と衛星画像を利用して、援助を届けるべき地域を同定している、と発表した

Zuckerbergは曰く、“人工知能を利用して‘人口地図’というものを作り、それを参照しながら衛星画像を見ると、各地の人口密度とその地域のインフラの被害状況が分かる。それにより赤十字は、救助を必要としている人びとの所在が分かる”。

この発表が一風変わっているのは、それが、Ocluls Riftのヘッドセットを利用する同社の仮想現実アプリSpacesから、Mark Zuckerbergの漫画のアバターが語る、という形で行われたことだ。

今週はOculusのデベロッパーカンファレンスが行われるので、まったく突飛な試みとは言えないが、NPRが製作した360度ビデオがプエルトリコの状況を映す中で、現地の人びとが家の被害状況を調べて歩いている映像を背景とする、漫画のアバターの登場は、あまり適切とは思えない。

しかしともかくZuckerbergは、Facebookを利用して友だちに安否を伝えるSafety Check so機能や、現地の人びとが救援組織を作るためのCommunity Help機能などを紹介した。そしてさらにZuckは、救援努力にFacebookが150万ドルを寄付し、また救援活動がより円滑にできるための、ネットワークの保全作業に数名の社員を派遣したことを発表した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

PlayStation VRのヘッドセットとプロセッサーユニットがマイナーなアップデート

Sonyの発表によると、PlayStation VR用ヘッドセットのアップデートバージョンが近く発売される。でも、わりとマイナーなアップデートだから、あまり興奮しないように。それでも、最初のハードウェアのオーナーを悩ませていた問題の一部が、解決されている。

日本では今月の終わりごろ発売され、アメリカはそのあとだが、その日程はまだ発表されていない。

いちばん目立つアップデートは、ヘッドフォーンとヘッドセットが完全に一体化したことだ。ケーブルがそのぶん単純になり、また、ヘッドセットをうしろから見たときのルックスがすっきりする。

機能面で大きなアップデートは、外付けのプロセッサーユニットボックスがHDRも通すようになったので、互換機PS4やPS4 ProのHDR機能を利用するために、ユニットを外さなくてもよいことだ。

これらのアップデートはどれも、比較的ささやかだが、でもHDRがメジャーになりつつある今、PS VRのユーザーがいちいち、VRのセットアップを外さずにそれにアクセスできることは、ありがたい。気の重さがなくなった、と言える。でもFAQページによると、HDRをを楽しみたいのでプロセッサーユニットだけ、というアップグレードはできないようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、誰でもストリートビュー画像を追加可能に。まずはInsta360 Proカメラに対応

Googleは新たなプログラム “Street View ready” を開始した。通常はGoogleの公式ストリートビューカーの360度カメラで収集されているストリートビュー画像データベースに、対応ハードウェアを持っている人なら誰でも寄与できる。”Street View ready” に正式認定された最初のカメラは、Insta360のProモデルだ。8K対応の360度カメラは最大秒間5フレームの静止画像を撮影可能で、リアルタイム手ぶれ防止機能も内蔵している。

Googleは、Insta360 Proをストリートビューアプリから直接制御できるようにする計画で、取り込んだ画像と映像は公式Insta360 Stitcherアプリを使ってアップロードできる。Insta360 Proの5 fpt、8K の撮影モードは、ソフトウェアアップデートでストリートビューコンテンツ専用に追加された新機能。同時に新しいUSBハードウェアアクセサリーも発売されGPSデータを自動的に画像データに付加できるようになった。

これは、冒険心旺盛なユーザーがストリートビュー画像データベースに貢献できる非常に楽しみな方法だ。Google自身では必ずしも撮影が容易でない地域の画像を、研究目的で記録する専門組織から入手することができる。Googleはこれまでにも限られた範囲でサードパーティーの協力を仰いできた。フェロー諸島の “Sheep View”プロジェクトもその一つだが、今回はずっと広く網を広げようとしている ―― ただし、協力者は高価なInsta360 Proを持っている必要がある。

カメラの価格は3499ドルで、現在Googleが “Street View ready” と公認しているハードウェアはこれだけだ。しかしGoogleは、要件を満たした個人または団体にカメラを貸し出す予定なので、かなり手の届くところまできていると言えるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

スピルバーグ監督も支援――映画館にVRを導入するスタートアップがAMCより2000万ドル調達

消費者向けのVR(仮想現実)の出足は遅いが、特定の場所で体験するアトラクションであれば、業界にとって持続可能なものになると考える人も多い。コンシューマーが映画に行くのと同じ感覚で、より高品質の体験を提供するということだ。

本日(現地時間9/26)、VRスタートアップDreamscape Immersiveは、世界最大の映画チェーンAMCが率いるシリーズBで2000万ドルを調達したと発表した。Dreamscapeはすでにワーナー・ブラザーズ、21世紀フォックス、メトロ・ゴールドウィン・メイヤー、 IMAX Corporation、そしてスティーブン・スピルバーグなどの支援を受けている。

資金調達に加えて、Dreamscapeは、同社の全身モーションキャプチャVRの技術を取り入れる大きな契約をAMCと締結した。最大6人のユーザーが同時にソーシャル体験を共有できるこの技術は、アメリカとイギリスの映画館や独自の施設に導入する。今後18カ月間に、最大6つの拠点で公開する予定だ。

これらはユーザーが自宅で再現できないようなテクノロジーを利用した独自の体験になるため、注目に値する。また、AMCはDreamscape Immersiveがコンテンツを作り始めるため、コンテンツのためのファンドに1000万ドルを出資する契約も結んでいる。

映画館業界は今のところ、誰かのためになろうとしているわけではない。彼らにとって位置ベースVRは、映画館に客足を戻し、単に自宅にあるより大きな画面でコンテンツを視聴する以上の体験を提供する機会となる。興行成績の規模は拡大していると言えど、オンデマンドの映画レンタルやストリーミングサービスの利便性を選択する人が増えた結果、映画館へ足を運ぶアメリカ人はますます少なくなっている。

現在の映画館には存在しない物流面での課題が明らかにあるが、位置ベースVRは大きな価値を提供できる可能性があり、すでにいくつかのスタートアップは大型の案件を決めている。先月ディズニーは、The Voidと呼ばれる企業のVR体験を2つのディズニーテーマパークリゾートに導入すると発表した。

 

[ 原文へ ]
(翻訳:Keitaro Imoto / Twitter / Facebook

Looxid Labsが脳波検査とVRを結びつけてコンテンツに対する反応、人間の感情分析を行う

仮想現実は消費者市場の厚い壁をぶち破ることができず、その需要の核心も未だに掴みかねている。しかし一方、コンテンツの制作の分野では、企画や開発の過程で人間の感情を把握し分析できることが、ヒット作を生むための重要な鍵とみなされている。

今日(米国時間9/18)のDisrupt SF Startup Battlefieldに登場したLooxid Labsは、そのためにVRと〔それらを経験中の人の〕脳波の利用を考えている。

感情を調べるためにVRを利用するスタートアップは、このところいくつか登場しているけど、でもたとえばVRでユニコーン企業になったMindMazeが開発しSamsungがデモした技術は、顔の筋肉の動きから感情を推察するし、また、唇の動きを読む類似技術もある。それらに対してLooxid Labsは、EEG(脳波検査)と目の動きの検出を組み合わせて感情的な反応を検出し、独自のアルゴリズムにより、視聴者の現在の感情を推察する。

EEGはいまだに、その応用技術や応用製品が明確でないデータソースだが、しかしLooxid Labsがねらっているのは消費者市場ではなく、VRへの反応を表している感情を調べる研究調査の分野だ。

同社のLooxidVRと呼ばれる製品は、脳波や目の動きなどの情報を集めて解釈するシステムだ。それが発揮する調査分析機能により、VRに関心を示している多くの企業が、ユーザーのリアクションを正しく判断できる。たとえば医療における疼痛管理や物理療法のユースケースでは、患者の今の気持や反応を知ることがとても役に立つ。また教育の分野では、学生生徒が教材のどの箇所で混乱しているか分かれば、落ちこぼれ防止に役に立つ。

しかもVRヘッドセットのリアルタイム統合により、どんな場面で、あるいは何を見ているときに、どんな感情が起きたか、という両者の結びつきを知ることができる。アルゴリズムが判定する感情の種類は、以下の三つの次元だ: (1)嬉しい/悲しい、(2)優越感/従順感、(3)興奮/消沈。

Looxidは消費者市場を無視しているわけではないが、近々の参入はない。今は、消費者市場のアーリーアダプターを対象とする開発キットを企画しているから、B2CではなくB2Bだ。感情追跡は、これまで多くのソーシャルVRアプリケーションが関心を示してきたが、その機能を統合したハードウェアはまだない。EEGヘッドセットがマスマーケットに合ったソリューションではないかもしれないけど、でもLooxidが統合したそれほど堅牢でないシステムは、デベロッパーキットのヘッドストラップを利用している。

Looxidにとっても、消費者市場に進出するためにはまだまだ課題が多い。新しいVR入力技術で十分な量のOEMを獲得し、デベロッパーのエコシステムを早期に築いていくには、相当な投資を覚悟しなければならない。でも今回のように消費者を無視して研究調査の方面に集中するやり方は、リスクも報酬も共に少ないが、Looxid Labsの強みを見せるには適している。

  1. tcdisrupt_sf17_looxid-2948.jpg

  2. tcdisrupt_sf17_looxid-2945.jpg

  3. tcdisrupt_sf17_looxid-2952.jpg

  4. tcdisrupt_sf17_looxid-2950.jpg

  5. tcdisrupt_sf17_looxid-2959.jpg

  6. tcdisrupt_sf17_looxid-2956.jpg

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Earth VRアプリケーションがStreet Viewをサポート、衛星ビューから地上360度ビューへ切り替えできる

Google Earth VRが今日(米国時間9/14)、ささやかなアップデートにより、その世界探検仮想現実アプリケーションに、街路に立った人間の目ぐらいの高さからのビュー(ストリートレベルのビュー)が導入された。

つまりそのアプリケーションにGoogle MapsのStreet Viewが加わった形になり、ユーザーは3Dの衛星ビューと地上レベルの360度カメラのビューを容易に切り替えることができる。

後者のビューのナビゲートはかなり簡単で、VRのコントローラーでその場所へズームインし、レンズを引き上げて360度の視界へ入る(右図)。その中を歩いてみる、などのクレージーなことはまさかできないけど、このアップデートでユーザーはアクションの世界へやや近づく。

CardboardやDaydreamを使ってるユーザーはStreet Viewアプリを使えるので、すでに今日のアップデートのようなビューを見られていたが、Google Earth VRは目下、HTC ViveとOculus Riftで利用できる。Google自身のプラットホーム向けに最適化されたバージョンがまだないのは不思議だが、同社の新しい位置追跡システムではヘッドセットでもパートナーを加えるようだから、Earth VRのような強力なアプリケーションもいずれサポートされるのだろう。

5月にGoogleは、不動産の視覚化をやってるMatterportのようなパートナーに、StreetView APIを公開した。それにより彼らの360度コンテンツが、Street Viewでも見られるようになったのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ARネイティブアプリのUXについて考える――単なる流行りのプロダクトで終わらせないために何ができるか

【編集部注】執筆者のMatt MiesnieksはSuper Venturesのパートナー。

ARKitのローンチにより、向こう1年のうちに5億台ものiPhoneで拡張現実(AR)アプリが使えるようになる。さらにそれから1年以内には、ARCoreに対応したAndroidデバイスの登場で、その数は少なくとも3倍以上になると言われている。

このような明るい展望をもとに多くの開発者がARに興味を持っており、今後彼らがARという全く新しいメディアに挑戦する中で、数々の実験的な取り組みを目にすることになるだろう。もしかしたらARのインパクトはそれ以上かもしれない。これまで人間は視覚的なコンテンツを四角形のメディア(石版から映画館のスクリーン、スマートフォンなど)を通じて消費してきたが、ARは歴史上初めて形の制約から解放されたメディアなのだ。

ちょうど紙とウェブのように、ARと従来のメディアの違いはスケールというよりも根本的な種類にある。インターネットが普及し始めた頃の商業的なウェブサイトで一般的だった、印刷物の中身がウェブ上にアップされただけの「ブローシェアウェア型」ウェブサイト同様、初期のARアプリはきっとAR空間に従来のモバイルアプリを貼り付けただけのようなものになるだろう。つまりこれからたくさん発表されるであろうARアプリのほとんどは、ブローシェアウェアのようにひどいものになるだろうが、それでも新しい時代の幕開けということには変わりない。

このように新しいメディアが誕生した直後は、旧来のメディアで成功をおさめたプロダクトを無理やり新しいフォーマットにはめ込んだようなものが中心となる。消費者としてもその方がイメージをつかみやすく、発展途上にあるメディアを受け入れやすい。例えば、Uberの車が近づいてくる様子を確認するためにARが使えるという話をよく聞く(実際は2次元の地図の方がこの目的には合っているが)。しかし最終的にAR界で成功をおさめるのは、ARにしかない機能を活用し、これまでのメディアでは実現できなかったようなことができるアプリなのだ。

10年以上前に私がOpenwave(モバイルブラウザを発明した企業)で働いていたときは、同僚と「小さなスクリーンにフィットするウェブサイト」とは違う、「モバイルネイティブ」なエクスペリエンスに関する議論を交わしていた。Fred Wilsonが2010年に公開したモバイルファーストに関する有名な記事の方がこのコンセプトをよっぽどうまく表現しているが、本稿がARについてWilsonの記事と同じような価値を持つようになることを願っている。

最近ではAppleがHuman Interface Guidelines for ARKitという文書を公開した。GoogleからはARCoreに関して似たような文書が発表されていないようだが、もしもご存知の方がいれば教えてほしい。本稿ではAppleのガイドラインと似たトピックについて、私たちが学んできたことを踏まえて深掘りしていく。

「ARネイティブアプリ」の要件

以下では、ARKitやARCoreで開発できるスマートフォン向けのARアプリを特徴づける種々の要因について掘り下げていきたい。ここでは意図的にヘッドマウントディスプレイ(HMD)向けのARアプリについては触れていない。というのも、HMDでできることは(ハンズフリーアプリの実現、セッション時間の長大化、没入感のあるエクスペリエンスなど)スマートフォンよりもかなり範囲が広いからだ。

なお各要因は、ARアプリのコンセプトを考える際に検討した方がよいと思われる事項で、リストの順番に特別な意図はない。私の友人であるHelen Papagiannisの著書『Augmented Human』では、同じ内容についてさらに深い考察がなされているが、本稿の内容も合計50年以上分のARスマートフォンアプリ開発の経験が反映されていることを考えると、現時点ではかなり包括的な内容だと言えるだろう。

Super Venturesではかなり頻繁にARアプリのピッチを聞く機会があるが、開発者がARネイティブのプロダクトを作っていないときはすぐにわかる。「なぜARじゃないといけないのか? ユーザーにとっては普通のアプリの方が便利ではないか?」というシンプルな問いについて考えるだけで、ARアプリのことを全く新しい視点から見られるようになるはずだ。

スマートフォンという枠にとらわれない考え方

ARアプリのプロジェクトに取り組むにあたって、デザイナーや開発者はスマートフォンという枠にとらわれないようにしなければいけない。さらに、ユーザーがスマートデバイス一般とどう関わり合うかについて考え直すことも重要だ。現実世界の様子やスマートフォンがどのような位置・状態にあり得るか、さらにはユーザーの周囲の人やモノ、音といった要素が、全てプロダクトの設計に関わってくる。ARアプリでは全てが(たとえコンテンツは2次元でも)3次元空間で起きるのだ。

ユーザーはAR空間をスマートフォン経由でしか体験できないため、その外に「生きる」コンテンツを設計するには考え方を大きく変える必要がある。(出典:Mortar Studios

また、ユーザーとのインタラクションやコンテンツの移り変わり、アニメーション、アップデートといった要素は検討すべき内容の一部でしかなく、開発者は「アプリ外」で発生するであろう種々の要因についても考えなければならない。この部分が理解できれば、あとはそこまで難しくないはずだ。

手首vs頭vs胴体

手に持って使うというスマートフォンの特徴は、設計上の制約とともにチャンスでもある。人間の腕は頭(と首)に比べて可動域が広く、両手を使うアプリよりも片手だけを使うアプリの方がユーザーはデバイスを自由に動かせる(両手で使うアプリだとデバイスを物理的に動かすために胴体も一緒に動かさなければならず、前後動には歩行が不可欠だ)。

あるものの長さを測るのに頭を動かさなければならないとなると不便で仕方がないというのは想像に難くないだろう。このようなユースケースではスマートフォン向けのARアプリが真価を発揮する。

このように考えていくと、ユーザーが常にディスプレイを見ていなくてもいいようなARアプリは(スクリーンを視界の外に向ける場合も考えられるため)うまく機能するとわかる。Tape Measureや小さなものを3DスキャンできるARアプリはその好例だと言える。

逆に動きの早いシューティングゲームだと、デバイスをさまざまな位置に動かす際にスクリーン上で何が起きているか確認しきれない可能性があるため、AR化するのは難しいだろう(もしもデバイスを全く動かさないなら、そもそもARアプリにする意味もなくなる)。

ポケットに入れたまま使えるアプリ

AR開発者は見逃しがちだが、移動中の人はスマートフォンをポケットやカバンの中にしまっていることがほとんどだ。一般的に「ユーザーエクスペリエンス」は、ユーザーがアプリのアイコンをタップするところから始まると考えられている。しかし、ユーザーの位置に応じてリアルタイムにコンテンツを変化させられるというARの利点を考えると、ユーザーエクスペリエンスの開始地点はもっと早い段階であるべきだ。そうでないと、もしもユーザーがアプリを使い始めるタイミングが想定よりも30秒遅ければ、(アプリが意味をなす地点をユーザーが通り過ぎてしまい)アプリの意味がなくなってしまう可能性さえある。FacebookやSMSの通知であれば場所は関係ないので、このような問題は発生しない。

「どうすればスマートフォンをポケットから取り出すようユーザーを仕向けられるか?」というのはスマートフォン用のAR(さらにはビーコンを使った)アプリを開発する上で極めて重要な問題だ。(出典:Estimote

このように、アプリにとって最適な位置でユーザーにスマートフォンを取り出させるというのは、実用上の大変難しい問題だ。従来のアプリのようにプッシュ通知を使うという手もあるが、もしもユーザーがアプリの機能を理解していれば、現実世界で何かを見かけたときに自然とスマートフォンを取り出すということもあるだろう(外国語のメニューをきっかけにGoogle Word Lensを使う場合など)。

それ以外の場合は、構造物ではない何かをトリガーにしたり、どこにでもあるようなものを活用したりして、とにかくユーザーがどこにいてもサービスを提供できるようにしなければならない。他のユーザーに向けてメモを残せる「AR落書き」のようなアプリが抱える1番大きな問題がまさにこれなのだ。ユーザーはアプリを開かなければ、自分のいる場所にメモが残されているかどうかさえ知ることができない。ビーコンを使ったプロダクトも同じような問題を抱えており、各企業はお得情報を見てもらうために買い物客にいかにスマートフォンをポケットやカバンから取り出させるかという課題に取り組んでいる。

この問題は、ARアプリの開発者が「競争」について考えたときに違う形で表出する。AR技術の可能性の大きさゆえに、AR界にはチャンスがそこら中に転がっていると考える人は多い。しかし実際のところ、ユーザーにあなたのARアプリを使ってもらうためには、その他のさまざまな活動とユーザーの時間を分単位で常に奪いあっていかなければならないのだ。既にユーザーの時間はARアプリ以外のものにつぎ込まれているが、どうすればARアプリがそこに入り込めるのだろうか。

機能としてのAR(YelpのMonocle、Google Lens)

ARKitを使ったアプリといえば、アプリ全体が「ARモード」で現実世界に情報を付加するようなものを思い浮かべがちだ。しかし多くの機能(パスワードの入力など)はARでない方が使い勝手が良い。例えば位置情報だと、ARよりも2次元の地図を使った方が拡大・縮小ができたり、周囲の様子を見回せたりとユーザーにとっては便利だ。つまり、アプリのどの部分がARと親和性が高いかをよく考え、ARを機能のひとつとして使うようなハイブリッド型のアプリ開発も視野に入れた方が良いということだ。YelpのMonocleはまさにこの「機能としてのAR」の好例だ。

Yelpのアプリには「ARモード」があくまで機能のひとつ(Monocle)として搭載されており、これはARが目的化していないうまいやり方だ。

現実世界とのインタラクション

デジタルコンテンツと物理的な現実世界の間で何かしらのインタラクションを生み出せるかどうか、というのがARネイティブアプリの必要条件だ。もしも両者の間にインタラクションがなければ、それは普通のアプリということになる。もっと言えば、私たちにとっては現存するスマートフォン向けのアプリこそが「デフォルト」のUXであるため、ARテクノロジーを使ってしか実現できない機能がないとARアプリの意味がない。ここでいう「インタラクション」とは大きく分けて次の3つだ。

3Dジオメトリ:デジタルコンテンツが現実世界の環境に沿った反応を示すというのがひとつめのインタラクションだ。Tangoのデモの多くはこのタイプで、現実世界の坂からジャンプするDekkoのラジコンカーや机の下で動き回るMagic Leapのロボットなども全て同じカテゴリーに含まれる。

 3Dジオメトリを活用したアプリでは、周囲の物理的な環境が重要な要素となる。

視界・環境の共有:他の人が物理的に近くにいないといけないアプリがあれば、おそらくそれはネイティブARアプリだ。このタイプの例としては、建築家が建築物の3Dモデルを使って顧客に詳細を説明するためのシステムや『スターウォーズ』のホロチェスなどが挙げられる。

同じ空間にいる友人や同僚との「幻影」の共有は、ARだからこそ実現できる素晴らしい体験だ。

モーションコントローラー:これはコンテンツ自体は静的で、ユーザーがデバイスを動かしたり、Wiiさながらデバイスをコントローラーのように使ったりするケースを指している。このインタラクションのあり方がARネイティブと言えるかどうかは、個人的に微妙なラインだと考えている。例えば、アプリを通して見ると目には見えない何かが机の上に現れ、デバイスの位置によって違った角度からそのコンテンツを眺められるという類のアプリは、ただ目新しいだけでARネイティブとは言えないというのが私の意見だ。さらにこのユースケースに限って言えば、ズーム機能などが使える従来型のアプリの方がよっぽど使い勝手が良いだろう。

ユーザーが実際に動き回ることで感じられる物理的なスケールこそがARネイティブの核だと主張する人もいる。しかしここで重要なのは、目新しさ以外に何かメリットがあるかどうかということだ。コントローラー型のインタラクションがARネイティブな形で機能しうる例としては、Wiiのコントローラーのように、デバイスを動かすことでコンテンツを操作できるようなものが考えられる。例えばAR空間に風船が浮かんでいるとして、スマートフォンをバーチャルな風船に向かって押し当てることで実際に風船を「押す」ことができれば、これはARネイティブだと言えるかもしれない。

ARアプリを作ろうとしている人は、上記のようなインタラクションを活用することで、ユーザーに何かしらのメリットをもたらせられるかどうかをよく考えなければならない。もしもAR要素がユーザーのメリットに繋がらなさそうであれば、開発中のアプリを単に目新しいおもちゃ(これ自体は全く悪いことではないが、繰り返し使われる可能性はゼロに等しい)として考えるか、むしろ従来型のアプリを開発した方が良いだろう。

位置情報が希少性を取り戻す

2011年に行われた、Super Venturesのパートナー(OriとTom)主催のAWEというイベントで、私にとってはここ数年で1番興味をそそられるアイディアをJaron Lanierが語っていた。インターネットが希少性という概念を壊した(デジタルデータは無尽蔵にコピーでき、働く場所も制限されなくなってきた)が、ARには希少性を取り戻す力があるというのが彼の考えだ。ARエクスペリエンスはユーザーがいる場所と深く関係しているため、たとえ違う場所で同じ体験を再現できたとしても、やはりもともと想定された場所で使ってこそアプリの真価が発揮される。これは「音楽ファイル対ライブ」のデジタル版のような構図だと言える。

希少性にはかなりのビジネスチャンスが秘められており、特にブロックチェーンや非中央型のビジネスと組み合わさることで面白いことが起きるだろう。クリエイティブ系のビジネスは、特に希少性の崩壊でダメージを受けた業界ということもあり、ARを活用することで大きな利益をあげられるかもしれない。少なくとも音楽業界ではライブイベントこそが主な収益源なのだ。

Pokémon GOはレイドイベントの導入でこのコンセプトを活用し始めた。例えばレアポケモンのミュウツーを捕まえるには、日本で先日開催されたレイドイベントに参加しなければならなかった。

他にも例えばAR版のMMOで、ある鍛冶屋にたどり着くためには現実世界でアフリカまで行かないといけないといった使い方も考えられる。このように、希少性をデジタル世界に蘇らせることで、今後さまざまな面白い試みが生まれることだろう。

どんなに良いアイディアが思い浮かんでもそれにとらわれるな

ARはなんとも魅力的な概念だ。ARについて考えれば考えるほど、AR技術の大きな可能性に気づき、全く新しいアイディアが浮かんでくる。そんな素晴らしいアイディアとともに私たちのもとを訪れるスタートアップは後を絶たない。彼らは自分たちが解決すべき問題を発見し、次なるGoogleにさえなれそうな巨大プラットフォームの構築を夢見ている。しかし、彼らの夢を実現するのに必要なテクノロジーやUXはまだ(さらにもしかしたら向こう数年間は)存在しない。起業家は自分たちのアイディアを信じて新しいことを始めようとしているが、残念ながら市場やテクノロジーがそのアイディアに追いつく頃には彼らの資金が底をついてしまっているだろう。

最高のアイディアだと信じているものを保留するのは極めて難しいことだが、現時点で本当にそれを実現できる(真の意味で確かな)確証があり、あなたのアイディアに投資する人(本当にそんな人がいればぜひ名前と連絡先を教えてほしい)がいない限り、そうせざるをえない。

もしもこの条件を満たせないようであれば、自分のアイディアが現実とマッチしているか確認した方が良いだろう。

念のため付け加えておくと、「良い」アイディアとは単にクールなアイディアという意味ではなく、ユーザーにとって必要不可欠な存在になりうるアイディアのことを指している。つまり社会に受け入れられていて、効率的かつユーザーが自然と使っている非ARプロダクトから移行するだけの価値があるものということだ。

視野の問題

スマートフォンとHMDとでは視野に明らかな差異があり、HMD用のARアプリが登場すればかなり没入度の高いエクスペリエンスを味わえるようになるだろう。一方スマートフォン用のARアプリには大きな問題がふたつある。

  • ユーザーとARコンテンツの間には、スクリーンという名の小さな「窓」しか存在しない。もしも友人と視界を共有するとなると、その友人にとっての窓のサイズはさらに小さくなる。この問題はトラッキング技術が向上すればある程度軽減できるかもしれない。
  • そもそもスマートフォンに表示される映像は、カメラが見ているものであって、ユーザーが目で見ている景色そのものではない。カメラの向きが映像にも反映され、その視野は人間のそれとは異なる。仮に眼球の中心から直線をひき、その線に沿ってカメラを持てば両者の差異は縮まり、透明なガラスをのぞき込んだような映像が映し出されることになる。しかし実際にそうする人などおらず、誰もがその事実を気にせずスクリーンに表示される情報だけに注目している(ちなみにこの点に関してはいくつかの研究がなされており、人間の目が見ているものに近い映像を撮影できる技術も存在するが、恐らくこれが大衆向けのスマートフォンに搭載されることはないだろう。もしも興味があれば、こちらを確認してみてほしい)。

それでは、普段目で見ている景色とは異なる映像が表示されるスクリーンを使い、さらに没入感を高めるにはどうすればよいのだろうか?

まず、一般的にユーザーは疑うことなく、ARアプリが映し出す情報のことを現実世界に投影されたデジタルコンテンツとして受け入れるだろうという認識を持つことが大事だ。

次にコンテンツのサイズについても配慮が必要だ。もしもコンテンツがスマートフォンのスクリーンとカメラの画角に収まる程度の大きさであれば、端のほうが切れてしまうという事態を避けられる。例えば実物大のティラノサウルスよりも実物大の猫を投影するアプリの方が、ユーザーエクスペリエンスという点では優れている。コンテンツのサイズをうまく利用することで、没入感や魔法のような感覚をつくり出すという点については、仮想現実(VR)での学びを応用し、スケールインバージョンを使っても良いだろう(例:植木の周りを漂う小さな妖精)。

もしもコンテンツがスクリーンに収まらないほどの大きさになるのであれば、全体像は確認できないのだとユーザーが自然と理解できるような仕組みを導入しなければならない。例えば、ユーザー(の持つスマートフォン)が見ている部分だけコンテンツをハッキリと表示させ、スクリーンの端には霧を漂わせるという仕組みはうまく機能した。この仕組みを使えば、ユーザーはスクリーンに表示されたエリアの外には面白いものがないのだと感じる上、他の部分を見たい人はデバイスを動かすだけでいい。1点注意が必要なのは、スクリーン外のコンテンツがどのあたりにあるかという情報を同時に提供するということだ。ユーザーが周りを見渡してどこに残りのコンテンツがあるのか探し回らなければいけないということがないようにしたい。

視野をうまく使った没入感の創造というのはとても難しい課題だ。また、ARアプリを単なる目新しいものとしてではなく、繰り返し使ってもらえるようなプロダクトにすることも簡単ではなく、ユーザーエクスペリエンスのさまざまな要素について再考が必要になる。そこで基本的な機能からユーザーテストを行うことが極めて重要になってくる。特にARでは、目新しさというバイアスを取り除いて現実的なデータを収集するために、同じユーザーを対象に時間をかけて繰り返しテストを行わなければいけない。YouTubeの動画上ですごいと思えるようなアプリと、実際にユーザーが満足できるようなアプリとの間には大きな差がある。

シーンはコントロールできないと理解する

開発者にとってのARアプリとその他のソフトの大きな違いは、ユーザーがアプリを開く場所をコントロールできないということだ。例えば60x60センチのスペースが必要なARゲームを開発したとしても、ユーザーはバスに乗っているときにアプリ開くかもしれないし、小さなテーブルや食器が残ったテーブルにスマートフォンのカメラを向けているかもしれない。するとそのARゲームは使い物にならなくなってしまう(もしくは非ARアプリとして使うしかない)。この問題についてはふたつの対策と実現に時間がかかるであろうアイディアがひとつある。

まずひとつめの対策として、利用場所に関する具体的なインストラクションを提供するという手がある。別の部屋に移動したり、テーブルの上をきれいにしたり、家に到着するまで待つようにユーザーに指示を出せばいいのだ。しかし、もしもユーザーが想定外の場所でアプリを開いたときはエクスペリエンスが悪化してしまうため、種々の指標が低下してしまう可能性があるというのは想像に難くないだろう。利用場所を限りなく絞って、それ以外の場所でユーザーがアプリを開こうともしないようにするというのも手だ。

もうひとつのオプションとして、どこででも機能するようなコンテンツを採用するという手段がある。Dekkoではこの方法を採用し、当初はレベルや難易度が設定されたゲームを作ろうとしていたが、結局どこでも遊べるようなおもちゃの車が走り回るアプリを開発することに決めた。ARKitでゲームアプリを開発しようとしている人に対する私のアドバイスは、どこでも遊べるデジタルおもちゃ(バーチャルラジコン、バーチャルスケートボード、バーチャルボールとバットなど)を作るということだ。

そして現時点では技術的に実現不可能とはいえ、将来的にはどのARアプリもこの方向に進むであろう最後のアイディアが解決策としてはもっとも優れている。そのアイディアとは、アプリ自体が3次元空間を理解できるような仕組みを導入し、ユーザーの周りの環境に応じて自動的かつスマートにコンテンツを配置していくというものだ。このアイディアを実現するには、次のふたつの技術が実用化レベルに達するまで待たなければならない。ひとつは3Dシーンをリアルタイムで再構築して(これはほぼ実現しつつある)その内容を理解する技術、そしてもうひとつがコンテンツの自動レイアウト技術だ。

これらの技術が実現するまでにはまだ数年ほどかかることが予想されるため、少なくとも現時点では最初のふたつのいずれかを選ばざるをえない。

MoatboatのARアプリは特定の環境を必要とせず、ユーザーはどこにでもコンテンツを投影できる。このように自由度の高いコンセプトは、どんな環境で起動されるか予想できないスマートフォン向けARアプリとの相性が良い。Moatboatのアプリは物で溢れた部屋の中でも平らな床と何ら変わりなく機能し、バーチャルの小屋や牛を洗濯物の山の上に投影し、そこからオブジェクトがずり落ちる様子を見て楽しむことができる。

その一方で、開発者側にコントロールがなく、主体性がユーザーに委ねられているからこそ新しいものが生まれる可能性もある。これこそがARというメディアの特徴なのだ。Charlieがこの点について素晴らしい講義を行ったのでこちらから動画を見てみてほしい。

上記に加え、現状の開発ツールではアプリ内で任意の座標系しか利用できず、セッションごとに座標が変わってしまう。さらにARアプリは原点(X=0、Y=0、Z=0)から計測した周囲のオブジェクトの相対位置しか把握できない。つまりユーザーの周囲に関する情報には持続性がなく、絶対座標系による修正もなく、ユーザーが他の人と自分の「スペース」を共有することもできないのだ。ARCoreとARKitのどちらに関しても、この点はきっと近い将来(1年〜1年半のうちに)変わっていくだろうし、オーバーレイAPIを開発中のスタートアップも存在するが、とりあえず現時点では座標系についても設計時に頭に入れておかなければいけない。

コンテンツと現実世界の間でインタラクションを起こすためには、周囲の様子を反映したデジタルモデルをカメラから取り込むか、どこかからダウンロードしなければならない。(出典:Roland Smeenk

デバイスの自然な持ち方

モバイルARの黎明期には、ユーザーが目の高さまでスマートフォンを持ち上げてアプリを使う(このことをハンズアップディスプレイと呼んでいた)だろうと私たちは楽観的に考えていた。人の行動に変化を起こすことの難しさを過小評価し、スマートフォンを持ち上げている人を見た他の人も特にそれを気にしないだろうと考えていたのだ(グラスホールのことを覚えているだろうか?)。しかしARアプリをもってしてもこの状況を変えることはできない。つまり開発者は自然なデバイスの持ち方をもとにアプリを設計しなければならないのだ。

  •  デバイスを持ち上げる必要がある場合は、最長でも写真を撮るときくらいの長さにする。この持ち方は長時間利用するようなアプリではなく、疑問に対する視覚的な答えを見つけるようなものに向いている。

もしもタブレットやスマートフォンを写真のように持ち上げる必要がある場合は、1〜2秒間でおさまるようにする。(出典:GuidiGo

  • 普段のように下向きに45度の角度をつけて持つ。これはユーザーの目の前で小さなコンテンツ(高さが30〜60センチ程度のもの)を表示するのに適している。

この持ち方だと、ユーザーは一定時間にわたってアプリを使い続けられる。しかしスクリーンに映し出されるシーンは、デバイスを持ち上げた場合よりも狭く、面白みに欠けたものになる。

スマートフォンのセンサーを活用し、持ち方に応じてモードを切り替えるという方法もある。例えばデバイスが地面に対して水平な状態にあれば2次元の地図を表示し、垂直になった途端にARモードに切り替わってビジュアル検索機能が起動するといったアイディアが考えられる。NokiaのCity Lensアプリは2012年の段階で既にこのようなUIを採用していた。これは熟考する価値があるポイントだ。

スクリーン経由のインプット

アプリのテストを行っていると、ユーザーがまずスマートフォンの周辺に手を伸ばして画面に映っているものを触ろうとし、触れないとわかった途端に困ったような表情を浮かべる様子をよく見かける。これは面白いアプリができつつあるという証明でもあるのだが、それと同時に、コンテンツはユーザーから何十センチも離れたところにあるように表示されつつも、全てのインプットやインタラクションはユーザーの手の中にあるスクリーンを介して行われるのだということに気づかされる。

ユーザーは3次元でコンテンツを楽しんでいるのに、何かしらのアクションをとるには、またスクリーンという2次元の世界に頭を切り替えなければならないのだ。これは認知的負荷であるとともに没入感を損なうポイントでもある。その一方で、操作時に大きなジェスチャーが必要になったり、誰かが近くにいないといけなくなったりすると、それはそれで問題だ。

ユーザーが「目の前にある」にあるコンテンツを選んだり、両者の間にインタラクションを発生させたりするために、どんなアフォーダンスをUIに与えばいいのかというのは難しい問題だ。Dekkoのラジコンアプリでは、スマートフォンをコントローラーという現実世界にあるものに見立てることでこの問題に対処している。しかしDekkoで猿のキャラクターが登場するアプリを開発していたときや、SamsungでSamsung SmartHome製品の開発に携わっていたときは、全ての人がすぐに使い方を理解できるようなアイディアがなかなか浮かんでこなかった。

ラジコンのデザインコンセプトを利用することで、車とは別に手で持つコントローラーがあるはずだとユーザーに想起させることができた。その結果、スクリーンに触れながら、離れた場所に映し出された車を操作するというユーザーの課題を解決できたのだ。

単にコンテンツに「タッチ」できるだけでは、根本的な問題の解決にはつながらないということも覚えておいた方が良い。もしもMeta HMDやLeap Motionを試したことがあれば、触覚フィードバックがないと、ユーザーとコンテンツが分断されてしまうということがよくわかるだろう。個人的にはARへのインプットの問題こそ、消費者一般にARを普及させる上でまず解決しなければいけないことだと思っている。

現実世界の映像を加工する(VS透過型ディスプレイ)

映像を加工することで、仮想世界と現実世界の差が縮まり、UXの向上が図れる。上記のシーンに映った物のうち、何が現実に存在するもので、何がデジタルコンテンツなのか見分けられるだろうか? 加工の度合いが強まるごとに両者を見分けることが難しくなってくる。

透過型HMDと比べたときのスマートフォン向けARの特徴は、カメラのとらえた映像が「現実世界」としてスクリーン上に表示されるということだ。そしてその映像を加工することで、アプリ内の世界観の統一が図れる。Will SteptoeはFacebookに参画する前の2013年に素晴らしい研究を行い、現実世界の映像をわずかに加工することで、現実世界と仮想世界を見分けづらくなり没入感が増すという研究結果を発表した。これはARKitを使ったアプリ開発にも応用できる、かなり興味深いアイディアだ。

機能の切り替えにアプリのコンセプトを採用するVSネイティブAR UI

スマートフォン向けのARアプリは、(そもそものOSの性質としてデスクトップ画面が起動画面になるということもあり)モードを切り替えるときに「アプリ」を開いたり閉じたりするようなアクションをとることになる(メッセージアプリとゲームアプリの切り替えを例にとってみると、恐らくこのふたつをひとつのアプリに詰め込まれても不便だろうし、アプリに私が何をしたいのか推測してもらいたくもない)。なので(カメラ経由の)ARビューとそうでないモードは、ユーザーの意向に沿って絶えず切り替えられることになる。

つまりアプリの開発側はダイナミックなモード切替(建物にカメラを向けたときに、アプリが住所を表示しなければならないのか、それともYelpのレビューなのか、Truliaの価格情報なのか、建物の歴史なのか、中に友人がいるかどうかなのか)のことをそこまで深く考えなくてもいいということだ。さまざまなユースケースに対応するため、数え切れないほどの機能を搭載したアプリ(プラットフォーム的なアプリ)を開発するというのは魅力的なアイディアではあるが、ユーザーがほしいものを理解し、それを表示するというのはとてつもなく難しい問題なのだ(恐らくこの記事から何かしらの学びがある人には到底解決できないほど難しいだろう)。

スキューモーフィズム(実物に似せたデザイン)は良いこと

繰り返しになるが、ARは全く新しいメディアであり、ユーザーは単純にどうARを使えばいいのかわかっていない。インタラクションを設計する上ではさまざまな可能性があるが、ユーザーはその凄さには気づかないだろう。しかし現実世界にあるものをコピーしたようなデザインを採用すれば、ユーザーは直感的にアプリの使い方を理解できる。

Dekkoで小さな猿のキャラクターが登場するARアプリを開発したとき、キャラクター自体はかなり気に入ってはもらえたものの、ユーザーはそのアプリで何をすればいいのか全くわからなかった。しかしその後、猿のキャラクターからラジコンに方向転換し、本物のラジコンに似たコンテンツを準備したところ、もはやユーザーに何かを説明する必要がなくなったのだ。SamsungではAR空間で電話をとるプロトタイプを開発した。電話のとり方にはさまざまな方法(メッセージを握りしめたホグワーツのふくろうがユーザーの前に舞い降りるなど)が考えられたが、結局ユーザーテストでもっとも良い成績を残したのは、緑のマークで応答、赤のマークで拒否といったiPhoneの電話アプリとよく似たUIだった。

ここで重要なのは、恐らくARでは2Dではなく(影や透明度などで)奥行きを感じさせる3Dの新しいシンボルが登場するが、それを実物そっくりにする必要もないということだ。

ユーザーにとって全く新しいエクスペリエンスを提供する中で、現実世界の物に似たデジタルオブジェクトを準備するというのは良いアイディアだ。

シンボル化がうまくいっているかどうかを判断するには、ARに触れたことのないユーザーにアプリをテストしてもらうしかない。どれだけものごとをわかりやすく単純化しないと、何かしらの説明が必要になるという事実にきっと驚くことだろう。

目にするものを信じないユーザーのためのアフォーダンス

日常的にARテクノロジーに接している私たちにとって受け入れがたかったのが、目にするものを信じないユーザーの多さだ。彼らはデジタルコンテンツが「3次元空間」にあるのではなく、スクリーン上にあるだけだと考えていたのだ。

この点については、現実世界との繋がりを想起させるアフォーダンスや、かすかなシグナルを使うことで、アプリ内で一体何が起きているのかをユーザーに理解させることができるだろう。光源やダイナミックな影まで再現する必要はないが、少なくともドロップシャドウくらいは使わないといけない。デジタルコンテンツに加え、グリッド線などで現実世界に何かしらの目印をおくことでもユーザーの理解度は向上する。

Dekkoでもエッジに色のついたグリッド線を導入し、アプリが奥行きや3次元空間を理解しているということをハッキリさせ、さらに他のものを全て隠すことで、内部で何が起きているのかをユーザーにやんわりと伝えなければならなかった。こうすることでユーザーは、自分たちの信じていなかったようなことをアプリができるのだと理解できた。

その他には、デジタルコンテンツが現実世界のオブジェクトに衝突したり、行く手を阻まれたり、スマートフォンの動きやユーザーのインプットに反応したりする様子を表現することも、(実装は大変だが)コンテンツをリアルに見せる方法のひとつだ。トラッキングがズレることなく安定しているというのは、その一部でしかない。例えばキャラクターがAR空間を歩いているときに、一歩ごとにわずかにスライドしていることがよくあるが、これではユーザーは説得できない。同様に、キャラクターが現実世界の何かにぶつかったのに何の反応も示さないという場合もリアルさが損なわれてしまう。

逆にキャラクターとのアイコンタクトなどがあると楽しさが増してくる。ここではどのようなキャラクターを選ぶかということも大変重要だ。キャラクターがリアルであればあるほど、ユーザーが「正しい」と考える動きのハードルが上がってしまう。ARでは現実世界と仮想世界が混ざりあっているため、不気味の谷現象はアニメ映画よりもAR空間内の方が顕著に感じられる。私たちの経験によれば、できるだけリアルじゃない漫画っぽいキャラクターを選ぶことで、キャラクターの行動に関するユーザーの期待値が下がり、動きに多少の問題があっても見過ごされる可能性が高い。『ポーラー・エクスプレス』ではなく『ロジャー・ラビット』のように考えなければいけないということだ。

AR空間にアフォーダンス与える上での大きな問題としては、コンテンツのオーバーラップと情報の密度が挙げられる。ほとんどのデモでは、平らな場所でラベルがそれぞれから十分な距離を取って綺麗に並んでいる。しかし展示会のブースをデザインする人や建築家であればよくわかると思うが、動きながらでも読めるようなラベルやサインを3次元空間でデザインするのはかなり大変なことなのだ。

キャラクターやアセットのデザイン

HuckがデザインしたDekko Monkeyは本当にたくさんの人に気に入ってもらえ、アプリの誕生から3〜4年経った今でも知らない人にこのアプリについて尋ねられることがある。

どんなキャラクターやアセットを使うかについて考えていたときに、私たちは素晴らしいアプローチを思いついた。そして実は、今では私たちの考え方が業界全体に広がっているようなのだ。2010年にDekko Monkeyに関するさまざまな研究やユーザーテストを行ったSilkaは、「大人向けのピクサー」を目指してキャラクターをデザインすればいいのだという結論にたどり着いた。不気味の谷を越えず、かつある程度のアフォーダンスが残されていて、洗練されつつもポリゴン数の少ないキャラクターだ。このようなキャラクターのスタイルは、どんな性別や年齢の人にも馴染みがあり、さらには国境や文化の壁をも越える可能性を秘めている。

そこで彼女はKidRobotのビニール人形をデジタル化したようなキャラクターこそがピッタリだと考え、KidRobotのトップデザイナーHuck Geeに連絡をとった。結局彼がDekko Monkeyをデザインしてくれることになり、今では私の良き友となった(彼は本当に優秀なデザイナーでARキャラクターの制作にはピッタリの人物なので、もしも彼に連絡したい人はまず私にコンタクトしてほしい)。

数年後には、PentagramのNatasha JenがMagic Leapのデザインで(KitRobotの人形も含めて)ほぼ同じ結論にたどり着いた。彼女の考えにも興味がある人はこちらの動画見てみてほしい(30分前後の時点から)。

最新のARCoreのデモにも似たスタイルのキャラクターが登場する(特にWizard of Ozのキャラクター)。

最後に

私たちの経験をこの記事で共有することで、ARアプリの開発を考えている人たちがイテレーションサイクルを何回かスキップできるとともに、ユーザーを魅了するようなプロダクトが早く市場に登場することを願っている。YouTubeには10年近く前から素晴らしいコンセプトのデモ動画がアップロードされているが、私は素晴らしいプロダクトを実際に試したいのだ。両者の間には多くの人が思っているよりもかなり大きな差がある。

終わりの言葉として開発者のみなさんに覚えていてほしいのが、「経験豊かなAR、UXもしくは工業デザイナーを幹部に招き、あとは全てについてユーザーテストを繰り返す」ということだ。

グッドラック!

謝辞

この記事はAR UXに対する造詣が私よりも遥かに深く、それぞれ少なくとも5年間はARプロダクトのUXに関する課題に取り組んできた以下の人たちの協力なしには実現しなかっただろう。

  • Charlie Sutton:以前はSamsungのARチームでデザイン部門のトップを務め、それ以前にはNokiaでARプロダクトのデザインチームを率いていた(あまり知られていないが、Nokiaは2000年代後半にAR界の最前線を走っており、現在でも世界トップレベルのAR関連特許数を誇る)。現在はFacebookに勤めている。
  • Paul Reynolds:開発者・デザイナー向けに、AR・VRネイティブアプリの開発を簡素化するためのTorchというシステムを開発している。以前はMagic LeapでSDKチームのトップを務め、アプリとプラットフォームの中間にあるようなARプロダクトの開発にあたっていた。
  • Mark Billinghurst:世界トップレベルのAR研究者で、AR空間でのインタラクションに関する分野では知らない人がいないくらいの伝説的な人物。研究歴は20年以上におよび、ARやVRに関する本や論文のほぼ全てに彼の研究内容が引用されている。以前はHIT Lab NZに、現在はアデレードのEmpathic Computing Labに勤務しており、彼の研究のほとんどはこの2つの機関のウェブサイトに掲載されている。私にとっては良い友人であり、Super Venturesのパートナーでもある。
  • Jeffrey Lin博士:視覚から得た情報が脳でどのように表現されるのかという研究で世界的に有名な専門家。研究内容を応用し、以前はValveとRiot Gamesでプロダクトデザインに携わっていた。現在はMagic Leapでデザインディレクターを務めている。彼のMediumポストはARデザインに関する有益な情報で溢れている。
  • Silka Miesnieks:私の妻であり、2009年以降ARプロダクトの開発に取り組んでいる。私とともにDekkoを創設し、まだAR業界の人々が考えてもいないようなARのUXに関する問題を解決してきた。現在はAdobeのDesign Labに勤め、非エンジニア向けのイマーシブデザインツールの開発に携わっている。

この記事にもしも何か誤りがあれば、それは上記の人たちからのアドバイスをうまく表現できなかった私に全責任がある。ぜひ彼らをソーシャルメディア上でフォローして、何か質問があれば尋ねてみてほしい。そして願わくば、新しいプロジェクトに彼らを引き込んで、彼らが今の仕事をやめてしまうくらいのことが起きてくれれば幸いだ。

原文へ

(翻訳:Atsushi Yukutake

VRの今回のハイプ・サイクルは終わった

最近、アメリカでは多くの人々がデバイスを装着して普段見られない珍しい光景を眺めた。残念ながらそれはVRヘッドセットではなかった。人々が皆既日食を観察するときに使ったのは専用メガネだった。VRに暗い影を投げかけるニュースだった。

今年のE3(Electronic Entertainment Expo) で目立ったのはOculus RiftというよりむしろOculusという谷間(rift)だった。最近HTCはVive VRヘッドセットのキット価格を200ドル値下げした。Facebook傘下のOculusはRiftの価格をこのサマー・セールで399ドルまで下げた(夏が終われば値上げする予定だが、その幅は小さい―499ドルになるはず)。両社は皆既日食に対抗して消費者の関心を引き戻すために値下げ競争を始めたわけではあるまい。

TechCrunchの同僚、Lucas Matneyはこう書いている。

ここ数ヶ月、HTCとOculusのハイエンドVRヘッドセットにおける競争はどちらがVHSでどちらがベータかを争う戦いではなかったことがはっきりしてきた。両社とも〔ビデオテープではなく〕レーザーディスクの地位に転落するのを防ぐのに必死なだけだった。まだ有力プレイヤーは認めようとしていないが、投資家やアナリストはこの1年のVRヘッドセットの売れ行きに強い懸念を抱いている。

HTCもFacebook/Oculusも販売台数を公表していないという事実そのものが、販売が低調であることのなによりの証拠だ(アナリストの推定ではそれぞれ50万台以下)。

この2月、ソニーが Playstation VRヘッドセットの販売数を発表したときには一瞬期待が高まった。同社によれば2016年10月の発売以後、 91万5000台が売れたということだった。しかし6月になってもこの数字はは100万台を超えるのがやっとだった。

VRヘッドセットは夏向きの商品ではないのだろうか? 皆ビーチに出かけてInstagramでセルフィーを撮っているせいでVRは忘れられてしまうのかもしれない。

ハイプ・サイクルを急降下

ガートナーが発表した2017版の新しいテクノロジーのハイプ・サイクルのレポートによれば、VRテクノロジーは「回復(啓蒙)期の坂を上昇している」とされている。しかしこれは寛大すぎる判断だろう。

いずれにせよVRがハイプ・サイクルの頂上から一挙に転落したことはガートナーも認めているわけだ。インフレ評価の頂上から幻滅の谷間への急降下はすでに起きており、VRデバイスの現在の能力に比べて価格は依然として高止まりしていることもあって消費者の需要は最低の水準だ。

ガートナーが示唆するようにVRの前途に、ゆるい角度であれ、上り坂が控えているなら良いニュースだが、それにしても長期間の苦闘が必要だろう。

ガートナーはVRはすでに幻滅の谷間を後にしていると評価するが、すくなくとも近い将来、VRというテクノロジーに対する熱狂は復活しそうにない。ガートナーはVRがメインストリーム入りの幸運を引き当てるために2年から5年程度が必要だとしている。私には5年というほうが現実的に思える。

逆にVRはメインストリームにはならない、ニッチにとどまるテクノロジーだという意見もある。

どちらが正しかったか分かるようになるには時間がかかりそうだ。ともあれVRは、溺れてはいないものの、水に落ちて苦闘している。

最近、私は熱狂的なVRファンの起業家と話をした。彼は近い将来VRがリビングルームの中心となると信じている。ガールフレンドと並んでソファに腰掛けテレビの画面に代わってVRヘッドセットを眺めるようなるというのだ。

なるほどひとつの考えには違いないが、私には奇妙に思えた。

いくらソファに並んで座っていようと、あのVRヘッドセットを付けた2人がどうやって微笑、目配せ、身じろぎといったコミュニケーションができるだろう? またVRヘッドセットが消費者に広く受け入れられるためにはハードウェアとして劇的に改良される必要がある。普通のメガネに近い程度まで軽量化される必要があるし、現実の外界と仮想現実の表示を瞬時に(おそらくは人工知能を用いて)切り替えることができなければならない。並んで座っている恋人に向かって振り返ると自動的にVRがフェードアウトして恋人の表情が判別できるようになるなどだ。

正直そのレベルにまで柔軟性が高まるのでなければテクノロジーとして十分とはとはいないだろう。

もちろん現実のVRはエンジニアリングとしてもソーシャルメディアとしてもとうていその段階にはない。

何年も前から評判になっているもののまだプロダクトの形が見えないMagic LeapのIRLというある種の混合現実にしても同様だ。

キラーコンテンツ不在

業界トップクラスのゲーム開発者に話を聞いたことがある。彼の会社はOculusを始めとするVR全般に当初から強い関心を抱いており、その当時は彼もVRの将来に強気な見通しを持っていた。しかし最近再びVRの現状について尋ねてみたところ、その返事は「5年経ったらまた聞いてくれ」だった。

ゲーム開発者はまた有力なコンテンツが現れていないことについても触れて次のように述べた。

〔VRテクノロジーには素晴らしい可能性があるものの〕例えていえば、任天堂が革命的なゲームプラットフォームを作っただけで宮本氏とソフト事業部を売り払い、その後何も新しいゲームを作っていないような状況だ。VRには有力なコンテンツが決定的に欠けている。OculusはJason Rubinをトップに据えて巨額の投資をしているが、この点では失敗を続けている。

ソニーのデバイスはエレガントだが、処理能力が不足しており、PS4レベルのグラフィクスの表示も十分にできない。

現在、トップラスのVRを体験するには1000ドル程度のキットが必要になる。しかし消費者はかさばる上にケーブルが煩わしいVRヘッドセットを嫌っており、そんな金額を支払う気はまったくないというのが現実だ。

ハードの売れ行きが鈍いこと以上に利用率が低いのも致命的だ。VRのハードをすでに所有しているユーザーは新しいソフトを買おうとしていない(すくなくともビジネスとして意味あるレベルの売上になっていない)。

VRが成功するためには現在の任天堂のようなコンテンツとブランド・パワーが必要だ。しかしそのようになる兆候は見えない。

つまり古典的な「ニワトリが先がタマゴが先か?」というジレンマに陥っている。

Job SimulatorはVRを数分体験するには面白いゲームだが、世界の消費者をとりこにするような力はない。

VRゲームのJob Simulatorはバーチャル・オフィスで新しい職を体験できる

【略】

VRはSecond Lifeの没入版になる危険性に直面している。悪くすると「Second Lifeの運命はVRの失敗を10年も前に予言していた」といった記事が書かれかねない。

VRは次のハイプ・サイクルで復活するかもしれいない。そうであってもエコシステムの無視は致命的だ。

「VRは最低だ!」(動画はVRシューティングゲームでピストルのマガジン交換に手間取っているところ) 

ARには大きな可能性がある

現在いちばん利用されているVRはモバイルデバイスを利用したエントリー版だろう。Samsung Gear VRや Googleの段ボールを折って自作できるシステムがそうだが、それであってもブームを作るほどの売れ行きではない。しかもこうしたVRは本当のプロダクトというよりジョークの混じったギミックだ。

私見によればVRのディストピア的性格を遺憾なく表現したのは2016年のカンファレンスで撮影された写真だ。Facebookのファウンダー、マーク・ザッカーバーグが引きつり気味の微笑を浮かべながら通路を進んでくるというのに、着席している聴衆は誰一人それに気づいていない。全員がヘッドセットを被って外界から切り離されているからだ。

FacebookのCEO、マーク・ザッカーバーグが 2016のSamsung VRイベントに到着したところ

ウェアラブルデバイスであっても通常のメガネとあまり変わらないサイズに必要な機能を詰め込んだAR〔拡張現実〕やMR〔混合現実〕デバスなら外界の情報を遮らないので、こういった馬鹿げた事態は防げる。

もちろんGoogle Glass(Glassholeと呼ばれた)という大失敗の例は忘れてはならない。あまりにもギーク臭丸出しのデバイスは一般ユーザーからは強く拒否される。

興味ある点だが、モバイルARはすでに膨大なユーザーを集めるソーシャル・テクノロジーになっている。しかもヘッドセットなどのウェアラブルデバイスを一切必要としない。手持ちのスマートフォンだけでよい。コンテンツはすべてスマートフォンだけで完結する。

つまりSnapchatのセルフィーやFacebookのライブビデオのフィルターなどの機能だ。AIを利用してユーザーの顔を置き換えたり加工したりできる人気アプリは数多い。

Snapchatの顔加工セルフィー・レンズ

【略】

旅行者がパリのエッフェル塔の前で任天堂のポケモンGOをプレイ中( 2016年9月8日:: Chesnot/Getty Images)

【略】

Facebook Spacesで友達とバーチャル・ミーティング

【略】

逆にモバイルARがすでに巨大なユーザーを集めていることは明白だ。

ポケモンGOのイベントに集まった人々

なるほど任天堂には巨大なブランド力があり、Snapchatなクレージーなまでにチャット・ブームを巻き起こした。そうではあってもモバイルARが本質的のソーシャルであることに変わりはない。現在でも友達がスマートフォンを手にして集まり、会話しながら写真を取り合い、(準リアルタイムで)互いの写真を眺めたり共有したりするという光景を見ることがある。これは初歩的なモバイル・ソーシャルARの例と言っていい。

ここではオンラインとオフラインの体験をシームレス(に近く)混合でき、さらに友達の表情やボディーランゲージを認識することを妨げるようなものがない。

一方で高価なVRハードウェアはアーリーアダプターの家やデスクの引き出しで埃をかぶるままになっている。VRにガートナーの言う「啓蒙」が訪れるのはいつだろうか?

このサイクルは死んだ―5年後にはどうなるだろう?

つまり現在のVRは死んだ。

しかしVR業界では、これは単に現在のハイプ・サイクルが終わりを迎えたにすぎないと望んでいる。 5年後か何年後かはともかく、次のサイクルでは新しいエコシステムを確立できるに違いない――だがそれはどんなものになるのか?

映画館にはプレミアム席が設けられ、新しいテクノロジーを用いて一層完全な没入感を得られるエンタテインメントが提供されるかもしれない。飛行機の乗客向けのサービスも一つの可能性だ。教育、訓練、医療、リハビリなどの分野における応用のシナリオが考えられる(VRポルノも忘れてはならない)。

しかしこうした応用分野をすべて足し合わせてもVRが次世代のコンピューティング・パラダイムの主要な部分にはならないだろう(ザッカーバーグでさえVRが「可能性をフルに発揮できるようになるには10かかる」と述べるようになった)。

今のところAR > VRだという点に疑問の余地はない。

しかもARに勢いがつくことはVRにとって悪いニュースとなる可能性がある。【略】

結論

人間の本性として世界を風変わりなフィルターを通して観察してみたいという気持ちは強い。

しかし、今のところ仮想現実は人間に知られているエンタテインメントの中でもっとも人気がないツールという不名誉な賞を得るにとどまっている。この傾向にはまったく変化の兆しがない。

実はアメリカでは比較的近い未来にまた皆既日食を観測できる。それが起きるのは2024年の4月だ。もし次回の皆既日食でも人々が古典的な日食メガネをかけており、VRメガネについては関心がないようだったら皮肉な事態ということになる。

記事タイトルはTechCrunchnの同僚、Romain Dilletのアイデア。トップ画像はBryce Durbinのオリジナル・アート

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのVR連作ビデオ、今回はファッションべったりでスーパーモデルのクローゼットに侵入する

GoogleのDaydream用の仮想現実ビデオシリーズ、その最新作はすみからすみまでファッション、大胆なお洋服選びで知られるセレブたちのクローゼットに入り込む。

GoogleがVogue誌と共作したそのSupermodel Closets(スーパーモデルのクローゼット)と題するビデオは、モデルのワードローブへ仮想的に忍び込み、彼らの衣類を見たり、ファッション哲学を聞いたりする。

仮想現実に手出ししている企業が徐々に気づいてきたのは、360度カメラで撮ったコンテンツなら何でもおもしろい、ことはない、ということだ。激しい抗議のデモや、きれいな風景などは、360度カメラで撮るとすごい臨場感を与えるかもしれないが、Googleが学んだと思われるのは、たとえばGoogle I/OカンファレンスのキーノートをVRヘッドセットを着けてウォッチしたからといって、得られるものは何もない、ということ。

Supermodel Closetsシリーズは、Googleの最新のJump 360カメラを使って、クローゼットのような狭いスペースでも4Kの立体画像を捉えている。

モデルのクローゼットを覗くこの新シリーズがピューリッツァー賞を取るとは思われないが、VRを探検の道具として使って、めったに行けない場所に人びとを連れて行くという、VRならではのミッションをうまく強調している。KardashianやJennerたちのように、ソーシャルな共有の術を心得ている人は世の中にあまりいないし、着るものに彼らほどめちゃめちゃ凝る人たちも珍しい。VRなら、そんな珍獣たちの生活に入り込んで見物できるし、とっくに見飽きてしまっていると思っていた超有名人たちの、実はあまり知らなかった私生活を、ちらっと見ることもできるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Firefox for WindowsがWebVRをサポート、VRコンテンツの作り方を学べるハブもオープン

今日(米国時間8/8)Mozillaが、Firefox for Windowsの最新のアップデートをローンチする。そしてその最大の目玉であるWebVRのサポートにより、デスクトップのVRユーザー(ヘッドセットを持ってる人)がWebベースのVR体験を容易にエンジョイできる。

ブラウザーがWebVRをサポートしていれば、ユーザーはVRコンテンツのリンクをクリックするだけで、それらを体験できる。アップデートされたFirefoxでは、VRゴーグルの描かれているボタンをクリックし、ヘッドセットを装着すれば、もうあなたは仮想現実の中にいる。

デスクトップのFirefoxブラウザーではHTC ViveとOculus Riftがサポートされ、モバイルのヘッドセットのサポートは今準備中だ。今モバイルでは、ChromeブラウザーのモバイルバージョンでGoogleのDaydreamとCardboardのヘッドセットがサポートされ、またデスクトップではChromiumの実験的ビルドがヘッドセットをサポートしている。

AppleはMacのオペレーティングシステムの次のアップデートmacOS High SierraでVRがサポートされるが、その登場は今年の秋になる。

Mozillaは今日、WebVRの使い方を教えるハブを立ち上げた。そこでクールなVR体験の見つけ方や、同社のWebVRコンテンツ制作プラットホームA-Frameを使っての、VRコンテンツの作り方も学べる。

WebVRのサポートと併せて今回のFirefox for Windowsのアップデートではさまざまな改良が行われ、中でも、ユーザーがプロセス数を制限したり、大量のタブを一瞬で復旧出来たりする‘パフォーマンスパネル’はユニークだ。Mozilla自身の実験では、なんと同時に1691個のタブを開き、そしてそれらを15秒で復旧できたそうだ。それまでのビルドでは、8分を要した。

このほか、Windows用の64ビットリリースの安定バージョンもあり、Moaillaによると、めったにクラッシュしなくなったそうだ。機能のアップデートでは、アドレスバーからどんなWebサイトでも検索できるようになった。ツールバーの上を行き来しなくても、Google, YouTube, Wikipediaなどの検索もアドレスバーからできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidaのGPUで動くHPのVR用バックパックPCは、遊び用ではなくてお仕事用

HPが、もっとも珍妙な種類のニッチ的PCに参入する。それは、バックパックコンピューターだ。 仮想現実コンピューティングという波から生まれたバックパックPCは、Oculus RiftやHTC Viveのような高級なVRヘッドセットをドライブするために必要なパワーを完全に提供するが、そのフォームファクターはユーザーがコードやケーブルをまったく引きずらずに、自由に歩き回れるものだ。同社の新製品HP Z VR Backpackはしかし、類似製品とはやや違っていて、本格的なワークステーションを想定した設計である。

HP Zは、Nvidia Quadro P5200 GPUを搭載し、モバイルのワークステーションクラスのグラフィクスカードがVRバックパックに使われるのは、今回が初めてだ。全重量は約4.5キログラムで、強力なGPUが複雑なシミュレーションと、そしてもちろん最高度のVR体験を可能にする。内蔵バッテリーのおかげで、しかも完全にコードレスだ。

発売は9月を予定し、お値段は3299ドルから、ユーザーが選んだオプションで最終価格は決まる。ふつうのデスクトップPCとしても使えるために、付属品としてドックがある。仮想環境の中を歩きまわっていないときでも、コンピューターとして使える。

無意味な製品のように思えるかもしれないが、しかし実際には、VRにはエンジニアリングやデザイン方面にいちばんおもしろい用途がありえる。たとえばプロトタイプを仮想的に作ったり、さまざまな変更の検証を実物を作らずにできたら、時間と労力の大きな節約になる。Tesla Model Sの競合車を発売するつもりのLucidなどはすでに、設計試作段階でVRが大幅な費用節約に寄与することを、デモしている。

同じ意味でZ VRは職業訓練にも使える、とHPは提案している。遠隔医療や、VRによるさまざまな体験センターもありえるだろう。当分はニッチにとどまるとしても、HPはそのニッチが時とともに広がり、VRがさまざまな業界や職種で利用されるようになる、と期待しているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VRデバイスでキャラクターを操作してライブ配信、カバーが3000万円の資金調達

VR/AR向けソーシャルサービスを開発するカバーは8月1日、みずほキャピタル、TLMおよび個人投資家数人を引き受け先とした総額約3000万円の資金調達を実施したことを明らかにした。

カバーは2016年6月設立のスタートアップ。代表取締役の谷郷元昭氏は、地域情報サイトの「30min.(サンゼロミニッツ)」の開発・運営を手がけた(現在はイードに譲渡)サンゼロミニッツの創業者でもある。カバーにはアエリア元取締役でエンジェル投資やスタートアップ支援を行う須田仁之氏、アジャイルメディア・ネットワーク元CTOの福田一行氏が参画している。同社はVR特化のインキュベーションプログラム「Tokyo VR Startups」の2期生に採択されている。

創業当初はVRデバイスを使って楽しめる卓球ゲームを開発していたカバーだが、今年に入ってピボット。3Dキャラクターを自由に操作し、インタラクティブな番組を配信できる、AR対応のバーチャル版ライブ配信サービスを9月にも提供する予定だという。サービスについては言葉で説明するよりも、まずはこの動画を見て頂いたほうが理解しやすいだろう(複数の動画が)。

この動画内で動いている女性の3Dキャラクターは、VRデバイス(テスト環境ではHTC Viveを使用していた)で操作しており、リアルタイムにその動きが表示されている(顔や手の向きだけでなく、ボタン操作で表情や指の動きを変えたり、マイクで認識した音をもとに、唇を動かしたりもできる)。3D空間上では写真や動画の再生をしたり、3Dペイント機能を使って立体的なお絵かきをしたりもできる。デモには音声が入っていないが、もちろん音声会話も可能だ。

以前に比べれば楽になったとは言え、モーションキャプチャーをし、そのデータを使ったリアルタイムなアニメーションを配信するには設備もコストもかかる。それをVRデバイスだけでまかっているというわけだ。同社はこのキャラクターによるライブ配信プラットフォームを開発。まずは自社やパートナー企業のキャラクターによる番組を制作・配信していくという。キャラクターを持たない企業に対しては、3Dモデルの制作も支援する。

サービスのイメージ

カバーではiOS11のARKitに対応したAR機能も準備中だ。ライブ配信時に、ARモードでキャラクターだけを自分がいる場所に呼び出して、表示することも可能になる。そのほか、ライブ配信とは別に「撮影モード」を用意しており、ARでキャラクターの動画・写真撮影もできる。

AR動画の撮影イメージ

8月中にもアルファ版のサービスとして、この配信環境で制作した番組をYouTubeやニコニコ生放送で配信する予定。そして9月をめどに視聴者向けのアプリを提供するとしている。アプリでは、ライブ配信にコメントしたり、ギフトを送ったりする機能や前述の撮影モードを搭載する。

「もともとはゲーム会社の出身。IPには一番労力を割いていたので、『キャラクターもの』の事業はやりたかった。VRとキャラクターの相性がいいのは分かっていたが、それが実際にできるのか? ニーズはあるのか? と考えていた。そんな中で最初は卓球ゲームを作ってみた」

「だが(VRゲームの)市場はまだ広がっていないし、モバイルのようなカジュアルな市場があるかと言えば、なかった。しっかりしたコンシューマーゲーム会社でないと作れない。このプロジェクトは今年の2月くらいから始めていたが、Tokyo VR Startupsのデモデーまでの1カ月で、ほぼ突貫で作っていった」(谷郷氏)

同社が狙うのは、アニメの市場だという。「(アニメに関する)ライブやVRのシアターもできている。3Dモデルさえあれば、アニメを作ることはできる。VRやARといった『空間』をディスプレイにできる場所に、キャラクターやコンテンツを提供していく」(谷郷氏)。ライブまでの実現したボーカロイドの「初音ミク」から、人気アイドルグループを手がける秋元康氏がアニメキャラクターによるアイドルユニットの「ナナンブンノニジュウニ」をプロデュースしたり、バーチャルYouTuberの「Kizuna AI」が70万人以上のファンを集めているような状況だ。バーチャルキャラクターによるファンビジネスの時代は眼前にまで来ているのかも知れない。

同社は今後プラットフォームや視聴、配信用のアプリケーションの開発に注力する。「まずは自前での番組も配信するし、権利者のコンテンツも載せていく。このプラットフォームはただの『美少女・イロモノ』には見られたくない。IPのマーケティングに使えるものにしていきたい」(谷郷氏)

目の画像だけからVR体験中のユーザーの気分や感情を判断するディープラーニング技術

[↑幸せ: 確率0.90]

目を見れば、それが本当の笑いか分かる、とよく言われる。もちろんその言葉は、私たち人間には、偽(にせ)笑いという、生得ではなく学習によって身につけるスキルがあることを、意味しているにすぎない。でも、人間の眼球に微妙な表現力があることが、役に立つこともある。VRの研究者たちが、目の画像だけから表情全体を推測する技術を編み出したのだ。

Google Researchが発表したその、おもしろい小さなプロジェクトは、VRヘッドセットを装着した人間の目だけを見て、表情を判断する。開かれた目の形、視線の方向、まぶたの状態、目尻の皺(がある人の場合)などなどを総合すると、実は相当大量の情報がそこにはあるのだ。

[↓無感情: 確率0.91]

ディープラーニングのシステムにとっては、いくつかのベーシックな表情と、その程度・度合いを表す測度があれば十分だ。たとえばそこには、“幸せ(Happiness)”や“驚き(Surprise)”があるだろう。ベーシックとは言えない“schadenfreude”(ひとの不幸を喜ぶ)や“mischief”(おちゃめ)などは、もっと学習しないとだめだけど。

もちろん実用化のためには、ヘッドセットの中にアイトラッキングのカメラが必要だ。そうすれば、ユーザーの今の気持ちや感情がリアルタイムで分かるようになる。

この研究を記したペーパーもあるし、それを近く開催されるSIGGRAPHで見ることもできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのVR教材ExpeditionsがAndroidアプリになり学校以外にも開放

Googleはこれまで相当長く、安価で超使いやすいCardboard製品によって、仮想現実の大衆化に努めてきた。またVRのコンテンツ方面の努力としては、学校向けの仮想現実教材とも言えるGoogle Expeditionsで、重要な遺跡などを360度写真や3Dのシーンで児童生徒たちが体験できるようにしてきた。〔ardboard==ボール紙、expedition==探検旅行〕

Expeditionではたとえば、インドのタージマハルやローマのコロセウム、アメリカ建国の父アレクサンダー・ハミルトンが活躍した場所を歴訪、などなどを体験する。そして今日(米国時間7/19)は、そのためのExpeditionsアプリがリリースされ、CardboardやDaydreamヘッドセットとAndroidスマートフォンで、VR教材ツアーが学校の外へ一般公開されることになった。

Expeditionsはあくまでも教材を念頭に置いて作られているが、このスマホアプリは個人利用もできるから、その600近い探検旅行を誰もが体験できる。Wi-Fiがあればそれらのコンテンツにアクセスでき、ガイドさんが旅路を案内してくれる。

その体験をより充実するための工夫が二つある。空などの邪魔にならない場所に遺跡などの理解を助ける注解があること。そして、360度の圏域内に円マークを描いて、重要な箇所に注目させる機能だ。

アプリはAndroidのみだが、近いうちにiOSバージョンも出すとのこと。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VRソフト開発のDVERSEが凸版印刷と資本業務提携、100万ドルを調達

VR制作ソフトウェアを開発するDVERSE(ディヴァース)は7月10日、凸版印刷と5月31日に資本業務提携を締結していたことを明らかにした。DVERSEはこの提携で、凸版印刷を引受先としたConvertible Equity(CE型新株予約権)による100万ドル(約1億1000万円)の資金調達を実施したことも発表している。

DVERSEは2014年10月の設立。CEOの沼倉正吾氏はCAD/CAMシステムなどを開発するゼネテックの出身で、海外展開を想定して米デラウェア州に登記している。2015年7月には、韓国のBonAngels Venture Partnersおよび日本のViling Venture Partnersから資金調達2016年6月には、500 Starups Japan、Colopl VR Fundなどから103.9万ドルの資金調達を実施している。

2017年2月にDVERSEがSteamに公開した「SYMMETRY alpha(シンメトリーアルファ)」は、3DCADデータを取り込めば、ヘッドマウントディスプレイ(HMD)を通じてそのデータをVR空間に表示し、体験できるソフトだ。建築・不動産データをVR化することで、社内外でのイメージの共有、コミュニケーション、合意形成をスムーズにすることを目的としている。

SYMMETRY alphaは、建築、デザインなどで利用される3Dモデリングソフト「SketchUp(スケッチアップ)」のフォーマットに対応するほか、現在は3Dレーザースキャナーを使って建物や地表をスキャンして生成する、点群データにも対応している。

DVERSE CEOの沼倉正吾氏は、SYMMETRY alphaについて「当初は建築・不動産業界から注目が高かったが、そちらに加えて、現在は工業デザイン、コンサート会場やイベントブースのデザインなどイベント・プロモーションの分野、教育分野など幅広くフィードバックをいただいている」と話す。現時点で全世界96ヵ国で利用されているという。

凸版印刷では、建築物をはじめとした文化財などをVR化したアーカイブ「トッパン VR・デジタルアーカイブ」を公開するなど、空間や立体構造物のデジタル化に力を入れている。沼倉氏は今回の資本業務提携により、今後「DVERSEのプロダクトをベースにして次世代のVRソリューションを開発していく」と話している。

「DVERSEが最終的に目指すものは、ビジネス分野で使われている、Skypeやメールなどのコミュニケーションツールを置き換えるもの。『VR空間でイメージを正確に共有してコミュニケーションを行うプロダクト』を目標としている」(沼倉氏)

2人で手を握りあって入れる「MRお化け屋敷」が夏にデビュー、日本のTyffonが1億円調達

VR市場はB向けのバーティカル市場の立ち上がりが早いようだが、B2B2Cのエンタメ方面も盛り上がりそうだ。AR/VR/MR時代にホーンテッド・マンションを作り直すとしたら、こんな感じになるだろうという独特の世界観と、それを可能にする先進的なMR技術を作っている日本のスタートアップ企業がある。 今日インキュベイトファンドから1億円の資金調達を発表した「Tyffon」(ティフォン)は、この夏にも商業施設などで体験できるMRコンテンツ展開を始める。早速ぼくは東京・三田にある同社で以下のような何とも空疎な空間を歩くことで、ひと足早くこの未来感のある「21世紀のホーンテッドマンション」ともいえる「Magic-Reality: Corridor」を体験してきた。

上の写真を見ればわかる通り、体験者は何もない空間を歩く。ぐるぐる歩く。だけど、体験者がみているのは、以下のようなおどろおどろしい怪物が徘徊し、死体がうめく呪われた洋館の世界だ。

上の動画をよく見るとお分かりいただけると思うが、これは単なる360度動画ではない。体験者は自分の腕や、自分が手に持つランタンをVR中の画像上で見ることができるが、これは自明のことではない。VRヘッドマウントディスプレイとして利用するHTC Viveのカメラから取り込んだ映像をリアルタイムに3次元空間に再度落とし込み、仮想空間内の光などを反映した上で体験者に見せているのだ。だからこれはVRではなく、MR(Mixed Reality)と呼ばれる。

足元を見ると自分の足が見えるし、隣に立っている同伴者も見える。つまりドキドキしながら館に足を踏み込んだ2人が一緒に仮想空間に「入った」ような感覚を作り出す。そんな現実と仮想が混じる世界を作り上げようとしている。VRコンテンツは長尺になると体験者が感じる「孤独」が問題と言われることもあるが、こうした複数人で入れる仮想世界のMRには大きな可能性を感じるところだ。

やろうと思えば、際限なく怖くできてしまう

今回のTyffonへの出資を決めたインキュベイトファンドの投資家、赤浦徹氏は、取材に訪れたぼくに対して「事前にトイレに行ってください」と念を押した。初めはお決まりの冗談なのかと思ったが、必ずしも誇張ということではなかったようだ。これは、かなり怖い。

暗がりから襲いかかってくる化け物は、本当に……、襲ってくるし、うめき声を上げるゾンビだか死体だか分からない何かが目の前の毛布の下でうごめく。仮想空間内で壁に当たらないように廊下を進んでいくと、上にあるクロマキー処理のための単色カーテンで区切られた狭い空間をぐるぐる歩くことになる。だが、実際には館の中は小部屋に分かれて、次々と背後で嫌な音を立てて扉がしまったりする。ある時はエレベーターに入ったと思えば、ものすごい速度で落下するような映像に包まれる。

「床を振動させたり、体験者に風を当てるとか、そうしたこともやっていきたいですね」

そう語るのはTyffon創業者で代表取締役の深澤研氏だ。4D映画のように冷気や匂いなど、まだまだ体験をリアルにするためにやれることはあるという。ただ、商業施設で導入するとした場合、あまり利用者が怖がりすぎないよう安全面の配慮が必要そうではある。実際、ぼくが体験した10分ほどのコンテンツは怖さを抑え気味にしていたものだそう。本当は化け物に食べられてしまって腸内を歩くコンテンツとか、後ろから大きな口が追いかけてくるようなものもあるそうだ。ぼくが体験したコンテンツは初心者向け。同じ方向にぐるぐる回るものだったので方向感覚も保てたが、コンテンツによっては迷宮の中を歩くようなものにできるし、どんな長大なコンテンツも原理的には可能という。当然こうしたコンテンツには年齢制限が課されることになる。

HTC ViveのようにカメラがあるVRヘッドマウントディスプレイを使って撮影した映像を、仮想空間内に再現して合成するコンテンツというのは今のところ多くない。撮影した腕を3次元空間内に再現するのは自明の処理ではなく、普通にやると単に平面にカメラ映像を貼った感じになってしまう。これを曲面のようにするのは特殊な処理で、ほかにも撮影した人物などを館の中の照明の方向や色に合わせる処理をすることで没入感を作り出しているそうだ。

ぼくがやったデモでは2万匹のイナゴにわっと囲まれるという、実に嫌なシーンもあった。そろそろと廊下を歩いていると壁に何かがいる。何だろうとランタンを近寄せて照らすと、赤いイナゴがぞわぞわうごめいている。もっとランタンを近づけるとイナゴがサッと散る。かと思えば背後でドアがバタンと閉まり、狭い空間に閉じ込められる。そして大量のイナゴがどこからともなく沸いてきて、イナゴの大群に襲われる。頭でCGと分かっていても、これは本当に気味が悪いものだった。と、同時にいくら背中にそれなりの処理性能のPCを背負っているとはいえ、高度なCG処理だなとも思えた。聞けば、3万匹程度は実用的な速さで動かせるという。

ホラーの世界観に魅せられた少年

Tyffonの深澤氏は、2011年11月の創業以来、アプリ開発を手がけてきた。撮影した顔写真がソンビになり動き出すという一種のセルフィーアプリ「ゾンビブース」は2012年のリリース以来、バージョン2の続編も含めて3500万DLという大きなヒット作品となり、アイテム課金で黒字化していたそうだ。

zombiebooth

深澤氏はゾンビブースやMacig-Reality Corridorを作るべき経歴と嗜好をもっている。

photo01

Tyffon創業者の深澤研氏

「これが中学2年生のときに描いた絵なんです」。そういって指差したオフィスに置かれた油絵をみると、立派なホラーテイストの頭蓋骨。14歳の息子が描いたとしたら親が将来を心配してギョッとしそうな絵ではある。聞けば、5歳の頃に体験したディズニーランドのホーンテッドマンションの影響を強く受けているのだとか。テクノロジーとアートの融合する領域で何か作りたかった、という深澤氏は、3DのCGアニメーションを作って海外の映画祭で上映するなどアート方面の活動もしていた。大学では情報科学の1領域としてフェイシャル・アニメーションを研究していたし、Tyffon創業に前後して顔写真から表情の動くアニメーションを作る技術を持つ、モーションポートレートにも参画していた経緯もあるという。

2014年にディズニーのアクセラレーターの第1回プログラムに選ばれて渡米。参加8社のうち1社のみが日本のスタートアップだったといい、このときディズニーからシード投資も受けている。実は同じプログラムに参加していたのが、スターウォーズの丸いキャラ「BB-8」で知られるスフィロだ。BB-8が生まれたキッカケはまさにこのディズニーのプログラムで、ディズニーCEOのロバート・A・アイガーがアクセラレターの初日、2日目とやってきて、そこでスフィロと話をしたところから、あの愛嬌のあるBB-8は生まれたそうだ。

グローバルにみれば、似た領域で取り組んでいるスタートアップとしてThe VOIDZero Latencyがある。どちらも、お化け屋敷やホーンテッド・マンションといったジャンルと異なるシューティングゲームを作っている。

すでにTyffonは大手メディア企業と組んで都内で体験スペースを設けることが決まっているほか、テーマパークや大手小売店舗からの引き合いがあるという。設置面積が小さくて済むメリットから都市型アミューズメント施設を中心に導入が進みそうだ。Tyffonは米ディズニーからも投資を受けているので、海外展開にも期待したいところだ。

Google、VR広告プロジェクトのAdvrを発表――社内インキュベーターArea 120から誕生

Goolgは本日(現地時間6/28)、社内インキュベーターArea 120の専用サイトをローンチし、あまり公に語られることのなかった同プログラムの情報を正式に公開した。それと同時に、これまでのArea 120のプロジェクトとは一味違う、VR広告に関する試みが始まった。Advrと呼ばれるこのプロジェクトでは、3D(もしくはVR)空間で動画を再生する、キューブ型の広告の実験が行われている。

Area 120は、将来的にスタンドアローンのプロダクトや既存プロダクトの追加機能になり得る新しいアイディアを試す場をつくるため、そして起業家精神あふれる人材を社内に留めるために昨年の3月にローンチした。

ちなみに、インキュベーター自体の設立からあまり時間が経っていないこともあり、製品化されたプロジェクトは未だ誕生していない。

既にAres 120関してさまざま報道がなされており、その名前からは勤務時間の20%を自分の好きなプロジェクト使えるという、かの有名な20%ルールとの関連性がうかがえる(といっても、20%ルールは社内制度というより考え方に近いものだったが)。

しかし、Area 120は20%ルールのコンセプトを体系化した正式なプログラムだ。

社内インキュベーター制度のある大手テック企業はGoogleだけではない。MicrosoftはGarageと呼ばれる独自のプログラムを運営しており、Appleも2012年にBlue Skyで同じようなことをしようとしていた。

その中でもGoogleのArea 120はアクセラレーターのように運営されており、社員は決められた期間中に同プログラムに応募し、一部の選ばれたチームだけが参加権を獲得できる。各”クラス”は15のチームから構成され、彼らは6か月間かけて自分たちのプロジェクトに取り組むことになる。さらに、Area 120に参加している社員は日中の仕事から離れ、自分たちのプロジェクトにだけ集中できる。

もしもプロジェクトがうまくいけば、そのチームは期間終了後も引き続き自分たちのプロダクトに取り組むことができ、プロジェクトがうまくいかなかった社員は以前とは違うポジションでGoogleに戻ることになる。

Area 120のローンチから既に2クラスがこのプログラムに参加し、現在Googleは3期生の募集を行っている。

GoogleにとってもArea 120は新しい試みであるため、今後どうなるかや、そもそもArea 120にお金をかけるだけの価値があるのかというのはまだわかっていない。しかし、どこかのチームのアイディアが将来的にGoogleのプロダクトとしてローンチされたり、既存のプロダクトに吸収されたりする可能性は大いにある。その一方で、ほとんどのアイディアは十分なトラクションを集めることができずに終わるだろう。これは普通のスタートアップと同じだ。

Area 120のプロジェクトの内容は全てが公開されるわけではない。中には社内でだけ使われるものや、招待された人だけがテスターになれるものもあり、これまでメディアに取り上げられたプロジェクトの数はごくわずかだ。公開された中でいえば、Uptimeがもっとも期待されている。今月正式に一般配信がスタートしたこのアプリでは、友だちと一緒にYouTube動画を視聴することができる。

その他にもArea 120で生まれたプロダクトには、パーソナルスタイリストアプリのTailorやコーディング学習アプリのGrasshopper、絵文字メッセンジャーのSupersonic(こちらはサービス終了予定)などがある。また、特定のユーザーだけが利用できるサービスとして、バングラデシュのジョブマッチングサービスや、これからローンチ予定のAppointmentsとよばれる予約ツールなども存在するが、これまでGoogleがArea 120のプロジェクトを公に宣伝したことはなかった。

しかしAdvrは少し違うようで、本日Googleはディベロッパー向けのブログに同プロジェクトの記事を公開した。

Advr:VR環境における動画広告

Advrの主な目的は、VR環境内で動画広告が成立するか、そして成立するならばどのような形式になるのか、というのを解明することだ。

そこでAdvrのチームは、VR環境内で動画を再生できるUnityのプラグインを開発した。先述のブログポストによれば、ディベロッパーはVR用の全く新しい広告商品や実装が難しいものを開発するのに前向きではないため、Advrのチームはシンプルな立方体のフォーマットにたどり着いたという。

Advrの動画広告では、ユーザーが立方体をタップしたり、数秒間見つめたりすると、プレイヤーが表示されるようになっており、ユーザーはこの段階で広告を視聴するか、プレイヤーを閉じるかを選ぶことができる。

また、Advrのチームは、GoogleのDaydreamとCardboard、SamsungのGear VRを皮切りに、この新しい広告をさまざまなVRプラットフォームに導入しようとしている。

公に発表したからといって、GoogleがAdvrをVR広告のあるべき姿と考えているわけではなく、今の時点ではまだアイディアの域を出ない。その一方で、Google以外にもAdobeを含む数社(OutlyerImmersvOmniVirtなど)がVR広告を開発している。もしも成功すれば、AdvrはGoogleの収益に直接影響を与えるようなArea 120発のプロジェクトの先例になるだろう。

既に同プロジェクトでは、いくつかのVRゲームデベロッパーと協力してテストが行われているが、パートナーの詳細については明かされなかった。本日より、他のVRディベロッパーも招待ベースでAdvrのSDKを使えるようになったので、興味のある人はこちらを確認してみてほしい。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

LiveLikeで、Facebookの友人たちと一緒にスポーツのVR観戦が可能に

スポーツ放送事業者と提携して、VR視聴体験を作成し提供するサービスLiveLikeが、ソーシャル機能を備えることになった。

念のため言っておくと、LiveLikeのVR体験とは「仮想スイートルーム」を提供するもので、その中では様々なカメラアングルを選択したり、スイートルームの中を見回したり、事前制作されたコンテンツを視聴したりすることなどが可能なものだ。以前体験した時には、単に視聴者たちにゲームを見るための空中に浮かんだスクリーンを提供するだけのものよりも、遥かにリッチなVRソリューションが提供されていると思った。

そして今度は友人と一緒にこの体験をすることができるのだ。来週のCONCACAFサッカーゴールドカップを手始めに、(LiveLike製の)Fox Sports VR Appのユーザーたちは、友人たちと一緒にゲームを見ることができるようになる。

アプリを開くと、ユーザーはFacebookに接続し、アプリを既にダウンロード済みのFacebookの友人たちや、ランダムオプションによって、さらに3人の他の視聴者たちと同じ部屋に入ることができる。

アプリ内では、あなたは頭上に名前が表示されたアバター(基本的なものだが、少しカスタマイズ可能)として登場し、ゲームを見ながらあなたの友人の方を向いて話しかけるこが可能だ。LiveLikeは3Dオーディオを使用していると説明している。つまりあなたが友人の方を見れば友人の声は大きくなり、前に向き直ればまた小さくなると言った具合だ。このことで多少ともリアルな感じが出ることになる。

そして誰でもアクセスしやすくするために、アプリを使用するためにヘッドセットを用意する必要さえない。ユーザーは携帯電話やタブレットにアプリをダウンロードして、ヘッドセット不要のスリムダウン版を体験することができる。基本的には実際にVRに入れば見えるものをすべてを、スクロールやパンをして見ることができるようになっている。

LiveLikeはこの先、全ての展開にこのソーシャル機能を組み込む予定だが、一部のパートナーは、ブロードキャストではその機能を取り込まない可能性があるという注意を促している。しかしそれ以外では、LiveLikeはこれらのソーシャル機能をプラットフォームの未来と見なしている。

結局のところLiveLikeは、例えばあなたが贔屓しているチーム以外のファンたちとも、同じ仮想ルームの中で試合を見ることができるような、コミュニティに焦点を当てた機能を組み込みたいと思っているのだ。そして、このコミュニティの側面は、ファンたちにVR内で費やす時間を増やすことを促すことができるかもしれない。特にテレビを一人で見ている人に対しては、単に物珍しいものではなく、従来のテレビよりも好ましい体験だと思わせるように、意識を変えて行くことが可能かも知れないからだ。

下に示したビデオは現在LiveLike体験がどのようなものかを伝えるものだ(なお新しいソーシャル機能は入っていない)。

[ 原文へ ]
(翻訳:Sako)

AppleがAR/VRに欠かせない視標追跡技術のSensoMotoric Instruments(SMI)を買収

拡張現実と仮想現実の技術をめぐるAppleの今後の動きに関して、噂の火に油を注ぐかのように、同社は指標追跡(eye-tracking)技術のSensoMotoric Instruments(SMI)を買収した、とMacRumorsが報じている。

1991年ドイツ生まれの同社はこれまで、視標追跡の研究で重要な業績を上げ、特殊な単眼鏡ハードウェアを開発したり、仮想現実のための視標追跡など消費者アプリケーションの研究もしている。昨年同社は、VRヘッドセットHTC Viveのための視標追跡開発キットを発表している。

問い合わせに対してAppleは、昔から変わらぬワンパターンで答えてきた: “Appleは小規模な技術企業をときどき買収し、一般的にそのとき、弊社の目的や計画を明らかにすることはない”。

買収の条件は現時点で不明だが、今後分かり次第お伝えしよう。

VRやARの重要なユースケースのひとつが、ユーザーが今見つめている場所の位置を調べてその領域を最高の解像度で描画し、周辺はやや手抜きをして処理負荷を軽減する、中心窩レンダリング(foveated rendering, 視線追跡型レンダリング)と呼ばれる技術だ。VRやARのヘッドセットで超高解像度な視界を実現するためには、欠かせない技術と言われている。

ヘッドセットを用いるARやVRでは、視標追跡技術のユースケースがほかにもある。たとえば昨年10月にGoogleが買収したEyefluenceは、ユーザーインタフェイスのマウスクリック等に代わるセレクション(ユーザーの指定)の判定に、視標追跡を用いる。

先月Appleは、拡張現実を利用するアプリケーションを作るデベロッパーのために、APIセットARKitを発表した。また同社のデスクトップ機の最高級機iMac Pro向けには、VR開発のサポートを提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YouTubeが従来の360度ビデオを半分に切った、新しいVR180フォーマットをサポート

YouTubeは、VRを試してみたいと思いつつも、ハードウェアと制作上の課題にフルコミットすることを躊躇(ためら)うクリエイターたちのために、新しいファイルフォーマットの提供を始めた。これはVR180と呼ばれるもので、従来の球面ビデオの半分だけを提供するものだ。

それは単純な進化だが、従来のVR視聴者たちに新しい利点をもたらす、ある意味画期的妥協でもある。

最近のブログ記事でGoogleは、360度ビデオユーザーの75%が、ビデオ開始後は前方の四分弧(円周の4分の1)の部分しか見ていないことを話題として取り上げた。この原因の一部は、そもそも多くの人たちが、回転する椅子には座っていないことに起因するものだ。そしてそれ以外の原因としては、クリエイターたちが今だに360度カメラをどのように活かせば良いかを知らないということも挙げられる。周りを取り囲む雑多な情報にも関わらず、360度フォーマットはまだあまり探求されていないのだ。

要するに、360度ビデオはまだ生きていてサイト上で運用されており、YouTubeはそのサポートから離れる訳でもないが、このVR180フォーマットはクリエイターたちに、全面的なコミットをすることなく試行をすることを、やや容易にしてくれるものだ。VR180を使用することで、クリエイターたちはVRのコンテンツを作りつつも、伝統的なビデオ制作の技を駆使する自由も十分に手にすることができる。「クリエイターたちは制作技術を変える必要はありません」と、YouTubeの主任VRプロダクトマネージャーであるErin Teagueは語る。

クリエイターたちにとっての、新しいフォーマットの最大の特長は、CardboardやDaydreamのようなモバイルヘッドセットを使用しているユーザーたちに対して、通常のビデオに少々手を加えたようなコンテンツでも共有しやすくなるということだ。興味深いことに、YouTubeは、1月に発売されたPlayStation VRのYouTubeアプリでもビデオを見ることができるようにした。

VR180はライブストリーミングもサポートする。

球の半分を同じ4Kの解像度で表示するだけで、すべてが大幅にシャープになり、立体視による3Dが、単に物珍しいものから価値のあるものへと変化する。一方、アプリ内のビューは、一般に360度で見られるような、ピクセル的なウィンドウではなく、実際の視聴に耐え得るものになる。

この動きはYouTubeとGoogleのDaydreamモバイルVR部門の連携によるものだ。Daydreamは、LGやLenovoなどのカメラメーカーと協力して、コンパクトでデュアルレンズを持つコンパクトカメラサイズのデバイスで、VR180の保証を行おうとしている。こうしたカメラは今年の冬以降に発売が開始される。新しいカメラの登場を待ちきれないビデオロガー(vlogger:ヴロガー)たちのために、YouTubeはクリエイターたちが貸与を申し込むことのできるカメラを、何台か用意する予定だ。

[ 原文へ ]
(翻訳:Sako)