Nvidia、VR経由でリアル世界の自動車を運転!

本日(米国時間3/27)Nvidiaは、同社のGTCカンファレンスで意欲的なデモを披露した。それは映画「ブラックパンサー」からそのまま出てきたかのような内容だった。

「彼はここにはいません」とNvidiaのCEO Jensen Huangがステージ上のドライバーを指さして言った。「彼はライブビデオを通じてこのバーチャルワールドを見ています」。

ドライバーは会場のステージで、HTC Viveを着用し、ハンドルのついたコックピット風の車に乗っている。NvidiaのHolodeckソフトウェアを使ったしくみが搭載されている(ブラックパンサーで使われたのと同じLexus)。続いてビデオには、会場のコンベンションセンターを背にしたFord Fusionが映し出された。

ショウで見せたデモは、最小限の内容で簡単だが動作はたしかだった。VRの中のドライバーは自動車を完全に制御しているように見え、私有地内をゆっくりと走らせていた。彼はバンを避けながら100メートルばかり走って車を駐車した。

  1. nvid0716

  2. nvid0718

  3. nvid0720

  4. nvid0722

  5. nvid0726

  6. nvid0733

  7. nvid0734


車は走行中完全に無人だった。

Nvidiaはこのシステムが動いているプラットフォームや公開予定などについて一切明らかにしていない。デモは概念実証として行われた。Jensenはこんなことも言っていた。「これを何と呼んだからいいかもわからない。何がいいだろう?」

自動運転技術はNvidiaにとって壮大な市場であり、技術提供でリードしている企業でもある。今日のようなデモは、同社の能力をに注目を集める最高の方法だろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

ライトフィールドの捕捉と再現がリアルなVRのための重要な鍵、Googleが試作的な無料アプリケーションを発表

写真にとって、ライティングはとても重要だ。ユーザーがその中を動きまわる仮想現実の静的な環境に関しては、ライティングの重要性がさらに大きい。

今日(米国時間3/14)Googleは、VRのユーザーが“ライトフィールド”(light fields)を感取経験できるための、VRデバイス用のアプリケーションをリリースした。このアプリケーションに関連する研究について、ブログ記事も発表している。

ライトフィールド(光線空間)の実際的な意味は、空間内の一つの点からのさまざまなパースペクティブ(見え方)のことで、見る角度によってライティングの見え方も変わる。スマートフォンのスクリーンに映っている画像がリアルに見えるとしたら、それはその画像が実際のライトフィールドを写し込んでいるからだ。物理的なオブジェクトの多くは、そのまわりの世界を映すクリアーな鏡を提供しているわけではないが、それでもたとえばあなたの皮膚は、見る人の角度によってテクスチャーが大きく変わる。それも、ライトフィールドの現れの一つだ。

ゲームエンジンが描画する世界では、コンピューティングの十分なパワーさえあれば、そこらのありとあらゆるものを巧拙さまざまに写し込むことができる。また、ライトフィールドをカメラで捉えるとしたら、Googleなどの企業は複数のカメラを使ってオブジェクトの複数のパースペクティブを捉え、それらのレンズの間にあるパースペクティブを計算で求める。そうやって捉えたオブジェクトのパースペクティブ集合は、頭にライトをつけたあなたが動きまわるときの、あらゆる角度と距離からのオブジェクトの見え方を表すことができる。

ライトフィールドについてもっと詳しく知りたい方は、Googleがこのアプリケーションについて書いた“Welcome to Light Fields”(ライトフィールドへようこそ)という記事とそのページを見てみよう。仮想現実の世界が本当に本物っぽくて快適な世界であるために、ライトフィールドが重要な技術であることが分かる。そのアプリケーションには、実際にユーザーが歩き回れる世界のデモが、いくつか含まれているようだ。

このアプリケーションを利用できるのは、HTC ViveとOculus Rift、そしてWindows Mixed Reality platformsだ。かんじんのGoogleのDaydreamに対応していないのは、ライトフィールドを正しく模倣〜再現するためには3Dの位置追跡機能が必要だからだ。Daydreamがその機能を持つのは、Lenovoのスタンドアロンのヘッドセット6DoFからだ。それを待つしかないね。

ライトフィールドは、それを捉えることだけでなく、ほかにもさまざまな技術的問題をデベロッパーにもたらす。そのトップが、帯域だ。空間内の、あらゆる点からの、あらゆる角度と距離の、正しいライティングによる像をVRがあらかじめ用意するためには、膨大な量のデータとストレージを要する。Googleがこのアプリケーションで捉えているのは、写真のような静止画像の世界だが、これがビデオになればほんの数分の動きのために数テラバイトを消費するだろう。それは今のところ、考えて理解するだけ、の世界だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

先端技術企業を立ち上げる際に避けるべきこと、やるべきこと

【編集部注】著者のShahin FarschiLux Capitalのパートナー。

強力なツール、すばらしい才能、そして熱心な投資家からの際限のないドルの流れによって、明日のテクノロジー企業を始めるには、今は素晴らしいタイミングである。好奇心に溢れ野心的な創業者チームたちが、現実の問題を解決するためにそのスキルを注ぎ込んでいる。以下に述べるのは、私たちの未来を明るく照らす、9つのエキサイティングなスタートアップカテゴリの中で、共通する落とし穴を避けながら、堅実な価値を構築する方法についてである。

画像:Bryce Durbin/TechCrunch

拡張そして仮想現実(ARとVR)

仮想現実と拡張現実は、もうすぐ来ると言われ続けてほぼ10年が過ぎている。しかし、新しいVRコンテンツ、ポータル、ハードウェアが目白押しなのにもかかわらず、従来の2Dコンテンツが相変わらず主役の座を占めている。

避けるべきこと:コンシューマーハードウェアを開発してはならない。その通り、仮想現実ヘッドセットは高価で嵩張るものである。一方、拡張現実の忠実度はまだ低いままだ。Magic Leapは、ハードウェアの製造とマーケッティングに必要な膨大な資金を調達するという素晴らしい仕事を成し遂げた。しかし、コンシューマエレクトロニクスの設計、製造、販売、マーケティングのビジネスは、一般にはスタートアップの対象外である。

Sony、Google、Samsung、LG、Lenovo、HTC、そしてAppleのような企業は、そうした機械から利益を得ることができるし、まるで際限がないかのように、資金をそれらの作業に注ぎ込むことができる。その一方で、他のスタートアップたちは、VR/ARコンテンツを消費させる場所になろうとしている。そしてスタートアップたちと同様に、Amazon、Netflix、Apple、Google、そしてFacebookといった大手企業たちも、自身のプラットフォームのためのマーケティングに資金を投入し、それを育てるためにコンテンツに資金を提供している。

やるべきこと:消費者を引きつけて、彼らがお金を払い、時間を捧げてくれるような魅惑的なコンテンツを作り上げることに向けて努力しよう。Atariは、消費者が約800ドル(インフレ調整済み​​)を支払っても良いと思わせるだけの、魅惑的な体験を生み出すことに成功した。そのグラフィックとサウンドはいまではお話にならない位貧弱だが、Atariの初期のタイトルの成功は、イマドキのコンテンツに惨めな思いをさせるほどのものだ。

2Dのコンテンツに化粧を施してよしとするのではなく、ARならびにVRネイティブな体験を生み出すクリエイティブな才能が必要とされているのだ。パン、ズーム、そしてセリフなどで動画と写真が区別されるようなものだ。ゲームセンターや映画館に相当する、VRコンテンツを消費する場所が必要とされているのだ。残念ながら、人々が携帯電話をヘッドセットとして使用したり、家庭内に機器を設置したりすることは、もはや狙うべき戦略ではない。 ARとVRのコンテンツはまだPong時代を迎えてもいないのだ(PongはAtariが最初期に出したシンプルなビデオゲーム)。

画像:Bryce Durbin/TechCrunch

AI

学者や大企業は、AIをPRの材料に使っている。計算コストの低下によって、この何十年も前から存在する技術は実用的なものとなった、そして小切手を読み取り、写真の中から猫を見つけ出すアルゴリズムなどが拡大解釈されて、やがて殺人ロボットが世界を支配するのでは、という恐れにつながっている。

避けるべきこと:最高を目指すAI企業を立ち上げてはならない。投資家たちと才能がこのセクシーなキャッチフレーズに向けて引かれ合った日々は、終わりに近づいている。ユニークな実現技術で新たな数十億ドルベンチャーを始めて成功するよりも、AIが既存の製品やビジネスをより良くできる可能性の方が遥かに高い。

「AI企業」をスタートさせることは、クラウド企業、モバイル企業、インターネット企業を設立することに相当する。Salesforce、Facebook、Amazonの陰には、数千もの失敗したスタートアップがあった。また、自分たちの利便性のために、この技術を活用した多くの既存企業も存在している。失敗したスタートアップたちは、なんとか資金を調達し、誇大広告で人を集めることはできたものの、実際のビジネスを構築するための戦略に欠けていたために、それほど前には進むことができなかったのだ。

やるべきこと:AIを製品の改善や新しい市場へのアクセスのために用いる、多くのツールの1つとして活用する方法を探そう。理想的には、AIを優れた製品を支える秘密の武器として使ったり、特定のカテゴリの顧客にリーチして効率的に獲得するための道具として利用したりすることが望ましい。実際に、マーケットから会社を「AI企業」だとは見て欲しくない筈だ、その代わりに(見えない所でAIが支えている)魅力的な製品で新しい市場を切り拓く企業だとみてもらおう。

ハードウェアアクセラレーションAI

AIチップ企業は白熱している。IntelによるNervanaの4億ドルでの買収と、Nvidiaの株価の急騰が触媒となって、データセンターや、携帯ならびに組込機器上で、ディープニューラルネットを訓練するチップを開発するスタートアップたちが続出した。

避けるべきこと:従来のデジタルチップ設計をAIに向けて最適化しようとしてはならない。チップ会社を作ることは本当に難しい。多くのチップ会社が売上を増やすまでにあまりにも長い時間がかかったことで失敗している。チップ企業たちは複雑な製品を、気紛れで、保守的で、果てしないサポートを要求してくるエレクトロニクス企業に対して売っている。チップ会社が、少量しか購入してくれない顧客のサポートで手一杯になって、潰れてしまうことはありがちだ。チップのスタートアップたちは、より良い経済性を達成するために、新しいテクノロジーを追求して、より多くの資金を調達しなければならなくなり、顧客との間に一大転機でも起きない限りはその動きが繰り返される。

やるべきこと:顧客たちに対して、あなたのチップを使えばできることは何かを尋ねよう。さもなくば、現在のサプライヤー(Intel/QCOM/Nvidia/TIなど)のチップではできないことについて尋ねてみよう。もしパフォーマンス、コスト、サイズなどの改善が10倍に及ばない場合は、キッチンナイフで銃撃戦に臨むようなものだ。どうすれば、あなたの桁違いの改善が、新しいカテゴリーの製品につながる可能性が出てくるのかを考えよう。Broadcom、Qualcomm、InvenSense、Atherosなどの成功したチップ企業は、どれもみな新しい製品カテゴリー(ケーブルモデム、携帯電話、モーションセンシングビデオゲームコントローラ、ラップトップと携帯電話のWi-Fi)を可能にした。あなたのチップはどんな魅力的な製品を可能にするだろうか?

画像:Bryce Durbin/TechCrunch

宇宙技術

インターネットから宇宙に目を向けた起業家Elon Muskは、航空宇宙関係者でなくても奇想天外な会社を作ることができることを世界に証明した。

避けるべきこと:宇宙経済のインフラ整備に焦ってはならない。Mark Twainの言葉として引用されるものに「歴史はそのまま繰り返されることはないが、しばしば韻を踏む」というものがある。投資家たちは、産業革命が進行している最中、鉄道建設のために何十億もの損失を抱えたが、 鉄道輸送に依存した産業たちに莫大な利益をもたらした。また投資家たちはインターネットのインフラを整備する間にも、何十億ドルという金を失ったが、eコマース、ソーシャル、モバイル、そしてSaaSたちがそれを活用して利益を得た。衛星打ち上げ事業、宇宙通信、鉱業、マイクログラビティ実験室などの見通しはそれとは全く違うものになるのだろうか?

やるべきこと:大規模な既存市場および将来の市場に対応するための宇宙を活用したビジネスを構築しよう。SpaceXは、政府および商用衛星事業者の既存のニーズに対応するために、事業を開始した。Planet頻繁に地理空間画像を安価に取得する新しい市場を創出するために、新しいデザインの衛星を開発し運用している。

通信衛星を開発、打上げ、サービス、あるいは提供する計画をまとめる前に、宇宙そのもののことはとりあえず忘れて欲しい。いま事前のコスト(衛星を設計し、製造し、打ち上げるなどのコスト)が必要な総括的な事業を立ち上げていると仮定してみよう。そしてそれにはロングテール型のキャッシュフローが伴っているとする。このキャッシュフローは、その事業が地道なものであろうと奇想天外なものであろうと、他のどのプロジェクトよりも実質的に高い収益(財務用語では、IRR:内部収益率)を達成しなければならない。その収益率は、まだ成功することが証明されていない製品や、新興市場のリスクを補うのに十分なほど高い必要があるのだ

画像:Bryce Durbin/TechCrunch

自動運転車

自動運転車への道のりに横たわる、数々の問題に打ち勝っていく会社を始めたいという誘惑に逆らうのは難しい。ではその問題とは…

避けるべきこと:1点もののソリューションを提供する会社を立ち上げてはならない。およそ50程の大企業が、様々なレベルの技術を追いかけている。コンピュータービジョン用のセンサーから、人間と物との弁別、振舞予測、運転計画、他の車や道路との通信などまで、様々なものがある。一方バックエンドには、開発ツールや地図、そして車を安全に保つためのサイバーソリューションを開発する企業がたくさんある。

残念なことに、自動運転技術はあまりにも初期段階であるため、これらの要素をどのように組み合わせるかということも未定である。私が好きなたとえ話は1960年代の計算機事情だ:そのころIBMはなんでもやっていた。チップや回路基板の製造から、メタル・キャビネットの折り曲げ、そしてマシン上で実行される、プログラミング環境、コンパイラー、およびアプリケーションに至るまで全てを提供したのだ。もしIBM謹製の、スクリーンやキーボード用の掃除用具があっても私は驚かないだろう。

やるべきこと:あなたが売り込もうとしているサプライチェーンの流れを、近くで真剣に観察しよう。もし従来の自動車向けの運転支援機能を提供しようとしているのなら、既存の自動車業界のサプライチェーンの性質を理解しなければならない。なお伝統的にそれはスタートアップにとっては非常に過酷なものである。他のスタートアップたちが討ち死にをしたマーケットで、会社が生き残り繁栄できる程の、ユニークで特別な何かを、あなたの会社は持っているのだろうか?

もしロボットカーの技術を開発しているのなら、多くのスタートアップたちや大企業のR&Dグループによって開発されているシステムに、あなたの技術はどれくらい簡単に適用することができるのだろうか?私の予想:それは簡単ではないだろう。テクノロジーの開発を始めるずっと前に、顧客について知っておかなければならない。各顧客ごとに設計し直さなけれなならないような製品を、追い求めることは避けるべきだ。残念ながらそれは急速に成長しようとするベンチャーの足を引っ張るばかりなのだ。

画像:Bryce Durbin/TechCrunch

マンマシンインタフェース

心で機械を制御したり、機械で心を制御したりすることは、SFの領域に任されてきた。それが最近では、科学者は現代のAIツールを活用して私たちの心の奥底を覗き込み、病気の治療や、機械に対する未来のインターフェイスの開発に応用しようとしている。

避けるべきこと:私たちの心で制御できたり、あるいは心を制御したりする機械(恐ろしい)を作ろうとしてはならない。私たちは信じられないほど洗練された脳-機械インターフェース、すわなち私たちの体、を持って生まれてきた。私たちはおそらく、車輪が発明される前から、話したり、歌ったり、踊ったり、描いたり、書くたり、音楽を作ったり、そして物語を語ることができた筈だ。棒の先の泥で描かれた単純な絵文字は、おそらく洗練された深層学習に裏打ちされた最高級のヘッドセットよりも、より良く感情を伝えることができるだろう。そして、私たちの幅広い視覚、聴覚、嗅覚、そして触覚は、私たちの直感と組み合わさって、私たちの脳に飛び込んでくる超高速道路の機能を果たしている。

やるべきこと:私たちの体に既に備わる、豊かな入出力システムと連携して、忘れられない体験を生み出そう。このアドバイスは聞いたことがあるって?その通り、AR/VRの創業者たちがすべきことと同様のものだ。ジョイスティックはAtariの成功の鍵となったが、ゲームセンターのユーザーに積み上げた硬貨を次々と投入させたり、親たちに800ドル以上(インフレ調整済)の金をAtari 2600に払わせたのはパックマンとPongというゲームそのものだったのだ。

視覚、聴覚、嗅覚と組み合わせ、おそらく個々人の履歴によって訓練された脳のインターフェースは、忘れられない経験をもたらすことができるだろうか?それぞれの個人に合わせて調整されて、他にはない官能的な体験につながるような、刺激の組み合わせを人工ニューラルネットによって生成することは可能だろうか?

画像:Bryce Durbin/TechCrunch

教育

私たちの教育システムは変革の時を迎えている。edXとCourseraが世界最高の教育者たちを、地球上のあらゆる場所に連れて来ているが、そこにはまだ革新の余地がある

避けるべきこと:私たちの古典的な教育モデルの範囲内で構築してはならない。現在使われているシステムは大恐慌直後に発明されたものだ:それが生み出された時代は現在とは社会規範も、キャリアプロフィールも、雇用主も、そして学生からの期待も大きく異なっていた。私の父親の世代では、4年間の教育で生涯のキャリアのための準備を整えられると考えられていた。それに2年から5年間の大学院教育を加えることで、追加の収入とより強い雇用保証が約束されていた。

今日、学部で必要な25万ドルという学費に対して、それに見合った収入につながるという見通しは確実なものではない。伝統的な教育の要素を、電子プラットフォーム上に移植するだけでは、すでに混雑している教育用「製品」の市場に、単に別の選択肢を提供するだけのことだ。

やるべきこと:常に変わり続ける職場のニーズに必要とされるスキルを、常に予想し学生たちに与えることができるようにしよう。テクノロジーは労働のあらゆる側面に急速に浸透しており、ニュースで一般的に叫ばれていることとは異なり、それは労働者たちを置き換えようとはしていない。その代わりにそれぞれの能力を拡大しようとしているのだ(さらに詳しく後述する)。

学生と一緒に進化し、彼らのキャリアを通して寄り添い続ける教育ツールを発明しよう。価値ある生涯教育ツールは、職場の変化するニーズを予測し、自動的にトレーニングを提供する。このコンセプトは、医療従事者たちには新しいものではない。文献を追い続け、常に再認定され続ける必要がある。残念なことに、規制の緩い分野の専門家たちは、訓練を追求する先見性を個々人が持たなければならないが、年齢と共に家族への責任が重くなってくることがそのことを困難にして行くのだ。

さらに、医療以外の分野では知識は効果的に広められていない。AIを使用して、特定の分野のベストプラクティスを特定し、それらを広めることは可能だろうか?未来の教育ツールは、変化する労働に必要とされるスキルセットを予測し、パーソナライズされたトレーニングを提供できるだろうか?

画像:Bryce Durbin/TechCrunch

ブロックチェーン

暗号通貨(仮想通貨)の背後にある不安定性と投機性は、ブロックチェーン技術の力そのものと並んで、多くの起業家たちに、暗号通貨を使ったスタートアップの起業について真剣に考えさせている。

避けるべきこと:投機の勢いに飲み込まれて踊ってはいけない。多くの人が1990年代のIPOバブルを忘れてしまったようだ。その当時のことを振り返ってみれば、何らかの形で「インターネット」とつながりがある「いかなる」企業も、値上がりが期待されるという理由で公開を勧められていたのだ。間違って株式を買ってしまった者たちもいた。彼らの買った株はみるみる急上昇して行った…音楽が止まるまでは。なので、あなたの提供するコインが、ただコインだという理由だけで、適切だと考える投機家たちを食い物にしてはいけない。

やるべきこと:単純な質問をしてみよう:ブロックチェーン技術があなたのビジネスをどのように支えてくれるのか?それを使うことでユニークな製品は提供できるのか?それを使うことで、既存製品の売上は改善するのか?それを使うことで、市場への浸透性が増したり、ネットワーキング効果は高まるのか?

もしコインオファリングをやりたいと思っているのなら、ビジネスの成長に合わせてどのようにあなたの暗号通貨の価値が増えていくのかについての、はっきりとしたシナリオを描くべきだ。ブロックチェーンのどのような性質が、この価値創造の中核となってくれるだろうか?より多くのユーザーが参加し多くの取引が行われることで、どのように通貨の本質的な価値が生まれるのかについての、しっかりとした仮説を立てておこう。

画像:Bryce Durbin/TechCrunch

ロボット

ロボットが仕事を創造するのかそれとも破壊するのかについては、盛んに議論されてきた。パワフルな計算力、アルゴリズム、安価なセンサーとアクチュエーターは、創業者たちに面白い自動化企業を立ち上げるチャンスを与えてきた。このことによってより生産的で競争力のある人間の労働力が生み出される。

避けるべきこと:人間を置き換えようとしてはならない。歴史を通して、発明家たちは人間を模倣する巧妙なガジェットを作り上げてきた。しかし、最も成功したマシンたちは、人間の力を拡大するもので、それらを置き換えるものではなかったのだ。ロボット執事として働く、2足歩行のヒューマノイドを作ろうとしてはいけない。工場の床で、人間のいた場所に立つ仕掛けを作ろうとしてはいけない。受注処理センターの中を走り回り、人間よりも速く箱をピッキングするようなロボットを作ってはいけない。

やるべきこと:人間に力を与えよう。組立ライン技術は工場労働者の生産性をより高めたために、普及することができた。コンベヤーベルトとバーコードは、人間による仕分けや注文の取りまとめをより速くすることができたので、すべての受注処理センターに導入された。

工場や倉庫にはすでに多くの自動化が導入されている。これ以上人間を支援するにはどうすれば良いのだろう?そのロボット支援によって、収益にはどのような影響があるのだろうか?事業者の投資回収率はどのくらいだろうか?その回収された利益は、広く顧客に分配されるのだろうか?あるいは特殊なニーズを持った少数の見込み客に対して限られるのだろうか?

それが、車やiPhoneの組立であろうが、Amazonの受注処理であろうが、部屋の掃除だろうが、皿洗いであろうが、はたまたルームメイキングやグルメ調理であったとしても、尋ねられるべきことは以下の問いだ(1)そのロボットはどのように労働者の人生を良い物にできるのか?、(2)労働者の生産性の定量的な改善率はどのくらいになるか?要するに人間が中心なのだ。

ここでのアドバイスは一貫している:人間を重んじること。素晴らしく多様な人びとを引きつけて、強力な文化で絆を作り上げることで、あなたのスタートアップはわずかなリソースで予想以上の結果を生み出す力を得ることができる。投資家たちはこのような予想以上の業績達成動向を素早く把握し、より多くの人材を引き寄せるための資金を注入し、そのことが更に多くの売上を引き寄せる。こうして好循環が生み出され、あなたのスタートアップは競合相手より1歩先を行き、既存の大企業はバックミラーの中に小さくなって行く。そして新しい市場に力を与える新しい製品を可能にする新技術が創造され、すべての人類がその素晴らしい未来に近づくことになるだろう。

[原文へ]
(翻訳:Sako)

FacebookのARやVRそしてニュースフィードに3Dオブジェクトをポストできる…3Dが第一級メディアに昇格

たとえば上図のようなデジタルの3Dオブジェクトを作って、それをFacebookでシェアしたり、仮想現実の中で遊んだり、実際の世界に拡張現実として挿入できるとしたら、かなりすてきじゃないかな? Facebookは10月に、ニュースフィードに対話的3Dモデルをポストできるようにして、ユーザーがそれを動かしたり回転できるようになったが、今日(米国時間2/20)はそれを一歩も二歩も前進させた。

これからは、Facebookの3Dポストは業界標準のglTF 2.0ファイル形式をサポートするので、オブジェクトの質感や光の方向、オブジェクトのざらざら感やつるつる感などを表現できる。そして新しいGraph APIを使ってデベロッパーは、3Dモデルを作るアプリや、それどころかオブジェクトをニュースフィードで直接シェアできる3Dカメラ、3Dのポストを見せるWebサイトなどを作ったりできる。3Dオブジェクトは、ユーザーがドラッグ&ドロップでフィードに入れられる。またユーザーの3Dポストは、VRの出会いの場であるFacebook Spacesに持ち込める。

[指やマウスで動かせる3Dモデル]

たとえば、あなた独自のデザインでメタリックなチェスのピースを3Dモデルづくりのアプリで作り、ニュースフィードでシェアし、さらにFacebook Spacesに持ち込めば、そこで出会った人とチェスをプレイできるだろう。すでにLEGO, Jurassic World, Clash of Clans, Wayfairなどのブランドが3Dポストの実験をやっているから、ここでプレイしたり、あるいはこの記事の上でもプレイできる。

FacebookのソーシャルVRのクリエイティブ・ディレクターOcean Quigleyは、“3DをFacebookのエコシステムのネイティブな部分(基盤的な部分)にしたいんだ。今そのための基礎工事をしているところだけど、これからはFacebookとユーザーはVRやARの3D世界に自由に行き来できるようになるね”、と語っている。彼によると、ソーシャルネットワークが単純なテキストや写真やビデオなどから没入的なメディア(immersive media)に進化していくのは当然の歩みなのだ。

さて、3Dポストをシェアしたら、今度は背景色とか質感などを自由に選びたいだろう。Quigleyによると、そういったアップロード過程をなるべく簡単にして、高度なスキルのない者でもハイテクなポストを共有できるようにしたい。彼はglTF 2.0を“3DのJPEG”と呼び、GoogleやMicrosoftによるサポートを賞賛する。また別の形式の3Dオブジェクトを持っている人のためには、Facebookはコンバーター(変換ソフト)をGitHub上でオープンソースで提供しているから、ファイル形式を変換してFacebookへのポストも可能だ。

これがうまく行けば、Facebookにとって大きな強みになる。まずそれは、もっとも未来的なシェア方法だから、そのほかのソーシャルネットワークがずっと後方に置き去りにされてしまうだろう。Facebookのプロフィールが“3Dの自撮り”になったり、友だちから集めたオブジェクトでみんなと遊んだりできる。そして、サードパーティなども参加して優れた3Dのアバター制作ソフトを作れば、あなたの写真から作られたあなた自身の仮想バージョンがFacebook上を動き回る。おともだちもびっくり! FacebookがSnapchatのBitmojiアバターの競合製品を作るのも、時間の問題だ。

そして消費者であるFacebookユーザーが、単なる写真よりは拡張現実を試すようになれば、マーケターや広告主にとっても(魅力や説得力の点で)ありがたい。すでにSonyなどは、そんな拡張現実コマースをやり始めている。またWayfairでは、ユーザーが自分の家の写真に、買ってみたい家具の3Dの拡張現実を、‘試着’ならぬ‘試設’できるようにしている。

Facebookはこれまでも、360度写真など新しい形式のコンテンツを積極的に採用してきた。すでに14歳を過ぎたFacebookが、ティーンの心を捉えようとして、ライブのビデオやGIFも導入した。FacebookのプロダクトマネージャーAykud Gönenがこう書いている: “人びとがVRやAR、Facebookのニユースフィードなどで、そのような没入的な体験やオブジェクトをシェアできる、シームレスなデジタル世界を目指したい”。

もちろん現実世界のすべてを拡張現実でカバーするほどの大量の3Dオブジェクトは、Facebookだけで作れるものではない。サードパーティのデベロッパーと一般ユーザーの協力が不可欠だ。Quigley曰く、Facebookの中でオブジェクトを作れるような“3Dエディティングツール”を提供するつもりはない、と。でも外部のクリエイターがそんなものを比較的簡単に作ってインポートできるなら、スマートフォンやヘッドセットや、未来のARグラス(めがね)からのARVRの没入的体験が、とってもすばらしいものになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AR砂遊びなどを楽しめる次世代テーマパーク運営のプレースホルダ、TBSらから6億円を調達

体験型のデジタルテーマパーク「リトルプラネット」を展開するプレースホルダは2月15日、TBS、インキュベイトファンド、みずほキャピタルを引受先とする第三者割当増資により、総額約6億円を調達したことを明らかにした。

リードインドベスターを務めたTBSは今回の出資によりプレースホルダ代表取締役の後藤貴史に次ぐ持分を保有し、プレースホルダは関連会社になるという。

リトルプラネットは「アソビがマナビに変わる」をテーマにした体験型のデジタルテーマパークだ。AR・VRやセンシング技術など最新のテクノロジーを取り入れて、子どもだけでなく大人でも楽しめる空間を提供している。

たとえば「SAND PARTY!」は砂場と映像を組み合わせた、“AR砂遊び”アトラクション。砂場の形状に応じて様々な演出が発生するほか、ARガジェットを使って宝箱を開けたり、見えない生き物を虫眼鏡でみるといった未来感のある体験を届ける。

ほかにも実際にはインクの出ないスプレーを使って壁やVR空間でラクガキができる「SPRAY PAINTING」や、リアル空間にデジタル積み木が融合するAR積み木「Little Builders」、ブロックを操作してキャラクターを目的地に導く過程でプログラミング脳を養える「WORD ADVENTURE」など、見ているだけでワクワクするアトラクションが並ぶ。

現在は東京都立川市にあるららぽーと立川立飛にて期間限定(2018年2月25日まで)でテーマパークを運営しているほか、7月20日からはハワイのワイキキ水族館でも展開する予定だ。

今後はパーク数の拡大のほか、TBSの持つエンターテインメントアセットを活用した新しいコンテンツ開発などにも取り組む方針。同社では「リトルプラネットを起点として、子どものやる気に火をつけ、創造力を駆使して新たな価値を作るきっかけを与えていけるエデュテインメント領域のリーディングカンパニーを目指します」としている。

なおプレースホルダは2016年9月の創業。代表取締役の後藤貴史氏はポケラボの創業者でもある、連続起業家だ。

Magic LeapがTurner SportsならびにNBAと提携し、試合をアプリにストリーミングで配信する

Magic LeapNational Basketball Association(NBA)はTurner Sportsと提携して、そのプラットフォーム上での試合の生中継を、Magic Leap Oneの”Creator Edition”に提供されるアプリを使って視聴できるようにする。

カリフォルニア州ハンティントンビーチで開催されたCode Mediaカンファレンスで発表されたこのパートナーシップは、非常に漠然として、非常に曖昧な、Magic Leapの(少なくとも私が聞いたことがあるものの中では)初めてのユースケースだ。

その体験はほぼバーチャルリアリティのように聞こえる。ファンたちは試合のコート脇にいるかのような体験を得ることができるのだ。

「Magic Leapと手を組む前の私たちの目標は、コート脇の体験を再現することでした」と語るのはNBAコミッショナーのAdam Silverである。Magic Leapを使うことで、より異なる体験を味わう機会が増える。

「普通のテレビで楽しめる要素は全て提供した上で、それが何倍にも膨らみます」と語るのはMagic LeapのCEOであるRony Abovitzだ。

Silverは、3社のパートナーシップを、人びとがTNT(テレビネットワーク)の上で観ている試合を、Magic Leapのクオリティで見せる方法だ、と説明した。

AbovitzはMagic Leapを、それなりに高価なプレミアムコンピューターと表現している。「必ずしも、すべての人がすぐに必要とするものではないのです」とAbovitzは語る。

謎は残されたままだ。SilverとAbovitzはこの技術を説明するために「ともかく私たちを信じて欲しい」作戦を採用している。2人は舞台上にMagic Leapを持参しなかったが、Shaquille O’Nealが技術を称賛するビデオは上映した。

「4つ、6つ、8つのスクリーンを呼び出すことができると想像してみて下さい。統計情報やデータのすべてが表示されています。素晴らしい瞬間や、うなりをあげてバックボードに当たるダンクシュートなどを、すぐに、間近で見ることができるのです」とAbovitzは語る。

O’NealはMagic Leapのレンズを通じて、世界を眺めた最初のバスケットボールのスター選手ではない。昨年Andre Iguodalaは、同社の技術の一部をうっかり漏らしている

私の同僚であるLucas Matneyは、Magic Leapヘッドセットについての説明を、最初に公開されたときに書いている。

ヘッドセットのデザインは、特許やリークによって以前から伝えられきたものに、かなり似ているが、ヘッドセットの前面のゴツさは少々驚きだ。しかしフレームのサイズは、Magic Leapがヘッドセットの視野をどの程度広げることができたのだろうか、という疑問を生じさせる。同社は”Digital Lightfield”(デジタル光照射野)テクノロジーを使用しているとは語っているものの、それが実際に何を意味しているのかを私たちは知らないし、真に光照射野テクノロジーを利用しているのか、それともそれを単純に模倣しているだけなのかということについても分かっていない。スタートアップは、コントローラ以外の入力として、ヘッドセットから、音声、ジェスチャ、頭部のポーズ、および視線追跡を取り込むと説明している。

Rolling Stoneとのインタビューで同社は、ユーザーは処方レンズを購入することができ、ヘッドセット自体は2つのサイズで提供されると述べている。

ソフトウェア側では、Magic Leapはプラットフォームの能力を強調している。2018年初頭にはCreator Portalが登場する予定で、開発者たちにはより多くの文書、ツール、リソースなどが提供される筈だ。

同社がコンシューマー向けリリースで目指していることはまだ不明な点が多いが、このデザインはMagic Leapが達成できると考えていることを基にしているということは間違いない。もちろん「製品は継続的に進化しており、出荷時には異なるものになる可能性があります」というアナウンスにも注意しておこう。

Magic Leapを見て、実際の試合に対して競争力のある経験を提供できると考えるNBAのオーナーもいると思うが、SilverはNBAチームの3人のオーナーたちが実際にMagic Leapへ投資を行っていることも明かした。

この話は継続している。可能な限り更新していく予定だ。

[原文へ]
(翻訳:sako)

Facebookの全身トラッキングの研究からはAR/VRへの大きな意欲が感じられる

ARとVRのエンターテインメントとコミュニケーションの両方の目的で、Facebookが大きな投資をしていることは、今や誰もが知っている。そしてその新しい研究は、顔を変えたり置き換えたりするだけでなく、全身を対象とするARアプリケーションに同社が取り組んでいることを示唆している。

今日のブログ記事では、 AIカメラのチームが、VRまたはARで全身の置換や追跡を明らかにねらっていると思われる成果を紹介している。

その記事で研究員たちはこう書いている: “われわれは最近、体のポーズを正確に検出し、人と背景を分ける新しい技術を開発した。われわれのモデルは今はまだ研究の段階だが、数メガバイトしか必要とせず、スマートフォン上でリアルタイムで動かせる”。

もちろん、これまでにも同様の研究はある。たとえば骨格トラッキングはいろんな産業でよく使われている。それにこのブログ記事は、大きな進歩を主張するというより、この特定のシステムとそのニューラルネットワーク部位の操作について書かれている。

でもしかし、Facebookは明らかに、モバイルにおける効率的で容易な実用化をねらっている。つまりそれは、センサーのデータ、画像の解像度、リフレッシュレート、処理能力などの点で制約のある環境だ。彼らがMask R-CNNと呼ぶこのテクニックは、その方向での良い前進だ。

これからは、Facebookからこのようなものが、続々と出てくるのだろう。同社は、このような研究に配置する研究インターンまで募集しているのだから。

画像提供: Facebook

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

LenovoからGoogle WorldSenseベースのVRヘッドセット――Mirage SoloはQ2出荷で400ドル以下

今日(米国時間1/9)、CES 2018でGoogleのWorldSense VRテクノロジーをベースにポジション・トラッキング機能をサポートするDaydreameヘッドセットの現物を初めて見る機会があった。Lenovoが公開したMirage Soloヘッドセットは今年第2四半期に出荷が計画されている。これはスタンドアローン・デバイスでQualcomm 835チップセット、4GBのRAM 、 64GBのメモリをオンボードで搭載している。

またデュアル・マイク、ヘッドフォンジャック(ちゃんと付属する!)、2560×1440の液晶スクリーンを備える。Lenovoによれば、バッテリー駆動時間は7時間だというが、これが正確ならすばらしい。

ビッグニュースはこのデバイスがGoogle WorldSenseをベースとしていることだ。Microsoftの混合現実系VRヘッドセットにも似たシステムが採用されているが、WorldSenseは同様のインサイドアウト方式のポジション・トラッキング・システムを用いている。

Mirage Soloはポジション・トラッキングを内蔵しているが、Wiimoteに似たコントローラーが操作性をある程度制限することにになるだろう。このコントローラーはGoogleのスマートフォン・ベースのモバイルVRヘッドセット、Daydream Viewのものと同一のレイアウトだ。Oculusはやはりポジション・トラッキング能力を備えたコードネーム、Santa Cruzというヘッドセットを開発中だ。これは現在のハイエンドのヘッドセットなみのユーザーを体験を与えるという。

GoogleのVRストアにはDaydream上のコンテンツは多数出ている。 問題はデベロッパーにコンテンツをポジション・トラッキングに対応させるアップデートを促すだけの売れ行きをLenovoのヘッドセットが得られるかどうかだ。 3軸の回転運動と平行移動に対応する6DoF(〔6自由度〕対応トラッキング・テクノロジーはきわめて高度なユーザー体験をもたらす。また今日GoogleはSoloでプレイできる『ブレードランナー』ベースのゲームを発表した。

LenovoはSoloヘッドセットの価格をアグレッシブに設定してきた。まだ最終的な価格は決定されていないものの、同社によれば400ドル以下になるという。現在Soloは
WorldSenseベースで唯一の市販ヘッドセットとなる。新たな提携関係についての発表は特になかった。WorldSense唯一のデバイスという状態はこの先もう少し続きそうだ。HTCは以前、Googleプラットフォームでヘッドセットを開発する計画を進めていたが、後にキャンセルしてQualcommと提携し、中国市場向けにVive Focusヘッドセットを独自に提供している。価格は600ドル程度だ。

LenovoのVRヘッドセットはFacebookのOculus Goの主要なライバルとなるかもしれない。Mirage Soloは199ドルのGoヘッドセットが欠いているポジション・トラッキング機能を備える他、ハードとしての能力も優れている。またVRには興味があるがデスクトップ・パソコンや専用ゲーム機に接続する高価で取り扱いも面倒なハイエンド・モデルに手を出すのをためらっている消費者にとっても魅力的な価格帯だろう。

〔日本語版〕SoloはGoogleの日本語サイトで予告されている。アウトサイドイン/インサイドアウトのポジション・トラッキング・システムについてAcerのサイトがわかりやすいイラストで比較している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AR/VRは空ブームが去って小休止、巨額な投資の大半は大物企業の底入れに向かう

拡張現実や仮想現実の技術に取り組んでいるテクノロジー企業は2017年に、30億ドルあまりのベンチャー資金を調達した。このニュースを報じたアナリティクス企業Digi-Capitalのデータによると、ARやVRをめぐる空騒ぎは下火になったものの、そこに注ぎ込まれるキャッシュの量は相変わらず増え続けている。

たしかに2017年の金額は2016年の投資額に比べて増えているが、しかしディールフローそのものは軽くて、わずか4つの案件が総額30億ドルの大半を占める:

億単位の資金を調達したNiantic, Improbabl, Unityなどの大物はAR/VR技術の将来性を投資家たちにうまく売り込んだと思われるが、それだけの資金量を獲得できた背景には、強力で伝統的なゲーム業界がある。

その中にあってMagic Leapは、業界の最大の一匹狼だ。彼らの最初の製品がどんなものか、そろそろわかりかけてきた今日では、彼らがだんだん、まともな企業に見えてきている。その製品がいつなんぼで出るのか、それはまだ不明だが、もっと分からないのは、彼らが企業市場と消費者市場のどっちに軸足を置くのか、という点だ。

2016年と2017年にVRのプロジェクトでシードラウンドを稼いだ小さめの企業は、Crunchbaseが示すように案件は徐々に減少し(右図)、泡沫企業の整理と、AR/VRスタートアップに対する継続投資の先細り、そして廃業が続くものと思われる。

2017年の後半はヘッドセットを使うVRからモバイルのARに焦点が移り、AppleのARKitやGoogleのARCoreなどが関心を集めた。しかし実際のアプリケーションは単なる視覚化があまりにも多く、平凡なものばかりだったので、受けはあまり良くなかった。消費者向けARヘッドセットは市場が大きく枯渇し、AppleやMicrosoft、Magic Leapなどが10年後の消費者に向けて今年以降何をやるか、様子見モードに入った。

今後伸びるであろう芽はいくつかあるが、AR/VRの空騒ぎは2017年で一掃され、勢いはなくなった。次の一歩は、Google, Apple, Facebook, Microsoftなどの大金持ちたちの動静次第だ。スタートアップのための資金は今年も潤沢と思われるが、AR/VRのような新興技術は、落ち込みがしばらくは続くだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのDaydream Viewが12月13日に国内発売。価格は1万2000円、すでに入荷待ち状態

eng-logo-2015GoogleがVRヘッドセット「Daydream View」を12月13日にGoogleストアで発売すると発表しました。価格は1万2000円(税込)。すでに予約が開始されていますが、初回分は売り切れたようで、現在は入荷時にメールで連絡がくるウェイティングリストへの登録ボタンが表示されています。

Daydream ViewはGoogleのVRプラットフォーム、Daydreamを利用するためのヘッドセットで専用のモーションコントローラーが付属します。

今回発売されるのは10月にPixel 2などと共に発表された第2世代モデル。第1世代と比べ、視野角が約10度広くなり、装着感も改良。スマートフォンを組み込むフラップ部分が放熱構造になるなどの改良が加えられています。

GoogleのスマホVRゴーグル DayDream Viewに新モデル、視野角が拡大。日本でも販売予定

海外ではフォグ、チャコール、コーラルの3色展開されていますが、残念ながら国内では濃いグレーのチャコールのみ。

SamsungのGear VRなどとは違い、スマートフォンを接続する必要はなく、フラップ部分に挟んで利用します。原理的には段ボール製VRゴーグルのCardboardと同じです。ただし、利用するには対応したスマートフォンが必要です。


▲フラップ部分にスマートフォンを挟み込みます

国内で販売されている端末では、Galaxy S8/S8+、Note8、ZenFone AR、Axon 7、Moto Z/Z2が対応。今後発売予定のドコモのV30+、auのisai V30+も対応し、ドコモではV30+購入者全員にDaydream Viewをプレゼントするキャンペーンを実施予定とのことです。

VRは利用者以外、一緒にいる人には何が写っているのかわからず、体験の共有が難しいという問題がありますが、DaydreamではChromecastと連携し、TVに表示内容を映すことも可能。

対応コンテンツもグローバルで250を超えており、先日はVRシューティングゲーム「Rez Infinite」のDaydream対応版もリリースされています。

先にも書きましたが、すでにGoogleストアでは入荷待ちの状態。13時過ぎに確認した際は12月27日~31日の配送予定となっていました。このため、いまから年内に入手するのは難しいかもしれません。

Engadget 日本版からの転載。

現実世界のような操作感、VR空間コンテンツのSynamonが5000万円調達

企業向けのVR/AR/MRコンテンツを開発するSynamonは11月30日、ジェネシア・ベンチャーズKLab Venture PartnersBEENEXTABBALabを引受先とする第三者割当増資を実施したと発表した。調達金額は5000万円で、これが同社にとって初めての外部調達となる。

Synamonは企業向けのVR空間構築ソリューション「NEUTRANS」を開発するスタートアップだ。これは企業向けVRコンテンツの土台となるようなもので、1つのVR空間に複数人が同時にアクセスできることや、音声でコミュニケーションをとる、空間にあるモノを掴む、動画を表示するといった各種機能をベースシステムとして提供している。

現在、彼らの主なビジネスはNEUTRANSを土台にした企業向けのVRコンテンツ開発することだ。取材の際、NEUTRANSを利用したVRコンテンツの一例として見せてくれたのが旅行会社向けのVR接客ルーム。この空間では顧客と営業員が同時接続して音声でコミュニケーションがとれるほか、営業用パンフレットをVR空間の中で見たり、現地で撮った360度動画に入り込んで旅の雰囲気を味わうこともできる。

最大の特徴はリアルな操作性

TechCrunch Japanの読者であれば、複数人が同時接続するVR空間と聞いて「cluster.」の名前が思い浮かぶ人もいるかもしれない。cluster.とNEUTRANSは両方とも、複数人が入り込むVR空間を提供するという点は同じだ。一方でSynamon代表取締役の武樋恒氏は、NEUTRANS独自の特徴について次のように語る。

「cluster.は1000人規模の同時接続が特徴であるように思うが、NEUTRANSは空間内での操作性に力を入れている。同時接続できるのは20人程度だが、モノを掴んだりするなど操作のリアルさが特徴だ。また、“VR酔い”しないようにFPS(フレームレート)を90程度と高く保つことにも力を入れた」(武樋氏)

僕も実際にViveのHMDを装着して試してみたのだけれど、なるほど、モノを掴んだり投げたりするときのリアルさには感動した。VR空間にあるボールをつかんで投げたときの跳ね返りは現実世界での物理運動のそれに限りなく近いし、積み木を机の端まで少しづつ押していくと、グラグラとゆっくり落ちていく。より細かな操作まで可能になれば、飛行機や自動車の修理シュミレーションとしても使えそうだ。

「体験したユーザーの中には『思ったより普通だね』というフィードバックをくれる人もいる。試してみる前はゲームのようなものだろうと思っていたが、NEUTRANSでは現実と同じような感覚だ、という意味で頂いた言葉だった」(武樋氏)

市場自体を作ることが先決

このようなVR空間を顧客のニーズに沿ってカスタマイズするのがSynamonのビジネスだが、NEUTRANSという土台があるからこそ開発期間も短く、平均して1ヶ月でプロダクトを仕上げることができるという。先ほどの旅行会社向けVR空間を例にすると、開発料金は300〜500万円だそうだ。また、来年春ごろからは特に引き合いの強かった「VR会議室」を完成品として提供する。

でも、この値段で儲かるのかと聞いてみると、やはり利益は出ないのだそう。

「企業にVRコンテンツを導入してもらうためには、まずは市場自体を作る必要がある。まずは使ってもらうことが重要だ。一度使って貰えれば、その後のカスタマイズなどで継続的な収入に繋がる可能性もある。その意味でいえば、他のVRスタートアップはライバルではあるが敵ではない。一緒にVR市場を大きくしていく仲間だと思っている」(武樋氏)

今回調達した資金を利用して、Synamonは開発機材の拡充や人材の強化を進める。特に、Unity、C#、C++、JAVAエンジニアや3Dデザイナーなどの採用を進めていくという。

そういえば、Synamonはつい先日オフィスを五反田に移転したばかりだ。その新しいオフィスには、ユーザーが気軽にVR空間を体験できるスペースを設けるそうだから、五反田駅で降りた際にはちょっと寄り道してみてもいいかもしれない。TechCrunchを読んだと言えば、たぶん、彼らも快く受け入れてくれるだろう。

Synamon共同創業者の2人。左より、テクニカルアーティストの西口雅幸氏と代表取締役の武樋恒氏

通販サイトの訪問客をVR空間上で可視化、ウェブ接客のプレイドが「カルテガーデン」を公開

「VR元年」と言われた2016年に続き、2017年もVR市場拡大の勢いは増していて、2017年第3四半期にはVRヘッドセットの出荷台数が初めて100万台を超えた。そんな中、通販サイトへの訪問客の動きをVR空間上でリアルタイムに可視化するサービスが現れた。

ウェブ接客プラットフォーム「KARTE」を提供するプレイドは11月29日、ファッションアイテム卸・小売のパルの協力を得て、パルが提供する通販サイト「PAL CLOSET」をVR空間上でお店として出現させ、買い物中のユーザーの動きが見える「K∀RT3 GARDEN(カルテガーデン)」を開発したことを明らかにした。

カルテガーデンは、買い手にとってのVRショップではなく、売り手にとっての売場把握のためのツールだ。カルテガーデンでは、サイト来訪者の属性や商品ページを閲覧する様子などを、“人型”のオブジェクトが仮想の“売場”を回遊しているかのようにVRで表示し、ユーザー行動を直感的にとらえることが可能。各ユーザーにフォーカスを絞ると、それぞれの過去の行動履歴なども個別に見ることができる。

プレイドではカルテガーデン開発について、ウェブ接客プラットフォームのKARTEで目指してきた「インターネット上の顧客を知る」「顧客に合わせて接客する」というコンセプトを、テクノロジーを用いて表現することにチャレンジした、と説明している。

カルテガーデンは2018年1月末まで、ブレイド本社で予約制で体験できる。企業・学生を対象とした体験の申し込みフォームにはここからアクセスできる。

2017年Q3:VRヘッドセットの出荷台数が初めて100万台を突破――トップはソニーのPS VR

VRヘッドセットの出荷台数は、当初の目が飛び出るような予測値には届きそうにないが、現在でも増え続けている。

Canalysのレポートによれば、各社の2017年第3四半期の出荷台数は、ソニーの『PlayStation VR』が49万台、Oculusの『Oculus Rift』が21万台、HTCの『Vive』が16万台だった。前四半期のデータは公開されていないが、四半期あたりの出荷台数が100万台を超えたのは今回が初めてだとCanalysは語る。

アナリストの予想通り、ソニーの一人勝ち状態が続いており、これにはPlayStation 4とつなぐだけでパソコンいらずというPlayStation VRの手軽さが大きく影響している。そのため、HTCとOculusの間ではこれまで互角の戦いが続いていたが、Oculusの親会社であるFacebookがOculus Riftの価格を大幅に下げたことで、今回はOculusに軍配が上がった。

現在の小売価格は、PlayStation VRとOculus Riftが399ドル、HTC Viveは他社より高く599ドルとなっている。また今回のCanalysのデータから、ソニー、Oculus、HTCの3社がハイエンドVRヘッドセット市場の86%を占めていることがわかった。なおMicrosoftは、『Windows 10 Mixed Reality』と名付けられた、VRコンテンツ用のプラットフォームを今期ローンチ。同プラットフォームには、SamsungやDell、Lenovo、HPなどでOEM生産されたヘッドセットからアクセスできる。

グラフィック負荷の大きいゲームにも対応しているというのが、ハイエンドVRヘッドセットの特徴のひとつではあるものの、ユーザーが動き回れるようにするための位置トラッキング機能は、今後一体型のローエンドモデルにも搭載されることになりそうだ。LenovoはGoogleと共同で開発した、位置トラッキング機能を備えたスタンドアローンのヘッドセットを数か月中にローンチ予定で、Oculusも引き続き、コントローラーにモーショントラッキング機能がついた『Santa Cruz』の開発にあたっている。

原文へ

(翻訳:Atsushi Yukutake

テレビ局などにVR×AIサービスを提供するジョリーグッド、ディップらから総額4億円を調達

テレビ局や制作会社向けのVRソリューション「GuruVR Media Pro(グル・ブイアール・メディアプロ)」や、VRコンテンツとユーザーの視聴行動を解析する人口知能エンジン「VRCHEL(ヴァーチェル)」などを提供するジョリーグッド。同社は11月16日、ディップ、エースタートを引受先とした第三者割当増資により、総額約4億円の資金調達を行ったことを明らかにした。

ジョリーグッドは2014年5月の創業。代表取締役CEOを務める上路健介氏は、テレビ局で技術者として番組制作に従事した経験を持つ人物だ。

同社が展開するサービスのひとつGuruVR Media Proは、テレビ局や制作会社向けのVRソリューション。撮影から編集、配信までの制作環境をワンストップで提供していることが特徴で、撮影や編集システムに加え、配信や効果測定に活用できるCMSも備える。

2016年6月のリリース以降、すでに北海道放送の「HBC VR」やテレビ西日本の「VR九州」、毎日放送の「絶景散歩VR」など各地のマスメディアと共同で多数のVRサービスを展開している。

おなじく同社が手がけるVRCHELは、VRコンテンツの属性とユーザー視聴行動のパターン解析を行う人工知能エンジンだ。映像や音声から各VRコンテンツの詳細を分析するだけでなく、実際に視聴したユーザーの行動を分析することで最適なソリューションを提案できるのが強み。こちらも東海テレビと共同で展開するVRアプリ連動テレビ番組などで活用されているという。

ジョリーグッドでは今回の調達資金によりサービス拡充と体制強化を行い、引き続き地域や企業にVR×AIソリューションを提供していく。

交通騒音も路上と室内では違う…3D空間内の複雑な音響編集を助けるResonance AudioをGoogleが発表

拡張現実(augumented reality, AR)は、コンピューターとの対話を三次元化するという展望により、徐々に伸びつつあるが、すでにいろんなプラットホームを提供しているGoogleは、その三次元空間に視覚だけでなく五感のすべてを持たせたいようだ。

今日(米国時間11/6)Googleは、同社のVR Audio SDKをベースとして、より総合的な空間オーディオプロダクトResonance Audioをモバイルとデスクトップ両用に作っていることを発表した。

Googleの説明によるこのSDKの用途は、“本物の音が人間の耳や環境と対話する”様相を再現することだ。たとえば、現実の音が物や環境によって歪むという現象も、ARの仮想的シナリオにおいて再現する。

たとえばあなたが大型ラジカセを持って歩いている仮想キャラクターだとすると、何かの曲を鳴らしながら開放的な空間を歩いているときと、吹き抜け階段を降りているときとでは、音はどう違うのか? Resonance Audioが対応しているこのような多様な状況により、ユーザー(デベロッパー)もそんな状況を三次元の奥行きの中で音で再現できるようになる。

またResonanceはデベロッパーがシーン中の音源を指定できるだけでなく、音源が動く方向も音質の変化で表すので、たとえばあなたがデジタルのキャラクターのうしろを通るときと、顔の前を通るときでは、反響音を変えられる。

上で例を述べたようなさまざまな状況の変化は、ゲームのデベロッパーにとってはおなじみのものだが、しかし複数の(数十の)音源が同時にいろんな状況で対話的に鳴るといった複雑な設定では、その対応も難しい。CPUはビジュアルにかかりっきりで忙しいことが多いから、音の表現のこのような複雑性は予想外の困難性をもたらし、結局ベーシックなオーディオだけで発売してしまうこともありえる。Resonanceはたとえば、一部の音のリバーブを、いろんな環境ごとに事前に作っておくといったトリックにより、音のリアルであるべき対話性が時間的にずれる、といった問題を解消する。

ResonanceはUnityやUnrealのようなゲームエンジンとも併用でき、またいろんな音響編集作業のためのプラグインも用意しているから、既存のワークフローとの相性も良いだろう。

GoogleはVRやARの基盤的技術への関心をベースとして、さらにそれらをゲームの開発に応用しようとしているようだ。先週Googleが見せたPolyは、3Dのアセットや環境のためのホームだ。そしてResonance Audioが空間的オーディオを提供し、よりリアルな音の開発を容易にする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

仮想現実の中で使えるキーボードをLogitechが実験中、SDKも提供

キーボードは誰もが知ってる単純な装置だが、これで仮想現実(virtual reality, VR)を操作しようとすると、ものすごくたいへんである。ブラインドタッチのベテランの人でも、VRのヘッドセットが目を覆っている状態では、その仮想世界の中にいながらにしてキーボードを見つけることすら、難しい。

これまで何千億種類ものキーボードを作ってきたLogitechは、キーボードがVRの世界から村八分になることを望まない。そこで同社は、VR用キーボードというものを作った。というか、現状はHTC Vive用だ。これがあれば、仮想世界の中で自分の手がわかり、キーボードの所在もわかる。

そのキットには、三つの部分がある: (1)キーボード、(2)Viveにキーボードの所在を教えるためのセンサー、(3)キーボード操作のあるVRアプリをデベロッパーが書けるためのSDK。

下のでもビデオでお分かりのように、仮想世界の中にあなたの青い手と、キーの色がさまざまなキーボードが現れる。Logitechに、その仕組みを聞いたら、“Viveの既存のトラッキング機能を利用しただけ”、とだけ彼らは答えた。

なお、現状はまだささやかな実験の段階だ。現状でキットを50用意しているので、試してみたいデベロッパーは11月16日までに申し込むこと。詳細は、このページにある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AR/VRのWeb上の標準的なサポートとは?…Mozillaがそれを独自のJSライブラリWebXRで実験中

現時点ではVRやARの有用性を疑問視する声もあるが、開発とデプロイをもっと容易にしろ、という意見では全員が一致するだろう。とくに問題なのが、Web上だ。そこでMozillaは、総合的なフレームワークに取り組むことによってデベロッパーに、ユーザーが選んだ(多様な)混成現実のプラットホームにアクセスするための、標準的でドキュメンテーションの充実したツールを提供しようとしている。

Web上では基本的に何でも、デスクトップブラウザーとモバイルの両方に容易にデプロイしようとすると、難しくなる。これにVRやARのヘッドセットなど混成現実の要素が加わると、さらに難しい。だからWeb上でVR/ARが本格化するためには、容易なデプロイが必須条件だ。

Mozillaは以前、Googleなどと共にWebVR APIを作った。それにより昨年は、ブラウザーが面倒なプラグインなしでVR体験を提供することができた。上述の‘総合的なフレームワーク’仮称WebXRは、そのAPIの拡張で、WebVRに拡張現実(AR)の要素を加える。だからここでは、‘総合的’とは‘混成’という意味だ。

つまり、AR/VRのいろんな概念、たとえばオブジェクトのアンカーリングなどの実装が、ARCore, ARKit, Hololensなどプラットホームごとに異なっていても対応できる共通言語を作ろう、というのだ。けっこう、たいへんな仕事である。今回Googleはパートナーしていないが、しかしMozillaのこの仕事は、ほかの企業の既存のデモに対する補完および互換性をねらっている。

Mozillaの主席研究サイエンティストBlair MacIntyreは、こう説明する: “WebでARをどうやって実装するか、前にGoogleの連中と話し合ったことがある。そのときは彼らがWebARでやった実装例に対するフィードバックを彼らに見てもらったが、そのときの経験から、今作っているJavaScriptのライブラリWebXRは、彼らのアプリでも使えて、また一般的にデベロッパーが自由に自分の好きなアプリで、これらのWeb上の新しい技術〔AR+VR on Web〕を実験できるものでなければならない、と思っている”。

WebVRを完全にリプレースするものではないが、今後のことはまだ分からないから、そのスタンダードでARの実装が相当変わったりしたら、その実用性が危ういのではないか。

MacIntyreはこう語る: “長期的には、WebVRが進化してARもできるようになることが、最良の結果かもしれない。それほど大きな変更にはならないし、APIはそのままWebVRと呼ばれるだろう。あるいはコミュニティが、もっと広範な抜本的な変化を望めば、それがWebXRあるいはWebMRと呼ばれるかもしれない”。

というわけで現状のそれは、本格的な提案というより、デベロッパーたちによる自発的な実験だ。それはデスクトップのFirefoxをサポートしており、iOSのApp StoreにはWebXR Viewerがある。それらを試してもよいが、でもデベロッパー以外の人は単純に待つべきかもしれない。

提案および、わずかばかりの実験は、GitHubでチェックできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

東大発AR/MRスタートアップのGATARIが4000万円の資金調達、新時代のUI/UX開発を目指す

Amazon EchoやGoogle Homeなど、音声で操作するAIアシスタントが現実のものとして身近に広がりはじめた現在。この環境がさらに進化した先には、どんな未来が待っているのだろう。GATARI(ガタリ)は、音声を使ったコミュニケーションが、AR(Augmented Reality、拡張現実)/MR(Mixed Reality、複合現実)環境にも広がることを予測し、MR時代に最適なUI/UXを模索・開発する、東大発のスタートアップだ。

10月18日、そのGATARIが総額4000万円の資金調達を実施したと発表した。引受先はVenture United三井住友海上キャピタルKLab Venture Partners、Nikon-SBI Innovation Fund、および個人投資家。今回の調達はシリーズAラウンドに当たる。

GATARIは2016年4月に設立された、東京大学の学生を中心とするAR/MRスタートアップだ。2016年には、Tokyo VR Startups(TVS)のインキュベーションプログラム第2期に採択された。TVSプログラムでは、しゃべった声がテキストの形になってVR空間上に現れ、話者の母語に翻訳されたものを見ることができるコミュニケーションツール「コエカタマリ」を開発している。

GATARI代表取締役の竹下俊一氏はコエカタマリについて、こう話している。「元々は音声を使った、未来のMRコミュニケーションツールを作りたかった。ただデバイスの発達がまだ進んでいないので、この時点ではMRよりはVRの方が実装が楽だと判断して、VRのコンテンツを制作している。とはいえ、VRでもリアルな空間をCGで用意して、MRっぽい、MRにつながる操作感を実現しようとした」(竹下氏)

プログラム終了後の現在、GATARIでは企業向けにHoLolensなどを使ったMRソリューションを開発するほか、ARKitを利用したスマートフォン向けARアプリを開発中で、年内にもストーリーテリングアプリをリリースしようと準備しているそうだ。「VRでは空間内を“見渡す”ことが必要だが、ARでは見渡さなくてもよい。前にある画面を自分で動かして変わるという、カメラワークが楽しい点が特徴だ。その楽しさを反映したプロダクトにしたい」(竹下氏)

竹下氏は「AR/MRを実現する環境は活発化していて、スマートフォンやHoloLensなどのデバイスも進化している。市場規模までは予想しきれないけれども、ARKitから始まって、スマホ連携のAR/MR環境が実現し、いずれは一体型のウェアラブルMRデバイスが来るだろう」と予測する。「そうした状況に合わせて、声による操作や入力をしっかり使ったプロダクトを用意したい。LINEやSnapchatは、スマホ時代のコミュニケーションのデファクトスタンダードとなった。我々は、MR時代のデファクトスタンダードとなるようなUI/UXを開発・提供したい」(竹下氏)

竹下氏は、現在も東京大学在学中。GATARIを設立後にも東京大学を中心としたインターカレッジのVRサークル「UT-virtual」を立ち上げ、全国のVR関連サークルをつなぐ日本学生バーチャルリアリティ連盟の設立・運営を行うなど、若い世代のVRコミュニティ醸成にも力を入れている。

「今回の調達では、エンジニアやデザイナーに加え、ユーザーへのヒアリング体制も強化しようと考えている。その中でも、インターンを採用しての開発や、学生へのヒアリングを通して、若い人の感性を生かしていきたい」(竹下氏)

離れた場所にある物件をVRで内見、ナーブが4.6億円調達

不動産の内見にVRを活用する「VR内見」などを展開するナーブは10月13日、ニッセイ・キャピタル三菱地所ギガプライスSpiral Ventures Japanから総額で4.6億円を調達したと発表した。

ナーブ自社開発のVRゴーグル「CREWL」

ナーブは不動産や旅行業界などに導入するVRシステムをパッケージとして提供するスタートアップだ。店舗に設置したVRゴーグルで物件の360度画像を見ることができるVR内見や、観光地の360度画像や動画をVR体験できる「VRトラベル」などを展開している。

VR内見を導入することで、店舗には専用ゴーグルの「CREWL」が設置される。このゴーグルは同社の自社開発製品で、VRゴーグルとして利用していないときには店頭デジタルサイネージとしても機能する。

物件チラシにプリントされたQRコードをCREWLで読み込み、ゴーグルを装着するとVR内見がはじまる。エンドユーザーは実際にその場にいるような感覚で、紹介された物件の内部を観察できる。

クルマで顧客を現地まで運ぶ通常の内見には時間がかかる。それが複数の物件となればなおさらだ。不動産会社がVR内見を導入することで、そういった時間を短縮して業務を効率化することができる。

しかし、ナーブ代表取締役の多田秀起氏は、不動産の内見をVRで行うというサービスの理解をユーザーから得るのにはとても苦労したと話す。

「昨年までは、VR内見というサービスへの理解がなかなか得られなかった。ただ、エンドユーザーの声を地道に汲みとってサービスの改善を続けた結果、今年5月頃から導入社数が急速に増え始めた」(多田氏)

成果が数字に現れ始めたのは5月に入ってからだが、多田氏は昨年末ごろから確実な手応えを感じていた。そこで、同社は2017年1月よりCREWLの量産開始に踏み切った。今回の資金調達でビジネス拡大のスピードをさらに加速させていく構えだ。

ビジネス展開のスピードにこだわる

VR内見の導入費用は月額1万8000円〜ということだが、これは僕が事前に想像してた価格よりもかなり低かった。これについて多田氏は、「事前のヒアリングでは5万円くらいまで払えるという声もあったが、5年後にデファクトスタンダードになる価格設定を作ろうと考えた。当初から低く設定することで、サービス普及のスピードを早めるのが狙いだ」と話す。

また、ナーブはVR内見に使用する360度画像を撮影せず、代わりに不動産会社が事前に撮影しておく必要がある。有料で撮影代行も行っているが、ほとんど利用されることはないという。それが導入への壁になりそうなものだが、これに関しても、ナーブはビジネス展開のスピードを優先させた形だ。

多田氏は、「当初はクライアントに360度画像を撮影してもらうことが壁になったのは間違いない。しかし、自社で撮影を行うと、その分人員を割かなければならず、おのずとビジネス展開のスピードも遅くなる。不動産会社の業務フローに撮影を落としこむ提案を続けていくことで理解を得るということを地道に続けた」と話す。

VR内見はこれまでに約500店舗へ導入済みで、多田氏がナーブにとって重要な指標だと話す「VR化した物件数」は数十万軒だという。同社はこれを2017年度中に100万軒まで伸ばしたい構えだ。

遠隔接客ブース「どこでもストア」

ナーブが展開するビジネスには、もう1つ面白いものがある。VRを利用した仮想店舗ブースの「どこでもストア」だ。これは、商業施設に設置されたブースに入ってVRゴーグルを装着することで、遠隔地にいるスタッフからの接客を受けることができるというもの。

どこでもストアを利用すれば、費用対効果の観点からリアル店舗を設置することが難しい地方にも進出することができる。1つのブースに複数の企業が参加できるため、企業にとっても顧客にとっても効率が良い。

今後、ナーブはイオン系の商業施設を中心に、年間25店舗のペースでどこでもストアの設置を進めていくという。

Nvidiaが作った本物のホロデッキで製品デザインや設計のコラボレーションができる

NvidiaのCEO Jensen Huangは以前、同社でいちばんやってみたいのは、本物のホロデッキ(Holodeck)を作ることだ、と言っていた。そして今まさにNvidiaがやってるのが、デザイナーやデベロッパーのための、細密にリアルなVRプラットホームとして、ホロデッキを作ることだ。

名前もまさにNvidia Holodeckであるこのプロジェクトは、このGPUメーカーが作った“インテリジェントな仮想現実プラットホーム”であり、コラボレーションのための仮想環境で、現実世界の物理現象をシミュレートできる。そこでは、超細密なグラフィクスにより、実物大の詳細モデルを作れる。ピカード大佐のそっくりさんを作ることはできないが、デザイナーたちが新製品のプロトタイプを作り、そのデザインを磨いていくために利用する。VRでは結果がはやいから、製品を市場に出すための期間を短縮できるだろう。

このホロデッキでは、AIを利用できる。たとえば一定のエージェントを訓練しておき、デザイナーが作ったデザインを現実の状況に照らして評価させられる。また仮想オペレーターや人間のスタッフがプロトタイプの各部と対話しながら、最終設計へ仕上げていくこともできる。

すでにリリース前のテストでは、NASAのエンジニアや最先端のデザイナーなどから、高い評価を得た。そして今日(米国時間10/10)からはさらなる洗練を目指して、より広い層へ公開される。

コラボレーションのできるVRデザインツール(設計ツール)は、自動車業界でも採用が進んでおり、今は各社がそれらを試行している。もちろん自動車以外の業界でも、デザイン〜設計のコラボレーションを実物大のVRでできるメリットは大きい。そんな最近の動向の中で、グラフィクスとAIという二つの重要な要素に強いNvidiaは、このようなシミュレーター的環境製品でも市場のリーダーになれそうだ。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))