Unityのプラグインで各種ARプラットホームの違いを吸収する8th Wallが未来でなく今のスマートフォンARの活況を展望

拡張現実のスタートアップは、その多くが、スマートグラスの常時着用がもたらす未来の世界にフォーカスしている。しかしARは、今現在のモバイルデバイスの使い方にも、私たちがまだ見たこともないような変化をもたらし得る。

でもこれまでARのそんな使い方の多くは、最新かつ最高性能のハードウェアを必要とした。そこへ、FacebookやGoogle出身の技術者たちが作った8th Wallは、今あるスマートフォンの90%以上で使える技術によって、スマートフォンARのリーチを広げようとしている。

Palo Altoに拠を構える同社のより大きな目標は、スマートフォンARアプリの開発をこれまでの10倍早くし、ネイティブのARライブラリを有効利用し、あるいは必ずしもスマートフォンのセンサーやカメラなどを使わなくても、十分なAR体験を実現することだ。

今日同社がローンチしたUnityデベロッパー用の無料のプラグインXRを使えば、拡張現実のアプリを作って実験することができる。同社はまた、Norwest, Betaworks, VR Fund, SV Angel, Greylock, そしてThird Kindらからの240万ドルの資金調達を発表した。

8th Wallの協同ファウンダーErik Murphy-Chutorian

8th WallのXRソフトウェアで、光や面の推定、シーンディスプレイのキャリブレーションなど、物理的世界の中にデジタルオブジェクトをシームレスに置き、それらが環境に反応できるために必要な機能を実装できる。

“ARをネイティブに設計するやり方は、まだ誰も知らない”、Betaworksの投資家Peter Rojasはそう語る。“モバイルの初期のころを、思い出してしまうね”。

8th Wallの最大の売り物は、すでにそこらにあるさまざまなARプラットホームを横断して開発ができるとともに、個々のデバイスの特徴も利用していく点にある。

“いろんなプラットホームがばらばらでも、それらを橋渡しできるし、またXRで十分な付加価値を与えることができる”、8th Wallの協同ファウンダーErik Murphy-Chutorianは、こう語っている。

そのプラットホームは、AppleのARKitやGoogleのTangoなどさまざまなARプラットホームをシームレスに統合し、またiPhone 5C以降やKitKat以降のAndroidなど、あまりロバストでないデバイスでも、3DoF(three degrees of freedom, 3次元方向) ARの機能をやや制限つきで実装できる。チームは今後、サポートする機種をもっともっと増やしたい、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

小さな2D画像から3Dオブジェクトを生成する賢いアルゴリズム

世界を観察することで、私たちは知覚に情報を与え続けている。そのことで私たちは片側しか見ることのできない、或いは一瞬しか見ることのできない物体の全体像を想像することを、かなり上手にできるようになる。しかし、コンピュータにとってそれはただ苦手な仕事だ。しかし幸いなことに、 バークレーのAI研究者が作成した賢い手法が、その性能を大幅に向上させてくれるかもしれない。

何かを2Dで見て、実際の大きさを正確に推測することができるなら便利だ。それはARやVR、クリエイティブなワークフローなどの中でオブジェクトを追跡することを助ける。だが、それは難しい!

次元を上げるということは、考えなければならないデータが大幅に増えるということだ。各辺が100ピクセルあり、全体で1万ピクセルの画像を考えてみよう。それを正確に再現しようとするならば、高さも100ピクセルになるかもしれない。その場合に必要なボクセルは合計で100万ピクセルになる。これで3Dというわけだ。そしてもう少しだけ正確性を増したいとしよう、例えば各辺128ピクセルとしてみる。すると必要なボクセル数は200万となる。

それぞれのボクセルの中身(すなわち「空」または「充填」のいずれか)は、元の画像を分析することによって計算されなければならず、リアルな忠実度が必要な場合には計算量は急速に増大する。

左の2D画像を、1辺16ボクセル、1辺32ボクセル、などの解像度でレンダリングしたもの。品質は向上するものの、計算コストは​​急上昇する。

本来なら望ましい筈の、2D画像からの3Dへの外挿が進まないのはそれが原因だ。しかしバークレー人工知能研究所のChristian Häneは、より良いやり方が可能になる道筋を発見した。彼のソリューションは計算上も巧みだが、同時に額を思わず叩く程シンプルなものだ。

彼が気が付いたのは、一般には、実際に100x100x100の全体を計算しようとしているのではなく、オブジェクトの表面を記述しようとしているだけだということだ。その周りの何もない空間や内側は?関係ない。

ということで、彼のシステムはまず非常に低い解像度で2D画像を3Dとして構成する。その段階でも多くのことがわかる、例えば、全体の外側の3分の1は何も無いように見えるといったことなどだ。よし、その部分は捨ててしまおう。

次に、保存した領域に対してより高解像度のレンダリングを行う。ふむ、上と下が空白だが、真ん中はピクセルで一杯のようだ、中心部にある大きな塊を除いては。空白のビットを投げ捨て、きれいにして、繰り返す。

これを数回行うと、高い空間解像度を持つ3Dオブジェクトを実際に得ることができる。意味のある情報を持つ部分だけを計算することで、比較的少量の計算量でこの結果を得ることができる。

得られたモデルたちは、従来の手法で生成されたモデルたちと比較されたが、一般的に生成する計算量は遥かに少ないのに、モデルは同等もしくは良い仕上がりとなった。論文に掲載された例は、このArxivからダウンロードして見ることができる。

これは完璧なソリューションからは程遠く、人間はこの点に関してまだ遥かに優れている。しかしこれは、私たち自身の視覚システムが、自分自身を最適化する方法を実際に模倣する、素晴らしい手法だ。私たち自身の視覚がとてもうまく働く理由の1つは、知覚をスムースに行うためには余分なものと脳が判断したデータを、巧みに捨て去ることができるからだ。ほとんどの場合、こうしたショートカットに気づくことは無いが、時には錯視のような場面で表面化する。

コンピュータが人間のように見ることができるようにするということは、脳の強さを模倣するだけでなく、ときにその弱さをも模倣するということも意味する。これは実際に人間と同じだとはとても言えないものの、近いものにはなっている。そして大事なことは、それは実際に使えるということだ。

[ 原文へ ]
(翻訳:Sako)

MicrosoftがRemix 3D上のコンテンツをよりリミックスしやすくした

Remix 3Dは、Paint 3Dや他の3Dモデリングツールの3Dモデルを共有するための、Microsoftのコミュニティサイトだ。複合現実や仮想現実に焦点を当てる同社の姿勢を考えると、人びとがそうした新しい体験を生み出す3Dモデルの構築へと目を向けるようにしたいとMicrosoftが考えることは、驚きではない。その名前が示すように、Remix 3Dが目指してきたのは、コミュニティがリミックスできるモデルのためのリポジトリ(倉庫)を提供することだ。

これを簡単に行うことができるように、Microsoftはこのサービスに対して、ささやかながら基礎的なアップデートを行った。

Remix 3D上でモデルを見る際に、2つのタブが表示されるようになった。パーツとリミックスだ。リミックスセクションは、これまでのように、他のユーザーたちがそのモデルをそれぞれの作品の中で利用した結果を表示する。一方、新しく始められたパーツセクションは、対象となるモデルあるいはシーンに使われている個別のパーツを、ユーザーが眺めそして利用することを可能にする。

これまでのように、これらのすべてが、3Dモデルを構築および操作するためにWindows 10で提供されている、MicrosoftのPaint 3Dと深く統合されている。Windows 10 Creators Updateから提供が始められたPaint 3Dは、2Dスクリーン上で3Dモデルを作成するのは難しいという事実に悩まされたままだ。とはいえ、それは3Dモデリングツールとしては最も使いやすいものの1つで、もし3Dモデリングを試してみたい場合には、少なくともリミックス3Dを使用して、作品を少しばかりプロフェッショナルに見せることができる。

[ 原文へ ]
(翻訳:Sako)

二台のドローンとWi-Fi信号で厚い壁の中の状況を3D画像化できる、Google Tangoも活躍

カリフォルニア大学サンタバーバラ校の研究者Yasamin MostofiとChitra R. Karanamが作ったシステムは、二台のドローンと大きなWi-Fiアンテナと、少々の補間計算によって、厚い壁を透視できる。

このシステムは二台のドローンの共同作業で、片方が構造物へWi-Fiを照射し、他方がその信号を拾う。そして二台はその構造物の周囲を飛びながら、各地点で信号の強度の違いを記録していく。そうすると、その情報から閉じた建物の3Dモデルを作れる。

下のビデオでは、ドローンたちがレンガの構造物の回りのんびりと飛んでいる。彼らにその内部は見えない。電波がレンガを貫通し、壁の向こう側にある別の構造物を通過すると、信号が変わる。何度かそのデータを計測したあとで、ドローンたちは構造物の全体を高い解像度で図像化し始める。

“われわれが提案しているやり方では、無人航空機がWi-Fiの信号だけで壁を3Dで透視し、詳細な画像を作れる”、とMostofiは語る。“利用するのはWi-FiのRSSIだけで、事前の測定などはいっさい行わない。また画像を作るためにオブジェクトを動かす必要もない”。

最初はオブジェクトの2Dのモデルを作ったが、すぐに3Dにアップグレードできた。使用したのはシンプルなWi-FiルーターやGoogle Tangoを実装したタブレットなど、一般市販のデバイスだ。受信側は、Raspberry PiとWi-Fiカードを使っている。二台のドローンは対話しながら自力で行動する。

壁の向こうに見えるものは、映画「プレデター」のような像ではないが、でも災害などの緊急時には、ドアをぶち破らなくても建物の中を知ることができる。研究者たちは、考古学の調査にも使えるはず、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが不動産販売のMatterportとパートナーして屋内ストリートビューの360度3D画像を一挙に充実

知らない場所へ行くときには、事前にGoogleのストリートビューを見ると、だいたいの様子が分かる。しかしそれが屋内の場所なら、そのやり方が通用しない。

でも最近のストリートビューでは、一部の家やお店、企業などの建物の中に入って見れるようになった。それが今日(米国時間5/9)、GoogleがMatterportとパートナーしたおかげでさらに増えた。

Matterportは不動産会社で、顧客がその家を実際に見に行くか行かないかの判断材料として、3Dスキャンの画像を作って提供している。同社は最近、Qualcomm Ventures, Greylock Partners, そしてY Combinatorからの約6500万ドルの資金調達を公開した。

【3D画像】

〔ここに3D画像が表示されない場合は、原文のページを見てください。〕

ストリートビューの場合と同じように、クリックしたりドラッグしたりして建物内を3D/360度で見て回れる。画像中の二重丸のようなボタンをクリック(タップ)すると、特定のアイテムの前でとまる。

このような屋内見学は、すでにGoogleが360度写真家たちとのパートナーシップである程度実現しているが、Matterportとのパートナーシップでそれが一挙に50万箇所あまりに拡大した。それらはWebのほかに、VRのヘッドセットでも見ることができる。Matterportも個人の写真家と契約しているので、内容の充実は今後の彼らの活躍にかかっている。でも同社は、不動産販売のお客用以外の画像も今後大きく増やしていく、と言っている。

GoogleがストリートビューのAPIを公開しているのはMatterportだけではないが、360度スキャンに加えて3Dの画像も提供するのは同社だけだ。GoogleもVR(仮想現実)などの新しい技術に意欲的だから、そのための強力な画像や映像が今後さらに充実していくだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

深海に眠るタイタニック号を3Dスキャン―、米OceanGateが2018年5月に実施予定

シアトルに拠点を置くOceanGate Inc.は、世界で最も有名な沈没船のタイタニック号を調査するため、有人探査を行う予定だと今週発表した。歴史学者の推定によれば、1912年4月の沈没以降、タイタニック号を訪れた人の数は200人にも満たないとされており、エベレスト登頂者や宇宙に行ったことがある人の数の方が多いくらいだ。

2018年5月に予定されているこの調査は、2005年に別のチームがタイタニック号を訪れて以来初の調査となる。前回の調査が行われた頃や、ジェームズ・キャメロン監督が映画『タイタニック』のために沈没船の様子を撮影した1995年当時に比べると、ナビゲーションや画像に関する技術はかなり進化した。

OceanGateの共同ファウンダーでCEOのStockton Rushは、同社のパートナーとなる企業や研究機関と共に、沈没船の腐敗の進行具合を記録し、これまでは不可能だった海底に眠る遺物の高画質3D画像を撮影しようとしていると話す。

「歴史上の出来事を記録すること自体に、まずは大きな意義があります」とRushは言う。「ただ、ちょっとオタクっぽい話として、深海における金属の腐食速度といった点を調べるのも重要なことです。第二次大戦中の燃料や武器が深海にはたくさん眠っているため、潮の流れ、酸素の含有量、バクテリア、使われている素材の性質などがどのように関係し合っているのかを理解することで、1944年頃に沈んだ船体が崩壊した際に、燃料が海に流出するかどうかといったことが把握できるようになります」。

OceanGateが開発した深海潜水艇Cyclops 2のレンダリング画像。

非営利研究法人Woods Hole Oceanographic InstitutionのThe Advanced Imaging and Visualization Laboratory (AIVL)の専門家も何人か、OceanGateの潜水艇に乗って7週間におよぶ調査に参加する予定だ。彼らは、沈没船の画像を様々な形式で保存するため、3Dスキャンや音波探知機、写真測量法といった技術面で、OceanGateのチームを手助けすることになる。最終的にOceanGateは、観測用のROV(遠隔操作できる無人潜水機)をタイタニックの船内に送り出し、陸上の市民や研究者に対して、ライブ動画やVRコンテンツを配信していきたいと考えている。

OceanGateは来年春の探査に向けて、主にカーボンファイバーとチタニウムからできた、新しい潜水艇Cyclops 2を開発した。5人乗りのこの潜水艇には、パイロット兼ミッションリーダーや、海洋生物学者・海洋考古学者といった各分野の専門家に加え、お金を払って調査に参加する一般市民も乗り込むことになる。

なお、調査に参加するためのチケットの価格は10万5129ドルに設定されている。この金額は、タイタニック号の処女航海当時、Vanderviltスイートに宿泊するためのファーストクラスのチケット料として設定されていた4350ドルをインフレ調整したものだ。2018年春の調査に向けて募集していた54人の枠は既に埋まったとRushは話しており、OceanGateは500万ドル以上の収益を上げたことになる。

Cyclops 2の船体に使われているカーボンファイバー。

今回の調査を可能にするために、OceanGateが開発しなければならなかった技術や、行わなければならなかったテストは数多くあるものの、特に私企業として、深海での水圧に耐えられる船体を作ることにもっとも手間がかかったとRushは話す。最終的に同社は、カーボンファイバーフィラメントを使用し、6000psiの水圧に耐えられる船体を開発した。

「カーボンファイバーを使った船体づくりは不可能と言われていましたが、私たちはある特別な方法を編み出しました」とRushは語る。さらに安全性の確保のため、Cyclops 2には音響式センサーが搭載されている。このセンサーが船体の問題に繋がりかねない特定の音色を感知し、事前に乗組員に危険を知らせることで、必要に応じてミッションを中止できるようになっているのだ。

何百万ポンドという水圧に耐えるための構造上の安全対策に加え、この深海でのミッションには他にも様々なハイテク技術が駆使されている。例えば、タイタニック号はカナダのニューファンドランド島にあるセント・ジョンズ(St. John’s)という町から380海里離れた沖に沈んでいるため、OceanGateは大型船を配備し、そこからCyclops 2を送りださなければならず、乗組員が船と陸上を行き来する際に使う航空機の種類についても検討しなければならない。また、ミッションは海が最も穏やかな時期に計画されているものの、潜水艇が調査コースを外れないようにOceanGateは天候や潮の流れに常に気を配らなければならない。

ようやく潜水艦を深海に送り込めたとしても「沈没船の周りの水流は、道中とはまた異なるため、ナビゲーションがミッションのカギとなるでしょう」とRushは言う。OceanGateは今年の11月にCyclops 2のテストを予定している。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

VRベースのソーシャルプロダクティビティアプリBigscreenがAndreessen Horowitzらから$3Mを調達

borderlands

VRの“キラーアプリ”(killer app)*をめぐる議論が喧しい中で昨年は、VRが提供する他に類のない優れたコラボレーション機能を活かそうとするソーシャルアプリがいくつか登場してきた。〔*: killer app, ここでは特定のアプリケーションではなく、その分野をメジャーに押し上げるアプリケーションのジャンル。〕

それらの中で、VRの面白さと仕事の生産性(プロダクティビティ, productivity)の二兎を追った初期の試みのひとつがBigscreenだ。それは初期のVRユーザーたちのあいだで、かなりの人気を獲得したが、その製品は過去の同社の、Web上のコンテンツ共有経験がベースになっている。

同社は今日(米国時間2/24)、Andreessen Horowitz率いるラウンドによる300万ドルの資金調達を発表した。そのラウンドにはほかに、True Ventures, Presence Capital, Ludlow Ventures, David Bettner, SV Angelらも参加した。

Andreessen Horowitzがハードウェア以外の分野でAR/VRに投資した例は、あまり多くない。その中で同社のOculusVRへの投資は、同じく投資家の一員であったFacebookによる2014年20億ドルの買収で、VR企業としては初めての大型イグジット(exit, 出口)になった。

VRアプリケーションはVRの最大の特性である3Dのインタフェイスを強調したものが多いが、そんな中でBigscreenは、2DのWebの世界で提供されているコンテンツと、VRが提供する高度なソーシャル体験の両者を、結びつけようとしている。

同社のベータ・アプリケーションは、仮想会議室におけるコラボレーションや、ひとつの部屋に友だちが集まってお互いのアバターとゲームをプレイする、などの使われ方で人気が急伸し、今や15万人のユーザーがいる。まだ費用的にも大衆化しているとは言えないVRの世界でこの数字は、相当なものだ。

Presence CapitalのマネージングパートナーAmitt Maharjanが、Mediumに書いている: “最初からマルチプラットホームに対応しており、そして、体験を他と共有するやり方がきわめてシンプルなため、Bigscreenは知らない人たちが互いに関心を共有してコミュニティを形成する能力に秀でている”。

同社の次のアクションは、Bigscreenの1.0をリリースすること。また、同プラットホームのネイティブアプリケーションや、モバイルのVRヘッドセットへの対応も課題だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ケンブリッジ大学が癌の診断治療への3D VR技術の応用を研究中

cancer_gif

テクノロジーが癌の治療に貢献、というお話は、いつ聞いても嬉しいけど、そこに仮想現実が登場するとは、ぼくも含め多くの人が思ってない。でも、今ケンブリッジ大学の研究者たちが100万ポンドの補助事業で研究に取り組んでいるのは、VRと3Dの視覚化を利用する診断と治療の技術だ。

hannon_application_picture_420_x_235

同大のニュースサイトで、研究チームのリーダーGreg Hannonが語っている: “私たちが作ろうとしているのは、腫瘍の忠実な対話的立体マップで、それを科学者たちが仮想現実で調査研究し、いわば腫瘍の内部を‘歩きまわって’検査できるようにしたい”。

腫瘍の標本として最初は乳がんを用い、きわめて薄い小片にスライスしたそれを画像化し分析する。この方法により、個々の細胞の遺伝子的組成まで分かるようになる。すべてのスライスを再編成して仮想現実のための3Dモデルを作り、その中へ研究者たちが‘飛び込む’。

腫瘍や癌の成長を3Dスキャンする技術はすでにあるが、仮想現実の3Dモデルの中に研究者が入り込めるこの方法には、はるかに幅広い対話性がある。

同大が公開しているビデオの中でHannonはこう述べている: “癌に限らず、有機体の組織の成長発展を理解するための、最先端の方法と言えるだろう。生物の問題はすべて3Dで生じているし、細胞間のコミュニケーションも3Dで行われているから、従来のノン3Dの検査技術では、その詳細な理解が得られなくて当然だ”。

チームはイギリスの任意団体Cancer Research UKの研究補助金を交付されることになり、その総予算2000万ポンドの一部(100万ポンド)を、期間6年の研究事業に使えることになった。6年もあればこの、腫瘍の中を歩いて見て回れる3D VR技術の実用化も可能ではないか、と期待したいところだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

3Dの原始データを用途に合わせて最適化(軽量化)するSimplygonをMicrosoftが買収

img_2891_c

Microsoftが今日(米国時間1/17)、ゲームのデベロッパーや、そのほかの、3Dデータを視覚化する必要のある業種のために3Dの最適化ソリューションを開発している、Simplygon買収した発表した

大手のゲーム開発スタジオの多くがSimplygonのSDKを利用しており、同社は最近AR/VR市場にも手を伸ばした。Microsoftは同社のHololensプロジェクトでARを、Windows HolographicでVRをそれぞれやっているから、Simplygonの技術はどこよりもまず、自分のロードマップにフィットする。

Microsoftの次世代ユーザー体験/企業担当VP Kudo Tsunodaが、今日の発表声明で述べている: “Simplygonの技術とスタッフは3Dの創造における弊社の立ち位置を強化し、3Dの捕捉や創造、および共有をより容易にする。それはWindows 10 Creators UpdateとPaint 3Dおよびネット上のクリエイターコミュニティRemix3D.comによって創造性の新しい波を起したい、という私たちの願いをより強く大きくし、具体化するものである”。

Simplygonの技術は、CADのファイルや3Dスキャンなど3Dの原始データを、具体的な用途や出力ターゲットに合わせて最適化する。ゲームの場合、ターゲットはUnreal EngineやUnityなどだ。最適化というのは、同社が複雑なマスターモデルに対して、独自のアルゴリズムで、同じ3Dオブジェクトを表示するために必要な三角形の数を減らし、それらを描画するグラフィクスカードの仕事を軽くしてやること、などを意味する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VR・ARの普及に向けたデモの重要性

8a82586a123a7429edd0ca2f65ddbeda

【編集部注】執筆者のTim Merelは、Eyetouch RealityDigi-Capitalのファウンダー兼CEO。

もしもこれまでにVRやARという言葉を耳にしたことがないとすれば、あなたが住む島にはWi-Fiが飛んでいないのだろう。一方で、VRやARのことを知っていても実物は見たことがない、という人はたくさんいる。つまりVRやARが一般に普及するためにはデモが欠かせないのだ。過去のデジタルプラットフォームは、いかに大衆の心を認知から行動へと動かしていったのだろうか。

AKQAのファウンダー兼会長であるTom Bedecarreは「新しいテクノロジーは似たような過程を経て一般に普及していきます。最初のお客さんになるイノベーターやアーリーアダプターをひきつけるのは比較的に簡単ですが、垣根を超えてアーリーマジョリティやそれ以外の消費者の心を掴むのは大変難しいことです」と単刀直入に話す。

360度動画でさえ、高品質のVR・ARアプリを使って初めて本当の驚きや喜びを体験することができることを考えると、VRやARが一般に普及するまでには大きな壁を超えなければいけないとわかる。AR・VRの全てを体験するためには、実際にスコープを装着しないといけないのだ。言い換えれば、「これこそが本当の立体映像だ、この野郎」といったところか。

それではVR・AR企業は、どのようにしてアーリーアダプター以降の消費者にプロダクトを体験させているのだろうか。

無料=なかなかの価格設定

New York Timesはこれまでに、100万個以上のGoogle Cardboardsを読者にプレゼントしてきた。マクドナルドは”Happy Goggles“と名付けられたセットで、VRヘッドセットに変形するボックスを配布し、コカコーラも複数本入りのパッケージで同じようなキャンペーンを行った。

紙箱からアップグレードしたものだと、SamsungはVR対応の携帯電話にGear VRヘッドセットを無料でバンドルした結果、「何百万人ものユーザーにGear VRを配布し、100万人以上の月間アクティブユーザー」を獲得したと同社の広報担当者は話す。さらにSamsungは店頭デモも積極的に行っており、「アメリカ国内で1万5000軒もの店舗」にデモ機を導入した。VerizonもPixelの先行予約者に対して、GoogleのDaydream View VRヘッドセットをプレゼントし、中国のOnePlusも携帯電話とセットで3万台ものVRヘッドセットをこれまでに配布してきた。

ハイエンドのパソコンやコンソールにVRヘッドセットが無料でバンドルされることはないだろうが、Microsoftが新たに発表したWindows 10用VRヘッドセットの登場で、ハイエンドVRシステムの価格は今後下がっていくことが予想される。

一にも二にも実体験

Sony PlayStation Magic Labのトップを務めるRichard Marksは、「ユーザーに実際にVRを試してもらうというのは極めて重要です。というのも、VRで得られる体験は、ほとんどの人がこれまでに他のメディアで経験したものとは比べ物にならないですからね。これまでに私たちは40万人以上を対象にデモを行い、体験した人には友人にも宣伝するようお願いしてきました。また、PSVRを購入した人全員に無料のデモディスクを配布しているほか、VRヘッドセットを持っている人もそうでない人も一緒に遊べるよう、非対称マルチプレイゲームも併せて配布しています」

HTCで部長を務めるPearly Chenも、Viveをユーザーに試してもらうことの重要性を強調している。「百聞は一見にしかずという言葉の通り、VRの素晴らしさを伝えるにあたって、実際に消費者にVRヘッドセットを装着させて、彼ら自身の目でVRを体験させるよりも良い方法はありません。HTCでは、2015年の半ばからVive World Tourと呼ばれるプロジェクトに取り組んでおり、世界の主要都市や大学、イベント、展示会などを巡りながら、製品を宣伝すると共に、VRの普及に向けた草の根活動を行い、消費者からのフィードバックを集めています」

「また、引き続き大手小売店とのパートナーシップを深めていき、アメリカ国内で言えばMicrosoftストアGameStop、MicroCenter、中国だとSuningやGuomei、インターネットカフェなどにデモステーションを設置していく予定です。さらに台北には、多くの人にVRを体験してもらえるようなエンターテイメントセンターとしてVive Landをオープンしました。」

一般大衆向けのコンテンツやアプリケーションをつくる際には、どうすれば多くの消費者にその存在を知らせ、トライアルの効果を行き渡らせることができるのだろうか?

HTCは自社のプロダクトを消費者に届けるだけでなく、もっと広い視野で業界を眺めている。「VRエコシステム全体の発展に寄与するため、1億ドル規模のファンドであるVive Xを利用し、VRに関する全ての人やモノのためになるようなビジョンを持った企業をサポートしています」

AR・VRを利用したサービスを提供する教育系スタートアップのzSpaceは、店頭でのトライアルに関してもっと積極的なアプローチをとっており、ユーザーが店舗を訪れるのではなく、店舗がユーザーのもとを訪ねる仕組みを構築した。彼らはデモ環境を整えたバスを複数台用意し、アメリカ中の学校を訪れているのだ。CEOのPaul Kellenbergerは「私たちはこの方法に効き目があるからやっているんです。このプロジェクトによって、教師や生徒は遠い距離を移動したり、試したこともないシステムを買ったりする必要がなくなります。さらに、私たちのプロダクトの協力的な側面もあり、学校を取り囲む人を含めた教育コミュニティ全体が、その効率性を感じてくれています。また、このプロモーション活動のリターンはとても大きく、規模の大きな学校からの注文の中には、バスツアーがきっかけとなったものもありました。つまり、潜在的なユーザーがいる場所を実際に訪問し、トライアルのプロセスを簡素化することで、利益に直接的な影響があることがわかったんです。これは私たちのビジネスが成長する上で、とても大きな要因となるでしょう」と話す。

ポケモンゲットだぜ!

これまでに市場に出ているARスマートグラス(Microsoft HoloLens、ODG、Metaなど)のほとんどは法人向けのため、現状の製品を消費者向けのトライアルで試すのは時期尚早だ。しかしPokémon GOのおかげで、(業界の中にいる人はPokémon GOがARだと認めていないものの)既に大衆はARの存在を知っているばかりか、実際に体験までしている。Apple CEOのTim CookやGoogle CEOのSundar Pichai、さらにFacebook CEOのMark ZuckerbergMicrosoft CEOのSatya Nadellaも口を揃えて早期AR市場の勝者はPokémon GOだと認めている。つまり、これまでにPokémon GOが一時は5000万人という恐ろしいほどの月間アクティブユーザー数を記録したかたわら、全世界の(何億人とは言わずとも)何千万人という消費者が、自分はARを試して気に入ったと感じているのだ。

大きな問題は、今後数年のうちにスマートグラスが消費者市場に参入する際に、Pokémon GOによって広まったARの認知を、”本当の”ARプロダクトがどう利用できるかということだ。願わくは(失敗に終わった)Google Glassや(好評だった)SnapのSpectacles両方から得た教訓が、次世代のプロダクトに反映されてほしいものだ。

Snapの戦略勝ち

SnapのSpectaclesへの臨み方は、素晴らしいマーケティング戦略に他ならない。Spectaclesは、Google Glassによって数年間に渡りダメージを与えられた消費者のARに対するイメージを、(Spectaclesは本当の意味でのARではないとしても)ほぼ一手に回復することに成功した。

Spectaclesは一般消費者向けのカッコいいガジェットであり、ディストピア的未来を象徴するものではない。また、数に限りはあるがエリート主義的ではなく、Spectaclesを入手するために何時間も車を運転して自動販売機のもとを訪れる覚悟がある人であれば、(選ばれた”Glassholes“だけでなく)誰でも手に入れることができる。機能にこだわらなければ、Spectaclesの130ドルという価格も競合製品に比べるとずっと低い。

お金をかけないマーケティングの成功やSpectaclesビデオがバイラルに広がった結果、Snapchatの1億5000万人を越えるデイリーアクティブユーザーは、Spectaclesを使って撮影されたビデオを通して(実物をまだ手にできていなくても)自分がSpectaclesを使っているような体験をすることができる。さらにアーリーアダプター(一部からは課金ベータテスターとも呼ばれている)から収集したデータを利用し、SnapはSpectaclesをハード・ソフト両面から改善し、フルローンチに向けて準備を勧めている。CEOのEvan Spiegelとは大した男だ。

Call me maybe

消費者向けのARプロダクトが成功する上で重要な要素が次の5つだ。ヒーローデバイス(Apple製かどうかに関わらず、Apple製品のような品質のデバイスを指す)、モバイルデータ通信、丸一日もつ電池、(初期のスマートフォン同様)アプリのエコシステム、そして通信会社によるデバイス代負担だ。通信会社が徴収するデータ使用料と、そこから捻出されるデバイス代が料金面での鍵となってくるが、実際に通信会社は消費者がVRを体験する上でどんなことができるのだろうか?

Verizon Venturesでディレクターを務めるEd Ruthは、ARプロダクトが消費者市場に参入する準備ができた段階で、通信会社は大きな役割を担うことになると考えている。「店頭でのトライアルを超えて、通信会社は全国の店舗網を利用し、最終的にはスマートフォンの普及と同じやり方でARプロダクトを消費者のもとに届けることができる可能性があります。この新たな市場から得られるデータ通信料が、モバイル通信の成長を再活性化していくことになるでしょう。特に360度動画だけで考えても、通常のビデオの4~5倍の通信量が消費されることになります」と彼は話す。

改めて強調したいコンテンツの重要性

Baobab StudiosのInvasionAsteroidsといったハイエンドVRコンテンツから、Eyetouch RealityのようなVR・AR機器向けの次世代ビジュアルメッセージサービスなど幅広い可能性がある中、一般大衆向けのコンテンツやアプリケーションをつくる際には、どうすれば多くの消費者にその存在を知らせ、トライアルの効果を行き渡らせることができるのだろうか?

Penrose StudiosでCEOを務めるEugene Chungは、業界全体の動向について「新しい芸術的な表現方法としてのVR・ARの発展というのは、これまで前例がありません。このような大きな転換が最近起きたのは、動画関連の技術が進化したときでした。誕生したばかりのハードウェアがまだ市場に浸透していないため、今の段階ではVR・ARの本領が発揮されていませんが、その状況もかなりの速さで変わっています。PlayStation VRやGoogle Daydreamの誕生で、消費者が手にしやすいVRの市場がこれまでにないほど成長しています。テクノロジーに詳しい人の大部分は既にVRを体験していますが、消費者の大多数はまだVRに触れられていません。一般消費者がVRを体験してその力を理解すれば、普及率も上がってくるでしょう」と語っている。

Sketchfab CEOのAlban Denoyelは「ユーザーが自分でVRコンテンツをつくれるようになれば、普及率は上がってくるでしょう。家族や休暇の様子をVR用に(360度もしくは3Dで)撮影すれば、きっとVRシステムを使ってそれを視聴したいと思うはずです。そのため、ユーザー・ジェネレイテッド・コンテンツがVR普及の鍵となるでしょう。ターゲット層へのアプローチに関しては、ソーシャルネットワークのように、既にターゲットがいる場所へコンテンツを届けることが大切になってきます。だからこそ、アプリを介すことなくクリエイターから消費者へ直接コンテンツが提供できるWebVRが重要視されているんです」と話す。

若者にフォーカス

一般消費者には、あなたの姪から祖母まで色んな人が含まれている。しかしFacebookやSnapchatなど最近のテック界での成功例を見ると、大衆にターゲットを移す前のローンチ時に、若者の支持を集めたサービスが多いことに気がつく。そのため、VR・AR界も一般消費者にアプローチする前に、Pokémon GOやSnapのSpectaclesのように、流行に敏感な若者にプロダクトを試させる必要があるのだ。古い言葉で言えば”Ditto(同じ、前例にならって)”ということだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

MicrosoftのPaint 3Dはシンプルな3Dモデリング入門アプリ

3d-paint-surface-pen

不思議な感じがするかもしれないが、Microsoft Paintが再び注目を浴びている。 初代Windowsに導入されてから31年が経ち、Paintはこれまでで最大級の変化をとげようとしている。Microsoftは、未来のハードウェアやソフトウェアで鍵を握ることとなる3Dエコシステムの中心にPaintを置こうとしているのだ。

もしもSurface Studioの素晴らしいハードウェア上にインストールされている、最新バージョンのWindowsに触れる機会があれば、Paint 3Dの堂々とした見た目にも関わらず、その根幹はPaintのままであることを覚えておいてほしい。つまり、Paint 3Dは3Dグラフィックを扱えるようになったとは言え、依然エントリーレベルの画像編集アプリなのだ。

以前のバージョンのPaintに触れたことがある人(恐らくWindowsマシンに触れたことがある人全員)であれば、Paint 3Dをとても身近に感じられるだろう。しかし3D Paintでは、指やスタイラスペンを使って描いたシンプルなイメージに奥行きを加えることができる。

宣伝されている通り、3D Paintは予備知識無しでも簡単に使うことができる。イメージに奥行きを加えるのもボタンをクリックするだけだ。一旦イメージを3Dにすれば、店頭に並んだ360度画像を扱う製品に備えられているスライダーのように、イメージの下部に設置されているアクセスボタンを指でスワイプするだけで、いろんな角度から3Dモデルを確認することができる。

もちろんこれまでのPaintと同じで、最終的な画像の出来は使い手次第だ。そのため、3D空間で絵を描くことができても、それが傑作になるかどうかはユーザーにかかっている。それでもシンプルなイメージを作る場合には、好みのサイズに応じてツールをドラッグするだけで正確に図形を描くことができる。さらにMicrosoftはサードパーティー製の3Dモデルも用意しているので、他のアーティストに難しい部分はお願いして、ドラッグアンドドロップで3Dモデルをキャンバスに加えることも可能だ。

3d-paint

また、オブジェクトを描き終わった後の飾りつけ用にステッカーも準備されている。例えば、私がデモで作った絵文字の3Dモデルに笑顔のスタンプを貼り付けるといったように、スタンプを使えば3Dオブジェクトに2Dのディテールを付け加えることができる。また、これまで標準装備されていたブラシや塗りつぶしといった色付け機能はそのまま残っているが、サードパーティー製の3Dイメージには上手く使えないので注意してほしい(そもそも私の3D絵文字のハットを赤く塗りつぶす必要はないのかもしれないが)。

そしてPaint 3Dは、他のベーシックな3Dモデリングソフト同様ある問題を抱えている。その問題とは、オブジェクトが2D平面に表示されるため奥行きの感覚が掴みづらく、各オブジェクトの位置を調整するのが難しいということだ。さらに、当然のことではあるが、このアプリケーションには極めて基本的な3D機能しか搭載されていないため、既にCADソフトの知識がある人は物足りなく感じるだろう。その代わりにMicrosoftの狙いは、3Dグラフィックを作ることへの関心を消費者に持たせることにあり、恐らくRemixのソーシャルな側面がこの動きを後押しすることになる。

msft-windows-event-2016

原文へ

(翻訳:Atsushi Yukutake/ Twitter

GoProが3Dカメラになる69ドルのアドオンVitrima…安い割にはグッド!

OLYMPUS DIGITAL CAMERA

GoProにできることを、ちょいと増やしてくれるアドオン製品が、またまた出ました。シカゴのスタートアップFantemが作ったVitrimaは、ご覧のように(上図)ヘビーメタルというよりビッグメタルなアドオンだが、あなたのアクションカメラで3Dビデオを撮れる。

このデバイスでGoProのプラスチックケースに大きなレンズと光を分割するためのミラー(鏡)を付け、右目用と左目用の画像を作る。その画像をGoogle CardboardのようなVRヘッドセットで見ると、奥行き感のある立体画像になる。

アクションスポーツのビデオを作っているプロのビデオ作家二人に試してもらったが、その映像はなかなか迫力がある。最高の3Dビデオ作品とは言えないにしても、既存のふつうのカメラ用の安価なアドオンとしては、かなりいけてる部類だ。同社のYouTubeページには、スノーボードやスカイダイビングなど、いくつかの作例がある。ヘッドセットが手元にある人は、ぜひ。

Fantemは今このレンズを、Indiegogoで予約販売している。レンズキットは69ドルで、軽量バージョンは10ドル安い。発売は来月の予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Autodesk、3DロボットドローンとIoTaaSに将来を見据えた投資

screen-shot-2016-06-14-at-6-04-22-pm

Autodeskといえば、デスクトップソフトウェアや従来型の製造を思い浮かべる人も多いだろう。しかし、同社はその印象を変えるべく普段の努力を続けており、本日1億ドルのForge Fondから行う最初の3つの投資として、3Dロボットドローン企業、オンデマンドのマシンショップサービス、スマートコネクトされたIoTデバイスのプラットフォームを発表した。

1982年創業のAutodeskは、事業再興の道を模索してきたが、その1つが昨年末にローンチされたクラウドベースのForge開発プラットフォーム と、同社がそのプラットフォームで興味深いアプリケーションを作成するための1億ドルの資金だった。

Autodeskは今週、同社初となる Forge DevCon開発者会議を開催するが、これらの3つの企業は、明らかに平凡な1980年代のCADソフトとは一線を画した存在となるだろう。

3D RoboticsMakeTimeSeeboの3社は、すでに設立からある程度の期間が経過している。中でも3DRの創立は2009年で、これまでに1億2600万ドル以上の資金を調達している。AutoDeskは各社への投資額を明らかにしていない(著者が質問したが回答は得られなかった)が、3社にはForgeプラットフォーム上に新しい機能を構築するという共通項がある。

Forgeプラットフォームは、進化する一連のAPIからなり、この3社のような開発企業がAutodeskのサービスにアクセスできるようにする。たとえば3D Roboticsでは、ドローンで写真を撮ってその写真をAutodesk 3D Mesh APIを使って3Dメッシュに変換するために使っている。

MakeTimeは、プロジェクトとダウンタイムのあるマシンショップをマッチングするサービスを運用している。これには、設計図をさまざまなフォーマットに変換する必要があり、それを実現するために多種多様なAutodesk APIツールセットを使用している。

Seeboは、デザイナーが任意の製品をコネクテッドデバイス化するために、簡単にセンサー、GPS、加速度計などの部品をデザインに追加する手段となるSaaS(Software as a Service)を提供している。Seeboはプラットフォームに組み込まれたFusion IoT APIを活用している。

これらの企業(およびその他の企業)だけではプラットフォームに十分な数の開発者を引き寄せられなかったとしても、AutodeskはプラットフォームAPIへの無料アクセスと、カンファレンス後90日間無制限のAPI利用権という、極めて気前のよいオファーを用意している。無料期間後は、月間400ドルからの利用量に応じた料金体系が適用される。

すべてが魅力的な要素ではあるが、それを支えるモチベーションは、企業にプラットフォームの使用を奨励することであり、最終的にはモノづくりの将来においてAutodeskが繁栄する助けとなってもらうことだとAutodeskのクラウドプラットフォーム担当VPのScott Reese氏は言う。

Autodeskは、いつまでも20世紀の世界を生き続けることはできないことを明確に理解しており、3D製造を改善するためのクリエイティブなアプローチであるProject Escherは、同社が変化する世界に対応していけるように設計されている。

[原文へ]

(翻訳:Nakabayashi)

3Dは、新しい2D

3dkitty

【編集部注:本稿のライター、Amitt MahajanPresence Capitalの創業パートナー。】

デスクトップやウェブのユーザーインターフェースは、伝統的に2Dだ。スマートフォンのアプリも、ゲーム等の特殊なケースでは3Dに対応しているものの、依然2Dだ。フラットUIデザインへの動きは、微妙な3D要素を取り入れながらも、既存のコンピューター機器にとって主要かつ最適な操作メカニズムは2Dであることを強調する結果となった。

それに対してフル3Dは常に、ゲーム、映画、業界に特化したアプリケーションというニッチ市場を追い求めてきた。フル3DのUIが、現在のシンプルで親しみやすい2Dを置き換えることは、デスクトップでもモバイルでも起こりそうにない。

ウェブを通じて3Dの先がけとなろうとした試み(WebGLやVRML)はことごとく失敗したが、それはウェブが生まれながらの2Dであり、指やマウスによる操作が簡単で覚えやすいからだった。3D要素はいつも不必要な複雑さと摩擦を加えるだけで、ユーザー体験に有意な改善をもたらすことはなかった。

しかし、これがもうすぐ変わろうとしている。今年、仮想現実(VR)機器が、何年かのうちには拡張現実(AR)機器がそれぞれ発売される。VRとARはわれわれのコンピューターインターフェースを2Dから3D主体への根本的に変える可能性を秘めている。

VRとARは、ユーザーをリアリティーのある3D世界で包み込むことによって、没頭的体験をもたらす。さらに、Oculus Touchコントローラーや、Leap Motionを用いたハンドトラッキング等の最新入力方式を使えば、新たな3Dハンドジェスチャーの使用も可能になる。現在VR向けに開発されているコンテンツのすべてに3D要素が含まれている。

Pincは2Dと3DのギャップをつなごうとしているVR会社である

3D主体のコンテンツはいくつもの可能性を示唆しており、スタートアップに新たな機会を生みだすだろう。

UnityやUnreal等の定評ある3Dオーサリング環境の価値が益々高まっている。現在のVRコンテンツの大半はUnityまたはUnrealのエンジン上で動いている。VRやARが益々普及するにつれ、これらのプラットフォーム向けにコンテンツを作りたい人の数も増えていく。2つのプラットフォームは、その確固たるエコシステムと信用によって、この業界に参入する人たちにとって標準の選択肢となっている(モバイルおよび専用機の有力ゲームの大部分はこれらのエンジンで作られている)。

もう一つこの分野への新規参入が難しい理由は、基礎をなすレンダリングエンジンだけでなく、アーティストやゲームデザイナー等、チームの非エンジニアメンバーを支援する総合的なツールを作る必要があることだ。

Simpler ways to create 3D content have to be developed. There isn’t yet a WordPress or Weebly of 3D content, as there hasn’t been a major demand or channel for it. It’s arguable that the simplest 3D authoring tool today is Minecraft. SketchUp is also fairly easy to use and is closer to professional tools like Autodesk’s 3DS Max or Maya.

もっと簡単に3Dコンテンツを作る方法が開発されなくてはならない。3DコンテンツのためのWordPressWeeblyはまだ存在しないが、それは十分な需要やチャンネルがないからだ。現在最も簡単な3DオーサリングツールはMinecraftかもしれない。SketchUpも比較的使いやすく、Autodeskの3DS MaxやMayaのようなプロ用ツールに近い。

プロ用3Dオーサリングツールはもっと費用効率が高くならなければならない。今日、3Dモデルや3Dキャラクターを作るためにはまずアーティストがモデルを作り、テキスチャーを加える必要がある。もしモデルがキャラクターなら、それを動かすアニメーターも必要だ。どの工程も時間がかかり、3Dコンテンツの制作は労力を要する作業となっている(2Dコンテンツ制作と比べて)。

こうした余分な努力を費してさえ、生成されるコンテンツが写実的なものになることは稀であり、不気味の谷に陥いることが多い。この作業を軽減し、より写実的コンテンツを作るためのソフトウェアは、高品質3Dコンテンツの要求が高まるにつれ価値を持つようになるだろう。当社の投資先企業である、Uncorporealは、高度なコンピュータビジョン技術を用いてこの問題に取り組んでいる。2D UIパラダイムは、3D向けに再検討する必要がある。

どの新しいプラットフォームも似たような課題に直面する。マウスが入力デバイスに加わった時も、われわれがスマートフォンの指を使ったタッチジェスチャーを学んだ時も、開発者は自社の主要アプリケーションが機能するかどうかを考慮し直す必要があった。VRと3Dに新たな操作セットが必要になる。

下のビデオでは、Leap Motionが3Dインタラクションエンジンのデモを行っている。

2Dからの移行にはまだ多くの産みの苦しみが待っているだろうが、3Dで現実世界を体験しているわれわれにとって、同じ方法でコンピューターとも対話できたら、それはすばらしいことだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

360度閲覧可能な3D写真を写す、3DAroundが間もなく登場

Eコマースサイトや、あるいは映画マトリックスなどでみた、ぐるぐると回転させて見ることのできる写真をスマートフォンで簡単に撮れたら楽しそうだと感じる人は多いだろう。そうした人に朗報だ。1ヶ月ほどの後、Dacudaより3DAroundカメラというアプリケーションが登場するらしいのだ。使い方は簡単で、スマートフォンないしタブレットで、撮影対象の周りを移動しながら撮影するだけで良い。アプリケーションにて、撮影した写真をまとめて3Dイメージを生成し、そして念願のぐるぐる回しができるようになる。

ちなみにDacudaについては、Kickstarterにて展開したPocketScanキャンペーンを覚えている人も多いかもしれない(TC日本語版の記事はこちら)。持ち運び可能で、かつ高機能であるスキャナを提供したいとするプロジェクトだった。今やDacudaは25人の従業員と5年の経験を誇る企業に成長している。そして360度展開可能な写真を撮影することで、どのアングルから写すべきかという悩みを消し去るプロダクトをリリースしようとしているのだ。これが普及すれば、(退屈な?)フード写真が魅力的になることもあるかもしれない。

「AppleがカメラAPIをオープンにしたことも、私たちにとっては追い風なのです」とDacudaのファウンダー兼CTOであるDr. Alexander Ilicは言っている。「私たちのプロダクトを実現するには、露出時間、フォーカスなどについて、ローレベルなところにアクセスする必要があります。まさにiOS 8にて可能となった機能をフルに使っているのです」とのことだ。


 

プロダクトを思いついたのは、フードブロガーの振る舞いを見ているときなのだそうだ。何枚を写真を撮って、そのうちのどれが良いかを悩んでいる姿に疑問を感じたらしい。そのときに「すべての角度から撮影してみれば良いのに」と考えたのだそうだ。アイデアを実現しようとすれば、3Dセンサーを搭載したカメラが必要であろうと考えた。しかし新しいiPhoneのスペックをみるにつけ、ソフトウェアでなんとかなるのではないかと考えたのだそうだ。そして実現してみたのが3DAroundであるというわけだ。

3DAroundはそもそもMIT卒業生たちを巻き込んで、ETH Zurichからのスピンオフとして始めたプロジェクトだった。Wellington Partners、Swiss銀行系Schwyzer KantonalbankおよびオーストリアのアントレプレナーであるHans-Peter Metzlerなどが出資している。

3DAroundは連写することにより360度ビューで利用できる画像を取捨選択するしくみとなっている。生成された写真はアプリケーション内から確認することもできるし、ChromeなどのWebGL対応のブラウザで見てみることもできる。出力した写真はFacebookやTwitter、あるいはPinterestなどでシェアすることもできる。

アプリケーションは、iPhone 5以上対応として来月リリース予定になっている。HTC EVOは3D写真用の2連カメラを搭載していたりもするが、3DAroundはハードウェア的な拡張をせずとも3Dを楽しめるようになっている。正式リリースとなった暁には、改めてレビューしたいと考えている。

原文へ

(翻訳:Maeda, H


役者の動きをリアルタイムに3Dアニメ化、MUGENUPは「和製Pixarを目指す」

ゲームイラストのクラウドソーシングを手がけるMUGENUP。2013年3月にクラウドソーシングの受託者(クリエーター)と社内ディレクター間でのチャットやファイル、工程などを一元管理するツール「MUGENUP WORK STATION」を開発することで、約1万7000人のクリエーターで数多くの案件を管理できる体制を整えている同社だが、2014年はそのクラウドソーシングのノウハウをイラスト以外の分野に横展開をすると語っていた。

その第1弾として同社は、クラウドソーシングを使ったゲーム攻略サイト「みなゲー」を1月に公開している。こちらに関してはまだ状況は伝わってこないが、第2弾の事業が展開されている。

MUGENUPは3月24日より、ディー・エヌ・エー(DeNA)が提供するライブキャスティングサービス「Showroom」にて、ライブコミュニケーティングアニメーション 「こちら娘島高等学校ほーそお部」を開始する。配信時間は毎週月曜の午後9時から9時30分まで。

ライブコミュニケーティングアニメーションと聞くと何のことか? と思うかもしれない。これは、モーションキャプチャーや画像解析技術を組み合わせることで、役者の動きをリアルタイムに3Dアニメ化するというもの。リアルタイムにアニメ化されるので、ユーザーとのインタラクティブな会話も実現する。言葉で説明するよりも、MUGENUPが提供するイメージビデオを見てもらう方が早いだろう。なおアニメのキャラクターや3Dモデルもクラウドソーシングを使って作成しており、キャラクターの衣装変更なども素早く対応できるのだという。

「日本はクリエイティブを発信することについて力があるのに、みんなテクノロジーに目を向けない。手書きには手書きの良さがあるがそれだけではないのではないか」——MUGENUP代表取締役社長の一岡亮大氏はこう語る。

クラウドソーシングで2Dのイラストに加えて3Dデータの取り扱いもはじめていたMUGENUP。3Dデータを使ったサービスの可能性を考えている中でShowroomのリリースを知り、すぐにDeNAにコンタクトをとったのだという。「ソーシャルゲームの次の“波”は動画しかないと思っていた。今がその潮目。動画で、課金の機能を持っているプラットフォームでコンテンツプロバイダーになろうと思った。テクノロジーで和製Pixarを目指す」(一岡氏)

システムに関しては詳細は公開されていないが、ゲームエンジンのUnityを利用し、モーションセンサーなどもバルク品などを組み合わせているとのことで、「制作期間は企画から2カ月ほど。スピードは通常のアニメーションの3分の1、費用は10分の1程度になる」(MUGENUP執行役員CCO エンターテイメント事業部部長の西山理彦氏)だという。

最近では、YouTubeで自ら企画、出演した動画を配信する「YouTuber」と呼ばれる人たちも登場しており、uuumのように、そのマネジメントを手がけるスタートアップも登場している。一岡氏はライブコミュニケーティングアニメーションがYouTuberらと本質的には同じとしながらも、「属人的ではなく、企画からコンテンツを作れるので広がりがある。さらに言えばキャラクターなのでリスクコントロールもしやすいと考えている」と強みを語る。すでにタイアップやOEMの打診などもあるという。

マネタイズについては未定だが、3Dデータをフィギュア化することなども含めて「ファンの数に応じた回収方法はあると思っている」(一岡氏)という。制作を手がける西山氏も「艦これ(艦隊これくしょん〜艦これ〜:DMM.comとKADOKAWA GAMESのブラウザゲーム)のようにネット発のIPが出てきた。まずはやってみる、やり続ける」と語っている。

実は僕は、この取材にあわせて少しだけではあるが、テスト配信を見る機会を得た。3Dアニメの動きと、役者の会話は見事に一致して配信されている様には大いに驚いた。時間のある方は、まず今夜その配信を見てみてはいかがだろうか。

左からMUGENUP代表取締役社長の一岡亮大氏と執行役員CCO エンターテイメント事業部部長の西山理彦氏