PKSHAが3Dアルゴリズム開発のSapeetを子会社化

汎用型対話エンジンや領域特化型の画像認識エンジンなど、自社で開発した機械学習/深層学習領域のアルゴリズムモジュールを展開するPKSHA Technology(パークシャテクノロジー)。同社は2月13日、3Dアルゴリズムを開発するSapeetを子会社化したことを明らかにした。

株式の取得価格については非公開。SapeetではPKSHAの顧客基盤や管理インフラなどのアセットを活用しつつ、引き続き独立したチームとして事業開発にあたるという。

Sapeetは2016年3月の設立。翌年にベンチャーキャピタルのANRIからシードラウンドで資金調達を実施しているが、実はこれがSapeetにとって唯一の外部からの資金調達だ。そういった意味では比較的早いフェーズでのM&Aと言えるかもしれない。

3Dアバターで着圧情報や着心地がわかる仕組みを構築

現在Sapeetでは3Dネット試着システムやサイジングモジュールなど、コアとなる3D技術をアパレル業界を中心とした複数の領域で展開している。

同社のネット試着システムを導入したECサイト上では、ユーザーが身長・体重・年齢・性別を基に自身の“分身”となる3Dアバターを作成する。商品の3Dデータと照らし合わせることで、このアバターを通じてネット上で洋服を試着し、サイズやコーディネートを確認できる仕組みだ。

特徴は「どこがきつくて、どこがゆるいか」など試着した服の着圧情報や着心地がわかること。ヒートマップのような形で全体のフィット感が可視化される(タイトな部分は赤く表示される)ので、ECサイト上で自分に合ったサイズの服を見分けられる。

もちろん服の組み合わせを複数パターン試したり、カラーバリエーションを変えたりといった形でコーディーネートを検討する際にも有用だ。

Sapeetではこのネット試着システムを事業者向けに展開する中で、服の3Dデータを簡単に作れる仕組みや身体のサイズを写真から測れる技術などを付随して開発してきた。

そのひとつであるサイジングモジュールでは身長・体重・年齢・性別といったデータと、数枚の全身写真をもとにユーザーの体型を測定し、3Dデータとして可視化する。実際にはスーツを着ないけれど、ZOZOSUITのような物をイメージしてもらうとわかりやすいかもしれない。

3Dの体型データではなで肩や猫背など細かい特徴も汲み取れるため、既製品であればより適したサイズを提案することができるし、オーダーメイドであれば肩周りの設計を見直すなどより細かい調整ができるようにもなる。

Sapeet代表取締役の築山英治氏は「アパレル業界では大量生産大量廃棄のスタイルが課題とされてきたが、3Dデータを活用することで事前にサンプルを作らずとも注文を受け付け、ある程度受注が合った時に実際に生産するといった服の作り方、売り方も提案できる」と話す。

物理シミュレーションの研究をネット試着に応用

Sapeetの技術は築山氏が大学時代に行なっていた物理シミュレーションの研究がベースになっている。学部生時代は金属部品などを対象に「どこに圧がかかるのか、どのような設計をすればいいのか」を学び、大学院では流体シミュレーションの研究室で服のシミュレーションの研究をしていたそうだ。

これはいわゆる3D CG領域のテクノロジーを活用したもの。3Dデータを扱うという意味ではディズニーなどがCGの分野で秀でているが、Sapeetはその技術をアパレル分野の課題解決に用いた。

「きっかけは大学時代にネットで服を購入した際、自分のサイズに合った服が買えず困った体験から。アメフト部に入っていたことでそれまでと体型が大きく変わり、買った服がパツパツで着れなかった。周りにも同じような悩みを抱えていた知人がいたので、どうにか簡単にネット試着ができる仕組みが作れないかと考え始めた」(築山氏)

サイジングモジュールのような概念も今でこそZOZOSUITが話題になっているが、数年前はまだそのような考え方も根付いていなかったものだ。

早い段階からSapeetに出資をしているANRIの佐俣アンリ氏も「3Dスキャニング自体は『セカンドライフ』が流行った2007年ごろに波がきたものの、その時は大きくな広がらず沈んでしまった。ただ技術的にいつかは大きな波がくる領域。その中で自分たちの研究を土台にした面白いアプローチであり、創業者を含めたチームも優秀だったので投資をした」と当時を振り返る。

写真左からANRI佐俣アンリ氏、Sapeet代表取締役の築山英治氏、ANRI鮫島昌弘氏

3D技術の領域で1番濃いエンジニアが集まるチームを作る

さて、“アルゴリズムサプライヤー”として事業を拡大するPKSHAが、そんなSapeetを子会社化するに至ったのはなぜだろうか。PKSHAの代表取締役である上野山勝也氏は「Sapeetをファッション領域の企業ではなく、3D技術に強みのあるスタートアップとして見ている」とした上で、今回の背景をこう語る。

「3Dモデリングや3Dシミュレーションといった3D技術は自分たちも今後絶対にやろうと思っていた分野であり、Sapeetはそこで1歩先、2歩先を行っているチームだと考えている。一方で(事業を育てるためには)比較的ロングランしないといけない領域である可能性はあるが、自分たちの会社なら長期戦もできる。『この領域で1番濃いエンジニアが集まるチームを作ろう』という方向性もお互い一致していたので、一緒にやるのが1番良いのではと合意に至った」(上野山氏)

3Dモデリング技術の会社は他にもないわけではないが、アルゴリズムドリブンで自社プロダクトを開発しているようなエンジニア主体のスタートアップは多くない。「エンターテイメントやゲームなど幅広い領域で活かせる技術であり、結構な規模のマーケットになりうると考えている。そのアルゴリズムにアダプトできるエンジニアチームを作るのが1番難しい」というのが上野山氏の見解だ。

一方のSapeet側としては「当初は資金調達を考えていた」ためいろいろな選択肢を検討したが、最終的にはカルチャーの相性が良く、事業面への理解とシナジーのあるPKSHAと組むことを決めた。

「個人的には、技術に固執しすぎてずるずると時間を使ってしまうシナリオも見えていたので、そうなってしまうことを危惧していた。技術をベースにしつつも、ビジネスサイドの視点も強化したいと考えていた中で、(PKSHAは)技術力に強みのあるエンジニアドリブンな会社として事業を拡大している。かつ創業から10年経っておらずスタートアップの気質にも合うと感じたことが大きい。両者の技術を合わせればより面白いサービスができるとイメージできた」(築山氏)

冒頭でも触れた通りSapeetは2016年3月の設立であり、まさに事業の種となる基盤技術を育てている真っ只中だ。そういったフェーズの若い技術系スタートアップが、事業や理念に共感した“先輩のテック企業”と一緒に事業を大きくしていく選択肢は今後少しずつ広がっていくのかもしれない。

「VCのセオリーとしては、技術系のスタートアップは時間がかかるのでPoCが終わるまで投資しづらいような側面もある。その手前の段階でも、そこに理解を示してくれた会社と一緒にやれるというのはポジティブな動きだと考えている。そのようなプレイヤーが増えていくと、エコシステム全体として技術系の領域でトライする人も増える」(佐俣氏)

SapeetではPKSHAの顧客基盤や管理インフラなどのアセットを活用しつつ、引き続き独立したチームとして事業開発を進めていく計画。また両社では中長期的な構想として、現在PKSHAが機械学習/深層学習領域で展開している事業と似たようなスキームで、3D技術領域のアルゴリズムモジュールを開発・展開していくような方向性も検討していくという。

Oculus GoにYouTube VRアプリが登場

本日(米国時間11/12)YouTube VRアプリが199ドルのOculus Goに登場した。これでウェブ最大のVRコンテンツライブラリーがFacebookの入門用VRデバイスで使えるようになった。

YouTubeは、通常のビデオでも没頭的ビデオのタイプでも大量のコンテンツを提供している。ここが360度コンテンツやVR180などのネイティブフォーマットを提供する最大のハブであることは間違いない。しかし、Oculusプラットフォームにとっては、ライブラリー全体を自由にアクセスできることの方がずっと重要だろう。

Oculus Goの戦略で興味深いのは、ゲームでの利用はメディア消費と比べて少数派であることだ。そんなに多くの人たちが360度ビデオを大量消費しているとは信じられない、と思うかもしれないが、実際そうではない。多くのユーザーはこのデバイスの能力の一部のみを利用して、通常の映画やテレビを見る装置として使っている。NetflixやHuluのアプリもあるほか、FacebookはOculus TVというApple TV風の環境を提供するアプリを提供しており、ソーシャルメディアにある大量の2Dコンテンツを見ることができる。

今年のOculus ConnectカンファレンスでCTO John Carmackは、ユーザーがGoで消費した時間の約70%はビデオの視聴で、30%がゲームだと話した。これまでOculusは自らをゲーム会社と位置づけてきたので、モバイルプラットフォームを成長させることによって、VRビジネスのビデオ利用をいかに魅力的にしていけるのかが注目される。

YouTubeによって、Oculusは大量のコンテンツを揃える容易な手段を手に入れた。YouTubeはOculus TVにとっても偉大なパートナーとなる可能性をもっているが、専用アプリはユーザーに多くのものをもたらすだすう。Googleは自社のVRハードウェアDaydreamが伸び悩んでいることから、スタンドアロンのYouTubeアプリをDaydreamにのみ提供するのではないかとも思われた。しかし、どうやらいまのところは外部プラットフォームに力を注ぐつもりのようだ。

YouTube VRアプリはここでダウンロードできる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookが3D写真機能を公開――iPhoneで奥行きのある写真が撮れる

 

小さな窓から部屋の中を覗くとしたら頭を動かして何があるのか見ようとするだろう。ニュースフィードの写真でそれと同じことができるようになる。これがFacebookの5月のF8デベロッパー・カンファレンスで発表された3D写真機能だ。Facebookではいよいよこの機能を一般公開する。利用できるのは 当面、iPhoneのポートレート・モードだ。

3D写真をFacebookにアップするにはポートレート・モードを選んで撮影し、「3D写真」のオプションを選ぶ。投稿された写真はデスクトップでもモバイルでも表示されるが、モバイルデバイスの場合、ユーザーがタッチしたりデバイスを傾けたりすると写真がそれに反応する。それに加えて、Oculus GoのVRブラウザやRiftのFirefoxで表示した場合、頭を動かすと横に回り込むような奥行きの感覚が得られる。誰もが簡単に3D写真を撮影したり操作したりできるようになるわけだ。この機能は全ユーザー向けで、数週間かけて公開される。

Facebookでは常にニュースフィードに新しい要素を加えてユーザーの興味をかきたててきた。タイムラインに投稿できるのは当初テキストと写真だけだったが、ビデオが追加され、さらにライブでストリーミングができるようになった。これに360度写真と3D写真が加わる。Facebookではこうしたコンテンツが表示されることでニュースフィードを見る頻度が増え、広告を目にする回数も必然的に増えるものと期待している。これには専用カメラを使って短いカットをつなぎ合わせ、ある種のデジタル点描法で記憶を再現しようとするVR
Memoriesのような機能も含まれる。

この3D写真の仕組みは上のビデオに要点をまとめてあるが、われわれの同僚、Devin Coldeweyがこの記事で詳しく解説している。FacebookはAIを利用して多数の写真から複数のレイヤーを作って前後に重ね合わせ、これによって奥行きを得ている。最新のiPhoneのポートレート・モードは自動的に複数のカメラで撮影するのでこれが視差の感覚を与えるのに役立っている。

3D写真を撮影できるのは現在、iPhone 7+、 8+、 X、 oXSだ(サポート範囲は今後拡大される予定)。 Facebookでは最大の効果を挙げるには対象から1メートルないし1.5メートル程度離れるよう勧めている。また3Dで描写したい場合、3D効果を与えるレイヤーを作るためには主たる対象の前後にも対象が必要だ。これらの対象はくっきりした輪郭で色彩もはっきり異なっていることが望ましい。透明だったり光を強く反射したりする対象が含まれているとAIが正しくレイヤーを分離できない場合がある。

当初この機能はVRコンテンツを誰でも作れるように開発された。しかしVRヘッドセットの普及がいまいちなため、Faceboodではもっともインパクトのあるチャンネルであるニュースフィードに奥行き感覚があり動く写真が表示できるようにした。Facebookの魅力が薄れてかけており、ソーシャルな活動はむしろInstagramにシフトしていると報じられる現在、ニュースフィードにこうした次世代アートを表示できるようにすることは大きな意味があるわけだ。

〔日本版〕記事中のTCビデオはChromeブラウザ以外では表示に問題が生じる可能性がある(原文も同様)」。

原文へ

滑川海彦@Facebook Google+

サッカーのゲームをテーブルの上の拡張現実の3D映像で見る

ワールドカップのシーズンなので、機械学習の記事もフットボールを取り上げないわけにはいかない。その見事なゲームへの今日のオマージュは、試合の2Dビデオから3Dのコンテンツを作り、すでに拡張現実のセットアップのある人ならそれをコーヒーテーブルの上でも観戦できるシステムだ。まだそれほど‘リアル’ではないが、テレビよりはおもしろいだろう。

その“Soccer On Your Tabletop”(卓上サッカー)システムは、試合のビデオを入力とし、それを注意深く見ながら各選手の動きを追い、そして選手たちの像を3Dモデルへマップする。それらのモデルは、複数のサッカービデオゲームから抽出された動きを、フィールド上の3D表現に変換したものだ。基本的にそれは、PS4のFIFA 18と現実の映像を組み合わせたもので、一種のミニチュアの現実/人工ハイブリッドを作り出している。

[入力フレーム][選手分析][奥行きの推計]

ソースデータは二次元で解像度が低く、たえず動いているから、そんなものからリアルでほぼ正確な各選手の3D像を再構成するのは、たいへんな作業だ。

目下それは、完全にはほど遠い。これはまだ実用レベルではない、と感じる人もいるだろう。キャラクターの位置は推計だから、ちょっとジャンプするし、ボールはよく見えない。だから全員がフィールドで踊っているように見える。いや、フィールド上の歓喜のダンスも、今後の実装課題に含まれている。

でもそのアイデアはすごいし、まだ制約は大きいけどすでに実動システムだ。今後、複数のアングルから撮ったゲームを入力にすることができたら、それをテレビ放送のライブ中継から得るなどして、試合終了数分後には3Dのリプレイを提供できるだろう。

さらにもっと高度な技術を想像すれば、一箇所の中心的な位置からゲームを複数アングルで撮る/見ることも可能だろう。テレビのスポーツ放送でいちばんつまんないのは、必ず、ワンシーン==ワンアングルであることだ。ひとつのシーンを同時に複数のアングルから自由に見れたら、最高だろうな。

そのためには、完全なホログラムディスプレイが安く入手できるようになり、全アングルバージョンの実況中継が放送されるようになることが、必要だ。

この研究はソルトレイクシティで行われたComputer Vision and Pattern Recognitionカンファレンスでプレゼンされた、FacebookとGoogleとワシントン大学のコラボレーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのVR180対応のカメラがLenovoから登場

Lenovoは、ヘッドセットのMirage Solo発売に合わせて、Googleの180度テクノロジーに対応した最初のカメラを発表した。Lenovo Mirage Cameraは、YouTubeクリエイター向きを強く意識した製品で、13メガピクセルの魚眼レンズ2基が両目の位置に配置され、VRビューイングに最適な高画質の3Dビジョンを提供する。299ドルというか価格は、試してみようというクリエイターにとって高すぎることはないが、そのニッチの大きさが果たしてどのくらいなのかは考えなくてはならない。今日から出荷される。

カメラはYouTubeのVR180プラットフォームをベースに作られていて、クリエイターが少しでも簡単にVRのライブ撮影できることを目的としている。実際360度カメラは多くの注目を集めてきたが、クリエイターはこれで何ができるのかわかっていなかった。Googleの割り切りは、撮影対象を360度の半分にしてメディアとカメラを簡易化することで、そこまでコストをかけずに鮮明な3D 4Kビデオを提供することだった。

カメラの作りは非常にしっかりしている。はっきりした高級感はないものの、十分堅牢で何よりも携帯性が非常に高い。多くの360度カメラと同じくバッテリーの持ちは2時間とさほど長くないが、交換可能で1台スペアがついてくるのがうれしい。VR180とは180度を意味している。これは、特にカメラの上端に指がかかっていると180度の半球に映り込んでしまうのでよくわかる。

GoogleのVR180アプリを使うと、写真をプレビューしたり、カメラからYouTubeにライブストリームすることができる。

これは成功のための正しい答なのかもしれないが、問題は商品の登場が遅すぎたのではないかということだ。山ほどのYouTubeクリエイターが、VRビデオを試そうとしてフラストレーションを募らせていることは間違いない。ヘッドセットの数は増えているものの、VR視聴者の数はチャンネルを維持できるのにはいたっていない。「マジックウィンドウ」モードを使うとヘッドセットがなくてもモバイルやデスクトップでVR180ビデオを見ることはできるが、当然のことながら最大の売り物である3D機能は失われる。

[原文へ]

(翻訳:Nob Takahashi / facebook

お天気の視覚化は目的別分野別に多様であるべき、と主張するスイスの大学のプロジェクト

空の雲を見て、“犬”や“綿毛”を連想する人もいる。あるいは、“あれは衰退中の積雲で、羽毛のようなエッジは北からの高気圧が上昇気流によって終わりつつあることを示唆しているが、そのためにたぶん乱気流が生じるだろう。それに、ちょっと犬にも似ているな”、と思う人もいる。天候データの複雑で美しい視覚化は、後者の人びとが作っているのだ。

ETH Zürich(スイス連邦工科大学チューリッヒ校, ETHZ)のMarkus Grossが率いるプロジェクトは、天候データの視覚化はその利用目的や利用分野によって多様であるべき、と考えている。そこで彼のチームは、大量の天候データと格闘しながら、テレビ局や各種の研究所など、いろんなところにいるいろんな気象学者たちのための、それらのデータの正しい表現方法を模索してきた。

“われわれの視覚化の科学的価値は、既存のツールでは見ることができなかったものを見えるようにできるところにある”、とチームの一人、学部学生のNoël RimensbergerがETHZのニューズリリースで述べている。天候を、“比較的シンプルなわかりやすい方法で表現できる”、とも言っている。

問題のデータはすべて、2013年4月26日の夜のものだ。そのときは、ある大規模な気象学のプロジェクトにより、複数の研究機関が協力して大量のデータを集めたのだ。チームはそのデータを視覚化するためのさまざまな方法を作り出した。

たとえば、ひとつの郡全体を見るときには、雲に生じる小さな波動に注目することに意味があるだろうか? 必要なのはもっと大きな傾向であり、寒冷前線の生成や雨になりそうな領域など、重要なデータポイントを見つける方法だ。

  1. flights

  2. vorticity

  3. updrafts

  4. drafts

  5. clouds

しかし、局所的な雲の生成について知りたいときは、そんなマクロなデータは役に立たない。たとえばそこだけは、台風の風雨が異様に激しいかもしれない。

あるいは、あなたが小型飛行機のパイロットだったらどうか。ちょっとした雨や雲は気にならないかもしれないが、どこかに乱気流が起きそうなパターンがあって、それが今後どっち方向へどれぐらいの速さで動いていくのか知りたいときはどうする? または、先日墜落事故起きた、その場所の今の気象状況を知りたいときは?。

視覚化のこれら複数の例は、大量のデータ集合を解釈し表示する方法が、いろんな目的によってさまざまであることを、示している。

このプロジェクトにおけるRimensbergerの指導教官Tobias Güntherによると、膨大なデータを解釈してシミュレーションを作りだすために今使っているアルゴリズムが、とても遅すぎる。今は、その改良に取り組んでいるところだ。でも、時間条件がゆるい利用目的なら、現状でも十分使える、と。

彼らがETH Zürichの視覚化コンテストのために作成したペーパーの全文が、同大学のWebサイトにある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleとCyArkが協力して世界中の著名な史蹟や遺跡を3Dモデルで保存、その中を歩き回れる

インディ・ジョーンズの“これは博物館のものだ!”、という叫びがデジタルの時代へタイムスリップしたら、遺跡をクラウドに保存しようとするGoogleのプロジェクトになるだろう。

Googleの非営利事業部門Arts and Cultureが、オークランドの同じく非営利のCyArkとパートナーして、何千もの写真とデータで史蹟の細密な三次元モデルを作る。現場のスキャンには、複数のカメラのセットアップとドローンを用い、写真測量製図法とライダーの技術を利用する。CyArkは前からそういうスキャンをやっていたが、これまでは一般公開されなかった。しかし今度はGoogleの協力により、それらへのアクセスを公開するとともに、さらに新たな史蹟のスキャンも行うことになった。

CyArkの本来のミッションは、史蹟の保護だ。同社によると、これらの歴史的構造物は天災と人災の両方にさらされているので、同社のデータを利用する今度の企画では、それらの正確な視覚的再現が、次世代にとっても有益だ、という。

GoogleのArt and Cultureチームはこれまでにも、世界中の優れた美術作品の高解像度な保存作業を大量にやってきた。過去数年で大きな3Dモデルを捕捉するためのさまざまな方法が発達してきたので。Googleが次の段階として物理的な構造物の保存に目を向けるのも理にかなっている。こういう3Dのデジタル化技術は、初期段階の消費者向けVRから始まっているので、それらを見るための高品質なプラットホームはすでにある。それらは今後、もっともっと良くなるだろう。360度写真と違うのは、見る人が実際に遺跡のまわりを歩いたり、中を覗いたり、何かのうしろにあるものを同じく3Dで見たりできることだ。

これは相当エキサイティングだし、文化を原寸大で保存してその中を歩けることは、歴史を肌で感じる感覚を人に与え、またそれは、現代のテクノロジーの最高の到達点でもある。Googleが非営利でも活動していることは大いに素晴らしいが、今後は参加し助力するリソースがもっともっと増えて、これらの努力の対象と結果を世界中各地で広げ、世界のみんなが体験できるようになると良いね。

今は、18か国25の史蹟をこのプロジェクトで見ることができる。これらのモデルと環境は、デスクトップモードやPC、モバイルのVRヘッドセットなどで見ることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ニットマシンで3Dのウサギが編めるシステム登場――カーネギーメロン大で開発

産業用編機がついに3D化する。Carnegie Mellon大学の研究チームは任意の3D形状をオンデマンドで編み出すことができるテクノロジーを開発した。3Dプリンターに似ているが、プロダクトはソフトだ。

セーター、シャツ、帽子などアパレルでニット製品は大人気だが、消費者からは往々にして不満が出る。長過ぎる、短すぎる、ぶかぶかだ、きつい等々。

消費者のどんな難しい要求にも答えられるような、3D形状を編めるシステムをCMU Textiles LabのJames McCannのチームが開発した。このソフトウェアは通常の3Dモデリングツールで作った形状をニッティングパターンに変換し、コンピューター制御の産業用ニッティングマシンでプロダクトを編み出すことができる。

ニッティングマシンは人間の編物職人のような柔軟性は持ち合わせていないので、ニッティングパターンが不適切だと糸がよじれたり、切れたり、機械を詰まらせたりする。しかし機械を使えば大量生産が可能で常に同一の仕上がりとなる。

CMUのニュースリリースで McCannは「ニッティングマシンを3Dプリンターなみに容易に扱えるようになる」と述べている。

こういう産業用ニッティングマシンを消費者が操作することはないだろうが、アパレルやぬいぐるみのメーカー、デザイナーには朗報だと思う。

McCannのチームは研究成果をこの夏のSIGGRAPHでプレゼンする予定だ。

画像:CMU

〔日本版〕CMUのプレスリリースのビデオにはトップ画像のスタンフォードバニーの他にドーナツ・アヒル、翼のあるヒツジなど多数の複雑な形状の3Dニットのサンプルが見られる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Artopiaは世界中いたるところに3Dアートを置けるアプリ

公共の場所はそのうち拡張現実アプリを使うと見えてくる秘密のアートで埋まってしまうかもしれない。Artopiaというのは大いにクリーティブなARアプリだ。ユーザーは自分の3Dアートを特定の位置に関連付けて保存し、公開できる。つまり誰でもその場所でArtopiaを起動すれば保存された3Dアートを見ることができる。

現在Artopiaはベータ版がAndroidとiOSで入手できる。3Dお絵かきとARをストレートに結合した興味深い試みだ。3Dアートの作成には各種のブラシ、色彩その他標準的なツールが使える。アートを仕上げるためにスマートフォンを動かすことが可能だ。対象をつかんでぐるりと回すこともできる。

3Dアートを作成してセーブすると、Artopiaのサーバーはその正確な位置を記憶する。この位置はArtopiaのマップに表示されるので、近くを通りかかったユーザーはスマートフォンの画面で現実空間内に浮かぶアートを見ることができ、アートの制作者などの情報も表示される。そのアートの付近に関連するアートを付け足すこともできる。

アイディアはシンプルだ(実装はそうとうに込み入っている)が、体験は楽しく、見え方も自然だ。もちろん誰かが卑猥な3D落書きなどをした場合などにそなえて「問題を報告」するボタンもある。しかし全体として適切な利用はクラウドの知恵に任されている。

Artopiaはクウェートのデベロッパー、Omar Khalilが開発した。そのため3Dアートの分布はクウェートのアメリカン・ユニバーシティーの付近に集中している。しかしArtopiaに興味を抱いた読者は上のリンクからベータ版を入手して近所の公園や街角に自由に3Dアートを置いてみることができる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

FacebookのARやVRそしてニュースフィードに3Dオブジェクトをポストできる…3Dが第一級メディアに昇格

たとえば上図のようなデジタルの3Dオブジェクトを作って、それをFacebookでシェアしたり、仮想現実の中で遊んだり、実際の世界に拡張現実として挿入できるとしたら、かなりすてきじゃないかな? Facebookは10月に、ニュースフィードに対話的3Dモデルをポストできるようにして、ユーザーがそれを動かしたり回転できるようになったが、今日(米国時間2/20)はそれを一歩も二歩も前進させた。

これからは、Facebookの3Dポストは業界標準のglTF 2.0ファイル形式をサポートするので、オブジェクトの質感や光の方向、オブジェクトのざらざら感やつるつる感などを表現できる。そして新しいGraph APIを使ってデベロッパーは、3Dモデルを作るアプリや、それどころかオブジェクトをニュースフィードで直接シェアできる3Dカメラ、3Dのポストを見せるWebサイトなどを作ったりできる。3Dオブジェクトは、ユーザーがドラッグ&ドロップでフィードに入れられる。またユーザーの3Dポストは、VRの出会いの場であるFacebook Spacesに持ち込める。

[指やマウスで動かせる3Dモデル]

たとえば、あなた独自のデザインでメタリックなチェスのピースを3Dモデルづくりのアプリで作り、ニュースフィードでシェアし、さらにFacebook Spacesに持ち込めば、そこで出会った人とチェスをプレイできるだろう。すでにLEGO, Jurassic World, Clash of Clans, Wayfairなどのブランドが3Dポストの実験をやっているから、ここでプレイしたり、あるいはこの記事の上でもプレイできる。

FacebookのソーシャルVRのクリエイティブ・ディレクターOcean Quigleyは、“3DをFacebookのエコシステムのネイティブな部分(基盤的な部分)にしたいんだ。今そのための基礎工事をしているところだけど、これからはFacebookとユーザーはVRやARの3D世界に自由に行き来できるようになるね”、と語っている。彼によると、ソーシャルネットワークが単純なテキストや写真やビデオなどから没入的なメディア(immersive media)に進化していくのは当然の歩みなのだ。

さて、3Dポストをシェアしたら、今度は背景色とか質感などを自由に選びたいだろう。Quigleyによると、そういったアップロード過程をなるべく簡単にして、高度なスキルのない者でもハイテクなポストを共有できるようにしたい。彼はglTF 2.0を“3DのJPEG”と呼び、GoogleやMicrosoftによるサポートを賞賛する。また別の形式の3Dオブジェクトを持っている人のためには、Facebookはコンバーター(変換ソフト)をGitHub上でオープンソースで提供しているから、ファイル形式を変換してFacebookへのポストも可能だ。

これがうまく行けば、Facebookにとって大きな強みになる。まずそれは、もっとも未来的なシェア方法だから、そのほかのソーシャルネットワークがずっと後方に置き去りにされてしまうだろう。Facebookのプロフィールが“3Dの自撮り”になったり、友だちから集めたオブジェクトでみんなと遊んだりできる。そして、サードパーティなども参加して優れた3Dのアバター制作ソフトを作れば、あなたの写真から作られたあなた自身の仮想バージョンがFacebook上を動き回る。おともだちもびっくり! FacebookがSnapchatのBitmojiアバターの競合製品を作るのも、時間の問題だ。

そして消費者であるFacebookユーザーが、単なる写真よりは拡張現実を試すようになれば、マーケターや広告主にとっても(魅力や説得力の点で)ありがたい。すでにSonyなどは、そんな拡張現実コマースをやり始めている。またWayfairでは、ユーザーが自分の家の写真に、買ってみたい家具の3Dの拡張現実を、‘試着’ならぬ‘試設’できるようにしている。

Facebookはこれまでも、360度写真など新しい形式のコンテンツを積極的に採用してきた。すでに14歳を過ぎたFacebookが、ティーンの心を捉えようとして、ライブのビデオやGIFも導入した。FacebookのプロダクトマネージャーAykud Gönenがこう書いている: “人びとがVRやAR、Facebookのニユースフィードなどで、そのような没入的な体験やオブジェクトをシェアできる、シームレスなデジタル世界を目指したい”。

もちろん現実世界のすべてを拡張現実でカバーするほどの大量の3Dオブジェクトは、Facebookだけで作れるものではない。サードパーティのデベロッパーと一般ユーザーの協力が不可欠だ。Quigley曰く、Facebookの中でオブジェクトを作れるような“3Dエディティングツール”を提供するつもりはない、と。でも外部のクリエイターがそんなものを比較的簡単に作ってインポートできるなら、スマートフォンやヘッドセットや、未来のARグラス(めがね)からのARVRの没入的体験が、とってもすばらしいものになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

リアルタイムの自己チェック機能のある3Dスキャナーは最初から正しい3Dモデルを作る

物の3Dモデルを作る方法はいろいろあるけど、その自動化となると、その物のまわりをぐるぐる回ってメッシュを作る、というものがほとんどだ。しかしここでご紹介するFraunhoferのシステムはもっとインテリジェントで、スキャンする物の特徴を事前に理解し、全体をスキャンするための効率的な動き方を自分で計画する。

ふつうは、スキャンが完了すると、ユーザーが相当時間をかけて点検しなければならない。たとえば出っ張りの部分がお互いを邪魔していないか、複雑な部分を正確にモデルしているか、などなど。欠陥を直すために、新たに調整した二度目のスキャンをすることもある。スキャナーに何らかの3Dモデルを事前にロードして、その物の形を教えるやり方もある。

Fraunhoferのコンピューターグラフィクス研究所(Institute for Computer Graphics Research)でPedro Santosが指揮したプロジェクトでは、システムが最初から自分の画像を自分で評価して、次の動きをプランする。

“われわれのシステムが独特なのは、各部位を自律的にリアルタイムでスキャンすることだ”、と彼はニュースリリースで言っている。またそれは、“どんなデザインのどんな部位でも測定できる。教えてやる必要はない”。

だからこのシステムなら、過去に一度も見たことのないパーツの、複製を一個だけ作ることもできる。カスタムメイドのランプや容器、ビンテージカーのドアやエンジンなども。

4月にハノーバーにたまたまいる人は、Hannover Messeへ行って自分で試してみよう。

画像提供: Fraunhofer

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

カマキリに3Dメガネをかけさせて研究したら新しいよりシンプルな立体視覚が見つかった

イギリスのニューカースル大学の研究者たちが、カマキリの上で独自に進化した立体視覚の形を発見した、と考えている。研究チームは、この昆虫の中で起きる現象をできるかぎり精密に研究しようとし、そのために虫の目に3Dメガネを装着した。

上図のように、昆虫の目につけた3dメガネは二色で、蜜蝋で一時的に接着した。そしてチームは、餌食となる虫のビデオを見せ、カマキリはそれに向かって突進した。その点に関しては、カマキリの立体視像の処理は人間のそれとほぼ同じ、と思われた。

しかし人間の3D視覚をテストするために使うドットパターンを見せると、カマキリの反応は違った。彼らの発見は、こう記述されている: “二つの目にそれぞれまったく異なる画像を見せても、カマキリは、変わっている部分のある場所同士をマッチできた。人間にはできないような場合にも、それができた”。

同大によると、その立体視覚の発見によって、カマキリは昆虫の世界で独特であることが分かった。またそれは昆虫だけでなく、猿や猫、馬、フクロウ、人間などそのほかの動物の立体視覚とも違った。カマキリの立体視覚の特徴は、二つの目の間に感受した動きをマッチングさせており、人間のように明るさを使っていない。

Vivek Nityananda博士はこう語る: “これをするほかの動物を私は知らない。このような種類の3D視覚は、現在にも過去にも例がない”。Nityanandaはさらに加えて、この種の3D視覚が過去に理論化されたことはあったが、実際の動物の中に検出されたのはこれが初めてだと思う、と言った。

このシステムは人間の3D視覚よりもそんなに複雑でない過程を経て発達し、カマキリのあまり複雑でない脳でも処理できるようになった、と科学者たちは信じている。そのことは、Nityanandaによると、3Dシステムをなるべく単純で軽量なマシンに実装しようとしているロボティクスにとって良いヒントだ。

彼は曰く、“それはずっとシンプルなシステムだ。カマキリは、両方の目の適切な位置における変化を検出しているだけだ。ロボティクスでは、二つの目の視界をマッチングさせるときに処理する複雑な細部よりも、変化の検出の方がずっと容易に実装できる。必要な計算力も少ない。それなら、はるかに軽量なロボットやセンサーにも組み込めるだろう。

画像提供: Mike Urwin/Newcastle University, UK

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CRISPRがDNA鎖を切るとき何が起きているのか…分子レベルの3Dアニメーションが完成

CRISPR-Cas9遺伝子編集テクニックは、今日のバイオテクの進歩について知るべき重要な概念だが、それを正しく視覚化することは難しい。それは、分子の鋏(はさみ)のようなものか? DNAはどこにあるのか? それは大きな分子かそれとも小さな分子か? 今回、幸いにもあるグループが、そのプロセスを分子のレベルで見せる3Dアニメーションを作った。

ご覧いただくアニメーションを作ったのは、ロシアのSkoltech Instituteの生物学者たちとVisual Science社だ。ビデオは後者のWebサイトにある:

これは、どれだけ正確なのか? なんと、ほかならぬJennifer Doudnaがこのアニメを賞賛している。彼女は、CRISPRのテクニックを発見して磨き上げた人びとの一人だ:

分子レベルのアニメーションは、複雑な生物学的システムの謎を解き、説明するための必要不可欠な方法だ。驚異的な画像技術と細部への注視により、Visual ScienceとSkoltechはCRISPR-Casプロテインの動的メカニズムを捉え、その研究用ツールとしての用途を示した。

これらのアニメーションは“非営利的教育プロジェクト”の一環として作られているので、ライセンスも、変様も、そしてそのほかの教育的利用も自由である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

工事店の便宜のため一般住宅の3Dモデルを作るHoverがGV(元Google Ventures)らから$25Mを調達

世界を3Dスキャンするスタートアップがこのところ増えているが、では3Dスキャンに対する一般消費者のニーズは奈辺にあるのだろうか? 多くの人びとにとって、家が人生最大の投資だろう。だからサンフランシスコのHoverは、そこからスタートすることにした。

Hoverは消費者の家の3Dモデルを作り、さまざまな工事などの見積を得やすく、そして理解しやすくする。同社は今日、GV, Home Depot, およびStandard IndustriesがリードするシリーズBのラウンドで2500万ドルを調達したことを発表した。同社の累計資金調達額はこれで5600万ドルあまりになる。

Hoverのユーザーは、特殊なハードウェアを買わなくてもよいし、3Dスキャンの技術的詳細を知っている必要もない。ユーザーは家を外から撮った写真を数枚撮り(ドローンは要らない!)、それらをHoverのアプリケーションに読ませるだけだ。アプリケーションはコンピュータービジョンの技術を使って写真を消化し、ユーザーの家の3Dモデルを吐き出す。

消費者にとっての利点は二つある。ひとつは、工事の検討。サイディングや窓の改良などの方針を検討し、決められる。もうひとつは、3D画像があると業者はより正確な見積を作りやすい。

同社のHover Connectというプロダクトは、消費者ではなく工事店が使って、さまざまな工事のセールス〜営業を行うために利用する。見込み客段階で3Dモデルを作らせてもらえると、いろんな提案もやりやすい。その後の見込み客との商談も、円滑に進むだろう。

スマホ用のアプリをここでダウンロードできるから、ご自分の家の3Dモデルを作ってみるのも、おもしろいかも。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

交通騒音も路上と室内では違う…3D空間内の複雑な音響編集を助けるResonance AudioをGoogleが発表

拡張現実(augumented reality, AR)は、コンピューターとの対話を三次元化するという展望により、徐々に伸びつつあるが、すでにいろんなプラットホームを提供しているGoogleは、その三次元空間に視覚だけでなく五感のすべてを持たせたいようだ。

今日(米国時間11/6)Googleは、同社のVR Audio SDKをベースとして、より総合的な空間オーディオプロダクトResonance Audioをモバイルとデスクトップ両用に作っていることを発表した。

Googleの説明によるこのSDKの用途は、“本物の音が人間の耳や環境と対話する”様相を再現することだ。たとえば、現実の音が物や環境によって歪むという現象も、ARの仮想的シナリオにおいて再現する。

たとえばあなたが大型ラジカセを持って歩いている仮想キャラクターだとすると、何かの曲を鳴らしながら開放的な空間を歩いているときと、吹き抜け階段を降りているときとでは、音はどう違うのか? Resonance Audioが対応しているこのような多様な状況により、ユーザー(デベロッパー)もそんな状況を三次元の奥行きの中で音で再現できるようになる。

またResonanceはデベロッパーがシーン中の音源を指定できるだけでなく、音源が動く方向も音質の変化で表すので、たとえばあなたがデジタルのキャラクターのうしろを通るときと、顔の前を通るときでは、反響音を変えられる。

上で例を述べたようなさまざまな状況の変化は、ゲームのデベロッパーにとってはおなじみのものだが、しかし複数の(数十の)音源が同時にいろんな状況で対話的に鳴るといった複雑な設定では、その対応も難しい。CPUはビジュアルにかかりっきりで忙しいことが多いから、音の表現のこのような複雑性は予想外の困難性をもたらし、結局ベーシックなオーディオだけで発売してしまうこともありえる。Resonanceはたとえば、一部の音のリバーブを、いろんな環境ごとに事前に作っておくといったトリックにより、音のリアルであるべき対話性が時間的にずれる、といった問題を解消する。

ResonanceはUnityやUnrealのようなゲームエンジンとも併用でき、またいろんな音響編集作業のためのプラグインも用意しているから、既存のワークフローとの相性も良いだろう。

GoogleはVRやARの基盤的技術への関心をベースとして、さらにそれらをゲームの開発に応用しようとしているようだ。先週Googleが見せたPolyは、3Dのアセットや環境のためのホームだ。そしてResonance Audioが空間的オーディオを提供し、よりリアルな音の開発を容易にする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Polyは3Dオブジェクトを多数掲載したサイト――CCライセンスで自由に使える


GoogleはAR(拡張現実)のARCoreやVR(仮想現実)のDaydreamにデベロッパーを招き入れようと努力している。これらのプラットフォームはモバイル・デバイスのスクリーンにリアルなオブジェクトを作り出すテクノロジーなので、ゲーム・デベロッパーが世界を構築するにあたって非常ぶ重要であり、詳しくチェックする価値がある。

今日(米国時間10/31)、Googleが発表したPolyは3Dオブジェクトを作るクリエーターの負担をかなり軽減するはずだ。

このプロダクトは「世界中の情報を組織化する」というGoogleの基本的ミッションに沿ったもので、現実世界のさまざまなオブジェクトが3D化されてここに掲載される。GoogleのTilt BrushやBlocksで作ったAR/VR世界に3Dオブジェクトを配置しようとするユーザーのためのワンストップショップを目指している。PolyはVRやスマートフォン・ベースのAR向けに使われることを念頭においている。

ユーザーが独自のコンテンツをアップロードする呼び水として、 Googleはアーティストを動員して何千ものオブジェクトを3D化し、ローンチ時点でサイトに掲載している。オーブン、ハンバーガー、氷山から恐竜までありとあらゆるオブジェクトが含まれている。比較的シンプルな描写なのでエントリーレベルの世界でも用いることができるだろう。

Creative Commonsのライセンスによるいわば「食べ放題」の仕組みでクリエーターは自由に利用できる。 Googleは(少なくとも当面)3Dオブジェクトの利用の促進を図ることに重点を置いており、クリエーターがオブジェクトを作って販売することができるようになるのは後日のようだ。

登録されたオブジェクトの多くはGoogleのVR 3Dオブジェクト構築ツールのBlocksでおなじみの目の荒いポリゴンを用いている。Googleによると、その理由の一部はスタイルの一貫性を求めたためだというが、主としてDaydream VRプラットフォームにフィットさせるためのようだ。VR環境はリソースを食いがちで、オブジェクトをシンプルにすることでレンダリングの負荷が負荷が大きく軽減される。

PolyのようなプロジェクトはGoogleのゲーム・デベロッパーの世界での存在感を一層高めることになりそうだ。 Polyに掲載されるのはUnityやUnrealといった他のゲームエンジンのアセット・ストアにもあるオブジェクトだが、デベロッパーが無料で自由に使えるというのは思い切ったアプローチだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】

Nvidiaが作った本物のホロデッキで製品デザインや設計のコラボレーションができる

NvidiaのCEO Jensen Huangは以前、同社でいちばんやってみたいのは、本物のホロデッキ(Holodeck)を作ることだ、と言っていた。そして今まさにNvidiaがやってるのが、デザイナーやデベロッパーのための、細密にリアルなVRプラットホームとして、ホロデッキを作ることだ。

名前もまさにNvidia Holodeckであるこのプロジェクトは、このGPUメーカーが作った“インテリジェントな仮想現実プラットホーム”であり、コラボレーションのための仮想環境で、現実世界の物理現象をシミュレートできる。そこでは、超細密なグラフィクスにより、実物大の詳細モデルを作れる。ピカード大佐のそっくりさんを作ることはできないが、デザイナーたちが新製品のプロトタイプを作り、そのデザインを磨いていくために利用する。VRでは結果がはやいから、製品を市場に出すための期間を短縮できるだろう。

このホロデッキでは、AIを利用できる。たとえば一定のエージェントを訓練しておき、デザイナーが作ったデザインを現実の状況に照らして評価させられる。また仮想オペレーターや人間のスタッフがプロトタイプの各部と対話しながら、最終設計へ仕上げていくこともできる。

すでにリリース前のテストでは、NASAのエンジニアや最先端のデザイナーなどから、高い評価を得た。そして今日(米国時間10/10)からはさらなる洗練を目指して、より広い層へ公開される。

コラボレーションのできるVRデザインツール(設計ツール)は、自動車業界でも採用が進んでおり、今は各社がそれらを試行している。もちろん自動車以外の業界でも、デザイン〜設計のコラボレーションを実物大のVRでできるメリットは大きい。そんな最近の動向の中で、グラフィクスとAIという二つの重要な要素に強いNvidiaは、このようなシミュレーター的環境製品でも市場のリーダーになれそうだ。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

写真スタジオよさらば、colormass仮想写真ツールの登場

IKEAは、デジタルイメージングを使用して製品マーケティングを次のレベルに引き上げるために、限界を押し広げたリーダーの1人だ。IKEAのカタログやそのウェブサイトを見ると、スウェーデンのソファー、コーヒーテーブル、スタイリッシュなランプがいっぱいの部屋を見ていると思うかもしれないが、実際に見ているのは非常にリアルながら、デジタル処理によって生み出された3D複製なのだ。そのような複製は次世代の小売に利用されよとしている:ARアプリだ。このアプリを使えば、何を買うかを検討しているときに、商品を選んで部屋の中に置いてみるといったことが可能だ。

こうしたものは、とてもクールだが、もしあなたが製造業者、小売業者、もしくは手に触れる物を製造したり売ったりしている者だとしたらフラストレーションがたまる代物でもある。誰もがIKEAのような在庫システムを作るだけのリソースを持っているわけではないからだ。但し、これまでは。

ベルリンを拠点とするスタートアップcolormassは、誰もが自分の商売に向けてIKEAスタイル体験を再現することができるようなプラットフォームを開発した。本日(米国時間9月18日)TechCrunch DisruptのBattlefieldでプレゼンテーションが行われた。

家具製造会社(または製造分野の他の事業者)は、企業の製造プロセスの一部として作成される、自身の製造ファイルを提供する。そのファイルはテクスチャ、色、およびその部品に関連するその他の情報を提供するものだ。するとcolormassはコンピュータービジョンアルゴリズムを使って、それらのイメージを本物そっくりの3Dモデルに変換する。これらのモデルは異なるテクスチャや色に変更することが可能で、その後様々な(やはり仮想的な)シーンの中に埋め込まれる。例えばこんなものや:

こんなものだ:

結果として得られるサービスは、IKEAが使っているようなシステムを作成したり、あるいは従来のように様々な物理的プロダクトを実際に製造、配置して写真を撮ったり、というやり方に比べると遥かに安いコストで提供される。

「IKEAのような企業は、これを行うためにとても洗練されたソフトウェアを使用しています」と、共同創業者のBalint Barliは語る。彼はTas SoltiとBenjamin Foldiと共にColormassを設立した。「3Dについて何も知らなくても、誰もがこれを行うことができるようにしたいと考えています。 これまではIKEAがやることをしたいのであれば、 特殊なハードウェア、高価なソフトウェア、そして3Dでの多くの経験と訓練が必要でした。でもそれは、もう必要ありません」。

最近私たちが市場で目にしてきたコンピュータビジョン開発の多くは、はっきり消費者向けアプリに焦点を当ててきた。顔を可愛い動物のようにしてくれるフィルタだったり、新しい髪の色を試せたり、私たちをビデオゲームの中のアクションの中に登場させたりといった具合だ。

実際、ビデオゲームやコンシューマ向けアプリが、最初にcolormassの創業者たちがスタートした場所だった。BarliとSoltiの初期の仕事は3D再現技術の分野のものだった、より詳しく言えば、人間の顔を再現して、ビデオゲームや他のアプリケーション(例えばヘアカラー)で使用できるようにすることだった。

とはいえその市場は、競合で混み合っていると同時に、ある意味、より一般化つつある場所だった。そこで彼らは、同じコンピュータービジョンテクノロジーが適用できる別の場所を考え始めた。

2人はやがて、3Dイメージングの専門知識を持つFoldiと組んだ。「私たちはすぐに、この技術は別の方向に進むことができることに気が付きました。特に、より良くそしてより安く、しかし高品質のマーケティングならびにプロダクトデザインの作成に対しての利用です」とBarliは語った。

Barliによれば、2016年に家具メーカーたちと共同作業を開始し、今では中規模程度の品揃えの顧客たちが1億ドル程度以上の収益をあげているということだ。

彼は顧客たちは(少なくとも今のところは)名前を挙げられたくないと語った。「なにしろ、これらの画像は本物の写真のように見えるので、顧客たちはあたかもそれが、本物の画像だという印象を崩さないようにしたいのです」。

Colormassが、企業市場の中にある明確なギャップに取り組んでいることは興味深い。Barliに言葉を借りるなら「手に触れることができるものなら何でも」デジタル化する手助けをしてくれるのだ。これを拡張していくことも計画されている。例えば3Dルームの中で複数の製品やイメージを操作できるようにすることなどだ。しかし彼はまた、デザインや家庭用品コミュニティ向けのB2Bサービスは「中期目標に過ぎない」とも語る。

「長期的な目標は、すべてのデジタル化された製品を集約して、3Dアセットの最大のリポジトリになることです。製品マーケティングに使用することもできれば、ゲームやその他のVRやARアプリケーションにも利用することのできるライブラリということです」と彼は言う。「3Dコンテンツは大きな問題です。なぜなら単に十分な数がないからです」。同社は既にこれを構築し始めており、顧客との契約を結ぶことで、特定の画像をcolormass自身のデータベースに保存することができるようにしている。

これは同社にとって興味深い機会の扉を開くだろう、この世界のAutodeskやAdobeといった企業だけでなく、Gettysのような大規模フォトエージェンシーにとってもライバル(あるいは不足を補ってくれる格好の買収相手)になることだろう。

  1. tcdisrupt_sf17_colormass-2926.jpg

  2. tcdisrupt_sf17_colormass-2924.jpg

  3. tcdisrupt_sf17_colormass-2932.jpg

  4. tcdisrupt_sf17_colormass-2930.jpg

  5. tcdisrupt_sf17_colormass-2936.jpg

  6. self-driving-car-dashboard.png

  7. tcdisrupt_sf17_colormass-2937.jpg

  8. tcdisrupt_sf17_colormass-2939.jpg

  9. tcdisrupt_sf17_colormass-2944.jpg

[ 原文へ ]
(翻訳:Sako)

Google Earth VRアプリケーションがStreet Viewをサポート、衛星ビューから地上360度ビューへ切り替えできる

Google Earth VRが今日(米国時間9/14)、ささやかなアップデートにより、その世界探検仮想現実アプリケーションに、街路に立った人間の目ぐらいの高さからのビュー(ストリートレベルのビュー)が導入された。

つまりそのアプリケーションにGoogle MapsのStreet Viewが加わった形になり、ユーザーは3Dの衛星ビューと地上レベルの360度カメラのビューを容易に切り替えることができる。

後者のビューのナビゲートはかなり簡単で、VRのコントローラーでその場所へズームインし、レンズを引き上げて360度の視界へ入る(右図)。その中を歩いてみる、などのクレージーなことはまさかできないけど、このアップデートでユーザーはアクションの世界へやや近づく。

CardboardやDaydreamを使ってるユーザーはStreet Viewアプリを使えるので、すでに今日のアップデートのようなビューを見られていたが、Google Earth VRは目下、HTC ViveとOculus Riftで利用できる。Google自身のプラットホーム向けに最適化されたバージョンがまだないのは不思議だが、同社の新しい位置追跡システムではヘッドセットでもパートナーを加えるようだから、Earth VRのような強力なアプリケーションもいずれサポートされるのだろう。

5月にGoogleは、不動産の視覚化をやってるMatterportのようなパートナーに、StreetView APIを公開した。それにより彼らの360度コンテンツが、Street Viewでも見られるようになったのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

REDのスマートフォンのホログラフディスプレイはこんな原理だ…今後のコンテンツが人気の鍵

映画撮影用カメラのメーカーREDが、スマートフォンを出す気だ。Hydrogenと名付けられたそのスマートフォンは、ビデオカメラを自慢しているだけでなく、“ホログラフディスプレイ(holographic display)”なるものを搭載している。ほとんど未知の技術だが、YouTube上の人気ヴロガー(vlogger)MKBHDは発売前にちょっと触ってみたらしい。しかしEngadgetの記事によると、REDのCEO Jim Jannardは、HP LabsのスピンアウトLeia Inc.をディスプレイ技術のパートナーに選んだという。

Leiaの技術は光界技術を利用する。それはLCDの束(積層)に、バックライトがいろんな方向から光を当てる。光を当てる角度のさまざまな組み合わせにより、3Dの効果が作り出される。Leiaのイノベーションは、ふつうの2Dの表示機能を持ったまま、この3D効果を実装したことにある。だから従来の2Dの画像や画面は、従来どおり見ることができる。そしてモードを切り替えれば3D効果を使える。

問題はこの技術に対応するコンテンツがまだ十分にないことだが、Jannardによると、同社のスマートフォンは.h4vと呼ばれるホログラフ形式を使って4Dのコンテンツをスクリーンに描画できる、という。4Dというのは、4台のカメラで違う角度から同時に撮影してホログラフを作ることだが、アマチュアには難しそうだし、既存の2Dや3Dのコンテンツをホログラフに変換する場合も、2Dはきわめて難しい。

しかし少なくともこれは、AmazonのFireスマートフォンのときのような、擬似的な‘ホログラフもどき’ではなさそうだ。Fireのそれは、誰もすごい!とは思わなかった。当分はニッチ製品に留まるだろうけど、Leia社の語源となったLeia姫からのSOSが銀河の彼方から届くようになると*、人気が爆発するかもしれない。〔*: 画期的なホログラフコンテンツが登場したら…〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))