身体を3D計測するボディスキャンアプリ3DLOOKが100万ドルを調達

3Dボディスキャンシステムは、何年もの停滞と再起動を繰り返したあとに、大きな動きを見せた。Original StitchのBodygramに続いて、新たな3Dスキャナーである3DLOOKが、世界中の身体を測定するために、100万ドルの資金を手に競争に参入したのだ。

創業者である、Vadim Rogovskiy、Ivan Makeev、そしてAlex Arapovdは、スマートフォンだけで人体を測定できることがわかったときに3DLOOKの開発を決心した。他のソリューションでは必要な精度を実現できず、高価なハードウェアに依存してしまうことがわかったからだ。

「広告業界で6年以上の起業経験を積んだ頃、私は普通の商品ではない新しいものを作りたいと考えていました」とRogovskiyは語る。「そのころ成長を阻害するものを克服する仕事をしたいと思っていて、アパレル業界がeコマースにおける増大し続ける返品問題で苦しんでいることに気が付いたのです。3DLOOKの共同創業者たちは、2016年にSAIA(Scanning Artificial Intelligence for Apparel:アパレルのためのスキャンAI)を作成する前に、1年以上をR&Dと、新しいアプローチと様々な技術の組合せのテストに費やしました」。

これまでチームは40万ドルを調達し、そしてつい最近会社を成長させるために、シードラウンドで100万ドルを調達した。

またチームは「フィットプロファイル」を収集しており、このプロファイルを「地理的位置、年齢、そして性別グループ」に基づいて、提供することが可能だ。このことが意味するのは、3DLOOKが測定値に基いた正確なサイズを答えることが可能であること、そして衣服がどれくらい身体にフィットするかを教えてくれることができるということだ。既に彼らは2万件のプロファイルを持ち、8つの有料顧客ならびに5つの大企業のシステムと連携して作業を進めている。例えばLemonade FashionとKoviemがこのプラットフォームを使っている。

「3DLOOKは、カジュアルな写真を2枚撮影するだけで人体計測を可能にする技術を開発した最初の企業です、そしてオンラインアパレル販売市場をディスラプトする計画をもっています。ブランドや小規模店舗が、顧客の身体測定値を集めてオーダーメードの提案ができるように、デスクトップ用APIやモバイル用SDKを提供します」とRogovskiyは語る。「さらに、わが社は人間の身体測定値に関するデータベースを収集しています、これによってブランドは全てのボディタイプ向けにより良い服を作ることが可能になりますし、サイズ合わせと返品問題を解決できるのです。こうすることで、店舗が今以上のアパレルを売ることができるだけでなく、顧客も高品質のアパレルを手にすることができるのです」。

3Dスキャナーは長年にわたり改良に次ぐ改良を重ねて来ているが、企業たちがほんの数枚の写真だけで身体をスキャンできるということは興味深い。こうしたものは、好みに関する意見を述べることはできないが、注文する前に服のサイズがぴったりであることを保証してくれることは間違いない。

[原文へ]
(翻訳:sako)

サッカーのゲームをテーブルの上の拡張現実の3D映像で見る

ワールドカップのシーズンなので、機械学習の記事もフットボールを取り上げないわけにはいかない。その見事なゲームへの今日のオマージュは、試合の2Dビデオから3Dのコンテンツを作り、すでに拡張現実のセットアップのある人ならそれをコーヒーテーブルの上でも観戦できるシステムだ。まだそれほど‘リアル’ではないが、テレビよりはおもしろいだろう。

その“Soccer On Your Tabletop”(卓上サッカー)システムは、試合のビデオを入力とし、それを注意深く見ながら各選手の動きを追い、そして選手たちの像を3Dモデルへマップする。それらのモデルは、複数のサッカービデオゲームから抽出された動きを、フィールド上の3D表現に変換したものだ。基本的にそれは、PS4のFIFA 18と現実の映像を組み合わせたもので、一種のミニチュアの現実/人工ハイブリッドを作り出している。

[入力フレーム][選手分析][奥行きの推計]

ソースデータは二次元で解像度が低く、たえず動いているから、そんなものからリアルでほぼ正確な各選手の3D像を再構成するのは、たいへんな作業だ。

目下それは、完全にはほど遠い。これはまだ実用レベルではない、と感じる人もいるだろう。キャラクターの位置は推計だから、ちょっとジャンプするし、ボールはよく見えない。だから全員がフィールドで踊っているように見える。いや、フィールド上の歓喜のダンスも、今後の実装課題に含まれている。

でもそのアイデアはすごいし、まだ制約は大きいけどすでに実動システムだ。今後、複数のアングルから撮ったゲームを入力にすることができたら、それをテレビ放送のライブ中継から得るなどして、試合終了数分後には3Dのリプレイを提供できるだろう。

さらにもっと高度な技術を想像すれば、一箇所の中心的な位置からゲームを複数アングルで撮る/見ることも可能だろう。テレビのスポーツ放送でいちばんつまんないのは、必ず、ワンシーン==ワンアングルであることだ。ひとつのシーンを同時に複数のアングルから自由に見れたら、最高だろうな。

そのためには、完全なホログラムディスプレイが安く入手できるようになり、全アングルバージョンの実況中継が放送されるようになることが、必要だ。

この研究はソルトレイクシティで行われたComputer Vision and Pattern Recognitionカンファレンスでプレゼンされた、FacebookとGoogleとワシントン大学のコラボレーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

FacebookのARやVRそしてニュースフィードに3Dオブジェクトをポストできる…3Dが第一級メディアに昇格

たとえば上図のようなデジタルの3Dオブジェクトを作って、それをFacebookでシェアしたり、仮想現実の中で遊んだり、実際の世界に拡張現実として挿入できるとしたら、かなりすてきじゃないかな? Facebookは10月に、ニュースフィードに対話的3Dモデルをポストできるようにして、ユーザーがそれを動かしたり回転できるようになったが、今日(米国時間2/20)はそれを一歩も二歩も前進させた。

これからは、Facebookの3Dポストは業界標準のglTF 2.0ファイル形式をサポートするので、オブジェクトの質感や光の方向、オブジェクトのざらざら感やつるつる感などを表現できる。そして新しいGraph APIを使ってデベロッパーは、3Dモデルを作るアプリや、それどころかオブジェクトをニュースフィードで直接シェアできる3Dカメラ、3Dのポストを見せるWebサイトなどを作ったりできる。3Dオブジェクトは、ユーザーがドラッグ&ドロップでフィードに入れられる。またユーザーの3Dポストは、VRの出会いの場であるFacebook Spacesに持ち込める。

[指やマウスで動かせる3Dモデル]

たとえば、あなた独自のデザインでメタリックなチェスのピースを3Dモデルづくりのアプリで作り、ニュースフィードでシェアし、さらにFacebook Spacesに持ち込めば、そこで出会った人とチェスをプレイできるだろう。すでにLEGO, Jurassic World, Clash of Clans, Wayfairなどのブランドが3Dポストの実験をやっているから、ここでプレイしたり、あるいはこの記事の上でもプレイできる。

FacebookのソーシャルVRのクリエイティブ・ディレクターOcean Quigleyは、“3DをFacebookのエコシステムのネイティブな部分(基盤的な部分)にしたいんだ。今そのための基礎工事をしているところだけど、これからはFacebookとユーザーはVRやARの3D世界に自由に行き来できるようになるね”、と語っている。彼によると、ソーシャルネットワークが単純なテキストや写真やビデオなどから没入的なメディア(immersive media)に進化していくのは当然の歩みなのだ。

さて、3Dポストをシェアしたら、今度は背景色とか質感などを自由に選びたいだろう。Quigleyによると、そういったアップロード過程をなるべく簡単にして、高度なスキルのない者でもハイテクなポストを共有できるようにしたい。彼はglTF 2.0を“3DのJPEG”と呼び、GoogleやMicrosoftによるサポートを賞賛する。また別の形式の3Dオブジェクトを持っている人のためには、Facebookはコンバーター(変換ソフト)をGitHub上でオープンソースで提供しているから、ファイル形式を変換してFacebookへのポストも可能だ。

これがうまく行けば、Facebookにとって大きな強みになる。まずそれは、もっとも未来的なシェア方法だから、そのほかのソーシャルネットワークがずっと後方に置き去りにされてしまうだろう。Facebookのプロフィールが“3Dの自撮り”になったり、友だちから集めたオブジェクトでみんなと遊んだりできる。そして、サードパーティなども参加して優れた3Dのアバター制作ソフトを作れば、あなたの写真から作られたあなた自身の仮想バージョンがFacebook上を動き回る。おともだちもびっくり! FacebookがSnapchatのBitmojiアバターの競合製品を作るのも、時間の問題だ。

そして消費者であるFacebookユーザーが、単なる写真よりは拡張現実を試すようになれば、マーケターや広告主にとっても(魅力や説得力の点で)ありがたい。すでにSonyなどは、そんな拡張現実コマースをやり始めている。またWayfairでは、ユーザーが自分の家の写真に、買ってみたい家具の3Dの拡張現実を、‘試着’ならぬ‘試設’できるようにしている。

Facebookはこれまでも、360度写真など新しい形式のコンテンツを積極的に採用してきた。すでに14歳を過ぎたFacebookが、ティーンの心を捉えようとして、ライブのビデオやGIFも導入した。FacebookのプロダクトマネージャーAykud Gönenがこう書いている: “人びとがVRやAR、Facebookのニユースフィードなどで、そのような没入的な体験やオブジェクトをシェアできる、シームレスなデジタル世界を目指したい”。

もちろん現実世界のすべてを拡張現実でカバーするほどの大量の3Dオブジェクトは、Facebookだけで作れるものではない。サードパーティのデベロッパーと一般ユーザーの協力が不可欠だ。Quigley曰く、Facebookの中でオブジェクトを作れるような“3Dエディティングツール”を提供するつもりはない、と。でも外部のクリエイターがそんなものを比較的簡単に作ってインポートできるなら、スマートフォンやヘッドセットや、未来のARグラス(めがね)からのARVRの没入的体験が、とってもすばらしいものになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

今設計しているものの構造や形が目の前で3Dプリントで分かるプロトタイピングマシンをMITらが開発中

MITとコーネル大学の共同プロジェクトRobotic Modeling Assistant(RoMA)は、最新のさまざまなテクノロジーを組み合わせて、従来よりも良いプロトタイピングマシンを作ろうとしている。

上図のように拡張現実ヘッドセットと二つのコントローラー、そしてCADプログラムを使って、設計者は3Dモデルを作る。するとロボットアームが、自分に装着されている3Dプリンターからプラスチックを射出してスケルトンモデル(骨格モデル)を作っていく。

チームリーダーのHuaishu Pengはこう言う: “RoMAを使うと、現実世界の制約を早めに設計に反映できるから、形の良い、実際に手で触(さわ)れる工作物を設計段階で作れる。既存のオブジェクトから直接、設計を起こすこともできるから、単なる工作物でなく、インシトゥ(in-situ)な作り方もできる”。

Pengがアップロードしたビデオでは、このシステムの3Dプリントはまだかなり粗い。ふつうの3Dプリンターのようにプリントベッドなどかんじんの部品が固定されてなくて、自由に動くロボットアームの先端がプリンターだから、現状では細密な動きが難しそうだ。

でも、デスクトップの3Dプリンターで多く使われているFDM法に比べると、相当速い。だから、今設計中の物をリアルタイムで3Dスケッチしていくことも、究極には可能だろう。もうちょっと細かいコントロールができるようになると、3Doodlerのような3Dプリンティング・ペンが得られるだろう。

そのアームは設計者のアクションにリアルタイムで反応して動く。Pengは書いている、“設計者はいつでも、プラットホームのハンドルにさわってモデルのパーツを回転し、見たい部分を前面に出すことができる。ロボットアームは、ユーザーから離れて待機する。設計者がプリンティングプラットホームから退(しりぞ)くと、ロボットがプラットホームのコントロールを完全に握って、プリンティングのジョブを完了する”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

リアルタイムの自己チェック機能のある3Dスキャナーは最初から正しい3Dモデルを作る

物の3Dモデルを作る方法はいろいろあるけど、その自動化となると、その物のまわりをぐるぐる回ってメッシュを作る、というものがほとんどだ。しかしここでご紹介するFraunhoferのシステムはもっとインテリジェントで、スキャンする物の特徴を事前に理解し、全体をスキャンするための効率的な動き方を自分で計画する。

ふつうは、スキャンが完了すると、ユーザーが相当時間をかけて点検しなければならない。たとえば出っ張りの部分がお互いを邪魔していないか、複雑な部分を正確にモデルしているか、などなど。欠陥を直すために、新たに調整した二度目のスキャンをすることもある。スキャナーに何らかの3Dモデルを事前にロードして、その物の形を教えるやり方もある。

Fraunhoferのコンピューターグラフィクス研究所(Institute for Computer Graphics Research)でPedro Santosが指揮したプロジェクトでは、システムが最初から自分の画像を自分で評価して、次の動きをプランする。

“われわれのシステムが独特なのは、各部位を自律的にリアルタイムでスキャンすることだ”、と彼はニュースリリースで言っている。またそれは、“どんなデザインのどんな部位でも測定できる。教えてやる必要はない”。

だからこのシステムなら、過去に一度も見たことのないパーツの、複製を一個だけ作ることもできる。カスタムメイドのランプや容器、ビンテージカーのドアやエンジンなども。

4月にハノーバーにたまたまいる人は、Hannover Messeへ行って自分で試してみよう。

画像提供: Fraunhofer

[原文へ]
(翻訳:iwatani(a.k.a. hiwa