マーカー不要、動く物体にもプロジェクションマッピングが可能な高速プロジェクターを東京工業大学らが開発

今回新たに開発した高速RGB+IRプロジェクター。46×28cmとコンパクト

今回新たに開発した高速RGB+IRプロジェクター。46×28cmとコンパクト

科学技術振興機構は12月2日、マーカーがいらず、動くものにも投影可能なプロジェクションマッピング用高速プロジェクターを開発したと発表した。これは、24bitカラー(RGB)と、目に見えない8bitの赤外線(IR)をそれぞれ同時に投影し、空間センシングと映像の投影を同時に行うというもの。これにより、マーカーを必要としないダイナミックプロジェクションマッピング(DPM)が可能になった。

これは、東京工業大学渡辺義浩准教授東京エレクトロンデバイスの湯浅剛氏、フラウンホーファー応用光学精密機械工学研究所のUwe Lippmann(ウーヴェ・リップマン)氏、ViALUXのPetra Aswendt(ペトロ・アシュエンド)氏からなる日本とドイツの国際産学連携チームによる共同研究。およそ1000fpsという非常に高いフレームレートでRGB方式の24bitカラー画像と、IRによる8bitの不可視画像をそれぞれ同時に制御し、さらに独自開発の光学系システムにより、両画像の同軸位置合わせを行うことで、IR画像を投影し空間センシングしながら、リアルタイムでそれに合わせた画像の投影が行える。

建物などの立体構造物に映像を投影するプロジェクションマッピングでは、対象物の形状を捉え、自然に見えるように映像をその形状に合わせて加工し、投影する必要がある。特に対象物が動いている場合、カメラで対象物の位置や形状を認識し、それに合う形と陰影を持たせた映像をリアルタイムで生成し、相手の位置に合わせて投影することになる。そのため、動く対象物と映像のズレが人の目では感知できないほどの高速で同期させなければならない。これまで、それを実現させるためには、対象物を平面にしたり、対象物にマーカーを取り付ける必要があった。

同研究チームは、3Dセンシングの基本的な手法である、プロジェクターとカメラを組み合わせたシステムを構築し、プロジェクターで空間に投影された既知パターンの反射像をカメラで捉えることにより、マーカーを使わずに空間情報を取得できるようにした。これまで、この手法を用いたダイナミックプロジェクションマッピングでは、センシング用投影とディスプレイ用投影を同時に高速処理しようとすると干渉し合ってしまうという問題があったのだが、同チームはセンシングを目に見えないIRで行うことで、これを克服した。

マーカー不要、動く物体にも最大925fpsでプロジェクションマッピング可能な高速プロジェクターを東京工業大学らが開発マーカー不要、動く物体にも最大925fpsでプロジェクションマッピング可能な高速プロジェクターを東京工業大学らが開発

マーカー不要、動く物体にも最大925fpsでプロジェクションマッピング可能な高速プロジェクターを東京工業大学らが開発

今回のプロジェクターによる画像投影を行ったトルソー(上)。トルソーにRGB画像とIR画像を同時に投影し、RGB画像のみを撮影したもの(中)。IR画像のみを感知するカメラで撮影したもの(下)

これを実現したのは、縦横に並べた1024×768個の微小な鏡の角度を個別に制御して投影画像を変化させるテキサス・インスツルメンツの「DLP」という技術を用いた投影装置「デジタルマイクロミラーデバイス」だ。RGBとIRの照明光学系を分離して、デジタルマイクロミラーデバイスの反射後に像を統合することで、コンパクトで高輝度の投影が可能になった。

マーカー不要、動く物体にも最大925fpsでプロジェクションマッピング可能な高速プロジェクターを東京工業大学らが開発

RGB+IR画像を高速で同時に投影するプロジェクターの光学系システム

また、ダイナミックプロジェクションマッピングで重要な処理の高速化においては、デジタルマイクロミラーデバイスの制御と光源の変調を高精度に連携させることで、最大925fpsという高いフレームレートを実現させ、さらに映像データの転送を高速化して、コンピューターからプロジェクターへの映像転送から投影までを、わずか数ミリ秒で行えるようにした。

マーカー不要、動く物体にも最大925fpsでプロジェクションマッピング可能な高速プロジェクターを東京工業大学らが開発

RGB画像とIR画像を、同プロジェクターを用いてスクリーン上に925fpsで投影している様子。右側のモニター上には、RGB画像のみを捉えるカメラで撮影した投影像(モニター内右)と、IR画像のみを捉えるカメラで撮影した投影像(モニター内左)が表示されている。スクリーンには2種類の画像を投影しているが、IR画像は人間には見えないことから、この不可視の投影像を空間センシングに利用できる

研究チームは、この技術の応用分野として、エンターテインメント、アート、広告といったビジネス分野、拡張現実分野の他、作業支援や医療支援などの幅広い社会実装に着手してゆくとのことだ。

ナイアンティックがゲーム内ソーシャル体験向上でゲームプレイ撮影アプリLowkeyを買収

Niantic(ナイアンティック)は、同社のAR(拡張現実)プラットフォームを構築するために、また1つ企業を買収した。同社は、ゲームプレイの瞬間を簡単に撮影して共有できるアプリLowkey(ローキー)の開発チームを獲得すると発表した。ゲームを録画するには、スクリーンキャプチャアプリや携帯電話に搭載されている機能を使うことができるが、Lowkeyはカジュアルゲーマーや動画の編集に時間をかけたくない人のために設計されている。

例えば、パソコンでビデオを撮影し、それを携帯電話と同期させ、簡単な編集ツールを使って、携帯電話での視聴に最適化された短いクリップを作成することができる。また、そうしたクリップをSnapchatのようなスタイルでアプリ内で友達と共有したり、TikTokのように公開したりすることもできる。LowkeyのチームがNianticのARゲームやエクスペリエンスでどのような役割を果たすのかについてNianticは明らかにしなかったが、同チームの「この分野でのリーダーシップは、(Nianticが)製品で構築しているソーシャル体験を加速させるでしょう」と述べている。そして「我々は、共有されたエクスペリエンスを中心にコミュニティを構築し、好奇心あふれる人のために新しいつながり方や遊び方を可能にするという共通のビジョンを持っています」と付け加えた。

Pokémon Goの生みの親であるNianticはこれまで、拡張現実プロダクトのためにより多くのツールや機能を構築すべく、数社を買収してきた。2017年には、ゲーム用のソーシャルネットワークを構築するために、ソーシャルアニメーションのスタートアップEvertoonを買収した。2020年は「プラネットスケール」の拡張現実を開発すべく3Dマッピングのスタートアップ6D.aiを、2021年8月には世界の3D地図を作成するためにLiDARスキャンアプリScaniverseを買収した。

編集部注:本稿の初出はEngadget。執筆者のMariella MoonはEngadgetの共同編集者。

画像クレジット:Lowkey

原文へ

(文:Mariella Moon、翻訳:Nariko Mizoguchi

アップルの複合現実ヘッドセットはスタンドアローン型とのウワサ

著名なアナリストであるMing-Chi Kuo(ミンチークオ)氏によると、Apple(アップル)の長い間噂になっている複合現実ヘッドセットには、2つのプロセッサーが搭載される。MacRumors9to5Macが入手した最新リサーチレポートでクオ氏は、このデバイスには、M1チップと同等の演算能力を持つメインプロセッサーと、すべてのセンサー関連の演算を処理するセカンダリプロセッサーが搭載されるという。2つのプロセッサーを搭載することで、ヘッドセットはiPhoneやMacに接続する必要がなくなる。

また、ソニーの4Kマイクロ有機ELディスプレイを搭載することで、拡張現実だけでなく、仮想現実の体験も可能になると、クオ氏は述べている。これが可能になるのは、M1チップがディスプレイのサポートに必要なパワーを持っているからだ。センサー用の別のプロセッサーについては「センサーの演算能力がiPhoneよりもはるかに高い」ため、それが必要になるそうだ。クオ氏は、このデバイスが2022年後半に登場すると予想し、Appleは10年後にiPhoneにとって代わることを最終の目標として「包括的な範囲のアプリケーション」をサポートできるようにするだろうと述べている。

このヘッドセットが独立したデバイスになるというクオ氏の予測は、9月にThe Informationが発表した、ヘッドセットがほとんどの処理を行うためには、iPhone、iPad、またはコンピュータとのワイヤレス通信が必要になるとするレポートに反している。また、このレポートは、ヘッドセットは開発者やクリエイター向けで、価格は3000ドル(約33万9000円)程度になるだろうと述べている。

編集部注:本稿の初出はEngadget

原文へ

(文:Mariella Moon、翻訳:Yuta Kaminishi)

ボルボが車内ARを見据え光学オーバーレイのスタートアップSpectralicsに約2.3億円を投資

長らく安全の代名詞とも言われてきた自動車メーカーVolvo Cars(ボルボ・カーズ)は、ベンチャーキャピタル投資部門のVolvo Cars Tech Fund(ボルボ・カーズ・テック・ファンド)を通じて、自動車のフロントガラスやウインドウに組み込んでドライバーや乗客に画像を提供する技術を開発している光学・イメージングのスタートアップに投資したことを発表した。

Volvo Cars Tech Fundは、光学機器・イメージングの開発企業であるSpectralicsに200万ドル(約2億3000万円)を投資した。この資金は、自動車の安全性とユーザーエクスペリエンスの向上に貢献する光学フィルムの開発を加速させるために使用されるという。この投資は大きなものではないかもしれないが、Volvoとの関係は、特にその技術が量産車に採用されれば、実りあるものになるだろう。

Spectralicsが開発しているシースルー光学オーバーレイは「多層薄膜コンバイナー」とも呼ばれ、自動車のフロントガラスやウインドウに組み込むことができる。Spectralicsによると、これによってより広い視野が確保され、極めて重要なのは、それとともに安全なAR(拡張現実)オーバーレイに必要な距離感が得られるという。

車外では、スマートグラス、光学システム、その他のヘッドアップディスプレイなどにも利用できる可能性がある。これは、ARやVR(仮想現実)が、ゲームや消費財の域を超えて、自動車の中に入りつつあることを示す最新の兆候だ。これは間違いなく、自動車メーカーが新車を馬力ではなく、ユーザー体験や提供する技術で差別化するという幅広いシフトの一環だ。

Spectralicsの創設者であるRanBar Yosef(ランバー・ヨーゼフ)氏、Eran Falk(エラン・フォーク)氏、Yuval Kashtar(ユバル・カシュタル)氏、Yuval Keinan(ユヴァル・ケイナン)氏(画像クレジット:Tal Givoni for Spectralis)

自動車内のAR / VRの導入には数々のボトルネックが存在したが、自動車メーカー各社は、車内アプリケーション用にこの技術を開発している企業への投資でリードしていると、Abigail Bassett(アビゲイル・バセット)氏がTechCrunch+で指摘していた

VolvoのSpectralicsに対する投資が十分なシグナルでなかったとすれば、広報担当者はTechCrunchに、スウェーデンの自動車大手である同社がこの技術を自社の車に採用することを検討していると認めた。Volvo Cars Tech Fundの責任者、Lee Ma(リー・マー)氏は声明でこう述べている。「Spectralicsは当社のポートフォリオにフィットしており、彼らの技術は次世代のディスプレイやカメラの標準となる可能性があると信じています」。

Spectralicsは、スウェーデンのイェーテボリにあるアクセラレーター、MobilityXlabの卒業生であり、テルアビブにあるスタートアップと自動車業界の投資家をつなぐモビリティハブ、Drive-TLVにも参加している。Volvoのスタートアップ投資部門は2017年から両イニシアチブに参加しており、最近では、事故検知センサーを開発するMDGoや、車両検査技術開発企業のUVEyeなど、他のイスラエルのスタートアップにも投資している。

画像クレジット:Volvo Cars

原文へ

(文:Aria Alamalhodaei、翻訳:Dragonfly)

ナイアンティック「現実世界のメタバース」構築のために約344億円調達、評価額1兆328億円に

「Pokémon GO(ポケモンGO)」などのゲームを開発する拡張現実プラットフォームのNiantic(ナイアンティック)は、Coatueから3億ドル(約344億円)を調達し、同社の価値は90億ドル(約1兆328億円)に達した。サンフランシスコを拠点とし、Googleからスピンアウトしたこのスタートアップは、この資金を使って「現実世界のメタバース」と呼ばれるものを構築する予定だ。

Nianticの創業者兼CEOであるJohn Hanke(ジョン・ハンケ)氏は、2021年8月以降、メタバース(少なくとも「レディ・プレイヤー1」のようにVRヘッドセットに拘束されるようなもの)を「ディストピアの悪夢」と呼んでいる。VR技術への投資を示すために社名を「Meta」に変更したFacebookとは違い、Nianticは人々を外の世界に近づける技術を開発したいと考えている。2021年11月初め、NianticはAR開発キット(ARDK)「Lightship」を発表した。これは、ARゲームを開発するためのツールを公開するというもので、ゲームエンジン「Unity」の基本的な知識を持っていれば誰でも無料で利用できる。

関連記事:Nianticが「現実世界のメタバース」というビジョン&AR開発者キット「Lightship」を発表、AR体験構築をよりアクセシブルに

「Nianticでは、人間はバーチャルな世界がフィジカルな世界につながるときに最も幸せだと考えています。SFのメタバースとは異なり、現実世界のメタバースは、何千年も前から知られている私たちの世界における経験を向上させるためにテクノロジーを活用します」とハンケ氏は語っている。

今回の資金調達は、Coachella、Historic Royal Palaces、Universal Pictures、SoftBank、Warner Music Group、PGA of Americaといった企業が拡張現実(AR)体験の構築に使用しているARDKの拡張に役立てられる。ARプロジェクトでは、VRヘッドセットのようなまだ多くの人がアクセスできない技術を使うのではなく、主にスマートフォンを使って、人々が外の環境を探索するように促す。例えば、毎日その前を通る壁画があるとして「ポケモンGO」では、ユーザーが作成したポケストップの説明文を見れば、その壁画が実際に何を表現しているのかがわかるかもしれない。Nianticによると、毎月何千万人もの人たちが同社のゲームをプレイしており、登場以来、ゲーム内でプレイヤーは109億マイル(約175億418万km)以上歩いているという。

CoatueのゼネラルパートナーであるMatt Mazzeo(マット・マッツェオ)氏は「Nianticは、3Dの世界地図をベースにしたARのプラットフォームを構築しており、次のコンピューティングの移行期において重要な役割を果たすと考えています。私たちは、このインフラが現実世界のメタバースを支え、インターネットの次の進化に貢献すると考えているため、Nianticとの提携に興奮しています」と述べた。

VRのメタバースはハンケ氏の目には「ディストピア」に映るかもしれない。しかし、他のテクノロジーと同様にARにも問題がないわけではない。Nianticの最新ゲーム「Pikmin Bloom(ピクミンブルーム)」は、歩くことを中心にデザインされており、高齢者や障がい者のプレイヤーに疎外感を与えかねない。ポケモンGOには障がいを持つプレイヤーのコミュニティがあるが、Nianticはゲーム内での小さな調整で、移動手段が限られている人でもゲームをより利用しやすくすることができることを主張しなければならなかった。

それでも、NianticのビジョンはMetaのヘッドセットに依存した計画に代わるものだ。アプリ分析会社のSensor Towerによると、依然として「ポケモンGO」は大成功を収めており、2020年には10億ドル(約1148億円)以上を稼ぎ出し、2021年はすでにその収益を上回る勢いだという。しかし、すべてのゲームが愛されているわけではありません。同社は最近「Harry Potter:Wizards Unite(ハリー・ポッター:魔法同盟)」は、アプリ内の消費者支出と全世界でのインストール数が前年比で57%減少したため、終了すると発表された。しかし、独立系の開発者がNianticのLightship ARDKを手に入れれば「現実世界のメタバース」というコンセプトはさらに広がっていくだろう。

画像クレジット:Steve Jennings/TechCrunch / Getty Images

原文へ

(文:Amanda Silberling、翻訳:Dragonfly)

VRグローブHaptXが「Metaの試作品は自社デバイスと実質的に同じ」と主張

Facebook(フェイスブック)、つまりMeta(メタ)は米国時間11月16日、新しい触覚フィードバックグローブのプロトタイプを公開した。このグローブは、新世代のAR / VRユーザーに、これまで以上にデジタルコンテンツを身近に感じさせることができると説明している。そして11月17日、同じミッションを持つVRスタートアップのHaptX(以前ここで取り上げたことがある)は、Metaが自社の特許技術と「実質的に同じ」プロトタイプを公開したことを非難する、かなりアグレッシブな声明を発表した。

HaptXのCEOであるJake Rubin(ジェイク・ルービン)氏の声明によると、同氏のスタートアップは長年にわたって「Metaの多くのエンジニア、研究者、幹部」に自分たちの技術を披露してきており、最新のプロジェクトではMetaから相談を受けていないという。「Metaからはまだ連絡を受けていませんが、懸念を解消し、我々の革新的な技術を将来の消費者向け製品に組み込むことができるような、公正で公平な取り決めに向けて、Metaと協力していきたいと考えています」とルービン氏は述べている。

画像クレジット:HaptX

Metaの広報担当者はコメントを控えた。

HaptXのものと、最近発表されたMetaのプロトタイプは、ともにマイクロ流体フィードバックと呼ばれる技術を使用している。携帯電話やゲームのコントローラーには、小さなモーターを使ってブザーやゴロゴロという音をシミュレートする触覚フィードバックが搭載されているが、ユーザーの手全体のより深い感覚をシミュレートするとなると、マイクロ流体フィードバックは、チューブのネットワークを流れる空気の流れを制御するアクチュエーターを使って異なる動作を行い、物を拾うことに関連する感覚や、すべてデジタルでレンダリングされた独特の質感を高度に模倣することができる。

Facebookではこれまでにも数多くのAR / VRのプロトタイプを公開し、最終製品には至らないことが多いが、特定のテクノロジーの最先端をテストする複雑な技術を示してきた。HaptXは長年にわたって法人顧客向けに触覚フィードバックグローブを製造してきた。この技術を小型化するために、グローブの感覚フィードバックを管理するバックパックサイズの空気圧ボックスが必要だった。しかし、これはまだ非常に複雑な技術であり、Facebook、いまとなってはMetaがQuest 2で追求してきたようなメインストリームのユーザーにリーチするには、おそらく何年もの開発期間を要する。

しかし、Metaのチームがこの技術を大幅に進化させたことは明らかだ。Metaの研究ブログ投稿では、こうしたフィードバックコントロールを操るグローブのチップセットである「世界初の高速マイクロ流体プロセッサ」が開発されたことが報告されている。同社の研究者の1人は「目標は、AR / VRインタラクション問題の両面に対応するソフトで軽量な触覚グローブを発明することです。つまり、コンピュータが着用者の手の動きを正確に理解して反映するのを助けること、そして着用者のために圧力、感触、振動などの複雑で微妙な感覚を再現して、仮想オブジェクトを手で感じているような効果を生み出すことです」と詳細に述べている。

Facebookはこれまで、自分たちの製品が大手ハイテク企業に不当にコピーされたと、スタートアップから多くの批判を受けてきた。また、反競争的な行為を行っている、と規制当局からも厳しい調査を受けてきた。

以下は、HaptXのルービン氏による声明の全文だ。

この10年間、HaptXはマイクロ流体による触覚フィードバックの分野を開拓してきました。数々の賞を受賞した当社の技術は、一般紙や専門誌で広く取り上げられており、高忠実度の触覚フィードバックへのアプローチとして、マイクロ流体のユニークな利点を開発し、普及させるためにたゆまぬ努力を続けてきました。また、当社のエンジニア、開発者、投資家の方々の長年にわたる献身により、当社の技術と製品を保護するための業界屈指の特許ポートフォリオを確保しています。

VR業界の他社との交流において、我々は常に業界全体の発展のためには協力が最も重要であると考えています。長年にわたり、当社はMetaの多くのエンジニア、研究者、幹部を招き、当社の画期的な触覚技術のデモンストレーションを行ってきました。

本日、Metaは独自のマイクロ流体式触覚フィードバックグローブのプロトタイプを発表しました。シリコンベースのマイクロ流体触覚フィードバック積層体と空気圧制御アーキテクチャを含むこのプロトタイプのコア構成要素は、HaptXの特許技術と実質的に同じであると思われます。我々は、マイクロ流体触覚の分野における関心と競争を歓迎します。しかし、業界が繁栄するためには、競争は公正でなければなりません。

まだMetaからの連絡はありませんが、我々の懸念を解消し、Metaが我々の革新的な技術を将来の消費者向け製品に取り入れることができるような、公正で公平な取り決めに向けてMetaと協力していきたいと考えています。

画像クレジット:Meta

原文へ

(文:Lucas Matney、翻訳:Nariko Mizoguchi

Snapchatがソニーミュージックと提携、新AR音楽レンズの計画を発表

SnapchatはSony Music Entertainmentとの契約により、同社アーティストたちの音楽をアプリのSounds libraryライブラリに追加することになった。Snapchatはまた、ARによるミュージックレンズという機能を作っていることを明かした。まず「Sound Lenses」という機能は、映っている人の顔を実際にその曲を今歌っているように見せる。また「Cameo Sound Lenses」はビジュアルエフェクトを加える。

同社によると、現在、同プラットフォーム上で拡張現実を利用している人は1日で約2億に達し、新しい「Sound Lenses」機能があれば、ユーザーのために、さらに没入的な音楽体験を作ることができる。Snapchatは過去数年間、さまざまな方法でARを利用してきた。最新は、そのARにフォーカスしたLens Studioに複数のアップデートを加えたことになる

SnapchatとSony Music Entertainmentのパートナーシップは、ユニークなサウンドがソーシャルアプリにとって競争上有利になってきたことの表れだ。その最新のローンチでSnapchatのユーザーは、自分のスナップにSony Musicのアーティストの音楽を著作権の心配なく含めることができ、それを他のユーザーに送ったり、Snapchat Spotlightにポストしたりできる。

この新しいパートナーシップの2週間前にSnapchatは、NBCUniversalと契約を結び、ユーザーはNBCU TVの番組のいろいろなオーディオクリップを、やはり著作権料Snap負担で使えるようになった。同社は他にもさまざまなスタジオや音楽企業とパートナーしている。例えばUniversal Music Group、Warner Music Group、NMPA、Warner Chappell、Kobalt、BMGなどだ。

TikTokは、ユーザーが自分の短編ビデオに自由に付けられる音楽として大きなカタログを提供しているが、Snapchatはそれと競合したい。ユーザーがいろいろな曲を使えることは、TikTokとの競合に欠かせない。そこで2020年同社はSoundsをローンチした。この音楽機能によりユーザーは、自分のSnapに音楽をつけることができる。

Snapchatの親会社であるSnapによると、Soundsを立ち上げてから、そこからの音楽をつけたビデオは5億2100万作成され、310億ビューに達した。しかしSoundsはTikTokとの競合だけが目的ではなく、Soundsで作られたビデオ全編(送信とポストと保存を含む)の45%近くがDMで送られている。

SoundsのSony Musicのカタログは全世界のSnapchatユーザーが、iOSとAndroidの両方で利用できる。

画像クレジット:Snap

原文へ

(文:Aisha Malik、翻訳:Hiroshi Iwatani)

Synamonが「エンタープライズ向けメタバース構築支援サービス」提供開始、プロモーション・ブランディング活用支援

VR/AR/MR企画・開発のSynamonが2.5億円を調達、人材採用・先端技術活用の価値創出を推進

VR・ARを含むXRやメタバース市場の創造に取り組むSynamon(シナモン)は11月15日、「エンタープライズ向けメタバース構築支援サービス」の提供開始を発表した。

Synamonによると、昨今メタバースに対する注目からその活用例が増えてきたものの、「空間構築やユーザー体験設計などをどのように行えばいいかわからない」「プロジェクト全体をどのように企画し、制作をディレクションするべきか不安」といった声があるという。同社は、そうした企業に応えるため、エンタープライズ向けにXR技術を活用したバーチャル空間構築、またそれら空間内での体験設定を行なってきた技術力を活かし、プロモーションやブランディングへの活用を中心に、高品質なメタバース体験の構築を支援するサービスの提供を行うとした。

提供サービス概要

  • メタバース空間構築によるブランディング支援:実在するショールームの再現から架空のコンセプト空間の創出など、バーチャル上に3D CGを活用した自由なメタバース空間を構築し、企業・サービスのブランド価値向上に貢献
  • コンテンツ制作によるイベントプロモーション支援:展示会や自社イベントなど、来場者に向けた記憶に残るコンテンツを制作することで、体験者に驚きや感動を与えるイベントプロモーションを実現
  • XR技術を活用したリアル×メタバースのユーザー体験の創出:VR単体だけでなくAR・MRといったXR技術をかけ合わせ、リアル空間とバーチャルコンテンツを融合した新しいユーザー体験を創出
  • 先進技術の活用や新規事業への立ち上げ支援:AIやNFTなど先進技術との組み合わせや自社アセットを活用した新規事業の検討など、技術調査やビジネス企画の段階からの支援

また、著名IPに関わった経験を有するクリエイターによる監修、外部プラットフォームに依存しないSynamon独自開発アプリ活用などにより企業ブランドの世界観を最大限反映した体験を創出できるという。Oculus Quest2などのXRデバイスのほか、PCやスマートフォンまで含むマルチデバイスに対応可能。同社が強みとするマルチプレイ技術により、複数人が同時共有するメタバース空間において優れたユーザー体験を設計できるとしている。

「Google Labs」の名が復活、AR&VR、Starline、Area 120が新設された「Labs」チームに移動

「Google Labs(グーグルラボ)」の名称が復活した。だが、今度のそれは実験的な製品やサービスを提供する消費者向けのブランドではない。Google(グーグル)のさまざまな革新的なプロジェクトや長期的な投資を1つにまとめることを目的とする組織再編のもとに設立された新しいチームの社内での名称だ。この新チームを率いるのは、Googleのベテラン副社長であるClay Bavor(クレイ・バーヴァー)氏。最近では「Project Starline(プロジェクト・スターライン)」として知られる最先端のホログラフィック・ビデオ会議プロジェクトなど、仮想現実や拡張現実におけるGoogleの先進的な取り組みを指揮している人物だ。

バーヴァー氏は、既存のARおよびVRへの取り組み、未来的なProject StarlineArea 120(エリア・ワントゥエンティー)と呼ばれる社内インキュベーター、およびその他の「将来性の高い、長期的な」プロジェクトを含む新組織を指揮していく。同氏はGoogleのSundar Pichai(スンダー・ピチャイ)CEOの直属となる。

2016年に開設されたArea 120は、起業家精神旺盛な人材をGoogleに定着させる方法として構想されたもので、チームがGoogleのデータ、製品、リソースを利用しながら新しいアイデアを試すことができる。

長年にわたり、この組織は数多くのプロジェクトを生み出し、成功させてきた。その中には、新興市場向けのHTML5ゲームプラットフォームで、現在は一部の国でGoogle Chrome(クローム)に統合されているGameSnacks(ゲームスナック)、珍しく外部スピンアウトとなった技術面接プラットフォームのByteboard(バイトボード)、AirTable(エアテーブル)のライバルでGoogle Cloud(グーグル クラウド)に移行したTables(テーブルズ)、A.I.を活用した会話型広告プラットフォームのAdLingo(アドリンゴ)、Google Search(Google 検索)とShopping(Google ショッピング)にそれぞれ移行したビデオプラットフォームのTangi(タンギ)とShoploop(ショップループ)、ウェブベースの旅行アプリでCommerce(コマース)に移行したTouring Bird(ツーリングバード)などがある。

Area 120では現在、職場用の短い動画プラットフォームであるThreadIt(スレッディット)、スペクトルマーケットプレイスのOrion(オリオン)、ドキュメントスキャナーのStack(スタック)などのプロジェクトをインキュベートしている。常に約20のプロジェクトが進行中だが、すべてのプロジェクトが公開されているわけではない。

しかし、以前の組織体制では、Area 120はGoogleのスンダー・ピチャイCEOへの報告系統が3層に分かれており、にも関わらず、ピチャイCEO自身がすべての出口に署名しなければならなかった。また、このグループは、グローバルパートナーシップおよびコーポレートディベロップメント担当プレジデントであるDon Harrison(ドン・ハリソン)氏の下に配置された雑多なグループの中にあった。今回の再編により、Area 120は他の革新的なプロジェクトと一緒に移されることになり、参加しているチームとその取り組みの認知度が向上する可能性がある。

Googleは、新しいグループの名称として「Labs」というブランドを社内で使用しているが、この名称が選ばれた背景には同社の豊かな歴史があり、決して退屈な選択というわけではない。かつてGoogle Labsというブランドは、ベータ版から一般公開に至ることも多いGoogleの対外的な実験に関連するものだった。

2002年から2011年の間に、Google Labsは、Personalized Web Search、Googleアラート、GoogleドキュメントおよびGoogleスプレッドシート、Googleリーダー、Google Shopper(現在のGoogleショッピング)、AardvarkというQuoraのようなQ&Aサイト、Google GoggleというGoogleレンズの前身、Gesture Search for Android、iGoogle、Googleマップ、Google Transit、Googleビデオ、Googleトーク、Googleトレンド)、Google Scholar、Googleソースコード検索、Google Suggest、Googleグループ等々、Googleの中核的な製品やサービスとなる製品を生み出してきた。

Googleの新しい計画は、Labsを対外向けのブランドにするわけではなく、スタッフは(Starlineなどの)プロジェクトチームに採用されることになるが、この組織再編自体は、Googleの大きな賭けのいくつかに向けられる注目を増大させることになるだろう。

また、これまでGmail、Googleドライブ、Googleドキュメント、Google Apps for Work(現在のGoogle Workspace)など、多くの著名なGoogleプロジェクトで製品管理を担当してきたベテランGooglerであるバーヴァー氏がLabsを率いるということは、革新的なアイデアを中核製品に変えた経験を持つリーダーがチームに配置されるという意味である。

スタッフへ向けたアナウンスで、Googleは今回の組織再編が、将来を見据えた新しい投資分野を全社的に起ち上げ、成長させることに重点を置いたものだと説明している。

「この組織の中心となるのがLabsと呼ばれる新しいチームで、テクノロジーのトレンドを推定し、将来性の高い長期的な一連のプロジェクトをインキュベートすることに力を入れます」と、Googleは述べている。

Googleは今回の組織再編を公に発表していない。しかし、社内の関係者からこの動きを聞いたTechCrunchが同社に確認したところ、バーヴァー氏の新しい役職を含め、我々が上述した通りの変更であることを認めた。

「クレイは、拡大した役割を担うことになります。彼の仕事は、当社の中核製品や事業を直接サポートする長期的な技術プロジェクトに集中することになるでしょう」と、Googleの広報担当者は語っている。

画像クレジット:lex Tai/SOPA Images/LightRocket / Getty Images

原文へ

(文:Sarah Perez、翻訳:Hirokazu Kusakabe)

ARグラス用ディスプレイ・モジュール開発などのCellidが5億円調達、研究開発強化や量産開始に向け組織・開発体制の強化

ARグラス用ディスプレイ・モジュールや空間認識ソフトウェアの開発などを手がけるCellidは11月11日、第三者割当増資による総額5億円の資金調達実施を発表した。これにより累計調達額は7億円となった。引受先はアクサ生命、エプコ、一般事業会社(社名非公開)。調達した資金により、ディスプレイ・モジュール研究開発の強化、本格的マーケティング活動の開始、量産開始に向けた組織体制・開発体制の強化にあてるという。2022年には、ディスプレイ・モジュール試作品の製造から、量産化へと開発フェーズの移行も予定している。

Cellidは、独自AR技術「Cellid SLAM」の2020年12月ローンチ以後、SLAMを応用した「Position Finder」や「AR Tag」の実用に向けた技術検証を建設業や製造業など領域で進めているという。Position Finderは、単眼カメラの映像から、作業者の3次元位置情報を可視化できるサービスで、AR Tagは3Dモデル上にデジタル情報を付与できるサービスだ。

また2021年11月に、薄型化・広視野角化を達成できる表示方式「Waveguide」(ウェイブガイド)を用いて、対角視野角(FOV)60度を実現したシースルー・ディスプレイと、約1.2cm立方センチの超小型プロジェクターを組み合わせたディスプレイ・モジュール「Cellid Waveguide 60」をサンプル出荷。国内外の顧客へ販売を開始した。2022年1月5日(現地時間)から開催のCESにおいて、Cellid Waveguide 60を内蔵したメガネ型モックアップの出展を行う。米国を中心とした本格的なマーケティングを予定しているという。

ARグラス用ディスプレイ・モジュール開発などのCellidが5億円調達、研究開発や量産開始に向けた組織体制・開発体制を強化

「Cellid Waveguide 60」

Tencentが初めてメタバース実現に向けたビジョンを語る

Tencent Holdings Ltd.のマーティン・ラウ社長(左)と、馬化騰会長兼CEO(右)(画像クレジット:Brent Lewin/Bloomberg via Getty Images)

Facebook(フェイスブック)がメタバースという新しいバズワードに未来を託そうとしているときに、Tencent(テンセント)がその時流に乗らないわけがない。

現段階では、Tencentのアプローチは、Facebookのメタバース部門への100億ドル(約1兆1400億円)の投資に比べてより慎重であるように見える。しかし、中国のソーシャルメディアとゲームの巨人から少しでも早期のヒントが得られれば、投資家の憶測の材料にはなるだろう。

中国時間11月10日に行われた決算説明会で、TencentのPony Ma(ポニー・マー、馬化騰)CEOは、メタバースに関する同社の考えを初めて明らかにした。

仮想世界をよりリアルに、そして現実世界を仮想体験でより豊かにするものは、すべてメタバースの一部となり得ます。

その後、同社の幹部が順番にこのタグラインに肉付けをしていった。彼らの定義がよく分からなくなる場面もあったが、Tencentのボスたちは「メタバース」に到達するための3つの一般的な「道筋」については意見が一致していた。

現在、中国のインターネット業界では全体的に取り締まりが強化されており、開発中のメタバースにもそれが影を落としかねない。Tencentは、ユーザーエクスペリエンスが「規制の枠組みの下で提供される」限り、中国政府の規制は「メタバースの発展を根本的に妨げるものにはならない」と考えている。

しかし、中国国内のメタバースがまだ初期段階にある今、その規制がどのようなものになるかを知ることは困難だ。

メタバースへの階段

メタバースへの最も明白な道のりは、同社の最大の収益源であるビデオゲームだ。それは、高度にインタラクティブなゲームであったり、1つの共通IPのもとに存在する複数のゲームであったり、ユーザーがゲームを作れるようなインフラなどもあり得ると、マー氏は語った。

これらのアイデアのいくつかは、Epic Games(エピックゲームズ)、Roblox(ロブロックス)、Discord(ディスコード)など、Tencentのポートフォリオ企業ですでに具体化し始めている。そう、Tencentはすべてを自前でやろうとしているわけではなく、戦略的価値を見出すことができる何百もの企業を支援しているのだ。

Tencentのチーフストラテジーオフィサー(CSO)であるJames Mitchell(ジェームズ・ミッチェル)氏は「Epicの例では『Fortnite(フォートナイト)』と『Rocket League(ロケットリーグ)』を一緒に見ることができ、Roblox(ロブロックス)の例では、複数の異なるいわゆるゲーム体験があります」と説明した。

マー氏によると、2つ目の道筋は「ゲーム化され、より多くのプログラム可能な体験をサポートする」ソーシャルネットワークである可能性がある。

そのようなソーシャルネットワークには、一連のツールが必要だ。ミッチェル氏は「3Dグラフィックス機能を提供するもので……サーバーベースのコミュニティを持つもの」そして「ゲーム会社が必要とするUGCやPGCのツールを提供するもの」の両方が必要だと説明している。

「そのため、Meta(メタ)自体やSnap(スナップ)などのソーシャルネットワークは、最も多くの資本を持っていますが、やるべきこともそれなりに多くあります」とも同氏は付け加えた。

さらにもう1つの道として「現実世界での体験を、拡張現実(AR)や仮想現実(VR)で拡張する」という方法もあるとマー氏は指摘する。

ミッチェル氏は、Discordのような「すでに高度な機能を持つテクノロジーボットが存在する」ユーザー運営のコミュニティは「テキストと画像をベースにしたものから、より没入感のあるビデオをベースにしたものへ」移行する可能性があると考えている。

これら3つの計画を実行するために、Tencentはどれだけの能力を持っているのだろうか?同社は、適切な人材と技術を備えていると考えている。

TencentのMartin Lau(マーティン・ラウ)社長はこう述べた。「(メタバースの)原動力となるのは、やはりソフトウェアであり、ユーザーエクスペリエンスを提供するのに本当に役立つ技術であり、それはエンジンテクノロジーであったり、多数の同時ユーザーに対してより良いリアルな体験や忠実度の高い体験を提供する能力であったり、AI技術であったりします。それらが揃うことで、人によって異なる体験をカスタマイズすることができます」。

同社はメタバースの実現時期については明らかにしなかったが、ラウ氏は「おそらく人々が予想していたよりも時間がかかり、多くのイテレーションを必要とするでしょう」と認めている。

Tencentの将来に、Oculus(オキュラス)に相当するものはあるのだろうか?ラウ氏は、メタバースの実現に向けて「ハードウェアは必要条件ではなく、おそらく補助的な条件になるだろう」と考えている。

原文へ

(文:Rita Liao、翻訳:Dragonfly)

集英社がXR事業開発課を新設し「集英社 XR」開始、NianticとLightship ARDKでパートナーシップも

集英社は11月9日、XR事業開発課を新設し、XR事業「集英社 XR」をスタートしたことを発表した。XRとは、VR(仮想現実)、AR(拡張現実)、MR(複合現実)などを含む超越現実(クロスリアリティー)とよばれる技術の総称。「従来の出版事業を力強く下支えしつつ、立体的で躍動感のある新たなメディア展開」を行うとのこと。

集英社では、XRテクノロジーは、これまで作品や雑誌などで提供してきたコンテンツを、より豊かに届けることを可能にすると話している。このXR事業が目指すのは、総合出版社として社内のメディア全般のXR化、XRを軸に新たなパートナーシップをもとにしたビジネスモデルの変革、自社による投資としてのXRシステムの構築運用としている。

XR事業創設にともない、集英社は、事業企画、ネットワークシステム、CM制作、IoTなどを手がけるティーアンドエスと業務提携し、事業企画、クリエイティブ制作、サービス企画、システム開発、プロモーション、先端技術における研究開発などをともに行うとしている。

さらに、アメリカのARソフトウェア開発企業Niantic(ナイアンティック)と、「Pokémon GO」の技術的基盤ともなっている同社のツールセット「Niantic Lightship ARDK」に関するパートナーシップ契約も結んだ。

これらの先進的なAR技術、地球規模でのインフラを活用することで、集英社 XRは、日本をはじめグローバル規模での展開も視野に入れているという。同プロジェクトにおいて「さまざまな企業様とも新しい体験やサービスを創造していきたい」と集英社は話している。

クアルコムが新たなAR開発プラットフォームを発表、ハンドトラッキング技術のClay AIR買収も

Qualcomm(クアルコム)は米国時間11月9日、頭部装着型AR(拡張現実)体験を構築するための新しい開発者プラットフォーム「Snapdragon Spaces XR Developer Platform(スナップドラゴン・スペーシズXRディベロッパー・プラットフォーム)」の提供を開始した。このプラットフォームでサポートされているハードウェアは、現在のところ、Lenovo(レノボ)のスマートグラス「ThinkReality A3(シンクリアリティA3)」(Motorola[モトローラ]のスマートフォンと組み合わせて使用する)のみだが、2022年前半にはOppo(オッポ)やXiaomi(シャオミ)製のハードウェアにも拡大する予定だ。

Qualcommは、このソフトウェアエコシステムを構築するために、Epic Games(エピック・ゲームズ)の「Unreal Engine(アンリアル・エンジン)」、Niantic(ナイアンティック)の「Lightship(ライトシップ)」プラットフォーム、Unity(ユニティ)、Viacom CBS(バイアコムCBS)など、幅広いパートナーを揃えた。Deutsche Telekom(ドイツテレコム)とT-Mobile U.S.(TモバイルUS)もQualcommと提携し、hubraum(フブラウム)プログラムを通じて、Snapdragon Spacesを利用するスタートアップ企業を支援する。

画像クレジット:Qualcomm

現在のところ、このプログラムにアクセスできるのは、ごく一部の開発者に限られる。現在参加しているのは、Felix & Paul Studios(フェリックス&ポール・スタジオ)、holo|one(ホロ・ワン)、Overlay(オーバーレイ)、Scope AR(スコープAR)、TRIPP(トリップ)、Tiny Rebel Games(タイニー・レベル・ゲームズ)、NZXR、forwARdgame(ファワードゲーム)、Resolution Games(レゾリューション・ゲームズ)、TriggerGlobal(トリガーグローバル)など。一般提供は2022年の春に開始される予定だ。

また、Qualcommは同日、ハンドトラッキングとジェスチャー認識ソリューションのために「HINS SASおよびその完全子会社であるClay AIR, Inc.(クレイ・エア)のチームと一部の技術資産」を買収したと発表した。これは2019年のWikitude(ウィキチュード)買収に加え、同社のARへの取り組みを飛躍させるためのもう1つの動きだ。

「私たちが、スマートフォン向けのVIO(visual-inertial odometry、視覚・慣性を使った自己位置推定)のようなアルゴリズムで、拡張現実を検討する研究開発プログラムを始めたのは、2007年にまで遡ります」と、Qualcommのバイスプレジデント兼XR担当GMであるHugo Swart(ヒューゴ・スワート)氏は、今回の発表に先立つプレスブリーフィングで述べている。「2010年代にはODGのようなデバイスも可能にしてきました。2014年に仮想現実や拡張現実に特化した新しいチップを開発しましたが、私たちは長期的な視点で取り組んでいます。目指す場所にはまだ達していないことが、私たちにはわかっています。没入型と拡張型の両方の体験を可能にするARグラスという至高の目標を実現するには、まだまだ投資が必要です」。

画像クレジット:Qualcomm

今回発表されたプラットフォームは、ローカルアンカーとパーシステンス、ハンドトラッキング、オブジェクト認識およびトラッキング、平面検出、オクルージョン空間マッピング、メッシュ化などの機能をサポートすることができる。

Qualcommはこのプラットフォームで、開発者がARエクスペリエンスを構築する際の障壁を低くしたいと考えている。開発者は基本的なARアプリケーションを迅速に構築するためのドキュメント、サンプルコード、チュートリアル、追加ツールを利用できるようになる。このエコシステム構築を希望する企業をさらに支援するために、QualcommはPathfinder(パスファインダー)と呼ばれる追加プログラムも開設する。このプログラムでは、ソフトウェアツールやハードウェア開発キットへの早期アクセス、プロジェクトへの追加資金、Qualcommとの共同マーケティングやプロモーションなどが提供される。

画像クレジット:Qualcomm

原文へ

(文:Frederic Lardinois、翻訳:Hirokazu Kusakabe)

Nianticが「現実世界のメタバース」というビジョン&AR開発者キット「Lightship」を発表、AR体験構築をよりアクセシブルに

「Pokémon GO(ポケモンGO)」の開発で知られるARテクノロジー企業のNiantic(ナイアンティック)は、拡張現実体験の構築をより身近なものにするAR開発キット(ARDK)「Lightship」を発表した。この無料で公開されている技術は、同社のビジョンである「現実世界のメタバース」の基礎を築くのに役立つ。

NianticのJohn Hanke(ジョン・ハンケ)CEOは、プログラム立ち上げのライブストリームで、以前彼がメタバースを「ディストピアの悪夢」と呼んだ自身のブログ記事に言及した。しかし、Facebook(フェイスブック)が社名をMeta(メタ)に変更し、VRヘッドセットが支配する未来を宣伝している間にも、Nianticは代替案を想像している。それは、仮想世界ではなく、人々を直接結びつけるメタバースだ。

Nianticの既存のゲームは、屋外での活動や新しい人との出会いを重視している。リモートでプレイできるようにパンデミック時代の調整を行う前は、伝説レイドバトルなど、Pokémon GOの特定の側面は、十分な数のプレイヤーが同時に協力しないとプレイできなかった。2017年に伝説レイドバトルがリリースされると、ローカルなDiscordコミュニティが立ち上がり、人々は現実世界でのミートアップを調整して、一緒にルギアやフリーザーを捕まえようとした。

ハンケ氏は次のように述べた。「Nianticでは、人間はバーチャルな世界がフィジカルな世界につながるときに最も幸せだと考えています。SFのメタバースとは異なり、現実世界のメタバースは、何千年も前から知られている私たちの世界における経験を向上させるためにテクノロジーを活用します」。

Lightship ARDKの公開により、デベロッパーは「Ingress(イングレス)」「Pokémon GO」「Pikmin Bloom(ピクミンブルーム)」などのゲームの基盤を利用して、新たなプロジェクトを生み出すことができる。また同社は、2000万ドル(約22億6500万円)規模のNiantic Venturesファンドを開設し、Nianticのビジョンに合致する企業に投資する。ローンチ時点で、NianticはすでにCoachella(コーチェラ・フェスティバル)、英国の歴史的王宮を管理する非営利組織Historic Royal Palaces、Universal Pictures(ユニバーサル・ピクチャーズ)、全米プロゴルフ協会などのブランドと提携しており、彼らは同社のARDKを利用しているという。

このソフトウェア開発キットは、3D、2D、VR、ARエクスペリエンスを構築するソフトウェアであるUnityと統合することで、開発者がiOSやAndroid向けの体験を構築するのに役立つ。ARDKは、NianticのAR機能のトップ3である、リアルタイムマッピング、セマンティックセグメンテーション、マルチプレイヤー機能を提供し、Nianticが何年もかけて開発してきたツールを、新進気鋭のクリエイターが利用できるようにする。

NianticのプロダクトマネージャーAmanda Whitt(アマンダ・ホイット)氏は、この度のQ&Aで「Unityの経験が少しあれば、簡単に使いこなせるようになります」と語った。

この新しいLightship ARDKは、興味のある開発者向けにNiantic Lightshipのウェブサイトで公開されている。

画像クレジット:Niantic

原文へ

(文:Amanda Silberling、翻訳:Aya Nakazato)

【コラム】生き残りを賭けたフェイスブックの「メタ」への転換

Facebook(フェイスブック)は生き残りをかけて戦っているが、彼らの敵は規制当局の圧力ではない。Zuckerberg(ザッカーバーグ)氏は、下降しつつあるユーザーベースを守る救命ボートとして「メタバース」に頼り切っている。Facebookの未来が主要ハードウェアプラットフォームを所有することにかかっていることを、彼はずっと前から知っている。

先のFacebookの「Meta」へのブランド転換は、数十億ドル(数千億円)のバランスシートゲームの3イニング目だ。果たして消費者がこれを受け入れ、現実になるのかどうか拝見しよう。Meta / Facebookのすべてが懸かっている。

2016年からVRとARに投資している1人として私は、昨今のビジネストレンドチャンネルをにぎわしている「メタバース」の話題を聞いて、慎重ながら楽観的になっている。果たして今は本当にVRの時代なのか?

世界で最も価値のある会社の多くは、自らのソフトウェアアプリケーションを動かすハードウェアを所有している。Apple(アップル)とMicrosoft(マイクロソフト)は何年も前からハードウェア事業を手がけているし、Google(グーグル)もAndroid(アンドロイド)で堅実なOSビジネスを構築することができた。2014年のFacebookによる数十億ドルのOculus(オキュラス)買収は、ザッカーバーグ氏の真意をあからさまに示すものだったが、実際のピボット(転換)が起きるまでには7年を要した。

Oculus買収直後の数年間、VR(仮想現実)への投資が業界全体で相次いだ。ハードウェアプラットフォームが、Google、Microsoft、Sony(ソニー)、HTC(エイチティーシー)、Steam(スチーム)などから大々的な発表が続いた、こうした投資のほとんどは数年後に捨てられるか打ち切られることとなり、VRハードウェアプラットフォームの選択肢は不足状態になった。

Facebookが攻撃を開始したのはその時だった。Oculus / Reality Labsプラットフォームへの投資を強化して高品質モバイルVRハードウェア機器の開発で革新を起こし、ゲームデベロッパーに資金を投入して、プラットフォーム上の有望なゲームのほとんどを貪欲に買収した。買収を通じてデベロッパーエコシステムを構築するそのアプローチは、あらゆるVRプラットフォームが直面してきた初期コンテンツ不足問題を解決するための長丁場の投資だ。

ザッカーバーグ氏はゲームから手を付けた。それは、消費者の大きな興奮と成長が約束された最古のカテゴリーであり、ヘッドセットの中で消費者の熱狂を心地よく上昇させるからだ。次にザッカーバーグ氏は、VR/AR(拡張現実)をエンタープライブに持ち込み、リモートチームとの実践的3Dコラボレーションを、パンデミック下で分散された社員たちに浸透させようとしている。

幸運なのか実力なのか、彼は予知能力のある戦略家として知られている。ザッカーバーグ氏はこれまで、自分では必ずしも制御できない市場の変化とタイミングに対応して、完璧な戦略を見せつけてきた。

「メタバース」は、すでに「Fortnite」や「Roblox」に存在している。ザッカーバーグ氏は、人々が頭に被るコンピューターを通じた完全没入型体験を望んでいて、年齢層の高いユーザーベースを駆り立てられることに賭けている。

もしFacebookの過去の買収が道しるべになるなら、ザッカーバーグの戦略は成功するだろう。ただしWhatsApp(ワッツアップ)とInstagram(インスタグラム)をはじめとするFacebookの成功した買収先のほとんどは、買収当時すでに成功が約束されていた。「メタバース」に全力を注ぐことは、新しいプラットフォームとパラダイムを作り出すことであるが、そこは30年以上熱狂を促すサイクルを繰り返してきたにもかかわらず、悲しいほど普及が進まない分野である。

バランスシートを見る限り、うまくいく可能性は高い。しかし、今はまだ、隔離された空間に存在する戦略とチャンスのための妙技にすぎない。

編集部注:本稿の著者Jacob Mullins(ジェイコブ・マリンズ)氏はShasta Venturesのマネージングディレクターとして、2016年以来VR/ARに投資している。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Jacob Mullins、翻訳:Nob Takahashi / facebook

マーク・キューバン氏とOculusの元CEOが支援する3D型eコマースを推進するVNTANA

Faceook(フェイスブック)やApple(アップル)が複合現実型ヘッドセットの導入を計画するなど、コンシューマー向けウェブの3D化を推し進めている一方で、世の中のウェブコンテンツのほとんどは、いまだに2Dのままだ。3Dコンテンツが存在する、完全に別世界の「メタバース」を推し進める人もいるが、現在のユーザーがいる場所にリソースを投資したいと考えている既存のウェブプラットフォームにとって、それは難しいことだろう。

VNTANA(ヴィンタナ)は、コンテンツ管理システムを構築しており、eコマースの小売業者がサイト上で商品をきれいな3Dで紹介するのを支援するとともに、ユーザーが拡張現実でモノを見たり、バーチャルで商品を試着したりできるようにしている。2012年に設立されたVNTANAは、長年にわたり3Dコンテンツに注力してきたが、パンデミック前のライブイベントにホログラムを導入することから、今ではウェブ上の店頭に3Dコンテンツを導入することへシフトしてきた。

「消費者が意味のある方法で製品に関わることができるような、インタラクティブな方法を作ることが常に目的でした」とCEOのAshley Crowder(アシュリー・クラウダー)氏は述べている。

同社は、シリーズAで1250万ドル(約14億2200万円)の資金を複数回にわたって調達したとTechCrunchに報告している。このスタートアップの最新の資金調達の支援者には、Mark Cuban(マーク・キューバン)氏、Oculus(オキュラス)の前CEO、Brendan Iribe(ブレンダン・アイラブ)、Flexport(フレックスポート)、Anorak Ventures(アノラック・ベンチャーズ)などが含まれている。同社は、2019年に600万ドル(約6億8200万円)のシードラウンドを発表している。

同スタートアップのソフトウェア式には、大容量の3Dファイルを最適化して読み込み時間を短縮し、消費者が新製品をあらゆる角度から見ることができるようにする製品や、eコマースプラットフォームがすでに所有している3Dファイルを活用して、2Dのデジタルレンダリングによるショールーム画像や動画を作成し、マーケティングにかかる時間と費用を節約できるようにする製品が含まれている。また、同社は最近、卸売り管理プラットフォームのJoor(ジョア)やソフトウェアメーカーのPTCと提携し、事業拡大を図っている。

消費者は、同社のソフトウェアを利用することで、購入前に拡張現実(AR)を使って、実際の空間での商品の大きさや外観を確認することができ、返品の減少にもつながると、クラウダー氏は述べている。

Apple、Google、Facebookなどから大きな発表があったにもかかわらず、拡張現実を開発する機会というのは、数年前に関心が高まったときに多くの投資家が予想したよりも限られていた。しかし、VNTANAのような企業は、3Dコンテンツを利用した体験を提供することで、eコマースの小売業者が抱える既存の問題を解決するとともに、AR/VRの未来に向けた準備を整えている。

原文へ

(文:Lucas Matney、Akihito Mizukoshi)

Niantic「ハリー・ポッター:魔法同盟」が2022年1月末にサービス終了

少年が活躍するNiantic(ナイアンティック)のARゲームが終わろうとしている。「ポケモンGO」を我々に届けた同社は、大ヒット作の「ポケモンGO」と同様の手法を用いた「ハリー・ポッター:魔法同盟」を2019年にリリースした。しかし人気の手法を利用し、それにARをプラスしたゲームが同じように成功するとは限らないという結果になった。

「ハリー・ポッター:魔法同盟」のプレイ停止は2022年1月31日で、2021年12月6日以降はすべてのアプリストアから削除される。アプリ内購入も12月6日以降はできないが、それまでにアプリ内で購入したゴールドなどは1月31日までゲーム内で使える。「法律で定められている場合を除いて」返金はできないと発表の中に書かれている(訳注:この日本語版記事制作時点で、日本語の発表には返金に関する記載がない)。

「ハリー・ポッター:魔法同盟」は最初のリリース以降、順調な数字を発表していたが、「ポケモンGO」と同レベルの成功に達していないのは最初から明らかだった。コロナ禍にもかかわらず「ポケモンGO」は2020年にそれまでで最高となる10億ドル(約1130億円)以上の収益を上げ、2021年は現時点でさらに前年を超える11億ドル(約1250億円)の収益となっている。

Nianticはブログの中で「永遠に続くゲームはありません。私たちはともに(ゴールを)達成し、2年間続いた物語はまもなく完結します」と述べている。

あいまいな筋書きがある程度の「ポケモンGO」よりも「ハリー・ポッター:魔法同盟」のほうがはるかに物語仕立てであることは確かだ。しかし2つのゲームにまつわる数字は「ハリー・ポッター:魔法同盟」が終了するもう1つの理由を語っている。

アプリ分析企業のSensor Towerによれば「ハリー・ポッター:魔法同盟」は2021年1月〜10月に世界で約73万9000回インストールされた。これは2020年の同期間で約170万回だったのと比べると57%の減少だ。同様にアプリ内購入の金額も2021年1月〜10月は前年同時期比で57%減っている。これまでに「ハリー・ポッター:魔法同盟」は推計で2030万回ダウンロードされ、3940万ドル(約44億8000万円)の収益があった。これに対して「ポケモンGO」は2021年1月〜10月に11億ドル(約1250億円)もの収益を上げている。

Nianticが任天堂とのコラボで開発した新ゲーム「ピクミン ブルーム」を10月下旬に発表したばかりのこのタイミングで「ハリー・ポッター:魔法同盟」の終了が発表された。NianticはユーザーがARで巨大ロボットを戦わせる「Transformers:Heavy Metal」も開発している。同社は米国時間11月2日のブログで、2022年に試験的に限定公開する予定のものも含めて9本のゲームとアプリを開発中であると記している。同社はTechCrunchに対し「ハリー・ポッター:魔法同盟」を担当していた従業員は他のプロジェクトに異動すると述べた。

NianticのCEOであるJohn Hanke(ジョン・ハンケ)氏は「ハリー・ポッター:魔法同盟」のリリースに際して2019年に実施したTechCrunchのインタビューで「ハリー・ポッター」に使用しているシステムは「ポケモンGO」と「Ingress」で開発したものだと述べていた。

その際にハンケ氏はTechCrunchに対し「我々が開発をするとき、特に「ポケモンGO」に関しては、他のゲームで再利用できるプラットフォームを構成するようなものを意図的に作りました。ソーシャルの機能はその好例です。ソーシャルの機能は『ポケモンGO』で使うために開発したものですが、他のゲームにも簡単に取り入れられるように作っています」と語った。

歩き回ってデジタルのオブジェクトを操作することは、ポケモンの世界では機能しているが他のプロダクトへのシームレスな応用はできないようだ。「ハリー・ポッター:魔法同盟」の終了は、おそらくそのことを明らかにしている。

画像クレジット:Niantic

原文へ

(文:Amanda Silberling、翻訳:Kaori Koyama)

Meta(元フェイスブック)がVRフィットネスアプリ「Supernatural」を開発したWithinを買収

Facebook(フェイスブック)が「Meta(メタ)」に社名を変更した翌日、同社はWithin(ウィズイン)の買収を発表した。ロサンゼルスに本拠を置くWithinは「Beat Saber(ビートセイバー)」スタイルのワークアウトアプリ「Supernatural(スーパーナチュラル)」を開発した企業だ。このアプリは、身体の動きをベースにした高負荷のカーディオエクササイズで、バーチャルリアリティフィットネスにおける本物のサクセスストーリーの1つとなっている。

Facebook改めMetaが、VRに関する野望をメタバースのようなものにまで広げようとしていることを考えれば、これは賢明な買収といえるだろう。Supernaturalはまた、新型コロナウイルスの影響によるジムの閉鎖やワークアウトの制約が広がった中で、より多くの人々が家庭用のソリューションに目を向けるようになったことから、この1年半の間に特に注目された商品であることも間違いない。

「Metaとのパートナーシップに私たちは興奮しています。なぜならそれは、私たちがより多くのリソースを得て、VRでより多くの音楽、よりクリエイティブなワークアウト方法、より多くの機能、そしてよりソーシャルな体験を、みなさまにお届けできるようになるということを意味するからです。もちろん、これからも引き続き、毎日新しいワークアウトを提供していきます」と、WithinのCEOであるChris Milk(クリス・ミルク)氏とフィットネス部門の責任者であるLeanne Pedante(リアン・ペダンテ)氏はブログで述べている。

Withinによると、同社のコーチ、コレオグラファー、マネージャーなどの既存スタッフは、買収後も引き続き在籍するとのこと。Supernaturalは、MetaのVR/AR部門であるReality Labs(リアリティ・ラボ)の下で運営されることになるという。

「私たちは、VRフィットネスアプリをサポートするために、将来のハードウェアを強化する方法も一緒に検討し、他の開発者たちがVRに新しいフィットネス体験をもたらすことを奨励します」と、MetaのPlay担当VPであるJason Rubin(ジェイソン・ルービン)氏は、Oculus(オキュラス)のブログで書いている(ちなみにOculusというブランドは、間もなく廃止されることになっている)。「VRではフィットネスが大きな成功を収め、複数のサードパーティによるフィットネス・アプリも成功できると、私たちは確信しています」。

2015年に設立されたWithinは、これまでに5000万ドル(約57億円)を超える資金を調達しており、最近では2017年に、4000万ドル(約46億円)を調達したシリーズBラウンドを実施している。このラウンドは、Temasek(テマセク)とEmerson Collective(エマーソン・コレクティブ)が主導し、Andreessen Horowitz(アンドリーセン・ホロウィッツ)、21st Century Fox(21世紀フォックス)、Raine Ventures(レイン・ベンチャーズ)、WPP、Macro Ventures(マルコ・ベンチャーズ)などが投資した。

今回の買収の財務的な詳細は公表されていない。

関連記事
フェイスブックが「Meta」に社名変更、メタバースを中核事業に
かつてフェイスブックと呼ばれた会社が「Oculus」ブランドをさりげなく抹殺

画像クレジット:Meta/Within

原文へ

(文:Brian Heater、翻訳:Hirokazu Kusakabe)

スマホで撮影した数枚の写真で簡単に3Dモデルが作れるLumaが4.9億円調達

おそらくオンラインショッピングで、商品を回転させて、全方向から見ることができる写真を見たことがあると思う。こうしたものは、製品をあらゆる角度から撮影した写真を何枚も用意して、それらをアニメーションのように再生するのが一般的だ。Apple(アップル)のAR(拡張現実)およびコンピュータビジョングループを離れたエンジニアたちによって創業されたLuma(ルマ)は、これらの課題を解決しようとしている。


同社が開発した新しいニューラルレンダリング技術は、少ない枚数の写真を撮影するだけで、製品のフォトリアリスティックな3Dモデルを生成し、陰影をつけてレンダリングすることを可能にした。その目標は、ハイエンドなeコマースアプリケーション向けの商品写真撮影を大幅にスピードアップするだけでなく、あらゆる角度から商品を見せることでユーザー体験を向上させることだ。そしてすばらしいことに、撮影された画像は実際に3Dとして解釈されたものであるため、どの角度からでもレンダリングできるだけでなく、わずかに異なる角度からの2つのビューポートを使って3Dで見ることも可能だ。言い換えれば、検討中の製品の3D画像をVRヘッドセットで見ることができるということなのだ。

この分野をずっと追い続けてきた人なら、民生用のカメラと初歩的な写真測量技術を使って3D表現を行おうとするスタートアップは繰り返し見てきたことだろう。はっきりいってしまえば、これまでのそうした技術は決してすばらしいものとは言えなかった。だが新しい技術には新しいチャンスがあり、それがLumaの狙う場所なのだ。

Lumaの技術が実際に適用されたデモ(画像クレジット:Luma)

Luma AIの創始者であるAmit Jain(アミット・ジェイン)氏は「何が今までと違うのか、そしてなぜ今このようなことをしているのかを説明するなら、ニューラルレンダリングの考え方が台頭してきたということです。従来、写真測量で行われてきたのは、何枚かの画像を撮影し、それを長時間の処理を経ることで点群を得て、そこから3D構造を再構築するというものでした。最終的にはメッシュを作成することになりますが、高品質な3D画像を得るためには、ノイズの多い実在のデータから高品質なメッシュを作成できる必要があります。この問題は今でも根本的に解決されていないのです」と説明し、この課題がが業界では「インバースレンダリング」と呼ばれていると指摘した。同社は、この課題に別の角度からアプローチすることにした。

ジェイン氏は「点群から正確なメッシュを得ることはできないという前提の下に、別のアプローチをとることにしたのです。オブジェクトの形状に関する完璧なデータ、つまりレンダリング方程式があれば、PBR(Physics Based Rendering、フィジカルベースドレンダリング)を行うことができます。しかし問題は、スタートが写真であるため、そのようなレンダリングを行うには十分なデータがないということです。そこで、新しい方法を考えたのです。クルマの写真を30枚撮って、そのうちの20枚をニューラルネットワークに見せるのです」と説明する。残りの10枚の写真は「チェックサム」、つまり方程式の答として使われる。ニューラルネットワークが、20枚のオリジナル画像を使って、最後の10枚の画像がどのように見えるかを予測できれば、アルゴリズムは、撮影しようとしているアイテムに対するかなり優れた3D表現を作成できたことになる。

非常にマニアックな写真の話だが、かなり大規模な実用的なアプリケーションが作られている。同社の思う通りにもし進んだならば、eコマースストアで物理的な商品を閲覧する方法は、これまでとは違ったものになるだろう。商品写真を、軸の周りに回転させるだけでなく、撮影されていない角度も含めて、あらゆる角度からズームやバーチャルな動きを取り込むことができる。

上の2枚が写真。下の画像はこれらを元にして作られたLumaレンダリングによる3Dモデル(画像クレジット:Luma)

ジェイン氏は「誰もが製品を3Dで見せたいと思っていますが、問題は3Dアーティストに参加してもらって、スキャンしたものに調整を加えてもらう必要があるということです。その分、コストが大幅にアップします」という。そして、これでは3Dレンダリングができるのは、ハイエンドのプレミアム製品に限られてしまうとジェイン氏は主張する。Lumaの技術は、この状況を変えることを約束している。なにしろ3Dモデルのキャプチャーと表示にかかるコストを、1つのモデルごとに数百ドル〜数千ドル(数万〜数十万円)ではなく、数十ドル(数千円)程度に抑えることができるようになるからだ。

Lumaの共同設立者であるAmit Jain(アミット・ジェイン)CEOとAlberto Taiuti(アルベルト・タユティ)CTO(画像クレジット:Luma)

同社はYouTubeのような埋め込み型のプレイヤーを開発し、小売店が商品ページに立体映像を簡単に埋め込めるようにする予定だ。

Matrix Partners、South Park Commons、Amplify Partners、RFCのAndreas Klinger(アンドレアス・クリンガー)氏、Context Ventures、そして多くのエンジェル投資家たちが、このビジョンを受け入れ、430万ドル(約4億9000万円)の資金を提供した。ラウンドを主導したのはMatrix Partnersだ。

MatrixのゼネラルパートナーであるAntonio Rodriguez(アントニオ・ロドリゲス)氏は「次の偉大なコンピューティングパラダイムが3Dに支えられていくことは、よほど事情に通じていない人以外なら誰でも知っていることです。しかし、来るべき3D環境に人を増やしていくためには、手間のかかるオーダーメイドの方法ではスケールアップできないことをきちんと理解しているひとは、Lumaの外にはほとんどいません。写真を撮って送信するのと同じように、私の作品を3Dにする手段も簡単でなければならないのです!」。

その技術がどのようなものかが、以下のビデオで紹介されている。

画像クレジット:Luma

原文へ

(文:Haje Jan Kamps、翻訳:sako)

フェイスクブックの研究者がAIの訓練のために何千時間もの一人称視点の動画を収集

テック企業の多くが目指しているように、ARメガネやその他のウェアラブルに搭載されたAIが人間の目を介して物事を見るようになるのであれば、未来のAIは人間の視点をきちんと理解できるようになる必要がある。自身の視点というのは当然、我々にとっては自然なものだが、意外なことに日常的な作業を映した1人称視点のビデオ映像はほとんど存在しない。そこでFacebookは、数千時間に及ぶ映像を新たなデータセットとして公開するため収集した

Facebookが取り組んだのは、現在最も優れた物体・シーン認識モデルであっても、そのほとんどが三人称視点でのみ学習されているという課題だ。つまりキッチンに立っている場面を見れば、料理をしている人として認識することができても、料理をしている人の視点から見た場合では認識する事ができない。自転車を認識するにしても、自転車が映し出されれば認識できるが、自転車に乗っている人の視点では理解ができないわけだ。我々人間にとっては当たり前のことで、これまで見過ごされてきたことだが、コンピューターにとってはまだ難しい課題なのである。

機械学習の問題を解決するには通常、データを増やすかより優れたデータを得るかのどちらかが必要になる。今回の場合は両方あっても損はないだろう。Facebookは世界中の研究パートナーに協力を依頼し、料理や買い物、靴ひもを結ぶ様子から仲間と遊んでいる様子まで、一般的な行動の1人称映像を集めた。

13のパートナー大学が9カ国700人以上の参加者から何千時間ものビデオを収集。参加者はみんなボランティアで、自身の関与やアイデンティティのレベルをコントロールすることができた。これら数千時間にもわたる映像は、研究チームによって3000時間にまで縮小され、研究チームが映像を見て編集し、手書きで注釈を加え、さらに現実世界では撮影できなかった環境を演出した独自の映像も追加された。この研究論文にそのすべてが記されている

映像はメガネ型カメラ、GoPro、その他のデバイスなどさまざまな方法で撮影されている。研究者の中には、活動している環境を同時に収録した人もいれば、視線の方向やその他の指標を追跡した人もいる。これらのデータはすべてEgo4Dと呼ばれるFacebookのデータセットにまとめられ、研究コミュニティに広く提供される予定だ。

コンピュータービジョンが物体の識別に成功しているものと、1人称映像での識別に失敗しているもの(画像クレジット:Facebook)

「AIシステムが人間と同じように環境と関わり合うためには、AI分野が1人称視点の知覚というまったく新しいパラダイムに進化する必要があります。そのためには人間の目を通したリアルタイムの動き、関わり合い、多感覚の観察の中で、AIに日常生活の動作を理解することを教えなければなりません」と、主任研究員のKristen Grauman(クリステン・グラウマン)氏はFacebookのブログ中で話している。

Facebookは1人称視点での理解力があらゆる分野でますます重要になっていると考えてはいるものの、何とも信じ難いことにこの研究とRay-Ban Storiesのスマートシェードはまったく無関係とのこと(この3Dスキャンは同社のハビタットAIトレーニングシミュレーターに使用されるかもしれないが)。

「弊社の研究では、拡張現実やロボット工学への応用を強く意識しています。特にARメガネのようなウェアラブル製品が人々の日常生活や移動に不可欠な要素になるにつれ、将来AIアシストを実現するためには1人称視点の知覚が不可欠です。もし、あなたのデバイスに搭載されているアシスト機能が、あなたの目を通して世界を理解し、生活から認知的過負荷を取り除くことができたらどれほど有益か想像してみてください」とグラウマン氏はTechCrunchに話している。

世界中から映像を集めたというのは意図的な戦略である。1つの国や文化の映像だけを集めるようでは近視眼的だ。米国のキッチンはフランスのキッチン、ルワンダのキッチン、日本のキッチンとはまるで別物であり、また同じ食材を使って同じ料理を作ったり、同じ作業(掃除や運動)をしたりしても、個人間はさることながら、文化間となれば大きく異なるのは当然である。つまりFacebookの投稿にあるように「既存のデータセットと比較して、Ego4Dのデータセットは、シーン、人、アクティビティの多様性が高く、背景、民族、職業、年齢を問わずさまざまな人に向けてトレーニングされているため、モデルの適用性が高い」のである。

Facebookの1人称視点のビデオとその環境の例(画像クレジット:Facebook)

Facebookが公開しているのはデータベースだけではない。データ収集においてこのような飛躍的な進歩がある場合、あるモデルがどれだけこの情報を活用できているかをテストしたベンチマークを公開するのが一般的になっている。例えば犬と猫の画像があったとして、どちらがどちらかを見分けるというモデルの有効性をテストした標準的なベンチマークが知りたい場合もあるだろう。

しかし今回のような場合はもう少し複雑になる。1人称視点で物体を識別するというのはそれほど難しいことではなく、目新しさや便利さもない。「これはトマトですよ」と教えてくれるARメガネなど誰が必要だろう。他のツールと同様に、ARデバイスは私たちが知らないことを教えてくれるものでなければならないのだ。そのためにARデバイスは、意図、文脈、連動したアクションなどをより深く理解する必要がある。

そこで研究者らは、1人称視点の映像を分析することで理論的に達成可能な5つのタスクを考えた。

  • エピソード記憶:物体や概念を時間と空間の中で追跡し「私の鍵はどこにあるか」といった任意の質問に答えられるようにする。
  • 予測:一連の出来事を理解することで「レシピの次の手順は何か」といった質問に答えたり「車の鍵を家に忘れた」といったことを事前に指摘したりすることができる。
  • 手と物体のインタラクション:人がどのように物を掴み、操作しているのか、またその際に何が起こっているのかを把握することで、エピソード記憶やそれを模倣したロボットの動作に反映させることができる。
  • オーディオ・ビジュアル・ダイアライゼーション:音をイベントやオブジェクトに関連付けることで、音声や音楽をインテリジェントに追跡し「カフェでかかっていた曲は何だったのか」「会議の最後に上司は何と言ったか」といった質問のソリューションに適用する(「ダイアライゼーション」が「言葉」である)。
  • 社会的相互作用:誰が誰に向かって話しているのか、何が語られているのかを理解し、他のプロセスに情報を提供する目的と、複数の人がいる騒がしい部屋で字幕を表示するなどの瞬間的な使用の両方に対応する。

当然、このような活用法やベンチマークに限られているわけではなく、上記の例はAIモデルが1人称視点のビデオで何が起きているかを実際に理解しているかどうかをテストするための初期アイデアに過ぎない。論文に記載されている通り、Facebookの研究者らはそれぞれのタスクについてベースレベルの実行を行い、それを出発点としている。さらにこの研究をまとめた動画には、それぞれのタスクが成功した場合を想定した、非現実的とも言えるような例が挙げられている。

現在公開されているデータは、25万人の研究者が手作業で丹念に注釈を加えたという3000時間ものデータ数にははるか及ばないものの、まだ成長の余地があるとグラウマン氏は指摘する。今後もデータセットを増やしていく予定であり、パートナーも積極的に増やしていくという。

このデータの活用に興味がある読者は、Facebook AI Researchのブログをチェックして論文に掲載されている莫大な数の人々の1人に連絡を取ってみるといい。コンソーシアムが正確な方法を確定した後、数カ月以内に発表される予定だ。

画像クレジット:Facebook

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)