日本原子力研究開発機構、原子力施設の耐震安全性を詳細な3Dモデルで解析する手法を標準化して公開

日本原子力研究開発機構、原子力施設の耐震安全性を詳細な3Dモデルで解析する手法を標準化して公開

日本原子力研究開発機構は、原子力施設を3次元モデル化し、地震の揺れに対する影響を詳細に解析する手法を整備。実測データとの比較によりモデル化方法の妥当性を確認し、耐震解析手法の精度向上を実現した。さらに、この手法を標準的な解析要領にまとめ、外部専門家の確認を経て公開したと3月25日に発表した。

原子力施設の3次元モデルを用いた耐震解析には、国際原子力機関(IAEA)が、柏崎刈羽原子力発電所7号機原子炉建屋を対象に2007年の新潟中越地震の実測データを用いて実施した国際ベンチマーク解析「KARISMAベンチマーク解析」があるが、解析者による結果のばらつきが大きく、観測記録との差が大きいという問題がある。そのため、モデル化方法と解析方法を標準化し、耐震安全性の信頼性向上が求められてきた。

同機構の崔炳賢副主任研究員ら研究グループは、3次元詳細モデルによる耐震解析手法に関係する複数の重要因子を特定し、それぞれの詳細モデル化の方法を明確にした。この手法を用いることで、原子力施設の耐震安全性の評価手法の1つである、地震を原因とする確率論的リスク評価に必要な、建屋の局部応答も表現できる。つまり、重要機器や配管が設置されている建屋の床や壁といった局部の振動が再現され、建屋の揺れが精緻化された。これにより、「局部から始まる建屋のより現実的な損傷評価が可能」となり、建屋、機器、配管などの損傷確率を示す地震フラジリティー評価手法の高度化が期待できるという。この解析結果を実際の観測記録と比較したところ、再現性が向上していることが確認され、このモデル化方法の妥当性が明らかになった。

重要機器の設置位置などの建屋の注目部位(床や壁)のフラジリティ評価のイメージ

研究グループは、こうした3次元詳細モデルを用いた耐震解析の手法、考え方、手順、技術的根拠などを取りまとめ、国内初となる標準的な解析要領を整備した。これを利用することで、解析者ごとの解析結果のばらつきが抑えられる。また、プラント公開情報をもとに、この標準的解析要領の手順に沿ったモデル化と解析を行い、解析事例として整備した。そしてこれを適用事例としてまとめ、外部専門家の確認を経て、標準的解析要領とともに公開した。

スマートフォンで3Dスキャン&データ編集が行えるスマホアプリ「WIDAR」を手がけるWAGOが1.1億円のシード調達

3Dを活用するための技術開発・提供を行うWOGOは3月22日、シードラウンドとして、第三者割当増資による1億1000万円の資金調達を実施したと発表した。引受先は、Coral Capital。

また、スマートフォンで3Dスキャン&3D編集が行えるアプリ「WIDAR」(Android版iOS版)の正式版を3月5日にリリースしたことを明らかにした。

調達した資金により、同アプリの編集ツールの追加リリースを継続的に行う。また、コミュニティー機能を充実させ、3Dデータの蓄積とともに、これらデータが素材として活用されるようなコラボ制作の流れを作り出し、3Dコンテンツ作成のハードルを下げる。さらに、3Dデータの活用を促進し、メタバースにより多くのコンテンツを供給することを実現すべく、データの外部接続APIの開発と提供も図る。

WIDARは、スマートフォンのカメラ機能でスキャンした対象を3Dモデル化し、編集できるアプリ。3D編集機能は、初回リリースとして複数データ配置機能、背景変更機能と動画像出力機能をアプリ内に新規追加した。また、自身の作品を投稿できるコミュニティー画面を用意し、3Dデータが共有、再利用されていく土台を用意した。

現在、メタバース市場の成長と同時に、バーチャル空間のゲームも盛り上がっている。また、モバイルデバイスの高性能化が進み、個人がスマホで手軽に3Dコンテンツを作り出せる下地も整いつつある。

ただ、メタバース向けコンテンツ創出において利用されている「Blender」などの既存3D制作ツールは、プロ向けであることから、一般的なユーザーには難易度が高いという状況にある。

その中でWOGOは、2021年にはアプリのベータ版をリリース。3Dスキャンの実装をスマホに落とし込んだ。さらにWIDAR正式版では、3D編集機能を搭載。これにより、従来3D制作ツールでは数時間かかっていたゼロから形状を構築する作業が、WIDARでは3Dスキャンと編集の組み合わせにより10分程度に短縮させたという。

WOGOは、東京大学情報理工学系研究科所属のメンバーを中心として、2021年1年に設立されたスタートアップ。「3D制作の民主化」をビジョンとして掲げており、WIDARによって3Dコンテンツ作成のハードルを引き下げ、創出された3Dデータの活用を促進しメタバースへ多くのコンテンツ供給を目指している。

Zoomの新3Dアバター機能で、ちょっと不気味な動物としてミーティングに参加できるように

百聞は一見にしかず、というが、このZoom(ズーム)の新機能のイメージは次のひと言で言い表せる。「はぁ?」。

Zoomは米国時間3月22日、ウサギ(または犬、キツネ、パンダ、馬など)の姿でミーティングに参加できる機能を発表した。アバター機能は、ユーザーの頭の動きや顔の表情をミラーリングするために目、鼻、口の形を認識するが、同社は発表の中で、この機能は顔認識を使用しておらず、生体情報も保存しないことを明らかにしている。

これらのアバターは、Zoom疲れしている人に、実際にカメラに映ることなくボディランゲージや顔の表情を伝える方法を提供することを目的としている。その一方で、あなたが高校の教師だとして、クラスを教えるためにログインしたのに、代わりに25匹のウサギがズラッと画面に並び、まるでパンデミック時代の「ドニー・ダーコ」のリイマジニングの登場人物であるかのように、あなたをぼんやり見つめ返しているとしたら……。

アバターは、Zoomバージョン5.10.0以降であれば、WindowsとmacOSのデスクトップデバイス、およびiOSモバイルデバイスの両方で利用できる(馬になりたいAndroidユーザーの方、ごめんなさい)。この機能を使用するには「ビデオの開始 / 停止」ボタンの横にあるキャレット(^)マークをクリックする。「バーチャル背景を選択」または「ビデオフィルターを選択」のどちらかを選択すると「アバター」というタブが表示され、種族間変身を完成させることができる。

アバターは、バーチャル背景に対応している。しゃべる動物のアバターは、パーカーとTシャツのどちらかを着られるということも重要なポイントだ。

展開当初は動物アバターのみだが、今後、他の種類のアバターが追加されることは容易に想像できる(ここでまったく根拠のない予想を文章にしてみると、ZoomはUniversal Picturesと提携し、あなたの上司がミニオンに変身することだろう)。

Zoomは、この機能がバーチャルな小児科受診、子どもの科学教室、または「バーチャルイベント中のアイスブレーカー」として役立つかもしれないと提案している。最後の1つは無理があるかもしれない。しかし、もしZoomが、世界的なパンデミックの2年目に突入した我々のZoom疲れを癒したいのであれば、これをどうしたらもっと盛り上げられるか、いくつかの提案がある。

  • ボイスモジュレーターを取り入れる。そしてダース・ベイダーのように話しかけて、同僚を威嚇する
  • Zoomにポイントをつけてゲーム化する。ポイントは何の役に立つのかって?私はプロダクトデザイナーではないのでそれは知らない
  • タイムリミットのあるZoomルームにHPバーを追加する。時間の終わりに近づくと、画面の横に炎が現れ、会議が終わると爆発gifになる
  • Zoomで通話した人の10万人に1人が「トロン」風にコンピューターに吸い込まれることを伝えて、ユーザーベースにアドレナリンを放出させる。自分の肉体を再びコントロールできるようになる唯一の方法は、先延ばしにしていたメールを送ることだけ
  • 釣りのミニゲーム。企業向けソフトウェアでも、釣りのミニゲームさえあればすべてよりうまくいくものだ

画像クレジット: Zoom

原文へ

(文:Amanda Silberling、翻訳:Den Nakano)

NICT、カメラ1台で動作や表情も再現可能な自分のデジタルツイン・3Dアバターを構築する技術「REXR」開発

NICT、カメラ1台で動作や表情も再現可能な自分のデジタルツイン・3Dアバターを構築する技術「REXR」開発

細やかな表情の変化を様々な方向から再現した3Dアバター

情報通信研究機構(NICT)は3月14日、たった1台のカメラの画像から自分のデジタルツインとなる3Dアバターをモデリングし、細かい表情や動作も三次元的にリアルに表現できる技術「REXR」(レクサー。Realistic and Expressive 3D avatar)を開発したと発表した。メタバースなどでのコミュニケーションで、アバター同士の深い相互理解が実現する可能性がある。同研究は、NICT ユニバーサルコミュニケーション研究所 先進的リアリティ技術総合研究室のMichal Joachimczak氏、劉珠允氏、安藤広志氏によるもの。

メタバースやMR(複合現実)で自分の分身となる3Dアバターは、現状ではあらかじめ用意されたCGキャラクターを使用することが多く、微妙な表情や動作の表現は難しい。自分自身のリアルな3Dモデルを作ろうとすれば、何台ものカメラやセンサーを使って体中をキャプチャーするといった大がかりなシステムが必要となる。NICTは、複数のAIモジュールを組み合わせることで、それをたった1台のカメラで可能にした。

まずは、カメラの前で1回転した画像からリアルな全身モデルを構築する。モデルができれば、後はカメラの前で動くことで、その表情や姿勢が推定されてモデルに反映される。時間ごとに変化する動作や表情が、3Dアバターに三次元的に再現され、どの方向からでも見られるようになる。

コミュニケーションの最中にわずかに顔に生じる表情の変化「微表情」(micro-expressions)や動作を忠実に再現できるため、アバターを通しての「深い信頼関係の構築やシビアなビジネス交渉」もリモートで可能になるとNICTは話す。今後は3Dアバターの三次元形状の正確さや動きの滑らかさといった精度の向上と、リアルタイム対応を可能にする技術開発を進めてゆくとのことだ。この技術の活用、実証実験、普及の際の倫理的、法的、社会的課題については、超臨場感コミュニケーション産学官フォーラム(URCF)のXR遠隔コミュニケーションWGなどと連携して取り組むとしている。

オープンソースの3Dコンテンツコラボプラットフォーム、中国Taichi GraphicsがシリーズAで約57.7億円を調達

共同創業者のユアンミン・フー氏とイー・クアン氏(画像クレジット:Taichi Graphics)

長年、中国のオープンソースソフトウェアは開発者から注目されるだけで、リターンを求める投資家からの理解はなかなか得られなかった。しかしついに、欧米のような動きが現れつつある。

資金調達を果たした中国の最新オープンソースプロジェクトが、Taichi Graphics(タイチグラフィックス)だ。同社は創業10カ月のスタートアップで、3Dコンテンツを簡単に制作できるようにすることを目指している。同社は、3Dグラフィックスの制作、共有、リモートでの共同作業をするクラウドベースのプラットフォームで「3DコンテンツのためのFigma(フィグマ)」と表現する「Taitopia」を運営している。このプラットフォームの基盤は同社のオープンソースのプログラミング言語「Taichi」で、3Dビジュアルグラフィックスのような空間的にスパースなデータ構造に対してパフォーマンスの高いコンピューティングを可能にしている。

Taichi GraphicsはSource Code Capital、GGV Capital、BAI Capitalが主導するシリーズAで5000万ドル(約57億7000万円)を調達した。このラウンドには以前に投資したSequoia Capital Chinaも参加した。TechCrunchは同社の事業や評価額について問い合わせている。

Taichi Graphicsの3Dコンテンツプラットフォーム「Taitopia」を利用して、クリエイターはリモートで共同作業ができる(Taichi Graphicsのデモビデオから撮影したスクリーンショット)

同社は、米国で学んだり働いたりしてから中国に戻った中国人が創業したオープンソースソフトウェア企業の1つだ。このような創業者たちは中国市場にフォーカスするというよりは、米中双方での経験を活かして最初から世界のユーザーに向けたプロダクトを作っている。クラウドネイティブのイベントストリーミングプラットフォームで2021年にシリーズBで2300万ドル(約26億5400万円)を調達したStreamNative(ストリームネイティブ)は、Twitterの元従業員が創業し中国と米国の両方で事業を運営している。非構造化データ分析スタートアップのZilliz(ジリズ)も同様の経緯をたどっている

Taichi Graphicsを創業したのは、MITでコンピュータサイエンスの博士号を取得したYuanming Hu(ユアンミン・フー)氏と、Googleに在籍していたYe Kuang(イー・クアン)氏だ。同社は世界の開発者コミュニティで徐々に関心を集めてきた。同社のプロジェクトはGitHubで2021年現在、1万7700個のスターを獲得し、これは2020年の1万2700個からの増加であると同社は説明している。2021年までに10数カ国、152人の開発者がTaichi Graphicsにコントリビュートした。

2019年にTaichiを紹介した論文の中で、フー氏と共同執筆者は3Dコンテンツのコンピューティングにドメイン特化言語が必要である理由を次のように説明している。

3Dビジュアルコンピューティングのデータは空間的にスパースであることが少なくありません。このようなスパース性を利用するために、階層的なスパースデータ構造が開発されてきました。マルチレベルのスパースボクセルグリッド、パーティクル、3Dハッシュテーブルなどです。しかしこのようなハイパフォーマンスなスパースデータ構造の開発や利用は、本質的に複雑でオーバーヘッドであるため難しいものです。我々は、このようなデータ構造に対して効率よくオーサリング、アクセス、メンテナンスをする新しいデータ指向プログラミング言語のTaichiを提案します。

Taishi Graphicsのツールはこれまでに物理的なシミュレーション、AR、AI、ロボティクス、映画やゲームの特殊効果に使用されている。

同社は新たに調達した資金でこの並列プログラミング言語の影響力を強化し、デジタルコンテンツのクリエイター向けツールを開発する計画だ。また、研究開発、プロダクト開発、収益化、戦略、デザインの人材採用も継続する。

原文へ

(文:Rita Liao、翻訳:Kaori Koyama)

土木技術者・実務者のインフラ工事BIM・CIM導入を加速する工事計画用3D建設データ308製品が公開

土木技術者のインフラ工事BIM・CIM導入を加速する工事計画用3D建設データ308製品が公開

建材商社の野原ホールディングスは1月31日、一般社団法人Civilユーザ会(CUG)、BIMobject Japan(ビムオブジェクト・ジャパン)と共同で、BIMおよびCIMのための土木建築関連308製品の3D建設データを公開したと発表した。

BIM(ビルディング・インフォメーション・モデル)、CIM(コンストラクション・インフォメーション・モデリング・マネージメント)とは、どちらも建設関係の部材などを3Dモデル化して、関連する情報を付帯させる取り組みのこと。BIMは、建築部材の3Dモデルに付属情報のデータベースを連携させたもの。CIMは、BIMの発展型で、設計、施工、維持管理など、全ライフサイクルにわたる情報の管理と共有を可能にしたものだ。

国土交通省は、2012年から橋梁やダムの建設にBIMとCIMを導入し、「2023年までに小規模工事を除くすべての公共事業にBIM・CIMを原則適用」を決定している。野原ホールディングスは、「急務となっているCIMデータ活用には土木技術者が利用しやすい環境の創出が必要」と考え、BIMおよびCIMを推進するCUGとこの取り組みを開始した。今回公開された3D建設データは、CUGメンバーの技術者によって作成されたもので、実務重視の使いやすさが特徴だという。

建設機材の3Dモデルも公開

建設機材の3Dモデルも公開

そのデータは、BIMobject Japanが国内で運営する、建設資材や設備などのメーカー製品のBIMコンテンツやデータを提供するプラットフォーム「BIMobject」で入手できる。CUGのサイトを通じてに無料会員登録をすれば、インフラ工事に必要な構造物、建設機材、仮設材、安全施設など308製品がダウンロードできるようになるとのことだ。

NICTのホログラムプリント技術を応用、多人数がフォトリアルな画像を裸眼立体視できる透明ARディスプレイ開発

NICTのホログラムプリント技術を応用、多人数がフォトリアルな画像を裸眼立体視できる透明ARディスプレイ開発

透明ARディスプレイ(左)とモデル本人(右)

情報通信研究機構(NICT)は1月31日、ホログラフィックフィルム1枚と複数のプロジェクターのみで構成される簡便な透明ARディスプレイで、フォトリアルな顔の3D表示を実現させたと発表した。これはNICTのホログラムプリント技術を応用したシステムで、3Dメガネを使わず裸眼で3D画像を見ることができる。

NICTは、2016年にすでに透明スクリーンに3D画像を投影する技術を開発している。コンピューターで設計した光の波面をホログラムとして記録できるNICT独自のホログラムプリンター「HOPTEC」で光学スクリーンを製作し、大型のプロジェクターで映像を投影するというシステムだったが、今回はそれよりもずっと簡素な構造になった。

ホログラムプリント技術(HOPTEC)

ホログラムプリント技術(HOPTEC)。NICTが開発している、計算機合成ホログラムを光学的に再生し、再生された波面をホログラム記録材料に物体光としてタイリング記録するホログラム露光技術。HOPTECにより、デジタルに設計した光学機能をホログラフィック光学素子として透明なフィルムにプリントできる

透明AR(Augmented Reality)ディスプレイシステム

透明AR(Augmented Reality)ディスプレイシステム

透明ARディスプレイは、対角35cm、水平視野角60度、垂直視野角10度というもので、3Dメガネなどを用いることなく、多人数が裸眼で立体映像を見ることができる。投影は、安価な小型プロジェクターを30台を使って行われ、フルカラーでの表示が可能。投影される画像は、凸版印刷が所有する高精度の人体測定が可能な装置「ライトステージ」(南カリフォルニア大学開発)で作られた。

高精細な顔計測データから成る映像を透明ARディスプレイ上に3D表示した様子

高精細な顔計測データから成る映像を透明ARディスプレイ上に3D表示した様子

このNICTと凸版印刷の共同研究は、NICTが3D投影技術を、凸版印刷が人体の高精細な計測によって生み出されるデジタルコンテンツを提供するという形で今後も進められる。そもそも、「3Dコンテンツを使用した新しいコミュニケーションの可能性」を目指して行われてきた研究だが、デジタルツインや仮想キャラクターといった使い方だけでなく、「人体を3D表示させた手術トレーニングや手術支援」など、医療をはじめとする様々な分野での適用を進めてゆくという。さらに、3Dコンテンツの高精細化、システムの簡素化、柔軟性を高め、CAD、BIM、点群データなど各種3Dデータに対応させることにより、建設や教育分野にも貢献できる技術開発を目指すとしている。

MetaがInstagramに3Dアバターを導入、FacebookとMessengerにも新オプションを展開

Meta(メタ)は、同社の3DアバターをInstagram(インスタグラム)に導入し、さらにFacebook(フェイスブック)とMessengerアプリにもアップデートされたアバターを展開することを発表した。これにより米国、カナダ、メキシコのユーザーは、ステッカー、フィード投稿、Facebookのプロフィール画像などにバーチャルな自分を表示できるようになった。

米国時間1月31日のアップデートでは、VRを含むすべてのプラットフォームで、数種類のカラーの人工内耳と耳かけ型補聴器が追加された。また、今回のアップデートではFacebookのステッカー、Messengerチャット、InstagramストーリーズやDMに表示される車いすが追加された。Metaは、アバターがより本人らしく見えるように特定の顔の形を調整することで、アバターの見た目も改善している。同社は、今後もアバターエディターにアイテムを追加していく予定だという。

MetaのMark Zuckerberg(マーク・ザッカーバーグ)CEOは、同氏のFacebookプロフィールに掲載された声明の中でこう述べている。「Metaのアバターは、表情や顔、肌のトーンを増やし、車いすや補聴器なども追加してアップデートされました。デジタル衣類の実験も始めています。アバターは、Quest、Facebook、Instagram、Messengerのすべてで使用できます。いつの日か、表情豊かなものからフォトリアリスティックなものまで、複数のアバターを持てるようになるでしょう。近いうちにもっとシェアできることを楽しみにしています」。

今回のアップデートにより、ユーザーはVRを含むすべてのMetaプラットフォームで同じアバターを使えるようになった。ユーザーがFacebookやMessengerでアバターに加えた変更は、自動的にInstagramにも反映され、その逆も同様だ。ユーザーは、異なるプラットフォーム用に異なるアバターを作成するオプションもある。Metaは、時間をかけて、ユーザーがアバターを場所から場所へと簡単に移動できるようにすることを目標としており、将来的にはこれに関する最新情報を共有する予定だと述べている。

画像クレジット:Meta

また、MetaはNFLと提携し、スーパーボウルに向けてファンがお気に入りチームを応援する方法を提供する。2月28日までの期間中、ユーザーは自分のアバターが着る洋服を通してCincinnati Bengals(シンシナティ・ベンガルズ )またはLos Angeles Rams(ロサンゼルス・ラムズ)を応援することができる。どちらかのチームを選びたくないユーザーのために、ニュートラルな「Super Bowl LVI」シャツも用意されている。

Metaのアバター&アイデンティティ担当ジェネラルマネージャーであるAigerim Shorman(アイゲリム・ショーマン)氏は、今回のローンチについてブログで次のように述べている。「VRとQuestは当社のメタバースビジョンの重要な部分ですが、私たちはメタバースを相互に接続されたデジタルワールドとして捉えており、スマホやパソコンなどのより身近なプラットフォームに加えて、VRとARを橋渡しするものだと考えています。アバターを当社のプラットフォームに展開することは、この実現に向けた初期の一歩です。あなたの新しいバーチャルな自分が、オンライン上であなたの望むように表現されるよう願っています」。

同社は、Snap(スナップ)のBitmojiに対抗する手段として、2020年に初めてアバターを発表し、その後も継続的にアップデートを行ってきた。例えば、Metaは2021年、アバターをよりカスタマイズ可能で多様性のあるものにすることを目的として、目、鼻、ひげ、ヘアスタイルの新しいオプションを発表したが、今回の新しい変更はその一環だといえる。しかし、Metaはこれまでのアバター採用に関する数字を公表していない。

今回のアップデートは、Metaが2月2日に第4四半期および通期の業績を発表する予定であるタイミングで行われた。同社はその際、AR・VRハードウェア部門の業績を初めて公表する予定だ。

画像クレジット:Meta

原文へ

(文:Aisha Malik、翻訳:Aya Nakazato)

実物大の3D製品イメージで消費者のショッピング体験を向上させるAvataarが52億円調達

eコマースの顧客の大多数は、購入前に商品を見ておきたいと思っている。かつてAmazon(アマゾン)のような企業が、ファッションや家庭用品のオンライン化に苦労してきたのはそのためだ。サンフランシスコとベンガルールを拠点とするスタートアップがこの問題を解決しようとしており、事業規模拡大のため、このほど新たに資金を調達した。

AIとコンピュータービジョンのスタートアップであるAvataar(アバター)は、現地時間1月7日にシリーズBで4500万ドル(約52億円)を調達したと発表した。このラウンドはTiger Globalがリードし、既存の投資家からSequoia Capital Indiaが参加した。6年の歴史を持つこのスタートアップは、創業者兼最高経営責任者から初期に調達した金額も含め、これまでの資金調達ラウンドで約5550万ドル(約64億円)を調達した。

Avataarは、消費者直販ブランドやeコマースマーケットプレイスが製品を3D表示し、コンシューマージャーニーを形成する支援を行う。企業はAvataarのプラグアンドプレイ技術を自社システムに組み込むことができる。顧客は携帯電話のカメラを使い、リビングルームにいながら、製品の実際の大きさと雰囲気を視覚化することができる。

Avataarの創業者で最高経営責任者のSravanth Aluru(スラバント・アルル)氏はTechCrunchのインタビューで、家具や大型家電などのカテゴリーで上位2社のeコマース・マーケットプレイスを含む数多くの企業と現在提携していると述べた。同氏は、守秘義務契約を理由に、顧客企業名の公表を断った(Samsungや Pepperfryなど、Avataarとの提携を公に認めている企業もある)。

アルル氏はデモで、提携するeコマースマーケットプレイスのアプリから、ソファや机などいくつかの製品を、自分のリビングルームにドラッグ&ドロップし、家の中でバーチャルアイテムの位置を変えずに色やアイテムを変更してみせた。アイテムをインタラクティブにすることもできる。例えば、冷蔵庫をバーチャルで再現すると、ユーザーはドアを開けたり閉めたりすることができる。

ブランドは、Avataarのサービスを利用するために何か大きな変更を加える必要はない。商品画像の解像度が1080p以上であれば、Avataarがバーチャル3D版を作り上げることができるとアルル氏は話す。消費者側でも、近年発売されたiPhoneやAndroidスマートフォンなら、バーチャルオブジェクトの表示やインタラクションをサポートする計算能力とグラフィックパワーを備えている可能性が高いという。

「カメラがホームスクリーンであることを考えると、エンゲージメントの時間を著しく長くとることができます。ブランドの売り上げへのコンバージョンは3.5倍以上になっています」と同氏は語る。同社は、エンゲージメント情報を提携ブランドに提供する。提携ブランドは、顧客によりよいサービスを提供するため、さらにパーソナライズする。

アルル氏は、この技術がもたらす利点を認識し、採用する企業がますます増えてきているという。この傾向は、今後ますます強まることが予想される。

ブランド名は明かさなかったが、いくつかのスマートフォン企業はAvataarの技術を利用してバーチャルローンチを行ったという。「当社は現在、ほとんどのプラットフォームに統合されています。もし、大容量のサービスで3Dを見ているなら、それは我々が提供したものである可能性が高いと思います」と述べた。

Avataarの創業チーム。左からMayank Tiwari(マヤンク・ティワリ)CBO、Sravanth Aluru(スラバント・アルル)CEO、Prashanth Aluru(プラシャント・アルル)取締役、Gaurav Baid(ガウラブ・バイド)CPO(画像クレジット:Avataar)

2025年までに、世界人口の75%近くと、ソーシャルアプリやコミュニケーションアプリを利用するほぼすべての人が、頻繁にARを利用するようになると、Snap(スナップ)はDeloitte(デロイト)と協力した最近のレポートで述べている。同レポートによると、ARを使って買い物をする顧客はすでに1億人を超えているという。

アルル氏は、メタバースが浸透していくなかで、同社は最前線に立つための準備をしており、この分野のいくつかの主要なプレイヤーと関係を持っていると述べた。

「メタバースはすでに存在しています。Avataar.meは、最大手のブランドに規模を創造する能力をもたらし、商売を実現する道を切り開いています。ARやVR環境において非常に有望なアプリケーションです」と、Sequoia IndiaのマネージングディレクターShailesh Lakhani(シャイレーシュ・ラカーニ)氏は声明で述べた。

「スラバント、ガウラブ、マヤンクと一緒に仕事をするのは楽しく、Sequoia Capital Indiaは、彼らのシリーズBラウンドに再びコミットすることをうれしく思います」。

業界の推計によると、デジタルおよびデジタルに影響される市場は、2025年までに18兆ドル(約2090兆円)に拡大し、2Dから3Dへのコマースシフトを推進する基盤としてのプラットフォームに対し、今後10年間で500億ドル(約5兆8000億円)を超える収益化の機会を提供すると予測されている。

「史上初めて、ライブカメラ映像により、消費者の物理的な現実を検知、理解、拡張、操作することができるようになりました。当社の特許取得済みのAI・CV機能はメタバース全体の進化に適用可能ですが、先行して消費者のショッピング体験の再定義に着手しました」とアルル氏は話す。

「このプラットフォームは、自宅のモバイルデバイスやARメガネ・ウェアラブルを通して、あるいは実店舗であっても、デジタル化されたカタログという無限の通路を見て回る消費者のショッピング体験を変革します」。

Tiger GlobalのパートナーであるEvan Feinberg(エバン・ファインバーグ)氏は声明で次のように述べた。「消費者はより良いeコマース体験を求め続けています。Avataarが生み出した革新的な技術は、この需要に応えるための強力なプラグアンドプレイ・ソリューションを顧客に提供しています。デジタル世界が2Dから3Dに移行する中、Avataarとその有能な経営陣は、この急成長市場において好位置につけています」。

画像クレジット:Avataar

原文へ

(文:Manish Singh、翻訳:Nariko Mizoguchi

Pocket RDが4.5億円調達、メタバース向け3Dアバターの自動生成・編集システムやNFT 3DCGマーケットプレイス開発強化

PocketRDが3DCGデータの二次流通・二次創作が可能なブロックチェーン活用サービスのβ版公開

Pocket RDは、シードBラウンドにおいて、第三者割当増資による4億5000万円の資金調達を発表した。引受先は、リード投資家のKDDI Open Innovation Fund 3号(グローバル・ブレイン)、また講談社、大日本印刷(DNP)、SMBCベンチャーキャピタルが運営するSMBCベンチャーキャピタル6号投資事業有限責任組合。これにより、同社の資本業務提携先はスクウェア・エニックス、KDDI、講談社、大日本印刷の計4社となった。

調達した資金は、アバターの自動生成・編集システム「AVATARIUM」と、ブロックチェーン技術を活用したNFT 3DCGマーケットプレイス「Pocket Collection」の開発強化にあてる。また、資本提携先のKDDI、講談社、大日本印刷との業務提携による事業推進強化を行う。

すでにKDDIとは事業連携を開始しており、AVATARIUMスキャナーをGINZA456 powered by KDDIやau Style SHIBUYA MODIなどへ設置、オリジナルアバターと「バーチャル渋谷」が連携させた。「バーチャル渋谷 au 5G ハロウィーンフェス 2021 ~Fun for Good~」においてコラボレーションを行い、ユーザー自身をデフォルメしたアバターや、有名キャラクターの衣装を提供し、オリジナルアバターでバーチャルハロウィーンを楽しめるようにした。

今後は、アバター生成技術やブロックチェーンを活用したマーケットプレイスをau版メタバースで活用してもらい、リアルとバーチャルが連携した「バーチャルシティ」でユーザーだけのオリジナルアバターで楽しめる体験や、生活者自身のデジタルデータを両社で協力し生み出すという。

アバターの自動生成・編集システム「AVATARIUM」

AVATARIUMは、撮影から用途に合わせたアバターをすべて同時に自動生成することを可能とし、外部環境へもシームレスなエクスポートを実現するという。エクスポート時の対応ファイル形式は、OBJ、FBX、PLY、glTF、VRMを実装。特殊なアバターを活用するメタバースの対応も完了しており、今後も業界ニーズに合わせて順次機能追加するとしている。Pocket RDが4.5億円調達、メタバース向け3Dアバターの自動生成・編集システムやNFT 3DCGマーケットプレイス開発強化

ブロックチェーン技術活用のNFT 3DCGマーケットプレイス「Pocket Collection」

Pocket Collectionは、ブロックチェーンを活用し、3D技術を活用したアートワークなど、デジタル創作物全般の大量保存・2次創作・2次流通・販売が可能なサービス。作品の2次創作・2次流通においても権利を管理し、利益分配を行える。クリエイターの創作活動における中心的なプラットフォームとなれるように大容量ストレージ機能によるポートフォリオ掲載機能、プロジェクトマネジメント機能によるグループによる制作活動、マーケットプレイス機能による購入・販売も可能にし、創作活動を全面的に支援するとしている。Pocket RDが4.5億円調達、メタバース向け3Dアバターの自動生成・編集システムやNFT 3DCGマーケットプレイス開発強化Pocket RDが4.5億円調達、メタバース向け3Dアバターの自動生成・編集システムやNFT 3DCGマーケットプレイス開発強化

地球のデジタルツインを開発する豪Blackshark.aiが約22億円を調達、MSのFlight Simulatorにも採用

オーストリアのスタートアップであるBlackshark.ai(ブラックシャーク・エーアイ)は、「Microsoft Flight Simulator」に搭載されている「デジタル地球」を開発した企業だ。同社は、地球のレプリカ技術の開発と拡張のために2000万ドル(約22億円)を調達した。地球の「デジタルツイン」の潜在的な用途は多様で、同社はGoogle(グーグル)のようなマッピング大手より先行している。

2020年の「Flight Simulator」では(100%ではないにしても)完全に横断可能で、驚くほど正確な地球を世界に見せてくれた。TechCrunchは「技術的な驚異」と表現し、それがどうやって作られたのか後に詳細を報じた。

Blackshark.aiは、ゲームスタジオBongfish(ボンフィッシュ)からスピンアウトした会社で、創業者でCEOのMichael Putz(マイケル・プッツ)氏によると、世界構築技術をゲーム環境以外にも応用することを目指している。Blackshark.aiの技術の基本は、機械学習とちょっとした賢い推測、そして大量のコンピューティングパワーを使って、広く利用可能な2D画像を正確な3Dに変えることだ。

基本的にBlackshark.aiのシステムは、最適ではない照明や不完全な画像であっても、さまざまな建物が上からどのように見えるかをしっかりと理解する。Blackshark.aiが構築した機械学習システムは、近隣の環境(住宅地と商業地)、屋根の種類(傾斜した屋根と平らな屋根)、空調設備の有無などの要素を考慮して、不完全な輪郭を推定する。これらすべての情報をもとに、建物のもっともらしい3D再現を行う。

難しいのは、一度だけではなく、定期的に何億回も繰り返して、地球上のすべての建物の最新の3D表現を作成することだ。プッツ氏は次のように説明する。「その作業のためのコンピューティングパワーをすべて購入できたとしても、それを動かすためのバックエンドを構築するのは大変なことです。これは私たちが直面した現実的な問題でした」。

プッツ氏らの解決策は、AIを搭載したサービスによく必要とされるように、最適化だった。同氏によると、地球上のすべての建物の3Dモデルを計算するプロセスは、もともと約1カ月の時間を要していたが、今では約3日で済むようになり、約300倍の加速を実現している。

人工衛星からの新しい画像をもとに定期的に更新できるこのような機能は、Blackshark.aiのビジネス提案にとって非常に重要だとプッツ氏は説明した。GoogleやApple(アップル)の地図に見られるような3D地図データの多くは写真測量をベースにしている。これは、複数の航空写真を組み合わせて、目のように視差データを比較して大きさや奥行きを判断する航空写真で、写真が撮影された時点ではすばらしいデータとなる。

2年前ではなく先週のシカゴのある一角の様子を3Dマップで表現したい、そしてそのレベルの最新情報をできるだけ多くの地球上の人々に提供したい、と考えた場合、現在では衛星画像しか選択肢がない。しかし、そのためには前述の2Dから3Dへの変換が必要になる。

パッツ氏は、Blackshark.aiの3DマップとGoogleやAppleの3Dマップは、表面的には似ているが、実際には競合するものではないと指摘する。リアルな「キャンバス」を提供するという点では同じだが、その意図は大きく異なる。

「Googleマップは、ローカルビジネスのためのキャンバスです。同社とそのユーザーの両方にとって重要なのは、場所、レビュー、道順などです」とパッツ氏は話す。「私たちは、たとえば気候変動のユースケースである洪水についてシアトルの3Dデータを提供していますが、水の物理学や流体シミュレーションを専門とする人たちは、現実世界をキャンバスとして描くことができます。私たちの目標は、検索可能な地球の表面になることです」。

画像クレジット:Blackshark.ai

サンディエゴのとある地区で利用できる平らな屋上の総面積はどれくらいか? 4000平方メートルのスペースが空いている地方空港は? 山火事のリスクがあるエリアは、更新された風モデルとどのように重なっているか? このように、活用法を思いつくのは難しいことではない。

「これは、考えれば考えるほどユースケースが出てくるアイデアの1つです」とプッツ氏は話す。「政府機関、災害救助、スマートシティ、自動車や飛行機などの自律型産業などで応用できます。これらの産業はすべて人工的な環境を必要とします。単に『これをやりたい』ということではなく、必要とされていることでした。そして、この2D-3Dは巨大な問題を解決する唯一の方法なのです」。

今回の2000万ドルのラウンドは、M12(Microsoftのベンチャーファンド)とPoint72 Venturesがリードした。プッツ氏は、アドバイザーとしておなじみの顔ぶれが参加したことに感激した。Google Earthの共同創業者であるBrian McClendon(ブライアン・マクレンドン)氏、Airbus(エアバス)の元CEOであるDirk Hoke(ダーク・ホーク)氏、Y Combinator(Yコンビネーター)の元COOで現在はApplied Intuition(アプライド・インチュイション)のCEOであるQasar Younis(カサール・ユーニス)氏らだ(これらの人々は助言をしているのであって、取締役会に参加しているわけではない)。

事業の拡張はプロダクトを作り上げるというより、市場投入のことだ。もちろん、エンジニアや研究者を増やすことは必要だが「賢いスタートアップ」から「3D合成地球の世界的プロバイダー」になることを急がなければ、他の賢いスタートアップに美味しいところを持っていかれるかもしれない。そこで、営業とサポートのチーム、そして「ハイパースケーリング・コンパニオンの残りの部分」も編成する、とプッツ氏は話した。

同氏が挙げた明白なユースケースの他に、想像できるかと思うが、メタバースアプリケーションの可能性もある。ただし、これはでたらめではなくアイデアだ。ゲームから旅行ガイドまで、おもしろいAR/VR/その他のアプリケーションが、最近レンダリングされた地球のバージョンをベースに、仮想体験をしたいと思えばそれが可能になる。それだけでなく、地球以外の世界も同じ方法で生成することができるため、もしあなたが地球のレイアウトを崩して新しい惑星を作りたいと思ったら(誰がそれを非難できるだろう)、今週中にはそうすることができる。すばらしいことではないか?

新しい資金が使われるようになれば、地球の表面で行われている複雑なマーケットやプロセスの新世代のより詳細なシミュレーションに「Powered by Blackshark.ai」などと表示されるようになるだろう。

画像クレジット:Blackshark.ai

原文へ

(文:Devin Coldewey、翻訳:Nariko Mizoguchi

ゲームエンジン開発Unityが数々の大作映画を手がけた視覚効果のWeta Digitalを約1850億円で巨額買収

ゲームエンジンの開発で知られるUnity(ユニティ)は、Peter Jackson(ピーター・ジャクソン)氏が共同設立した有名な視覚効果会社のWeta Digital(ウェタ・デジタル)を、16億2500万ドル(約1850億円)もの巨額で買収すると発表した。

その名前を知らなくても、Weta Digitalの作品を見たことがある人は多いだろう。「ロード・オブ・ザ・リング」から「アバター」や「シャン・チー/テン・リングスの伝説」など「ぜひ映画館で見るべきだ」といわれるような映画では、Weta DigitalがVFXで大きな役割を果たしている可能性が高い。

これまでWeta Digitalは、視覚効果を生み出すアーティストのチームであると同時に、アーティストが使用するツールの多くを開発するエンジニアのチームでもあった。Unityが買収するのは、これらのツールとエンジニアチームであり、その一方で視覚効果のアーティストチームは、独自の新しい組織に分割される予定だ。

今回の買収により、Weta Digitalの275人以上のエンジニアが、Unityに加わることになる。VFXアーティストは、ピーター・ジャクソン氏が引き続き過半数を所有する新会社「Weta FX」にスピンアウトする。両社は今後も協力関係を続けていく予定で、Unityはこの先、Weta FXが「メディア・エンタテインメント分野における最大の顧客」の1つになると見ているという。

その一方でUnityは、Weta Digitalの数多くの自社製ツールの開発を引き継ぐ予定だ。例えば「City Builder」(「キングコング」などの映画で破壊された巨大な3D都市をプロシージャルに生成する)「Manuka」(最終バージョンですべてが非常にリアルに見えるようにするために役立つ物理シミュレーションを行うカスタムレンダラー)「Gazebo」(より高速なリアルタイムレンダラーで、アーティストが時間のかかる最終レンダリングの前にシーンを正確にプレビューするために使用される)、そして他にも、キャラクターを動かすためのリギング、顔のアニメーションやレンダリング、モーションキャプチャーの処理、髪の毛 / 毛皮 / 煙 / 何千年も前に放棄された都市の景観に生え茂る植物などをシミュレートするためにチームが構築した独自の技術のすべてだ。

Wetaの「City Builder」ツール(画像クレジット:Unity/Weta Digital)

なぜWetaなのか?UnityのSVPであるMarc Whitten(マーク・ウィッテン)氏に電話して、彼の考えを聞いてみた。

「10年前を思い出してみてください」と、彼はいう。「これは2Dの話ですが、どれだけの写真が撮影されていたか。きっと膨大な数でしょう。しかし、それから10年後……今はさらに驚異的に増えています。3Dも同じようなものではないかと私は思います」。

「ただし、1つ違いがあります」と、彼は続けた。「10年前の私でも、写真を撮ることはできると思っていました。今、2Dで同じように写真を撮ることができます。しかし、実際にはそれは10年前と大きく異なります。なぜなら、私がiPhoneのシャッターボタンを押すたびに、iPhoneは私を(写真家に)変身させるために、おそらく500万行の超高度なコードを実行しているからです。しかし、3Dでは、現在、個人的に何かをモデリングすることはほとんどできません。これからの10年で私たちがやるべきことは、同じアプローチを取ることです。つまり、この信じられないほど深い技術を、簡単に使えるようにすることです」。

言い換えれば、つまり、Unityは3Dでの構築をより簡単にする必要性が高まっていると考えており、それはWetaが過去数十年を費やして追求してきたことなのだ。

この買収契約の一環として、UnityはWeta Digitalが長年にわたって構築してきた膨大なデジタル資産のカタログも取得することになる。それは、都市や自動車、人々の3Dモデルから、雨の中で火から出る煙の仕組みを決定するアルゴリズムや、動物の群れが木々の間をどのように移動するかのシミュレーションまで、1つ1つ挙げれば切りがないほど膨大だ。これらのすべてが、潜在的にはUnityの製品に組み込まれ、クリエイターがそれを基に制作できるようになる可能性があるというわけだ。もっとも、ウィッテン氏は「明確に認められるIP」は含まれないので、次に開発するゲームに(ロード・オブ・ザ・リングの)Gollum(ゴラム)をドラッグ&ドロップできるようにはならないだろうと指摘している。

これ以前にUnityが行った最大の買収は、2021年の8月にParsec(パーセク)を3億2000万ドル(約365億円)で買収したことだった。当時、ウィッテン氏はこの買収がUnityのより大きなクラウドへの野望の一環であることを示唆していたが、今回の買収にも同じことが言えるだろう。

「(Weta Digitalの)ツールは……まさにこのパイプラインです」と、ウィッテン氏は述べている。「それぞれのツールは個々に強力ですが、このパイプラインに沿って連携すると、すべてが実にうまく機能します。あるツールで変更を加えれば、他のツールで照明や合成を行ったときに、それが正しい形で現れます。複数の人が本当に簡単に一緒に作業できます」。

「その先に私たちが考えているのは」と、同氏は続けた。「アーティストがMaya(マヤ)やHoudini(フーディニ)、Unityの中で作業をするときに、これらのクラウド機能が直接接続できるようにすることです」。

「このパイプラインをクラウドで利用可能にして、どこにいてもすぐに接続できるようにすることが重要であると、私たちは考えています」。

Unityによれば、この買収は2021年の第4四半期中に完了する見込みだという。Weta DigitalのCEOを務めているPrem Akkaraju(プレム・アッカラジュー)氏は、新たに設立されるWeta FXのCEOとして留任し、CTOのJoe Marks(ジョー・マークス)氏は、Weta DigitalのCTOとしてUnityに移籍する予定だ。

画像クレジット:Unity/Weta Digital/20th Century Fox

原文へ

(文:Greg Kumparak、翻訳:Hirokazu Kusakabe)

Nianticが「現実世界のメタバース」というビジョン&AR開発者キット「Lightship」を発表、AR体験構築をよりアクセシブルに

「Pokémon GO(ポケモンGO)」の開発で知られるARテクノロジー企業のNiantic(ナイアンティック)は、拡張現実体験の構築をより身近なものにするAR開発キット(ARDK)「Lightship」を発表した。この無料で公開されている技術は、同社のビジョンである「現実世界のメタバース」の基礎を築くのに役立つ。

NianticのJohn Hanke(ジョン・ハンケ)CEOは、プログラム立ち上げのライブストリームで、以前彼がメタバースを「ディストピアの悪夢」と呼んだ自身のブログ記事に言及した。しかし、Facebook(フェイスブック)が社名をMeta(メタ)に変更し、VRヘッドセットが支配する未来を宣伝している間にも、Nianticは代替案を想像している。それは、仮想世界ではなく、人々を直接結びつけるメタバースだ。

Nianticの既存のゲームは、屋外での活動や新しい人との出会いを重視している。リモートでプレイできるようにパンデミック時代の調整を行う前は、伝説レイドバトルなど、Pokémon GOの特定の側面は、十分な数のプレイヤーが同時に協力しないとプレイできなかった。2017年に伝説レイドバトルがリリースされると、ローカルなDiscordコミュニティが立ち上がり、人々は現実世界でのミートアップを調整して、一緒にルギアやフリーザーを捕まえようとした。

ハンケ氏は次のように述べた。「Nianticでは、人間はバーチャルな世界がフィジカルな世界につながるときに最も幸せだと考えています。SFのメタバースとは異なり、現実世界のメタバースは、何千年も前から知られている私たちの世界における経験を向上させるためにテクノロジーを活用します」。

Lightship ARDKの公開により、デベロッパーは「Ingress(イングレス)」「Pokémon GO」「Pikmin Bloom(ピクミンブルーム)」などのゲームの基盤を利用して、新たなプロジェクトを生み出すことができる。また同社は、2000万ドル(約22億6500万円)規模のNiantic Venturesファンドを開設し、Nianticのビジョンに合致する企業に投資する。ローンチ時点で、NianticはすでにCoachella(コーチェラ・フェスティバル)、英国の歴史的王宮を管理する非営利組織Historic Royal Palaces、Universal Pictures(ユニバーサル・ピクチャーズ)、全米プロゴルフ協会などのブランドと提携しており、彼らは同社のARDKを利用しているという。

このソフトウェア開発キットは、3D、2D、VR、ARエクスペリエンスを構築するソフトウェアであるUnityと統合することで、開発者がiOSやAndroid向けの体験を構築するのに役立つ。ARDKは、NianticのAR機能のトップ3である、リアルタイムマッピング、セマンティックセグメンテーション、マルチプレイヤー機能を提供し、Nianticが何年もかけて開発してきたツールを、新進気鋭のクリエイターが利用できるようにする。

NianticのプロダクトマネージャーAmanda Whitt(アマンダ・ホイット)氏は、この度のQ&Aで「Unityの経験が少しあれば、簡単に使いこなせるようになります」と語った。

この新しいLightship ARDKは、興味のある開発者向けにNiantic Lightshipのウェブサイトで公開されている。

画像クレジット:Niantic

原文へ

(文:Amanda Silberling、翻訳:Aya Nakazato)

マーク・キューバン氏とOculusの元CEOが支援する3D型eコマースを推進するVNTANA

Faceook(フェイスブック)やApple(アップル)が複合現実型ヘッドセットの導入を計画するなど、コンシューマー向けウェブの3D化を推し進めている一方で、世の中のウェブコンテンツのほとんどは、いまだに2Dのままだ。3Dコンテンツが存在する、完全に別世界の「メタバース」を推し進める人もいるが、現在のユーザーがいる場所にリソースを投資したいと考えている既存のウェブプラットフォームにとって、それは難しいことだろう。

VNTANA(ヴィンタナ)は、コンテンツ管理システムを構築しており、eコマースの小売業者がサイト上で商品をきれいな3Dで紹介するのを支援するとともに、ユーザーが拡張現実でモノを見たり、バーチャルで商品を試着したりできるようにしている。2012年に設立されたVNTANAは、長年にわたり3Dコンテンツに注力してきたが、パンデミック前のライブイベントにホログラムを導入することから、今ではウェブ上の店頭に3Dコンテンツを導入することへシフトしてきた。

「消費者が意味のある方法で製品に関わることができるような、インタラクティブな方法を作ることが常に目的でした」とCEOのAshley Crowder(アシュリー・クラウダー)氏は述べている。

同社は、シリーズAで1250万ドル(約14億2200万円)の資金を複数回にわたって調達したとTechCrunchに報告している。このスタートアップの最新の資金調達の支援者には、Mark Cuban(マーク・キューバン)氏、Oculus(オキュラス)の前CEO、Brendan Iribe(ブレンダン・アイラブ)、Flexport(フレックスポート)、Anorak Ventures(アノラック・ベンチャーズ)などが含まれている。同社は、2019年に600万ドル(約6億8200万円)のシードラウンドを発表している。

同スタートアップのソフトウェア式には、大容量の3Dファイルを最適化して読み込み時間を短縮し、消費者が新製品をあらゆる角度から見ることができるようにする製品や、eコマースプラットフォームがすでに所有している3Dファイルを活用して、2Dのデジタルレンダリングによるショールーム画像や動画を作成し、マーケティングにかかる時間と費用を節約できるようにする製品が含まれている。また、同社は最近、卸売り管理プラットフォームのJoor(ジョア)やソフトウェアメーカーのPTCと提携し、事業拡大を図っている。

消費者は、同社のソフトウェアを利用することで、購入前に拡張現実(AR)を使って、実際の空間での商品の大きさや外観を確認することができ、返品の減少にもつながると、クラウダー氏は述べている。

Apple、Google、Facebookなどから大きな発表があったにもかかわらず、拡張現実を開発する機会というのは、数年前に関心が高まったときに多くの投資家が予想したよりも限られていた。しかし、VNTANAのような企業は、3Dコンテンツを利用した体験を提供することで、eコマースの小売業者が抱える既存の問題を解決するとともに、AR/VRの未来に向けた準備を整えている。

原文へ

(文:Lucas Matney、Akihito Mizukoshi)

スマホで撮影した数枚の写真で簡単に3Dモデルが作れるLumaが4.9億円調達

おそらくオンラインショッピングで、商品を回転させて、全方向から見ることができる写真を見たことがあると思う。こうしたものは、製品をあらゆる角度から撮影した写真を何枚も用意して、それらをアニメーションのように再生するのが一般的だ。Apple(アップル)のAR(拡張現実)およびコンピュータビジョングループを離れたエンジニアたちによって創業されたLuma(ルマ)は、これらの課題を解決しようとしている。


同社が開発した新しいニューラルレンダリング技術は、少ない枚数の写真を撮影するだけで、製品のフォトリアリスティックな3Dモデルを生成し、陰影をつけてレンダリングすることを可能にした。その目標は、ハイエンドなeコマースアプリケーション向けの商品写真撮影を大幅にスピードアップするだけでなく、あらゆる角度から商品を見せることでユーザー体験を向上させることだ。そしてすばらしいことに、撮影された画像は実際に3Dとして解釈されたものであるため、どの角度からでもレンダリングできるだけでなく、わずかに異なる角度からの2つのビューポートを使って3Dで見ることも可能だ。言い換えれば、検討中の製品の3D画像をVRヘッドセットで見ることができるということなのだ。

この分野をずっと追い続けてきた人なら、民生用のカメラと初歩的な写真測量技術を使って3D表現を行おうとするスタートアップは繰り返し見てきたことだろう。はっきりいってしまえば、これまでのそうした技術は決してすばらしいものとは言えなかった。だが新しい技術には新しいチャンスがあり、それがLumaの狙う場所なのだ。

Lumaの技術が実際に適用されたデモ(画像クレジット:Luma)

Luma AIの創始者であるAmit Jain(アミット・ジェイン)氏は「何が今までと違うのか、そしてなぜ今このようなことをしているのかを説明するなら、ニューラルレンダリングの考え方が台頭してきたということです。従来、写真測量で行われてきたのは、何枚かの画像を撮影し、それを長時間の処理を経ることで点群を得て、そこから3D構造を再構築するというものでした。最終的にはメッシュを作成することになりますが、高品質な3D画像を得るためには、ノイズの多い実在のデータから高品質なメッシュを作成できる必要があります。この問題は今でも根本的に解決されていないのです」と説明し、この課題がが業界では「インバースレンダリング」と呼ばれていると指摘した。同社は、この課題に別の角度からアプローチすることにした。

ジェイン氏は「点群から正確なメッシュを得ることはできないという前提の下に、別のアプローチをとることにしたのです。オブジェクトの形状に関する完璧なデータ、つまりレンダリング方程式があれば、PBR(Physics Based Rendering、フィジカルベースドレンダリング)を行うことができます。しかし問題は、スタートが写真であるため、そのようなレンダリングを行うには十分なデータがないということです。そこで、新しい方法を考えたのです。クルマの写真を30枚撮って、そのうちの20枚をニューラルネットワークに見せるのです」と説明する。残りの10枚の写真は「チェックサム」、つまり方程式の答として使われる。ニューラルネットワークが、20枚のオリジナル画像を使って、最後の10枚の画像がどのように見えるかを予測できれば、アルゴリズムは、撮影しようとしているアイテムに対するかなり優れた3D表現を作成できたことになる。

非常にマニアックな写真の話だが、かなり大規模な実用的なアプリケーションが作られている。同社の思う通りにもし進んだならば、eコマースストアで物理的な商品を閲覧する方法は、これまでとは違ったものになるだろう。商品写真を、軸の周りに回転させるだけでなく、撮影されていない角度も含めて、あらゆる角度からズームやバーチャルな動きを取り込むことができる。

上の2枚が写真。下の画像はこれらを元にして作られたLumaレンダリングによる3Dモデル(画像クレジット:Luma)

ジェイン氏は「誰もが製品を3Dで見せたいと思っていますが、問題は3Dアーティストに参加してもらって、スキャンしたものに調整を加えてもらう必要があるということです。その分、コストが大幅にアップします」という。そして、これでは3Dレンダリングができるのは、ハイエンドのプレミアム製品に限られてしまうとジェイン氏は主張する。Lumaの技術は、この状況を変えることを約束している。なにしろ3Dモデルのキャプチャーと表示にかかるコストを、1つのモデルごとに数百ドル〜数千ドル(数万〜数十万円)ではなく、数十ドル(数千円)程度に抑えることができるようになるからだ。

Lumaの共同設立者であるAmit Jain(アミット・ジェイン)CEOとAlberto Taiuti(アルベルト・タユティ)CTO(画像クレジット:Luma)

同社はYouTubeのような埋め込み型のプレイヤーを開発し、小売店が商品ページに立体映像を簡単に埋め込めるようにする予定だ。

Matrix Partners、South Park Commons、Amplify Partners、RFCのAndreas Klinger(アンドレアス・クリンガー)氏、Context Ventures、そして多くのエンジェル投資家たちが、このビジョンを受け入れ、430万ドル(約4億9000万円)の資金を提供した。ラウンドを主導したのはMatrix Partnersだ。

MatrixのゼネラルパートナーであるAntonio Rodriguez(アントニオ・ロドリゲス)氏は「次の偉大なコンピューティングパラダイムが3Dに支えられていくことは、よほど事情に通じていない人以外なら誰でも知っていることです。しかし、来るべき3D環境に人を増やしていくためには、手間のかかるオーダーメイドの方法ではスケールアップできないことをきちんと理解しているひとは、Lumaの外にはほとんどいません。写真を撮って送信するのと同じように、私の作品を3Dにする手段も簡単でなければならないのです!」。

その技術がどのようなものかが、以下のビデオで紹介されている。

画像クレジット:Luma

原文へ

(文:Haje Jan Kamps、翻訳:sako)

アドビが「ウェブ版」アプリに力を入れる理由とは?Creative Cloud製品群・最高製品責任者ベルスキー氏インタビュー

アドビが「ウェブ版」アプリに力を入れる理由とは?Creative Cloud製品群・最高製品責任者ベルスキー氏インタビュー

Webブラウザ版Photoshop

アドビは10月27日から28日にかけて、クリエイティブの祭典「Adobe Max 2021」を開催する。本稿では、同社Creative Cloud製品群の最高製品責任者であるスコット ベルスキー(Scott Belsky)へのグループインタビューを元に、質疑応答の内容を抜粋してお届けする。

アドビ、Creative Cloud担当エグゼクティブバイスプレジデント兼CPO(最高製品責任者)のScott Belsky(スコット ベルスキー)氏

アドビ、Creative Cloud担当エグゼクティブバイスプレジデント兼CPO(最高製品責任者)のScott Belsky(スコット ベルスキー)氏


── 2021年におけるクリエイター市場でのトレンドをどのように把握していますか?

いくつか興味深いトレンドがありました。例えば、写真でしたら、当然普段なら実際にその場所へ行ったりとか、もしくはスタジオで撮影したりするわけです。こういった部分での成長は大きくありませんでした。一方で、ビデオや、3D、「イマーシブクリエーション」と呼ばれる没入型のコンテンツ制作の分野に関しては、かなり大きな成長が見られました。

特に企業やブランドがお客様に対し、エンゲージするためのコンテンツを作りの重要性を認識したことで、さまざまなソーシャルプラットフォーム上でビデオが使われるようになりました。また、3D&イマーシブというセクターにおいては、以前でしたら多くの企業がスタジオで物や人を撮影していましたが、最近は3Dでレンダリングすることが増えてきています。

──トレンドとして挙げられた3D&イマーシブジャンルについて、アドビとしては3Dモデリング制作ツールなどの展開をどうお考えですか?

3D&イマーシブにおけるクリエイティブの世界は、まだ早期の段階にあると思います。これまでにコンシューマーの多くが3Dを経験したのかと考えても、そうではないはずです。一方で、将来的には私たちは、ARを駆使した世界で生活し、エンターテインメントの多くもVRになっていくことでしょう。こういった世界においては、全てのクリエイティビティに関するプロフェッショナルが3Dや没入型、あるいはインタラクティブなコンテンツものを作らなくてはならなくなります。

私たち自身がよりバーチャルな世界で生活することを「メタバース」と言ったりもします。そんな世界では、ファッションや、アクセサリー、そして3Dの空間といったものが、一層必要とされてくるのだと思います。そのため、私たちにとっても、「Adobe Substance 3D Collection」を充実させるのが非常に重要だと思っています。これはクリエーターの方々が、新しいバーチャルな世界において、制作活動を続けていくために欠かせません。そのためには、 やはり3Dの能力や機能をPhotoshopやIllustratorといったプロダクトに含めていくことが重要であると考えています。

──今回、Creative CloudスペースやCreative Cloudカンバスなど、Web上でのコラボレーションを想定した新サービスが登場しました。その背景についてお聞かせください。

クラウドドキュメントの開発は、私たちにとっても長い旅路になると思っています。元々、最終的には全てのプロダクトをクラウドに持っていきたいという意図はありました。また、お客様からも私たちの製品をあらゆるところで使いたい、例えば「どんな場所にいてもiPadでPhotoshopを使いたい」とか、「Webでのコラボレーションをより簡単にしたい」といった、要望がありました。

こうした背景もあって、私たちはクラウドドキュメントに対して方向性を定めなければいけないと考えてきました。アドビという企業はかつて、ローカルでのファイル格納や、デスクトップ製品に慣れていました。そういう意味において、Web上でのサービス提供は大きなトランスフォーメーションになると思います。こうした変化は、コロナ危機によって加速したと言える側面もあります。

私たちとしては、クラウド上にプロダクトを持ってくることによって、より多くの可能性を開放できると考えています。皆さんがより共同作業を行いやすくなりますし、異なるデバイスを使うこともできる。クラウドでしか実現できないようなAIのパワーをワークフローに取り入れることも可能です。さらに、その他のWebアプリケーションやクラウドサービスとの相互接続性も担保されていきます。

──10月に買収完了した「Frame.io」についてお伺いします。同社由来の機能をCreative Cloud製品群へのネイティブに実装することで、どのような進化が期待できるでしょうか?

Creative Cloudの全てのセグメントでどのようなコラボレーションをしたいか、を表しているのがこの「Frame.io」です。まず、このFrame.ioには、深いオプションがありまして、権限管理や、ビデオのウォーターマーク(透かし)付与、エディターのフィードバックの管理などが行えるのが特徴です。Frame.ioを使うようになったお客様は、よく「Frame.ioを使っていなかったころ、どうやっていたのか覚えていない」と仰られることが多いですね。

我々は、Adobeのプロダクトを利用する全てのお客様に対して、こういった魔法のようなコラボレーション機能を同じレベルで提供したいと考えています。

──Adobe MAXの完全オンライン開催は今回で2年目になります。昨年の経験が活かせた部分などはありますか?

「どういうふうになるのか」が何となく想像がついている点で、昨年よりも今年の方がよりリラックスして臨めましたね。例えば、私は基調講演の収録をしますので、自分が語りたいストーリーを考える際に、新しい人たちだったり新しい製品だったり、新しい声だったりを十分にカバーできたと思います。

ただ、そうは言っても、実際にお客様とお会いするということがなかなかできないのは少し残念には感じます。通常でしたらカリフォルニアや東京で行うイベントですので、現場でコミュニティやお客様との繋がりが生まれることになります。それができないのは大変残念です。

将来的には、オフラインとオンラインのハイブリッドでできればな、と思います。オンラインのセッションで何百万人もの人たちに、色々と語る機会があって、同時にコミュニティの繋がりを生むイベントなどもできればいいなと思っています。

──ありがとうございました。

なお、昨年開催されたAdobe MAX 2020における動画視聴回数は2100万回以上を記録したという。400以上のセッション、キーノート、MAX Sneaks、ワークショップが実施され、Adobe.comのイベントサイトへの訪問は220万回以上、ソーシャルインタラクションは5000万回以上を記録した。

2021年のAdobe MAX 2021は、日本時間10月27日~28日の2日間に渡って開催され、基調講演や400以上のブレイクアウトセッションが公開される予定だ。日本向けのオリジナルセッションも50以上用意され、すべて無料で視聴できる。アーカイブ視聴も用意されるので、ぜひチェックしてみて欲しい。

(井上晃(AKIRA INOUE)。Engadget日本版より転載)

グーグルの3D美術館「Pocket Gallery」がウェブからも楽しめる

GoogleのArts & Cultureチームは、2018年に「Pocket Gallery(ポケットギャラリー)」を提供開始し、史上初めてヨハネス・フェルメールなどの芸術家の作品、通常は公開されていなかった作品もAR対応のスマートフォンユーザーで鑑賞できるようにした。米国時間10月14位、同チームは、「ポケットギャラリーPocket Gallery

関連記事:Google、デジタルアート・ギャラリーにARを導入

Pocket Galleryの当初の目標は、これまで見たことのない展覧会をデジタル3D形式で提供することだった。そしてこの度のウェブ化によって、ギャラリーはデスクトップや、AR非対応のスマートフォンでも鑑賞できるようになり、デジタル展覧会はより観やすくなった。

「お気に入りのブラウザを開くだけで、Pocket Galleryのすべてを3Dで観ることができます。世界のアートツアーを音声付きで楽しみ、ショーヴェ洞窟で人類最古の絵画を鑑賞し、古代インドの細密画に驚嘆したり、Klimt vs. Klimtで矛盾を抱えた人間を発見したりすることができます」とGoogle Arts & CultureのアソシエイトプロダクトマネージャーであるJoe Shepherd(ジョー・シェパード)氏はブログで述べている。

一部の作品には歴史の解説があり、またいくつかの作品は近寄って細部を観ることができる。また一部のギャラリーでは、音声付きのツアーでこの展覧会の見どころを解説し、作品の歴史的な由来の解説などもある。

画像クレジット:Google

また、フランスのRéunion des musées nationauxの協力による特別展示もある。ユーザーはバーチャルガイド付きのツアーに参加して「maritime tales, stormy landscapes, and shores swathed in light(海の物語、嵐の風景、光に包まれた海岸)」の美術作品を鑑賞できる。この特別展示にはベルサイユ宮殿やルーブル美術館などヨーロッパ屈指の美術館が提供した、海の絵画の傑作40点がある。

「私たちの最新のギャラリーで、海の神秘を解き明かすことをお楽しみください。ウェブからご覧いただけるPocket Galleryで、新しい角度から集めた文化的名品の、充実したコレクションをご経験ください」とシェパード氏はいう。

Pocket Galleryの展覧会は、Google Arts & Cultureのウェブサイトや、AndroidiOSでダウンロードしたGoogle Arts & Cultureアプリで見学できる。

画像クレジット:Mitch Barrie/Flickr CC BY-SA 2.0のライセンスによる。

原文へ

(文:Aisha Malik、翻訳:Hiroshi Iwatani)

Appleマップが3Dビューを展開、ロンドン、ロサンゼルス、ニューヨーク、サンフランシスコで

Apple(アップル)は、「マップ」アプリ内で、ロンドン、ロサンゼルス、ニューヨーク、サンフランシスコなど、多くの都市に3Dマップを導入する。iOS 15で提供されるこの体験は、市場をリードするGoogleマップとの競争力を高めるためにAppleのマッピングプラットフォームに数年にわたって行われた投資の結果だ。このアップデートには、現在主要な市場に導入されているような3Dマップの追加だけでなく、全体的により詳細な地図、改善された交通機関の機能、AR表示モードなども含まれている。

関連記事:AppleマップがiOS 15アップグレードでより詳細な地図、交通機関ナビ、ARビューなど追加

これらの機能の多くは、充実した機能を得るためまず米国および世界の主要都市で導入され、時間をかけて展開してきた。例えばARビューイングは、2021年に入ってから一部の都市で開始された

画像クレジット:Apple

Appleによると、3Dマップでは、ユーザーは近隣地域、商業地区、マリーナ、ビルなどの詳細を見ることができ、標高の詳細、新しい道路ラベル、さらにはカスタムデザインされたランドマークも表示されるという。

例えば、サンフランシスコのコイトタワー、ロサンゼルスのドジャー・スタジアム、ニューヨークの自由の女神、ロンドンのロイヤル・アルバート・ホールなど、有名なスポットのレンダリング画像がマップに表示され、今後さらに多くのランドマークが追加される予定だ。

画像クレジット:Apple

2021年後半には、フィラデルフィア、サンディエゴ、ワシントンD.C.でこの種の3Dマップが利用できるようになるとAppleは述べている。そして2022年には、モントリオール、トロント、バンクーバーでも利用できるようになる。

Appleは、より明確に表示されるターンレーン、中央分離帯、バス・タクシー用レーン、横断歩道などによって、道路レベルでのナビゲーションも強化している。これらは3D表示モードで表示されるため、交通状況に応じて最適な車線を選択したり、より良いルート計画を立てたりすることが容易になる。また、Googleマップと同様に、現在の道路状況に基づいた到着予定時刻も表示される。Appleは、これまで2021年のリリースが発表されていたこの新しいナビゲーションが、具体的な期限はなしに2021年後半にCarPlayに搭載される予定であると述べた。

画像クレジット:Apple

同様に、2021年初めに発表されていた他の地図のメジャーアップデートも現在展開中だ。これには、Citymapperのような、交通機関を利用する人たちに好まれるサードパーティのアプリケーションに対して、Appleマップがより競争力を持つように設計された機能が含まれている。近くの交通機関の駅が画面上部に大きく表示され、ユーザーはお気に入りの路線をマップにピン留めして簡単にアクセスできるようになった。また、Apple Watchでもできるように、路線を選択すると、降りる時間になるとマップが自動的に通知する。

Appleマップは、拡張現実(AR)を利用したステップ・バイ・ステップの案内で、より臨場感のある徒歩ルート案内を提供する。これは、ユーザーが携帯電話をかざして周辺の建物をスキャンすると、マップがより正確な位置を生成し、より詳細な案内を提供するというものだ。この機能は、2021年に入ってから一部の市場で提供されている。

iOS 15のユーザーは、新しい3D地球儀を見ることができる。また、マップの「ガイドを詳しく見る」ボタンをタップすると、Time Out、The Washington Post、The National Park Foundation、Complex、The Infatuationなどが提供する厳選されたガイドにアクセスすることがでる。これらのガイドは世界中の都市での観光ガイドを提案する。また、ユーザー自身がガイドを作成し、友人や家族と共有することもできる。

画像クレジット:Apple

原文へ

(文:Sarah Perez、翻訳:Yuta Kaminishi)

韓国の3D空間データツールスタートアップで日本の三菱地所、ニトリなどとも取引のあるUrbanbaseが約12億円調達

米国時間8月29日、ソウルに拠点を置きインテリアプランニングやインテリアデザインのための3D空間データプラットフォームを開発するUrbanbaseが、成長にともなうシリーズB+ラウンドで130億ウォン(約12億円)を調達したと発表した。

このラウンドは、韓国コングロマリットのHanwha Corporationの子会社であるHanwha Hotel & Resortが主導した。

Urbanbaseは、もともと建築家で同社のCEOであるJinu Ha(ハ・ジヌ)氏が2013年に創業した。これまでに合計で230億ウォン(約21億6000万円)を調達している。

既存の投資家は今回のラウンドには参加しなかった。Urbanbaseは2017年のシリーズAで180万ドル(約2億円)、同年中に追加で120万ドル(約1億3000万円)、2020年4月にはシリーズBラウンドを実施した。ハ氏によれば、既存の投資家には韓国を拠点とするShinsegae Information & Communication、Woomi Construction、SL Investment、KDB Capital、Shinhan Capital、Enlight Ventures、CKD Venture Capital、Breeze Investmentなどがある。

同社は今回の資金でB2BのSaaSを拡大する。また、ハ氏が新規ビジネスとして今後参入する計画であると語るメタバースのコアテクノロジーになると思われる高度なVR、AR、3Dツールの研究開発も進める。Strategy Analyticsの調査によると、世界のメタバースの市場規模は2021年の307億ドル(約3兆3678億円)から2025年までに2800億ドル(約30兆7200億円)に成長すると予測されている。

VRやAR、そのためのハードウェアやソフトウェア、新しいテクノロジーといった領域で有望なビジネスモデルを構築するための次世代のアプローチの1つとして、いわゆる「メタバース」における成功を目指す企業が増えている。FacebookからIntel、Microsoftまでさまざまな大手テック企業がこの分野への参入を狙っている。AppleもハイエンドのVRヘッドセットを開発中と報じられている

関連記事:アップルがAR機能も搭載した高価格VRヘッドセット開発中と報道、発売は2022年か

Urbanbaseも家庭用インテリアのソフトウェアプラットフォームであるUrbanbase Studioをアップグレードしようとしている。Urbanbase Studioには2Dの室内空間イメージを3D表示に変換する機能があり、これには同社が特許を取得しているアルゴリズム、ARでのインテリア製品の視覚化、AIテクノロジーをベースにした空間イメージ分析が使われている。

Urbanbaseは、登録しているB2Cユーザーは7万人、月間アクティブユーザーは5万人であるとしている。B2Bのクライアントはおよそ50社ある。

ハ氏は「当社のB2Bクライアントの大半は韓国と日本の大手企業です。例えばLG Electronicsの他、日本の三菱地所、ニトリホールディングス、電通、ソフトバンクなどが挙げられます。しかしシリーズB+の資金調達完了後は、中小規模のB2Bクライアントにも拡大しB2Cユーザーも増やしたいと考えています」と述べた。

ハ氏はTechCrunchに対し、Urbanbaseは不動産テックや建設テクノロジーの分野で買収対象を探していると語った。韓国と日本では70〜80%の世帯が集合住宅に住んでいることから、同社は現在集合住宅向けインテリアのツールの開発に力を入れているという。ハ氏は、今後は別のタイプの住宅を得意とするスタートアップを買収して事業を多角化したいと付け加えた。

ハ氏によれば、同社のプラットフォームは現在韓国語と日本語で運営しているが、2021年末にシンガポールに進出する前に英語にも対応する予定だという。

関連記事
国内外の美景を映すデジタル窓のLandSkipがBtoCに注力、郷愁を誘う風景も提供予定
LandSkipが空の8K動画映像を映し出すデジタル天窓「Window Sky」を発売
拡張現実を販売に利用するD2C家具のTylkoがPitangoとEvliが率いるシリーズCラウンドで約28億円調達

原文へ

(文:Kate Park、翻訳:Kaori Koyama)

デジタルツイン関連技術・サービスを展開する企業をまとめた「デジタルツイン 業界カオスマップ」2021年8月版

  1. デジタルツイン関連技術・サービスを展開する企業をまとめた「デジタルツイン 業界カオスマップ」2021年8月版公開

デジタルツインプラットフォームの開発・提供を行うSymmetry Dimensions(シンメトリー・ディメンションズ)は8月19日、2021年8月版「デジタルツイン 業界カオスマップ」を発表した。

2014年10月設立のSymmetry Dimensionsは、空間・都市向けデジタルツイン構築およびプラットフォーム開発を行う企業。空間や都市における人流・交通・IoT・BIM/CIMなど様々な種類のデータをプラットフォーム上で統合・解析することで、誰もが簡単にデジタルツイン上での仮説・検証・計画を行うことを可能にするとしている。

デジタルツインとは、物理空間に存在する場所や事象について、IoTデバイスなどを用いてデータ化しデジタル空間上に再現することで、分析・予測などを可能にする技術。データを活用した業務の最適化を行う方法として、製造業や建設業、スマートシティなど様々な分野での活用に注目が集まっているという。

同社は、2021年8月版「デジタルツイン 業界カオスマップ」とともに、デジタルツインの市場動向およびテクノロジーのうち、特にトレンドとなっている注目すべき重要なキーワードを解説している。

「オープンデータ」の加速

デジタルツインやスマートシティを構築する基盤として、世界中の国や自治体でオープンデータ化の取り組みが加速している。米国政府機関や州・都市などが保有する公共データを一元的に管理提供する「Data.gov」では、2009年の発足当初47件だったデータが、現在では6570倍の約31万件に増大。日本国内では2021年3月に公開された国土交通省の3D都市モデル「Project PLATEAU」(プロジェクト・プラトー)、静岡県の3D点群(Pointcloud)データベース「Virtual Shizuoka」など、3Dデータを中心としてオープンデータ化が進んでいる。

「製造」「建設」業界が先行するデジタルツイン

従来から3Dデータを利用していた製造・建設業界は、デジタルツイン化への対応も早く、これらのニーズに応じたデジタルツイン構築やサービス提供を行う企業が増加している。また、製造業界では自社開発でシステム化を進める企業が多く見られる一方、建設業界では外部テクノロジー企業との協業によるシステム化を進める傾向にある。建設業界においては、今後もスタートアップをはじめとした様々な企業からデジタルツイン開発への参入が活発になるとしている。

業界を横断した「汎用型」プラットフォーム(Cross-Industry)

スマートシティに代表される都市型デジタルツイン領域では、業界を横断した汎用型のデジタルツインプラットフォームが登場。これは、IoTセンサーの普及による現実空間のデータ収集が増大したこと、iPhoneをはじめ身近な製品がLiDARセンサーを採用するなど現実世界をデータ化する流れが加速していることで、従来は3Dデータを使用していなかった企業においてもデジタルツインの構築・利用が可能になってきたためという。

「マルチエクスペリエンス」

デジタルツインの活用では、企業や組織のあらゆる関係者が、場所を問わず、より迅速に現在の状況を把握・共有し、次の行動につながる意思決定を行う必要があるという。Symmetry Dimensionsは、そのためウェブブラウザー・スマートフォン・xR(拡張現実、複合現実)を組み合わせたマルチエクスぺリンス化が加速するとしている。ウェブブラウザーを基点としたクラウドベースのデジタルツインプロダクトは今後さらに増大するという。

デジタルとフィジカルの双方向での共有・連携

現実空間の位置情報に基づき、永続的に情報を保存し、ユーザー間での共有を可能にする技術である「AR Cloud」の進化と、コロナ禍により、あらゆる業務の「デジタルファースト」のプロセスが加速し、デジタルツインと物理空間の双方向でのデータ共有・連携が進むという。これによりデジタルツイン上で行われた意思決定の迅速な現場への反映と、最適化された従業員エクスペリエンスを提供をするようになるとしている。