拡張現実(Augmented Reality、AR)は、iOSの消費者が恋焦がれている機能ではないかもしれない。しかし、Apple(アップル)の最新のツールを見ると、同社の長年の夢であるARの偏在性(どこにでもARがあること)を、デベロッパーにとってより取っ付き易いものにしているようだ。
同社はARKitの最新バージョンでおもしろいアップデートをいくつか行ったし、またデベロッパーのための新しいプラットホームとしてRealityKitを導入した。
アップルはRealityKitで、現在UnityやUnrealのテリトリーである領域を攻略したいようだ。UnityやUnrealはデベロッパーが3Dのコンテンツを作るためのツールだが、最初からゼロからARを作ることは当然ながら狙っていない。そのため、現実世界の機能性との統合が難しくなることもあるが、RealityKitとRealityComposerはこの関係をより円滑にする。
これらのツールを使うと、シーンの設定や3Dのアセットと音源のインポートができて、それらとユーザーの入力やその環境との対話を詳しく定義できる。極めてiOS専用の設計になっているので、デベロッパーはARのシーンをiPhoneやiPadでテストでき、最終製品の感覚を早い段階で得ることができる。
ARKit 3では、コンピュータービジョンの超難問であるリアルタイムのオクルージョン(Occlusion)をサポートしたことがビッグニュースだ。それは、人間の姿形がどこからどこまでであるかをシステムが常時正しく認識して、自分の目の前にいる人の動きに正しく対応できる能力のことだ。
これは、アップルがこれまで挑戦してきた問題の中でも最高難度の難問かもしれないが、デモを見たかぎりではまだ完璧とは言えず、また環境オブジェクトのオクルージョンは今回のアップデートではサポートされていない。
さらにもうひとつ、ARKitには全身のモーションキャプチャーが加わった。たぶんそれは、オクルージョンと同じ基本技術を低レベルでは使っているのだろう。InstagramやSnapchatのセルフィー・フィルター(自撮りフィルター)が顔だけでなく全身対応になるのかもしれない。
RealityKitは現在ベータ、そしてARKit 3はiOS 13に含まれる。
[原文へ]
(翻訳:iwatani、a.k.a. hiwa)