Apple(アップル)は、米国時間10月13日に行われたiPhoneイベントにて、最新のフラグシップモデルiPhone 12 Proと12 Pro Maxを発表した。その他の新型iPhoneと異なり、これらの機種にはLiDARスキャナーが搭載されている。より没入感の高い拡張現実(AR)体験をもたらすものだ。Snapchat(スナップチャット)は同じく米国時間10月13日、このLiDAR対応カメラを使う新技術を、他社に先駆けてアプリに採用することを明かした。
同イベントでアップルが説明していたとおり、LiDAR(光検出と測距)スキャナーは、光が目標に到達して戻ってくるまでの時間を計るものだ。
iPhoneの機械学習技術と開発フレームワークを使うことで、iPhoneはLiDARを通じて周囲の世界を理解できるようになる。
アップルは、この技術をiPhone 12 Proに採用し、その「暗闇でも見える」能力を応用して暗い場所での写真の画質を向上させている。
この技術を使えば、アプリ開発者はiPhoneの周囲の正確な深度マップが作れるようになり、即応性が向上するためARは高速化し、ARを応用した新しいアプリ体験が可能になる。
具体的にいえば、アプリ開発者はこの技術を使うことでオブジェクトや部屋のスキャンが可能になるということだ。例えばAR買い物アプリ、家のデザインツール、ARゲームなどが考えられる。
写真や動画のエフェクトにも使える。iPhoneは部屋の奥行きや物の位置を「見る」ことができるため、画像の中に正確にARオブジェクトを配置するといったことも可能になる。
これは、Snapchatが準備しているような新しいAR体験の原動力となる。すでに最上級のAR写真フィルターで知られる同社は、iPhone 12 Pro専用のLiDARを利用した「レンズ」をすぐにローンチすると話している。
アップルは今回のiPhoneイベントでLiDARを説明する際に、SnapchatのLiDARを使った機能をちらりと紹介していた。
上の写真は、SnapchatアプリのARレンズのものだ。テーブルや床の上が花と葉っぱで埋め尽くされ、ユーザーの顔に向かって小鳥が飛んでくる。部屋の奥に置かれた植物は、手前のものよりも遠くにあるように見える。さらにキッチンの戸棚を蔓が覆っている。物理的な空間のどこにテーブルや戸棚があるかを、認識している証拠だ。
Snapchatレンズの小鳥は、人の背後に回ったときには陰に隠れて見えなくなる。また、人の手の上に正確に止まる。
これがまさに、Snapchatが開発中のレンズだとわかるが、今のところ同社はそれ以上の詳細は公表していない。しかし、LiDARを使ったSnapchatの体験がどんなものかを感じることはできる。
Apple iPhoneイベントの動画の59分41秒あたりで、実際にSnapchatのレンズの動作を見ることができる。
【更新情報】米国東部時間10月13日午後4時47分、ここで公開されているレンズが、実際にローンチされるものだとの確認がとれた。
関連記事
・5G対応のiPhone 12シリーズは10月16日午後9時に予約開始、10月23日から順次出荷
・アップルが「MagSafe」でアクセサリーとワイヤレス充電器の新エコシステムを構築
・今後iPhoneにイヤフォンや電源アダプターはついてこない
・アップルが約1万円のHomePod miniを発表
・アップルがスマートスピーカー新製品「HomePod mini」を11月6日発売
・アップル新iPhone発表イベントまとめ、iPhone 12シリーズ、HomePod mini、MagSafe復活
カテゴリー:ネットサービス
タグ: Apple、Apple iPhone Event、iPhone、LiDAR、Snapchat、AR
画像クレジット:Denis Charlet / AFP / Getty Images
[原文へ]
(翻訳:金井哲夫)