iPhone 13シリーズ最大の発明は「シネマティック」という命名だ

9月24日から、iPhone 13が発売になる。今回はデザイン変更ではなく「中身」が中心のターン。変化がカメラに集中しているので「別にまあいいか」と思っている人もいそうだ。

iPhone 13 Pro(シエラブルー)とiPhone 13(PRODUCT RED)

iPhone 13 Pro(シエラブルー)とiPhone 13(PRODUCT RED)

こちらもiPhone 13(PRODUCT RED)とiPhone 13 Pro(シエラブルー)

こちらもiPhone 13(PRODUCT RED)とiPhone 13 Pro(シエラブルー)

右がiPhone 12 Pro Max(パシフィックブルー)で、左がiPhone 13 Pro(シエラブルー)

右がiPhone 12 Pro Max(パシフィックブルー)で、左がiPhone 13 Pro(シエラブルー)

iPhone 13 Pro(シエラブルー)。かなり爽やかな色

iPhone 13 Pro(シエラブルー)。かなり爽やかな色

iPhone 13(PRODUCT RED)。昨年より濃い赤で光沢が映える

iPhone 13(PRODUCT RED)。昨年より濃い赤で光沢が映える

でも、ちょっとそれはもったいない。というのも、今回からiPhone 13シリーズに入ったカメラ機能はとても大きな可能性を秘めているからだ。

実機性能も含め、その辺をちょっとまとめてみよう。

今回のiPhoneも「カメラ」がポイント

今回のiPhoneも「カメラ」がポイント

誰でもスマホ1つでできるのが「シネマティックモード」の魅力

多くの人が記事にしているように、今回のiPhone 13シリーズにおけるカメラのポイントは「動画」、特にシネマティックモードだ。

シネマティックモードの正体はシンプル。静止画における「ポートレートモード」の動画版だ。写真に計算から生み出した「深度(奥行き)」の情報をセットして、適宜フォーカス(ピント)が合う場所を変えてそれ以外をボカす……というモードである。

性能が上がったら静止画から動画へ、というのはわかりやすい流れなのだが、その際には新しい配慮も必要になる。「フォーカスが合う場所を時間の変化によって変える」ことを助ける機能が必要なのだ。

その一番シンプルな形が、「人を認識して、動きに応じて変える」というものだ。以下の動画は、iPhone 13 Proを使って撮影したものを、音声カット以外は未編集で掲載したものだ。手前に入ってくる筆者から奥の矢崎編集長へのフォーカス切り替えは完全に自動だ。

▲iPhone 13 Proで撮影。音声カット・前後カット以外は撮ったままの無加工。人が入ってきたり、振り向いたりするとフォーカス場所が変わる
認識するのは人だけでなく物体も含まれるので、以下のような動画も撮れる。

▲せっかくなので「シネマティック・ドリンク」と「シネマティック・焼肉」も。どちらもiPhone 13 で撮影し、音声・前後カットと2本の連結以外は撮ったままだ
「輪郭のヌケが完全じゃない」「背景のボケ感が画一的で書き割りのように見える」
たしかに。この機能はまったく完全じゃない。適切なカメラとレンズを用意し、しっかりとフォーカス操作をしながらなら、もっとハイクオリティなものが撮れるのは間違いない。カメラに慣れた人ならあたりまえのテクニックであり、今なら「Vlog向けカメラ」などでもっと高品質に撮れる。

だが、これらの動画を「スマホ1つで」「特別な操作なしで」「撮って出し」で作れるのは大きな進化だ。iPhone 13シリーズを買えば、誰でもこんなことができるのだ。

ついでに、ちょっとこんな動画も撮ってみた。

▲テーブルを囲んで会議している様子をシネマティックに。撮影された側曰く「テラハっぽい」
どうだろう? 単にテーブルを囲んで話しているだけなのに、ボケの演出がついただけでなんとなくドラマチックに見えてこないだろうか。
この「誰でも日常を撮るだけでテラハっぽくなる」ことこそ、シネマティックモードの価値なのである。今回iPhone 13シリーズを買わなくても、これからiPhoneの新シリーズを買うと標準機能として付いてくるだろう。そして、似たことは他のハイエンドスマホメーカーもやってきて、ありふれた機能になっていく。

今回のアップルの最大の発明は、ボケ付きの映像を撮影する機能に「シネマティックモード」という印象的な名前をつけたことそのもの、と言ってもいい。簡単なことに思えるが、こういうところが糸口となって、機能は一般化していくものだ。

編集はiMovieがお勧め、シネマティックモードの視聴は「大型画面」向き

ちょっとネタバラシはしておこう。

実は、一番最後の最後の動画だけは「撮って出し」ではない。アップルの動画編集ソフト「iMovie」のiPad版を使い、フォーカス位置をかなり細かくいじって作ったものだ。

自動でもある程度はできるが、人が多いとフォーカスが頻繁に変わりすぎて見づらい映像にになる。なので、シネマティックモードのデータをそのまま再編集できるiMovieで編集をしているのだ。なお、ここに掲載した他の動画も、フォーカス位置はいじっていないものの、音と前後のカットにはiMovieを使っている。

iPad Proに画像を転送してiMovieで加工

iPad Proに画像を転送してiMovieで加工

編集に使う機種は、iOS 15/iPadOS 15が入ったiPhoneかiPadであれば、シネマティックモードを持っていない機種(要はiPhone 13シリーズ以外)でもいい。

ただし、編集する場合の動画データは、「シネマティックモード用の付加データがカットされてない」必要がある。

同じ1080p・30Hzの動画で比較すると、通常のモードで撮影した映像データとシネマティックモードで撮影した映像データでは、容量が倍近く違うこともあった。すなわち、1080p・30Hzのシネマティックモード動画の容量=1080p・60Hzの通常動画の容量、という感じになっている。

ここで注意すべきは、単に転送するとシネマティックモード用の「深度データ」が消えてしまうこと。

自分のアカウントである場合にはiCloudの「写真」データとして同期すればいいのだが、他人にAirDropなどで渡す場合には、シェアする際の画面上方にある「オプション」をタップし、次の画面で「すべての写真データ」をオンにしてから転送しよう。

AirDropで誰かに動画を送る場合には「すべての写真データ」(右画面の最下段)をオンにしないと、シネマティックモードの深度情報がなくなり、フォーカスなどの再編集はできなくなる

AirDropで誰かに動画を送る場合には「すべての写真データ」(右画面の最下段)をオンにしないと、シネマティックモードの深度情報がなくなり、フォーカスなどの再編集はできなくなる

また、フォーカス位置の変更などの再編集については、iMovieを使わず、iPhoneの「写真」アプリだけでも可能だ。とはいえ、操作はiMovieの方が簡単で、できることも多い。iPhoneユーザーであればiMovieは無料で使えるので、活用をお勧めする。

iPhone 13での撮影時や「写真」アプリからでも、フォーカスなどの変更は可能。でも、iMovieを使った方が操作は楽だ

iPhone 13での撮影時や「写真」アプリからでも、フォーカスなどの変更は可能。でも、iMovieを使った方が操作は楽だ

それからもう一つ。

前述の動画、「どうも効果が分かりづらい」と思った人はいないだろうか。そういう方々は、おそらく「スマホの画面」で動画を見ているのだろう。

実のところ、ボケはそこそこ繊細な表現であり、動画自体の表示サイズが小さいと分かりづらい。スマホの縦画面などではピンと来ないことも多いのではないだろうか。

お勧めは、MacやiPadなどで視聴することだ。10インチ以上の画面になれば、ボケの効果は驚くほどしっかり楽しめる。また、Apple TVを使ったり、iPhoneなどをテレビにつないだりして、より大画面で楽しむのもいいだろう。

そういう意味では、シネマティックモードは「スマホで撮れるが、楽しむならスマホ以外からの方がいい」機能でもある。

やはり「Pro」は速かった。A15は順当な進化

ベンチマークテストから見える性能についても触れておこう。

すでにご存知の通り、iPhone 13シリーズが採用しているSoCは「A15 Bionic」。アップル設計によるSoCの最新モデルだが、現時点でもバリエーションが3つ存在する。

1つ目は、「iPhone 13」「iPhone 13 mini」に使われているもの。これらに使われているのはクロックが最大3.2GHzで、GPUコアが4つ。メインメモリーは4GBだ。

iPhone 13/miniのSoC。メインメモリーは4GBになっている

iPhone 13/miniのSoC。メインメモリーは4GBになっている

2つ目は「iPhone 13 Pro」「iPhone 13 Pro Max」のもの。こちらもクロックは最大3.2GHzで、GPUコアが5つになる。メインメモリーは6GBだ。

こちらはiPhone 13 Pro/Pro MaxのSoC。メインメモリーは6GBになっている

こちらはiPhone 13 Pro/Pro MaxのSoC。メインメモリーは6GBになっている

そして3つ目が、先日レビューも掲載した「iPad mini」向け。こちらはクロックが最大2.93GHzで、GPUコアが5つ。メインメモリーは4GBだ。

参考記事:iPad mini 第6世代に死角なし iPhone 13 Pro同等の最新仕様で処理も通信も高速(西田宗千佳)

さて、これらの性能はどのくらいなのか? 数字を丸めて簡単な大小で表すと、

iPhone 13 Proシリーズ>iPad mini≒iPad Pro 11インチ(2020年モデル)≒iPhone 13シリーズ>iPhone 12 Proシリーズ>iPhone 12シリーズ

という感じだろうか。

メインメモリー量とクロックは違うが、同じ構成のiPhone 13 ProとiPad miniは、おおむね「クロック通り」の差。全体的にワンランク上だ。

iPhone 13とiPad miniは、CPUについてはほぼクロック通りの差で、GPUのコアが多い分、クロックが低くてもiPad miniの方が高性能。総合して考えると大体近い性能……という感じかと思う。

Geekbench 5によるiPhone 13/miniのCPUスコア

Geekbench 5によるiPhone 13/miniのCPUスコア

Geekbench 5によるiPhone 13 Pro/Pro MaxのCPUスコア

Geekbench 5によるiPhone 13 Pro/Pro MaxのCPUスコア

Geekbench 5によるiPhone 13/miniのCompute(主にGPU)スコア

Geekbench 5によるiPhone 13/miniのCompute(主にGPU)スコア

Geekbench 5によるiPhone 13 Pro/Pro MaxのCompute(主にGPU)スコア。コア数が1つ多い分、iPhone 13より数値がグッと高い

Geekbench 5によるiPhone 13 Pro/Pro MaxのCompute(主にGPU)スコア。コア数が1つ多い分、iPhone 13より数値がグッと高い

昨年モデルであるA14世代はもちろん、A12世代でコア数を増やしたハイエンド製品(主にiPad向け)を超えていくのだから、性能向上はいまだ「ちゃんと続いている」といっていいだろう。

iPad miniのレビューでも述べたが、A15は高性能とはいえ、それでも「よりパフォーマンス重視で作られたM1」にはまったく敵わない。コア数の考え方を含め、コストも狙いも違うのだ。

この辺からも、アップルが「スマホ向けで進める性能向上」と「Mac向けで進める性能向上」が違ってきており、使い分けが今後も進むであろうことが予測できる。

(西田宗千佳。Engadget日本版より転載)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。