設定を無効にしてもiPhone 11が位置情報を共有しているように見える理由

セキュリティレポーターのBrian Krebs(ブライアン・クレブス)氏は、ユーザーが設定で「位置情報サービス」をオフにしても、最新のiPhone 11 Proがユーザーの位置情報を送信しているように見える理由をApple(アップル)に尋ねた。これは、アップルのプライバシーポリシーと、ユーザーの明確な意思表示に反しているではないかと。

画像クレジット:Getty Images

アップルはクレブス氏に対し、それは「所定の動作」であり、セキュリティへの影響はないと返答した。それでは、位置情報を漏洩させるバグではないかという疑念を晴らすことができなかった。

そしてクレブス氏は論理的な結論に達した。「つまりアップルは、iPhoneには位置情報を問い合わせる何らかのシステムレベルのサービスがあって、ユーザー各自がすべてのアプリとiOSのシステムサービスに対して設定をオフにしていても、それは動き続けていると言っているようだ」と書いている。

それは間違っていなかった。クレブス氏の記事が掲載されてから2日後、そしてアップルがこの問題に対するコメントを拒否してから半日以上経ってから、同社はようやく説明した。

クレブス氏が使っているiPhone 11 Proをはじめとして、新しいiPhoneにはUltra Wide Band(ウルトラワイドバンド、超広帯域無線)技術が搭載されている。アップルによれば、新しいiPhoneは「空間認知」機能を備えていて、他のUltra Wide Band(UWB)デバイスの位置を把握している。アップルは、この技術の利用方法として、ユーザーがAirDropによってワイヤレスでファイルを共有できるというもののみを宣伝している。しかしこれは、同社がかなり有望視している、位置に「タグ」を付ける機能にも使われると考えられている。これについては、まだ何も発表されていない。

「UWB技術は業界標準の技術であり、国際的な規制要件の対象となっています。つまり決められた場所ではオフにする必要があります」とアップルの広報担当者はTechCrunchに語った。「iOSは位置情報サービスを使用して、iPhoneがそうした禁止区域にあるかどうかを判断します。その際は、UWBを無効にして規制に準拠するのです」。

「UWBに関するコンプライアンスの管理と位置情報の利用は、すべてデバイス内で行われていて、アップルはユーザーの位置情報を収集していません」と同担当者は述べた。

この説明は、これまでの専門家の見立てを裏付けているように見える。Guardian Firewallの最高経営責任者で、iOSセキュリティの専門家、Will Strafach(ウィル・ストラファッチ)氏は、彼の分析によれば、位置情報がリモートのサーバーに送信されているという「証拠はない」とツイートしている

アップルは、次期iOSのアップデートで、この機能をオン/オフするスイッチを提供すると述べた。しかしストラファッチ氏は、他の多くの人たちと同様、そもそもなぜアップルが、そうした状況をはっきり説明していなかったのかという疑問を表明している

同社はもっと前にわかりやすく説明することで、うわさをつぶすことができたはずなのに、そうはしなかった。説明をしなければ憶測が拡まるだけだ。これは、この問題を報告してくれたクレブス氏の手柄だ。しかし、アップルの対応の遅れは、この問題を必要以上にかなり大きなものにしてしまった。

関連記事:iOS 13へのアップデートにあたって知っておきたいセキュリティとプライバシーの新機能

原文へ

(翻訳:Fumihiko Shibata)

iPhone 11 Proのアクセシビリティは歴代最高

画像クレジット:TechCrunch

昨年のiPhoneは、私にとってはちょっと特異な存在だった。私は当時の新機種、iPhone XSをレビューしたものの、最終的に自分で選んだモデルは「廉価版」のiPhone XRの方だった。その理由は、主に本体の見た目の美しさ。技術的にバランスが取れているのはもちろん、私が好きな色、青のiPhoneが手に入るというだけで、気もそぞろという状態になっていた。この1年で、自分の選択を悔やんだことは一度もない。色は別にしても、XRは素晴らしいデバイスだった。もちろん今でもそうだ。

iPhone XRを選ぶという決断は、色の好みや、いくつかの技術的な違いを喜んで受け入れることよりも、根本的なレベルで重い意味を持つものだった。視覚に障害を持つ人間として、XSを選ばなかったのは、それ自体が重要なアクセシビリティ機能の1つとも言えるOLED画面を、あえてあきらめたことを意味する。OLEDなら、私にとってデバイスのアクセシビリティが向上することが分かっていたのにだ。後になって思えば、XRという、客観的に見ればよくない方の機種に決めたという事実は、それが製品としてどれだけ魅力的に感じられたかを雄弁に物語っている。そして製品の色という要素が、根源的な、大きな喜びをもたらすか、ということも。

今年のモデルには、青いiPhoneは用意されていない。選択の基準として、色という感情を刺激する要素がなかった場合、実際に今購入できるiPhoneの中で、iPhone 11 Pro Maxが、私にとってベストな、もっとも優れたアクセシビリティを提供してくれるiPhoneであることを、改めて思い知った。

OLEDはなんと素晴らしい

Apple(アップル)は私に、レビュー用として2種類のモデルを貸し出してくれた。1台は白のiPhone 11、もう1台はミッドナイトグリーンのiPhone 11 Pro Maxだ。この記事の執筆時点で、これらのiPhoneを手にしてから2週間近くが経過し、それぞれほぼ1週間ずつ使い込んでいることになる。また、比較用として、1年前の自分のXRも手元に置いている。

私は以前にも、それなりに長期間、OLEDディスプレイを使っていたことがある。以前に持っていたiPhone Xもそうだったし、大きさを気にしなければ、Apple Watchもみんなそうだ。1年ほど自分のXRのLiquid Retina液晶画面を使ったあとで、再びOLEDに戻ってみると、それはまさに目を見張るような感覚だった。視力が悪い私でも、XRと11 Pro Maxと並べてみれば、表示品質に大きな違いがあるのは一目瞭然だった。もちろん、やはりLiquid Retina液晶のiPhone 11と、11 Pro Maxを比べても同じことが言える。 もう2年前からAppleは、XR(現在は11)の液晶画面は業界で最高であることを当然のように自慢している。たしかに、液晶としてはとてつもなく素晴らしいのだが、ProのOLEDディスプレイは、また別格。今回のテスト中、私はこの1年、どうしてXRで満足できていたのか、不思議に感じたくらいだ。

実際に、iPhone 11 Pro MaxのSuper Retina XDRディスプレイは、すべての面でかなり優れている。物理的なサイズは、それほど極端な違いではないものの、たしかに大きい。それに加え、明るくシャープな画面は、何を表示しても非常に見やすく感じられる。目に対する負担も、そこからくる疲労も軽減してくれる。私にとって、これは非常に重要な部分だ。iOS 13が装備したダークモードも、OLED画面でこそよく映える。私は、日没に合わせて自動的にダークモードに切り替わるように設定している。またTwitterやThingsといったアプリは、夜はブラックモードで使うようにしている。ダークモードの効果には懐疑的な意見もあるが、私は個人的には、少なくとも夜間にはそれなりの効果があると感じている。それも、ProのOLEDディスプレイによるところが大きい。

今回のテストは、まずiPhone 11 Pro Maxで始めて、そのまま数日間使い続け、その後は11に持ち替えて、また数日間テストした。両方を使ってみて、それぞれのディスプレイ方式の違いによる表示品質の差が分かると、どちらが私に適しているかは自明となった。私としては、iPhone 11でも特に問題ないレベルなのだが、両方を比べてみることで、私の視力にとって、OLEDがいかに優れているかがはっきりと確認できた。私の場合、OLEDでなければダメなのだ。

Face IDを使って3年

以前、Face IDを試してみた経験について記事を書いたことがある。私たちみんなが、Appleの顔認識システムを使い始めて3年目を迎えるにあたって、新しいiPhoneとアクセシビリティという観点から、ここでその立ち位置を簡単に確認しておく意味はあるだろう。

Appleによれば、新しいiPhoneのFace IDは「最大30パーセント高速」であり、以前より遠くから、より広い角度で認識できるという。その距離と角度がどの程度改善されたのか、よくわからないが、それはとにかくFace IDであり、これまでと同じように機能するのは間違いない。ただし、私の斜視は、最新のiPhoneでも、TrueDepthカメラシステムを混乱させることがあるようだ。

そこで、iPhone 11 Pro MaxのFace IDの設定で、「Face IDを使用するには注視が必要」をオフにして、iPhoneをアンロックする際にカメラを見ていなくも済むようにした。この設定を変更する際には、画面にモーダルアラートが表示され、「Face IDの安全性を高めるには注視が必要です」と念を押される。その通りなのだろうが、そうしなければ使えないのだから、しかたがない。この設定で、いつも通り、ばっちり使えるようになった。

Pro MaxからiPhone 11に乗り換えたとき、興味深いことが起こった。Face IDが使えるように設定したが、「設定」に入って「注視が必要」をオフにするのを忘れていた。Face IDの設定が、デバイス間で自動的に同期されないことを完全に忘れていたことの気づいたのは、それから何日か経ってからだった。後にして思えば、Face IDが私の視線を認識するほど進歩していたのは印象的だった。Appleが意図して改良したものかどうかは分からない。しかしその数日間は、「注視が必要」をオンにしたまま、何の苦もなくiPhoneをアンロックしたり、Lyftの料金を支払うことができていたのは確かだ。

私の斜視は、やはり特殊なケースだから、私としては「注視が必要」をオフにしておく方が安心だ。それがもっとも抵抗なく、この機能を利用可能にする方法なのだ。それでも、たとえ偶然にせよ、「注視が必要」をオンにしたままでも使えたことは、嬉しい驚きだった。これが、新しいiPhoneのFace IDに特有のものかどうかはわからないが、何らかの改善の結果であることは確かだろう。

さらば、3D Touch

世間では悪評高いMacBook ProのTouch Barについてもそうだったように、私は長い間、3D Touchを熱烈に擁護してきた。4年前にiPhone 6sに初めて採用された際には、3D Touchがアクセシビリティを向上させる可能性について、私も記事を書いた。それだけに、XRで使えなくなったのは残念だった。

Appleが3D Touchを廃止したのは、私が2015年の記事で指摘した短所が、やはり正しかったことを裏付けるものだろう。その短所とは、ユーザーにとっても、そしてAppleにとっても複雑過ぎて、その存在に気付くのさえ難しいというものだ。Appleのコミュニティは、全体的に見て、この機能について最初からそう感じていた。そしてこの機能が、iOSデバイス全体に浸透していない、特にiPadでは使えないことを盛んに嘆いていた。

iOS 13では、昨年のiPhone XRで初めて導入されたHaptic Touchを、3D Touchの代わりとして全面的に採用した。これらはほぼ同等のものと言っていいだろう。 iOS 13は、Haptic Touchの守備範囲を拡張して、3D Touch独自の操作方法をなるべくカバーするようになっている。たとえば、ホーム画面アイコンに対するQuick Action、メールやメッセージでのコンテンツのプレビューも、Haptic Touchで可能となっている。そしてこれは重要なことだが、こうしたHaptic Touchによる操作方法は、iPadOSをインストールしたiPadでも利用可能なのだ。

どうしてもアクセシビリティに注目する私としては、レビュー用に借りたiPhone 11で、こうしたショートカットが利用可能になったことを楽しみながら使っている。これまで自分のXRでは、そうした機能が使えなかったのが残念だった。これまでのiOSでは、コンテキストメニューへの依存を減らして、スワイプやタップ操作に頼り過ぎる傾向があったのも事実だ。私としても、AppleがHaptic Touchによる操作を拡充させたやり方を、だいたい気に入っている。Haptic Touchと、かつての3D Touchとの機能的な違いを、はっきりと指摘することができないほどだ。ホーム画面から、新しい電子メールやテキストメッセージの作成を開始する場合などにも、大した違いは感じられない。

Haptic Touchが、まだ3D Touchには及ばないと思われる点は、パフォーマンスにある。たとえば、Quick Actionや、リンク先のプレビューを表示させようとした場合、3D Touchに比べてかなり時間がかかるように感じられる。それは使えない、というほど遅くはないものの、気付かないほどの微妙な違いでもない。それより重要なのは、触覚(haptic)に訴えるという、この定評あるアクセシビリティ支援技術が、それを名前の由来とするHaptic Touchでは、色あせたものに感じられること。3D Touchでは常に瞬間的にフィードバックが返ってきたのに対し、現状のHaptic Touchでは遅く感じられる。そのため、使う楽しさがちょっと損なわれてしまう。この遅延については、もう少し成熟すれば改善されるはずだと思っている。それでも私は、やはり新しいiPhoneで3D Touchが使えなくなったことを残念に思っている人間の一人だ。

  1. iphone-11-IMG_9817

  2. iphone-11-IMG_4654

  3. iphone-11-IMG_1447

  4. iphone-11-IMG_1566

  5. iphone-11-IMG_3465

  6. iphone-11-IMG_3015

その他あれこれ

新しいiPhoneについて、ここまでに言い残したことを手短にまとめておこう。

SIMカードの交換:これは、私が毎年新しいiPhoneをレビューできるという、ある意味特権を与えられていることからくるもので、かなり特殊な問題だ。しかし、これも一種のアクセシビリティの問題には違いない。毎年、新しいiPhoneを、場合によっては複数台手に取るたびに、SIMカードを交換するのがどれだけ面倒な作業だったかを思い出させられる。それはまるで、正確な視力と、細かい運動能力のテストのようなもの。私にとっては、どちらも不得手な領域だ。特にミッドナイトグリーンの場合、側面もかなり暗い仕上げとなっているため、SIMトレイがどこにあるのか、非常に見分けにくい。3台のiPhoneの間で1枚のSIMを差し替えて使うのは、一種の冒険なのだ。SIMトレイが見つけにくいという点では、iPhone 7のジェットブラックでも、同じ苦労をさせられたことを思い出した。Appleが、SIM取り出しツールをiPhoneの付属品にしてくれているのはありがたいし、毎年SIMをあちこち入れ替えなければならないのは、もちろんAppleのせいではない。それでも、視覚障害のあるレビュアーとして、このアクセシビリティにも関わるちょっとした問題を、提起しておいた方がいいと感じた。

色:色について言えば、私は新しいミッドナイトグリーンの仕上げがかなり気に入っている。CWテレビジョン・ネットワークのArrowは、私のお気に入りの番組だが、この緑のiPhoneは、主人公のオリヴァー・クイーン(Oliver Queen)が選びそうだと即座に思った。

バッテリー寿命:iPhone 11の最大のセールスポイントの1つは、劇的に長くなったバッテリー寿命。私の場合、iPhone、iPad、Apple Watchのいずれのデバイスでも、輝度を最大にしないとよく見えないので、これまでずっとバッテリーについては諦めていた。iPhone 11では、そのような使い方をしても、バッテリー性能の向上の恩恵を感じることができる。これは、Appleのバッテリーに対する仕事の素晴らしさを物語るものだ。iPhoneの輝度を最大に設定して、普通の使い方をしても、丸1日はもたせることができる。バッテリーを節約しようとしたり、どこかでコンセントを探したりする心配もいらない。

ポートレート(ペット?)モード:真面目な話、新しいiPhoneのポートレートモードは、ペット用に最適化されている。私のブタにもぴったりだ。

結論

こんなことを言うと、私がかなり気に入って使ってきた昨年のiPhone XRの「完全性」を強調することになってしまうかもしれない。そう、それはとてもきれいな青い色で、どこにも文句が付けられないような良いiPhoneだった。Appleは、iPhone 11を「すべてがある。パーフェクトなバランスで。」と表現している。つまり、誰にとってもぴったりなiPhoneということになるが、そのキャッチフレーズは、そのままiPhone XRにも当てはまる。カメラが1種類でも気にならないという人にとって、XRは今日でも素晴らしいiPhoneだ。簡単に言えば、iPhone 11は、より優れたiPhone XRなのだ。

仕様を比較する限り、iPhone 11と11 Proはかなり近い。もし青いiPhone 11が登場したら、私はそちらにアップグレードしたくなってしまうかもしれない。それが、Appleがさまざまな色のiPhoneを発売する理由なのだ。色が購買意欲に与える心理的な影響は、間違いのない現象だ。もしかすると近いうちに、Super Retina OLEDディスプレイを搭載した青いiPhoneが登場するかもしれない。それはともかくとして、どちらのiPhoneも非常に印象的ながら、私にとっては、さらに向上した画面品質と、3台のカメラを搭載したProの方が満足度が高い。どちらのiPhone 11を選んでも、間違えたということにはならないだろう。しかし今年のモデルでは、私にとってOLEDが決め手となっている。

原文へ

(翻訳:Fumihiko Shibata)

アップルが最新iPhoneのカメラにML合成技術「Deep Fusion」のベータを導入

米国時間10月1日、Apple(アップル)は新しいiPhoneのカメラでDeep Fusionのベータ版を使えるようにした。これはiOSのアップデートとして提供される。Deep Fusionは複数画像をピクセルごとに合成して画質をアップするテクノロジーで、従来のHDRよりも高度な処理だ。特に、皮膚、衣服、植生のような複雑な対象の描写で威力を発揮するという。

今回のリリースはデベロッパー向けベータ版で、iPhone 11のカメラでは広角レンズが、 iPhone 11 ProとPro Maxではワイドに加えて望遠レンズがサポートされる。ただし超広角はサポートされない。

Appleによれば、Deep Fusion処理にはA13 Bionicプロセッサーが必要とのこと。つまり上記以外の旧モデルではこの機能は利用できない。

iPhone 11 Proのレビューでも詳しく説明してきたが、新しいiPhoneは写真の撮影にあたってソフトと専用ハードの両面から機械学習を積極的に利用している。

iPhone 7でAppleは写真の画質を改善するために広角レンズと望遠レンズから得られる情報を合成し始めた。このプロセスはユーザーの介入を必要とせずバックグラウンドで自動的に行われた。Deep FusionはこうしたAppleの写真哲学をさらに一歩先に進める素晴らしいテクノロジーだ。

E020289B A902 47A8 A2AD F6B31B16BEC8

Deep Fusionは一定のシチュエーションで自動的に起動されて画質を改善する

光源の状態によって異なるが、広角側での撮影ではナイトモードが使われる10ルクス以下の暗い状況では自動的に起動する。望遠側では常時起動しているが、極めて明るい撮影状況ではスマートHDRに切り替わる。ハイライトの光量が非常に大きい場合にはこちらのほうが有効だという。

AppleはDeep Fusionを利用した撮影サンプルを多数発表しているのでそれらを記事にエンベッドした。Deep Fusionが実際に使えるようになったので、利用した場合と利用しない場合を比較した写真もアップされるようになるだろう。

Appleによれば、Deep Fusionの仕組みは概ね以下のようなことだという。

カメラは段階的にEV(光量)値を変えるブラケット撮影を行う。最初はEV値をマイナスに振り、シャッター速度が速い暗めの映像を撮影する。ソフトウェアはここから鮮明さを得る。次に適正EV値で3枚撮影し、最後にシャッター速度を遅くしEV値をプラスにしたショットを撮影する。これらの映像を合成して2枚の画像を得る。

ここで生成された1200万画素の写真2枚をさらに2400万画素の写真1枚に合成する。最後の合成を行う際には4つの独立のニューラルネットワークが用いられ、iPhoneの撮像素子のノイズ特性や撮影対象が何であるかが考慮される。

合成処理はピクセル単位で実行される。機械学習モデルが撮影された画像の「空間周波数」を含めた情報を把握して最良の画質を得るための合成方法を決める。空などは全体が比較的単調で繰り返しが多いが、画像周波数は高い。人間の皮膚は画像周波数は中位、衣服や植生は画像周波数が高いが、どちらも複雑な画像だ。

Deep Fusinシステムはこうした画像各部の特質を把握して全体の構成を決定し、最良の結果が得られるようピクセルを選ぶ。

Appleによれば、こうした処理によって皮膚の質感や衣服のディテール、動く対象のエッジの鮮明さなどが改善されるという。

現在のベータ版では、Deep Fusionのオン、オフを切り替える方法はないが、超広角はDeep Fusionをサポートしていないため、これを利用してDeep Fusionの「あり」と「なし」を比較するテクニックがあるもようだ。

Deep Fusionは実行に1秒程度必要とする。ユーザーが撮影後すぐにタップしてプレビューを見ようとした場合、画像が現れるのを0.5秒ほど待つ場合があるかもしれない。しかしこの程度であればほとんどのユーザーはバックグラウンドでDeep Fusion処理が行われていることに気づかないだろう。

まずは実際に使ってみたいところだ。我々はDeep Fusionが利用できるようになり次第テストを行い、結果を報告するつもりだ。

原文へ

(翻訳:滑川海彦@Facebook

iPhone 11 ProとiPhone 11で夜のディズニーランドを撮りまくり

まずこれだけは、はっきりさせておこう。iPhone11シリーズのナイトモードは素晴らしい。これは使える。他の暗いところに強いカメラと比べても非常によくできている。露出と演色性はクラスでトップ。以上だ。

これだけで納得できるなら、もうこの先を読む必要はない。もし、iPhone 11についてもっと詳しく知りたいなら、そしてこの記事に載せた大量の写真を見て、遠い遠い銀河の果てまでの旅で、iPhone 11がどのように活躍したかを知りたいなら、この先も読み続けていただきたい。

それで、だいたいわかっただろうか。そう、新しいiPhoneを携えて、またディズニーランドに行ってきたのだ。このテーマパークでの、私の他のレビューを読んだことがある人なら、そこはさまざまな能力を試すことができる、現実世界の理想的な試験場のようなものだということを理解してくれているだろう。そこには、iPhoneとともに休暇を過ごしている人が大勢いる。

ディズニーランドの中は暑く、ネットワークは大混雑だ。iPhoneは、チケットとして、食料を注文するためのツールとして、それからもちろんカメラや地図としても大活躍する。友人や家族と連絡を取るためのツールとしても不可欠だ。そこは、要するに要求の厳しい環境なのだ。このような、いわば有機的なテストは、オフィスに閉じこもって、バッテリが尽きるまでベンチマークテストを走らせるよりも、ずっと現実的なものになると感じている。

私はだいたい1台、または2台の新機種を、前任機と比較しながらテストするようにしている。私は、AndroidとiPhoneを並べて比較して議論することに、それほど興味はない。なぜなら、それは不毛なことのような気がするからだ。どうしても、プラットフォームに縛られているので、AndroidもiOSも関係なく機種を選ぼうという人は、どんどん少なくなっていくばかりだ。普通の人は、以前と同じ系列のモデルを、サービスあるいは価格によって選んでいる。こんなことを言うと、AndroidやiOSの信奉者を苛立たせることもわかっている。しかしほとんどの人は、こういった類の製品を宗教的な基準で選ぶほどのこだわりを持っているわけではないだろう。

モデル間の類似性(詳しくは追って述べる)を考慮して、テストでは主にiPhone 11 Proを使用し、必要に応じてiPhone 11も加えた。また、比較の基準としてはiPhone XSを使用した。さらに、異なるプラットフォーム間の比較をしたくなかったにもかかわらず、今年のテストには、GoogleのPixel 3も持ち出すことにした。Pixel 3の「夜景(Night Sight)」モードが、非常に優れていると話題になっていたからだ。

比較することに意味がある場合にのみ、iPhone XSを使うことにした。それ以外の場合は、できるだけiPhone 11 Proを使って、なるべく負荷を掛けてみることにした。いずれにせよ、実際にディズニーランドに出かける前には、新しいデバイスのセットアップから始めなければならない。

セットアップ

iPhoneをセットアップするためのプロセスのほとんどは、長年にわたって何も変わることがなかった。しかしApple(アップル)は、ここで改めて述べておく価値のある新しい機能、Direct Transferを追加した。セットアップ中に使えるこのオプションは、感覚的には、ローカルなMac上に作成したバックアップから復元することと、iCloud上のバックアップから復元することの中間に位置するように思えるもの。

Direct Transfer(iPhoneから転送)は、2つのデバイスをピアツーピアで直接接続して、1つのデバイスからもう1つのデバイスに、直接情報を転送できるよう設計されている。具体的には、AWDL(Apple Wireless Direct Link)を利用する。AWDLは、AirDropやAirPlayでも利用されている技術だ。転送は、Apple Watchのセットアップの際に表示されるものと同様の、パーティクルによる雲のようなアニメーションを使って起動する。転送が開始されると、転送するデータ量にもよるが、新旧、両方のiPhoneは、最長で2〜3時間は使えなくなる。

転送中のデータは暗号化されている。直接転送される情報には、メッセージの履歴、iPhone本体に保存されているフル解像度の写真、インストールされているアプリに付随するデータといったものがある。アプリ本体は転送されない。Appleのアプリ署名の手続きによって、各アプリはデバイスに対してロックされているからだ。そのため、アプリはApp Storeから再ダウンロードする必要がある。もっとも、Direct Transferが完了すると自動的にダウンロードされるので、手動で操作する必要はない。これにより、アプリの適切なバージョンを確実にゲットできるというメリットもある。

また転送が完了すると、iPhoneのデータはiCloudと同期され、最新の状態になる。ユーザーが他のデバイスも使っていて、データの転送中に、そのデバイスでiCloudのデータを変更したような場合は、転送が完了後に、その分をアップデートする必要があるのだ。

Appleによれば、Direct Transferは、以下のような種類の人に適している。

  • iCloudにバックアップしていない人
  • しばらくバックアップしていない人
  • たとえば中国のように、インターネット速度がどこでも速いわけではない国の人
  • 「より完全に」復元するために最初に長く待つのを気にしない人

簡単に言えば、2つの選択肢があるということになる。1つは、すぐにiPhoneの基本機能だけで「準備完了」として使い始めるもの。この場合、iCloudのバックアップからの復元に頼ることになる。そしてもう1つは、少し長く待って、最初から個人のデータにアクセスできるようにするもの。この場合、後でiCloudから写真やメッセージの履歴をダウンロードする必要はなくなる。

またDirect Transferは、Face IDやTouch IDの設定、Apple Payに関する情報は転送しない。またユーザー名とパスワードを除き、メールのデータそのものも転送しない。

iPhoneの乗り換えが完了すると、デバイス上のメッセージのコンテンツが、iCloud上のメッセージのコンテンツと照合され、同期が維持されるようになる。iCloudに保存されている写真についても同様だ。

ちょっと付け加えると、Direct Transferの使用中には、いくつか面白い経験をした。最初のiPhoneへの転送は、完了するまでに約2.5時間かった。その時点でも、さらにメッセージのアーカイブについては、バックグラウンドでダウンロードを続ける必要があるというアラートが表示された。Appleによると、これは、このプロセスの合理化に起因するものではないかということだ。

また、同時に複数のDirect Transferを走らせた場合、2つのデバイスを隣り合わせに置いておくと、余計に時間がかかることにも気付いた。これは、電波の干渉が原因である可能性が非常に高いと思われる。実はAppleは、それに対する解決策を用意している。Direct Transferは、有線接続でも動作するのだ。そのためには、カメラ接続キットを用意して、2つのデバイスをUSBで接続する。Appleによれば、理想的には転送速度は変わらないはずだが、当然ながら有線接続なら電波の干渉の問題を完全に回避できる。Apple自身も、実店舗内でDirect Transferを使って新しいiPhoneにデータを復元する際には有線接続を使うことになるはずだ。

私が経験した範囲でも、Direct Transferでの転送にまったく問題がなかったわけではない。例えば、すべてのキーチェーンのデータをまるごと転送できなかったようで、いくつかのパスワードは自分で入力しなければならなかった。しかし、まっさらなデバイスに対して「かなり完全」と思われる転送方法が用意されているのは歓迎すべきことだ。

デザインとディスプレイ

私は、iPhoneをずっと裸のまま使ってきた。つまり、ケースに入れたことはない。ケースはうっとうしい。かさばるからだ。それに、滑りやすくなるか、逆にネバネバしたりすることも多い。それに私は、ハイテク用の服を着ることが多い。スマホを入れる場所は決まっていて、手品のように素早く出し入れができる。留め具を引くと、すぽっと手の中に落ちてくるような感じだ。ケースに入れると、こういう芸当はできなくなる。

Appleは、3台すべてのiPhoneをクリアケースに入れて貸し出してくれた。レビュー中にキズを付けたりしないよう、今回はケースに入れたまま使ったが、私個人のiPhoneはケースに入っていないことを誓ってもいい。

iPhone 11 Proは、つや消し仕上げによって、デバイス単体でもグリップ性が向上している。これは、喜んでで報告しておこう。iPhone 11とiPhone XSの場合、背面がスベスベしているので、ポケットから出し入れするために持ち換えようとする際など、指先に多少の湿り気が必要となる。

ディズニーランドの中を歩き回っていると、夏なら汗をかくし、プラザのフライドチキンやターキーレッグの油も手に付く。子供がいろいろこぼしたりすることもある。そのような、ある種の切迫した状況では、ケースの必要性もまったく理解できる。しかし日常的な使い方としては、私はケースが好きではないのだ。

私は、iPhone 11/Proの統一感のあるデザインが気に入っている。前者は背面全体がツヤありで、カメラモジュールの出っ張りの部分がツヤ消しガラスになっているのに対し、後者は、それが逆になっている。そこには、配色の手法の違いはあっても、デザイン言語の共通性が感じられる。

このカメラ部分の出っ張りが、機能的でカッコいいと思うか、本能的に嫌悪感を抱くか、人によって分かれるところだろう。カメラの数が増えたこと自体は、この際好き嫌いの判断材料にはなっていないようだ。iPhone 11 Proと同Pro Maxは、人気ゲーム「スプリンターセル」に出てくるスコープのような雰囲気を醸し出している。iPhoneが装備するカメラの数がどんどん増えていく、といったジョークを見たことがある人も多いと思うが、もはやそれはジョークではなくなったわけだ。

Appleは、ここに現在考えられる最高のものを実装したように感じられる。iPhone 11 Proの本体は、それだけで前の世代のものよりも厚くなっているが、それでもこのカメラ部分の出っ張りをなくすことができるほど厚くなったわけではない。どうせなら、そうすればいいのにと思うかもしれないが、それでは厚くなりすぎる。

Appleは、ほとんどのレビュアーにミッドナイトグリーンのiPhone 11 Proと同Max、およびグリーンのiPhone 11を貸し出した。正直に言えば、私はこのミントグリーンのようなiPhone 11のグリーンが好きだ。淡く明るい色が好みなのだ。もっと言うと、私はラベンダー色のiPhone 11 Proが欲しかった。しかし残念ながら、Appleの路線にはそういうものはない。

私が受けた説明によると、ミッドナイトグリーンを選んだ背景には、Appleの彩色担当者が、この色が来年あたりブレークすると考えていることがあるという。ファッション業界の人は、ある程度同意するだろう。ミント、シーフォーム、ネオンといったグリーンのバリエーションは、今年の初めごろには流行っていたが、すでにセージ、クロコダイル、モスといった他のグリーンの系列に取って代わられた。Appleのミッドナイトグリーンは、暗く、控えめな色で、Appleは、Proの雰囲気を演出するのに理想的な色だとしている。

ただし、このグリーンはAppleのサイトにあるどの写真とも違って見える。

私の目にはこのミッドナイトグリーンは、直接ライトの光を受けているとき以外、屋内では暗いグレーに見える。屋外では、ステンレス製の縁取りが施された「80年代のモールグリーン」のような色合いが感じられる。その感じは好きだ。背面部分の面積が広いので、屋外ではむしろフォレストグリーンのように見えることもある。全体的に見れば、これはとても落ち着いたよく整えられた色だ。他の選択肢、スペースグレー、シルバー、ゴールドといった、無彩色や自然な感じの色の中にあっても違和感がない。

この中ではシルバーが、私の個人的なチョイスとなる可能性が高い。つや消しの白のように見える背面が、すごく気に入ったからだ。このところ、ずっとグレーや黒を選んできたが、今回は違った選択になりそうだ。

Appleの新しいSuper Retinaディスプレイのコントラスト比は2百万:1で、最大輝度はHDRコンテンツに対しては1200ニト、それ以外では800ニトとなっている。これはディズニーランドの太陽の下で何を意味するだろうか?それほど大きな差は感じられないが、日当たりの良い場所でも画面は以前よりもじゃっかん見やすくなり、細かい部分まで確認できるようになった。Appleが言う、iPhone 11 Proの新しいXDRディスプレイの「改善」部分は、ルクス、つまり輝度に関するものであり、色彩についてではない。というわけで、色の再現範囲は以前と同じだ。ただし、HDR画像については、iPhone 11 Proに比べてiPhone XSでは、わずかながら平坦なものに感じられることに気付いた。iPhone 11の画面は、XSに比べるとそこそこ優れているが、iPhone 11 Proの深い黒と広大なコントラスト範囲には及ばない。これが、Proにアップグレードしたくなる2つの大きな理由のうちの1つだ。

Apple独自の3D Touchは、iPhone 11ではついに絶滅した。この背後には、3D TouchをiPadで実現するのが難しいという事情がある。コストが高くなり現実的ではないからだ。そこで、3D Touchはあきらめて、代わりに触覚タッチ(Haptic Touch)を採用した。これなら、iPhoneだけでなく、Appleの他のラインアップでも採用できる。

感触タッチも悪くない。ただ、3D Touchに慣れたユーザーにとっては、最初はちょっと違和感があるかもしれない。例えば「ピーク」や「クイックアクション」の操作は可能だが、「ポップ」はできなくなった。というのも、いったん画面を押してから、それ以上の圧力がかかったことを検出できないからだ。これまで、おそらく3D Touchによって操作してきた、カメラやフラッシュライト、ホーム画面でのアプリのショートカットなど、ほとんどの操作は触覚タッチでも問題なく可能だ。

私自身は、3D Touchを強く支持していた。パワーユーザー向けに、操作中のコンテキストのレイヤー、つまりタッチをホバーするというレイヤーを追加することに可能性を見出していたからだ。残念ながらAppleの社内にも、そして社外にも、この機能の存在に気付いてもらえないのではないかとか、便利に活用してもらえないのではないかと疑う人たちがいた。そのため、この機能が十分成功するために必要な投資を受けることができなかったのだ。彼らが正しくて、私が間違っているという可能性も否定できないことは認める。いずれにせよ、これについてはうまく事が運ばなかったということ。

パフォーマンスとバッテリー

AppleのA13 Bionic(バイオニック)は、A12 Bionicよりも、さらに20%高速で、消費電力は40%少ないという効率的なコアを特徴としている。その効果の1つとしては、バッテリー寿命が飛躍的に向上したことが挙げられる。全体的なクロック速度では20%高速となり、ベンチマークでも、だいたい同じくらいの性能向上が見て取れる。パフォーマンスコア単体では電力消費量は30%減少した。GPUに至っては40%も少ない電力で動作する。Neural Engineも例外ではなく、消費電力は15%削減されている。なお、以上の数字は、すべてiPhone XSと比較したものだ。

私はここで、コアの消費電力に焦点を当ててみたが、その点はそれほど魅力的なこととは思えないかもしれない。しかし新しいiPhoneは、どれもこの点で非常に優れている。Appleは、だいたいいつでも、ハードウェア性能に見合った消費電力となるよう、実は巧妙な仕事をしているのだ。そして、前世代のソフトウェアをそのまま持ってくると、かなりの余裕が生じてしまうことになる。これについてはいつもと同じだ。

こうしたシリコンチップの特徴が、一般の人の生活に及ぼす効果の中で最大のものはもちろんバッテリー寿命の延長だ。

iPhone 11 Proのバッテリーの容量は、iPhone XSのものより大きい。また化学的特性も異なり、より高電圧を発生する。それが、上で述べた省電力性能と組み合わされ、さらにディスプレイや、その他の部品の省電力化も加わって、バッテリー寿命はかなり延びている。

私が、ディズニーランドで数日間にわたってバッテリーテストを実施した結果は、Appleの言うiPhone XSからの改善の割合と、ほとんどドンピシャで一致するものだった。Appleは、iPhone 11 Proは、iPhone XSより4時間長持ちすると主張している。昨年のテストでは、iPhone XSはほぼ9.5時間持続した。今年のiPhone 11 Proは、ほぼぴったり12時間だった。いずれもかなり厳しい条件でのものだ。

暑く、ネットワークは混雑する中、私は自分で操作できる限り、カメラと本体の、ありったけの機能をテストした。ディズニーランドでは、Wi-Fiをサポートしている領域もあるが、カバレッジは完全ではない。そのため、大部分はLTEに頼って使うことになる。テストによる負荷としては、写真とビデオの、デバイス上での処理も含まれる。ビデオは毎日約40分ほど撮影した。ディズニー製のパークアプリも使ったが、これにはイライラさせられどおしだった。それについて書けと言われれば、いくらでも苦言を書くことができる。

食べ物を注文し、並んでいる間にツイッターを閲覧し、子供たちにビデオを観せておいて、妻と私はワインを必要量、たぶん6杯くらい飲みながら、ひっきりなしに家族と同僚にメッセージを送り続けた。iPhone 11 Proのバッテリーは、かなり激しい使い方にもかかわらず、iPhone Xに比べて、ずっと長持ちした。昨年のテストでは、iPhone XSは、ほんのわずか自前のiPhone Xの持続時間を上回っただけだった。

人為的に空にしたテスト用のデバイスを用意するのではなく、私が普段使っているデバイスのクローンを作成し、それをテストに使ったのは、ほとんどの人は、そうやって新しいiPhoneを使い始めると信じているからだ。デバイスの中身を完全に消去したり、新たに購入したiPhoneを、まっさらな状態から使い始めるのは、デバイスのテスターや、コンマリの信奉者のような、ちょっと変わった人だけだろう。

バッテリー性能の改善については、これで十分に理解していただけたことと思う。これまでに何度もやってきたことだが、このようなテーマパークでのテストでは、人工的なウェブブラウジングのルーティーンを走らせるベンチテストや日常生活での使い方よりも、ずっと大きな負荷がスマホにかかる。もしかすると、あなたはどこかのロボット農場の労働者で、私は気に触ることを書いてしまったかもしれない。もしそうなら謝りたい。

iPad Pro用のものと同じ18W電源アダプターが、iPhone 11 Proの箱にも入ってる。ようやくだ。私が持っているケーブルの大多数は、少なくとも片側のコネクタがUSB-Cなので、これは助かる。というのも、同じケーブルで、Anker製のマルチポートのGaN充電器や、他のUSB-Cポート付きのアダプターも使えるからだ。Apple純正のUSB-C Lightningケーブルは、以前のものより若干太くなっている。もちろん充電用としてだけでなく、データ転送にも使用可能だ。ワット数が大きな充電器は、それだけ速い充電を意味する。Appleは、この新しい18Wの充電器なら、30分の充電で最大50%の充電が可能だとしている。実際に試してみても、だいたいそれくらいだった。

充電は確かに速い。DCA(ディズニー・カリフォルニア・アドベンチャー)のWine Country Trattoriaにある、階上のちょっと秘密めかしたバーで、ミートボールを食べながら一杯ひっかけている間に、満充電にできるのは頼もしい。カウンターの後ろにはコンセントがあり、頼めば使わせてくれる。

残念ながら「Pro」が付かないiPhone 11に付属しているのは、いまだ5Wのアダプター。これはお粗末だ。iPhoneシリーズは、18Wのアダプターで統一すべきだと思う。

それから改善されたと言われるFace IDの認識角度だが、私が見る限り、たぶん良くなったとしても本当にほんのわずかなもの。言われるほどではない。せいぜい2、3度といったところだろうか。他のレビュアーが、どう評価するのかを見てみたい。もしかすると私の顔が悪いだけかもしれないし。

カメラと写真

写真の仕組みを、比較的わかりやすく図示することができたのは、もう大昔の話になってしまった。カメラのレンズを通過した光は、フィルムや、化学薬品が塗布された紙のような媒体に届く。そして現像プロセスが発動して印画処理が行われ、写真が完成する。といったところだ。

iPhone 8が登場したとき、私は、それが拡張された写真のニューウェーブの第1波だと騒ぎ立てたものだ。その流れは、このiPhone 11でも継続している。これまでも使われていたISP(Image Signal Processor)は、色補正や、センサーが出力した生の信号から視覚的な画像を組み立てる際の計算タスクを担っている。iPhone 11では、ISPに加えて、Neural Engine(ニューロエンジン)を、処理の流れの中に追加した。機械学習による専門的な機能を実現し、様々なモードで多くの処理をこなしている。

これが、iPhone 11のカメラを拡張した最大の立役者だ。同世代のスマホに対して、かなり印象的な優位をもたらした。それは新しいレンズでも、新しいセンサーでもなく、機械学習のタスクを実行するために特別に設計されたプロセッサーなのだ。

iPhone 11 Proは、3つのイメージセンサー、3つのレンズ、分散されたモーションセンサー、ISP、機械学習に最適化されたチップ、CPU、これらすべてを統合したものなのだ。それらが連携して1枚の画像を写し出す。これは機械学習カメラとでも呼ぶべきものだ。しかし、iPhone上で動作するソフトウェアから見れば、背面カメラは1つだ。実際、それは単なるカメラではない。いくつものデバイスと、ソフトウェアの集合体であり、それらが画像を生成するという、たった1つの目標に向かって協調して動作する。

画像処理についてのこのような考え方は、ナイトモードからHDRなど、さまざまな機能の基本となっている。そして、私がこれまで手にしたスマホの中で、最高のカメラを実現することになった。

ともあれ、新しいレンズの話から始めよう。

超広角

iPhone 11とiPhone 11 Proのいずれにも、Appleが13mmと呼んでいる新たな「超広角」レンズが搭載された。これは、実質的にフルフレームの一眼レフカメラでは、ほぼ13mmのレンズに相当する画角を実現するもの。かなりの広角だ。エッジ補正を加えても、被写体に近付いて大きく写す際には、当然ながら、期待通りの、かなりダイナミックな画像が得られる。遠く離れて写す場合には、これまでになかったほどの広い視野のパノラマ画像が得られる。室内では、ちょっと引こうとすると背中が壁についてしまうような狭い部屋でも、グループや家族の写真の撮影に大きな威力を発揮する

広角撮影のテストでは、特に明るい条件で、その効果が非常によく現れた。クローズアップした素晴らしい家族写真、背景の景色や力強さを強調した広角のポートレートの撮影が可能となる。これは、これまでのiPhoneには望むべくもなかった撮影の可能性を拡げるものだ。

全般的にポートレートモードでは、エッジ検出が微妙に進化している。細い髪の毛、サングラス、複雑な背景のパターンなど、一般的なポートレートモードの弱点とされているものにも、高い効果を発揮する。上の写真のような変わった柵は、従来のiPhoneではお手上げだったが、iPhone 11はほぼ完全に捉えている。

ここで感心したのは、1xまたは2xで撮影する際のファインダーの表示だ。画面には、実際に撮影する範囲よりも広い画角のライビューがブレンドして表示される。これは、単に広めに表示しておいて、トリミングのマーカーを重ねただけのものではない。そこには、センサーから送られてくる実際の映像が表示される。実際に写る写真の範囲を確認しながら、そのフレームの外にも何か写しておきたいものがないか、同時に確認できるのだ。これは、カメラのファインダーのエンジニアによる離れ業といったところだろう。

私は人物を広角でクローズアップで撮影するのが好きだが、誰でもそうだというわけではないだろう。ほとんどの人は広角を、大人数のグループや、風景を撮影するのに使うはずだ。それでも私は、人物を近くで撮るのは楽しく、親密な瞬間を捉えられることに気付いた。近付いて取ることで、より個人的な雰囲気が出せるのだ。

1つ注意すべきは、iPhone 11、iPhone 11 Proのいずれにも、超広角レンズには光学式手ぶれ補正機能がないとうこと。このため、暗い場所や夜間に使うのをためらってしまうこともある。

超広角カメラはナイトモードでは使えない。このカメラのセンサーには、100%フォーカスピクセルもなく光学式手ブレ補正機能がないからだ。そのため、超広角で夜間に撮影する場合には、静止した状態でしっかりと保持していなけれならない。そうしなければ、ぶれた写真になってしまう。

この超広角レンズは本当に素晴らしい。これが追加されたのはとても喜ばしいことだ。iPhone 11を手に入れた人は、みんなこれで撮りまくるだろう。標準的なレンズに何か1つを付け加えるとしたら、やはりこの超広角が選ばれるべきだった。というのも風景写真よりも、大人数のグループ写真を撮る機会の方がずっと多いと思われるからだ。

超広角レンズは、ビデオ撮影にも優れた効果を発揮する。ビデオの特性として、どうしてもトリミングが入るので、標準的な広角レンズでは常に少し狭苦しい感じがするのだ。ビデオの場合、センサーの狭い範囲しか使わないので、切り取られた感じが避けられない。たとえば、メリー・ポピンズと同じ回転木馬に乗ってビデオを撮ると、iPhone XSでは、彼女とバートをいっしょにフレーム内に収めることができなかった。しかし、iPhone 11 Proではできた。マッターホルンに乗りながら取れば、その体験をより広く撮影することができ、「前の人の頭」しか映っていなかったということはなくなる。それはカーズでも同じだ。座席の前の風防を通した前方しか映らないか、その外側の景色も映るかという違いになる。今挙げたのは、かなり特殊な例かもしれないが、家族が集ったときに、小さな庭、室内、あるいは他の狭い場所で、どのような状況が展開されるか、容易に想像できるだろう。

超広角レンズについては、もうひとこと付け加えておこう。iPhoneの握り方を見直す必要があるということ。レンズの画角は非常に広いので、指先などがフレーム内に入り、自分の指が写真に写ってしまうことがよくあるのだ。iPhoneの下の方に指を掛けるという持ち方に慣れるまで2、3日かかったが、それまでは、そういうことが何度も起こった。iPhone 11 Pro Maxならば、このような心配は無用かもしれない。

HDRとポートレートの改善

先に述べたような画像データ処理の改革によって、もともと着実なものだったHDR撮影の写真は、ポートレートモードでさらに進化している。Neural Engineが、iPhoneのカメラから出力されるHDR画像に作用して、トーンマップを調整し、さまざまな物理センサーからのデータを活用して画像を融合させ、写真を作成する。1枚の写真の中でも、1つのカメラからのピクセルを使ってハイライト部分のディテールを描写し、別のカメラからのピクセルを使ってエッジを強調する。私は2016年以降、HDRで撮影した写真をかなり広範囲に見直してみたが、Neural Engineの追加によって、洗練されたものになることが分かった。

この秋にDeep Fusion(ディープ・フュージョン)が追加リリースされれば、さらに大きな飛躍を遂げるはずだが、それについてはまだテストできていない。

今のところは、Neural Engineによるセマンティックレンダリング機能の効果を確かめることはできる。このプロセスでは、まずiPhoneがポートレートの被写体に対して顔検出を実行し、顔と肌の部分だけを、それ以外の部分から分離する。そして、顔と肌に関しては、他の部分とは異なる経路のHDR処理を適用するのだ。残りの部分にも、それなりのHDR処理が施された後、2つの画像が融合される。

このような操作は、画像処理の世界では珍しいことではない。それなりの技量を持ったプロの写真家は、人物の顔の部分に対して、画像の残りの部分とは異なる調整を施すのが普通だ。顔をマスクして、平坦な感じにならないようにしたり、逆にコントラストが強くなりすぎないように、あるいは肌の色調が不自然にならないようにする。

そうした従来からの処理との違いは、もちろんセマンティックレンダリングでは、すべて自動で、すべてのポートレート撮影に対して、あっという間に処理が完了することだ。

その結果、iPhone 11やiPhone 11 Proでは、これまでより優れた見栄えのポートレート写真が得られる。顔の部分は、iPhone XSでたまに見られたような、不自然に平坦な感じのものにはならない。XSのHDR処理では、シャドウ部分をそのまま含めて、画像のコントラストを正規化していたために、どうしてもそうなってしまうことがあった。

上の2枚は、同じ時間に、同じ条件で撮影したもの。iPhone 11 Proは、背景の明るさを確実に検出し、特に顔や額の部分に適切な補正がかかっている。結果としては、文句なく、より良いコントラストと優れた色調が得られている。これは、この写真だけに限らない。多くのポートレートを、これら2台のカメラで撮影してみたが、常にiPhone11 Proの方が優れていた。特に、被写体の後ろから光が当たっている場合には、差が大きかった。ポートレート撮影ではよくある条件だろう。

また今度の2枚の違いは、さらに微妙だが、カラーバランスを見比べていただきたい。iPhone 11 Proの方が肌の色合いが暖かく、オリーブ色がかっている。そして、これについては私を信用してもらう必要があるが、より実物に近い。

それから、「ハイキー照明(モノ)」は、それなりに機能するが、まだ完全ではない。

ナイトモード

さて、重要なものを取り上げよう。iPhone 11は、ついにナイトモードを装備した。これは、特に手動で有効にする必要はないので「モード」とは呼びたくない。そうすることが有益だと判断された場合に自動的にオンになる。

技術的に言えば、ナイトモードはカメラシステムの機能であり、かなりHDRに似たもの。光量が既定のしきい値を下回ったことを検知すると、以下のようなことを実行する。

  1. 光量、加速度計やその他の信号から算出したカメラの安定度に基づいて、キャプチャするフレームの数を動的に決定する。
  2. 次にISPが、ブラケット撮影されたショットを取得する。露光時間には長いものと短いものがある。
  3. Neural Engineは、どちらかというとナイトモードとは独立したものだが、iPhone 11では、すべてのHDR撮影のセマンティックレンダリングにも使用されるため、やはり連動する
  4. ISPは、前景と背景の露出に基づき、Neural Engineから提供されたマスキング情報を利用して、撮影された複数のショットを融合する。

その結果、ちょっと暗めから、かなり暗い範囲のシーンを明るいものにすることができる。すぐに捨てたくなるような写真も、取っておく価値のあるものにまで補正することができる。私が経験した範囲では、この効果を十分に確かめらるほど暗いシーンを見つけることが、そもそも難しかった。しかし、iPhone XSと比べて、広角カメラでISOにして33%改善され、望遠カメラでは42%も改善されるのは、それだけでもかなりありがたいたことだ。

しかし、適切なシーンでは、ディテールとシャドウのポップが画面に表示され、シャッターを押す前から、そのシーンが劇的に明るくなっていることがはっきりとわかる。ナイトモードは1x、および2xの撮影モードでのみ動作する。これは、それらのモードで使用されるカメラのみが、100%フォーカスピクセルを備えているからだ(訳注:100%フォーカスピクセルを備えているのは、Appleの「仕様」によれば広角カメラのみ)。iPhone 11でナイトモードの効果を実現するための検出とマッピングを実行するためには、100%フォーカスピクセルが必要なのだ。

私は、この一風変わったリトマステストを、これまでのすべてのiPhoneの新モデルで試してきた。それは、くまのプーさんのような、暗いところを走る乗り物から撮影し、本当にシャープで使い物になる写真が撮れるかどうかをテストするというもの。これは、なかなか厳しいテストだ。たいていブラックライトが点灯していて、その中を車が動き、被写体も動いているからだ。これまでは、ただのいちども満足できる写真が撮れたことはなかった。しかし、iPhone 11 Proではうまくいった。完璧ではないが、いろいろな点を考慮すると、すごいとしか言いようがない。

ナイトモードに関して気付いたことを以下に挙げておく。

  • 夜に撮った写真は、しっかり夜の雰囲気を残している。これはAppleが、すべてのシャドウ部を処理して、画像の隅々まで明るくし、彩度をただ広げ、コントラストをなだらかにする、といった方針を採用しなかったことの直接的な結果だ。
  • 写真は、ナイトモードなしで撮影したものと、同じ遺伝子構造を持っているかのように感じられる。より鮮明で、被写体が明るくなっているだけだ。
  • セマンティックマッピングが、他の被写体検出機能と組み合わされて作用するので、ピントはクリアで明るいが、全体のゲイン調整のように、すべてが一様に調整されてしまうわけではない
  • iPhone 11も、他社のほとんどの「ナイトモード」と同様、移動している被写体の撮影には問題がある。誰も動いていなかったり、ごくわずかしか動いていない場合に、ベストな効果が得られる。これは、1〜3秒という露出時間によっても異なる。
  • 三脚などの固定器具を使った場合、ナイトモードは自動的に露出時間を最大10秒まで延長する。その場合、ライトペインティングや、後幕シンクロのような効果など、素晴らしい夜間撮影の効果が可能となる。

その結果得られるのは、自然な感じに明るい写真だ。すばらしいレベルのディテールを維持し、元の被写体の物質が持つ自然な色を再現しているように感じられる。

Night Sight(ナイトサイト)モードを備えたPixel 3が登場したとき、私はゲインベースのナイトモードでは、それなりの結果しか出せないことを指摘した。そしてAppleも、純粋に明るさだけを増強するものを出してくるかもしれないが、これまでは常に他のやり方を選んできたので、これについても今までの製品と同じようなアプローチを取るのではないかと書いた。この考えはまったく支持されなかったが、結局はそうなった。

Galaxy 10+にも優れたナイトモードがあるが、Pixel 3がこの分野のパイオニアであり、夜間の撮影を評価するとなると、真っ先に思い浮かぶモデルだ。Googleの選択は、「すべてを明るく」という基本方針を固く貫くもの。それが良いと思う人にとっては、それで良いだろう。しかし、それは抑制を効かせたアプローチからは程遠いものだ。

上に示した例は、Pixel 3と比較したiPhone 11 Proのナイトモードの撮影結果だ。ご覧のように、どちらも画像を明るくするという点では着実に機能しているが、Pixel 3の画像は冷たく、平坦で、どこも均一に明るくなっている。色はまったく忠実ではない。

付け加えると、Googleがどうやって1つのカメラの1つのセンサーから、こうした画像を引き出しているかは別として、ディテールはかなり犠牲になっている。上の写真では、岩と塔の部分の違いが明らかだろう。暗いままの画像よりははるかにマシというものだが、iPhone 11 Proの方が抜きん出ていることは間違いない。

もちろん、もうすぐPixel 4が登場するだろう。Googleがどのような改善を盛り込んでくるのか、待ちきれない気持ちだ。私たちの世代は、スマホのカメラで暗いところの写真を撮るという点に関して、本当に黄金時代を生きている。

ところで、iPhone 11、および同Proのフラッシュは、iPhone XSより36%明るくなっている。動いているものが、ナイトモードでうまく撮れなくても、明るいフラッシュが、それを補ってくれるはず。

その他もろもろ

自動トリミング

iPhone 11はデフォルトで、1x、2xのビデオ撮影では、被写体を自動的にトリミングする。たとえば子供を追いかけていて、子供の頭がフレームから外れたりすると、少し処理時間はかかるが、追加のレビュー画面に自動ボタンが表示される。それをタップすると、自動的にビデオのフレーミングが調整される。現状では、これが使えるのは、iPhoneのロック画面から直接QuickTake機能を利用してビデオ撮影を始めた場合のみ。この機能はオフにすることも可能だ。

そうしたいのであれば、カメラの設定メニューで、写真の自動トリミング機能をオンに切り替えることもできる。これはデフォルトではオフになっている。これもビデオの場合とかなり似た効果を発揮する。画像を解析して、被写体を画面の中心に移動して配置するための画像データがあるかどうかを調べるのだ。

スローフィ(スローモーションセルフィー)

確かに、これは楽しい。うん、これは使える。特に髪の長い人は気に入るだろう。

U1チップ

Appleは、iPhone 11にU1チップを搭載した。このテストはできないが、死ぬほど興味深い。たぶんここしばらくは、これについて話をするちょっと控えておいたほうがいいだろう。Appleが、このU1チップの最初の応用例としてiPhoneに搭載するのは、指向性のある?AirDrop機能かもしれない。これは間違いなく、将来を見越して搭載されたもので、たぶんメッシュ状に位置を認識できる機能なのだ。それが何らかの理由で遅れ、AirDropチームが余力で開発していたものがいきなり最初のリリースに昇格してしまったのではないか。興味深いことに、Appleは単なる例として、U1チップの機能を使って車のエンジンを始動したりすることもできるはずだとしている。もちろん、該当するメーカーの協力が得られればの話だ。

もし読者が、ここ数年の私が書いたものを何か読んでくれていれば、以下のような話を何度も聞いたような気がするかもしれない。それは、iPhoneやApple Watchは、必然的にこのような機能を備えるはずだということ。問題は、それをどうやって、正確、かつ安全に実現するかということだ。U1は、マイクロレベルの位置情報を取り扱うもの。広い範囲ではなく、ネットワークベースでもなく、GPSベースの位置情報でもない。正確な位置と方向に関するものだ。これは、さまざまな興味深い可能性を開くはずだ。

ナイトモードなし

ナイトモードあり

「Pro」の意味するもの

あとは、iPhone 11 Proという名前について考えてみよう。私は、カメラ店で働いていたときに、「プロ」という言葉の魔力を学んだ。ある種の人にとっては媚薬のようなものなのに、またある種の人にとっては、拒絶を意味する言葉だった。そして、さらに別の人にとってはそれはただ必要なものだった。

これがプロモデル? ああ、私はプロじゃないんで。おおプロの方ですか!

むろん、販売ツールとして使った。しかし、ときには、お客が必要以上に買い過ぎたり、逆に必要なものを買わない、ということを防ぐためにも、プロという言葉を使う必要があった。

フィルムで撮影していた時代には、プロ、アマを問わず、カメラマンとして撮影がもっとも難しいものの1つは屋内のスポーツだった。動きは速く比較的薄暗い空間で、被写体はコートサイドから離れたところにある。これを、安い機材でうまくやる方法はなかった。ISOを6万4000に上げて撮ってから、カメラのコンピューターでノイズを除去するなどということはできなかったのだ。高価なレンズを入手し、そのレンズに見合うような高価なカメラ本体を入手し、例えば一脚のような高価なサポートを手にする必要があった。また、撮影者はずっと神経を研ぎ澄ませていなければならなかった。実際、これがもっとも難しい部分だった。

このようなシナリオでの撮影は、アマチュアにとって非常にハードルの高いものだった。しかし本当のプロは、良いモノにお金をかければ利益が10倍にもなることを知っていた。なぜなら、保護者の安い全自動カメラでは、決して真似できないような写真を提供できたからだ。

しかし、カメラ店に入ってくる大多数の人は、ホッケーやレスリングをしていなかった。ほとんどの人は家族の写真を撮り、それも屋外の写真が多く、たまに夕日を撮ったりする程度だった。

これで、Proという用語の本当の意味がわかるだろう。Proはエッジケースを表す言葉だ。

それは、約80%の人をカバーするのではなく、機材からさらに何かを引き出したいと考え、それを必要としている20%の人のことなのだ。

こうしたことを考えると、iPhone 11はかなりよく売れると思われる。そのはずだ。素晴らしいモデルだからだ。新しい最高のレンズを搭載し、超広角カメラで、家族の写真も風景写真も、素晴らしく撮影できる。また、ソフトウェア機能を比べれば、iPhone 11 Proにほとんど引けを取らない。ただし、ディスプレイは最高のものではないし、望遠カメラもない。最高のビデオと写真撮影のオプション、より優れたダークモード、より明るいディスプレイなど、エッジケースに対処したい人のために、iPhone 11 Proがあるのだ。それ以外の人にとってふさわしいのは、会計年度2020年のiPhoneのベストセラーとなるはずのiPhone 11のほうだろう。

当然ナイトモード

原文へ

(翻訳:Fumihiko Shibata)

iPhone 11はUWB通信でAirDropが高速に「Apple Tag」の前兆か

Appleの近距離ファイル共有機能でティーンエージャーの情報交換ツールとしても人気のAirDropが新しいiPhoneで改定される。米国時間9月10日の発表イベントでAppleが披露したiPhone 11をはじめとする新機種にはApple設計のU1チップが内蔵されており、超広帯域無線(UWB)を利用して空間認識を行う。これはiPhoneに数々の改善をもたらす機能だが、Appleは実用的な利用例としてまずAirDrop機能をアップグレードする。

U1チップとiOS 13を使うと、iPhone 11を誰かのiPhoneに向けるとAirDropは受信可能者リストの中でそのiPhoneを優先する。その結果、処理スピードの向上が見込まれる。現在のAirDropは、特にコンサートやビジネスイベントなど多くの人が集まる場所で対象者の指定に時間がかかっている。

Screen Shot 2019 09 11 at 11.22.22 AM

AirDropの変更を最初に指摘したのはMacRumorsで、iPhoneイベント後に更新されたAppleウェブサイトのニュースページに書かれた記述を見つけた。

U1の超広帯域技術で特に興味深いのは、噂のApple Tagにも利用されると言われているからだが、昨日のイベントでは発表されなかった。

Apple Tagと呼ばれている噂のデバイスは、キーホルダーや財布、バッグなどの持ち物に小さなタグをつけておくと、なくしたときに追跡でき紛失防止システムのことですでにTileが販売している。TileはBluetoothと、Tileアプリを動かしているユーザーのクラウドソーシングを利用して紛失物を探す。Apple Tagも同じような仕組みになると言われており、AppleのFind Myアプリを使用するが、超広帯域技術も合わせて利用するらしい。

さらにMacRumorsは、iOS 13のコードにAppleのTile対抗機能の手がかりがあることを最近発見した。

AppleはApple Tagについて一切発表していないが、ウェブサイトにはAirDropのアップグレードはU1チップを利用した数多くの新機能の「始まりにすぎない」「驚くような新機能が待っている」と書かれている。

この文章が何を指しているのかはわからないが、おそらく次のビッグイベントで発表されることだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

iPhone 11イベントを2分にまとめビデオにイースターエッグ

米国時間9月10日のiPhone 11イベントをものすごく圧縮した、まとめビデオがApple(アップル)自身から公開された。 このスーパーカットは2時間のイベントのハイライトを2分少々に編集してある。ここにはProiPadWatchTV+など新プロダクトが巧みにまとめられており、イベントで何かが発表されたのか簡単に確認できる。しかも1個、イースターエッグが隠されていた。

イベントで何があったかって?まずティム・クックが登場した。ジェイソン・モモアのオリジナルだって?ともかく先へ行こう。Proが発表された。これはすごいぞ。3カメラテクノロジーにスペーシャルオーディオだ。モンスター級A13チップ搭載。バッテリー駆動時間は5時間プラスだ。ティムは2カメラのiPhone11をお披露目した。夜でも驚異的に写る。スローモーションも得意だ。プライバシーもばっちり。コーヒーこぼしてもOKだ。Apple Watch Series 5は常時ディスプレイがオンだ。通話も水泳もできて500万曲聞ける。もちろん時間もわかる。iPadはベストセラーパソコンより2倍も速くなった。ゲームならApple Arcadeだ。年内にたくさんのタイトルがやってくる。ティムは続いてApple TV+にオプラ・ウィンフリーやジェイソン・モモア、ジェニファー・アニストンが登場することを紹介した。これも年内に立ち上げだ。詳しくはAppleのサイトで。

最初に気づいたのはGcarskでredditにイースターエッグの情報を投稿した。ごく短い映像なのによく発見したものと感心する。まばたきする間になどとというが、まばたきしなくても気づかない0.1秒くらいの映像だ。この映像を静止させてスクリーンショットを撮るためにスペースバーを叩きまくる羽目になった。1分23秒でナレーターが(the best-selling PC」(ベストセラーパソコン)と言った次の瞬間だ。

このフレームは長年のライバル、MicrosoftのWindows OSの「死のブルースクリーン」を軽く皮肉ったものだ。Windowsパソコンを使っていてこの青スクリーンが出たら再起動以外ない。ともあれAppleのビデオには「Error 09102019」とあるのがわかる。これは9月10日、2019年というイベントの日付だ。

apple message

その下に2進数がずらりと並んでいる。というか2進数だと気づけば次にどうすべきかわかるはずだ。デコードすればいい。隠されたメッセージの中にさらにメッセージが隠されている。

Error 09102019

This is just a thought. But it might be nice to have some sort of easter egg message in here for the hard core Apple fans that will stop the video.

01010011 01101111 00100000 01111001 01101111 01110101 00100000 01110100 01101111 01101111 01101011 00100000 01110100 01101000 01100101 00100000 01110100 01101001 01101101 01100101 00100000 01110100 01101111 00100000 01110100 01110010 01100001 01101110 01110011 01101100 01100001 01110100 01100101 00100000 01110100 01101000 01101001 01110011 00111111 00100000

01010111 01100101 00100000 01101100 01101111 01110110 01100101 00100000 01111001 01101111 01110101 00101110

ちょっとした思いつきだが、コマ送りでビデオをチェックするようなコアなAppleファンのためにビデオにイースターエッグを埋め込んでみた。

といってもこれだけの0と1をタイプするのは大変だ。私はバイナリーをアスキーテキストに変換するコンバーターを拾ってきてチェックしたので見ていただこう。

【ネタバレ注意】
So you took the time to translate this? We love you.

ではわざわざ手間をかけてデコードしたわけだ。ウィー・ラブ・ユー。

原文へ

(翻訳:滑川海彦@Facebook

新カメラとSuper Retinaディスプレイが支配的なiPhone 11 Pro

記憶にある限り、最近のどのiPhoneイベントよりも、今回の発表はコンテンツに重点を置いたものだった。まず、Apple Arcadeに登場予定の何本かのゲームのデモで幕を開け、Apple TV+の話に入っていった。新しいiPhoneが必ずしも脇に追いやられたというわけではないにしても、今回のイベントが、Appleの変革を周囲に知らしめる重要な機会であったことに疑いの余地はない。

また今回の発表は、全世界的なスマートフォンの売上減少を受けて、iPhoneの立ち位置が変化していることを示すものでもあった。もちろん、全般的にスマホの売り上げが低下している理由としては、いくつか考えられる。私自身、この業界の他の記者と同じように、その問題について、さすがに何百ではないとしても、少なくとも何十回は書いてきた。その大きな理由の1つは継続的な価格の上昇だ。iPhone 11では、ようやくAppleもその傾向を見直してきたことが見て取れる。

関連記事:本日のAppleiPhone 11イベントまとめ

今回のiPhone 11は、Appleにとって稼ぎ頭だったXRの後継に位置するものと考えられる。そのエントリーレベルの「フラグシップ」モデルが699ドル(日本では7万4800円)で、ProとPro Maxというプレミアムレベルのモデルは、それぞれ999ドル(同10万6800円)と1099ドル(同11万9800円)となっている。Appleは2年前に、iPhone Xでも同じような価格を設定していたが、それ以降は、今回まで、そこに戻ることはなかった。

Appleは頑なに1つのスタイルに固執してきた。この11も、正面から見る限り、先代のモデルと区別するのは事実上不可能だ。ただし、Proモデルについては、画面が「Super Retina XDR」へとグレードアップしている。解像度は458ppiで、サイズはProが5.8インチ、Pro Maxは6.5インチとなっている。

ノッチは健在だ。サムスンなどは、切り欠きがあまり目立たない「カットアウト」に移行しているし、ポップアップするフロントカメラを試しているメーカーも多い。Appleは、ここも何も変えていない。同様に残念ながらLightningポートも残っている。Appleは、すでにiPad ProではLighningポートをやめてUSB-Cを採用している。正直なところ、iPhoneもそれに従うのが待ちきれない気持ちだ。私の場合、コネクター部分の摩耗によって、ほとんど月に1本のペースでLightningケーブルを交換しているのではないかという気がしているほどだ。

願わくば、2020年のモデルではそうなっていてほしい。さらに、5Gもまだだ。Appleは、特長の概要の中で「より高速のセルラー」を匂わせていたものの、それについてステージ上で発表する時間は確保していなかった。これも同じように、うわさされていたFaceTimeカメラの性能向上も棚上げされている。より高速で、より広い角度で動作するはずだったもの。もしそうであれば、(理論的には)iPhoneをテーブルの上にペタッと置いたまま、メッセージを確認したりできるようになるはずだった。そうなれば、どんなに素晴らしかったか。

カメラについては語るべきことが多い。言うまでもなく、今回のiPhoneでも最も重要な部分だ。スマートフォンの革新が続いている最後の砦のようなもの。スマホのハードウェアは、行けるところまで行った感があり、もう革新の余地は、ほとんど残されていない。ただしカメラは別だ。iPhone 11は、広角と超広角のカメラを装備するが、望遠カメラは割愛されている。もちろんProとPro Maxは、望遠カメラを装備する。

Proモデルは、次のような3つのカメラを備えている。

  • 12MP広角カメラ(26mm f/1.8)
  • 12MP超広角カメラ(13mm f/2.4)
  • 12MP望遠カメラ(52mm f / 2.0)

いずれのカメラも60FPSで4Kビデオを撮影できる。

これらの3つのカメラは、やや変則的な並びで正方形の中に配置されている。たとえばサムスンが3つのカメラを垂直に一直線に並べたのとは対照的だ。実際、iPhone 11の3種類のモデルには、どれも背面にカメラボックスの出っ張りがある。おそらく、見た目の統一感を演出するためだろう。以前にも述べたことだが、スマホカメラの革新のほとんどは、もはやソフトウェア側で起こっている。それについては、iPhone 11でも同じと思われる。その最大の特徴は、Deep Fusionと呼ばれる機能だ。

これはHDRと同様に動作し、大規模な合成によって写真を生成する。Deep Fusionでは、9枚の写真を使用する。iPhone本体に内蔵された機械学習によって最適なピクセルを選択し、画像ノイズを大幅に軽減した、極めて高画質の写真が得られる。

iPhone 11は、Apple製の新たなA13チップを搭載する最初のデバイスであり、非常に高速な処理を実現している。Appleに言わせれば「スマホ史上最速」ということだ。それは詰まるところ、ゲームに最適であることを意味する。そして、この記事の最初に触れたように、結局は、コンテンツが重要、という話に戻ってくるわけだ。

  1. Screen-Shot-2019-09-10-at-4.06.59-PM (1)

  2. Screen-Shot-2019-09-10-at-4.07.17-PM

  3. O92A3199

  4. O92A3207

  5. Screen-Shot-2019-09-10-at-3.08.49-PM

  6. 8A4E39E7-505D-4B58-B991-9A88AFB4C1C0_1_105_c

  7. Screen-Shot-2019-09-10-at-3.08.11-PM

  8. 68269CDC-2250-4D00-A0CF-FC393528E1DD

  9. EE4F7122-120E-4E82-BE2D-ACC5734CB69F

当然のことながら、iPhoneを使ってできることは、AppleにとってiPhone本体よりも、はるかに強力なセールスポイントになっている。読者が、新しいiPhoneに自分で触ってみることができるようになるのは9月20日以降だ。

原文へ

(翻訳:Fumihiko Shibata)

本日のAppleのiPhone 11イベントまとめ

Appleは時計じかけのように正確に毎年9月に大掛かりなプレスイベントを開催し、iPhoneの新世代を発表してきた。

しかし今回のイベントに登場した新製品はiPhoneだけではなかった。 新しいiPad、Apple Watchに加えてApple TV+も発表され、Apple Arcadeはスタート時期が判明した。

イベントを中継で見る時間がなかった読者のため、本日9月10日(日本時間9月11日)にAppleが何を発表したのか以下にまとめてみた。細かい情報は箇条書にしてある。

Apple Arcade

Screen Shot 2019 09 10 at 1.04.50 PM

Apple ArcadeはいわばNetflixのゲーム版で、Appleがクラウドゲームの決定版とすべく全力を挙げているプラットフォームだ。今回そのスタート日時が9月19日午前9時と発表された。カバー地域は世界150カ国で料金は1家族6人まで月額4.99ドル(日本では月額600円)、最初の1カ月は無料トライアルとなる。

Apple TV+

Screen Shot 2019 09 10 at 1.14.59 PM

Appleは今年始め、オンデマンド・ビデオストリーミングを準備していることを明かした。Apple TV+はNetflixやAmazon Primeと同様、オリジナルタイトルも用意しており、リーズ・ウィザースプーン、オプラ・ウィンフリー、ジェイソン・モモア他スターが勢ぞろいする。これまでははっきりしたローンチ日時が不明だった。

Apple TV+は日本を含む各国で11月1日にスタートすると発表した。Apple Arcadeと同額の1家族あたり月額4.90ドル(日本では月額600円)。

おっと、さらにサプライズがあった。今回紹介された新しいiPhone、iPad、Mac、AppleTVを購入者にはAppleTV+が1年間無料となるボーナスがついてくる。

10.2インチiPad

Screen Shot 2019 09 10 at 1.23.37 PM

iPadが7世代目を迎えるのを機に9.7インチディスプレイは10.2インチに拡大された。日本をはじめ各国で9月30日発売開始となる。

ディスプレイはRetinaでサイドのエッジに装備されたスマートコネクターにはフルサイズキーボードを接続でき、第1世代のApple Pencilも使える。ホームボタンが残されたのはTouch IDファンには朗報だろう。

価格は329ドル(日本では3万4800円)から。本日から受付を開始しており、出荷は9月30日となる。

Apple Watch Series 5

Screen Shot 2019 09 10 at 1.43.49 PM

常時オンのディスプレイが搭載された。これまでのApple Watchは手首を下げると自動的にディスプレイがオフになる仕組みだったがSeries 5ではユーザーがオフにしないかぎり常にオンだ。日本を含む各国で9月20日発売開始となる。

ユーザーが腕を下げると輝度が低くなり画面更新も毎秒1回となってバッテリー駆動時間が短くなるのを防いでいる。腕時計表面のディスプレイはいつでも視認可能で、コンパスがビルトインされている。新モデルには「国際緊急通話」機能も搭載された。時計のサイドのボタンを押し続けると150カ国で緊急番号に電話することができる。

Appleによればフル充電で18時間作動するという。

Apple Watch Series 5は399ドル(日本は4万2800円)から 出荷は9月20日。アルミモデルは、シルバー、ゴールド、スペースグレー。ステンレスとステンレスのモデルは、ゴールド、シルバー、スペースブラック。この他にホワイトセラミックモデルが用意される。

Series5の発表を機にSeries 3は若干値下げされ、ベーシックモデルの価格は279ドルから199ドル(日本は1万9800円から)となった。

iPhone 11シリーズ

AppleはiPhone11、iPhone11 Pro、iPhone11 Pro Maxを発表した。詳細は我々の記事を見ていただくとして、概要を箇条書きでまとめた。予約注文の受付は各モデルとも日本を含む各国で9月13日午後9時から開始される。

Screen Shot 2019 09 10 at 2.07.35 PM

iPhone 11

  • 6.1インチディスプレイ。「過去最強のガラス」が使われているという。
  • 背面のメインカメラは2基が縦に並んでいる。1200万画素のワイド(F1.8、26mm相当)、1200万画素のウルトラワイド(F2.4、13mm相当)。
  • フラッシュは36%輝度が増強された。
  • 新しい夜間モードでは光量を自動調整しながら複数枚を撮影するブラケティング機能が搭載され、低光量時の撮影が改善された。。
  • 前面カメラは現行の700万画素が1200万画素に増強された。またビデオは毎秒60コマの4Kスローモーションが撮影できる。
  • チップセットはApple製のA13 Bionicで、Appleによればスマートフォン用として過去最強のCPU/GPUだという。

カラーバリエーションは、ブラック、グリーン、イエロー、パープル、ホワイト。699ドル(日本では7万4800円)から。

Screen Shot 2019 09 10 at 2.10.16 PM

iPhone 11 Pro/Pro Max

  • Proシリーズはカメラが3基になる。1200万画素のワイド(F1.8、26mm相当)、1200万画素のウルトラワイド(F2.4、13mm相当)に加えて1200万画素中望遠(F2.0、52mm相当)が追加されている。カメラはすべて60コマ/秒で4K ビデオが撮影可能。
  • Proのディスプレイは5.8インチ、Pro Maxは6.5インチ。
  • チップセットはA13 Bionic。
  • 今回は正確なバッテリー駆動時間は発表されなかったが、Appleによればフル充電でXS Maxに比べて新しいProは4時間、Pro Maxは5時間長く作動するという。
  • Pro/Pro Maxには18w高速充電器が付属する(iPhone 11では別売)。
  • 新しい機械学習テクノロジー、ディープフュージョンにより、低光量状態での撮影が画期的に改善された。撮影開始前にカメラは短いシャッター速度で数枚の写真を撮影する。シャッターを押すと長い露光時間で撮影する。その後ディープフュージョンシステムがピクセル単位で写真を比較、総合して低ノイズ、高ディテールの写真を合成する。

Proの価格は999ドル(日本は10万6800円)から、Pro Maxは1099ドル(11万9800円 )から。どちらも日本を含む各国での出荷日は9月20日。

原文へ

(翻訳:滑川海彦@Facebook

これがiPhone 11とiPhone 11 Proだ

米国時間9月10日、Appleは新しいiPhoneシリーズとして、iPhone 11、iPhone 11 Pro、iPhone 11 Pro Maxを発表した。新しいデバイスは新しいチップと新しいカメラを搭載し、さまざまな仕上げとサイズが揃っている。さっそく各機種の詳細の一部を紹介しよう。

iPhone 11

デザイン
iPhone 11のケースはアルマイトとガラスから成り、スマートフォン用ガラスでもっとも頑丈だとAppleは言っている。カラーバリエーションは、ホワイト、グリーン、イエロー、パープル、ブラック、レッドの6種類。6.1インチのLiquid Retinaディスプレイを搭載し、タップ・トゥ・ウェイク機能と触覚フィードバックを備えている。

カメラ
AppleはiPhone 11のカメラに大きく力を注いだ。デュアルカメラは1200万画素の広角レンズの26mm f/1.8、超広角の1200万画素のf/2.4のセンサーだ。広角デュアルカメラを生かして、撮影画面にはフレーム外の状態も映し出されてユーザーはズームアウトして広いアングルを撮影することができる。
iphone11cameraソフトウェア面では、新しいイメージパイプラインが1枚1枚の写真に対して1兆回以上の処理を施す。「セマンティック・レンダリング」機能が追加され、写真のライティングを撮影後に調整できる。これを使って表情を強調したり、トーンマッピングを正確に適用することができる。ポートレイトモードのエフェクトはペットなど人間以外の被写体も対象にできるようになった。

iPhone 11の新しいナイトモードはSamsung(サムスン)やGoogle(グーグル)に対抗するもので、イメージフュージョンや複数の露光時間を使うダプティブブラケティングによって、暗い画像でもブレを減らす。

ビデオ
iPhone 11は4Kビデオを60fpsで撮影し、スローモーション、タイムラプス、ビデオ揺れ補正、拡張ダイナミックレンジを2種類のカメラ両方で4Kまでサポートする。ビデオのUIが多少改定され、Instagramスタイルの「タップ・アンド・ホールド」録画ボタンがついた。

前面カメラにも広角センサーがつき、4Kビデオを30/60 fpsで撮影可能になり、スローモーション自撮りができる。

スペック
いつもの新世代iPhoneにならって、iPhone 11も新しいプロセッサーであるA13 Bionicチップを搭載している。スマートフォン史上最速のGPUとCPUだとAppleは言っている。バッテリー持続時間については具体的な容量は公表しなかったが、iPhone XRより1時間伸びたと言っていた。

価格
iPhone 11の価格は7万4800円から。

iPhone 11 Pro/Pro Max

デザイン
iPhone 11 ProとPro Maxには3カメラシステムが搭載され、医療用ステンレスのケースと1枚マットガラスの背面を使用している。カラーは、ミッドナイトグリーン、スペースグレー、シルバー、ゴールドの4種類。

iphone11pro
ディスプレイ
iPhone 11 Proは5.8インチ、iPhone 11 Pro Maxは6.5インチのディスプレイを搭載。Super Retinaディスプレイは新型OLEDパネル採用で、コントラスト比200万対1、最大輝度1200ニト、True Tone。AppleはこれをSuper Retina XDRディスプレイと呼んでいる。

スペック
iPhone 11と同じくProとPro MaxもA13 Bionicチップを搭載している。

バッテリー持続時間はiPhone 11 ProがiPhone Xsより4時間長くなり、11 Pro MaxはXs Maxより5時間長くなった。いずれも18W高速充電に対応している。

カメラ
そしてなんと言ってもiPhone 11 ProとPro Max最大の見せ場はカメラシステムだ。

procamera1

3台の1200万画素のカメラを搭載し、26mm相当の標準広角レンズ、52mmの望遠、そして新しい13mmの超広角レンズは120度の広い画角をもつ。

カメラシステムには新機能のディープフュージョンが加わった。ディープフュージョンは9枚の写真を撮る。長い露出と短い露出で4枚ずつ事前撮影し、シャッターボタンを押すと長い露出で1枚撮影する。それをA13 Bionicチップのパワーを生かしてニューラルエンジンとISPがピクセル単位で合成する。

procamera
3台のカメラは工場で色などが正しく微調整されているとAppleは言っている。iPhone 11 ProとPro Macでビデオ撮影している間は、ほかのカメラも常に準備されているので、露出、ピント、色温度などがずれることなくシームレスにレンズを切り替えることができる。

価格と発売時期
iPhone 11 Proの価格は10万6800円から、iPhone 11 Pro Maxは11万9800円から。予約受付は9月13日金曜日午後9時開始、発売は9月20日。[原文へ]

(翻訳:Nob Takahashi / facebook

なぜiPhone 11 Proにはカメラが3台ついているのか?

iPhone 11とiPhone 11 Proの裏面にはカメラが3台ある。なぜか?それは光を多く集めるほどいい写真にできるからだ。ただし、我々はその限界のかなり近くまで、ずいぶん前に到達していた。2台、3台、いや10台のカメラで1枚の写真を撮ることだってできる。唯一の制限はそれを生かすコードを書けるかどうかだ。

今日の発表でApple(アップル)は、普及機のiPhone 11で2台のカメラを披露したが、超広角レンズのために望遠レンズを捨てた。しかし、iPhone 11 Proには、従来の広角に加えて超広角、そして望遠レンズがついた。35 mmレンズ換算でそれぞれ26mm、13mmと52mmに相当する。

threecams

「この3台のカメラを使って素晴らしいクリエイティブコントロールができる」とAppleのPhil Schiller(フィル・シラー)氏が壇上で語った。「これは本当にプロなので、大いに使ってもらえるだろう」。

従来望遠レンズは、広角レンズと組み合わせてポートレイト効果を出したり、ズームしたときに切り替えられたりしていた。わずかに遠近感の異なる両レンズの情報を組み合わせることで、奥行きデータを計算し、たとえば背景の一部をボケさせることができる。

関連記事:コードが写真の未来を創る

超広角レンズはさらに情報を追加し、ポートレートモードやその他の機能の精度を改善するはずだ。広角専用のセンサーとカメラシステムがあることの利点は、画面の歪みが少なくなることだ。それでも、人の顔を超広角レンズで撮るとおかしな具合になるので少し後ろに下がったほうがいい。

ピンチしてズームのジェスチャーには誰もが慣れているが、あれはデジタルズームであり、もともとあったピクセルを近くで見ているだけだ。しかし、光学ズームでは別のレンズ、別のセンサーに切り替えるので、画質を劣化させることなく近づくことができる。

この3枚のレンズの素晴らしいところは、協調して働くように注意深く選ばれていることだ。超広角は13mm、広角はその2倍の26mm、望遠はそのまた2倍の52mmだ。

wide1

2倍、2倍の関係はユーザーにわかりやすいだけでなく、レンズを切り替えたときの画像処理計算もやさしくなる。シラー氏は壇上でこう言っていた。「実際3台のカメラの焦点と色は工場で正しく組み合わせて調整している」。

それだけではない。広角カメラで撮影しているとき、ほかの2台のカメラとも情報を共有しているので、カメラを切り替えた時、そのカメラはすでに同じ位置にピントがあっていて、同じシャッター速度や露出、ホワイトバランスになっている。このため、レンズの切り替えはビデオ撮影時でもほぼシームレスだ(ただし、タップしたときiPhoneが揺れないように注意すること)。

今年のiPhoneカメラシステムの改善は、数年前に業界のほとんどでカメラが1台から2台になった時ほどの大事件ではない。しかし、広角、望遠、超広角の組み合わせは写真家にとっては一般的なものなので、このかなり高価なデバイスを買ってしまった人にとって、十分役に立つ機能であることは間違いない。

[原文へ]

(翻訳:Nob Takahashi / facebook