Google(グーグル)の純正スマホのシェアは、世界規模で見れば、これまでずっと取るに足らないものに過ぎなかった。Pixelシリーズは、米国および西ヨーロッパではトップ5に割り込んだものの、市場全体で見れば、シェアは1%に満たない。もちろんGoogleは、スマホのハードウェアメーカーとしては後発だ。だいぶ長いこと、Samsung(サムスン)やHuawei(ファーウェイ)といった企業が、何百万台ものAndroidデバイスを出荷するのを、横目で眺めていただけだった。
今年の初めにGoogleは、減速しつつあるスマホ市場のさらなる縮小を認識していることを認めた。もちろん、それは業界全体の問題だ。Alphabet(アルファベット)の第1四半期の決算報告で、CEOのサンダー・ピチャイ(Sundar Pichai)氏は、ハードウェアの売上が落ち込んでいるのは「高級スマホ業界の苦悩」を反映したものだと説明していた。
Google I/Oで発表されたPixel 3aは、比較的低価格帯のデバイスを導入することで、期待はずれが続いていた販売台数を増大させる試みだった。販売価格は399ドル(日本では4万8600円)からに設定され、狙い通りの売れ行きを示した。より多くのキャリアパートナーも獲得でき、Pixelシリーズの前年比の売上を実質的に2倍にすることに成功した。これらを考え合わせると、新しいPixelと、その数字に「a」を付けたモデルを、半年ごとに出していくという戦略が、今後も継続するのはほぼ確実と見ていいだろう。
もちろん、ミッドレンジのモデルを追加したことで、フラグシップのモデルを差別化するためのメーカーとしての負担は増えた。Pixel 4の799ドル(日本では8万9980円)から、という価格は、現在のフラグシップとしては、けっして高い方ではない。しかしGoogleとしては、両者の間の400ドル(日本では4万1380円)という価格差を正当化するのに十分な機能の違いを明示する必要があった。特に同社は、フラグシップモデルに導入したソフトウェアのアップグレードを、安価なモデルにも順次適用するという方針を明らかにしているのだから、なおさらだ。
事前の噂も多く、頻繁に情報がリークされてきたPixel 4には、当然ながらこれまでとは一線を画する特徴が盛り込まれている。Googleは、Pixel 4にも同XLにも、ついにデュアルカメラ構成を採用してきた。またディスプレイのリフレッシュレートは、最大90Hzとなり、顔認識によるロック解除、レーダーチップを利用したジェスチャー認識、その他ソフトウェアによって実現可能なさまざまな機能を実現している。
実のところ、これまでのPixelは、スマホ業界では常にちょっと特殊な位置を占めてきた。Googleが色々なハードウェアメーカーと提携した作っていたNexusの後継シリーズとして、Pixelは、Androidデバイスの最も魅力的な機能のショーケースと見なすことができる。ただし、OSの最新バージョンを優先的に搭載して、他をリードするという役割は過去のものとなった。すでに、OnePlusのデバイスにAndroid 10が搭載されているという事実は、手頃な価格で高品質なデバイスを実現している他のメーカーとGoogleが、正面からやり合う状況となっていることを意味する。
Pixelシリーズは、「a」の付くモデルと付かないモデルを区別するために、デザインでも差別化を図っている。これまでのGoogleのスマホは、SamsungやApple(アップル)の製品とは異なり、それほどデザインに凝ったものではなかった。それは今回のモデルでもそうなのだが、新たに採用した両面がガラス(両面ともGorilla Glass 5)で金属製のバンドを挟むような構成は、じゃっかんのプレミアム感を醸し出している。また4は、3よりも実際にやや重く、厚みもあるため、デバイスにある種の貫禄も感じられるようになった。
現状では3色が用意されている。黒、白、そして「Oh So Orange」と呼ばれるポップなオレンジだ。オレンジは「限定エディション」となっていて、数量が限られている。色の付いた電源ボタンは、相変わらず優れた操作感で、そのままでは地味な黒や白のモデルにもアクセントを与えている。ディスプレイは、素晴らしい90HzのOLEDにアップグレードされた。Googleは、相変わらずノッチやパンチホールは取り入れていない。そのため、それなりの幅のベゼルが上端と下端にある。
Pixel 4では、画面サイズも同3の5.5インチから5.7インチに増加している。解像度は443ppiから444ppiへと、わずか1ppiだけ増加した。一方、Pixel 4 XLの画面サイズは6.3インチで、同3 XLと変わっていない。ただし、解像度は523ppiから537ppiに増加し、より繊細な表示が可能となっている。Pixel 3に特徴的だったデュアルフロントカメラは、Pixel 4では廃止された。代わりに同3aのものと同様の、シングルの8メガピクセルカメラを装備する。
ストレージについては変更されておらず、Pixel 4および同XLの両方とも、64GBまたはと128GBが選択できる。RAMは、同3の4GBから6GBに増強された。プロセッサもアップグレードされ、Qualcomm製のSnapdragon 845から、最新かつ最高のバージョン、同855になった。面白いことに、バッテリー容量はPixel 4ではダウングレードしているのに対し、同XLでは増加している。
Pixel 3および同XLでは、それぞれ2915、3430mAhだったものが、同4および同4 XLでは、それぞれ2800、3700mAhとなっているのだ。バッテリーの持続時間は、Android 10から導入された新しいバッテリー節約機能によって、多少は延長されるはずだが、それでもPixel 4のバッテリー容量が減っているのには納得できないという人もいるだろう。
カメラは、素晴らしいの一言に尽きる。実を言えば、先週このスマホを手に入れてから、私はそれを使って、TechCrunchの記事のための写真を撮影してきた。Google Nest Miniのレビュー、Amazon Echoのレビュー、それにVirgin Galacticの宇宙服のニュースの写真は、すべてPixel 4で撮影したもの。もちろん、このスマホのカメラは、まだ「デジイチを家に置いて行こう」と提案できるレベルのものではないが、必ずしも理想的ではない状況で、専用の照明を用意したりせず、設定をあれこれいじったりすることもなく、間違いなく素晴らしい写真を撮ることができる。
これが、Googleの哲学において、小さいながら重要な変化を反映したものであるのは間違いない。画像処理に関して、もっとも重要なのは、ソフトウェアによるソリューションだということを、Googleは何世代ものモデルを通して主張してきた。しかし結局は、苦渋の決断によって2つめのカメラを採用するに至った。前に進むために、過去の姿勢を破棄しなければならないことは、珍しいことではない。以前にもGoogleは、ヘッドフォンジャックを装備することに固執しているように見えながら、その翌年にはあっさりと廃止したのを憶えているだろう。
セカンドカメラを追加するのも、小さな変化ではなかった。当然、それに気付かない人はいないだろう。Googleは、デバイスの背面に、見慣れた正方形の枠を配置する方法を採用した。これは、現在のスマホのトレンドの1つのようだ。正方形の中には、2つのレンズが水平に並び、上にセンサー、下にフラッシュが配置されている。真面目な話、集合体恐怖症の人でも、これならすぐに慣れるので大丈夫だろう。製品の発表会では、説明者が半分冗談で、「フラッシュは懐中電灯として使っていただきたいと考えています」と言っていた。
もちろん、それはPixelの低照度での定評ある撮影能力を踏まえた上での発言だ。ほとんどのスマホユーザーが、むやみにフラッシュを使うことで、写真をダメなものにしてしまう状況を考えると、これは歓迎すべき機能だ。低照度の撮影能力がさらに向上すれば、フラッシュを使いたい衝動に駆られる人も、やがてはいなくなるかもしれないが、そこまで行くのはなかなか難しいような気もする。身についた習慣は断ち切り難いのだ。
Pixel 4と同4 XLのカメラ構成は同じ。前任機から引き継いだ12.2Mピクセルの広角レンズ(ただしF値は異なる)カメラに加えて、16Mピクセルの望遠カメラを装備した。こうした構成について、私はすでにこれまでに、ある種の感慨を表現してきた。もちろん、2台のカメラという構成自体が、特筆に値するからではない。なにしろ、周囲を見渡せば、すでに、3台、4台、さらには5台のカメラを備えたフラッグシップモデルがごろごろしている世界なのだ。その感慨とは、これらの新モデルに至るまで、数世代に渡ってGoogleが築き上げてきた基盤についてのものだ。
つまり、こういうことだ。まず、Googleがソフトウェアと機械学習によって、シングルカメラという構成で成し遂げたことに注目しよう。そこに、2つ目のカメラとして、望遠を追加した。これまでも言われてきたとおり、「超解像ズーム」機能は非常に印象的なものだ。とはいえ、その処理によって画像を劣化させることなく、さらにシャープなピントの写真が撮れるようにしたいのなら、光学ズームを採用するしかないだろう。
Pixel 4のカメラは、このクラスで最高のもの、という強い意見があるのもうなずける。写真の品質は、それ自体が物語る。すでに述べたTechCrunchの記事のショットは、手動の調整や後処理を、ほぼまったく加えていないもの。Googleは、デュアル露出コントロールのような、画面上での調整機能を新たに実現している。これにより、全体の明るさと、シャドウ部の明るさを、それぞれその場で手動で調整できる。しかし、正直に言って、スマホのカメラをテストする最良の方法は、ほとんどのユーザーがそうしているように、ただ被写体に向けてシャッターを押すだけだと、私も信じている。
-
00100lrPORTRAIT_00100_BURST20191016074022880_COVER
-
00100lrPORTRAIT_00100_BURST20191016074154034_COVER
-
00100trPORTRAIT_00100_BURST20191016074350735_COVER
-
00100trPORTRAIT_00100_BURST20191016105119747_COVER-2
-
00100trPORTRAIT_00100_BURST20191017165100721_COVER
-
00100trPORTRAIT_00100_BURST20191017165128481_COVER
-
IMG_20191016_110145
実際問題として、このようなスマホを購入した人の大部分は、あまり設定をいじったりはしないものだ。そこでメーカーとしては、たとえどんな条件でも、デフォルトの設定で最高の写真を確実に撮影できるようにしなければならない。そのため、やはりソフトウェアの働きが重要になってくる。超解像ズームは、新しいレンズとの組み合わせでうまく動作する。また「ライブHDR+」は、画像が最終的に完全に処理されたらどう見えるかを、その場で近似的に見せてくれる。ポートレートモードの撮影では、素晴らしい結果が得られる。しかも、深度はあまり気にする必要がない。つまり、被写体からの距離には関係なく、素晴らしい人工的なボケ味が得られるのだ。
編集部のビデオプロデューサー、Veanne(ビアン)は、私などとてもかなわない優れた写真家だ。週末にカメラをテストしてもらった。
-
pixel4_gallery_001
-
pixel4_gallery_002
-
pixel4_gallery_003
-
pixel4_gallery_004
-
pixel4_gallery_005
-
pixel4_gallery_006
-
pixel4_gallery_007
-
pixel4_gallery_008
Veanneは、Pixel 4のカメラと写真編集機能には、大いに感心したというが、以下のような大きな不満も3つほど指摘した。
「デジタルズームはゴミだ」。
「暗い環境では、雰囲気が失われる。土曜の夜の、くつろいだ、温かみのある明かりで照らされた夕食が、カフェテリアの食事のように見えてしまう」。
「暗い環境でも明るく写るので、動いている物体にも焦点が合っているという印象を受けるが、本当はそうではない」。
その他の機能としては、頻繁に撮影する被写体の顔を学習する「よく撮影する人」といった機能もある。これについてもGoogleがはっきりと示しているのは、この機能はデフォルトではオフになっていて、オンにした場合も、すべての処理がデバイス内で実行されるということ。この機能をオフにすると、それまでに保存した学習情報も、すべて削除される。その一方で、SNS関連の機能は強化され、SnapchatやInstagramといったサードパーティのプラットフォームにも、簡単にアクセスできるようになった。
Googleは「レンズ」も進化させ続けている。最近では、言語の翻訳、ドキュメントのスキャン、テキストのコピー&ペーストといった処理が、簡単なタップで操作できるようになった。現状では、言語の翻訳にはまだ少し制約があり、英語、スペイン語、ドイツ語、ヒンディ語、日本語のみをサポートしている。同社によれば、他の言語についても「近いうちに実現します」という。
ジェスチャーは、ちょっと異色な機能だ。私も、このような機能をGoogleが早い段階で試してくると、まったく考えていなかったわけではない。最近では、LGのG8 ThinQが、ジェスチャーを実現して差別化しようとしている目立った例となっている。これまで、私はこの技術がうまく実装された例を見たことがない。私自身が、日常的に使えるような実装に出会ったことがないのだ。
実際、どんなに興味深く、革新的な機能でも、それが能書き通りに動作しなければ、使う人はいない。LGの実装は、かなり大きな失望だった。
ひとことで言えば、Pixelのジェスチャーは、それとは違う。とにかく、ほぼ能書き通りに動くのだ。その点では優れている。採用している技術が異なるからだ。他のシステムのようにカメラを利用するではなく、PixelではProject Soliを採用した。だいぶ以前から定評のあるシステムで、小型のレーダーチップを利用して、動きをかなり正確に検出できるもの。
Soliは実用になるが、ユーザーごとに検出精度がかなり異なる可能性がある。それに、単に動きを検出するだけでは不十分なのだ。Soliによって、ユーザーの意図を理解する必要がある。このシステムは、ユーザーがスマホの周りで絶えず動いていることによる偶発的なジェスチャーを排除するように設計しなければならない。そのため、よりはっきりした、意図的な動きを念頭に調整されることになる。
たとえば、再生トラックを進めるような動作を検出するのは、ちょっとやっかいだろう。実際、オビワン・ケノービのようにデバイスの周りで手を動かす方が、画面に触れて操作するよりも大幅に時間と労力を節約できるような例が、それほど多くあるとは考えにくい。ただしGoogleが、やがて機械学習を利用して、個人ごとに検出動作をカスタマイズできるようになれば、ジェスチャーも本当に便利な機能になるはずだ。
その上で、ようやく次の重要なポイント、機能性について議論できる段階となる。とりあえず、スマホの中に貼り付けられた、小さくて巧妙な新しい小型レーダーが手に入った。それが低消費電力で、プライバシーの点でもカメラより優れている。素晴らしい! さて、これを使って何ができるのだろうか?
現状では、主な用途として、次の3つが考えられる。
最初の2つが便利なのは分かるだろう。私が思いつく主なユースケースは、たとえば、ユーザーが机の前に座っていて、その机の上にスマホが乗っているような場合に有効だ。実際に今、私はそういう状況にある。ここで、デバイスの10センチほど上を、左から右にスワイプすれば、再生トラックが次に進む。逆に右から左にスワイプすれば、前のトラックに戻る。手の移動は、デバイスの端から端まで、確実に動かす必要がある。
そしてもう1つは、「Pokémon Wave Hello」の登場だ。Google Playからダウンロードできるアプリだが、ゲームではない。これは、Pixel 4のモーションセンス機能を試用するようなものに過ぎないが、それにしては非常に楽しいアプリだ。
先日の基調講演で、見た人もいるかもしれない。ほんのわずかな時間だけ登場していた。突然、まるで野生のカビゴンのように、ピカチュウがどこからともなく登場して、聴衆に手を振る。そして、あっという間にいなくなってしまう。
-
google_pixel_4_001
-
google_pixel_4_003-1
-
google_pixel_4_004-1
-
google_pixel_4_006
-
google_pixel_4_007
-
google_pixel_4_009-1
-
google_pixel_4_010-1
-
google_pixel_4_011
-
google_pixel_4_012
-
google_pixel_4_013-1
-
google_pixel_4_014
-
google_pixel_4_015
-
google_pixel_4_016-1
このアプリは、ジェスチャー機能を見せびらかすため以外の何ものでもない。ピカチュウから始まって、順に登場する5種類のポケモンは、ユーザーが手を動かしてコミュニケーションできるようになっている。シンプルでくだらないものだし、3分もあればすべて終わってしまう。しかし、そんなことは問題ではない。Pokémon Wave Helloの存在意義は、以下のようなところにある。
- ユーザーをジェスチャーに慣れさせる
- 標準的なもの以外の機能をデモする。ゲームやARといったものは、最終的にSoliを活用する楽しく革新的な方法を開拓することになる
今のところ、残念ながら用途はかなり限られている。手の動きに反応する動的な壁紙など、ちょっとした楽しい機能は考えられる。ジェスチャーを検出すると、画面は微妙に光る。アシスタントの反応にも見られるような、気の利いた工夫だ。
最も実用的なのは、たぶんユーザーがスマホに近づいたときに、それを検出しアンロックのプロセスを開始するというものだろう。それにより、すでに高速な新しい「フェイスアンロック」を、さらに高速にできるはずだ。今回Googleは、指紋センサーを廃止し、身体センサーも画面内指紋リーダーも採用しなかった。特に画面内指紋リーダーについては、先週英国の女性が、たまたま数百円の画面保護フィルムをデバイスに貼ったところ、他人の指紋でもアンロックできてしまったという、目立つセキュリティ上の災難がSamsungを襲ったばかりだ。それを考えると採用しなくて正解だった。
Pixel 4のロック機能には、いくつか優れたセキュリティ上の配慮が盛り込まれている。中でももっとも重要なのは、アンロックが、完全にデバイス上で実行されること。アンロックに必要な情報は、すべて内蔵のTitan Mチップに保存され、処理される。つまり、クラウドに送信されることはない。それにより、高速な処理が可能になるのはもちろん、Googleがユーザーの顔のデータを、他のサービスと共有したりしない、というメリットも生まれる。この事実は、Googleが声高に主張したいと考えるのも当然だ。
少なくとも私たちの中には、Recorderアプリが正真正銘のゲームチェンジャーだと感じている人もいる。その使いやすさと実用性を見れば、Otter.aiのようなスタートアップを震え上がらせるのに十分なポテンシャルを備えていることがわかる。もしGoogleが、この機能を一般のAndroidやiOSデバイスにも提供するようなことになれば、なおさらだ。
最初に先週の発表会で試してみたときは、それほど大したものだとは感じなかった。ノイズの多い環境では、音声を抽出するのがうまくいかないことがある。ソフトウェアだけでなく、ハードウェアによる制約もあるのだろう。自分一人で直接話しかけるようにすれば、はるかにうまく動く。また、コンピュータからオーディオを入力するような場合には、もう少し改善の余地があるようだ。
アプリを開いて録音ボタンを押すと、波形がポップアップ表示される。人の声を検出すると波形の線は青になり、その他の音の場合は灰色になる。Transcript(文字起こし)ボタンをタップすると、聞き取ったテキストがリアルタイムでページに表示される。それにタイトルを付けて保存する際には、位置情報も付加される。
このアプリでは、自動的にキーワードを抽出してタグを付け、簡単に検索できるようにしてくれる。すでに最初のバージョンで、完全にAppleのボイスメモなどのはるか上を行っている。実際、比べるべくもない。まったくジャンルの異なるアプリだ。私が長年愛用してきた「Voice Record」などのアプリも、もはや蚊帳の外だ。
製品として評価すれば、まだ認識は運任せといった部分もある。まだ完璧ではないが、現状のAIはそんなものだ。とはいえ、かなり使える。もちろん、生成されたテキストを何かに利用する前には、もう一度確認した方がいいだろう。Otterや、その他の音声入力アプリと同様に、音声の再生中には単語がハイライトされる。カラオケスのタイルだ。
テキストはGoogleドライブに保存できるものの、まだこのアプリ自体では編集できない。オーディオだけをエクスポートすることは可能だが、テキストと結合したファイルとしてはできない。句読点の付加についても、課題として残っている。またRecorderは、まだ個人の声を区別してくれない。こうした機能は、すでにウェブベースのサービスでも、スタンドアロンのアプリでも実現されている。というわけで、そうした企業が、今すぐに廃業を余儀なくされるわけではない。しかし、もし私がそうした会社の経営者なら、もはや危機感を抱かざるを得ないだろう。
インタビューを1つの仕事にしている人間として、このアプリの持つ潜在能力には大きな期待を持っている。Recorderが、私が仕事で最もよく使うアプリの1つになることは間違いない。上で述べたような、いくつかの不備が、次のバージョンで解消されれば、もう文句はない。仕事でインタビューをすることのない人の場合、このアプリが便利だと感じられる場面は限られているかもしれない。しかし、たとえば学校の授業の記録など、インタビュー以外の用途も、いろいろ考えられるだろう。
Pixelシリーズは、ソフトウェアの進化とカメラ機能の向上によって、差別化を実現し続けてきた。6か月前の3aと比べても、より洗練されたデザインや、90Hzのディスプレイなど、全体的に大きく進化した部分がある。フラグシップとしてのスペックを実現しながら799ドル(日本では8万9980円)という価格は、SamsungやAppleのような競合に比べて、大きなメリットと言える。
Pixel 4は、Googleが将来的にPixelをこうしたい、という方向に必ずしも沿ったものではない。Pixel 3aは、ユーザーがもっとずっと安価な製品を欲しているということを確認するためのものだった。それに対してPixel 4は、OnePlusなどの素晴らしいデバイスを上回る価格に設定された。それでも、この製品は、デザイン的に見ても、本当にプレミアムなものとは言えない。
Googleは変化し続けるスマホ環境に対応するよう取り組んでいるため、将来がどのようになるのかは不透明だ。ただ当面の間は、カメラのイメージング技術についての未来は明るいと思われる。Googleは、その分野の推進力であり続けている。
[原文へ]
(翻訳:Fumihiko Shibata)