エアジェスチャー「Motion Sense」が利用可能になったPixel 4 XLを試す

Pixelスマートフォン最大の強みはOSアップデート提供期間

Pixel 4とPixel 4 XLはAndroidを提供しているGoogle(グーグル)自身が開発しているスマートフォン。2016年のPixelシリーズ、2017年のPixel 2シリーズは日本では発売されなかったが、2018年のPixel 3シリーズから日本でも正式に販売が開始された。

Pixelスマートフォン最大の強みはOSのアップデート提供期間。例えばPixel 4、Pixle 4 XLなら、Androidバージョンアップデート、セキュリティアップデートが2022年10月まで最低提供期間として保障されている。また当然、最新OSもいち早く提供される。最新Androidの機能をすぐに利用したいのなら、Pixelシリーズ以外に選択肢はない。

PixelスマートフォンのAndroidバージョンアップデート、セキュリティアップデートが提供される期間は、米国のGoogleストアで端末の販売が開始されてから3年間とされている

スマホのUIを大きく拡張する可能性を秘める「Motion Sense」

Pixel 4が5.7インチ、Pixel 4 XLは6.3インチの有機ELディスプレイを搭載しているが、画面サイズ、解像度、本体サイズと重量、バッテリー容量以外のスペックはすべて同一。プロセッサーはSnapdragon 855、メモリーは6GB、ストレージは64GBまたは128GBを搭載している。Snapdragon 865が登場したいまプロセッサーは型落ちとなっているが、処理性能的にはフラッグシップクラスと言って差し支えない。

ベンチマーク「AnTuTu Benchmark」の総合スコアは404979。記事執筆時点の最高スコアが「ROG Phone 2」の507051なので、その約80%に相当することになる

Pixel 4、Pixel 4 XLの売りの1つが機械学習を活用したカメラ機能。確かに、天の川さえ撮影できる夜景モード、一眼レフカメラのようなリアルなボケ効果を実現するポートレートモード、超解像技術による8倍デジタルズームなどで生成される画像は、グーグルのソフトウェア技術の凄みを感じさせるものだ。

筆者自身が撮影した星空。肉眼ではまったく見えなかった星までくっきりと写し出されている

一方、カメラで残念なのは超広角が搭載されていないこと。Pixel 4、Pixel 4 XLは広角カメラと望遠カメラという組み合わせだ。個人的には望遠よりも超広角カメラのほうが利用頻度は高いし、実際最新のデュアルカメラ搭載スマホの多くが超広角と広角の組み合わせだ。次期モデルではうわさどおり、超広角、広角、望遠のトリプルカメラ構成でぜひリリースしてほしいところだ。

左が広角カメラ(1220万画素、f/1.7、視野77度)、右が望遠カメラ(1600万画素、f/2.4、視野52度)

8倍デジタルズームで撮影した写真。他社端末は10倍デジタルズームが可能な例が多いが、グーグルは鑑賞に堪えうる画質として倍率を8倍に留めている

さて、現在、Pixel 4、Pixle 4 XLだけで利用できる機能が、端末に触れることなくジェスチャーだけで操作できる「Motion Sense」。本機能は電波法の規制により発売当初は日本では封印されていたが、2月4日より日本国内でも順次利用可能となった。

現時点では音楽の曲送り、アラームのスヌーズ、電話の着信音をサイレントにしたり、顔認証の高速化に利用するなど用途は限定的だが、Motion Senseのために搭載されているレーダー「Soli」は、指同士の距離、指の重なり、3次元の位置などを検出可能。スマートフォンのユーザーインターフェースを大きく拡張する可能性を備えているので、今後多くのアプリケーションで利用できるようになることに期待したい。

Pixel 4とPixle 4 XLのディスプレイ上部には多くのセンサーが内蔵されている。Motion SenseはこのうちのSoliにより実現されている機能だ

Motion Senseを有効にすれば、右から左に手を振ると次の曲、左から右に手を振ると前の曲が再生される

Soliは、指同士の距離、指の重なり、3次元の位置などを認識可能。すでに、ダイヤルをつまんで回すようなジェスチャーもスマートウォッチ型試作機で実現されている。グーグルがその気になれば、いつでもPixel 4やPixel 4 XLに実装可能なはずだ

カメラは市場のニーズに逆行、Motion Senseの可能性に期待

iPhoneと比較した場合、設定の自由度という点ではPixel 4、Pixel 4 XLのほうが上だ。例えば、Pixel 4、Pixel 4 XLは顔認証の際にロック画面をスキップできる。この使い勝手に慣れると、iPhoneのスワイプ操作が面倒に感じられる。

しかしカメラの構成は、超広角カメラを備えたiPhone 11シリーズのほうが市場のニーズに応えていると思う。グーグルのソフトウェア技術を考慮に入れても、一般的なシチュエーションで写真を撮るならiPhone 11シリーズのほうが使い勝手はいいだろう。

とは言え、個人的にはMotion Senseに非常に大きな可能性を感じている。現時点でサードパーティーにAPIを提供するかどうかは未定とのことだが、それならばサードパーティー製非対応アプリでも利用できるように、OSのユーザーインターフェース自体にMotion Senseの機能を組み込んでほしいところだ。

機能性を考えれば非常に小さなSoliだが、全画面ディスプレイ搭載スマホ全盛のいまとなっては、ディスプレイ上部の大きなベゼルは野暮ったい。技術的に可能なのであればディスプレイの裏にSoliを埋め込んでほしい。

【Japan編集部追記】現在Pixel4シリーズのSIMフリーモデルでは、Pixel4の64GBモデルが8万9980円、128GBモデルが10万3950円、Pixel4 XLの64GBモデルが11万6600円、128GBモデルが12万8700円。また、ソフトバンクがPixel4の64GB、128GBモデルを取り扱っており、48回払い時の月額支払い金はそれぞれ1830円、2120円。24回払いだと3660円、4240円。

GoogleのPixelにジェスチャー、絵文字、AR効果など大量の新機能追加

Pixelスマートフォンを持つ利点のひとつに、時とともに改良されていくところがある。Pixelは、最新の修正や改良を含むアップデートを最初に受ける機種だからだ。2019年12月に提供された第1弾には、ロボコール(迷惑電話)対策フィルター、写真の操作性向上、Duoでの通話の改良など数多くの新機能が含まれていた。米国時間3月2日、GoogleはPixelの新機能セット第2弾を提供すると発表。今回の内容は、新しい音楽の操作性、新しい絵文字、写真と動画のさらなる追加機能、緊急通報機能の拡大、Google Payの改良、その他となっている。

2019年にGoogleは、Pixel 4の発表にともない「モーションセンス」という新しいジェスチャー機能を発表した。手を触れずにスマートフォンを操作できるというものだ。つまり、手の動きを感知して、それをソフトウェアのコマンドに変換する。

すでにPixel 4ユーザーは、モーションセンスで次の曲に飛んだり前の曲を再生したりが可能だったが、今回の更新により、画面の上でタップのジェスチャーをすることで曲のポーズや再開ができるようになる。

Googleは、会話中にすぐに曲を止めたいときに便利だと提案している。だが実際は、動作に一貫性があるときにだけ便利に使える状態で、各社のレビュー記事では、モーションセンスのシステムは「気難しい」とか「発展途上」などと書かれている。もちろん、すぐに改良されるだろうが。

このアップデートで改良されたものの中には、2019年10月にPixel 4に追加されたPersonal Safety(パーソナル・セイフティー)アプリもある。クルマで重大な衝突事故が発生した際に、ユーザーが助けを必要としているかどうかを本体のセンサーが確認してくれる。アメリカのユーザーなら、タップまたは音声で911(緊急電話)が呼び出せる。ユーザーの反応がない場合は、現在位置と詳細を緊急電話のオペレーターに自動的に通報する。今後、この機能はオーストラリア(000)と英国(999)でも使えるようになる。

さらに、Googleのビデオ通話アプリDuoにAR効果も追加された。画面に映る自分の印象を変えたり、動かしたりができる。Duoにはすでにいくつもの効果はあるのだが、ソーシャルコミュニケーションアプリにとって、常に効果のリストを充実させておくことは必要不可欠なのだ。

一方、Pixel 4の自撮り用カメラでも奥行きのある画像が作れるようになり、ボートレートのぼかしとカラーポップが改良される。また、Facebook用の3D写真も作れるようになる。

Pixelではさらに、絵文字がバージョン12.1に更新される。これには2019年10月にiOS 13.2でiPhoneが対応し、2020年1月にはTwitterも対応している。このセットには169種類の絵文字が追加され、ジェンダーや肌の色の幅が広がり、カップルの組み合わせも増えて、よりインクルーシブな内容になった。

Google Payも改良され、電源ボタンを押したまま画面をスワイプすると、デビットカードやクレジットカード、さらにはチケットや搭乗券、その他の保存済みアイテムが選択できるようになる。この機能が最初に使えるようになるのは米国、英国、カナダ、オーストラリア、フランス、ドイツ、スペイン、イタリア、アイルランド、台湾、シンガポールだ。

また、搭乗券のバーコードのスクリーンショットを撮影して、通知にタップしてGoogle Payに追加すれば、フライトの更新情報を通知としてリアルタイムで受け取れるようになる。この機能は、すべての国でPixel 3、3a、4のGoogle Playで3月中に使えるようになる。

パワーユーザー向けには、Wi-Fiや物理的な位置に応じてルールの設定を変更できる機能も追加された。たとえば、職場に到着したら自動的に電話の呼び出し音をオフにするとか、家に帰ったら自動的にサイレントモードにするなど、いろいろできるようになる。

その他の新機能として、Pixel 2用の「自動字幕起こし」、Pixelのダークテーマの切り替えスケジュールの設定、緊急連絡や医療情報のアクセスの簡便化、長押しでアプリのヘルプをすばやく表示できる機能の改良、直射日光の下でも画面の文字を読みやすくする明るさの自動調節(Adaptive Brightness)の更新がある。

Googleは、これらの新機能の提供を米国時間3月2日から開始すると話している。今すぐすべてが手に入るわけではないが、早々に出揃うはずだ。

画像クレジット:JOHANNES EISELE/AFP / Getty Images

[原文へ]
(翻訳:金井哲夫)

Pixel 4とiPhone 11 Proのカメラを徹底実写比較、買うならどっち?

ご覧のような次第で新しいスマートフォンが必要になった。

 

 

 

 

 

 

 

 

 

 

 

 

 

iPhoneのユーザーだが、毎日かなりの時間を携帯カメラで写真を撮ることに費やしている。私にとってはカメラの性能が購入にあたって重要な要素だ。同僚のBrian Heater(ブライアン・ヒーター)記者のPixel 4は進化したカメラで勝負という記事を読んで乗り換えも検討することにした。

iPhone 11シリーズとPixel 4は正面から激突するライバルだ。どちらも700ドル(約7万6000円)からと同価格帯だが、何よりAppleとGoogleが提供する最新モデルだ。

Pixel 4(左)と iPhone 11 Pro(右)

両モデルともに新機能満載で用語の数もそれだけ多い。スローシンクロ、トゥルカラー、ナイトモード自動認識などなど。しかし、いちばん重要なのは毎日ポケットに入れて持ち歩くカメラとして、どちらが優れた写真を撮れるかだ。そこでさまざまな条件で実際に写真を撮って比較してみることにした(クリックすると高解像度の画像が表示される)。

横位置

雨上がりのブルックリン橋。マンハッタン側からの撮影。イーストリバーの対岸にブルックリンが広がっている。

Pixel 4(左)、 iPhone 11 Pro(右)

Pixel 4(左)と iPhone 11 Pro(右)

ポートレート

ビデオチームの同僚、Arman Tabatabai(アルマーン・タバトバイ)が遅い午後のピンクがかった光に照らされている。撮影距離は同じ。

Pixel 4(左)、iPhone 11 Pro(右)

料理

火鍋、白熱灯照明。

Pixel 4(左)、iPhone 11 Pro(右)

日本料理、メキシコ料理(どちらも低照度)。

Pixel 4(左)、iPhone 11 Pro(右)

集合セルフィー

この中の1人はエミー賞受賞者だ。

Pixel 4 iPhone 11 Pro comparison group selfie

Pixel 4(左)、iPhone 11 Pro(右)

超低照度

コンサート会場やライブハウスの照明はたいていの場合不自然で、人物を引き立たせていない。まあ撮影など考えずに歌を楽しむべきなのだろう。

Pixel 4(左)、iPhone 11 Pro(右)

Pixel 4のほうが細部まで明るく写るがiPhone 11 Proは場所の雰囲気が出ている。

Pixel 4(左)、iPhone 11 Pro(右) (0.5倍ワイド)

非常に暗い場所の動く被写体(犬)。

Pixel 4(左)、iPhone 11 Pro(右) (.5倍望遠)

マンハッタン通りの夜景。曇っており星は出ていなかった。

Pixel 4(左)、iPhone 11 Pro(右)

デジタルズーム

どちらのカメラも10倍のデジタルズーム機能を備えている。デジタルズームは下の作例のようにひどく画質を劣化させるので私は使わないし人に勧めたこともない。証拠写真にでもしようとするのでないかぎり使わないほうがよい。

iPhone 11 Pro(1倍 標準)

おーい! 見えるかー?

iPhone 11 Pro (デジタルズーム10倍)

結論

写真編集ツールはPixel 4の方がやや優れていると感じた。しかし画質の差はごくわずかで、記事を書くにあたってどちらの写真か何度も情報をチェックする必要があった。あとは好みの問題ということになるだろう。コメントは最小限に控えたので、実例で判断していただきたい。

iPhone 11 Pro (0.5倍ワイド)

結局、これまでどおり私はAppleのプロダクトを使うことにした。強いていえば2つの点でiPhone 11 Proのほうが私のニーズに合っていると感じたからだ。1つはスーパーワイドレンズ、もうひとつはハイレゾ画像をAirdropで近くのAppleデバイスに直接転送できる点だ。現在のAndroidの場合、チャットでハイレゾ画像を送ろうとすると、隣にいる相手でもサーバー経由で送信しなければならなず、1ステップ余計に手間がかかる。

[原文へ]

滑川海彦@Facebook

GoogleのPixel 4は進化したカメラで勝負する

Google(グーグル)の純正スマホのシェアは、世界規模で見れば、これまでずっと取るに足らないものに過ぎなかった。Pixelシリーズは、米国および西ヨーロッパではトップ5に割り込んだものの、市場全体で見れば、シェアは1%に満たない。もちろんGoogleは、スマホのハードウェアメーカーとしては後発だ。だいぶ長いこと、Samsung(サムスン)やHuawei(ファーウェイ)といった企業が、何百万台ものAndroidデバイスを出荷するのを、横目で眺めていただけだった。

今年の初めにGoogleは、減速しつつあるスマホ市場のさらなる縮小を認識していることを認めた。もちろん、それは業界全体の問題だ。Alphabet(アルファベット)の第1四半期の決算報告で、CEOのサンダー・ピチャイ(Sundar Pichai)氏は、ハードウェアの売上が落ち込んでいるのは「高級スマホ業界の苦悩」を反映したものだと説明していた。

Google I/Oで発表されたPixel 3aは、比較的低価格帯のデバイスを導入することで、期待はずれが続いていた販売台数を増大させる試みだった。販売価格は399ドル(日本では4万8600円)からに設定され、狙い通りの売れ行きを示した。より多くのキャリアパートナーも獲得でき、Pixelシリーズの前年比の売上を実質的に2倍にすることに成功した。これらを考え合わせると、新しいPixelと、その数字に「a」を付けたモデルを、半年ごとに出していくという戦略が、今後も継続するのはほぼ確実と見ていいだろう。

もちろん、ミッドレンジのモデルを追加したことで、フラグシップのモデルを差別化するためのメーカーとしての負担は増えた。Pixel 4の799ドル(日本では8万9980円)から、という価格は、現在のフラグシップとしては、けっして高い方ではない。しかしGoogleとしては、両者の間の400ドル(日本では4万1380円)という価格差を正当化するのに十分な機能の違いを明示する必要があった。特に同社は、フラグシップモデルに導入したソフトウェアのアップグレードを、安価なモデルにも順次適用するという方針を明らかにしているのだから、なおさらだ。

事前の噂も多く、頻繁に情報がリークされてきたPixel 4には、当然ながらこれまでとは一線を画する特徴が盛り込まれている。Googleは、Pixel 4にも同XLにも、ついにデュアルカメラ構成を採用してきた。またディスプレイのリフレッシュレートは、最大90Hzとなり、顔認識によるロック解除、レーダーチップを利用したジェスチャー認識、その他ソフトウェアによって実現可能なさまざまな機能を実現している。

実のところ、これまでのPixelは、スマホ業界では常にちょっと特殊な位置を占めてきた。Googleが色々なハードウェアメーカーと提携した作っていたNexusの後継シリーズとして、Pixelは、Androidデバイスの最も魅力的な機能のショーケースと見なすことができる。ただし、OSの最新バージョンを優先的に搭載して、他をリードするという役割は過去のものとなった。すでに、OnePlusのデバイスにAndroid 10が搭載されているという事実は、手頃な価格で高品質なデバイスを実現している他のメーカーとGoogleが、正面からやり合う状況となっていることを意味する。

Pixelシリーズは、「a」の付くモデルと付かないモデルを区別するために、デザインでも差別化を図っている。これまでのGoogleのスマホは、SamsungやApple(アップル)の製品とは異なり、それほどデザインに凝ったものではなかった。それは今回のモデルでもそうなのだが、新たに採用した両面がガラス(両面ともGorilla Glass 5)で金属製のバンドを挟むような構成は、じゃっかんのプレミアム感を醸し出している。また4は、3よりも実際にやや重く、厚みもあるため、デバイスにある種の貫禄も感じられるようになった。

現状では3色が用意されている。黒、白、そして「Oh So Orange」と呼ばれるポップなオレンジだ。オレンジは「限定エディション」となっていて、数量が限られている。色の付いた電源ボタンは、相変わらず優れた操作感で、そのままでは地味な黒や白のモデルにもアクセントを与えている。ディスプレイは、素晴らしい90HzのOLEDにアップグレードされた。Googleは、相変わらずノッチやパンチホールは取り入れていない。そのため、それなりの幅のベゼルが上端と下端にある。

Pixel 4では、画面サイズも同3の5.5インチから5.7インチに増加している。解像度は443ppiから444ppiへと、わずか1ppiだけ増加した。一方、Pixel 4 XLの画面サイズは6.3インチで、同3 XLと変わっていない。ただし、解像度は523ppiから537ppiに増加し、より繊細な表示が可能となっている。Pixel 3に特徴的だったデュアルフロントカメラは、Pixel 4では廃止された。代わりに同3aのものと同様の、シングルの8メガピクセルカメラを装備する。

ストレージについては変更されておらず、Pixel 4および同XLの両方とも、64GBまたはと128GBが選択できる。RAMは、同3の4GBから6GBに増強された。プロセッサもアップグレードされ、Qualcomm製のSnapdragon 845から、最新かつ最高のバージョン、同855になった。面白いことに、バッテリー容量はPixel 4ではダウングレードしているのに対し、同XLでは増加している。

Pixel 3および同XLでは、それぞれ2915、3430mAhだったものが、同4および同4 XLでは、それぞれ2800、3700mAhとなっているのだ。バッテリーの持続時間は、Android 10から導入された新しいバッテリー節約機能によって、多少は延長されるはずだが、それでもPixel 4のバッテリー容量が減っているのには納得できないという人もいるだろう。

カメラは、素晴らしいの一言に尽きる。実を言えば、先週このスマホを手に入れてから、私はそれを使って、TechCrunchの記事のための写真を撮影してきた。Google Nest MiniのレビューAmazon Echoのレビュー、それにVirgin Galacticの宇宙服のニュースの写真は、すべてPixel 4で撮影したもの。もちろん、このスマホのカメラは、まだ「デジイチを家に置いて行こう」と提案できるレベルのものではないが、必ずしも理想的ではない状況で、専用の照明を用意したりせず、設定をあれこれいじったりすることもなく、間違いなく素晴らしい写真を撮ることができる。

これが、Googleの哲学において、小さいながら重要な変化を反映したものであるのは間違いない。画像処理に関して、もっとも重要なのは、ソフトウェアによるソリューションだということを、Googleは何世代ものモデルを通して主張してきた。しかし結局は、苦渋の決断によって2つめのカメラを採用するに至った。前に進むために、過去の姿勢を破棄しなければならないことは、珍しいことではない。以前にもGoogleは、ヘッドフォンジャックを装備することに固執しているように見えながら、その翌年にはあっさりと廃止したのを憶えているだろう。

セカンドカメラを追加するのも、小さな変化ではなかった。当然、それに気付かない人はいないだろう。Googleは、デバイスの背面に、見慣れた正方形の枠を配置する方法を採用した。これは、現在のスマホのトレンドの1つのようだ。正方形の中には、2つのレンズが水平に並び、上にセンサー、下にフラッシュが配置されている。真面目な話、集合体恐怖症の人でも、これならすぐに慣れるので大丈夫だろう。製品の発表会では、説明者が半分冗談で、「フラッシュは懐中電灯として使っていただきたいと考えています」と言っていた。

もちろん、それはPixelの低照度での定評ある撮影能力を踏まえた上での発言だ。ほとんどのスマホユーザーが、むやみにフラッシュを使うことで、写真をダメなものにしてしまう状況を考えると、これは歓迎すべき機能だ。低照度の撮影能力がさらに向上すれば、フラッシュを使いたい衝動に駆られる人も、やがてはいなくなるかもしれないが、そこまで行くのはなかなか難しいような気もする。身についた習慣は断ち切り難いのだ。

Pixel 4と同4 XLのカメラ構成は同じ。前任機から引き継いだ12.2Mピクセルの広角レンズ(ただしF値は異なる)カメラに加えて、16Mピクセルの望遠カメラを装備した。こうした構成について、私はすでにこれまでに、ある種の感慨を表現してきた。もちろん、2台のカメラという構成自体が、特筆に値するからではない。なにしろ、周囲を見渡せば、すでに、3台、4台、さらには5台のカメラを備えたフラッグシップモデルがごろごろしている世界なのだ。その感慨とは、これらの新モデルに至るまで、数世代に渡ってGoogleが築き上げてきた基盤についてのものだ。

つまり、こういうことだ。まず、Googleがソフトウェアと機械学習によって、シングルカメラという構成で成し遂げたことに注目しよう。そこに、2つ目のカメラとして、望遠を追加した。これまでも言われてきたとおり、「超解像ズーム」機能は非常に印象的なものだ。とはいえ、その処理によって画像を劣化させることなく、さらにシャープなピントの写真が撮れるようにしたいのなら、光学ズームを採用するしかないだろう。

Pixel 4のカメラは、このクラスで最高のもの、という強い意見があるのもうなずける。写真の品質は、それ自体が物語る。すでに述べたTechCrunchの記事のショットは、手動の調整や後処理を、ほぼまったく加えていないもの。Googleは、デュアル露出コントロールのような、画面上での調整機能を新たに実現している。これにより、全体の明るさと、シャドウ部の明るさを、それぞれその場で手動で調整できる。しかし、正直に言って、スマホのカメラをテストする最良の方法は、ほとんどのユーザーがそうしているように、ただ被写体に向けてシャッターを押すだけだと、私も信じている。

  1. 00100lrPORTRAIT_00100_BURST20191016074022880_COVER

  2. 00100lrPORTRAIT_00100_BURST20191016074154034_COVER

  3. 00100trPORTRAIT_00100_BURST20191016074350735_COVER

  4. 00100trPORTRAIT_00100_BURST20191016105119747_COVER-2

  5. 00100trPORTRAIT_00100_BURST20191017165100721_COVER

  6. 00100trPORTRAIT_00100_BURST20191017165128481_COVER

  7. IMG_20191016_110145

実際問題として、このようなスマホを購入した人の大部分は、あまり設定をいじったりはしないものだ。そこでメーカーとしては、たとえどんな条件でも、デフォルトの設定で最高の写真を確実に撮影できるようにしなければならない。そのため、やはりソフトウェアの働きが重要になってくる。超解像ズームは、新しいレンズとの組み合わせでうまく動作する。また「ライブHDR+」は、画像が最終的に完全に処理されたらどう見えるかを、その場で近似的に見せてくれる。ポートレートモードの撮影では、素晴らしい結果が得られる。しかも、深度はあまり気にする必要がない。つまり、被写体からの距離には関係なく、素晴らしい人工的なボケ味が得られるのだ。

編集部のビデオプロデューサー、Veanne(ビアン)は、私などとてもかなわない優れた写真家だ。週末にカメラをテストしてもらった。

  1. pixel4_gallery_001

  2. pixel4_gallery_002

  3. pixel4_gallery_003

  4. pixel4_gallery_004

  5. pixel4_gallery_005

  6. pixel4_gallery_006

  7. pixel4_gallery_007

  8. pixel4_gallery_008

Veanneは、Pixel 4のカメラと写真編集機能には、大いに感心したというが、以下のような大きな不満も3つほど指摘した。

「デジタルズームはゴミだ」。

「暗い環境では、雰囲気が失われる。土曜の夜の、くつろいだ、温かみのある明かりで照らされた夕食が、カフェテリアの食事のように見えてしまう」。

「暗い環境でも明るく写るので、動いている物体にも焦点が合っているという印象を受けるが、本当はそうではない」。

その他の機能としては、頻繁に撮影する被写体の顔を学習する「よく撮影する人」といった機能もある。これについてもGoogleがはっきりと示しているのは、この機能はデフォルトではオフになっていて、オンにした場合も、すべての処理がデバイス内で実行されるということ。この機能をオフにすると、それまでに保存した学習情報も、すべて削除される。その一方で、SNS関連の機能は強化され、SnapchatやInstagramといったサードパーティのプラットフォームにも、簡単にアクセスできるようになった。

Googleは「レンズ」も進化させ続けている。最近では、言語の翻訳、ドキュメントのスキャン、テキストのコピー&ペーストといった処理が、簡単なタップで操作できるようになった。現状では、言語の翻訳にはまだ少し制約があり、英語、スペイン語、ドイツ語、ヒンディ語、日本語のみをサポートしている。同社によれば、他の言語についても「近いうちに実現します」という。

ジェスチャーは、ちょっと異色な機能だ。私も、このような機能をGoogleが早い段階で試してくると、まったく考えていなかったわけではない。最近では、LGのG8 ThinQが、ジェスチャーを実現して差別化しようとしている目立った例となっている。これまで、私はこの技術がうまく実装された例を見たことがない。私自身が、日常的に使えるような実装に出会ったことがないのだ。

実際、どんなに興味深く、革新的な機能でも、それが能書き通りに動作しなければ、使う人はいない。LGの実装は、かなり大きな失望だった。

ひとことで言えば、Pixelのジェスチャーは、それとは違う。とにかく、ほぼ能書き通りに動くのだ。その点では優れている。採用している技術が異なるからだ。他のシステムのようにカメラを利用するではなく、PixelではProject Soliを採用した。だいぶ以前から定評のあるシステムで、小型のレーダーチップを利用して、動きをかなり正確に検出できるもの。

Soliは実用になるが、ユーザーごとに検出精度がかなり異なる可能性がある。それに、単に動きを検出するだけでは不十分なのだ。Soliによって、ユーザーの意図を理解する必要がある。このシステムは、ユーザーがスマホの周りで絶えず動いていることによる偶発的なジェスチャーを排除するように設計しなければならない。そのため、よりはっきりした、意図的な動きを念頭に調整されることになる。

たとえば、再生トラックを進めるような動作を検出するのは、ちょっとやっかいだろう。実際、オビワン・ケノービのようにデバイスの周りで手を動かす方が、画面に触れて操作するよりも大幅に時間と労力を節約できるような例が、それほど多くあるとは考えにくい。ただしGoogleが、やがて機械学習を利用して、個人ごとに検出動作をカスタマイズできるようになれば、ジェスチャーも本当に便利な機能になるはずだ。

その上で、ようやく次の重要なポイント、機能性について議論できる段階となる。とりあえず、スマホの中に貼り付けられた、小さくて巧妙な新しい小型レーダーが手に入った。それが低消費電力で、プライバシーの点でもカメラより優れている。素晴らしい! さて、これを使って何ができるのだろうか?

現状では、主な用途として、次の3つが考えられる。

  • 音楽再生
  • アラームの停止
  • ポケモンに手を振る

最初の2つが便利なのは分かるだろう。私が思いつく主なユースケースは、たとえば、ユーザーが机の前に座っていて、その机の上にスマホが乗っているような場合に有効だ。実際に今、私はそういう状況にある。ここで、デバイスの10センチほど上を、左から右にスワイプすれば、再生トラックが次に進む。逆に右から左にスワイプすれば、前のトラックに戻る。手の移動は、デバイスの端から端まで、確実に動かす必要がある。

そしてもう1つは、「Pokémon Wave Hello」の登場だ。Google Playからダウンロードできるアプリだが、ゲームではない。これは、Pixel 4のモーションセンス機能を試用するようなものに過ぎないが、それにしては非常に楽しいアプリだ。

先日の基調講演で、見た人もいるかもしれない。ほんのわずかな時間だけ登場していた。突然、まるで野生のカビゴンのように、ピカチュウがどこからともなく登場して、聴衆に手を振る。そして、あっという間にいなくなってしまう。

  1. google_pixel_4_001

  2. google_pixel_4_003-1

  3. google_pixel_4_004-1

  4. google_pixel_4_006

  5. google_pixel_4_007

  6. google_pixel_4_009-1

  7. google_pixel_4_010-1

  8. google_pixel_4_011

  9. google_pixel_4_012

  10. google_pixel_4_013-1

  11. google_pixel_4_014

  12. google_pixel_4_015

  13. google_pixel_4_016-1

このアプリは、ジェスチャー機能を見せびらかすため以外の何ものでもない。ピカチュウから始まって、順に登場する5種類のポケモンは、ユーザーが手を動かしてコミュニケーションできるようになっている。シンプルでくだらないものだし、3分もあればすべて終わってしまう。しかし、そんなことは問題ではない。Pokémon Wave Helloの存在意義は、以下のようなところにある。

  1. ユーザーをジェスチャーに慣れさせる
  2. 標準的なもの以外の機能をデモする。ゲームやARといったものは、最終的にSoliを活用する楽しく革新的な方法を開拓することになる

今のところ、残念ながら用途はかなり限られている。手の動きに反応する動的な壁紙など、ちょっとした楽しい機能は考えられる。ジェスチャーを検出すると、画面は微妙に光る。アシスタントの反応にも見られるような、気の利いた工夫だ。

最も実用的なのは、たぶんユーザーがスマホに近づいたときに、それを検出しアンロックのプロセスを開始するというものだろう。それにより、すでに高速な新しい「フェイスアンロック」を、さらに高速にできるはずだ。今回Googleは、指紋センサーを廃止し、身体センサーも画面内指紋リーダーも採用しなかった。特に画面内指紋リーダーについては、先週英国の女性が、たまたま数百円の画面保護フィルムをデバイスに貼ったところ、他人の指紋でもアンロックできてしまったという、目立つセキュリティ上の災難がSamsungを襲ったばかりだ。それを考えると採用しなくて正解だった。

Pixel 4のロック機能には、いくつか優れたセキュリティ上の配慮が盛り込まれている。中でももっとも重要なのは、アンロックが、完全にデバイス上で実行されること。アンロックに必要な情報は、すべて内蔵のTitan Mチップに保存され、処理される。つまり、クラウドに送信されることはない。それにより、高速な処理が可能になるのはもちろん、Googleがユーザーの顔のデータを、他のサービスと共有したりしない、というメリットも生まれる。この事実は、Googleが声高に主張したいと考えるのも当然だ。

少なくとも私たちの中には、Recorderアプリが正真正銘のゲームチェンジャーだと感じている人もいる。その使いやすさと実用性を見れば、Otter.aiのようなスタートアップを震え上がらせるのに十分なポテンシャルを備えていることがわかる。もしGoogleが、この機能を一般のAndroidやiOSデバイスにも提供するようなことになれば、なおさらだ。

最初に先週の発表会で試してみたときは、それほど大したものだとは感じなかった。ノイズの多い環境では、音声を抽出するのがうまくいかないことがある。ソフトウェアだけでなく、ハードウェアによる制約もあるのだろう。自分一人で直接話しかけるようにすれば、はるかにうまく動く。また、コンピュータからオーディオを入力するような場合には、もう少し改善の余地があるようだ。

アプリを開いて録音ボタンを押すと、波形がポップアップ表示される。人の声を検出すると波形の線は青になり、その他の音の場合は灰色になる。Transcript(文字起こし)ボタンをタップすると、聞き取ったテキストがリアルタイムでページに表示される。それにタイトルを付けて保存する際には、位置情報も付加される。

このアプリでは、自動的にキーワードを抽出してタグを付け、簡単に検索できるようにしてくれる。すでに最初のバージョンで、完全にAppleのボイスメモなどのはるか上を行っている。実際、比べるべくもない。まったくジャンルの異なるアプリだ。私が長年愛用してきた「Voice Record」などのアプリも、もはや蚊帳の外だ。

製品として評価すれば、まだ認識は運任せといった部分もある。まだ完璧ではないが、現状のAIはそんなものだ。とはいえ、かなり使える。もちろん、生成されたテキストを何かに利用する前には、もう一度確認した方がいいだろう。Otterや、その他の音声入力アプリと同様に、音声の再生中には単語がハイライトされる。カラオケスのタイルだ。

テキストはGoogleドライブに保存できるものの、まだこのアプリ自体では編集できない。オーディオだけをエクスポートすることは可能だが、テキストと結合したファイルとしてはできない。句読点の付加についても、課題として残っている。またRecorderは、まだ個人の声を区別してくれない。こうした機能は、すでにウェブベースのサービスでも、スタンドアロンのアプリでも実現されている。というわけで、そうした企業が、今すぐに廃業を余儀なくされるわけではない。しかし、もし私がそうした会社の経営者なら、もはや危機感を抱かざるを得ないだろう。

インタビューを1つの仕事にしている人間として、このアプリの持つ潜在能力には大きな期待を持っている。Recorderが、私が仕事で最もよく使うアプリの1つになることは間違いない。上で述べたような、いくつかの不備が、次のバージョンで解消されれば、もう文句はない。仕事でインタビューをすることのない人の場合、このアプリが便利だと感じられる場面は限られているかもしれない。しかし、たとえば学校の授業の記録など、インタビュー以外の用途も、いろいろ考えられるだろう。

Pixelシリーズは、ソフトウェアの進化とカメラ機能の向上によって、差別化を実現し続けてきた。6か月前の3aと比べても、より洗練されたデザインや、90Hzのディスプレイなど、全体的に大きく進化した部分がある。フラグシップとしてのスペックを実現しながら799ドル(日本では8万9980円)という価格は、SamsungやAppleのような競合に比べて、大きなメリットと言える。

Pixel 4は、Googleが将来的にPixelをこうしたい、という方向に必ずしも沿ったものではない。Pixel 3aは、ユーザーがもっとずっと安価な製品を欲しているということを確認するためのものだった。それに対してPixel 4は、OnePlusなどの素晴らしいデバイスを上回る価格に設定された。それでも、この製品は、デザイン的に見ても、本当にプレミアムなものとは言えない。

Googleは変化し続けるスマホ環境に対応するよう取り組んでいるため、将来がどのようになるのかは不透明だ。ただ当面の間は、カメラのイメージング技術についての未来は明るいと思われる。Googleは、その分野の推進力であり続けている。

原文へ

(翻訳:Fumihiko Shibata)

最近のiPhoneは不細工

最初に断っておかなければならないが、私はスマホに関してはちょっと保守的だ。みんな私のiPhone SEを小バカにするが、本当はこれこそApple(アップル)がこれまでに作った最高のスマホであり、どこからどう見ても美しい、素晴らしいデザインだと信じている。それに引き換え、iPhone 11 Proは、どうしようもないくらい不細工だ。もっとも、それはiPhoneに限らない。Samsung(サムスン)やGoogle(グーグル)の最新モデルも、まったく不細工には違いない。

いったい新しいiPhoneが、なぜそんなに不細工なのか順に見ていこう。前面も背面も、そして側面もだ。まずは、ノッチから始めよう。もちろん、今回初めてそうなったわけではないが、おそらくこれは、この時代に特有の異体のようなものなのだろう。何年か後に振り返ってみれば、みんな笑ってしまうしかないようなものだと思う。しかし今はまだしぶとく残っている。

多くの人が、さまざまな理由ででノッチを正当化しているのは知っている。少しでも画面の面積を増やすためだとか、キャリアーやバッテリーのアイコンを表示するのにちょうどいいとか、顔認識でスマホをアンロックするためには不可欠だとか、といったもの。

それはそうかもしれないが、やはり不細工だ。

もしノッチがないバージョンが登場すれば、絶対に誰もノッチのあるほうは選ばないはずだ。なぜなら、言うまでもなく、誰が見ても望ましいものではないからだ。もしアップルのエンジニアが、ノッチをなくす方法を見つけていたなら、とっくにそうしていたはず。しかし、まだ見つけていないからそうなっているわけで、エンジニアたちも失望を感じているに違いない。アップルは、そうすることが可能な限り、ノッチをカモフラージュする特別な壁紙で、その存在を隠そうとしている。それはまるで、「そう、これを見たくないのは僕らも同じさ」と言っているようなものだ。

ちょっとの間だけ、忘れていられることもある。しかし頭の中では、その存在が消えない。みんなそう感じている

これは、目触りで不細工な妥協の産物の代表的なもの。誰も頼んでいない機能を実現するために、そうせざるを得なくなってしまった。ユーザーは、自分がそれを気に入っているかどうかさえ、よく分からなくなってしまっている。ノッチは不愉快なものだが、それを見るたびに、デザイナーも悲嘆に暮れているのだと思うしかない。公平を期すために付け加えれば、そうしたことは実際かなり頻繁に起こり得る。私には、昔からのデザイナーの知り合いも多いが、私と同様、彼らは非常に神経質だ。

私は、画面の角が丸いのもあまり好きではないが、それにもいくつかの理由がある。ただ、将来的にはそんなことは気にならなくなると思えるので、それはまあいいとしよう。「宇宙空母ギャラクティカ」に出てくる紙の隅は、みんな切り取られていたのを覚えているだろうか。そういう世界も、そのうちやってくるだろう。

一方、画面をデバイスの端ギリギリまで拡げること自体は、それほど不細工なものではない。しかし、それも精神的には不細工なこと。今や、スマホの前面全体がインターフェイスになっている。もしこれが、ただ画面に表示されるものを見ているだけで、何か操作しようとしているのではないことを分かってくれるなら問題ない。画面の端や角の部分には、それぞれ割り当てられたジェスチャーがあったりするので、それらが起動しないように注意する必要がある。それがうるさいので、PopSocketsのように、スマホの後ろから突き出るグリップを発明してしまった人もいる。それを使えば、画面の端には触れずに持つこともできる。とはいえ、同じような形のものでも、スマホ以外のものを持つように、普通に持てるなら、そのようなアタッチメントはそもそも必要ないのだ。

背面も不細工になった。このカメラの出っ張りは何だ。出っ張りというのは、ちょっと表現が違う。iPhoneのデザインチームは、海事歴史博物館でも見学して、深海ダイビング用ヘルメットを見つけ、これだ、と思い当たり、さっそくそのデザインを採用することにしたのか。船の舷窓のようでもある。スマホを4000尋の深海まで潜航できそうに見せかけるものなのか。そのようなヘルメットは、大きくて、傷だらけの丈夫な真鍮製であれば、本当にクールだ。しかし、薄っぺらで壊れやすい電子部品には似合わない。そこには、大きくて厚みのある四角の枠の中に、一見不規則に配置された円が、全部で5つもある。背面の他の部分はのっぺりとしているので、そこだけが嫌でも目立ってしまう。

SE Photo SEの背面は、前面を裏写ししたようなデザインだ。上端と下端には「ベゼル」もある。上の私の私物のSEの写真を見ても分かるように、上部の黒いベゼルのおかげで、カメラの存在が、ほぼ完全に隠れてしまう。ただ、残念なことに、フラッシュユニットだけは、ちょっと目立っている。このような構造によって、SE全体が切り欠きなどのないソリッドな物体に見える。これで写真が撮れるのが不思議に感じられるくらいだ。カメラのレンズ部分も、背面の表面と完全に同じ高さで、疑似ベゼル部分の色の違いはあるものの、全体が一体の平面のように見える。

iPhone 11 Proの背面は、ほぼ全域が平野だが、カメラアセンブリの部分は、ちょっと高い台地になっている。そしてその上には、3つの独立したカメラの低い火山があり、さらにそれぞれの中にレンズのカルデラがある。そして台地の端の方には、くぼんだマイクの井戸もある。これだけでも、ざっと5種類の高さの異なる面がある。それにより、十数通りの高低差や尾根が生まれる。もちろん、それぞれの標高は、さほど高いものではないが、存在することには違いない。

これがもし、カメラ専用機や、それに類するデバイスなら、出っ張りやくぼみは、設計上不可欠のものとなる。それによって持ちやすくしたり、見ないでも操作できるようにするためだ。しかし、それとこれとは話が違う。iPhoneは滑らかで美しく、手触りも優れていなければならない。このハワイの地形図のような背面は何なんだ。火山の間の汚れを拭き取るのは楽しいだろうか。持ち換えようとして、レンズの縁をテーブルにぶつけてしまうことはないだろうか。

その上、不細工だ。

iPhoneの側面は、前面と背面ほど悪くはないが、SEの時代と比べると、多くを失ってしまった。シンプルな+、−ボタンの形状、適度なグリップを生む、シャープに面取りされたエッジ、側面を左右2本の直線部分と上下2本の弓状の部分に大胆に分割する黒いベルト。これらはすべて金属製なので、何度落としても、SEは驚くほど壊れないし、むしろクールさが増す。

新しいiPhoneの側面は、安物のミニカーのバンパーのような感じに見える。あるいは、ジェリービーンズを細長く引き伸ばしたような質感だ。スイッチ部分は、そこにさらに小さいジェリービーンズが貼り付いているようで、気持ち悪い。

iPhoneについては、これくらいで十分だろう。アップルは、ずっと昔に、良いデザインとは何かを忘れてしまった。そして最新の製品は、あまりに不細工になってしまったので、こうして声を上げずにはいられなかったのだ。

Samsungの製品にも、アップルと同じような問題が多い。最近では、「エッジ・ツー・エッジ」のディスプレイが主流で、みんなこぞって採用している。もちろん、Galaxy S10も例外ではない。しかし、文字通り端から端まではディスプレイになっていない。上端と下端には、細めのベゼルがある。下端部のベゼルの方が、少し幅が広い。こんな指摘をすれば、私がいかに神経質かを公言するようなものだが、そういうものを見ると、イライラせずにはいられない。もしそれが、HTCの古いモデルにあった「アゴ」のように、もっとずっと幅広いものなら、わざとそういうデザインにしているのだろうとも思える。しかし、ほんのちょっとだけ幅が広いというのは何なんだ。単に、ベゼルの幅を小さくすることができなかったというだけだろう。

ディスプレイが、側面に回り込んでいるというのも、製品写真としては見栄えがするのかもしれないが、実際に使ってみていいと思ったことは一度もない。それに何の意味があるというのか。真正面から見る場合以外、なんとなく歪んで見えるし、端に表示されているものを常に見逃しているような感じが拭えない。

さらに酷いのは、上下にはベゼル、左右にはカーブがあるだけでは飽き足らず、正面にもパンチホールが空けられていること。まったく何なんだ!

ここでノッチについて考えてみよう。スマホのデザイナーとして、前面に比較的大きな領域を確保しなければならないとしよう。その際、画面のどの部分には手を付けずに残すかを考えるだろう。アップルの場合、画面上部の左右を残すことにした。少なくともステータス情報を表示するにはぴったり、というわけだ。フロントカメラやFace IDのセンサーの回りに、多少のスペースは残るかもしれないが、そこに細い表示領域を確保してみたところで、何ができるのか。もちろん何もできない。うっとうしいだけだ。そもそも、画面上端の真ん中に表示すべきものなど何もない。それなら、その部分をそのまま切り取って、まとめてノッチにしてしまえ、ということになる。

それに対してSamsungは、カメラを画面の右上に配置することにして、その周りに、ほとんど意味のないリング状の画面を残した。そこには何を表示すればいいのか。何か意味のあるものを表示するには小さすぎるし、無視するには大きすぎる。特にフルスクリーンのコンテンツを鑑賞するような場合には気になる。もし彼らの目標が、ノッチよりも小さく、さらに目障りなものを作ることだったとすれば、その任務は見事に達成された。パンチホールは、S10シリーズではどれも不細工だが、6.7インチのS10 5Gファブレットの幅の広いノッチホールのコンボは、中でももっとも不細工だ。

アイスホッケー場のプレスボックスの窓のように、すべてのリアカメラを横長の窓の中に配置するというのは、大胆なデザインだ。3つの巨大なレンズ、フラッシュ、その他を隠すためにできることは限られている。せいぜい、それらをまとめて背面上部の真ん中に配置し、背景を黒で塗りつぶして、2009年から持ってきたようなクロームで縁取りするくらいしかできない。空港の監視カメラのような感じだ。少なくとも、その下に配置された「SAMSUNG」という大きなロゴと、サイズ的には合っている。なかなか大胆だが、やっぱり不細工だ。

GoogleのPixel 4は、それほど悪くはないが、やはりそれなりに不細工だ。これにあまり時間を割く必要はないだろう。ハロウィーン用のカボチャのオレンジを除けば、どれも似たりよったりだからだ。私は、オレンジ色はだいたい好きだが、これについてはよくわからない。ブラックフライデーの前の週に、Target(ターゲット)のクリアランスセールのワゴンの中に、格安SIM付きで、2つで99ドルで並んでいそうな感じだ。個人的には、この色も悪くないと思うが、子供がアイスキャンディーと間違えて、スマホに噛み付かないかと心配になる。

上下で不均衡なベゼルは、Samsungのものより幅の違いが大きいが、少なくとも意図的なものであることは分かる。Googleは、自分たちのスマホが、本当に頭がいいことを暗に示したかったので、額の部分を広くしたのかも。

私に言わせれば、巨大で不細工なカメラアセンブリの中では、まだPixelはマシな方だと思う。死ぬほど向こうずねを蹴られるのに比べれば、まだ顔を平手で叩かれる方がまだマシ、というようなもの。それに、ダイヤモンド型の配置も気が利いている。正方形っぽい基盤を前提として、Googleのチームの誰かが、カメラモジュール全体を45度回転させるという、なかなか型破りなアイデアを思い付いたことには敬意を表する。技術的に見れば、それによって無駄なスペースが多くなるが、角の丸い大きな正方形の4隅に沿って4つの円を配置するよりは、見栄えもいいというものだ。

もちろん、ずっと大きな角の丸い正方形の中に、3つの円が三角形に並び、その余ったところに2つの円を置いてみただけのようなものより、はるかにいい。やっぱりiPhoneは不細工だ!

原文へ

(翻訳:Fumihiko Shibata)

Pixel 4に搭載されるGoogleの最新録音アプリはリアルタイムで自動文字起こし可能

米国時間10月15日に開催されたハードウェアイベントで、GoogleはAndroid用の新しいボイスレコーダーアプリを発表した。これは、リアルタイムの音声処理、音声認識、AIといった最新技術を利用して、人が話している最中に音声を聞き取ったテキストをリアルタイムで自動生成するもの。このような進化によって、スマホの録音機能がさらに便利に活用できるようになる。インターネットに接続していない状態でも録音をテキストに変換できる点にも注目だ。

この機能は、Otter.aiReason8、あるいはTrintなど、同様にAIを活用した文字起こし機能を提供する他社と、新たに競合することになる。Googleが説明したように、このアプリのすべての機能は、デバイス上で直接実行される。つまり、機内モードで使っている際にも、音声とともに正確な文字情報を記録することができる。

「会議、講演、インタビュー、その他保存したいものなら何でも、文字起こしできるわけです」と、Googleのプロダクトマネージメント担当副社長であるSabrina Ellis(サブリナ・エリス)氏は述べた。

このRecorderアプリは、今回のイベントでは、ステージ上でライブでデモされた。画面に表示された内容から見る限り、まったくエラーのないテキスト生成を実現していた。一般的な文字起こしアプリは、現実の環境では、バックグラウンドのノイズや、バンド幅の問題によってエラーを発生することが多い。このイベントのデモでは、おそらく音源に直接接続されていたものと思われるが、そうでない場合、つまりテーブルの上にスマホを置いた状態やノイズが多い環境で、Recorderアプリがどのように機能するか、そのあたりはわからない。

同アプリは、音声、単語、フレーズなどで検索できる高度な検索機能も備えている。検索結果は、検索条件に合致するすべての部分が再生バーの上でハイライト表示される。その部分をタップすれば、直ちに必要な部分の実際の音声を再生できるというわけだ。

現状では、Recorderが認識するのは英語のみだが、Googleによれば将来的にはさらに多くの言語のサポートを追加する予定だという。

このボイスレコーダーアプリも、Googleが音声処理とリアルタイムの文字起こしに関して、最近成し遂げた多くの成果のうちの1つに数えられる。同社はすでにこの春、オフラインで迅速に動作する新たな音声認識システムを導入していた。同社のスマートフォンであるPixel用のキーボードアプリ、Gboardとしてリリースされたものだ。またGoogle I/Oでは、アクセシビリティの改善策として、Androidでライブの文字起こしと字幕表示ができるアプリを発表していた。ボイスレコーダーアプリに同様の機能が追加されたのも、当然の流れだったと言える。

同アプリは、ほかのいくつかの新機能とともにGoogleの新しいスマートフォンであるPixel 4に導入される。なお、このアプリをそれ以外のデバイスに導入する予定についてGoogleは何も触れなかった。

原文へ

(翻訳:Fumihiko Shibata)

Google Pixel 4は顔認証とレーダー利用の「モーションセンス」を搭載

 Googleの次世代スマートフォン、Pixel 4についてはだいぶ以前からリーク情報が出ていた。それに加えてGoogle自身が、発売直前のプレゼンですべてを明らかにする伝統的手法ではなく、外観写真など情報を少しずつ出すPR戦術を採用している。

米国時間7月29日、GoogleはPixel 4の新しいビデオクリップをYouTubeにアップした。実際に入手できるのは今秋になってからのはずだが、ビデオで紹介された「モーションセンス」と顔認証は魅力的な新機能だ。

「モーションセンス」はPixel 4がユーザーの手のジェスチャーを認識し、対応する動作をするというものだ。 音楽を聞いているならスキップして次の曲を再生したり、アラームをスヌーズさせたり、着信音を消したりできる。Googleによれば対応動作は今後拡大されるという。Pixel 4のモーションセンスはGoogleが開発したSoliをベースにしている。これはカメラではなくレーダーを利用して手のジェスチャーなどを認識するテクノロジーだ。

最初に発表されたのは20015年のGoogle I/Oカンファレンスだったが、しばらく音沙汰がなく、2016年のGoogle I/Oでいくつかの応用が発表された。ここでは指で時計のリューズを巻くジェスチャーなどの微細な動きを認識できることがデモされた。また今年1月には電波利用機器とし連邦通信委員会から認証を得ており、実用化が近いことが予測されていた。

Pixel 4はSoliテクノロジーを搭載する最初の商用プロダクトとなるが、Googleは「Piexe 4販売開始の際にSoliが搭載されるのは一部の国となる」と述べている。米国の場合と同様、各国でも電波利用機器としての認証を得る手続きが必要だからだろう。

Googleはまた顔認証によるロック解除機能も搭載する。これはAndroid OS自体でもサポートされていたが、Pixel 4の実装はこれまでとは大いに異なるようだ。これにもSoliテクノロジーが用いられている。ユーザーがデバイスに手をのばすとSoliがそれを認識して顔認識センサーを起動し、データが一致すればアンロックされる。つまりユーザーがスマートフォンを顔の前に持ってきたときにはすでにアンロック済みで、すぐに使える状態になっているわけだ。この自動アンロックシステムは他のアプリの認証にも利用できるという。

顔認証によるアンロックは支払いを含めて各種のAndroidアプリへのログインに用いることができる。またこうした顔認証はデバイス内で完結する。 これはAppleがFace IDで用いているのと似ているが、ユーザーのプライバシーを確保するために顔認識情報をデバイスの外に出さない仕組みだ。さらにセキュリティを確保するために、顔認識関連情報は他の情報と別個にTitan Mというカスタムチップ内に保管される。これもAppleのFace IDと同様のアプローチだ。

公開までだいぶ期間があったが、Googleでは6月に外観写真(あるいは写真的精細度のCG)を公開し、メインカメラが複数台になるなど新機能を見せて消費者の関心をかき立ててきた。今回のアップデートも同様のアプローチだが、使い勝手に関する重要な機能が明らかになった。これまでの例からするとプロダクトの最終的な発表は10月になる見込みだ。

原文へ

(翻訳:滑川海彦@Facebook

Google Pixel 4カメラはメインが3基でセルフィーはベゼルに2基か

先月の今頃、GoogleはPixel 4の写真をツイートで公開して、皆をびっくりさせた。この写真で判明したのはおもにリア側だったが、リリースは今年10月の予定だったから、多少ネタバレの気味もあった。Googleはメディアによるリークが起きないうちに摘み取ってしまいたかったのかもしれない。もちろんAppleが新世代iPhoneの宣伝に力を入れる前に、Pixel 4では複数カメラが採用されることを強調するのがこの写真の主なメッセージだったはずだ。

OnLeakがアップした映像によれば、Piexel 4には3基のメインカメラと2基のセルフィーカメラが装備される。フロントのセルフィー・カメラは上部ベゼルに設置されるようだ。前回の写真でGoogleがフロント上部の公開を急がなかった理由がわかる。6.25インチのディスプレイの上部ベゼルはかなりの幅があり、Googleがディスプレイ透過型のホールパンチカメラを採用するつもりがなかったことが分かる。

ライバル各社がセルフィーカメラをディスプレイの後ろに隠したり、本体からポップアップさせたりすることを試みているのに対してGoogleが追随しなかったのにはそれなりの理由があるのだろう。それに大型のPixel XLのディスプレイにはセルフィー用ノッチが設けられている。小型のPixelには設ける必要がなかったというだけだったのかもしれない。

幸い興味をひいているようなので1月前の写真に続く#Pixel4のリーク画像をアップした。ビデオは#Pixel4XLの最初の360°ビデオだ。5Kで描写しているし寸法もつかんだ。

もちろん実機が初期のリークのとおりにリリースされとは限らないのでこうした情報は多少割引しておく必要はある。しかしこの情報源はこれまで高い実績を誇ってきた。

外観は別として今回流れた噂には魅力的な新機能の情報がいくつか含まれている。Pixe 4では背面の指紋センサーが廃止されたので、Googleはロック解除を顔認証ないしディスプレイ内指紋認証に変えたようだ。Qualcommの超音波指紋認証が利用されているのかもしれない。

Pixel4はセルフィーカメラは2基で、トップベゼルが広いのは(まだ推測にすぎないが)何らかのジェスチャーを認識するためらしい。Pixelのカメラの改良は続いており、リアカメラは3基が並んでいる。

原文へ

(翻訳:滑川海彦@Facebook

Googleの次世代スマホPixel4はメインカメラは少なくとも2基に

Googleが準備中のPixel 4がどういうスマートフォンになるのか、今週に入って各種の噂が渦巻いている。 そこでGoogleはTwitterの公式アカウントで裏と表の外観写真をリークした。

下にエンベッドしたのが@MadeByGoogleによるそのツイートだ。Googleは「かなり注目を集めているようなので、写真をお目にかけよう!実機が出させるようになるまでしばし待たれよ」と書いている。

Pixel 4のデザインは今週、まずPricebabaというスマートフォンの情報を扱うブログに掲載された。

裏側のデザインが現行製品と比べて大きく変わっているのが目を引く。Pixel 3の場合、レンズ、センサー、フラッシュが1基ずつ横に並び、長方形の枠に囲まれている。これに対してリーク写真のデバイスではカメラ部分が正方形になっている。ここにカメラが少なくとも2基、フラッシュ、他のセンサー2基が収まるもようだ。さらに現行製品にある指紋センサーが見当たらない。

表側は下半分の写真しか公開されておらず、この部分には目立った変化はないようだ。

Pixel 3の場合、(カメラの夜景モード以外では)ハードウェアの能力にあまりこだわらず、Googleが力を入れていたのはもっぱら機械学習の成果を活かすソフトウェア面だった。

今回Googleは他社にかなり遅れてデュアル・カメラを採用した。Pixel 3でGoogleは「他の多くのデバイスが複数のカメラで実現する以上のレベルを機械学習アルゴリズムによって1台で達成している」と主張していた。もちろんこれはこれで事実だったが、カメラを追加できれば当然そのメリットがある。Googleも遅ればせながらデュアル・カメラの時代に参入するようだ。

原文へ

(翻訳:滑川海彦@Facebook