Google Pixel開発チームから二人の主要エンジニアが離脱、チーム内の争いが原因か

Google Pixel(グーグル・ピクセル)開発チームで、主任エンジニア(Distinguished Engineer)のMarc Levoy(マーク・レヴォイ)氏とPixelジェネラル・マネージャーのMario Queiroz(マリオ・ケーロス)氏がグーグルを退社していたことが明らかになった。両氏のそれぞれのウェブページで事実を確認できる。The Informationが最初に報じた。

2人は今年初めにグーグルを離れるまで同社のスマートフォンのハードウェア開発の主要メンバーだった。 レヴォイ氏はデジタルカメラのエキスパートであり、Pixelの写真撮影能力をスマートフォンのトップに押し上げた中心人物だった。ケーロス氏もPixelチームのナンバー2だった。

ライバルがひしめくスマートフォン分野で苦闘している最中に、グーグルからこの2人が離職したわけだ。Pixel 4は、バッテリーのもちが悪いことを別にすれば概して高い評価を受けているものの、AndroidスマートフォンとしてはSamsung(サムスン)やHuawei(ファーウェイ)などからシェアを大きく奪うことには成功していない。

The Informationによれば、Pixelのトップメンバーの間では争いがあったらしい。記事はハードウェア部門の責任者であるRick Osterloh(リック・オスターロー)氏が昨年末の全員会議で2人に手厳しい批判を浴びせたと伝えている。グーグルがスマートフォン開発分野である程度の刷新が必要だと考えた可能性は確かにある。なお、TechCrunchではグーグルにコメントを求めたが断られた。

スマートフォン市場への参入は、グーグルにとってかなり前から厄介な問題だった。同社は、2012〜2014年と短命に終わったMotorola Mobility(モトローラ・モビリティ)の買収とともに、他社と組んでNexus(ネクサス)シリーズを開発し、この市場で模索してきた。Pixelはおそらくこれらのプロジェクトの中で最も成功しているが、残念ながらスマートフォン市場の規模が頭打ちとなった時期だった。

同社は昨年にリリースした低価格機のPixel 3aである程度の成功を収めた。後継機のPixel 4aは5月下旬発売という情報が流れていたが、もう少し遅れるようだ。

関連記事:Pixel 4 review: Google ups its camera game

原文へ

(翻訳:滑川海彦@Facebook

LabCorpの新型コロナ検査キットが家庭用として初めて米食品医薬品局が認可

LabCorp(ラブコープ)の家庭用新型コロナウイルス感染症(COVID-19)検査キットPixel(ピクセル)は、米食品医薬品局(FDA)が排除していた検査方法として、初めての緊急時使用許可(EUA)を取得した。これは家庭用の検体採取キットで、鼻腔スワブなどの検体採取用具と、採取した検体を検査機関に送るためのパッケージが含まれている。

これまでFDAは、家庭用の検査や検体採取のためのキットの使用を認めてこなかった。実際、同じように家庭で検体を採取して、新型コロナウイルスの存在を検出する分子リアルタイムCPR検査の実施をすでに許可されている研究所に送付し、検査結果を教えてもらうという検査キットを数多くのスタートアップ企業が発表するようになると、FDAはガイドラインを示し、家庭用検査キットは認可できない旨を強調していた。

FDAによれば、認可されたのはLabCorpの新型コロナリアルタイムPCR検査のみで、他の同様の検査キットは、今でも前もってEUAを取得しなければサービスは開始できないという。遠隔医療により有資格の医療専門家の指導を受けるか否かに関わらない。FDAガイドラインの例外を利用して、家庭での血清検査を実施している研究所もあるが、それは新型コロナウイルスの発症を確認するための検査ではないというのが同局の見解だは。

家庭での検査が許可されたことは(家庭での完全な検査の実施ではなく単なる検体検査ではあるが)、FDAがこれまでの方針を変更したという意味で、大きな一歩だ。FDAは先日、ガイドラインを更新し、同局は家庭用検査キットのメーカーと協力して、それを一般に普及させる最良の方法を探ると表明した。なぜならFDAは「家庭での検体検査を含む安全で正確な検査方法を通じて、新型コロナウイルスの検査の機会を増やすことに公衆衛生上の意味があると認識した」からだ。

LabCorpは40年以上の歴史を誇る米国の医療診断企業であり、Pixelシリーズには、大腸癌、糖尿病、心臓脂質の状態を家庭で検査できるものがある。FDAは家庭での検体採取の認可に道を開きたいと考える企業の中でも、業界で長年実績を積んできた相手を好んだようだ。専門家の立ち会いなく自分で検体採取を行い、パッキングして、送るといった手間がかかることで、間違いが増える恐れがあると同局は考えたのだろう。

米国では現在、新型コロナウイルスの検査は、診療所や病院に加えてドライブスルー施設に依存している。だがこれらの検査は、リスクプロファイルや症状発現など、受けるための条件が厳しい。また検査を実施する医療専門家は、自身が感染の危険にさらされる。家庭で検査ができれば、検査率が全体に高まと同時に、新型コロナウイルスパンデミックが実際にはどこまで広く、どれほど深く及んでいるかを、より正しくイメージできるようにもなるはずだ。

“新型コロナウイルス

[原文へ]

(翻訳:金井哲夫)

グーグルがPixelスマホとChromebook用の独自チップを準備中か

報道によると、Google(グーグル)はApple(アップル)の例に倣ってハードウェア分野を強化するために、将来のスマートフォンに搭載するカスタム設計チップを開発しているという。Axiosの記事によると、グーグルは自社製プロセッサを将来のPixelデバイスに搭載する準備を進めており、その中にはスマートフォンだけでなく、最終的にはChromebookも含まれている。

グーグルによる独自製品への注力は、成功と失敗が入り交じったものだったが、いくつかのPixelスマートフォンは、カメラソフトウェアや写真処理において高い評価を獲得している。しかし、同スマートフォンがこれまでは一般的なQualcomm(クアルコム)製プロセッサを採用してきたのに対し、アップルは長い間iPhone向けに独自のカスタムプロセッサ(Aシリーズ)を設計し続けてきた。AシリーズプロセッサはOSやアプリケーションに合わせてカスタマイズされパフォーマンスを発揮するいう意味で、アップルに優位性をもたらしている。

記事によると、グーグルの独自チップはコードネーム「Whitechapel」と呼ばれており、Samsung(サムスン)と共同開発され、同社の5ナノメートルプロセスが使用されている。内部には8コアのARMベースのプロセッサを内蔵するだけでなく、機械学習とGoogleアシスタントのための専用チップリソースが確保されている。

グーグルはすでにこのプロセッサの最初の動作可能なプロトタイプを受け取っているが、実際にPixelスマートフォンに搭載されるのは少なくとも1年後になるとされており、これはサードパーティ製プロセッサを搭載するPixelが、少なくとももう1世代登場する可能性が高いことを示唆している。レポートによると、チップは最終的にChromebookにも搭載されるが、それにはさらに時間がかかるという。

Aシリーズプロセッサの性能がIntel(インテル)の同等製品をスケールアップし凌駕していることから、アップルがいずれMac製品でも独自のARMベースプロセッサに移行するのではないかとの噂は、何年も前から流れていた。ARMベースのChromebookはすでに存在しているので、もしチップが期待に応えることができれば、グーグル側の移行は容易となるだろう。

原文へ

(翻訳:塚本直樹 Twitter

GoogleのPixelにジェスチャー、絵文字、AR効果など大量の新機能追加

Pixelスマートフォンを持つ利点のひとつに、時とともに改良されていくところがある。Pixelは、最新の修正や改良を含むアップデートを最初に受ける機種だからだ。2019年12月に提供された第1弾には、ロボコール(迷惑電話)対策フィルター、写真の操作性向上、Duoでの通話の改良など数多くの新機能が含まれていた。米国時間3月2日、GoogleはPixelの新機能セット第2弾を提供すると発表。今回の内容は、新しい音楽の操作性、新しい絵文字、写真と動画のさらなる追加機能、緊急通報機能の拡大、Google Payの改良、その他となっている。

2019年にGoogleは、Pixel 4の発表にともない「モーションセンス」という新しいジェスチャー機能を発表した。手を触れずにスマートフォンを操作できるというものだ。つまり、手の動きを感知して、それをソフトウェアのコマンドに変換する。

すでにPixel 4ユーザーは、モーションセンスで次の曲に飛んだり前の曲を再生したりが可能だったが、今回の更新により、画面の上でタップのジェスチャーをすることで曲のポーズや再開ができるようになる。

Googleは、会話中にすぐに曲を止めたいときに便利だと提案している。だが実際は、動作に一貫性があるときにだけ便利に使える状態で、各社のレビュー記事では、モーションセンスのシステムは「気難しい」とか「発展途上」などと書かれている。もちろん、すぐに改良されるだろうが。

このアップデートで改良されたものの中には、2019年10月にPixel 4に追加されたPersonal Safety(パーソナル・セイフティー)アプリもある。クルマで重大な衝突事故が発生した際に、ユーザーが助けを必要としているかどうかを本体のセンサーが確認してくれる。アメリカのユーザーなら、タップまたは音声で911(緊急電話)が呼び出せる。ユーザーの反応がない場合は、現在位置と詳細を緊急電話のオペレーターに自動的に通報する。今後、この機能はオーストラリア(000)と英国(999)でも使えるようになる。

さらに、Googleのビデオ通話アプリDuoにAR効果も追加された。画面に映る自分の印象を変えたり、動かしたりができる。Duoにはすでにいくつもの効果はあるのだが、ソーシャルコミュニケーションアプリにとって、常に効果のリストを充実させておくことは必要不可欠なのだ。

一方、Pixel 4の自撮り用カメラでも奥行きのある画像が作れるようになり、ボートレートのぼかしとカラーポップが改良される。また、Facebook用の3D写真も作れるようになる。

Pixelではさらに、絵文字がバージョン12.1に更新される。これには2019年10月にiOS 13.2でiPhoneが対応し、2020年1月にはTwitterも対応している。このセットには169種類の絵文字が追加され、ジェンダーや肌の色の幅が広がり、カップルの組み合わせも増えて、よりインクルーシブな内容になった。

Google Payも改良され、電源ボタンを押したまま画面をスワイプすると、デビットカードやクレジットカード、さらにはチケットや搭乗券、その他の保存済みアイテムが選択できるようになる。この機能が最初に使えるようになるのは米国、英国、カナダ、オーストラリア、フランス、ドイツ、スペイン、イタリア、アイルランド、台湾、シンガポールだ。

また、搭乗券のバーコードのスクリーンショットを撮影して、通知にタップしてGoogle Payに追加すれば、フライトの更新情報を通知としてリアルタイムで受け取れるようになる。この機能は、すべての国でPixel 3、3a、4のGoogle Playで3月中に使えるようになる。

パワーユーザー向けには、Wi-Fiや物理的な位置に応じてルールの設定を変更できる機能も追加された。たとえば、職場に到着したら自動的に電話の呼び出し音をオフにするとか、家に帰ったら自動的にサイレントモードにするなど、いろいろできるようになる。

その他の新機能として、Pixel 2用の「自動字幕起こし」、Pixelのダークテーマの切り替えスケジュールの設定、緊急連絡や医療情報のアクセスの簡便化、長押しでアプリのヘルプをすばやく表示できる機能の改良、直射日光の下でも画面の文字を読みやすくする明るさの自動調節(Adaptive Brightness)の更新がある。

Googleは、これらの新機能の提供を米国時間3月2日から開始すると話している。今すぐすべてが手に入るわけではないが、早々に出揃うはずだ。

画像クレジット:JOHANNES EISELE/AFP / Getty Images

[原文へ]
(翻訳:金井哲夫)

Pixel 4aの予測レンダリングにはイヤホンジャックと画面パンチホールが存在

Pixel 3a

今週はガジェット関連のニュースが最も少ない週だ。クリスマスが終わり、新年までもう間もない。その後はCESからMWCへと突入するわけだが、今ここにあるのはGoogle(グーグル)の次期スマートフォンがどうなるかという噂だけだ。

これは、OnLeaksと91MobilesによるPixel 4aの予測レンダリングだ。この端末は、間違いなくGoogleにとって重要なものになるだろう。Pixel 3aのおかげで、同社は昨年の販売不振から回復した。そしてPixel 4aにはいくつかの特徴がある。ディスプレイからは長年存在していたノッチがなくなり、正面にパンチホールカメラを採用するようだ。

さらに魅力的なのは、このデバイスにはイヤフォンジャックが存在していることだろう。2020年には、これはミッドレンジ向けスマートフォンの中でも際立った機能になるはずだ。同社がPixel 3aのリリースの頃に語ったように「多くの人がイヤフォン、ヘッドフォンを持っている」ということだ。

その他の注目すべき特徴としては、背面に四角い突起があり、これはPixel 4から引き継がれたデザイン要素である。おそらくPixel 4aは、フラッグシップモデルの卓越したデュアルカメラを採用するかわりに、シングルカメラを搭載するだろう。それでもGoogleは優れたML(マシンラーニング)ソフトウェアのおかげで、たった1つのセンサーでも優れた撮影性能を達成してきた。

ディスプレイは前モデルから0.1〜0.2インチほど、わずかに大きくなる。この端末は、おそらくGoogle I/O 2020が開催される5月頃に登場することが報じられている。

[原文へ]

(翻訳:塚本直樹 Twitter

Google Pixelに着信の自動判別機能が加わる、後から背景をボカす撮影機能も

Google(グーグル)は米国時間12月9日の朝、初の「feature drop」の提供を発表した。これは同社が毎月定期的に機能を拡張するための配信で、最初のバージョンでは、すでに発表されていたものを含め、多くのアップグレードが行われる。

最も大きな変更点となるのが、通話を遮断する機能のアップデートだろう。米国のPixel 4ユーザーから利用できるこの機能は、知らない発信者や自動音声電話の発信を選別してくれる。スパムでない場合、ユーザーはメッセージをテキストとして通知で受け取ることが可能だ。Googleによると、機能は以下のように動作し、すべての情報はそのユーザーにしか通知されないという。

写真に関する機能もアップデートされた。たとえ撮影時に機能をオンにしていなくても、後から人物写真の背景をぼかせるようになる。

Pixel 4のビデオ通話アプリであるGoogle Duoは、一人でも二人でも人を中心にくるよう配置してくれる自動フレーミングが可能になるなど重要な改良が加えられている。この機能は同社のスマートホームディスプレイ、Google Nest Home Max(その前にはFacebookのスマートディスプレイ、Portalでも)に搭載されているズームインやズームアウトで人間をフレームに表示してくれる機能をより洗練させたもののようだ。

Google DuoとPixel 2〜4の組み合わせでは、通話中に背景をぼかすことができるようになった、Pixel4に採用されたスクロールとアニメーションの表示をなめらかにするスムーズディスプレイは、通信の接続が不安定な場合でもなめらかに再生されるように改善されている。

また、すでに発表されていたように、非常に便利な自動文字起こしアプリのRecorderが古いPixel端末にも配信されること。そしてリアルタイムで字幕を生成してくれるLive CaptionがPixel 3と3aに追加されたことも注目すべき点だろう。さらに、英国やカナダ、アイルランド、シンガポール、オーストラリアのユーザーには、まもなくGoogleアシスタントのアップデート版が提供される。

[原文へ]

(翻訳:塚本直樹 Twitter

グーグルが最新スマートフォンPixel 4イベントのライブ配信を実施

Google(グーグル)は新型スマートフォンのPixel 4とPixel 4 XLをまもなく発表する。Androidスマートフォンのファンならご存知のように、Pixelスマートフォンは余計なアプリが搭載されていないOSと、いくつかの素晴らしいカメラ機能のおかげで最も面白いAndroidスマートフォンのうちのひとつだ。

Googleのカンファレンスは米国東部時間午前10時(日本時間で午後11時)から始まり、下のYouTube動画でライブ配信される。

によれば、Googleが発表するのは新型スマートフォンだけではない。新型Pixelbook、新型Pixel Buds、また音声アシスタント対応の新型デバイスの登場も期待できる。Google Home Miniが大いに成功をおさめているなか、Google HomeシリーズはGoogle Nestへと名称がアップデートされつつある。

TechCrunchはイベントにチームを送り、新型デバイスについてのニュースやハンズオンをお届けする予定だ。

[原文へ]

(翻訳:塚本直樹 Twitter

Googleの新スマホPixel 4がBest Buyの予約ページに一時出現

Pixel 4は米国時間10月15日のイベントで発表される。そして、公式情報と非公式なリークのおかげで、さらに多くの詳細が知られている(昨日までの噂まとめはこちら)。そのうちどれが意図したものなのかはわからないが、Google(グーグル)は大げさな宣伝については気にしていないようだ。

そして現地時間10月14日、カナダのBest Buy(ベストバイ)から、発売日の3日前にして大きなリーク情報が登場した。Pixel 4の予約ページが掲載されたのだ。ページは削除されたが、9to5Googleがいくつかのスクリーンショットの撮影に成功している。

予約ページの内容は、噂どおりだ。標準モデルとXLモデルが存在し、それぞれの画面サイズは5.7インチと6.3インチだ。どちらのモデルもSnapdradon 855と6GBメモリー、64GBストレージを搭載し、新しいFace Unlock(顔認証)機能を採用している。またどちらにも、iPhone 11風の1200万画素と1600万画素のデュアルカメラが搭載されている。

前面には800万画素カメラが搭載され、Pixel 4とPixel 4 XLにはそれぞれ2800mAhと3700mAhのバッテリーが採用されている。その他にも、以前にも似たものは存在したが、手の動きを利用してデバイスを操作する「Quick Gestures」(クイックジェスチャー)が追加されることが期待されている。

一方で、予想されている「Oh So Orange(オー・ソー・オレンジ)」のカラーバリエーションは確認できなかった。これは予約注文に限ったものなのか、あるいはBest Buy CanadianではJust Black(ジジャスト・ブラック)かClearly White(クリアリー・ホワイト)を選択しなければならないのかもしれない。おそらく、Googleは現地時間10月15日のイベントのためにいくつかのサプライズを用意しているのだろう。

[原文へ]

(翻訳:塚本直樹 Twitter

音声通話できない状況での緊急時連絡機能を米国でAndroidに導入

Googleが米国時間8月1日、災害時などに音声による連絡ができなくても対話できる機能をPixelやそのほかのAndroidデバイスに導入した。怪我などで声を出すと危険な状況や、発話機能に障害のある人が、タッチメニューでコミュニケーションできる。

この緊急通話を開始すると、火災、医療、警察などの状況やニーズを伝えることができる。これらの情報はオペレーターに伝わるので、通話者は話せなくてもよい。位置もGPSから伝わるので、自分が具体的なアドレスを知らなくてもよい。

AED Lower Speech Rate 06

メニューの情報は電話機上にローカルに保存され、すべての情報の守秘性が、オペレーター以外に対して保たれる。また可能なら、情報入力後にはオペレーターとは直接に話せる。

この機能は、National Emergency Number Association(全国緊急番号協会)とのコラボレーションで作られた。数か月以内に米国のPixelと一部のAndroidデバイスにやってくる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Pixelの販売台数が前年比倍増

どうやら、ミッドレンジ向けのPixel 3aはGoogle(グーグル)が期待していたヒット商品のようだ。

Googleの親会社であるAlphabet(アルファベット)は米国時間7月25日に、かなり好調な決算を報告したが、Googleや他のビジネス部門の詳細を明らかにしていないことを考えると、同社の報告は極めて平凡になりがちだ。だからといって、Googleにとっていいニュースがないわけではない。同社でCEOを務めるSundar Pichai(サンダー・ピチャイ)氏は、スマートフォンビジネスに関するいくつかの新しい統計を共有した。

ピチャイ氏によれば、「5月にPixel 3aをローンチしたことで、第2四半期のPixel全体の販売台数は前年同期比で2倍以上伸びた」そうだ。この成長の要因の一部は、Googleが自社ストアとVerizon(ベライゾン)以外にもT MoibleやSprint、US Cellular、Spectrum Mobileなどにも販売網を広げたことにある。また、Pixel 3aはNet Promotor Score(顧客ロイヤルティ、顧客の継続利用意向を知るための指標)にてGoogleにおける最高の評価を受けたことも強調された。

もちろん、Googleは実際の販売台数を公表していないので、ピチャイ氏が主張するベースの数値については不明だが、Pixel 3aが手頃な価格かつフラッグシップ機と比べても大きなトレードオフがないことは確かだ。さらに、ローンチ時のレビューもおおむね好評だった。これまで時にGoogleを悩ませてきたPixelのローンチとは異なり、Pixel 3aでは大きなハードウェアの問題も起きていない。

[原文へ]

(翻訳:塚本直樹 Twitter

Googleが自社製タブレットを完全廃止

それは、かなり前から言われていた。昨年の今ごろTechCrunchは、Googleの販売サイトからタブレットがすべて消えたと報じた。そのときは正確ではなかったが、でもそれは、これから起きることの不吉な前兆のようだった。

Googleはその後昨年Pixel Slateをローンチして、ハイエンドのPixel Bookに代わる形状サイズを求める要望に応えようとした。でも結局、そのデバイスは無駄と受け取られ、タブレットとしての最後の機種になるか、と思われた。そして今週同社は、ハードウェアチームがタブレットの亡霊を退治した、と認めた。

各誌の初期の記事への応答として、同社は次のようにコメントしている。「Googleのファーストパーティ(=自社製)のハードウェアとしてはChrome OSのラップトップにフォーカスするがPixel Slateのサポートは続ける」。

そうだよ。Googleのハードウェアチームは今後ハードウェアにフォーカスするけど、間違えないでいただきたい。AndroidとChrome OSのチームはパートナーたちとの長期的で真剣な努力により、消費者、エンタープライズ、教育などさまざまな市場に向けたタブレットに取り組んでいくんだ。

Googleの上級副社長を務めるRick Osterloh氏は、Twitterで一連の「不明瞭な」記事の明瞭化に努めている。

タブレットは、Apple(アップル)以外の企業にとって売るのが難しい製品だった。Googleは自社製品でいろいろ努力はしたが、高級機のiPadと安価なAndroid/Chromebook機が支配する市場に自分の場所を見つけることができなかった。同社はそのNexus/Pixelデバイスを同社のソフトウェアの参照モデルと位置づけることで満足しているようでもあったが、最近では自社製デバイスの本格的なリストラに取り組むことになった。

というわけで、さようならGoogleのタブレット。少なくとも、当面は。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Googleの次世代スマホPixel4はメインカメラは少なくとも2基に

Googleが準備中のPixel 4がどういうスマートフォンになるのか、今週に入って各種の噂が渦巻いている。 そこでGoogleはTwitterの公式アカウントで裏と表の外観写真をリークした。

下にエンベッドしたのが@MadeByGoogleによるそのツイートだ。Googleは「かなり注目を集めているようなので、写真をお目にかけよう!実機が出させるようになるまでしばし待たれよ」と書いている。

Pixel 4のデザインは今週、まずPricebabaというスマートフォンの情報を扱うブログに掲載された。

裏側のデザインが現行製品と比べて大きく変わっているのが目を引く。Pixel 3の場合、レンズ、センサー、フラッシュが1基ずつ横に並び、長方形の枠に囲まれている。これに対してリーク写真のデバイスではカメラ部分が正方形になっている。ここにカメラが少なくとも2基、フラッシュ、他のセンサー2基が収まるもようだ。さらに現行製品にある指紋センサーが見当たらない。

表側は下半分の写真しか公開されておらず、この部分には目立った変化はないようだ。

Pixel 3の場合、(カメラの夜景モード以外では)ハードウェアの能力にあまりこだわらず、Googleが力を入れていたのはもっぱら機械学習の成果を活かすソフトウェア面だった。

今回Googleは他社にかなり遅れてデュアル・カメラを採用した。Pixel 3でGoogleは「他の多くのデバイスが複数のカメラで実現する以上のレベルを機械学習アルゴリズムによって1台で達成している」と主張していた。もちろんこれはこれで事実だったが、カメラを追加できれば当然そのメリットがある。Googleも遅ればせながらデュアル・カメラの時代に参入するようだ。

原文へ

(翻訳:滑川海彦@Facebook

Google I/O 2019基調講演で語られた全内容のまとめ

先週末に行われたGoogle I/Oカンファレンスの2時間にわたる基調講演で、Googleは、新しいスマートフォンから次世代型の音声アシスタントなど、この1年間で開発してきたものを大量に発表した。

すべてを見ている暇はない? 大丈夫。そんな人のために駆け足で紹介しよう。

Google Pixel 3aと3a XL

噂のとおり、GoogleはPixel 3の廉価版を発売する。

価格を下げるために、プロセッサーのランクをちょっとだけ下げ(Snapdragon 845をSnapdragon 670に)、ストレージを64GBに制限し、無線充電機能をなくした。その代わりに、空いたスペースに3.5ミリのヘッドフォンジャックが付くという嬉しいオマケがある。

Pixel 3aは399ドル(約4万4000円)より。5.6インチディスプレイ、12.2メガピクセルのリアカメラ、そして、最初からAndroid Pが走る。Pixel 3a XLは479ドル(約5万2800円)から。こちらは画面が6.0インチになる。

TechCrunchのBrian Heaterが、今週初めにこのスマートフォンを試用している。彼のレビュー記事はこちら

Nest HubとNest Hub Max

Google Home Hubは、Nest Hubと名前を変えて、価格も149ドル(約1万6400円)から129ドル(約1万4000円)に下げられた。

同時に兄貴分も登場した。Nest Hubの画面を7インチから10インチに拡大してカメラを追加した、その名もNest Hub Maxだ。Nest Hub MaxはNestアプリに接続できるため、Nestの他のカメラと同じように使える。Googleによると、背面のスイッチでカメラとマイクをオフにできるという(残念ながらカメラかマイクのどちらかを生かすというのはダメみたい)。価格は229ドル(約2万5000円)。今年の夏に出荷予定だ。

Nest Hub Maxに搭載された新しいFace Match機能は、顔認証ができ、その反応をカスタマイズできる。この機能に関するGoogleのブログ記事には「Face Matchの顔認証は、デバイスに内蔵された機械学習機能によりローカルで処理されるため、カメラのデータは一切外に出ません」とのことだ。

検索に拡張現実

一部の検索結果、たとえばあるモデルの靴や「大きなホワイトシャーク」などでは3Dモデルが見られるようになる。モデルをタップすれば、AR(拡張現実)を使って現実の映像の上にそれを重ねて見ることができる。

Google Lensのアップグレード

Google Lensにも、いくつか新しい機能が増える。レストランのメニューにGoogle Lensを向けると、人気の料理がハイライトされる。レシートに向ければ、チップや合計金額を自動的に計算してくれる。

ウェブ上でDuplex

昨年のI/Oで、GoogleはDuplexを発表した。スモールビジネス(レストランや美容院など)向けのAIを使った顧客サービスツールで、大量の電話に対応したり、よくある質問に応答したり、予約を管理したりできる。

今年はこれを拡大して、ウェブ上で公開する。例として示されたのが、インターネットによるレンタカーの予約だ。「(レンタカー会社)のレンタカーが欲しい」と言うと、そのレンタカー会社のウェブサイトが開かれ、自動的に予約が行われる。そこには、カレンダーに書き込んだ出張の日程がすでに入力されていて、Gmailに残っている前回のレンタカー予約確認のメールをもとに、好きな車種が選択されていた。

Googleの「次世代」アシスタント

Googleは、音声認識モデルのサイズを数百ギガバイトから500メガバイトほどに圧縮することができた。スマートフォンに搭載できる十分に小さいサイズだ。

音声認識モデルをローカルで持つことで、クラウドとのPingのやりとりによる遅延がなくなる。アシスタントとの会話も、ほぼ瞬間的に行えるようになる。デバイス上で走っているため、機内モードでも使える。Googleは、矢継ぎ早に命令(「Lyftを呼んで」や「懐中電灯を点けて」など)を連発してその様子を披露していたが、しっかりと応答していた。

Googleによれば、この次世代の音声アシスタントは、今年の後半に新型Pixelに搭載されるという。

GoogleアシスタントがWazeに

GoogleアシスタントがWazeに組み込まれ、「ほんの数週間以内」に使用可能となり、事故や道の陥没の通報などが声で行えるようになる。

Googleアシスタントのドライビングモード

「ヘイ、Google、ドライブしよう」と言えば、アシスタントはドライビングモードに切り替わる。画面には、チラッと見てわかるように、目的地の方向や音楽の操作系など、運転中に必要最低限の情報だけが表示される。

Googleマップのシークレットモード

ブラウザーのシークレットモードと同様に、Googleマップに追加されるシークレットモードでは、場所の検索結果や経路がGoogleアカウントの履歴に残らないようになる。

ライブ字幕とライブ筆記

Androidには、間もなく、スマートフォンで再生したメディアにその場で字幕を入れる機能が追加される。保存したポッドキャストや録画した動画にも字幕が付けられる。

Live Relay(ライブ中継)とGoogleが名付けた機能を使えば、電話での会話をリアルタイムで筆記させたり、文字で応答したりできるようになる。

下の動画は、Live Relayで実際に会話している様子だ。

https://platform.twitter.com/widgets.js
声に出したり耳で聞いたりしなくても電話ができるように、Live Relayは、デバイスに内蔵された音声認識と文章音声変換を使って、電話の音声のやりとりを代行します。

Project Euphonia

Googleは、そのAI音声アルゴリズムを使って、ALSや脳卒中の後遺症などのためにうまく話ができない人を支援する研究を続けてきた。それぞれの人の話し方にモデルを調整することで、コミュニケーション能力を向上させることができる。

https://platform.twitter.com/widgets.js
非営利団体とボランティアの協力のもとで行われているProject Euphoniaは、音声による会話に障害がある人たちのコミュニケーションを迅速化し自立を支援する活動です。

ダークなテーマ

Android Qにダークモードが追加される。手動で切り替えることもできるが、省電力モードになったときに自動的に切り替わるようにもできる。

集中モード

仕事が忙しい? それならFocus Mode(集中モード)だ。仕事の邪魔になるアプリの一覧を作って、スイッチを切り替えれば、集中モードをオフにするまで、それらのアプリは表示されなくなる。今年の秋にAndroidに搭載される。

PixelのGoogleマップにARモードが登場

数カ月前、GoogleはGoogleマップで使える新しいAR(拡張現実)モードを披露した。その目的は? 確実に正しい方向に歩行を開始できるようにするためだ。スマートフォンを目の位置に掲げると、画面に目の前の光景が映し出される。Googleマップはその映像とストリートビューのデータとを照合して、現在位置と方向を正確に割り出す。GPSだけを使った場合よりも確かだ。そして、正しい方向に矢印を表示する。

しばらくベータ版だったが、今日からPixelに搭載される。

消費者向けの基調講演の後、Googleはこれとは別に、開発者向けの基調講演を行った。内容は次のとおりだ。

  • Android開発の主要プログラミング言語はKotlinになったとGoogleは話した。
  • Kotlinでの開発用の新しいUIツールキットJetpack Composeを発表。
  • 今回発表されたNest Hub Maxなど、Googleのスマートディスプレイ・デバイス用のゲーム開発が可能になった。
  • 速度と安定性を向上させたGoogleのAndroid Studio IDEの新バージョンを発表。
  • Androidの開発者は、作動を続ける前にアプリの更新をユーザーに要請できるようになった。去年発表されていた機能だが、やっと実現した。

[原文へ]
(翻訳:金井哲夫)

Googleの新音声認識はオフライン化されて高速に、Pixelで利用可能

音声認識は最近のスマートフォンの標準的機能だ。人工知能を利用した分析は驚くほど正確なこともあればひどい混乱に陥ることもある。しかし最大の問題は、Siri、Alexa、Googleアシスタントなどが返事を返してくるのが遅れることだ。Googleの最新の音声認識は完全にオフラインで動作するため遅延を完全に排除できる。ただし認識失敗はやはりときおり起きる。

遅延がなぜ起きるのかといえば、ユーザーの音声データはローカルデバイスからネットワークを通じてはるばる音声認識エンジンが存在するサーバーまで旅しなければならないからだ。データはそこで分析されてからユーザーに戻される。当然ながらこれには時間がかかる。応答を待つ時間はミリ秒単位ですむ場合もある。しかしまるまる数秒かかることあり、そうなればユーザーは苛立たしい思いをする。最悪の場合、経路の途中でデータの一部が行方不明になり、まるきり応答が返ってこないこともある。

それなら音声認識をローカルデバイス上で実行すればいいではないか?プロバイダーもそれが理想的な解決法だと考えている。しかし音声をミリ秒単位でテキストデータに変換する処理は膨大なコンピューティングパワーを食う。つまりマイクが拾うのは単なる「音」であって「発話」ではない。音声をテキスト化するためには言語と発話が行われたコンテキストに関する膨大な情報が必要だ。

もちろんローカルデバイス上で実行することはできる。しかしユーザーのデバイスの限られたリソースを考えるとクラウドに往復させるより速くはならなかった(しかもデバイスのバッテリーをひどく食う)。だがこれは急速に進歩を続けている分野であり、Googleはそれを可能にした。ただしPixelを持っている必要がある。

Googleの最新のテクノロジーについてはこちらの論文が詳しいが、簡単に要約すれば、Googleはこれまでの音声認識で蓄積された経験を生かして音声分析システムをスマートフォンで高速に作動するくらいいにコンパクト(正確には80MB)にまとめることに成功した。これによりユーザーはほとんd遅延を感じずに発話をテキスト化できるようになった。「their」と「there」などの同音異義表現も新しいシステムは発話終了を待たず、その場で判断できるという。

ただしテクノロジーには今のところ大きな制限がある。まずGoogleのPixelスマートフォン上のGboardアプリでしか作動しない。またサポートする言語は米英語に限られる。つまり実機によるベータテストに近い。Googleでは世界の各言語へのローカライゼーションの必要性を強調して次のように述べている。

ハードウェアコンポーネントの標準化とアルゴリズムの進歩という業界のトレンドを考えれば われわれが実現したテクノロジーが広く採用され、多くの言語、アプリが近くサポートされるようになるものと期待している。

しかし考えてみるとGoogleの他のアプリは大部分クラウド接続を必要とする。できた文書を共有したりメールで送信したりするのはもちろん、摂氏温度を華氏温度に換算するのでさえネットワーク接続が必要だ。接続状態が貧弱な場合オンラインでは音声認識が不可能な場合がある。またオフラインであればデータ伝送量を食わないですむ。こうした点は大進歩だ。

画像:Bryce Durbin/TechCrunch

原文へ

(翻訳:滑川海彦@Facebook Google+

GoogleがPixel 3 Liteでヘッドホンジャックを復活か

Pixelファミリーの次期メンバーの噂はクリスマス直後から漏れ始めていた。そして今、噂のPixel 3 Liteが、3分間のYouTubeビデオのおかげで見えてきた。ビデオではGoogleのフラグシップ製品ラインに追加される格安機種と思われるものが紹介されている。

おそらく一番興味深いのは(第3のPixel 3モデルの存在そのものを別にして)ヘッドホンジャックの復活だ。初代Pixelでヘッドホンジャックに関して騒ぎを起こしたあと、Googleは次機種ですばやく方針転換した。

製品ラインへの中級機種の追加は、ヘッドホンジャックを復活させる理想的理由だったのだろう。最近はBluetoothヘッドセットがずいぶん身近になってはきたものの、専用ヘッドホンは、端末代を節約したい人々にとってはいまだに高いハードルだ。

コスト削減の要因は、Snapdragon 670とプラスチックボディーの採用や第二セルフィーカメラの省略などだ。全体的に見て同端末はGoogleのiPhone XR対抗のように感じるが、背面カメラの構成は高価な兄弟機種とほぼ同じように見える。これは、最近の端末では重い画像処理を(ハードウェアではなく)AIが受け持っているからだろう。

元々Pixelの各機種はAppleやSamsungのフラグシップ機よりも低価格だが、Googleにとって新機種の追加は、Androidがローコスト機種でも輝けることを示すよい機会になるかもしれない。

アップデート:ビデオは(驚きではないが)元の投稿者によって削除されたようだが、その後 別の投稿者が再浮上させた

[原文へ]

(翻訳:Nob Takahashi / facebook

イノベーションのためには携帯を捨てろ

われわれは今、過渡期を生きている。1980年代のはじめ頃には、デスクトップコンピュータの時代に入り、ドットコムの崩壊でクライマックスを迎えた。それは2000年問題に対応するためのコンサルティング料と、ハードウェアへの支出、さらにはPets.comなどの理不尽な繁栄に支えられた財政バブルだったのだ。その直近の過渡期は、コンピュータがより小さくより奇抜に、より薄く、そしてずっと強力になった時期だった。それは、長い退屈な時期を経て、われわれをモバイル時代へと導いた。それが今も続いている。次の10年間で革新を起こしたいのなら、以前のデスクトップPCがそうだったように、もはや携帯電話は行き止まりだということを認めるべき時が来ている。

われわれは、10年ごとに何かを創造しては、その後それを磨き続けることを繰り返している。その進歩の速度は増加しているものの、それは革新ではない。たとえば2007年のiPhoneと、現在のPixel 3との違いは信じられないほどだ。しかし、Pixelにできて、オリジナルのiPhoneやAndroid携帯にできないことが何かあるだろうか? あったとしても多くはない。

われわれは、現在の技術が可能にするユースケースに縛られている。1903年には、自転車は自転車であり、飛ぶことはできなかった。しかし、ライト兄弟や、その他の人々が、前進する機械的な動きから揚力を得ることに成功すると、われわれは離陸することができるようになった。2019年には、携帯は携帯であり、われわれと真にやりとりすることはできない。人間の体とは独立した部品に過ぎないからだ。そうした制限の先を見据える人が出てくれば、われわれは飛べるようになるかもしれない。

モバイル技術の未来を断定するつもりはないが、携帯電話を捨てて、この世界を見つめ直さない限り、注目に値するようなことは何もできないだろう、ということだけは言っておく。確かにきれいな写真が撮れるようになり、FaceTimeでやりとりできるようにはなった。しかし、そうした技術の限界に気付かなければ、それらの外の世界は見えてこないのだ。

もうすぐ新しい年(そして新しいCES)がやってくる。そしてまた、より多くの同じようなものがやってくる。画面−手−目の連携にとどまって、実質的に携帯電話を顔に押し当てるだけようなVRデバイスや、ほとんどテレビのようにしか見えない大画面のパソコンを作るのは、安全であり安心だ。しかし、その次に何があるのだろうか? そうしたデバイスはどこに行こうとしているのか? どのように変わるのか? ユーザーインターフェイスは、どのように凝縮され、形を変えるのか? そろそろ真剣に考えなければ、やがて身動きが取れなくなってしまうだろう。

たぶん、あなたはもう考えている。でも、急がなければならない。これまでもそうだったように、この時代も急激にガラッと変わるかもしれない。そうなれば、よく見積もっても得られるチャンスは限られる。なぜVRは軌道に乗らないのか? なぜなら、それはまだ辺境のものであり、モバイル思考に囚われた人たちによって探索されている段階だからだ。機械学習やAIの普及も、なぜこんなに遅いのか? それは、そのユースケースが、チャットボットと、より良い顧客応対に狙いを定めているからだ。われわれが、携帯電話の黒い鏡(この意味は分かるだろう)の向こう側に注目し始めなければ、イノベーションは失敗する。

起動するすべてのアプリ、スクロールするすべての写真、すべてのタップ、ダサいFacebookのちょっとした改良に期待して祈ることは、みんな予想を上回るより良い未来の到来に抵抗する砦を築くためのレンガなのだ。だから、来年こそは携帯から手を離して、何かを創ろうではないか。手遅れになる前に。

画像クレジット:Fuse/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

Pixel 3、これが注目の新機能だ

Googleは火曜日(米国時間10/9)の大ハードウェアイベントでGoogle Home HubやGoogle Pixel Slateなどいくつもの新製品を発表した。しかし新しいスマートフォン、Pixel 3が本物のスターだった。

Pixel 3には2つのサイズがあり、価格は799ドルから。カラーは3種類で12.2メガピクセルの背面カメラとデュアル前面カメラを搭載している。中は新しいアプリと機能でいっぱいだ。今日から予約受付を開始して発売は10月18日から。

Pixel 3の新機能、改訂機能の目玉をいくつか紹介する。

コールスクリーン

コールスクリーンは、かかってきた電話をあなたの代わってGoogle Assistantが取ってくれる機能だ。ユーザーはコールスクリーンボタンをタップするだけで、あとは端末が電話に答えて誰が何の用事でかけてきたかを聞いてくれる。

会話の内容はテキスト化されてリアルタイムで表示されるので、ユーザーは電話に出るかテキストで返信するかを選ぶことができる。

コールスクリーンはPixel 3では発売と同時に、他のPixel端末では11月から利用できる。

Google call screen

セキュリティー

Pixel 3には、GoogleがTitan Mと呼んでいる新しいセキュリティーチップが搭載されている。このカスタムチップは、端末のパスワードとオペレーティングシステムの安全性を高めるために使用される。

スピーカー

前面に向けられたスピーカーは従来のPixel機よりも40%大きく豊かな音になった。

YouTube Music

Pixel 3には、YouTube Musicのストリーミングアプリが搭載され、6ヶ月間の無料購読がついてくる。

Googleレンズ

Googleレンズは、AI機能内蔵カメラだ。画像をキャプチャーし、AIアルゴリズムが認識する。「スタイル検索」は画像に写った商品を識別して、ネットでその商品を見つけるのに役立つ。

Googleレンズは、ランドマークや植物、動物なども識別し、イベントをカレンダーに追加する。カメラをテイクアウトメニューに向ければ、電話番号をハイライトする。

Google Lens

グループセルフィーカメラ

Pixel 3にはデュアル前面カメラがあり、ワイドな自撮り撮影ができる。
電源ボタンをダブルタップしてカメラを立ち上げ、手首を2回フリックすれば自撮りモードになる。あとは、ズームアウトしてグループセルフィーを撮るだけだ。

トップショット

この撮影機能は、HDRで複数の画像を撮影し、最高の1枚をリコメンドする。
たとえば、子供がバースデーケーキのローソクの火を吹き消すところを取ろうとしたことがあるだろう。これまでなら、写し損ないは写し損ないだった。トップショットは、シャッターを切る前後の瞬間をキャプチャーして自動的に最高の1枚を推薦する。

もしほかに気に入ったものがあれば、それも選ぶことができる。

Google Pixel 3 Top Shot

プレイグラウンド

プレイグラウンドは、写真やビデオにリアクション・キャラクター(犬や踊るステレオなど)やキャプション、動くスタンプなどを追加できる機能だ。文字同志あるいはユーザーと反応し合うPlaymojiを使って写真に「命を吹き込む」こともできる。

オプションにはMarvel Cinematic UniverseのIron Manなどのキャラクターもある。Googleはドナルド・グローヴァーとのコラボレーションでプレイグラウンドにチャイルディッシュ・ガンビーノも連れてくる計画だ。

Google Playground Childish Gambino

フォトブースモード

そう、これもカメラ機能だ。この機能は被写体が面白い顔をしたり笑ったりすると自動的にシャッターを切る。。

more Google Event 2018 coverage

[原文へ]

(翻訳:Nob Takahashi / facebook

Best Buyの店頭にGoogle未発表の第三世代Chromecastが登場、旧型と同価格

Googleのビッグなハードウェアイベントは10月9日に行われて、同社の新しいスマートフォンPixel 3とPixel 3 XLがその主役になると思われる。でも最近分かったのは、Googleが第三世代のChromecastを発表するかもしれないことだ。Best Buyのお客が、店頭の棚の上に、それらしきものを見つけたのだ。

あらまあ。

“GroveStreetHomie”と名乗る人が、Redditに投稿した“I think I bought the 3rd gen Chromecast too early.”(発表前の第三世代Chromecastを買ったみたい)と題する記事で、詳細を述べている。

それによると、彼(彼女?)は新しいテレビのためにChromecastを買おうと思ってBest Buyへ行った。すると、そのパッケージとデザインが前と違うことに気づいた。

レジの人はそのアイテムのバーコードをスキャンできなかった。まだPOSに入っていなかったからだ。リリース日は10月9日になっていて、それはイベントの当日だ。

“でも、それをすでに自分の手に持っていたし、値段は第二世代のChromecastと同じだったから、お店は古いSKUで売ってくれた”、という。

この未発表の新しいChromecastは、第二世代より厚いようだ。ChromeのロゴがGoogleのロゴに変わっている。micro-USBはあるが、HDMIコネクターはなくなってるそうだ。

〔訳注: Redditの記事のコメントには、“うちの近くのBest Buyにもあった”、とある。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Pixel 2の眠れるVisual CoreチップがAndroidの今度のデベロッパープレビューで可利用になる

残念なことにGoogleの旗艦機Pixel 2はそのローンチ以降、必ずしもすべてのサプライズが良いことではなかった。それでも、同社のカスタムSoC Visual Coreは良い方だと思われるが、でもそれはこれまで、同機の中でほとんど休眠状態だった。

同機が市場に出たとき、それはまだ十分に可利用ではなかったみたいだが、でも今度やっとそのチップは、自分の仕事ができるようになった。

今日(米国時間11/27)リリースされるAndroid 8.1デベロッパープレビューでは、Pixel 2とPixel 2 XLのチップの初期的サポートが提供される。それにより、すでに評価の高いカメラが、さらに性能アップするようだ。まだ、生産の問題は尾を引いているけど。

Googleによると、Pixel Visual Coreには、画像処理ユニット(IPU)コアが8つあり、演算ロジックユニットが512ある。機械学習を利用することにより、これらのハードウェアにより5倍のスピードアップが可能になり、電力消費は1/10になる。Android Camera APIがこのチップにアクセスするようになると、サードパーティの写真アプリもこのシステムの高速なHDR+を利用できるようになる。

すばらしいことではあるけど、またプレビューだから非公開ベータにアクセスできるデベロッパーが利用できるだけだ。まだまだ、バグ退治などが必要だろう。一般公開の日程は発表されていないが、8.1の公開ベータは12月からだ。

今のところPixel 2とPixel 2 XLだけの機能だが、今後の新製品ではすべての機種に当然載るのだろうね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Pixelの目玉機能は新バージョンのAndroidには搭載されない予定

pixel7

今週行われたGoogleのハードウェアイベントでは、Androidの新バージョンAndroid 7.1(Nougat 7.1)についてほとんど触れられていなかった。というのも、Pixelに盛り込まれる目玉機能のいくつかは新OSには搭載されない予定なのだ。備え付けのカスタマーサポートサービスであるGoogle Assistantや、オリジナル解像度で写真・ビデオの無制限バックアップができるSmart Storageなどは新OSには搭載されない。

どの機能が”Pixelオンリー”なのかについては、Android Policeが既にGoogleの内部から入手したログを引用してレポートしていた。そしてこの度、Googleはその内容が正しいと認めたのだ。

搭載されない機能のいくつかについては納得がいく。例えば、iPhoneからAndroidへのデータ移行を簡単にする“クイックスイッチ”アダプターは、Pixelにしか同梱されない予定だ。というのもこれにはケーブルアダプターというハードウェアが必要になる。

pixel10

Pixelの新しいカメラアプリもハードウェアに依存している。Pixelの背面には12.3メガピクセルのカメラが搭載されており、4Kビデオが撮影できる他、連続で複数枚の写真が撮れる”スマートバースト”といった特別機能もいくつか盛り込まれる。

さらに、Pixelにはさまざまなセンサーや接続方法(Wi-Fi、セルラー移動通信、GPSなど)を集約したSensor Hubプロセッサーが搭載されている。

Google Photos経由の無制限写真・ビデオバックアップサービスを無料でバンドルするというのは、上手いマーケティング戦略であるとも言える。自分のAndroidをアップグレードする言い訳を求めている写真好きにとっては、このサービスを利用できるだけでPixelが魅力的に映るだろうし、iCloudにお金がかかることを考慮すると、iPhone 7よりもPixelを選ぶ人がいるかもしれない。

screen-shot-2016-10-04-at-2-01-04-pm

しかし、新OSで採用を見送られた機能の中には疑問に感じるものもある。

1番大きなものとして、Nougatのアップデート版であり、PixelやPixel XLのOSに採用されているAndroid 7.1には、Google Assistantが含まれていない。このスマートバーチャルアシスタントは、AppleのSiriやMicrosoftのCortana、AmazonのAlexaに対するGoogleの答えだ。さらにGoogle Assitantは、現存するAndroidデバイスに搭載され、スタンドアローンのアプリとしても配信されているデジタルアシスタントのGoogle Nowよりも強力なことで知られている。

そもそもGoogle Now自体もパワフルで、自然言語が処理できるほか、競合サービスのようにさまざまなアシスタント機能を果たすことができる。通勤路を利用してどのくらいで自宅に着くかや、飛行機に間に合うにはいつ出発しなければならないか、いつ頃荷物が届くか、さらに天気・スポーツ・株式に関する情報や、イベントのリマインダー機能など、ユーザーが気になる情報に関するアラートを発信してくれる。

さらにGoogle Nowは、近場のレストランやお店に関するユーザーの質問に回答することで、Google検索のとっかかりになっているほか、単純にウェブ上の情報も検索できる。より実用的な機能として、デバイスの設定変更やテキスト・メールの送付、電話をかけたり、リマインダーを設定したりといったこともできる。

screen-shot-2016-10-04-at-1-40-18-pm

しかし、Google Assistantはさらにその上をいく、Google Nowがよりスマートになったアップグレード版のようなものだ。Google Nowができることは全てできるのはもちろん、その根底にあるAIテクノロジーはユーザーと双方向の会話ができるため、話の中で出てきた情報を記憶し、後日別の話をしているときにその内容を引っ張り出すことができる。さらに、サブスクリプション機能を利用して、ユーザーが気にしている情報のアップデートを毎日配信することも可能だ。

また、Google Assistant経由で、ChromecastやGoogle Castを搭載したデバイスのほか、NestやSmartThings、Philips Hueのスマートホームデバイスも操作することができる。

サードパーティ製のサービスともAction(Alexaの”Skills”のGoogle版)を介して連携可能だ。

screen-shot-2016-10-05-at-4-47-46-pm

Google Assitantの強力な機能を考えると、Android 7.1からGoogle Nowに取って代わらないのは残念だが、今後Pixel以外のデバイスにAssistantが登場しないというわけではない。同時に、AssistantをずっとPixelだけの機能にするのはバカげている一方、近いうちに無料のAndroidアップデートに盛り込まれるとも考えづらい。

Googleの広報担当者は下記のように話している。

私たちのゴールはGoogle Assistantをできるだけたくさんのユーザーに使ってもらうことです。来年中もGoogle Assitantの新たな機能を順次発表していく予定です。

Pixel Launcherとユーザーインターフェースについては、PixelにだけAssistantにアクセスするためのナビゲーションバーアイコンが表示される。その他には、システムUIのアクセントカラーテーマや、新しい見た目と雰囲気のセットアップ画面、新しい壁紙設定機能、日付が表示されるカレンダーアイコンなどもPixelのみで利用可能だ。

0033

そうは言っても、Android 7.1にも、いくつか使える機能が搭載される予定だ。

ハードウェアアクセラレーションに対応したナイトライトや、タッチ機能・ディスプレイ性能の向上、Moves(ステータスバーを開閉するための指紋ジェスチャー)、シームレスな自動アップデート、Daydream VRモードへの対応のほかにも、開発者向けにアプリショートカットのAPIやサークル型アプリのサポートなどが発表された。

Android 7.1はディベロッパープレビューとして今月中にローンチ予定だ。一方で、いつ頃一般消費者向けのバージョンが配信されるかや、どのデバイスが最初にアップデートできるようになるかについてはGoogleと確認がとれていない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter