「Google Homeは昨年10/19以来毎秒1台以上売れた」――CESを控えてGoogleが発表

今日(米国時間1/5)、Googleは 「昨年は何千万台ものGoogleデバイスが家庭に入っていった。10月にGoogle Home Miniが出荷されて以降、毎秒1台以上の割合で複数のGoogle Homeデバイスが売れている」と発表した

Home Miniが正式に販売開始されたのが昨年10月19日だから、それ以来ざっと675万秒経過している。情報を総合すると各種のGoogle Homeは750万台程度売れたようだ。

2017年に入ってGoogleはGoogle AssistantとGoogle Homeデバイスの普及に本格的に力を入れるようになった。新しく登場したGoogle Home Miniは 29ドル(場合によってはわずか19ドル)で買える。Home MiniでGoogleは低価格デバイスでAmazonのEcho Dotと正面から競争できるようになった。もちろんハードウェア・ビジネスでGoogleが得られる利益自体は大きくないだろうが、全体としてみればこの戦略は功を奏したといえる。

残念ながら, GoogleはGoogle Homeの販売台数の内訳を教えてくれなかったので、レギュラーサイズ機とMiniがそれぞれ何台売れたかは不明だ。常識的に考えれば低価格のMiniのほうがかなり多く売れたはずだ。

また今日GoogleはAssistantが4億台のデバイス上で作動していることを発表した。この台数には各種のAndroid版スマートフォン、スマートウォッチの他にiPhoneで作動するアプリも入っている。作動可能なGoogle AssistantとAmazon Alexaの数を比較してみたら興味深いだろうが、Amazonは知ってのとおり秘密主義で数字については固く口を閉ざしている。公式発表には逸話的情報は多いものの具体性には乏しい。

当然ながら、Google Assistantの拡大とともに、これをめぐるエコシステムもデバイス・メーカーにとって魅力を増しており、自社製品にAssistantを組み込む動きが目立ってきた。当面、ホームオートメーション部門が中心で、Nest、Belkin、Samsung、Philipsその他がすでに製品を投入している。現在Google Assistantをサポートするスマートホームデバイスは225のブランドから1500種類程度が市場に出ている。

Googleが今日この情報を発表したのは偶然ではないだろう。世界最大級のエレクトロニクス製品のトレードショー、CESはこの週末からスタートする。実はGoogleは会社の歴史始まって以来初めてCESに本格的に登場する。(フロアプラン)。目玉となるのはAssistantデバイスとエコシステムだ。この数日中に多数のGoogle Assistantをサポートするスマートデバイスが発表されるに違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Assistantでコントロールする電動アシスト自転車10日間のクロスカントリーでCESに来場

CESに行くための悪い方法がある。たとえばこれ…自転車で10日かけてクロスカントリーをやりながら行くこと。それは、中西部の氷点下の気温の中を1週間あまり、毎日17時間、ペダルを漕ぎ続ける行程だ。しかもCESは1月初旬。会場のラスベガスですら、氷点下になる時期だ。

でもこの新しい電動自転車にローンチ前に試乗するシナリオとしては、ふさわしいのではないか。それだけでなく、Googleが資金を出すパブリシティのためのスタントとしても有効だろう。派手な発売イベントが好きな企業だね。Google Assistantという、これまでギークっぽかったシステムを、年頭のでっかい消費者電子製品ショウで披露する段取りとしても、演出効果満点だろう。

ElectronのGen 2 Wheelが実際に発表されたのは数か月前だ。そして今では、799ドルの予約購入を同社のサイトで受け付けている(Best Buyでも近く売り出すらしい)。話題はGoogle Assistantに集中するが、ただしそれは、消費者製品のイベントCESでは新顔だ。そして自転車本体が2月に発売されても、そのとき、実装されているGoogle Assistantのシステムはまだベータなのだ。

Googleは、Assistantをスマートフォンとスマートスピーカーで終わらせたくない。だからElectronを(つまり自転車を)パートナーにしたかったのだ。スマートアシスタントを実装するデバイスとして、自転車は相当おもしろいだろう。最初に提案されていた、いろんなスマートホーム製品なんかよりも、ずっと似合っている。

ElectronのVP James Parkerはこう言う: “Googleと協働してAssistantを統合したときは、ユーザー体験をできるかぎり単純にすることと、音声技術を自転車に乗ることにどうやって統合すべきか、という点がとくに難しくておもしろかった。自動車にはすでに、優れたコマンドの技術がある。それを自転車に応用できる機会が十分にある、と考えている”。

Electron Wheelは、すでにいろいろある、前輪に取り付ける自転車用アドオンとほぼ同じ機構だ。同社によると、インストールは1分で終わり、あとはWheelを前輪のスポークに取り付けるだけだ。そしてセンサーをマジックテープでペダルにつける。たったのこれだけだ。

デフォルトのモードでは、システムは傾斜センサーを使って上(のぼ)り坂あることを検出し、電動アシストをonにする。Electronのアプリでアシストのレベルをカスタマイズできるが、スマートフォンをハンドルバーに取り付けて使うのは、ちょっと厳しい。そこで、Google Assistantの出番となる。

Wheel自身にマイクロフォンはない(いずれ付くと思うが)から、マイクロフォンを自分の近くに置く必要がある。そして“OK Google, start bike ride”と命令すれば、Wheelがonになり、Electronのアプリが計測を始める。それ以降は、Assistantに命じてアシストのレベルを調節したり、バッテリーの残量を知ったり、計測したデータを報告させたりできる。

この記事の冒頭で述べた、Wheelのクロスカントリーの旅は12月31日の朝に始まり、ライダーのMax Lippeがニューヨークマンハッタンのユニオンスクエアからスタートする。彼は1日に17時間自転車に乗り、うまくいけば10日後にCESに到着する。Wheelは一回の充電で最大50マイルの電動アシストができる。しかしじっと充電を待つわけではないので、チームのサポートにより、頻繁な電池交換が必要だろう。

チームのスタッフは1台のバンに乗り、6台のWheelを用意して、それらを次々と充電していく。すべてが計画どおりいけば、彼はラスベガスに1月10日、CESの二日目に着く。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのスマートスピーカーの最高級機Home Maxが発売、音質重視の製品だ

Googleのスマートスピーカーの最高級機は、どうやらホリデーシーズンに間に合ったようだ。そのHome Maxと呼ばれる製品は、Best Buyなどいくつかのネットショップで買える。このGoogle Assistantを内蔵したスマートスピーカーは、お急ぎ便なら明日届くそうだ。

この製品が発表されたのは、10月にサンフランシスコで行われたPixel 2のイベントのときで、ずっと安いHome Miniもそのとき発表された。そのEcho Dot対抗機種は直ちに発売されたが、Home Maxの方は12月発売という、漠然とした日程だった。最近のリーク情報では12月11日説だったが、どうやらその説は当たったようだ。

発表時には、Home MaxはHomePodの対抗製品ともっぱら見られていた。そのとき、そのSiriのスピーカーはまだ発売されていなかった。というかAppleはその後、“2018年早期”と日程を延ばし、“お客様にお届けできるためには、あとすこしお時間をいただきたい”、と言った。

399ドルのHome MaxはAppleの製品よりも50ドル高くて、今のところいちばん高いスマートスピーカー製品だ。SonosのAlexa対応製品とも、競合するだろう。AmazonはEchoの最新バージョンで音質を改良したと言われているが、100ドルの製品に多くは期待できない。むしろHome MaxとHomePodは‘スピーカーファースト’で、AI機能は二の次だ。

HomePodと同じく、Googleのこのスマートスピーカーも、部屋の状況などによって音質を自動的に変える。ウーファーもツイーターもデュアル(2基)で、Google PlayやPandora、そしてSpotifyに接続する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Homeがマルチタスキングを学習した、二つの仕事を同時にできる

Googleのスマートスピーカーが今週すこしおりこうになり、マルチタスクができるようになった。これからの彼(彼女)は、二つの仕事を同時にできる。Googleからの発表はなくて、CNETが最初に気づいた。もちろん本誌も、そのことを現物で確認した。

GoogleはHome製品に力を入れているはずだから、なにも発表がないのは意外だ。でもこれは、本来愚直なデバイスの、便利な進化だ。数か月前のPixel 2の発表イベントでは、一つのコマンドに複数のアクションを結びつけて複数の場面を作る、Routinesという機能を予告した(SiriやAlexaにはすでにある)が、それとこれとは違う。

今回のマルチタスク機能では、あらゆるものをアプリからロードしなくても、単純に二つの仕事を頼むだけでよい。マルチといっても、今のところ二つだけだ。三つも四つも仕事を頼むと、彼(彼女)は混乱するかもしれない。二つの場合も、一つのセンテンスの中に二つのコマンドを入れたらいけない。別々のコマンドでないと、彼(彼女)は理解できない。いろいろ制約はあっても、Routinesのように事前設定が要らないから、とても便利な機能だ。

今はまだAlexaに相当差をつけられているが、スキルの機能で追いつこうとするGoogleの努力は悪くない。来月はHomeの高級機バージョンHome Maxが、発売される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Lensが多機能化してPixelスマートフォンのGoogle Assistantにやってくる

今や時間の問題だと誰もが思っていたGoogle Lens、それがついに今日(米国時間11/21)、Google Assistantの機能としてPixelスマートフォンに搭載される。そのことはすでにGoogleのハードウェアイベントで発表されていたが、今日までその日時等は不明だった。

Google Assistantを開いてLensが見えない人も心配ご無用。この機能の展開は徐々に進める、とGoogleも言っているが、とにかく“数週間以内に”アメリカとイギリス、オーストラリア、カナダ、インド、そしてシンガポールのPixelフォーンにやってくる。Assistantの画面の右下にLensのロゴが見えたら(右図)、Lensがある、使える、という意味だ。

これまでは、Lensを使う唯一の方法が、Pixelフォーンの上のGoogle Photosからだったから、まず写真を撮ってPhotosを開き、その写真を見ながらLensのアイコンをタップする必要があった。

それはとても面倒だったし、しかも多くの場合Lensは、ユーザーがすでに知ってることを教えるか、あまり多くのことに答えられないか、どちらかのケースだ(それがシドニーのオペラハウスであることを、知らない人はいないよ!)。だからGoogle Photosから使うLensには、かなりがっかりした(デザインは良かったけど)。

でもAssistantに載ったLensは、やや多機能になった。名刺(古語か?)の情報を保存したり、URLをフォローしたり、電話番号を呼び出したり、アドレスを認識したりする。ランドマークも認識するが、誰もが知ってるランドマークであることが多いだろう。背表紙やポスターを見て、映画や本に関する情報を教えてくれる。バーコードのスキャンもできる。どれぐらい上手にできるか、早く実機で試してみたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、Assistantアプリ開発者向けにAPI多数追加――Google HomeはEchoのライバルを目指す

Google AssistantがAlexaのライバルになるためにはサードパーティ製アプリの充実が欠かせない。AmazonのホームAIが市場で優位を保つ中、Googleはアプリ開発をテコ入れするため、デベロッパーにとって魅力的な機能を多数発表してきた。今朝(米国時間11/15)、GoogleはAssistantのユーザー体験の改良に向けて重要な一歩を進めた。これにはAssistantデベロッパー向けにプッシュ通知、日々のアップデート、多言語対応の容易化など多数の新しい機能が含まれる。

中でも重要な機能の一つがスピーカーとスマートフォンの連係だ。新APIにより、Google Homeスピーカーで何らかの作業を開始し、スマートフォンに移ってそれを完了させることができるようになる。たとえば、トップ画像に示されているようにユーザーは食料品をGoogle Homeで注文し、そのレシートをスマートフォンで確認できる。これによりGoogle Assistantは単なる人口知能を利用した音声インターフェイス以上の存在になるはずだ。

あるいはこれがEcho Showのライバルを生み出す基礎となるかもしれない。

プッシュ通知のサポートももちろん重要だ。このAPIにより、アプリは重要なアップデートをスマートフォンを通じてユーザーに送ることができる( Google Homeが喋って通知する機能も近く実現する)。またキッズに安全なアプリであることを示すFamiliesバッジも導入された。また多言語対応も大きく進んだ。今回追加された言語にはスペイン語、イタリア語、ブラジル・ポルトガル語が含まれる〔日本語には対応ずみ〕。

またアカウントとアプリを連係させる機能も改良された。これまでのビルドでは、ユーザーは事前にアプリのアカウント連係を行う必要があった。 今後はいつでも好みのタイミングで連係させることができるようになる。おっと、それと最新バージョンの重要なアップデートがもう一つあった。Homeを終了させるコマンドに対してユーザーに返されるログオフ・メッセージの文言が丁寧になった。礼儀正しいことはスマート・スピーカーにとっても大切だ。

今回のデベロッパー向け機能の追加はGoogleがHomeシリーズの製品に多く新機能を追加するアップデートを行ってからほぼ一ヶ月となった。Pixelスマートフォン向けのHome機能を備えたイアホン、Pixel Budsの出荷も最近始まっている。クリスマス商戦前にアプリで新機能が利用できるようデベロッパーがアップデートを実行できることを期待したい。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Assistantは子どもとゲームをしたりお話をしてくれる子守役のアシスタントだ

Amazon EchoやGoogle Homeのようなパーソナルアシスタントといつまでも遊んでいたい、と願うのは人気アニメSouth Parkの中の子どもたちだけではない。今やほとんどの子どもが、AlexaやSiri、Google Assistantなどに何かをやらせる方法を知っているし、少なくともMoanaサントラの再生ぐらいはできる。そして今度はGoogle Assistantが公式に、子どもたちの遊び友達になりたがっている。

Googleの今日(米国時間10/24)の発表によると、同社は家族ユーザー向けに50あまりのゲームや遊びをGoogle Homeとスマホ上のGoogle Assistantに導入する。親はFamily Linkを使って、13歳未満の子にもそれらのゲームを自分で遊べるようにできる。

ゲームって、どんなゲーム? そう、椅子取りゲームとか、雑学クイズゲーム、フリーズなど。それにMickey Mouse Adventureとか、お話をしてくれるサービスもある。宿題を手伝ってくれるツールもある。

今月初めのハードウェアイベントでGoogleが下のビデオを見せたときは、まるっきりディストピアふうだった。本誌のライターDarrell Etheringtonは、こうコメントした: “未来のディストピアでは、Google Homeがへんてこなオーペアや家庭教師になったりするんだね”。

しかし今日の発表では、子どもと親が一緒に遊ぶことを強調している。それでもなお、へんてこりんだ、とぼくは思うが、Google Assistantのマーケティングとしては賢明、という意見もある。へんてこと感じたのは、ぼくだけかな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ソニー、人工知能を搭載したAibo復活へ――Amazon Echo風AIロボット犬になる?

エレクトロニクスの巨人は引退したプロダクトを復活させて新たな仕事をさせる。Nikkei Asian Reviewなどの報道によれば、ソニーは愛され、惜しまれていたロボット犬の開発を再開するという。新しいAiboは時代に合わせて人工知能アシスタントを搭載することになる見込みだ。

スマートAiboはソニーの消費者向けスマート製品の最初の一つとなる。ソニーはAIプロダクト市場でAmazon、Google、Appleなどの先行組に追いつく努力を本格化させるようだ。

ソニーの人工知能搭載ロボットがAibo製品になるかどうかは発表されていないが、Aiboは時代に大きく先駆け、広く知られたブランドだ。しかし7年間の歴史でメインストリームの消費者製品となることはなかった。

Aiboが再開されるという噂ははるか以前にも出ていたが実現はしなかった。しかしその後10年もたち、Aiboブランドはノスタルジーの中からフルに復活することになる。

ソニーはロボット・テクノロジーを主として産業用分野で追求していたが、今回の動きは消費者向けロボット製品に戻ってくることを意味する。また消費者向け製品で再び大ヒットを狙うのだろう。Amazon Echoや Google Homeの急成長を見れば、スマート・アシスタント製品が有望分野であることはあまりにも明らかだ。

情報によれば新しいプロダクトはAiboのハードにAmazon Echoのようなスマート・ホーム機器の能力を組み込んだものになるようだ。本物の犬のように歩き回って家の中を監視し、音声でコントロールできるという。

過去のソニーのスマート・アシスタントに関する取り組みは中途半端なものだった。ソニーはAssistantと名付けたスマート機能を開発しXperia Ear Bluetoothなどのウェアラブル製品に 組み込んだものの欠点が多く、今年の1月のIFAでデモされたHome Podのライバルを目指す製品などでAlexaやGoogle Assistantと連係していた。

今回の報道によれば、Aibo風のロボット犬はソニー独自のAIを搭載することになり、サードパーティーも機能を追加できるという。このAIがAssistantの改良版になるのか、まったく新しいプロダクトとなるのかは不明だ。いずれにせよソニーは人工知能分野でGoogleやAmazonにキャッチアップすべく大規模な研究を開始しているという。

われわれはソニーにコメントを求めている。

画像: Getty Images

〔日本版〕先月、ソニーは傘下のベンチャーキャピタル、Sony Innovation Fundを通じてロボティクスのスタートアップ、Acutronic Roboticsに出資している。TechCrunch記事によれば、ソニーはロボット事業にAcutronicのプラットフォームを採用するという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

データで比べるスマートスピーカー

ここ数年で、家庭用スマートアシスタントが大いに注目を集めるようになってきた。さらにこの2週間ほどの間で、AmazonGoogle、加えてSonosなどが立て続けにスマートスピーカーに関連するイベントを開催し、この分野への注目度が高まっている。

急拡大を見せるこの分野におけるプロダクトの全体を見渡すのも非常に難しい。プロダクトの選択は、採用しているアシスタントを選ぶことからはじまるだろう。利用しているスマートフォンの種類や、どうしても必要な機能などから絞り込んでいくことになるわけだ。そして、いずれのどのアシスタントを選ぶにしても、メリット・デメリットの双方が存在するだろう。Amazonには先行者メリットがありそうだし、Appleは、iPhoneとの連携が魅了だ。そして、その両者の対抗馬を考えれば、まっさきにGoogleの名があがるだろう。もちろんMicrosoftという選択肢もある。PCをもっている人の多くはMicrosoft製のOSを走らせているからだ。

SonyやSonos、ないしJBLなどのようなサードパーティー(他社アシスタントを採用するプロダクト)製品も増えてきており、ハードウェア的な違いも気になるようになってきた。さらに、50ドル程度のものから300ドル程度のものまでと、価格の差も大きい。高音質をうたうものもあれば、スクリーン内蔵の魅力を訴えるものもある。さらに複数のアシスタントに対応するものまでもある。

以下に、宣伝文句を排してデータのみを記した比較表を掲載しておくことにする。

[Infogram version]

原文へ

(翻訳:Maeda, H

Bose、Googleアシスタントに最適化したヘッドホンを発売

噂のノイズキャンセリング・ヘッドホンBose QC 35 IIが噂ではなくなった。今日(米国時間9/21)Boseは正式発表し、人気の高級ノイズキャンセリング・ヘッドホン QC 35の後継機を披露した。

GoogleはBoseと協力して新型ヘッドホンを作ったと最新のブログ記事に書いている。GoogleがiPhoneとAndroid用に提供しているバーチャルアシスタントに「最適化」するためだ。ヘッドホンには専用のアシスタントボタンがあり、押せばいつでも必要なときに音声ベースのコンパニオンを呼び出せる。

ヘッドホンには、アシスタントサービスそのものは搭載されていない ―― 代わりに、着信通知、ニュース概要、電話発信、音楽再生のための音声コマンドなど、Googleアシスタントベースの機能に対応している。

QC 35 IIのアシスタント対応機能が利用できるのは、米国、オーストラリア、カナダ、ドイツ、フランス、および英国。米国での販売価格は349ドルと、従来機種のQC 35と変わらない。

Googleは新しい提携に言及したブログに、Boseのヘッドホンとアシスタントの統合は、QC 35 II「から始まる」と書いていることから、今後Bose製品でこの機能がさらに拡大する可能性がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google I/O: Lensは「たこ焼き」の看板をリアルタイム翻訳―スマートフォンのカメラが賢くなる

今日(米国時間5/17)、Google本社に隣接するショアラインアンフィシアター野外劇場で開幕した Google I/Oデベロッパー・カンファレンスのキーノートで、CEOのスンダー・ピチャイはGoogle Lensという新しいテクノロジーを発表した。

これはGoogleのコンピューター・ビジョンと人工知能を統合し、スマートフォンのカメラからダイレクトに有益な情報を得ることができるシステムだ。Googleの説明によれば、スマートフォンのカメラは単に目に見える情報を撮影するだけでなく、写された対象を理解してユーザーが適切な行動を取るために役立つ情報を提供する。

Googleはユーザーが花を撮影しようとしてカメラを向けるとLensが即座に花の種類を教えてくれるところなどをデモした。

ピチャイはLensは日常のタスクでも役立つ例も挙げた。たとえばスマートフォンでルーターのラベルを撮影するだけで簡単にWiFiに接続できる。 Google LensはルーターのIDとパスワードを読み取り、タップするだけで自動的にそのWiFiに接続するアイコンを表示してくれる。

その次の例では 通りがかりの店舗を撮影すると、Google Lensが店名を読み取り、ウェブを検索して各種のビジネス情報をカード形式で表示する。

このテクノロジーはスマートフォンのカメラを撮影だけでなくモニタに写った対象に関する情報を得ることができるツールに変える。

Pichaiの説明の後、 Scott HuffmanはGoogle Homeのデモ中でGoogle Assistantに組み込まれたLensの能力を示した。Assistantアプリに追加された新しいボタンをタップするとLensを起動し、Assistantを通じてLensと会話し、写真の内容を尋ねることができる。

Scott HuffmanがカメラをStone Foxesのコンサートのポスターに向けるとGoogle Assistantはチケット・セールスを含めてコンサートに関する情報を表示した。Huffmanがオンラインでチケットを購入し「これをカレンダーに追加」と命じるとその通りにスケジュールが設定された。

LensとAssistantの統合は翻訳にも威力

Huffmanがカメラを〔「たこ焼き 6個 130円」という〕日本語の看板に向けて「これは何?」と尋ねるとGoogle Assistantは即座に正しく英語に翻訳した。

 

ピチャイはまたGoogleのアルゴリズムが写真の質を改善することができることも示した。たとえば金網越しに子供の野球試合のシーンを撮影したような場合だ。Googleの人工知能は目障りな金網を自動的に取り除いてくれる。また暗い場所で撮影した場合、Googleはピクセルノイズやブレを補正し、写真を見やすくしてくれる。

GoogleはI/OカンファレンスではLensがいつ一般公開されるか日時は明らかにしなかった。しかし「すぐに」手に入るようになるという。


[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google AssistantのSDKをデベロッパーに提供、製品のプロトタイプへの使用は自由で無料

Googleは前から、Assistantをさまざまなハードウェア企業やデベロッパーから成る大きなエコシステムへ公開したい、と言っていた。今日(米国時間4/27)同社はその方向へ大きく一歩前進し、Google AssistantのSDKローンチした。デベロッパーはこれを使って、自分のハードウェアにAssistantの知能を組み込める。たとえばスマートミラー(鏡)とか、Google Home的な器具や装置、絶対禁酒を誓った人が秘かに楽しむロボットのバーテンダー(上図)など、何でも好きなものを作れる。

ただしGoogleのAPIを自由に使えるのは、プロトタイプを作るときだけだ。商用製品を作るときには、Googleの正式の許可が要る。

SDKはPythonのコードで提供され、人気のRaspberry Pi 3をはじめ、さまざまなハードウェアプラットホームで使える。GoogleのgRPC APIを使えば、Assistantをそのほかのハードウェアプラットホームにも統合でき、またJava, C#, Node.js, Rubyなどの言語を使える。このSDKを使えば、自分のハードウェア製品が音声コマンドを聞き取り、それらをGoogle Assistantのサービスに送り、適切な応答を受け取ることが容易にできる。

Googleによると、SDKを使っているデバイスはAssistantのすべての能力を利用できる予定だが、現状は違う。リリースノートにはたとえば、アラームとタイマーをセットできない、と書いてある。音楽の再生、ニュース、ポッドキャストもだめだ。ホームオートメーションの機能の多く、および、Uberなどサードパーティサービスの呼び出しは、まだGoogle Homeにしかできない。

Assistantに話しかけるAPIはすでに公開されている。この“Actions on Google” APIは、サードパーティのアプリケーションをGoogle Homeに統合するためのものだ。またPixelスマートフォンや今後のAlloでも、Assistantがサポートされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Homeはキッチンで一層便利になった…より親切なレシピ機能に

Google HomeとAmazon Echoは、手が濡れたり汚れたりしていることの多いキッチンでとくに便利だ。でもこれまでは、Google Homeにレシピを尋ねると、それを嬉々として教えてくれるけど、しかしあなたがアメリカの大統領で世界最強の記憶力の持ち主でもなければ、話が終わったときに材料の半分以上を忘れているだろう。しかし今日(米国時間4/26)からは、Google Homeで500万のレシピにアクセスできるだけでなく、それらを一歩々々たどって、質問することもできる。

このように、Google Homeに料理を始めると告げ、各ステップを繰り返させ、次のステップに進む機能は、それだけでも便利だ。しかしそれだけでなく、ユーザーはBon AppetiteやThe New York Times、Food Networkなどのレシピにも検索でアクセスできる。

そして今回のアップデートでは、レシピを見つけるのも容易になった。画面のないデバイスで料理のレシピを検索するのはちょっとたいへん、とたぶん気づいたGoogleのチームは、スマートフォン上のGoogle AssistantやGoogle検索でレシピを見つけ、それをボタンをクリックするだけでGoogle Homeに送れるようにした。

Google Homeは、レシピに関する質問をすることもできるし(“ラードはどれだけ必要?”)、また間違いを正してくれる(例: 質問の中で素材の名前を間違えた場合)〔以上はすべて英語〕。またもちろん、料理中に音楽を流したり、タイマーをセットすることもできる

この新しい機能はすでに展開中で、来週中には全ユーザーに行き渡るだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

デベロッパーは自分のアプリケーション/サービスの音声インタフェイスとしてGoogle HomeのAssistantを利用できる

5-google-home

Googleが今日(米国時間12/8)、(非公開プレビューの参加者だけでなく)すべてのデベロッパーが、自分のアプリケーションやサービスをGoogle Assistantに載せられる、と発表した。Google Home上の、Googleが“会話アクション”(conversation actions)と呼ぶこの新しい機能により、アプリケーションはAssistantを介して会話のやり取りができる。その会話のシナリオは、もちろんデベロッパーが自分のアプリケーションの機能として書く。その会話はたとえば、“やあGoogle、Elizaを呼び出してくれ”、で始まるかもしれない。

AssistantはGoogleのスマートフォンPixelやチャットアプリAlloでも使えるが、Googleの計画では、そういう“Assistantの出先”のようなインタフェイスにデベロッパーのアクションを持ち込めるのは、もうすこし先だ。どれだけ先かは、発表されていないけど。

デベロッパーが自分のアプリケーション/サービスによる“会話アクション”を作るのを助けるために、Googleはいろんなところとパートナーしている。それらは、API.AI, GupShup, DashBot, VoiceLabs, Assist, Notify.IO, Witlingo, Spoken Layerなどだ。一部のパートナーはすでに、自分のアプリケーションをGoogle Home上で有効化できる。それらの統合が実際に動き出すのは、来週からだ。

ユーザーはこれらの新しいアクションを単純なコマンドで起動でき、AmazonのAlexaのように最初にスキルを有効化するという手間がないから、デベロッパーが自分の音声起動型サービスをユーザーに提供するのも、簡単なようだ。ただし、どのアクションをGoogle Homeで有効化するかは、Googleが判断する。

同社によると、今後のリリースではさまざまな業種に対応して、もっと詳細な会話をサポートしたい、という(買い物やチケット/航空券予約などなど)。ただしその具体的な詳細は、現時点では未定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

たった2行のコードであなたのスマホにGoogle Assistantを加える方法

google-assistant

Google Assistantを使いたいけど、そのためにわざわざPixelを買う気はない人。そんなあなたへの良いお知らせは、構成ファイルにたった2行の小さなコードを書くことだ。良くないお知らせは、そのためにはrootアクセスが必要なこと、どのメーカーのどの機種でも有効、とは限らないことだ。

⚠️ 警告! 危険! ⚠️完全に自己責任で行うこと。root特権やブートローダーを濫用すると、スマートフォンが‘文鎮’になってしまうこともある。最初にバックアップを取ること — 多くのユーザーが、トラブルを報告している。

さてそれでは…XDAのユーザーやshiba inu brianelvが提供しているスレッドに、詳しいやり方と、成功した機種のリストがある。またLifehackerには、さらに詳しいインストラクションがある。

何よりもまず、Nougatがインストールされていること。rootになってファイルエクスプローラーを使い、Root/Systemにbuild.propを見つける。二つの名前を検索し、それらの値を次のようにセットする(名前がなければ新たに書き加える):

ro.product.model=Pixel XL
ro.opa.eligible_device=true

セーブしてリブートし、Settings>Appsへ行き、Googleをセレクト、データとキャッシュをクリアする。するとリロードでAssistantが組み込まれるから、ホームボタンを長押しすると起動する。

rootになれない人でも、ブートローダーがアンロックならこれができる。カスタムのリカバリイメージや内蔵のfastbootが必要になる。ただし、このやり方でトラブルが多く報告されている。それはたぶんbuild.propファイルの、互換性の問題だろう。

Mit Panchaniが、そのやり方を見せてくれる(下のビデオ)。

Googleアプリを完全にアンインストールしてから、作業を開始する。ファイルをここからダウンロードし(ありがとうFaserF)、最初にGoogleAssistantVelvet.zip、次にGoogleAssistantBuildProp.zipをフラッシュする。リブートする。Googleが新たに求めるパーミッションにすべてOKする。そしてレースに正常復帰。

なんだかやばそう? そう、そのとおり! リスクはある! やんない方がいい、かもしれない。Assistantは、そんなにおもしろい機能ではなさそうだ。それでも、やるかい? うーん、ぼくはやってみたよ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Pixelの目玉機能は新バージョンのAndroidには搭載されない予定

pixel7

今週行われたGoogleのハードウェアイベントでは、Androidの新バージョンAndroid 7.1(Nougat 7.1)についてほとんど触れられていなかった。というのも、Pixelに盛り込まれる目玉機能のいくつかは新OSには搭載されない予定なのだ。備え付けのカスタマーサポートサービスであるGoogle Assistantや、オリジナル解像度で写真・ビデオの無制限バックアップができるSmart Storageなどは新OSには搭載されない。

どの機能が”Pixelオンリー”なのかについては、Android Policeが既にGoogleの内部から入手したログを引用してレポートしていた。そしてこの度、Googleはその内容が正しいと認めたのだ。

搭載されない機能のいくつかについては納得がいく。例えば、iPhoneからAndroidへのデータ移行を簡単にする“クイックスイッチ”アダプターは、Pixelにしか同梱されない予定だ。というのもこれにはケーブルアダプターというハードウェアが必要になる。

pixel10

Pixelの新しいカメラアプリもハードウェアに依存している。Pixelの背面には12.3メガピクセルのカメラが搭載されており、4Kビデオが撮影できる他、連続で複数枚の写真が撮れる”スマートバースト”といった特別機能もいくつか盛り込まれる。

さらに、Pixelにはさまざまなセンサーや接続方法(Wi-Fi、セルラー移動通信、GPSなど)を集約したSensor Hubプロセッサーが搭載されている。

Google Photos経由の無制限写真・ビデオバックアップサービスを無料でバンドルするというのは、上手いマーケティング戦略であるとも言える。自分のAndroidをアップグレードする言い訳を求めている写真好きにとっては、このサービスを利用できるだけでPixelが魅力的に映るだろうし、iCloudにお金がかかることを考慮すると、iPhone 7よりもPixelを選ぶ人がいるかもしれない。

screen-shot-2016-10-04-at-2-01-04-pm

しかし、新OSで採用を見送られた機能の中には疑問に感じるものもある。

1番大きなものとして、Nougatのアップデート版であり、PixelやPixel XLのOSに採用されているAndroid 7.1には、Google Assistantが含まれていない。このスマートバーチャルアシスタントは、AppleのSiriやMicrosoftのCortana、AmazonのAlexaに対するGoogleの答えだ。さらにGoogle Assitantは、現存するAndroidデバイスに搭載され、スタンドアローンのアプリとしても配信されているデジタルアシスタントのGoogle Nowよりも強力なことで知られている。

そもそもGoogle Now自体もパワフルで、自然言語が処理できるほか、競合サービスのようにさまざまなアシスタント機能を果たすことができる。通勤路を利用してどのくらいで自宅に着くかや、飛行機に間に合うにはいつ出発しなければならないか、いつ頃荷物が届くか、さらに天気・スポーツ・株式に関する情報や、イベントのリマインダー機能など、ユーザーが気になる情報に関するアラートを発信してくれる。

さらにGoogle Nowは、近場のレストランやお店に関するユーザーの質問に回答することで、Google検索のとっかかりになっているほか、単純にウェブ上の情報も検索できる。より実用的な機能として、デバイスの設定変更やテキスト・メールの送付、電話をかけたり、リマインダーを設定したりといったこともできる。

screen-shot-2016-10-04-at-1-40-18-pm

しかし、Google Assistantはさらにその上をいく、Google Nowがよりスマートになったアップグレード版のようなものだ。Google Nowができることは全てできるのはもちろん、その根底にあるAIテクノロジーはユーザーと双方向の会話ができるため、話の中で出てきた情報を記憶し、後日別の話をしているときにその内容を引っ張り出すことができる。さらに、サブスクリプション機能を利用して、ユーザーが気にしている情報のアップデートを毎日配信することも可能だ。

また、Google Assistant経由で、ChromecastやGoogle Castを搭載したデバイスのほか、NestやSmartThings、Philips Hueのスマートホームデバイスも操作することができる。

サードパーティ製のサービスともAction(Alexaの”Skills”のGoogle版)を介して連携可能だ。

screen-shot-2016-10-05-at-4-47-46-pm

Google Assitantの強力な機能を考えると、Android 7.1からGoogle Nowに取って代わらないのは残念だが、今後Pixel以外のデバイスにAssistantが登場しないというわけではない。同時に、AssistantをずっとPixelだけの機能にするのはバカげている一方、近いうちに無料のAndroidアップデートに盛り込まれるとも考えづらい。

Googleの広報担当者は下記のように話している。

私たちのゴールはGoogle Assistantをできるだけたくさんのユーザーに使ってもらうことです。来年中もGoogle Assitantの新たな機能を順次発表していく予定です。

Pixel Launcherとユーザーインターフェースについては、PixelにだけAssistantにアクセスするためのナビゲーションバーアイコンが表示される。その他には、システムUIのアクセントカラーテーマや、新しい見た目と雰囲気のセットアップ画面、新しい壁紙設定機能、日付が表示されるカレンダーアイコンなどもPixelのみで利用可能だ。

0033

そうは言っても、Android 7.1にも、いくつか使える機能が搭載される予定だ。

ハードウェアアクセラレーションに対応したナイトライトや、タッチ機能・ディスプレイ性能の向上、Moves(ステータスバーを開閉するための指紋ジェスチャー)、シームレスな自動アップデート、Daydream VRモードへの対応のほかにも、開発者向けにアプリショートカットのAPIやサークル型アプリのサポートなどが発表された。

Android 7.1はディベロッパープレビューとして今月中にローンチ予定だ。一方で、いつ頃一般消費者向けのバージョンが配信されるかや、どのデバイスが最初にアップデートできるようになるかについてはGoogleと確認がとれていない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter