今やAmazon Echoは8機種もある!、便利な比較一覧表を作ってみた

どのAmazon Echoを買うべきだろう? 今日(米国時間9/27)新しく発表されたEcho 2, Plus, Spot, Connect, それともButtonsか?

前からあるDot, Show, あるいはLookか?

下図の便利な一覧表を見ると、今日(米国時間9/27)のビッグなイベントで紹介された、いくつかの新機種も含めて、お値段や機能を比較できる。

AmazonはAlexaデバイスEchoに関して、単純性よりは多様性を選んだが、でもAmazon Echo一族のゴージャスな(?)勢揃いを見るかぎり、単純性を選んだGoogle Homeがひ弱に見えてくる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon MusicがAlexaの機能を搭載

Amazonが、Amazon MusicにAlexaの機能を組み込んだ。iOS版およびAndroid版の双方に実装され、音声コントロールが行えるようになったのだ。Amazonの発表によれば、使えるのはアメリカ、イギリス、ドイツ、およびオーストラリアだとのこと。音声コマンドで実施できるのは、再生する曲、アーティストの指示であったり、あるいはドライブ、ランニングなどといったシチュエーションに応じた曲をリクエストすることだ。EchoスピーカーでAlexaを利用していた人にとっては馴染み深い機能だろう。

やはりEchoで利用できる機能だが、歌詞はわかるが曲名がわからないといった曲をリクエストすることもできる。

Echoスピーカーでは、天気予報やニュースの問い合わせだとか、あるいはタイマーやリマインダーの設定に並んで、音楽再生も代表的ユースケースとなっている。そのような状況の中、音楽アプリケーションにAlexaを導入するのは当然の選択といえるだろう。

今回のAlexa導入により、SpotifyやApple Musicとの差別化を行なって、第3位のポジションからの脱却を目指す意味もある。なるほどApple MusicはSiri対応ではある。ただしそれはAppleユーザーに対してのみの話だ。Siriと連携したApple Musicを楽しめるのは、iPhone利用者に限られているのだ。

Amazonは、Alexaのモバイルアプリケーション対応を徐々に進めつつあるようだ。

今年になって、まずはiOS版のショッピングアプリケーションにAlexaを導入し、夏にはAndroid版でも対応した。

Amazonとしては、Echoデバイスを使っていない人々にもAlexaおよび音声アシスタントの便利さを感じてもらい、そして自らの商機を広げようとする意図があるのだろう。Echoの購入を考えている利用者に対して、さまざまなアプリケーションを通じてAlexaの魅力を伝えようとしているわけだ。Amazon Musicの利用者がAlexaの便利さを感じてくれれば、Google HomeやAppleのHomePodではなくてEchoを選択する可能性も高まることになる。

Alexaと連携するのはAmazon Musicの最新版での話だ。旧版を持っている場合には最新版にアップデートする必要がある(訳注:日本では未対応です)。

原文へ

(翻訳:Maeda, H

テレビに映ってるアニメのキャラがAmazon Echoに命令して大量のランダムな買い物を

Amazon Echoを持ってると、こんなやばいこともある、という例。起動する言葉さえ分かってればだれでもEchoに命令できるから、テレビに映ってるアニメのキャラクターでも、あなたの家のEchoを操作できる。20年の長寿を誇るアニメ番組South Parkで、まさにそれが起きた。

これが、それだ:

[AlexaにいたずらをするSouth Park]

このアニメを見ている部屋にEchoがあったら、Amazonのあなたのショッピングカートが、ランダムに選ばれたがらくたでいっぱいになってしまうだろう。

音声で操作するアシスタントには、このような危険性がある。悪質な広告が音声でAlexaに命令して、あなたに製品を買わせてしまうかもしれない。South Parkのボックスセット、とか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Walmart、Googleと音声ショッピングで提携――Amazon Alexaの独走に“待った”

本日(現地時間8/23)WalmartとGoogleは、音声アシスタント「Google Assistant」を通じた音声ショッピングに関するパートナーシップを結んだと発表した。今後消費者は、WalmartのEasy ReorderサービスとGoogle Express(Googleの宅配サービス)を併用し、何十万種類もの商品をスマートスピーカーに話しかけるだけで購入できるようになる。

さらにこのパートナーシップを受け、GoogleはGoogle Expressの会費を廃止し、サイトに登録されている各小売店の最低購入金額さえ満たせば、商品を1〜3日間で無料配送すると決めた。

これまでは月額10ドル(年額95ドル)の会費が設定されていたGoogle Expressにとって、これはかなり大きな変化だ。現在のところ同サービスでは、TargetやCostco、Kohl’s、Bed Bath & Beyond、PetSmart、Staples、Toys R Us、Walgreensなど大手小売店から、ファッション、家庭用品、ハードウェア、パーソナル・ヘルスケア用品、スポーツ用品、化粧品といった幅広いカテゴリーの商品を購入できる。

しかしGoogleは、会費のせいでGoogle Expressのユーザー数が伸び悩んでおり、特に音声ショッピング普及の障害になっていると考えたのだ。

「メンバーシップ制がだんだんとサービスの障害になってきていた」とGoogle Express担当GMのBrian Elliottは語る。「モバイルユーザーに対して、4.99ドルの配送料を支払うかメンバーになるかというオプションを説明するのは簡単だが、それでもユーザーにはいくばくかの負担がかかってしまう。しかし、さらにそれを音声だけで伝えるとなると、かなり難しいということがわかった」

なおGoogle Expressの利用者数や、同サービスを通じた売上額について、Googleはコメントを控えている。

これまでWalmartはGoogle Expressには参加せず、自分たちでオンラインの注文を処理していた。今年に入ってからは、(Amazon Primeとは違い)35ドル以上の商品を購入した全顧客に対して、無料の2日間配送さえ行っていた。

しかしGooge Assistantとの連携で、Walmartは音声操作という自社にはないテクノロジーを利用できるようになった。

音声ショピングこそが小売業界の未来だと考える専門家もいる。例えばRBC Capital Marketsは、音声ショッピングからの売上やプラットフォーム収益によって、Alexaは2020年までに100億ドルもの収益をもたらすことになるだろうと予測している。

もしもそうだとすれば、Walmartもその波に乗らないわけにはいかない。

そしてスマートスピーカーの分野でAmazonと肩を並べる主要プレイヤーといえば、Googleしかいないのだ(AppleのHomePodはまだ出荷が始まっておらず、サードパーティーアプリのサポートに関する計画も発表されていない。またMicrosfotのCortanaを搭載したスピーカー有力な対抗馬とは言えない)。

WalmartでEC部門のトップを務めるMarc Loreは、「(音声ショッピングは)未だ黎明期にある。しかし過去2年間でAI技術が発達し、今後の方向性が見え始めてきた」と音声ショッピングの野望について語った。

「将来的には音声認識テクノロジーの精度が桁違いに向上し、消費者のニーズを理解してそれに応えられるようにさえなるだろう。これによりショッピング・エクスペリエンスは大きな変化を遂げることになる」と彼は付け加えた。

Google ExpressとGoogle Homeの連携は今年の2月から既にスタートしており、Walmart以外の小売店も音声ショッピングに対応している。

しかしEasy Reorderサービスのおかげで、Walmartでは他社よりも簡単に音声ショッピングを楽しめるようになっている。というのも、Easy Reorderはオンライン・オフライン両方の購入履歴をベースに、個々の利用者の好みを理解しているのだ。例えば、いつも使っているブランドや商品のサイズ、さらには直近の購入日や頻度までEasy Reorderには記録されている。

そのため、実際に商品を注文するときは、「OK、Google」からスタートし、「ピーナッツバターを注文して」や「ピーナッツバターを再度購入」「ピーナッツバターを買って」「Walmartからピーナッツバターを買って」といった感じでGoogle Homeに話しかけるだけで済む。

購入しようとしている商品が35ドル(無料配送のための最低金額)以上であれば、2日以内の配送を希望するかどうか聞かれ、35ドル未満であればWalmartのカートにその商品が自動的に追加される(カートへはGoogle HomeとGoogle Expressのアプリからアクセス可能)。そしてカート内の商品の合計額が35ドルを超えた時点で支払いを促されるという仕組みだ。

まずはEasy Reorderにフォーカスしたサービスが提供される予定だが、音声ショッピングの分野で今後Googleとさらに協力関係を深めていこうとしているWalmartは、Googleとのパートナーシップという側面を強調している。

来年からは生鮮食品の音声注文も受け付ける予定で、ユーザーは予め袋詰された商品を実店舗で受け取ったり、家まで配達してもらったりできるようになる(受け取りオプションはユーザーの居住地域によって異なる)とのこと。さらに、顧客の好みや購買習慣に関するデータが集まるにつれて、システムがさらにスマート化していく可能性もあるとWalmartのLoreは言う。

Walmartのモバイルアプリ内にあるEasy Reorderの画面

「音声サービスが普及するにつれて、更なるパーソナライゼーションが要求されるようになり、結果的に各消費者の求めるものがそのままオススメ商品として表示されるようになるだろう」と彼は話す。「まだまだ実現には時間がかかるが、その可能性には大いに期待している」

Google ExpressおよびGoogle HomeとWalmartの連携は9月末からスタート予定だ。

まずはGoogle Homeだけが対象になるが、Elliottはその他のGoogle Assistant搭載デバイスも順次Walmartでの買い物に使えるようになると語った。

しかし、スマートスピーカー市場におけるAmazon優位の現状を考慮すると、WalmartはAlexaとも連携しないと、かなり大きなのチャンスを逃すことになりそうだ。ある予測によれば、今年中にはAmazonがスマートスピーカー市場の70%を占め、2020年までに1億2800万台ものAlexaデバイスが稼働することになるとさえ言われている。

そこでLoreに、WalmartがAlexaとも連携する可能性があるか尋ねたところ、彼はただ「No」とだけ答えた。

原文へ

(翻訳:Atsushi Yukutake

Microsoftの音声認識システムが人間と肩を並べ始めた

米国時間8月20日、MIcrosoftはその会話型音声認識システムが、これまでで最も低い5.1%のエラーレートに達したことを発表した。この記録は、Microsoft Artificial Intelligence and Researchの研究者グループが昨年達成した5.9%のエラー率を下回るもので、テキストを数回聞き返すことができるプロのトランスクライバーたちと同等の正確さだ。

両研究は、Switchboardコーパスの録音を認識することで行われた。これは1990年代初頭から、音声認識システムをテストするために研究者たちが使用してきた、約2400件の通話のコレクションだ。今回の新しい研究は、Microsoft AI and Researchの研究者グループによって、人間のトランスクライバーのグループと同程度の正確性を達成することを目標として行われた。人間のグループは自身が聞いているものを複数回聞き直すことができ、会話の文脈を知った上で、他のトランスクライバーたちと協力することも可能だった。

全体として、今回の研究では昨年のものに比べて、ニューラルネットベースの音響モデルと言語モデルを改善することにより、エラーレートを約12%下げることに成功した。特に、その音声認識ソフトに会話全体を利用させ、そのことによってトランスクリプションを文脈に適合させ、次にどのような言葉やフレーズが来るかを、人間がするように予測させるようにした。

Microsoftの音声認識システムは、Cortana、Presentation Translator、そしてMicrosoft Cognitive Servicesなどのサービスで使用されている。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BLOOMBERG/CONTRIBUTOR/GETTY IMAGES

Monsterが音楽専用の音声アシスタントをヘッドフォーンの新製品に搭載、Siriの音楽無能が契機

Monsterは必ずしも革新的なテクノロジー企業ではないけど、でも同社製のヘッドフォーンにMelodyと呼ばれるヘルパーアプリを載せることによって、今大流行の音声アシスタントの世界へ足を踏み入れた。

MonsterのElementsヘッドフォーンに搭載されているMelody音声アシスタントを作っているSpeak Musicは、基本的にその機能を、Siriが音楽サービスをApple Musicしかサポートしていない、という音楽的欠点を補うために設計した。Siriは、そのApple Musicのサポートすら、そもそも十分ではない。Speak Musicの財務のトップは、Monsterのプロダクト担当VPだった人だから、その御縁で二社はパートナーしたのかもしれない。

Melodyは、ヘッドフォーンに限らず、スタンドアローンのオーディオ製品に組み込むのに適している。いきなりAmazonのAlexaやMicrosoftのCortanaなどに飛びつくと、今の音声アシスタント製品にはびこる数々の愚かさから、逃げれなくなってしまう。少なくとも理論的には、ユーザーはオーディオ製品に音楽の機能だけを期待するだろうから、ほかの低能な音声アシスタント機能で彼らをがっかりさせるおそれはなくなる。Bluetoothスピーカーならまだしも、ヘッドフォーンが、Siriなどスマートフォンのアプリに依存していたら、相当売りにくいだろう。

Melodyも、スマホのアプリとしてダウンロードできるが、でも音声アシスタント機能は即座に簡単に使えるべきだから、(このヘッドフォーンの場合のように)ハードウェアに最初から統合されていることが必須だ。たかがヘッドフォーンのメーカーがここまでやる、ということは、2017年という今における、音声アシスタントのみすぼらしい状況を示唆している。しかもそれらの機能の制約は、現状ではプラットホームごとにまちまちだから、ますます、今回のような本体搭載に拍車をかける。

MonsterのワイヤレスヘッドフォーンElementsは、色が“ブラックスレート”、“ブラックプラチナ”、“ローズゴールド”の三種あり、今月末から350ドルで発売される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがあらゆるサードパーティデバイスにAlexa機能を持たせるべくSDKを無料オープンソースで公開

Amazonは、同社の仮想アシスタントAlexaを、Echoなど同社自身のハードウェアだけでなく、もっといろんなデバイスに載せたい、と考えている。そこで同社は今日(米国時間8/17)、AlexaのSDKを一般公開することによって、商用デバイスのメーカーたちがAlexa機能のある製品を作れるようにした。そのツールセットAlexa Voice Service Device SDKを利用すれば、各種のデバイスに完全なAlexaの能力を持たせて、音声認識だけでなくメディアのストリーミング、タイマーやアラーム、通知、天気予報、そしてAlexaの‘スキル’と呼ばれている何千もの音声アプリケーションにもアクセスできる。

Amazonによると、このSDKはこれまでのプレビューの間、特別招待のデベロッパーにのみ提供されていた。その間、50社あまりの商用デバイスのメーカーが、自分たちの製品にAlexaを実装した。

Amazonが今朝のデベロッパー向けブログ記事で、そのいくつかを紹介している。たとえばTechnicolorはAlexaを同社のHome Networking GatewayとExtenderに加え、ベルリンのスマートホームデバイスメーカーSenicは、同社のスマートホームハブCOVIにAlexaを加えている。

Amazonはここしばらく、Alexaの機能や、マイクロフォンの配列のような、音声駆動デバイスを構築するための根幹となる技術に、容易にアクセスできるためのやり方を検討してきた。

今回のAlexa Voice Service Device SDKもその努力の一環で、今やすべてのデベロッパーが、GitHub上の無料でオープンソースなライセンスでこれを利用できる。このSDKはその中に一連のデベロッパー支援ツールを総まとめしており、ハードウェア開発キットやAPI、Alexa対応デバイスの作り方が書かれているドキュメンテーションまでも含まれている。

Amazonのこのやり方が結実している製品として、たとえばHuaweiのスマートフォンMate 9が挙げられる。これには単純に、音声アシスタントオプションとしてAlexaがある。またスマート温度計Ecobee4や、インターネットラジオTribyさらにスピーカー目覚まし時計インターコム、そしてスマートウォッチにも、Alexa実装の例がある。

一方Amazon自身もAlexaデバイスの幅を広げようとしており、今度の新しいEchoスピーカーには、カメラ付きのEcho Look、画面付きのEcho Showなどがある。

Alexaを載せたデバイスのすべてが、Echo並に成功するとは限らないが、でもやらないよりはやってみるべきだ。今やAlexaのプラットホームには、音声コンピューティングのためのAndroid OSと呼べるほどの広がりがあり、トップの座、すなわち大きなマーケットシェアと多くのユーザーを、ますます維持確保しやすくなっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、Alexaスキルの報酬対象を拡大――有料スキル・広告掲載は未だ非サポート

本日(現地時間8/16)アマゾンは、Amazon EchoをはじめとするAlexaデバイス上で使える「スキル」(アプリのようなもの)の開発者向けに、新たな報酬プログラムを導入すると発表した。同社によれば、今後は5種類以上のカテゴリーで高パフォーマンス・高”エンゲージメント”のスキルに対して報酬が支払われるとのこと。なお、ゲームカテゴリーでは過去に似たプログラムを通じて開発者に報酬が支払われており、新プログラムでも同カテゴリーは報酬対象に含まれている。

ゲーム開発者向けの報酬プログラムは今年の5月に密かにリリースされ、人気ゲームには現金が支払われていた。

今回のアマゾンの発表によれば、ゲーム以外の教育・辞典、食べ物・飲み物、生活・フィットネス、ライフスタイル、音楽・オーディオ、プロダクティビティカテゴリーでも今後人気スキルには報酬が支払われることになる。

彼らの狙いは、正式なマネタイズプログラムのローンチ前に、スキルの開発者に何かしらの報酬を提供することだ。現在のところ開発者はAlexa App Store上では有料のスキルを販売できず、スキル内課金もできなくなっている。6月にはAlexa上で機能する広告ネットワークをシャットダウンするために、Alexaスキルに関するポリシーが変更された。

つまり、これまで開発者はテクノロジーへの愛からスキルを開発していたのだ。しかし、類似商品が次々に登場する中、Amazonはようやく音声アプリに何らかの対価を支払うことに決めたようだ。

同プログラムに関するブログポストの中では、”エンゲージメント”の指標に関する詳しい説明はなかった。むしろ同社は、「音声ファースト」でユニーク、かつ定期的に新しいコンテンツを紹介し、検索エンジン以外の手段で人びとの生活を楽にするようなスキルを求めていると記している。

例えば、あるフレーズを他の言語でどう表現するか調べるための翻訳スキルであれば、検索エンジンを使うよりもシンプルに必要な情報が手に入るとアマゾンは説明する。

さらに同社は、ゲームがもっともエンゲージメントの高いカテゴリーだと繰り返し述べている。同カテゴリーが以前の報酬プログラムの対象になっていたのには、これも関係しているのだろう。

アマゾンからはどの指標に基いて報酬額が決まるのかについて具体的な説明はなかったが、これまでゲームスキルで報酬を受け取っていたある開発者は、ランキングが報酬額に大きく関わってくるだろうと話す。彼によれば、ランキング1位の5000ドルをスタート地点に、6位が2000ドル、さらに7位が1000ドルで300位が100ドルくらいになるだろうとのこと。

しかし開発者が確認できる指標の数は(少なくとも現時点では)限られている。現状のダッシュボードにはセッション数やユニークユーザー数、インテント数、発話数(音声操作の数)などは表示されるが、これらの指標と報酬の間に直接的な関係は見られない。つまり、アマゾンが公表していない別の指標が報酬額に関わっていると考えられる。同社に確認をとったところ、利用時間(分)や新規ユーザー数、繰り返し当該スキルを利用するユーザーの数、ユーザーレーティングなどが報酬額と関係しているということがわかった。

アマゾンはAlexaエコシステムの構築にあたり、現金報酬にだけ頼ってきたわけではない。優秀な開発者にはAmazon Web Servicesの支払いに使えるクレジットを発行し、Alexaのワークショップを世界中で開催しているほか、開発者向けにEchoデバイスの無料配布も行っている。

しかし、フリーミアムモデルや有料のアプリ販売、広告掲載といった従来のマネタイズ手段をサポートせず、大々的な報酬プログラムも導入していなかったにも関わらず、Alexaプラットフォームに一定数の開発者が集まったというのは注目に値する。Alexa App Storeで配信されているスキルの数は、短期間のうち(アマゾン初のオフィシャルAlexaデバイスであるEchoは2015年7月リリース)に1万5000種類を超えた

とはいっても、スキルに対する一定額の現金報酬というのは長続きしないかもしれない。そのうち開発者は詳細不明の報酬体系に満足できず、きちんとしたビジネスが成り立つような形態を求めるようになるだろう。さらにAlexa(そしてEchoシリーズ)は、Google HomeやAppleのHomePodなど、アプリエコシステムをよく知る企業が発表した競合製品ともこれから本格的に戦うことになる。

その一方で、GoogleやAppleはアマゾンに遅れをとっている。Echoスピーカーやその弟分にあたる安価なEcho Dotをはじめとする各デバイス(こちらこちら)の人気もあり、Alexaは既にある程度のトラクションを築いているのだ。アマゾンは音声アシスタントを最初に開発した企業というわけではないが、音声スピーカーのあるべき姿を見極め、伸びゆく消費者の需要に応えているというのは間違いない。

ポケットやカバンの中に入った携帯電話ではなく、家のある場所に置かれたスピーカーに音声アシスタントを搭載したというのがアマゾンの目の付け所の違いだった。そのおかげで、話しかければコンピューター(=Alexa)が応えてくれるという、私たちが待ち望んでいたSFのような世界が現実のものとなり、今では誰もが使い方を心得ている。そんなアマゾンが音声スピーカー業界で現在のポジションを守るためには、持続的なアプリエコシステムを構築していかなければならない。そのためにも開発者への配慮を怠ってはならないのだ。

原文へ

(翻訳:Atsushi Yukutake

GoogleのCloud Speech APIが大幅アップデート、対応言語が増え、言葉にタイムスタンプを付着

2016年にローンチしたGoogleのCloud Speech APIは、話された言葉をテキストに書き起こす。このAPIが今日(米国時間8/14)、大幅にアップデートされた。

中でもいちばんおもしろいのは、これまでの89言語に加えて新たに30の言語が加わったことだろう。ただしこれらの数字には、英語とスペイン語とアラビア語の地域的な変種が複数含まれている。今回新たに加わったのは、ベンガル語、ラトビ(ヴィ)ア語、スワヒリ語などで、Googleによると、それらを話す人は約10億人いる。

重要な新しい機能もいくつか加わった。たとえば、言葉にタイムスタンプが付くこと。これにより元の音声と書き起こしテキストに同じタイムスタンプが付くので、前者から後者、あるいはその逆の、対照ができる。書き起こされたテキストを見た人が、それらの実際の発音を知ることができる。また、このAPIを使って人間が介助する書き起こしや翻訳サービスをしているところは、仕事のスピードアップができる。このAPIを使って1分10セントでインタビューの書き起こしサービスを提供しているHappy Scribeの協同ファウンダーAndré Bastieはこう述べる: “タイムスタンプでオーディオをテキストにマップできるので、書き起こしの校正に要する時間が大幅に短縮できる”。

アップロードできるファイルの大きさは、これまでの80分から3時間になった。もっと長いクォーターも要求できる。

最初の60分は無料、そしてその後は、15秒ごとに0.6セント課金される。

関連記事(未訳)〕

〔新たに加わった言語:

  • Amharic (Ethiopia)
  • Armenian (Armenia)
  • Azerbaijani (Azerbaijani)
  • Bengali (Bangladesh, India)
  • English (Ghana, Kenya, Nigeria, Tanzania)
  • Georgian (Georgia)
  • Gujarati (India)
  • Javanese (Indonesia)
  • Kannada (India)
  • Khmer (Cambodian)
  • Lao (Laos)
  • Latvian (Latvia)
  • Malayalam (India)
  • Marathi (India)
  • Nepali (Nepal)
  • Sinhala (Sri Lanka)
  • Sundanese (Indonesia)
  • Swahili (Tanzania, Kenya)
  • Tamil (India, Singapore, Sri Lanka, Malaysia)
  • Telugu (India)
  • Urdu (Pakistan, India)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

家庭のテレビをスマートホームのモニタシステムにしたいAmazonの野心、まずささやかにFire TVのリモコンの完全音声化から

AmazonのFire TVはすでに音声でテレビをコントロールできるが、そのためにはリモコンを手に持つ必要がある。そこで今回AmazonのセットトップボックスはEchoの助けを借りて、ユーザーが自分の腕や指を動かさなくてもリモートコントロールができる方法を身につけた。

今日(米国時間8/1)からユーザーは、AmazonのスマートホームハブAlexa/Echoに命じるだけで、番組を選んだり、チャンネルを変えたり、ボリュームを調節したり、アプリを開いたりできる。二つのAmazonデバイスをそうやってリンクするやり方も簡単で、Fire TVにやらせたいアクションをEchoに言うだけだ。するとリンクが自動的に成立する。

言うまでもなくこの機能は、今ちょっと手を離せない!というときに便利だ。たとえば夕食の支度をしているとき、ハンバーグ用の挽肉でべちょべちょになった手でリモコンに触りたくないだろう。

それはAmazonのFar-Field通信を使うので、マイクロフォンは至近のAlexa対応デバイスへとデフォルトされる。だから別の部屋からでもチャンネルを切り替えたりできる。ただし、複雑な機械の複雑なインタフェイスを、すべて音声でコントロールするのは無理だ。たとえば、たかがテレビでも、いわゆる“チャンネルサーフィン”を、あなたは自分の音声でできるだろうか?

家庭用としていちばん強力、と思われる機能は、目下開発中だ。それは、防犯カメラのコントロール。それができるようになると、August, Netgear Arlo, Ringなどの製品のフィードをテレビで見られるようになる。ある意味でこの統合は、Fire TVの受像機を大型のEcho Showに変えてしまう。今その機能は、“近日封切”に挙がっている。

そしてAmazonは今、Alexaの音声機能をサードパーティのテレビ受像機にも載せようとしている。つまりSony, Logitech, DishなどのテレビがAlexaのスキルを持つのだ。今のところ、Echoに対応しているテレビはFire TV, Fire TV Stick, そしてFireOSを内蔵しているスマートテレビだけだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Firefoxブラウザーが音声検索、大型ファイル共有、そしてノート取り機能を実験的に実装

Firefoxは、再起を期している。ブラウザーの中核的部分に注いできたリファクタリング努力がようやく報われようとしているし、マーケットシェアの減少はまだ(とくにデスクトップで)続いているものの、今のFirefoxは、これまでの長年の鈍重さから抜け出てダイエットに成功し、快速になっている。そして今日(米国時間8/1)は、そんなFirefoxを試してみるのによい日だ。というのも彼らは今日、音声検索ノートを書く機能、そして大きなファイルの転送/共有機能という三つの新しいテストパイロットの実験をローンチしたからだ。これらの実験的事業は、Test Pilotと呼ばれている。

これらはすべて実験段階だから、まだ正式バージョンのFirefoxに載る保証はない。むしろこれらのパイロット事業の目的は、新しいコンセプトのテストにある。前には、サイドタブやアクティビティストリームの実験があった。しかもこれらの新しい機能を試すためには、Test Pilotアドオンをインストールする必要がある。

音声検索は、今GoogleやYahooやDuckDuckGoのホームページにあるようなやつだ。またノート機能は、プラグインとして提供される。そしてファイル転送共有機能SendはWeb上の機能として提供されるので、使用するブラウザーの種類を問わない。ファイルの最大サイズは1GBで、送信時に暗号化され、ファイルのリンクを友だちや同僚と共有できる。ファイルは、一回ダウンロードされたり、一日経ったら自動的に削除される。斬新なアイデアではないし、Mozillaはよく道草を食うと批判されたりもするが、ファイルが暗号化され、ツールがオープンソースであることには、好感を持てる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

新しいAppleの広告は、The RockとSiriの掛け合いでボイスファーストインターフェイスの有用性を伝える

目に見えないインターフェイスの使い方を、あなたは他人にどのように教えているだろうか?Appleにとって、Siriが最初の大規模大衆向け音声アプリケーションとなったときから、それは常にマーケティング上の問題として居座り続けている。

Appleはそれを教えようと何度も挑戦してきた。もしSiriを起動して何も話かけずにいたら、画面にSiriからの助言(「こんな風に話しかけてください」)を表示する。テレビスポット、ツールチップ、App Storeのプロモーション、そして読んだことがあるかどうかは知らないがインタビューなどで、どれほどの努力がSiriに注がれたかを知ることができる。それらは皆、単に時刻を尋ねたり、天気について聞くこと以上の使い方を促そうとするものだ。

そして、さらに最近は、AppleはiPhoneユーザーを、Siriがその声から連想される性格を超えて、AppleのAI(人工知能)とML(機械学習)に関連する様々なアプリケーションを代表するものなのだという考えを吹き込もうとしている。

世間では「電話機で何かを尋ねること」というSiriへの認識は大きく広がっているものの、その理解はとても浅いままだ。そう、日々の中で役立ち続けることが、人びとをプラットフォームに引き寄せるために大切なことなのだ。

平たく言えば:Appleに必要なのは、Siriが如何に日々の生活の中でユーザーを助けてくれる力があるのかを伝えることだ。

今回は、The Rockの異名で知られる、アクション映画の帝王かつ将来の大統領候補のドウェイン・ジョンソンが、それを伝える役割を託された。

この3分のスポット広告(今朝(米国時間7月23日朝)のジョンソンによるツイートに基いて、どこかのサイトでは「映画」として誤って伝えられているらしい)はYouTubeで公開される。本質的には短いエピソードを集めたものなので、テレビやアプリな視聴のためには簡単にショートバージョンを作ることが可能だろう。

今朝Twitter上で寄せられたジョンソンからのレスポンスによれば、このスポットは、AppleとSeven Bucks Productionsとの共同制作である。Seven Bucks Productionsはジョンソンがダン・ガルシアと共同設立した制作会社だ。

話の内容はジョンソンの正気の沙汰ではないようなスケジュールに、さらなる棺桶リスト(死ぬまでに実現したいToDoリスト)である「人生のゴール」を付け加えて、複雑化させつつも、Siriの助けを借りて全てをこなしていくというものだ。テンポがよく、どのパートを見ても極めて楽しく、全体としても素敵な仕上がりになっている。ジョンソンが2016年に世界で最も出演料の高い俳優だったということは勘定に入れなくても、とてもお金がかかっているように感じる。

早い段階での誤解はともあれ、それは立派な広告であり映画ではない。そして広告としては、かなり効果的なものだと思われる。Siriの使われ方は、とても明白で良く知られたものから、ややわかりにくいが便利なものに到るまで、広い範囲をカバーしている。

ボイスファーストインターフェイスに対しては、驚くほど強気な沢山の人びとがいるが、個人的には流行が進みすぎるのは危険だと感じている。なぜなら人びとにそうしたインターフェイスが必要不可欠であると納得させることはできないからだ。

AmazonのEcho、Google Assistant、そしてSiriのようなボイスファーストインターフェイスは、大衆の意識に浸透するにつれ、どのようにすれば人びとにその有用性を理解させ、それを継続的に使う気にさせることができるのかが、いわば何か素晴らしいことを起こそう(make “fetch” happen)と狙う企業たちにとって、最も関心の高いことになっていくだろう。

スポット広告はYouTubeにアップロードされている

[ 原文へ ]
(翻訳:Sako)

現代自動車とKiaの車に、Kakaoが音声認識技術を搭載する

韓国のハイテク企業であるKakaoが、その配車事業をスピンアウトする計画を発表してから1ヶ月も経たないうちに、今度は韓国第2位の自動車メーカー現代自動車ならびにその子会社であるKiaとの間に、車載のハンズフリーシステム搭載に関する契約を結んだ

Kakaoは、韓国内のスマートフォンの95%以上にインストールされているトップメッセージアプリ、カカオトークを運営していることでよく知られている。しかしそれはチャットの枠を越えて他の領域にも手を伸ばしていて、AIもそのうちの1つだ。

9月には、同社のAIテクノロジーである”Kakao I”が、現代とKiaの特定の車種に統合されて、当初は車内で音声認識技術が提供される。双方の自動車企業は、運転者がレストラン、サービスステーションなどの情報を、声で検索できるハンズフリー機能の”One Shot”などのサービスの開発に協力してきた。

同社によれば、それ以外にも、Kakao Iは、音声認識、画像認識、テキスト音声変換、自然言語処理、チャットボットをサポートしているという。Kakaoはプラットフォームをサードパーティに開放し、車内の運転者をより快適にする多くのサービスと機能を提供しようとしている。

Kakaoは昨年9月に自動運転技術の開発を開始したと発表していたが、今回の提携はそれとは関係していない。

現代自動車は、自動運転車に早い段階から取り組んでいる会社の1つで、実際三星(Samsung)に先んじて、韓国で初めてのライセンスを取得している。同社はプロトタイプを先の12月に発表しており、また当初の予定より早く半自動運転機能を出荷しようとている

[ 原文へ ]
(翻訳:Sako)

Google Analyticsに音声(+自然言語)で質問できるようになる…まず英語から

自分のWebサイトやアプリの利用状況を知りたくなったら、これからはGoogle Analyticsに直接尋ねることができる。

“先週はモバイルとデスクトップでどれだけトラフィックが違ったかな?”とか、“昨日の新規ユーザーは何名だっただろう?”、“先週はどこの国の人がいちばん多かったか?”、などなどを知りたくなったら、これまでのようにAnalyticsのダッシュボードを開いてチャートを操作しなくてもよい。

単純に、クェリをタイプしたり、大きな声で言うだけでよいのだ。プロダクトマネージャーのAnnissa Alusiが見せてくれたデモによると、まさしく、上の三つの質問*を言うと、それぞれ数秒後に答えのデータを見せてくれる。〔*: 質問…英語である… (1)“What’s the trend of mobile versus desktop traffic last week?”, (2)“How many new users did we have yesterday?”, (3)“What were our top countries last month?”〕

測定分析部門のシニアディレクターBabak Pahlavanによると、音声と自然言語による操作は、そう簡単に実装できるものではなかった。完成まで三年(三か月ではない!)を要し、GoogleがAndroidや検索ですでに使っている自然言語処理技術がなかったなら、もっともっと長くかかっていたであろう、と。

でもなんで、そんなに長期間かけて、こんな一見簡単なユーザーインタフェイスを実装しなければならなかったのか? ダッシュボードで十分じゃん。Googleの高邁な理念によると、ビジター数を知りたいなどの単純なデータニーズは顧客企業の各現場の一般社員が自分自身で簡単に満たせるようにして、データサイエンスの専門技術者を煩わせないようにしたい。彼らには、もっと高度なデータタスクを担当してもらいたい。 Pahlavanの説明によると、音声操作はデスクトップとモバイルの両方で使えるから、一般社員ユーザーは、会議が始まる前とか、これから顧客に会う前とかに簡単に、必要なデータを知ることができる。

Google Analytics voice

Alusiは曰く、“Analyticsのインタフェイスが良くなって、これまでよりもっと多くの人たちが利用できるようになる、という見方もできるわね”。

音声といっても、今のところ英語のみだが、この機能は明日から数週間かけて一般ユーザー向けに展開される。Googleの社内にはAnalytics Intelligenceと呼ばれるより総合的な企画があって、それによってGoogle Analyticsのデータをもっと分かりやすいものにしようとしている。音声と自然言語の導入はその一環だが、ほかにも、重要なインサイトやトレンドを自動的に高輝度表示にする計画などがある。

音声操作は今後、ユーザーフィードバックなどに鍛えられてますますお利口になっていくと思われるが、Alusiのプロマネ的視点によると、今は“何”(例: 何かの数値)を問う質問にうまく答えられるが、今後は“なぜ”に対しても答えていきたい、という。たしかに、“先月のインドからのトラフィックは前月比でどれだけ伸びたか?”、という質問だけでなく、“なぜそんなに伸びたのか?”という質問にも答えてほしいよね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon Alexaのスキルが15000を突破、わずか半年で倍増、競合製品を圧倒

【抄訳】
Amazonの音声プラットホームAlexaの‘スキル’が、15000を超えた。それらが、EchoスピーカーやEcho Dot、Echo Showなどのデバイスの上で、多彩な‘芸’を披露する。Amazonの2月の発表では10000だったが、それ自体は昨年9月に比べて3倍増だった。

15000という数を最初に報じたのはサードパーティの分析企業Voicebotだったが、本誌の問い合わせに対してAmazonもその数字を確認した。

Voicebotが分析したのはアメリカのスキルのみだが、15000に達したのが6月30日だった。6月の前月比増加率が23%で、それまでの3か月の各月の増加率は10%未満だった。

Voicebotの年初の記事では7000だったから、半年で倍増だ。7000という数はAmazonもCESで公式に確認している。

Voicebotによると、Alexa Skill Storeで一番人気のスキルは、Flash Briefingsだ。これは朝の忙しいときなどに、Wall St. Journal, NPR, Washington Post, それに本誌(!)TechCrunchなど主なメディアが、主要記事を教えてくれる。

Flash Briefingsは開発も易しいスキルだから、今や全スキルの約20%を占める。詳しい数字はAlexa Skills Storeへ行けば分かるが、今現在2891のニューススキルがある、となっている。

なにしろ、スキルの数がこれだけ多いのは、Amazonが音声コンピューティングの世界で大成功、という意味だ。

【中略】

Voicebotによると、6月30日現在でGoogle Homeの音声アプリはわずか378、MicrosoftのCortanaは65だ。AppleのHomePodは、スキルのようなアプリをサードパーティが作れるのか、まだ明らかでない

【後略】

画像クレジット – トップ: Adobe; チャート: Voicebot

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MR、ドローン、音声デバイス、ビットコイン——テック業界経営者が予測する10年後のトレンド

左からスマートニュース代表取締役会長 共同CEOの鈴木健氏、ディー・エヌ・エー執行役員の原田明典氏、投資家/The Ryokan Tokyo代表取締役CEOの千葉功太郎氏、アイ・マーキュリーキャピタル代表取締役社長の新和博氏、グリー代表取締役会長兼社長の田中良和氏、gumi代表取締役社長の國光宏尚氏

この10年のテック業界を振り返れば、最も大きな変化というのは「ガラケー(フィーチャーフォン)」から「スマホ(スマートフォン)」への変化だった。では今後10年はどんな変化が訪れるのか?——6月5日〜7日にかけて兵庫県神戸市で開催中の招待制イベント「Infinity Ventures Summit 2017 Spring Kobe」。10周年となる本イベント、6日最初のセッション「業界トレンドの歴史と未来。これまでの10年、これからの10年」では、経営者、投資家らが今後10年のトレンドについて語り合った。

登壇者はgumi代表取締役社長の國光宏尚氏、アイ・マーキュリーキャピタル代表取締役社長の新和博氏、グリー代表取締役会長兼社長の田中良和氏、投資家/The Ryokan Tokyo代表取締役CEOの千葉功太郎氏、ディー・エヌ・エー執行役員の原田明典氏の4人。モデレーターはスマートニュース代表取締役会長 共同CEOの鈴木健氏が務めた。

経営者、投資家が振り返る「過去10年で最も衝撃だったニュース」

セッション冒頭、登壇者は自己紹介とあわせて、この10年でもっとも印象に残った、衝撃だったニュースについて語った。

原田氏が挙げるのは「アプリ回帰」というキーワード。NTTドコモからミクシィを経てDeNAで投資を担当する原田氏。かつてガラケーで流行しなかった「アプリ」が、スマホになって流行したと振り返る。「(流行の)ポイントはタッチパネル(での操作感)。過去の(ガラケーでアプリが流行らなかったという)トレンドを踏襲し過ぎて当てはめていけない」(原田氏)。続けて千葉氏は、2016年11月の「i-mode端末最終出荷」、2015年3月の「トイドローンとの出会い」を挙げる。端末最終出荷時点でも1700万人がいまだ利用していた日本独自の巨大プラットフォームの終焉、そして自身の新しい活動にも通じるドローンとの出会いこそが衝撃だったという。

原田氏と同じくNTTグループ系の出身である新氏も、ガラケーからスマホの変化が衝撃だったと語った。「いち従業員ながらも、通信キャリアが天下を取っていたつもりでいた。だがあれよあれよとスマホがやってきた。キャリアがトップだったところから、外来のハードウェアメーカーやOSがトップに移り変わったことが衝撃」と語る。グリーの田中氏は「10年前に1億円買っていれば…」と悔いつつ、「ビットコイン」の衝撃を語る。最初のビットコイン(ブロック)が登場したのは2009年、2010年頃でも1ビットコインは5円程度だったが、今では30万円前後となっている。こういったプラットフォーム(というか仮想通貨)の登場自体が非常に衝撃の大きいモノだったとした。

國光氏は2000年代後半に起こったソーシャルゲームの勃興について振り返った。当時はグリー、DeNA、ミクシィといったプラットフォーマーがしのぎを削りあい、ゲーム開発会社が資金を調達し、成長していったが、そういった経済活動自体が「日本のスタートアップの足腰を強くした」と語った。大企業や他業種からの参入者も増え、エンジニアのより一層高まったのもこの時期だろう。

セッションの様子。図はIVSで取り上げたトレンドを年代別にマッピングしたものだという

10年後、流行するデバイスは?

冒頭に書いた通り、ハードウェアで言えばガラケーからスマホ、その上によるプラットフォームの変化こそが、この10年の変化そのものと言っても過言ではない。では今後10年でどんなことが起こるのだろうか。

國光氏は、スマートフォン、ソーシャルウェブ、クラウドの掛け算で実現するプロダクトについて、「(この10年で)おいしいところが出尽くした」とした上で、最後に残っている領域として「モバイル動画」を挙げる。中国ではライブ動画での個人の活動やECが活発化している。これと同じような流れが日本でも来ると語る。

一方デバイスについては、MR(Mixed Reality)技術を取り込んだ先進的なメガネ型デバイスなどが1年以内にも登場するのではないかと予測する。「これからは、『MR、IoT、クラウドファースト』という企業が(マーケットを)塗り替えていく。わざわざスマホを見るより、目とインターネットが繋がった方が便利なのは自然な流れ。直近のGoogleやFacebookの発表を見ていると、思った以上に早く来るのでは」(國光氏)。MRデバイスについては、MicrosoftのHoloLensをはじめとして、特許を囲わずに各メーカーで作っていくという流れがあると説明。将来的にはAppleもAirPodsならぬ「AirGlass」などをリリースすれば一気にトレンドがやってくると予測する。

これに対して原田氏は、「ボイスインターネット」、つまり音声対応デバイスの時代やってくると語る。原田氏は「コンピューターが小型化する」という流れがあると勘違いしていたと振り返る。PCからスマホ、スマホから時計(スマートウォッチ)という変化が重要というのは間違い。一方で、スマートフォンの方がPCよりも機能が制限されるが、リテラシーの低い人でも使いこなしやすかった。同じように、リテラシーの低い層にどう刺さるデバイスであるかこそが重要だという。そういう観点で、次のトレンドは音声認識デバイスが作るのではないかとした。

先日ドローン特化の投資ファンドを立ち上げたばかりの千葉氏はデバイスとして「ドローン」を挙げた。ファンドの詳細はインタビュー記事を読んで欲しいが、ドローンが自動運転することで、BtoB領域のビジネスを変化させるのではないかと語った。

新氏は、劇的なデバイスの進化が起こるのではなく、10年後も現在のスマートフォンの延長線上にあるデバイスが主流ではないかと予測する。「10年前と今では、通信速度は100倍になり、ユーザーは音楽からゲームや動画を楽しむようになってきた。メールはメッセンジャーにかわり、リアルタイミング性が求められている。だが(ハードの進化については)保守的に考えていて、今より少し大きくなって、全天球カメラが付き、VR体験ができる程度のものになるのではないか」(新氏)

田中氏はこの10年で最も興味あるのは「AI」だと語る。先日のAlpha Goがトップ棋士らに勝利したというニュースを例に挙げ、「一番囲碁の強い人がAIに負けて、プロがその棋譜を読んだら『さっぱり分からない』となった。今まで僕らは『人間は(歴史を通じて)最適化されている』と言っていたが、それが違うらしいと暴露されてしまった。そうなると土台おかしいことがこれから発見されていくのではないか」と予測する。

ではスタートアップがAIの領域にチャレンジするにはどうしたらいいのか? 國光氏はGoogleやFacebookなどが提供するクラウドベースのAIを活用したプロダクトに注目しているとした。すでに画像認識や動画認識、テキスト解析、音声認識といった領域については、Googleをはじめとした企業がAIの公開を進めているところだ。これを使ってチャレンジできるビジネスがないかと問いかける。

ビットコインはナショナルカレンシーの代替となるか

ここで鈴木氏は、登壇者にFinTech領域の変化について聞いた。登壇者は連日話題を集めているビットコインやブロックチェーンをどう考えるのか。

千葉氏は「苦手な領域」としつつも、先日ビットコインが暴落したことに触れ、「(信用取引などで必要な)追証が必要ないこと」に驚いたとした上で、国家を脅かす可能性にもなりえると語った。原田氏も、ナショナルカレンシー(国が発行する通貨)の信用低下に伴う代替通貨の必要性はあるが、それをビットコインが担うかどうか分からないと語る。

田中氏は、ビットコイン隆盛の背景に、中国ではクロスボーダーの総員が難しいために、その代替手段として利用されているという事例を紹介。「これは技術ではない。世界の動きを分かっていないといけない」と語った。これに対して、通貨の研究も行っていた鈴木氏は、「結局国家は強い。揺り戻しが来るのではないか」としつつも成長の可能性を示した。

Mediumの会員は記事の朗読を聴けるようになる、プロの声優たちを起用

広告収入に依存しない高品質な読み物ブログを目指すMediumが、その‘有料’の魅力と価値を高めるべく、各記事の音声バージョンの提供を開始する。有料会員オンリーの記事はすべて音声化され、そのほかの記事は、同社のスタッフが選んだ記事など、良質な記事が音声でも提供される(それらも、聴けるのは会員のみ)。

それはテキストコンテンツの機械的な音声化ではなくて、プロの声優、ときにはライター本人の朗読だ。音声バージョンは、外出時や、ほかに何かの活動をしているときに便利だ、と同社は考えている。

音声の提供は今日(米国時間5/18)からで、WebサイトとiOS/Androidのアプリの両方だ。最初は50の記事が音声化されているが、今後徐々に増えていく予定だ。

また同社によると、音声の利用に関しては、記事の朗読以外にもいろんなプランがあるのでお楽しみに、ということだ。この、ポッドキャストに近づいたようなサービスは、Mediumの将来に新しい可能性を開くだろうが、現状は有料会員制そのものが限定的なサービスだから、厳しいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

音声アシスタント製品をパートナーに任せるMicrosoft、Harman Kardonの次はHPとIntelが参加

今週初めには、スピーカーの名門メーカーHarman Kardonが、Microsoftの音声アシスタント・システムCortanaを載せたAmazon Echo対抗製品Invokeを発表した。サードパーティのCortana製品はそれが初めてだが、いつまでも‘唯一’ではない。今日(米国時間5/10)Microsoftは、HPが同様の製品を作ることで同社と契約した、と発表した。Intelもこのゲームに参加し、Cortanaが動くデバイスの参照設計を近くローンチする、と約束した。

GoogleもAmazonも音声アシスタント製品(ユーザーと対話するスピーカー)は自社製品からスタートしているのに、Microsoftだけはパートナーのハードウェアメーカーに任せるつもりだろうか。最近の一連のSurface製品を見ても、Microsoftに立派なハードウェアを作る能力はある。そしてAIを搭載した対話するスピーカーは、まだまだ処女市場に近い。Microsoftにも十分なチャンスがある。

しかし噂によると、Microsoftは別のやり方でAmazon Echoと対抗する気らしい。それは専用ハードウェアというより、PCに近いものだ。もしもこの噂が本当なら、Cortanaを利用するホーム・ハブのような機能がWindows 10 PC(それもキッチン用)に載る、ということか。そのPCは常時onで、ご主人様の質問やリクエストに応える。しかし単独スピーカーのような専用機は、やはりパートナーに任せて、自分では手を出さないのだろう。

HPの製品については、今はまだ情報がほとんどないが、今後情報が得られ次第、この記事をアップデートしよう。

Cortanaに関しMicrosoftはハードウェアパートナーのほかに、Cortanaのスキルを作るためのフレームワークCortana Skillsを発表した。今それは、プレビューが公開されている。このサービスは以前から発表されているが、これまでは一部のパートナーにしか利用できなかった。今日から一般公開、とは言っても、Cortana Skillsが利用できるのは当分、アメリカだけだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Harman KardonのCortana搭載スピーカーが発表前にリーク、Skypeできることが売りか

Microsoftは、Google HomeとAmazon Echoがやってるパーティーに自分も参加したい。このEchoそっくりさんは、スピーカーの名門Harman Kardonが作り、Microsoftの音声プラットホームCortanaが載っている。発売は今秋、発表は今週のようだ。

アップデート: MicrosoftとHarman Kardonはこのことを確認した。発売は2017年の秋である。

Invokeと呼ばれるこの製品は、未発表の製品が載ってるページにThurrott.comが見つけたが、それはその後引っ込められた。Thurrottの記事によると、この円筒形のスピーカーは上部に光輪があり、360度サウンドとSkypeをサポート、Cortanaに質問できる。

予定通り発売されれば、Skypeが大きなセールスポイントになるだろう。Google HomeもAmazon Echoも、現状では逆立ちしても電話はできない。Echoはいずれできる、という噂はあるけど。

今週行われるMicrosoftのデベロッパーカンファレンスBuildで、たぶん詳しい発表が行われるだろう。すでに数社のハードウェアパートナーが決まっている可能性もあるし、そのほかのCortana搭載スピーカーが年内にInvokeと並んで発表されるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google AssistantのSDKをデベロッパーに提供、製品のプロトタイプへの使用は自由で無料

Googleは前から、Assistantをさまざまなハードウェア企業やデベロッパーから成る大きなエコシステムへ公開したい、と言っていた。今日(米国時間4/27)同社はその方向へ大きく一歩前進し、Google AssistantのSDKローンチした。デベロッパーはこれを使って、自分のハードウェアにAssistantの知能を組み込める。たとえばスマートミラー(鏡)とか、Google Home的な器具や装置、絶対禁酒を誓った人が秘かに楽しむロボットのバーテンダー(上図)など、何でも好きなものを作れる。

ただしGoogleのAPIを自由に使えるのは、プロトタイプを作るときだけだ。商用製品を作るときには、Googleの正式の許可が要る。

SDKはPythonのコードで提供され、人気のRaspberry Pi 3をはじめ、さまざまなハードウェアプラットホームで使える。GoogleのgRPC APIを使えば、Assistantをそのほかのハードウェアプラットホームにも統合でき、またJava, C#, Node.js, Rubyなどの言語を使える。このSDKを使えば、自分のハードウェア製品が音声コマンドを聞き取り、それらをGoogle Assistantのサービスに送り、適切な応答を受け取ることが容易にできる。

Googleによると、SDKを使っているデバイスはAssistantのすべての能力を利用できる予定だが、現状は違う。リリースノートにはたとえば、アラームとタイマーをセットできない、と書いてある。音楽の再生、ニュース、ポッドキャストもだめだ。ホームオートメーションの機能の多く、および、Uberなどサードパーティサービスの呼び出しは、まだGoogle Homeにしかできない。

Assistantに話しかけるAPIはすでに公開されている。この“Actions on Google” APIは、サードパーティのアプリケーションをGoogle Homeに統合するためのものだ。またPixelスマートフォンや今後のAlloでも、Assistantがサポートされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))