AmazonのAlexaは深層学習に基づきユーザーのやりたいことに関して‘勘’を働かせる

Amazonのビッグな ハードウェアイベントは、確かにハードウェア山盛りだったが、それ以外のものもあった。Amazonは、同社のバーチャルアシスタントAlexaを、人間のやることに対して、もっとお利口にし、もっと直観的な理解や判断ができるために何をしているか、を説明した。一家にたくさんのインターネットに接続されたスマートホームデバイスがあるときには、それ〔ユーザーが今何に対して何をしたいのかという直観、勘〕がとくに重要だ。

Amazonは木曜日(米国時間9/20)のイベントで、Alexa Hunchesと呼ばれる機能を発表した。この機能によりバーチャルアシスタントは、ユーザーの振る舞いに関する手がかりを知り、それに基づいて提案をする。そのためにAlexaは、ニューラルネットワークによるディープラーニングを利用して、人間の振る舞いを理解し学習する。〔hunch == ‘勘’〕

Alexaは人間の脳が対応できる判断をしなければならないし、そのためにはデータを必要とする。今のところ“Hunches”は、そんなデータが得やすいという意味で、スマートライトやセキュリティカメラのようなコネクテッドデバイスにフォーカスしている。たとえばユーザーが、“Alexaおやすみ”とか、“Alexa目ざましをセットして”と言ったら、毎日そんなコマンドを聞いているAlexaは、振る舞いに関するデータに基づいて勘を働かせる。そしてAlexaは、“ポーチのライトが点いたままだと思います。私が消しましょうか?”、と答えるかもしれない。

ずっとこの勘機能をテストしてきたAmazonは、機能のローンチを今年の終わりごろと予定している。勘機能は、時間とともに学習し改良されていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AmazonのAlexaがSonyのスマートTVとLenovoのタブレットにやって来る

AmazonはAlexaに、できるだけ多くの人と対話させたいし、できれば彼らに何かを見せたい。そのためには、このバーチャルアシスタントをAmazonの画面付きAlexaデバイス、Echo ShowやFire TVのような、Alexaに声だけでなく顔も与えるデバイスから解放してやる必要がある。

そこで同社は木曜日に行われたビッグなハードウェアイベントで、“smart screen” SDKのリリースを発表した。これを使ってデベロッパーは、Amazon以外のハードウェア製品にEcho Showのような機能を持たせられる。スマートTVでも、最新の冷蔵庫でも、なにしろ画面のあるものなら何でも、Alexaデバイスにしてしまえる。

実際にすでにそれをやった企業が、二社ある。Amazonの発表によると、LenovoとSonyが、このSDKを使ってAlexaを自社製品に統合する。Lenovoは“近日発売”のAndroidタブレット、Smart Tabだ。

一方Sonyは、Alexa対応のテレビ、と呼ばれる製品シリーズの全機種にこのSDKを統合する。最初は、音楽と、スマートホームのカメラのみを年内に。Alexaが画面に何かを見せるという機能は、来年前半に実装される。

このイベントを取り上げた本誌記事(英文原文)の一覧が、ここにある。

画像クレジット: TechCrunch/Devin Coldeway

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AmazonのAlexaイベントの至るところにGoogleの指紋があった

今日(米国時間9/20)のAmazonの大規模なAlexaイベントで行われたおよそ70の発表の中には、ある重要なものが隠れていた。このビッグイベントから溢(あふ)れ出てくるニュースの多くには、Googleの製品が大きな影を落としていたのだ。

もちろん、その理由は明らかだ。ここ二年で、GoogleのAssistantとHomeが確実にAmazonとの差をつめている。いや、差どころか、今日のイベントのタイミングを見計らったかのように、GoogleのHome Miniが今年第二四半期のスマートスピーカーのベストセラーだった、という調査報告が出て、GoogleがAmazonの人気製品Dotの王座を奪った。

今日のイベントで初めてその姿を見せた新製品の中では、間違いなく新装のDotがGoogleの影響を表していた。布で覆われたデザインと音質の向上は、その廉価版スマートスピーカーをHome Miniに勝つべき対抗馬に仕立てていた。この製品のハードウェアデザインがこれほど大きく変更されたのは、今回が初めてだ。

AmazonはEcho ShowでもGoogleの機先を制したが、その新装バージョンもやはり、その分野におけるGoogleの影響が強く表れている。最初のShowは明らかに形よりも機能を優先していたが、しかし今年のCESでGoogleは、サードパーティ製のSmart Displayで、ディスプレイ付きスマートスピーカーという分野のハードルを上げた。Showのニューバージョンはまだ開発途上のようだが、LenovoなどのSmart Display製品の影響は、誰の目にも明らかだ。

しかしもちろんAmazonは、Googleにやられっぱなしではない。同社は明らかに、スマートアシスタントという分野で独自の道を進むことをねらっている。たとえばGoogle MaxやApple HomePodの対抗機を出すのではなく、ユーザーがホームステレオを構成していくための個別の要素、Sub(サブウーファー)やLink(アンプ)などを導入した。またEcho Autoは、プラグアンドプレイの車載ソリューションとして、Android Autoなどとの直接競合をねらっている。

AmazonとGoogleのライバル意識はEcho ShowからYouTubeが消されたことなどに露骨に表れているが、今日のイベントに登場した多くの製品の、設計とデザインにも大きな影響を与えている。競争は今後、さらに過熱するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、ハードウェアイベントでEcho掛け時計発表――Alexaがいたるところにやってくる

Amazonは今日(米国時間9/20)、シアトルでイベントを開催し、多数のAlexa搭載ハードウェアを発表した。その中で先ほどAlexaを仕込んだ時計が登場した。そう、壁にかける大きな時計だ。このEcho Wall ClockはAlexaの音声認識機能を備えているだけでなく、Bluetooth接続で他のEchoデバイスと通信できる。

この時計に音声で目覚ましやタイマーを設定すると、盤面に時間の進行が光で表示される。もちろん目覚ましとタイマーはEchoでもっとも頻繁に使われている機能だ。とすればユーザーがこの二大機能を利用するのに掛け時計は絶好の場所だろう。ともかくAmazonはそう考えたらしい。

Amazonの説明によればこの時計は使い方が非常に簡単で、壁に掛けておきさえすれば誰でも声で命令できる。長時間かけて音声の認識を訓練する必要はないという。

イベントでAmazonはパスタを茹でるときのタイマーとして使うところをデモした。時計の盤面には60個のLEDが分を示す位置にセットされており、光って時間の進行を示す。複数のタイマーをセットした場合、それぞれの進行を別々に表示するマルチタスク機能がある。またカウントダウンにもできる。目覚まし、タイマー、リマインダーをセットした時間になるとそれぞれのチャイムが鳴るが、同時に光でビジュアルにも注意を喚起する。

時計の直径は25センチでバッテリー1個で作動し、サーバーから提供される現在の時刻に自動的に同期する。つまり夏時間、冬時間をいちいち手動で切り替える必要はない。

今回Amazonは数多くのデバイスを発表した。どれが当たるか分からないので全部試しておこうという考えのようだ。消費者が本当にAlexa搭載の電子レンジやこの掛け時計を欲しがるかどうかは様子を見る必要がある。クリスマス商戦でその結果が分かるだろう。

Amazonの掛け時計は今年中に出荷され、価格は29.99ドルが予定されている。

Amazonのハードウェア・イベントの関連記事はこちら

原文へ

滑川海彦@Facebook Google+

二社から発売のAlexaルーターは今や完成された製品のようだ

世の中には、必ず起きることがある。株価の変動、雷雨、金がないときにかぎって好きだったバンドが再編される。そして、Alexaだ。Amazonのスマートアシスタントは、徐々に、どんなスマートホームにも必ずあるものになりつつある。そのあとを、Googleが追っている。

こういうものには、ルーターが最上の組み合わせだろう。ルーターはネットに接続するための重要な部品だし、メッシュネットワークならそれは至るところにある。Alexaにルーターとの一人二役をやらせない手はないね。同じことを、HuaweiとNetgearも考えたようだ。Amazonも、喜んでそれを受け入れている。

両社はそのコンセプトの実装を、今週のIFAで披露した。HuaweiのAI Cubeは、全然キューブではないけれども、より単純明快だ。形がGoogle Homeに似ていることで目立つけれども、そのため空気清浄機Gladeにも似ている。4GのSIMカードでLTEをサポート、 2.4GHz帯と5GHz帯に対応している。

ルーターの下で服を着ているのが、Alexaが応答するための大きなスピーカーで、“音容積は400ミリリットル、アルミ製振動板”だ。“AI”は、Alexaの機能のことだろう。ルーターの特長は何も書かれていないが、速度性能は悪くない。

Netgearは、Orbi VoiceでHuaweiに差をつけている。人気製品にAlexaをつけて、メッシュルーターは家中に置いてWi-Fiの死角をなくすもの、という特徴を生かしている。Echo Dotを家中に置くような感じになるが、ネットワークのカバー率を高めるという余録がある。

Huaweiは価格を発表していないが、Netgearのは300ドルだ。どちらも、Alexaを置こうと思ってた人たちに、確かな付加価値感を与えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの‘何でもAssistant’路線、今度はBang & Olufsenの高級スピーカーに取り付く

Google AssistantとAmazon Alexaはもはや、自社製の安価なスマートスピーカーだけが自分の世界ではない。中でもとくにGoogleは、サードパーティのハードウェアメーカーに積極的に働きかけて、同社の消費者向けAIを、できるかぎり多様な製品に載せようとしている。

Bang & OlufsenのBeoSound 1と2は間違いなく、この路線のハイエンドに位置するだろう。その高価なスピーカーは、Google Assistantが載る同社の初めての製品だが、しかしB&Oは前から、それを同社のすべての製品に載せる、と約束していた。今回の二つの機種は、そのために必要な技術を最初から装備しており、たとえばマイクロフォンは5つ搭載している。

また上部には4つのボタンがあり、それらに、天気予報、ニュースなどさまざまな機能を割り当てられる。このAssistant搭載の新機種は来月初めに、1が1750ドル、2が2250ドルで発売される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google初のスマートディスプレーがついに登場

何ヶ月も待たされたあと、Google Smart Displayがついにやってきた。Googleは去る1月のCESで数々のデバイスを発表した——もちろんAmazonに対抗するために。Echo Showはスマートスピーカーの世界では十分新しいデバイスだったが、このハードウェアにはいつも何かが欠けていた。

一方Googleはと言えば、重労働はハードウェアパートナーに任せ、CESではLenovo、JBL、およびLGのデバイスを発表した。その中でもLenovoは断然ルックスが良い——しかも最初に市場にでたのはこれで、8インチバージョンが200ドル、10インチが250ドルで販売されている(YouTube Premiumが3ヶ月分ついてくる)。ほかの2つは「近日発売」としてリストに載っているだけだ。

GoogleはI/Oカンファレンスでさらに一歩前進し、ハードウェア開発キットを配布したので興味のあるメーカーは自分で作ることができる。スマートスピーカー市場が何らかの参考になるなら、そう遠くない将来にこの手の製品があふれることが予想される。

Echo ShowやEcho Spotを試してみたことのある人なら、内容はわかっているだろう。ニュース、音楽、ポッドキャスト、レシピ、等々すべてがビジュアル要素と共に利用できる。もちろん、このスマートディスプレーにはAmazonにはない非常に重要な要素がある:YouTubeだ。YouTubeの利用は両社の戦いにおける重要な争点だ。つまるところ、この種のハードウェアでもっともよく使われる場面の一つがこれだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleアシスタントが音声通話で予約を取ってくれる――マンハッタンのレストランでDuplexのデモに参加してきた

I/Oでのセンセーショナルな発表からひと月後、Googleはさらに改良されたDuplexを少数のジャーナリスト向けにデモした。場所はマンハッタンのイーストサイドの大型タイ料理店。Googleが新しいプロダクトのデモをするにはいかにも不似合いな場所だ。

テーブルは片付けられ、3脚ずつ3列、あわせて9人分の椅子が明るいディスプレイに面し、サイドのデスクが即席のコントロールセンターで、Google社員4人が配置されていた。ここでGoogleはI/Oのキーノートで発表され賛否の議論を沸騰させた新しいプロダクトDuplexをデモした。

I/Oカンファレンスが行われた陽光輝くマウンテビューのショアラインアンフィシアターとは180度雰囲気が違うニューヨークの高級タイ・レストランが舞台となったのには、しかし、十分に理由があった。GoogleはいよいよAIを駆使した音声ベースの予約アプリをデモした――レストラン、Thep Thaiのオーナーは「われわれは毎日100件からの予約を受けているのでこうしたアプリが登場するのは願ってもないことだ」と称賛した(Googleによればアメリのスモールビジネスの6割はオンライン予約システムを備えていないという)。【略】

秘密主義で名高いGoogleとしては、進行中のプロジェクトのベールを一部なりと外すのは珍しい。しかしDuplexにとって情報の透明性は成功のカギとなる要素だ。自動運転車と同様、この種のシステムは現実の世界で繰り返しテストされ、可能なかぎりバグを潰しておく必要がある。

I/OのキーノートでCEOのスンダル・ピチャイは「これからGoogleアシスタントが本当のヘアサロンに電話して予約を取るところをお聞かせする」と述べた。

(Googleアシスタント)ハイ、クライアントの女性のヘアカット、1名予約をお願いします。えー、5月3日はどうでしょう?

(ヘアサロン)オーケー、ちょっと待ってください。

(Googleアシスタント)アーハー…

〔下のビデオでは1:08あたりから通話が再生される〕

ここでカンファレンスの聴衆はジョークだと思って笑った。それから本物だと気づいて喝采した。実際、意味がわかっても信じるのは難しい。電話しているのはAIベースの純然たるロボットだ。それが「えー」と口ごもったり、「アーハー」と頷いたりできるとは。

実はこうした無意味な音声は言語学では非流暢性(speech disfluencies)として知られ、現実の発言で頻繁にみられる重要な要素と考えられている。Duplexの発言が驚くほど自然に聞こえるのはこうした非流暢性を巧みに利用している点が大きい。

またDuplexが相手の返事をはっきり理解できなかった場合にも非流暢性は役立つ。受付担当者が電話の声を聞き取れなかったり聞き違えたりすることは普通にある。たとえば「4人のグループの予約をしたい」と求める場合、「えー、席を4人分です」と表現を変えて言い直すことができる。ここで「えー」は自然さを増し会話を円滑に進めるために効果がある。

こうした細部がDuplexを正しく作動させる秘密となっている。これは私の体験からそうだと言える。実は今回のデモで私はタイ・レストランの受付係の役でGoogleアシスタントの電話を受けたからだ。I/Oでアンフィシアターの巨大スクリーンに写し出された会話も本物だった。さらに興味深いのは、この電話はぶっつけ本番だっただけでなく、電話をかけているのがGoogleアシスタントだとはヘアサロンも知らなかったことだ。Googleがヘアサロンに知らせたのは電話の後だったという。【略】

ただしGoogle Duplexテクノロジーが実用化されるためには、情報の透明性が必要だ。つまり自分が人工知能であること、会話は録音されていることをまず最初に開示しておく必要がある

Googleはプロダクトを紹介したブログにこう書いている。

会話が快適に進められるよう、〔Duplex〕テクノロジーは自然に聞こえねばならない。ユーザーにとっても店舗にとってもサービスの使用体験が快適であることが重要だ。透明性はこの点でもカギとなる。われわれは、ビジネス側がコンテキストを正しく理解できるよう、電話の意図、性質をできるかぎり明確にするよう努める。具体的な手法については今後数ヶ月かけて実験していく。

Duplexの透明性に関するメディアでの議論を受けて、Googleの担当者は「Duplexは情報開示機能を組み込んだデザインとする。これにより受け手がシステムの性質を正しく認識できるようになる。われわれがI/Oで紹介したのは初期段階のテクノロジーのデモであり、今後は各方面からのフィードバックを取り入れながらプロダクトに仕上げていく」と付け加えている。

現在のDuplexの通話はこのような形式でスタートする。

ハイ、私はGoogleアシスタントです。クライアントに代わって予約の電話をしています。これは自動通話で録音されています。

Duplex自身はAIだと名乗っていないが、Googleアシスタントに馴染みがあればおそらくそう気づくだろう。ただし録音されていることは告げている。Googleでは音声、テキスト双方を記録し、品質の検証と今後の改善に役立てるとしている。

タイ・レストランでのデモでGoogleアシスタントの電話を受けたとき、最初の部分を繰り返させようとしてみた。騒々しいレストランなどで電話を取ったとき最初の情報開示部分を聞き落とすことは大いにあり得る。しかしアシスタントはかまわず予約内容に進んだ。つまり受け手が情報開示部分を聞き落とした場合、今のところ繰り返させる方法はない。ともあれ、現在の段階ではそのようだ。録音からオプトアウトしたい場合は電話を切るしかない。しかし常連客を増やすためにはあまり勧められない方法だ。

この点について、Googleのエンジニアリング担当アシスタント・バイスプレジデント、Scott Huffmanによれば「われわれは『オーケー、では録音しません』と言わせるメカニズムはもっている。ただ、具体的にどのようにすればよいか検討中だ。電話を切ればよいのか? 録音を破棄すればよいのか?」と説明した。

私も含めてデモに参加したジャーナリストはシステムをまごつかせようと全力を挙げた。アシスタントが午後6時の予約を取ろうしたので私は店が開くのは午後11時だと答えた。マンハッタンにはとんでもない営業時間の店がいくらもある。アシスタントは諦めて礼儀正しく電話を切った。

ここでDuplexの「聖杯」となるのは「予約のチューリングテスト」に合格することだ。Duplexが混乱すると Googleが用意した人間の担当者が引き継ぎ、いってみれば、飛行機を安全に着陸させる。人間の補助要員はDuplexのテストに常に付随する。Googleによれば誤解が手に負えないレベルに拡大しないよう、当分の間、Dupelxは人間が後見するという。この方式でどの程度の規模まで実験を拡大できるのか注目だ。

もっとも今回のデモではわれわれは誰もDuplexの後ろから人間の要員を引き出すことはできなかった。それでも現在のシステムの限界をいくつか知ることができた。たとえば、「最後の4桁を繰り返してください」と言うとアシスタントは電話番号を全部繰り返した。これは間違いではないが、やはり人間の会話の微妙なニュアンスを理解できていない。一方、メールアドレスを尋ねると、システムは「クライアントから〔メールアドレスを明かす〕許可を得ていません」と答えた。

GoogleによればDuplexは現在5件中4件は全自動でタスクを完了できるという。80%の成功率ならたいしたものだと思うが、Googleではさらに改良を進めている。【略】

DuplexはMacbookにオフィスの電話をつないだ間に合わせのシステムから始まって長い道を歩んできた。これはWaveNetオーディオと深層ニューラルネットワークの上で音声からテキスト、テキストから音声という変換を繰り返す複雑なプロセスだ。最初のデモはリアルタイムでこそなかったが本物だった。Duplexはさらに興味深いプロダクトに成長している。

好むと好まざるととに関わらず、Duplexは近々現実のものとなる。これを避けるには電話を使わないことしかないかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

iOS上のAmazon Alexaアプリで音声コントロールが可能に

もう2年以上前にも思えるが、AmazonがAlexaのAndroidアプリに音声によるコントロールを持ち込んだのは実はやっと今年の初めだ。これによってサードパーティのモバイルデバイスにも、Amazonが進出していけるか、と思われた。そしてそのときは、同じ機能性を“もうすぐ”iPhoneにも導入する、と発表された。そして、そのもうすぐが今日(米国時間6/26)になった。

iOS上にAmazonのスマートアシスタントをダウンロードした者は今日から、そのアプリに訊いたり頼んだりできるようになる。もちろんそれはネイティブアプリではない(Appleは自分のスマートアシスタントをとても愛しているのだ)。そこで対話は、ボタンをタップしないと始まらない。

そしてそれ以降は、Alexaに質問をしたり、音楽を聴いたり、スキルにアクセスしたり、スマートデバイスをコントロールしたりなど、Alexaの‘芸’を楽しめる。天気予報やスポーツ、カレンダーなどの問い合わせに対しては、ビジュアルな表示も出る。このアップデートは“数日後から”、無料でダウンロードでき、利用できる。

スマートアシスタントの競争でAmazonには不利な一面がある。ビッグスリーの中でAmazonだけは、独自の、そしてメジャーな、モバイルOSを持っていない。MotorolaやHuaweiなどAndroidのハードウェア開発者とパートナーして、なんとか入り込んでいるが、でもGoogleとAppleは彼ら独自のスマートアシスタントのエコシステムを育てる気だ。

今後モバイル市場で何か大きな策を打ち出さないかぎり、Amazonにとってはアプリをできるだけ多くのiOSとAndroidハンドセットに載せていくことが、モバイル進出の最良の手だ。音声コントロールが加わったことによって、モバイル上のAlexaは突然、Echoデバイスをセットアップするだけのアプリではなくなったのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa