Amazonのビッグな ハードウェアイベントは、確かにハードウェア山盛りだったが、それ以外のものもあった。Amazonは、同社のバーチャルアシスタントAlexaを、人間のやることに対して、もっとお利口にし、もっと直観的な理解や判断ができるために何をしているか、を説明した。一家にたくさんのインターネットに接続されたスマートホームデバイスがあるときには、それ〔ユーザーが今何に対して何をしたいのかという直観、勘〕がとくに重要だ。
Amazonは木曜日(米国時間9/20)のイベントで、Alexa Hunchesと呼ばれる機能を発表した。この機能によりバーチャルアシスタントは、ユーザーの振る舞いに関する手がかりを知り、それに基づいて提案をする。そのためにAlexaは、ニューラルネットワークによるディープラーニングを利用して、人間の振る舞いを理解し学習する。〔hunch == ‘勘’〕
Alexaは人間の脳が対応できる判断をしなければならないし、そのためにはデータを必要とする。今のところ“Hunches”は、そんなデータが得やすいという意味で、スマートライトやセキュリティカメラのようなコネクテッドデバイスにフォーカスしている。たとえばユーザーが、“Alexaおやすみ”とか、“Alexa目ざましをセットして”と言ったら、毎日そんなコマンドを聞いているAlexaは、振る舞いに関するデータに基づいて勘を働かせる。そしてAlexaは、“ポーチのライトが点いたままだと思います。私が消しましょうか?”、と答えるかもしれない。
ずっとこの勘機能をテストしてきたAmazonは、機能のローンチを今年の終わりごろと予定している。勘機能は、時間とともに学習し改良されていく。