看護師を雑用から解放するAmazon AlexaとGoogleアシスタント

ロサンゼルスの総合病院であるCedars-Sinai(シダーズ・サイナイ)は今、100の病室にAmazon Echoを置くパイロット事業を行っている。そのスートスピーカーたちはヘルスケア用の音声アシスタントプラットホームAivaを使って、患者と看護者のコミュニケーションを助ける。たとえば、テレビのチャンネルを変えるなどの単純な用事を患者がAlexaに頼めるなら、看護師は医療的看護に割く時間が増える。

AmazonのAlexa FundとGoogle Assistant Investment Programの支援によりAivaは、ヘルスケアスタートアップのための同病院のアクセラレーター事業にも参加している。Aivaのプラットホームは、Google Homeでも使える。

患者がAlexaに何かを頼むと、Aivaはそれをその用事の担当者のスマートフォンへ送る。たとえば患者が薬を頼んだら、そのリクエストは担当の正看護師へ行く。応答がとても遅いときは、Aivaはそのリクエストを「コマンドチェーンの上の方」(上司など)へ送る。

音声アシスタントは現在、いくつかの医療機関で試されている。例えば、Boston ChildrenのICUでは看護師たちが、今の時間帯の担当看護師は誰か、ベッドはいくつ空いているかなどの管理情報を尋ねている。また移植用臓器が使用を認められるためのチェックリストを音声化して間違いを減らす、というパイロット事業も行っている。さらにAlexaのスキルKidsMDは、家にいる親が使って、子どもを医者に連れて行くべきかを判断する。

スマートスピーカーの市場ではAmazonが依然としてトップであり、病院でもAlexaが最も多く使われている、とHealthcare IT Newsは伝えている。その記事によると、現在Alexaデバイスを使っている病院は、ボストンではBeth Israel Deaconess Medical CenterとCommonwealth Care Alliance、ニューヨークのNorthwell Health、そしてロサンゼルスではCedars-SinaiのほかにLibertana Home Healthだ。

画像クレジット: Cedars-Sinai

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AmazonのAlexaは深層学習に基づきユーザーのやりたいことに関して‘勘’を働かせる

Amazonのビッグな ハードウェアイベントは、確かにハードウェア山盛りだったが、それ以外のものもあった。Amazonは、同社のバーチャルアシスタントAlexaを、人間のやることに対して、もっとお利口にし、もっと直観的な理解や判断ができるために何をしているか、を説明した。一家にたくさんのインターネットに接続されたスマートホームデバイスがあるときには、それ〔ユーザーが今何に対して何をしたいのかという直観、勘〕がとくに重要だ。

Amazonは木曜日(米国時間9/20)のイベントで、Alexa Hunchesと呼ばれる機能を発表した。この機能によりバーチャルアシスタントは、ユーザーの振る舞いに関する手がかりを知り、それに基づいて提案をする。そのためにAlexaは、ニューラルネットワークによるディープラーニングを利用して、人間の振る舞いを理解し学習する。〔hunch == ‘勘’〕

Alexaは人間の脳が対応できる判断をしなければならないし、そのためにはデータを必要とする。今のところ“Hunches”は、そんなデータが得やすいという意味で、スマートライトやセキュリティカメラのようなコネクテッドデバイスにフォーカスしている。たとえばユーザーが、“Alexaおやすみ”とか、“Alexa目ざましをセットして”と言ったら、毎日そんなコマンドを聞いているAlexaは、振る舞いに関するデータに基づいて勘を働かせる。そしてAlexaは、“ポーチのライトが点いたままだと思います。私が消しましょうか?”、と答えるかもしれない。

ずっとこの勘機能をテストしてきたAmazonは、機能のローンチを今年の終わりごろと予定している。勘機能は、時間とともに学習し改良されていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、AlexaとEchoをアンバンドル、それぞれをサードパーティーに公開―1億ドルの支援ファンドも

2015-06-26-amazon-echo-new

Amazonは私が昨日述べた希望を早くもかなえてくれた。AmazonはAlexaバーチャル・アシスタントとその最初のハードウェアである「つながったスピーカー」、Echoに対するハード、ソフト両面でのサポートを大きく拡大した。 今日(米国時間6/25)、 AmazonはサードパーティーのデベロッパーがアプリにAlexaの機能を容易に組み込めるようにするAPI、Alexa Voice Serviceを発表した。またAlexaの音声認識機能を利用するデベロッパーやガジェット・メーカーを支援するため総額1億ドルに上るAlexa Fundがスタートした。

AmazonのEchoは一見したところ奇妙なデバイスだが、音声認識ベースのコンピューティングの可能性を初めて一般ユーザー・レベルにまで拡げた点は画期的だ。 ハードウェアはしっかりしており、音声認識は強力で、実際に役立つ機能が満載されている。Alexaをサードパーティーのデベロッパーに公開したことでAmazonは音声認識コンピューティングの先頭に立つことができるだろう。 Echoに対して私の唯一の不満は、IFTTTのレシピは部分的に利用できるものの、サードパーティーのサービスとの連携が強く制限されている点だった。

Alexa Skills Kitは、Alexaのクラウド・バーチャル・アシスタント機能を利用するためのSDKで、大企業から個人のデベロッパーまで、わずかなコードを書くだけでさまざまなウェブ・サービスにAlexaの音声認識機能を連動させることができる。利用は無料だ。Amazonによれば「サンデー・プログラマーは数行のコードを書くだけで子どもたちの学校のホームページに掲載された今日のランチのメニューを音声コマンドで調べさせたりできるだろう」という。

Alexa Voice Servicesは、Alexaの機能をサードパーティーのハードウェアに関連づけるAPIで、たとえば音声認識で時刻をセットできる目覚まし時計、話しかけると応答するiPhoneの充電スタンド、音声で商品が買える自販機などが可能になる。

つまりAlexaとEchoは公式にアンバンドルされ、サードパーティーがそれぞれを独自に利用することができるようになった。多様なデベロッパー・ツールはすべて無料で提供される。ローンチ時のパートナーの一つ、Scoutはセキュリティー・ソリューションに、Toymailは子供向けのおもちゃにそれぞれAlexaを組み込む計画だ。AmazonはAlexaによる音声認識コンピューティングを世界中に広める決意を固めているようだ。

さらに総額1億ドルに上るAlexaファンドは、Alexaエコシステムの立ち上がりを強力にサポートするだろう。始まりつつある音声認識コンピューティング革命でAmazonが先頭に立ったことは間違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ユーザがふつうにメールするだけでバックエンドで勝手に仕事をしてくれる仮想アシスタントJulie Desk、人間の介入で‘正しさ’を向上

友だちとイベントを企画するアプリWePoppを作ったフランスのスタートアップが、今度は、友だち、ないし複数の人たちがミーティングやアポイントをスケジューリングするときの、行ったり来たりのコミュニケーションを自動化する‘仮想アシスタント’Julie Deskを作った。

バックエンドのAIも持っているからほかのアプリは要らないし、また合衆国のコンペティターX.aiと同じく、メールのカーボンコピー欄(CC:)という平凡なものをアプリのインタフェイスとして使う。

打ち合わせのメールスレッドを開始するときやそのスレッドの中で、”Julie”にCCするだけで、仮想アシスタントがスケジューリングの面倒を見てくれる。

アプリはまず、お互いの、あるいはみんなの、Google CalendarやMicrosoft Exchange、iCloudのアカウントなどを見て、合意できそうな時間と場所を見つけて提案する。

そのときJulieからは、本物の人間から来たようなメールが来る。

協同ファウンダでCEOのJulien Hobeikaはこう言う: “パーソナルアシスタントを使えない人もいるが、そういう人たちでさえ、アポイントやミーティングのスケジューリングは毎日のようにやっている”。

“WePopやWeTimeで経験的に分かったのは、スケジューリングで悩んでいる人たちに、自分でインストールして使い慣れる必要のあるツールを提供してもだめだ、ということ。だから、そんな、面倒の上塗りのようなことはやめて、ふつうにメールをやってればバックエンドでJulieが勝手に動くようにしたんだ”。

しかしそのためには、自然言語処理(NLP)と人工知能(AI)の部分を新たに開発する必要があったから、同社にとっては大きな飛躍だった。

結果的にJulie Deskは、AIに全面依存はしていない。スケジューリングというタスクは誤判断が命(いのち)取りだから、それを防ぐためにJulieのやることを人間が監視している。

“今では、Julieに送られてくるメールから必要な情報を取り出すために大量のNLPを使っているが、それでも人間が介入しなければならない部分は多い。AI自身の学習過程がまだ初期段階ということもあるけど、AIの出力が正しいことを必ず人間がチェックする必要がある。今後仕事を大量にこなしていけば、AIも徐々にお利口になると思うけどね”。

つまりこの仮想アシスタントは、機械学習を利用してだんだん利口になる。でもHobeikaによると、同社と、資金状態がとても良いX.aiとの重要な差別化要因がまさに、AIへの人間の介入であり、今後も“どんなに複雑な、あるいは特殊なケースでも正しく扱えるためには”、必要に応じて人間を介入させる、ということだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))