AmazonのAlexa Blueprintsで作った自作スキルを家族や友人と共有できる

【抄訳】
この春Amazonは、コードを書けない人でもAlexaのスキルを作れるサービス“Alexa Blueprints”を導入した。今日(米国時間6/13)からはそのスキルを、テキストメッセージやメール、WhatsAppのようなメッセージングアプリ、FacebookやTwitterやPinterestのようなソーシャルメディアでほかの人と共有できるようになる。

友だちや家族が使うスキルは、Amazonが提供しているテンプレートをご自分のコンテンツで満たすだけで作れる。コード(プログラム)を書く必要はない。Amazonは、共有機能はたとえば勉強グループ(や研究グループ)がフラッシュカード的なスキルを作ったり、誕生日を家族で共有するために利用できる、と言っている。後者の場合は、スキルが誕生日プレゼントになるかもしれない。

Blueprintsは今のところ、家でAlexaと遊ぶための楽しい方法だ。たとえば、“いちばんすてきなお母さんは誰のお母さん?”という質問に答えさせたり(もちろん、私の、だ)、家族の好きなジョーク集を作ったり、雑学クイズを作ったりできる。

でも、スキルを自作するユーザーはそんなに多くない。それは、Alexaのユーザーにとって必須ではなく、ちょっとした遊びだから。

スキルを作るのは、簡単だ。Amazonがテンプレートを提供していて、そこにはすでに見本が書かれているが、それを自分のニーズに応じて書き換えればよい。

そして、自分が作ったスキルのリストを見るとき、“Access”のところのステータスを”just me”(自分だけ)から”shared”(共有)に変えれば、そのスキルは共有される。共有をやめたいときは、”revoke”(取り消し)を指定する。

共有によってそのスキルのリンクが作られるから、そのリンクをメールなどで送れる。もらった人がリンクをクリックすると、Alexa Blueprintsのサイトへ行って自分のためにそのスキルを有効にできる。

Blueprintsのスキルは個人利用が前提だから、それをAlexa Skill Storeで一般公開することはできない。でもBlueprintsのサイトでAlexaオーナーのコミュニティを作れるし、また、ほかの人たちのコラボレーションを誘ってもよい。

たとえば、ある特定のテレビ番組の大ファンたちが集まって、その番組の超難度の雑学クイズをコラボで作ると楽しいだろう。近親者や親戚なども含めた大家族の中で、あなたが唯一のテクノロジー通なら、そんなみんなのためのスキル集を作って共有してもよい。

Alexa Blueprintsのサイトは、ここだ 。〔いろんな作例が載っている。〕

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Home、1度に3つのタスクをこなせるようにーただし英語圏でのみ

Google Homeがマルチタスクをこなせるようになったのは昨年11月のことだ。“multiple queries(マルチな質問)”と呼ぶ機能を追加し、これにより2つのリクエストを組み合わせた音声コマンドを出せるようになったのだ。たとえば、「オーケー、Google。ボリュームを上げて、音楽をかけて」といったコマンドだ。そして今回、Google Homeは1度に3つのタスクをこなせるようになり、さらに賢くなった。

この新機能は、Googleの@madebyGoogleというツイッターアカウントで月曜日に発表された。そのツイートを見たユーザーはすでに気づいているかと思うが、残念ながら今回の3つのタスクをこなす機能は現在のところ、米国、英国、カナダ、オーストラリアといった英語圏のみでの展開となっている。

マルチタスクをこなせるのはあなただけではありません。Google Homeも1度に3つのことをこなせるようになりました。つまり、あなたはもっとたくさんのことができるのです。

pic.twitter.com/7jTd97Evus

-Made by Google(@madebygoogle)2018年6月11日

この機能を使うには、他のリクエストと識別するために、音声コマンドの間に“and”を入れる必要がある。各コマンドはまた、追加の情報や説明などなしにGoogleアシスタントが対応できるようなものでなければならない。

つまり、ただ「目覚ましをセットして」ではダメで、アシスタント側が追加で情報を確認しなくてもいいよう「午前7時に目覚ましをセットして」とリクエストしなければならないということだ。

昨年11月に初めてマルチな質問機能が導入された時も、大々的な宣伝はなかった。

しかしGoogle Homeがマルチタスクをこなすのはこの方法でのみではない。2月に、Googleアシスタントではルーチンワークがこなせるようになっている。このルーチン機能では、音声コマンド1回で複数のアクションを実行できるようにカスタマイズできる。

たとえば、あなたの“I’m home”ルーチンで、家の照明をつけ、室温を調整し、音楽を流すというアクションが実行されるように設定することができる(Alexaでも昨年10月からルーチンが利用できるようになっている)。

一方で、5月に開かれたI/Oデベロッパー会議の場で、Google Home アクションのたくさんのアップグレードとともに、Googleは正式にGoogle Homeのマルチな質問機能を発表した(その後、“マルチプルアクション”と呼ばれるようになった)。ここには、ルーチンサジェスチョンも含まれる。ルーチンサジェスチョンでは、音声アプリデベロッパーが彼らのアプリのアクションをルーチンに加えるようにユーザーを誘導でき、アクションノーティフィケーションでは音声アプリがユーザーに新機能やコンテンツなどについて注意喚起することができる。

Googleはこのマルチな質問機能が非英語圏でいつから使えるようになるかは明らかにしていない。“他の言語をサポートするのを楽しみにしている。しかし、今のところは発表することは何もない”と述べるにとどまっている。

アップデート(2018年6月12日、東部時間午後2時半):もし、なぜ自分のGoogle Homeではこの新機能が使えないのだろうと思っている人のために。Googleのツイッターアカウントは実際の提供開始に先立ってスクープ発表したもようで、新機能は間もなく使えるようになるはずだ。しかし、これについての公式発表はない。

h/t: Voicebot

[原文へ]

(翻訳:Mizoguchi)

AmazonのFire TV CubeはEchoを内蔵したセットトップボックスだ

Amazonが今日(米国時間6/7)、そのますます混雑してきたリビングルーム向け製品群にまた一つ加えた。消費者は混乱すると思うが、今度のCubeはFire TVとEchoのギャップを橋渡しすることがその差別化要因だ。これまでのセットトップ製品にもAlexaのコントロールはあったが、今度のCubeはスマートスピーカーEchoの機能を完全に実装している。

というより、Cubeは大きな立方形のEcho Dotみたいだ。たしかにルックス的には平凡だが、上部の4つのEchoボタンや、Alexaが聴いていることを示すブルーのライトなど、おなじみの要素が揃っている。

この、正式名Fire TV Cubeは、GoogleがI/Oカンファレンスで発表したJBL Link Barを見倣っている。それはChromecastを内蔵して、不使用時にはGoogle Homeそのものだが、Amazonの場合はスピーカーはEchoのような機能のためだけにある。ホームシアター的なものは、完全にユーザーにおまかせだ。

そのためお値段は120ドルとお手頃だ。これには、IR延長ケーブルとEthernetアダプターが含まれる。しかもあと二日間の予約購入者には90ドルになる。200ドル出すと、Amazon Cloud Camとのセットになる。いよいよ、家中、Amazonのハードウェアだらけだ。

セットアップもかなり簡単だ。これをテレビに接続すると、機種を判定する(ユーザーが手入力してもよい)。最初に、テレビの音について質問するから、それに答えてオーディオをセットアップする。それから、ケーブルのプロバイダーやzipコードを指定し、使用を開始する。ケーブルや衛星テレビの事業者は、その90%に対応している。

もちろん、今ではAlexaによるテレビのコントロールもできるし、8つの遠方界マイクがついているので、ほかのEchoデバイスとコミュニケーションできる。

Fire TV Cubeは6月21日発売だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

iOS 12ではSiriがSpotifyなど他社音楽アプリをサポートできる、デベロッパーのやる気次第で

Appleが、いやそのSiriアプリが、サードパーティの音楽ストリーミングサービスとついに仲良しになった。

Spotifyなどの音楽ストリーミングサービスのユーザーは、iOS 12でSiriに導入されたShortcuts機能により、Siriに命じて音楽を再生できる。

WWDCのデベロッパーセッションでAppleは、SiriのShortcutsを利用してサードパーティアプリからオーディオやビデオのメディアを呼び出すデベロッパーのための機能、“Play Media”インテントを詳しく説明した。そのコントロールはApple Musicほどシームレスではないが、とにかくiPhoneやHomePod上のSiriに命じて、Spotifyなどのサービス上でプレイリストやアーチストを指定できる。前には、できなかったことだ。

・関連記事: AppleのSiriはShortcutsツールでユーザーが簡単にコマンドを作れるようになった

ただし重要なのは、これがあくまでもデベロッパーのツールであることだ。すなわち、SpotifyなどのiOS 12対応のアプリがこのSiri対応機能を実装していなければならない。言い換えると、ユーザー自身がいくらSiriを困らせてもだめ、ということ。

そのサービスを呼び出すショートカットが作られていないと、Siriにアーチストや曲をリクエストしても無駄だ。たしかにこれは完全な機能ではないが、でも、まだ、始まったばかりだ。

デベロッパーはiOS 12のベータで、この機能の動作や使い方を経験している。でもSpotifyによる公式のサポートは、これからの話だ。

この機能を正しく実装するとアプリはバックグラウンドで動くから、iPhoneを服のポケットに入れたままで自動的に曲の再生をスタートできる。そしてSiriに、プレイバックを命ずることもできる。

“Play Media”インテントはHomePodの完全なサポートを誇っているが、でもHomePod上のSiriに直接頼めるようになるためには、iPhone上でShortcutsアプリのセットアップが必要だ。これまでのHomePodは、SiriにApple Musicの曲をリクエストできるだけだった。

先週ぼくが書いた記事では、Spotifyとの互換性の実現を主張したが、これからはSiriのShortcutsを使えば、iPhoneやHomePodからプレイリストを呼び出せるなど、不完全ながらSpotifyなどそのほかの音楽ストリーミングサービスとの平和共存が実現するのだ。

・関連記事: Apple needs to play nice with Spotify(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

iOS 12ではSiriがSpotifyなど他社音楽アプリをサポートできる、デベロッパーのやる気次第で

Appleが、いやそのSiriアプリが、サードパーティの音楽ストリーミングサービスとついに仲良しになった。

Spotifyなどの音楽ストリーミングサービスのユーザーは、iOS 12でSiriに導入されたShortcuts機能により、Siriに命じて音楽を再生できる。

WWDCのデベロッパーセッションでAppleは、SiriのShortcutsを利用してサードパーティアプリからオーディオやビデオのメディアを呼び出すデベロッパーのための機能、“Play Media”インテントを詳しく説明した。そのコントロールはApple Musicほどシームレスではないが、とにかくiPhoneやHomePod上のSiriに命じて、Spotifyなどのサービス上でプレイリストやアーチストを指定できる。前には、できなかったことだ。

・関連記事: AppleのSiriはShortcutsツールでユーザーが簡単にコマンドを作れるようになった

ただし重要なのは、これがあくまでもデベロッパーのツールであることだ。すなわち、SpotifyなどのiOS 12対応のアプリがこのSiri対応機能を実装していなければならない。言い換えると、ユーザー自身がいくらSiriを困らせてもだめ、ということ。

そのサービスを呼び出すショートカットが作られていないと、Siriにアーチストや曲をリクエストしても無駄だ。たしかにこれは完全な機能ではないが、でも、まだ、始まったばかりだ。

デベロッパーはiOS 12のベータで、この機能の動作や使い方を経験している。でもSpotifyによる公式のサポートは、これからの話だ。

この機能を正しく実装するとアプリはバックグラウンドで動くから、iPhoneを服のポケットに入れたままで自動的に曲の再生をスタートできる。そしてSiriに、プレイバックを命ずることもできる。

“Play Media”インテントはHomePodの完全なサポートを誇っているが、でもHomePod上のSiriに直接頼めるようになるためには、iPhone上でShortcutsアプリのセットアップが必要だ。これまでのHomePodは、SiriにApple Musicの曲をリクエストできるだけだった。

先週ぼくが書いた記事では、Spotifyとの互換性の実現を主張したが、これからはSiriのShortcutsを使えば、iPhoneやHomePodからプレイリストを呼び出せるなど、不完全ながらSpotifyなどそのほかの音楽ストリーミングサービスとの平和共存が実現するのだ。

・関連記事: Apple needs to play nice with Spotify(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AppleのSiriはShortcutsツールでユーザーが簡単にコマンドを作れるようになった

Siriは長年、iOS上のもっともぶっ壊れたユーザー体験だった。Appleもその改良を口にすることは少なかったが、今回のWWDCで発表されたアップデートによりインタフェイスが改良され、ユーザーが自分のコマンドを作ったり、Siriからの早めのアップデートをもらいやすくなった。

Siriの提案機能でこのデジタルアシスタントは、ユーザーのビヘイビアから学ぶ。いつも決まった時間にコーヒーをオーダーしていると、Siriはその時間になると、そのことを提案する。会議に遅れそうだったら、Siriは連絡のメッセージを誰かに送るよう提案する。

今度登場したShortcuts(ショートカット)というアプリでは、ユーザーが“add to Siri”ボタンを使ってサードパーティのアプリを利用するカスタムコマンドを作れる。これによりユーザーは、たとえばKayakアプリのショートカットを使って、次の旅行の情報へジャンプできる。

これに関するAppleのプレゼンはかなり簡潔だったから、もっと詳しく知る機会がほしいね。Siriに対しては、いつも疑ってかかるのがベストだが、でもこれらのアップデートは、iOSだけでなくWatchやHomePodにとっても前向きの展開だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Homeがミニゴルフの全米ツアーを開催、ファミリーで参加できる、賞品もある

ニューヨークやシカゴ、ロサンゼルス、またはアトランタに住んでる人はもうすぐ、ミニゴルフで遊んで†Google Homeのいろんな製品について学べる。古き良き日の、企業の販促イベントみたいだな。(†原注: パターだけでプレイするゴルフなのでputt-puttという言葉が好きな人もいる。)

このプロジェクトに参加しているGoogle社員が、発表のビデオでこう言っている: “ふつうのリビングルームよりもちょっとエキサイティングな環境で、全国の人にGoogle Homeにできるマジックを感じてほしい”。もう一人のGoogle社員は、“ここでできることは、どれも家でできる。あなたの家をミニゴルフのコースに置いたようなものだ”、と言ってる。

  1. 000

  2. 008

  3. 007

  4. 002

  5. 009

  6. 011

当然ながら、仕掛けの中には、Google Homesがコース全体に配置されていて、障害物を避(よ)けるためにはそれらとお話しなければならない、というのがある。このコンペの“賞品”は、Googleの名入りソックスたくさんと、Home Mini数台だ。そしてもちろん、全体がファミリー向けだ。

ニューヨークのコースは、すでに企業向けにオープンしている。そのほかの都市も、すぐに続くだろう。ティータイムの予約は、ここでする。

ジョークを抜きにしても、Googleは明らかに現在の、Homeをめぐる上げ潮ニュースに乗りたいのだ。その中には、Google Homesの売上がAmazonのEchoデバイスを上回った、というのもある。先月のGoogle I/Oカンファレンスでデモした、ちょっと気味の悪いGoogle Assistant、Duplexについてはまだ一言もないが、なんだったらあなたご自身が、Google HomeのミニゴルフコースでGoogle Homeデバイスにたずねてみるとよい。

おまけ情報: ポートランドに住んでる人は、Twin Pines Country Clubへ行けばよい。市の施設だから、企業の宣伝臭なしでputt-puttを楽しめる。無料で。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ご用心! Echoが勝手に会話を録音して知人に送信した――Amazonから説明あり

オレゴン州ポートランドの一家がKIROニュースで語ったところによれば、一家のAmazon Echoがプライベートな会話を録音し、登録されていた連絡相手に勝手に送信していたという。 Amazonでは「きわめてまれなケース」だとした(Amazonからのさらに詳しい説明を下にエンベッドしてある)。

ポートランド在住の女性、Danielleは夫の会社の社員から「Alexaのプラグを今すぐ抜いた方がいい。ハックされているかもしれない」という電話を受けた。電話してきた社員はAlexaから夫妻が木のフローリングについて会話している録音を受け取ったという。夫妻は事実そういう会話をしていた。

女性はなんとかAmazonの担当者を捕まえることに成功し、問題を報告した。Amazonのエンジニアが問題のAlexaのログをチェックすると報告のとおりの事態が起きていたと判明した。Amazonは声明を発表し、「問題を精査した結果、きわめてまれなケースだと結論した。われわれは将来同様の事態が再発することを防ぐために対策を準備している」と述べた。

いったい何が起きたのか? 私の推測ではEchoデバイスの音声認識システムが何かを聞き違え、会話を録音するよう命じられたと解釈したのだろう。さらに続けて録音したノートないしメッセージをある宛先に向けて送信するよう命じられたという聞き違いが起きたに違いない。しかもこうした一連の動作をユーザーに報告しなかったことになる。

この家庭には複数のAlexaデバイスがあったという。そこでAlaxaは間違ったデバイスで命令の確認を試みたかもしれない。Alexaは「私はスティーブにメッセージを送りました」とリビングのEchoデバイスに発声させたが、スティーブはそのときキッチンに移動していた。…なにかそんなことが起きていたかもしれない。

もちろんAlexaが勝手に会話の録音を知人に送信するなどとは誰も予期していなかったはずだが、EchoAlexaは電源が入っているかぎりいつも聞き耳をたてており、会話を録音してデータをインターネットにアップし続けていることが確認されたのは重要なポイントだろう。Alexaはますます賢くなっている。つまり「会話を録音して知人に送る」程度ではすまない被害をもたらす可能性があるということだ。

アップデート:私はAmazonに何が起きたのかもっと詳細な情報を明かすよう要請した。するとこの稿を公開した後、Amazonは以下のような説明を行った。内容はおおむね私の推測に近かった。

バックグラウンドにAlexaに似た発声があってEchoが起動されたものと思われる。Echoは会話の続きをメッセージ送信の命令と解釈した。Alexaは十分な音量で「誰に?」と尋ねた。その後の背景の会話の一部がAlexaに登録された連絡相手の名前と解釈され、Alexaは「[人名]ですね?」と確認の発声をしたが、それに続く背景の会話を「はい」の意味に取った。ミスがこのように連続することはきわめてまれなケースと考えられるが、われわわれはこうしたミスが再発する可能性をさらに下げるための方策を検討中だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Amazon Alexaがさらに賢くなって会議の日程を調整してくれる

スマートアシスタントがどんどん賢くなっていろいろな機能が追加されている。しかし人間のアシスタントだったら難なくこなせるような仕事をデジタル化するのはかなり難しい場合がある。

そういう中でAmazon Alexaとカレンダーとの連携がさらに便利になった。Alexaに導入されたのは日程を調整するために他の人と共有しているカレンダーを操作する機能だ。

従来から会議などの日程調整のために他の人とカレンダーを共有することが可能だった。新機能ではAlexaは両者に好都合な時間帯を音声コマンドで見つけてくれる。「Alexa、[名前]とミーティングの時間をスケジュールして」(Alexa, schedule a meeting with [name])と呼びかけるだけでよい。スマートアシスタントがユーザー自身と相手のカレンダーを調べて両者ともに空いている時間帯を2つ見つけてくれる。

基本的な制限として、アポの時間が変更になってもAlexaからキャンセルして新しいスケジュールを設定することはできない。ただし既存のアポの日時を動かすことはできる。これは当初からAlexaに実装されていてもいい機能だったと思うが、遅れても来ないよりましだ。これらの機能は当面アメリカのユーザー向けで今日から利用できる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

これからはラップトップを買うとAlexaがプレインストールされている

それはまさしく、時間の問題だった。自社のスマートアシスタントをありとあらゆるハードウェアに載せるというAmazonの妄執は今や、AcerのSpin 3と5に始まるWindows 10ラップトップも飲み込もうとしている。Alexaをサポートする両機種は、すでに店頭に並んでいる。

Acerはこのアシスタントを、全面的に導入するつもりのようだ。Alexaは同社のほかの機種にも載るらしく、数週間後にはゲーム用ラップトップNitro 5 Spinとそのオールインワンたちにやってくる。既存の機種に対しては、今週後半以降に始まるソフトウェアのアップデートが、Alexa導入の機会となる。

Alexa担当VP Steve Rabichinはプレスリリースで、Acerと協働できて嬉しい、と言っている。もちろんだろう。PCは、AmazonにとってもAlexaの次の攻略対象だったはずだ。PCはどの家庭にもあるし、Amazonにとってスマートホーム進出の足がかりになる。そしてモバイルは、サードパーティとのパートナーシップにより、じわりじわりと行くのだろう。

しかしPC上ではもちろん、MicrosoftのCortanともろに激突する。M社は、Windows 10国におけるCortanaの強力な地位を奪われたくない。AppleはSiriをMacOSに持ち込んだし、GoogleはPixelbookなどの上で支配権を強めようとしている。

しかしAlexa on Windows 10の基本機能は、Echoスピーカーとあまり変わらず、天気予報やスマートホームのコントロールが主になるもようだ。でもAlexaがPC上で本当に地歩を固めるためには、PCならではのユニークな機能を必要とするだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft、AIでボットとの会話をさらに自然に――Semantic Machinesを買収

今日(米国時間5/21)、Microsoftはバークレーを本拠とするスタートアップ、Semantic Machinesを買収したと発表した。現在のチャットボットはいかにもボットと分かる話し方をするが、Semantic Machinesは会話合成で最大の難題である「自然な話し方」をAIテクノロジーを利用して実現しようとしている。

Microsoftのブログで、AIと研究部門の最高テクノロジー責任者、David Kuは「MicrosoftはSemantic Machinesの買収でバークレーに優秀なAI会話のセンターを確保した。これにより各種のプロダクトの言語インターフェイスが大きく進歩することになる」と書いている。

われわれのCrunchbaseのエントリーによれば、Semantic Machinesは2014年に創立され、これまでにGeneral Catalyst、Bain Capital Ventures他から2090万ドルのベンチャー資金を調達している。

2016年にTechCrunch記事で同社の共同ファウンダー、チーフ・サイエンティストのDan Kleinは「現在の会話テクノロジーは大部分が個別分析的だ。しかし会話システムはコンテキストの認識ができなければならない。つまり単独では意味をなさないセンテンスであっても前後の文脈から正しく解釈できる必要がある」」と語っている。Semantic Machinesは記憶に重点を置いており、AIテクノロジーにより質問を正しく解釈したり答えたりできるだけでなく、人間の会話にさらに近い自然さを得られるとしている。この自然さはSiri、Googleアシスタント、Alexa、それにMicrosoft自身のCortanaなどのスマートアシスタントが獲得のために苦闘している目標だ。

Semantic Machinesはプロダクトを一般向けに販売するのではなく、エンタープライズにライセンスする道を選んだ。このためSemantic Machinesのテクノロジーは、Microsoftの各種のAI会話プロダクトに適合する。これにはMicrosoft Cognitive Services(ユーザー100万)、Azure Bot Service(ユーザー30万)の他にCortanaや中国語ボットのXiaolceでも利用できる。

画像: Natali_Mis / Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Alexaのスキルのデベロッパーは8つの声を使い分けられるようになる(当面アメリカ英語のみ)

これからは、デベロッパーが作るAlexaの音声アプリは、Alexaの声でなくてもよい。Amazonは今日(米国時間5/16)からデベロッパーに、テキスト→音声変換サービスAmazon Pollyで使われている声の中から8つを無料で提供する。ただし当面はアメリカ英語だけで、Amazon PollyのWebサイトによると、女声5名、男声3名だ。

Amazon Pollyが最初に紹介されたのは2016年11月のAmazon re:Inventデベロッパーイベントで、その後着実に能力を高めている。このテキスト音声変換サービスは今では、ささやき声やスピーチマーク、音色の変化、ダイナミックレンジの圧縮、などの機能を提供しており、これらにより声がより自然に聞こえる。

今回Alexaデベロッパーに提供されるのはアメリカ英語だけだが、このスピーチエンジンは今では20あまりの言語をサポートしている:

Australian English Nicole Russell
Brazilian Portuguese Vitória Ricardo
Canadian French Chantal  
Danish Naja Mads
Dutch Lotte Ruben
French Céline Mathieu
German Vicki Hans
  Marlene  
Icelandic Dóra Karl
Indian English

Raveena

Aditi

 
Italian Carla Giorgio
Japanese Mizuki Takumi
Korean Seoyeon  
Norwegian Liv  
Polish Ewa Jacek
  Maja Jan
Portuguese – Iberic Inês Cristiano
Romanian Carmen  
Russian Tatyana Maxim
Spanish – Castilian Conchita Enrique
Swedish Astrid  
Turkish Filiz  
UK English Amy Brian
  Emma  
US English Joanna Matthew
  Salli Justin
  Kendra Joey
  Kimberly  
  Ivy  
US Spanish Penélope Miguel
Welsh Gwyneth  
Welsh English   Geraint

 

でも、複数の声が使えると、ゲームやお話などではAlexaがもっと楽しくなる。ほかにも、いろいろ、奇抜な使い方があるだろう。

今、自分が作るスキルで複数の声を使ってるデベロッパーは、mp3のファイルをアップロードするなど、面倒なことをいろいろしなければならない。

Amazon Pollyを使うなら、デベロッパーはStructured Speech Markup Language(SSML)という言語を使い、その“voice name”タグで声を指定する。指定するだけだから、自分でmp3を録音することに比べると、超楽である。

Amazonはこれまでも、Pollyの用途を広げようと努力してきた。最近ではWordPress用プラグインを提供し、テキストによるブログを簡単にポッドキャストに変身できるようにした。

もちろん今回のAlexaのスキルAPIへの提供も、その努力の一環だ。ライバルのGoogle Assistantとの競合、というねらいもある。

(Googleは先週のデベロッパーカンファレンスで、Wavenetが生成する6つの声を発表したが、その中には歌手のJohn Legendの声もある。その展開は今年後半からだが、たぶんAssistantのデベロッパーにもその声の利用を売り込む気だろう。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Alexa、Siri、Googleアシスタントは音楽でだませる――UCB、浙江大学等の研究者が超音波ハッキングを発表

Alexa、Siri、Googleアシスタントなどのポピュラーな音声認識アプリを超音波を使ってハッキングする方法がUCB(カリフォルニア大学バークレー校)の研究者によって発表された。超音波のコマンドを楽曲に紛れ込ませることにより、ユーザーに気づかれることなくアシスタントに特定の動作をさせることができるという。

New York Timesの報道によれば、これより前に発見されていたスマート・アシスタントを騙す方法を発展させたものだ。

昨年、プリンストン大学と中国の浙江大学の研究者は音声認識デバイスは人間には聞こえない超音波によって起動できることをデモした。 このハッキングでは最初にスマートフォンをミュートするのでユーザーはスマート・アシスタント側の返事を聞くことができない。

浙江大学の研究者によってDolphinAttackと名付けられたこの攻撃はスマートフォンに悪意あるサイトを訪問するよう命じる。このハッキングはスマートフォンの電話、カメラ、テキスト・メッセージなどを操作できる。ただし超音波の発信源が攻撃対象のデバイスに近くにある必要があるのがDolphinAttackの限界だ。しかし専門家は強力な超音波発信源が用いられる危険性を警告した。

<pこの警告は4月にイリノイ大学アーバナ・シャンペン校の研究者が7.5メートル離れたところから超音波攻撃を成功させたことで現実のものとなった。超音波は建物の壁を透過することはできなかったが、建物の外から開いている窓を通してデバイスを乗っ取ることに成功した。

今回のバークレー校の研究は悪意ある超音波コマンドを楽曲に紛れ込ませてデバイスを乗っ取るというものだ。 この攻撃では楽曲にある種のデジタルノイズが混じるが人間の耳には意味ある音声としては聞こえない。

このハッキングはまだ初期段階だが、音声アシスタントのセキュリティー全般に関してはまだほとんど研究がされていない。音声アシスタントの能力が拡大し、ユーザーがメールやテキストの送信だけでなく、ショッピングやバンキングにもアシスタントを利用するようになってきただけに、こうした攻撃の可能性は懸念を呼び起こす。

最初に考えられる防止策は、デジタル・アシスタントのメーカーがセキュリティー保持にもっと力を入れ、音声認証の精度を高めると同時に音声の本人性に疑念があるときはアシスタントの音声機能をロックダウンすることだろう。.Amazon Alexa、Googleアシスタントは両方とも音声パターンによって個人情報を特定のユーザーのみ利用できるようロックするオプションがある。AppleのiOSの場合、秘密度の高い情報の大部分はアクセス前にデバイスをアンロックしなければならない。

いちおうそうした対抗手段はあるものの、このハッキングがさらに進化すると非常に怖いことになる。メーカー側のすばやい対処とその情報の公開が強く望まれる。Google I/Oデベロッパー・カンファレンスでデモされたDuplexソフトウェアを見ても音声認識アシスタントの能力拡大に力を入れていることが見てとれる。今回Googleが発表したカメラ付きスマート・ディスプレイも音声で操作できるのでやはりこのハッキングに対象となるわけだ。潜在的攻撃対象は急速に拡大しつつある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

子供たちに「言葉遣い」も教えるGoogleアシスタント

Google Homeへの「言葉遣い」を気にする親も出てきているようだ。そんな中、GoogleはI/Oカンファレンスにて、Googleアシスタントに、Pretty Pleaseなる機能を追加するとアナウンスした。この機能は、子供たちに「優しい言葉遣い」を促すものだ。「優しい言葉遣い」をすれば、Googleアシスタントも丁寧に応対する仕組みになっている。

たとえば、Googleアシスタントへのオーダーに「Please」をつければ、オーダーへの応答を丁寧に返してくれるようになるのだ。

I/Oでは、ごく短いデモが公開された。それを見ると、オーダーに「Please」をつけると、アシスタントの側も「ご丁寧にありがとう(thanks for asking so nicely)」とか、「とても丁寧な方ですね(You’re very polite)」などと返事をするようになっている。

こうした機能は、小さな子供をもつ両親たちの懸念がきっかけに導入されることになったものだ。スマートスピーカーに対して、横柄な態度をとり、そうした態度を実生活でも引きずってしまう子供がいるという声が出てきているのだ。

Amazonも、そうした声に応えてMagic Wordなる機能を加えているところだ。

Googleによれば、Pretty Pleaseの機能は今年後半に実装していく予定であるとのことだ。

原文へ

(翻訳:Maeda, H

Alexaのスキルにスキル内購入を書ける、デベロッパーに収入の道ひらける

【抄訳】
Amazonが今日(米国時間5/3)、Alexaのスキルを作っているデベロッパーが、そのスキルの中にスキル内購入を実装できるようにした。またそのために、スキルのためのAmazon Pay、Amazon Pay for Skillsを立ち上げた。これからはデベロッパーが、AmazonのEchoスピーカーのようなAlexa対応デバイスの音声アプリケーションから、収入を得ることができる。たとえばそれがゲームなら新しい武器を売ることができるし、無料の音声アプリの中に有料コンテンツのお買い上げお誘いを置くことができる。

この機能は2017年11月に発表されたが、これまではJeopardy!など、一部のアプリやゲームのデベロッパーだけが利用できていた。

音声アプリケーション(Amazon語で“スキル”)にスキル内購入が加わったら、お客はそこで売られているものを購入し、音声で支払うことができる。金額などの決済情報は、すでにそのユーザーのAmazonアカウントに結びついている。

有料にするコンテンツやその価格はデベロッパーが決められるが、購入の実際の処理はAmazonが扱う。またセルフサービスツールを使ってデベロッパーはスキル内購入を管理し、その売り方を最適化できる。ただしAmazonは、Prime会員向けには何らかの特典(値引き、特別コンテンツなど)を提供するよう、デベロッパーに要請している。なお売上に対するAmazonとデベロッパーの取り分は、30:70である。

【中略】

デベロッパーが売上を得る方法は、スキル内購入だけではない。

たとえばブランドやお店などは、イベントのチケットや花の配達など、さまざまな商品やサービスを、Amazon Pay for Alexa Skillsを利用して売ることができる。Amazon Payは既存のCRMと注文管理機能を統合しているので、お店は物やサービスを売るプロセスの中で販売管理ができる。その機能も、今日から一般公開される。

また、スキル内で何かを売るのではなく、人気の高いデベロッパーへの直接の報酬提供方式としてDeveloper Rewards(デベロッパー報酬)というプログラムもある。これは、スキルのデベロッパーのエコシステムを育てることが目的だ。

スキルのエコシステムと言えば、今日の発表ではAlexaのスキルの総数は40000、12月の25000から大きく増えている。

しかしこのエコシステムはロングテールがとても長くて、ユーザーのいない、またはほとんどいないスキルも多い。音声アプリの開発を体験してみるためにだけ作った、というものもある。音声デバイスの使われ方に関する調査によると、音声アシスタントでいちばん多く使われているのは、ニュースと情報、スマートホームのコントロール、タイマーのセット、リマインダーなどだ。多くは、音声アプリでなくてもよいものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Wear OS(元Android Wear)のGoogle Assistant機能がI/Oを前にして充実

今年のI/O(Googleの開発者大会)はまだ一週間先だが、すでにGoogleは、ちょろちょろとニュースを小出しにしている。それは来週のビッグイベントへの呼び水か、それとも、当日のわずか二つのキーノートには盛りきれないものが多いからか。いずれにしても今日(米国時間5/3)は、Android OSのウェアラブル用バージョンWear OS(旧名Android Wear)のアップデートが発表された。

来週Wear OSがどんな扱いをされるのか、それまはだ未知数だが、今回はそのAssistantアプリが本格的に更新された。スマートウォッチとアシスタントアプリは、まるで当然のような組み合わせだ。SiriはApple Watchの人気を押し上げたし、それに音声アシスタントならウェアラブルの小さな画面が気にならない。

Googleは昨年、独自のAssistantをAndroid Wearに導入し、その後何度も重要なアップデートをしている。中でもとくに良いのは、状況に応じて追加質問をしてくれるスマートサジェッションだ。たとえば天気予報を尋ねると、そのほかの日も知りたいか、と言ってくる。

Assistantの手首用バージョンでは、音声による答をインターネットに接続されたヘッドフォンでも聞ける。来週展開されるこのアップデートでは、ウェアラブル上でActions*が使えるようになり、サードパーティ製の機能を楽しめる。たとえば自分の手首から、LGのスマートオーブンを余熱できたりするだろう。〔*: Actions, Amazon AlexaのスキルやApple Siriのコマンドに相当。〕

ささやかなアップデートだが、GoogleがI/Oの前からWear OSを気にかけている様子は微笑(ほほえ)ましい。ウェアラブルへの関心はApple以外では鎮静しているから、このオペレーティングシステムも伸び悩んでいる。来週Googleが、この分野でも斬新な何かを見せてくれることを、期待したい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleはGoogle Assistantのアプリケーション開発振興のためスタートアップを育てる投資育成事業を開始

Google Assistantのエコシステムをどうしても育てたいGoogleは、ついにそのために自腹を切ることになった。今日(米国時間5/2)の同社の発表によると、Assistantのアプリケーションを作る初期段階のスタートアップに、資金やそのほかのリソースを提供していく新しい事業をこれから立ち上げるようだ。

新製品に関してそのエコシステムを育てたい企業が、こんな事業を発表することはよくある。しかしGoogle Assistantの場合はすでにかなりの数のサービスが開発されているにもかかわらず、同社は“このクリエティビティをもっと鼓舞するために”、新しい事業を立ち上げるのだ、という。

Googleの、検索とGoogle Assistant担当VP Nick Foxも、こう言う: “Google Assistantでは、デベロッパーやデバイスのメーカーやコンテンツでのパートナーたちが新しいユーザー体験を作っていけるための、オープンなエコシステムの育成に力点を置きたい。Google Assistantに関してはすでにデベロッパーたちの多くのクリエティビティが見受けられるが、それをさらに促進するために、初期段階のスタートアップのための新たな投資事業を始める”。

投資だけでなくGoogleは、彼らスタートアップにメンターシップ(個人指導)や、技術者、プロダクトマネージャー、デザイナーなどからのアドバイスを提供する。そしてこの事業の対象になったスタートアップは新しい機能やツールにいち早くアクセスでき、またGoogle Cloud Platformとプロモーションの支援にもアクセスできる。これはまさに、アクセラレーターないしインキュベーターと呼びたいような事業だが、Googleはそう呼んでいない。

Foxによると、投資額に上限はない。“ふさわしいと思われる額を投資して、デジタルアシスタントのアプリケーション(ハードウェアもありうる)開発という、この新しい分野でスタートアップが成功できるように努めていく。しかも資金を提供するだけでなく、これらのスタートアップと積極的にパートナーして、彼らのプロダクトが市場で成功するよう、わが社の強みも生かしていく”。

この事業の対象となる最初のスタートアップGoMomentは、ホテルのためのコンシエルジュサービス、そしてEdwinは英語の個人教授、BotSocietyPulse Labsはデベロッパーツールだ。

これらのスタートアップは、Googleのねらいをよく表しているようだ。Foxによると、Googleが求めているスタートアップは、“旅行やゲームなど、Assistantをおもしろく活用できそうな特定業種をエンドユーザーとする”デベロッパーたちだ。Googleは一部のパートナーシップについてはその関わりをより深めると同時に、一方多くの場合は単純に、Assistantのような技術に関心のあるスタートアップを求めているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IoT会話と、文脈から意を汲み取るということ

modern cityscape and business person, IoT(Internet of Things), ICT(Information Communication Technology), abstract image visual

(日本語版注:本稿を執筆したJim Hunterは、Greenwave Systemsのチーフサイエンティスト兼エヴァンゲリストだ)

数年前、テクノロジーとコミュニケーションをとる方法について書いた。当時、身の回りにあったアプリや電話、車、半自動のコーヒーメーカーといった便利なツールを使うときに体験するちょっとした不都合が、何かしら革新的なものの登場でなくなるだろうというのは明らかだった。そうした接続機器を使うのに、たくさんタイプやスワイプしたり、アプリで管理したりする必要があったからだ。

その革新的なものというのは、ある程度、現実のものとなったといえる。

音声でのやり取りがそれだ。いまスマホの音声アシスタント、家や車と接続するスマートスピーカーを使うとき、音声操作が大きな役割を果たしている。この音声操作技術の進歩は現在進行形だ。それはすごいことではある。しかし、やり取りは会話と呼べるものではない。

というのも、この音声操作のほとんどは、友達や同僚との実のある会話のようなものではなく、むしろ4歳の子に「言われた通りにしなさい」と命令するのに近いからだ。

ツールを使うにあたっての不都合を最小限に抑え、そして音声でテクノロジーを最大限利用できるようにするためには何かが必要だ。それは、「文脈から意を汲み取る」ということだと私は考えている。

文脈から意を汲み取るというのは、会話の中で何を意図しているのかを考えることになる。誰が、何を、どこで、いつ、といったシンプルな質問に答えるのはそう難しいことではないし、IoTは私たちの暮らしに関するあらゆる情報を取り入れるようになっている。私は以前、アメリカの心理学者マズローの欲求段階説のチャートに倣って、IoTデバイスに必要とされることをピラミッド式に描いたことがある。テクノロジーが分析手法を用い、ロジックや予測することを学習し、そしてより複雑なことをできるようになるというものだ。AmazonのAlexa、AppleのHomePodなどで使われている音声操作や自然言語処理の技術は、まさしくIoTデバイスに必要とされることの実現例だ。リアルタイムに情報を収集し、複雑な機能でもって処理するという、予知解析や機械学習を取り込んでいる。

それでもまだ、AlexaやHomePodとのやり取りは会話とは呼べない。役には立っているが、コミュニケーションとしてはまだ初期段階にあり、成長の余地はある。

というのも「どのように」「なぜ」といった掘り下げた質問が、会話の中で重要な意味を持つからだ。真の双方向会話を実現するには、そうした質問に対する答えを複数用意するだけでなく、学習し記憶しなければならない。Googleはそうした手法をいくつかのオンライン検索に取り込んでいる。しかし、自然な会話を実現するためにはまだたくさんの課題がある。

文脈から意を汲む能力の開発、それが接続機器の最終目標

人の会話の多くは要約されている。会話の量がどれだけあろうが、やりとりに分解することができる。名詞や固有名詞を代名詞に置き換えるのがいい例だ。「Daveの休暇について尋ねたところ、Janeは“私が彼を空港に送って行って見送る”と言った」。こうした文章は序の口で、簡略してはダメ、となったら会話はすごく不自然なものになる。毎回、きちんとした名称を使うとなったらやりづらく、スムーズではない。

会話というのをシンプルに定義づけると、それは感情やアイデアのカジュアルなやりとりということになる。それは人々がコミュニケーションをとるために自然に行う。くだけた会話というのは、文脈的な要素が大きく、また凝縮していて包括的なものだ。物語を語るような要素も含まれる。会話はあちこちに飛ぶし、時間軸も動く。新しいことについて情報交換するとき、過去に共有したことをベースに話すこともある。推測を伴うこともあれば、厳密に会話に執着しなくてもいいこともある。こうした会話手法は、IoTに仕込まれたものとは全く正反対のものだ。機械によるコミュニケーションというのは、コードに基づいている。それは二分法であり、供給源に制約があり、杓子定規だ。情報はあるが、文脈というものに乏しい。あまりにもカチッとし過ぎていて、物語を語るにはほど遠い。

IoTを活用するときに私たちが感じる違和感は、こうしたアプローチの違いによるものだ。デバイスを操作するときに新しいアプリをダウンロードし、起動の言葉を設定する。そして別のデバイスのために違う言葉を設定し、アップデートを繰り返す。そんな調子だから、買って2週間後にはデバイスは引き出しへとお蔵入り、ということになるのだ。人が望むようなやりとりではないのだ。

不気味さプライバシー問題はさて置き、私たちの身の回りの情報を絶えず収集するデバイスに関していうと、人間が好む会話ができるよう文脈を読む技術を獲得しつつある。目指すところは、人がいつでも違和感なくデバイスを使えるようになることだ。

今後取り組むべき課題は、マシーンに人間のような会話能力を持たせることだろう。会話が自然なものとなるよう、文脈や推測、そして形式ばらないよう吹き込まなければならない。こうした取り組みをすでに始めているのが国防高等研究計画局であり、AmazonGoogleでもある。実際のところ、テクノロジーを開発するにあたって、もっとも注力されるのはインターフェースの使いにくさをいかに少なくするかという点だ。そうした意味でいうと、会話の質を高めるというのは、使いやすさに直結する。

IoT、拡張現実、アシスタント知能(AIという言葉を私はAssistive Intelligence ととらえている)、さらにはモバイル機器ディスプレイでの小型化や拡張、電気まわりの改善といったものも、全ては質の改善を追求した結果といえる。それらテクノロジーにより、文脈を読み取る、究極的には自然な会話をする機能を開発することができると考えられる。これを活用すれば私たちの暮らしは会話にあふれたものとなる。そして、ひとたびテクノロジーと有意義な会話を経験すれば、夢中になること間違いなしだろう。

[原文へ]

(翻訳:Mizoguchi)

Amazon Alexaの使い勝手、大きく改善へ――過去の会話を記憶、必要なスキルを自動的に起動、会話も自然に

Alexaは近く過去に質問されたことを覚えているようになる。会話も自然になり、コマンドも常にAlexa!と始める必要はなくなるという。また必要とされるスキルを判断し、明示的に命令されなくても自動的にそのスキルを発見し起動する。Amazonではこれを手はじめに、年内に繰り返しAlexaの機能強化を行っていくという。Amazonのスマート・アシスタントはいっそうスマートになり、それぞれのユーザーのニーズにフィットし、さらに役立つようになる。

フランスのリヨンで開催されているWorld Wide Web Conferenceで今朝(米国時間4/26)のキーノートで 、Alexa Brainグループの責任者、Ruhi Sarikayaがこのニュースを発表した

Sarikayaによれば、Alexa Brainグループの目的はAlexaがユーザーとの会話のコンテキストを認識し、記憶できるようするところにある。またすでに4万種類にも上るサードパーティー製のスキルから目的に応じて適切なものを発見し使用できるようにする。こうした改善によりユーザーはAlexaをさらに容易かつ効果的に利用することができるようになる。

当面アメリカのユーザー向けに公開される予定の記憶力の改良ではAlexaは質問された内容をすべて記憶し、必要に応じて後で利用できるようになる。

たとえば「Alexa、ショーンの誕生日は6月20日だということを覚えて」 と命じるとAlexaは「オーケー、ショーンの誕生日は6月20日です」などと答えるはずだ。ユーザーは重要な情報を覚えるという仕事をAlexaに肩代わりさせることができる。

物事を記憶できることはGoogle Assistantでもいちばん役立つ能力だ。そこでAlexaとしてはもどうしてもこの面で追いつく必要があった。

また近くAlexaはいっそう自然に会話できるようになる。Alexaが会話のコンテキストを記憶するコンテキスト・キャリーオーバーと呼ぶ能力を備えると、質問ないしコマンドに続くフォローアップのコマンド、質問をいちいちAlexa!という呼びかけで始めなくてもよくなる。

たとば、「Alexa、シアトルの天気を教えて」と命じてAlexaが答えた直後に「今週の週末は?」と尋ねるとAlexaはそれを理解する。

さらに質問のトピックを変えることもできる。「Alexa、ポートランドの天気を教えて」と命じた後、「そこまでどのくらい時間がかかる?」と尋ねることができる。

Sarikayaによれば、こうした能力は自然言語処理に高度な深層学習モデルを適用したもので、会話内容とそのコンテキストを「ドメインを超えて」維持でする。例のように「天気」と「交通」という異なるドメインの間でもユーザーの意図を一貫して把握できるわけだ。この能力を利用するためにはユーザーはフォローアップ・モードを有効にする必要がある。これによりデバイスは「Alexa!」という起動キーワードなしでも反応できるようになる。

この自然な会話能力がAlexaにやってくるのはアメリカ、イギリス、ドイツが最初となる。ただし「近く」とだけで正確な期日は明らかにされていない。

Alexaに近く導入されるアップデートにはスキルの自動起動がある。Alexaの能力を拡大するために多数のサードパーティー製の音声アプリが開発されている。クレジットカードのアカウント情報を参照する、ラジオでニュースを聞く、Uberに配車を依頼する、ゲームをプレイする等々だ。しかしAlexa Skillsストアには登録されたアプリの数が非常に多くなっているためユーザーが必要なスキルを発見するのが難しくなっている。

これに対応して、向こう数週間以内に、アメリカのユーザーは「Alexa、 [スキル名]をオープン」のように明示的に名称を指定しなくても必要なスキルを起動できるようになる。

AmazonではAlexaのスキルを容易に使用できるようにしようと年来努力を続けてきた。2016年にEchoから音声でAlexaのスキルを起動できるようにアップデートされた。昨年はある種の質問に限定されるものの、Alexaは対応するスキルを推薦できるようになった。今回リリースが予定されている新機能ではAlexaが自ら適切なスキルを探し出し、起動することができる。現在ベータ版がテストされている。

SarikayaはプレゼンでAlexaにシャツについた油のしみ抜き方法を訪ねた例を挙げている。

これに対してAlexaは「Tideという染み抜き製品があります」と答えた。これはProcter & Gambleが開発したスキルによるもので200種類以上の染みに対してそれぞれ対処方法を教える。

これまではユーザーが自分でTideのしみ抜きスキルを探して出してローンチするということは考えにくかった。しかしAlexaが「しみ抜き」というキーワードを理解してTideを発見、起動してくれることになれば利用の可能性ははるかにアップするだろう。

この能力はAmazonに新たな広告モデルを提供する可能性がある。 Googleにキーノート入札による広告システムのようにAlexaのキーワードを競争入札方式で販売することになるかもしれない。もしAlexaに対する質問に対するスキルの答えが特定のブランドやプロダクトを推薦する場合、有力な広告手段となる(もちろんフォローアップ・モードが有効な場合、「他には?」という質問で別の製品が推薦されるかもしれない)。

この新機能についてもローンチ期日は「近々」としか分からない。しかしSarikayaによれば、これらの新機能もAlaxaの強化の第一歩だという。【略】

「スキル発見、コンテキスト・キャリーオーバー、質問の記憶など、今回予定されている3つのアップデートはAmazonの技術陣によるAlexa改良のごく一部だ。われわれはAlexaをフリクションフリーで使えるようよう研究を重ねている。これは人間とコンピューターのインターフェイスを根本的に変革する何年もかかる道のりの一環だ。Amazonはまだ最初の一歩を踏み出したに過ぎない」とSarikayaは述べた。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AlexaがデジタルアートフレームMeural Canvasを統合、声で次の絵を表示できる

Alexaは、正しい質問を正しく訊けば、何でもやってくれる。そして今日(米国時間4/25)覚えた新しスキルは、デジタルアートを鑑賞するためのフレーム、Meural Canvasの操作だ。

この595ドルのデバイスを使って、新人アーチストたちの作品を閲覧できるだけでなく、一般公開されている古典の名作も鑑賞できる。

この製品のクールな特長のひとつが、ジェスチャーでコントロールできることだ。フレームの前で手を振れば、次の作品が現れる。お客が来ているときや、デバイスが身近な場所に置いてあれば、こんな体感的なコントロールはとても良い。逆に、手の届かない壁にかかっているなら、Meuralが提供しているモバイルやデスクトップのアプリケーションが便利だ。

今回のアップデートで、スマートホームのファンにとってはさらに便利になる。それに、スマートペインティングを買ってる人なら、家中あちこちに音声アシスタントのハブがあるだろう。今それはAlexaだけで、Google AssistantやHomeKitのユーザーは待たなければならないけど、美術作品のスワイプをEchoに命じるだけでできるのだ。

デジタルアートの会員制サービスでは、Meuralはかなり名が知れている。最初は、デジタルフォトフレームの高級機だったけど、やがて同社には、デジタルアートの月額会費制、というアイデアがひらめいた。けっこう難度の高いサービスなので、競合他社は多くない。たとえばElectric Objectsは、昨年そのハードウェア事業を閉鎖して、ソフトウェアやコンテンツの資産をGiphyに買収された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa