スマートテレビをもっとスマートにする高校生のアイデアで生まれたDisruptelが1.2億円調達

セントルイスの音声アシスタント企業であるDisruptelが、110万ドル(約1億2000万円)のシード資金を調達した。

投資家たちの顔ぶれはなかなか印象的で、全員、すなわちそれは、視聴者の目の前のテレビに映るものに関する詳しい情報を、音声アシスタントで提供するという同スタートアップの狙いに共感しているようだ。投資ラウンドをリードしたのはPJCとProgress Venturesで、他にDataXuの共同創業者で元CEOのMike Baker(マイク・ベイカー)氏、Siriの共同創業者Adam Cheyer(アダム・チェイヤー)氏、Skyの役員であるAndrew Olson(アンドリュー・オルソン)氏、そしてDataXuの共同創業者Bill Simmons(ビル・シモンズ)氏らが参加した。

DisruptelのCEOであるAlex Quinn(アレックス・クイン)氏によると、彼がこのアイデアを閃いたのは高校生のときだという。最初はテレビのジェスチャーコントロールだったが、やがてスマートテレビの方が今後の市場が大きいと考えるようになった。「見ている画面に何が映っているのかをわからないなんてスマートじゃない」と彼は思ったという。

そこでクイン氏は「何が映っていても、画面上で起きているあらゆることの文脈を理解している技術」を作った。たとえば「茶色のシャツを着ている人は誰?」と尋ねると答えてくれる。

関連記事:Samsung、Siriの製作者が開発する次世代型AIシステム「Viv」を買収

クイン氏の説明を聞くと、AmazonのX-Rayを思い出す。それはAmazonプライムで映画やテレビを見ているときに、画面上の俳優やその他の情報を教えてくれる。しかし彼によると、AmazonやGoogleのソリューションは静的データで、事前にビデオに登録されているという。一方、Disruptelは「すべてがリアルタイムで、理論的に対象はどのようなコンテンツでもよい」とのことだ。

Disruptelの現主力製品はContextと呼ばれ、スマートテレビとそのリモコンで使える。クイン氏によると今後、スマートテレビのメーカーやストリーミングサービスと提携して、2021年後半にはそれらのユーザーでも使えるようにしたいという。

また、同社がGoogle Chromeの拡張機能として作ったSmart Screenは、すでに利用できる。私も「The Flash(フラッシュ)」のいくつかのシーンで試してみたが、画面上の俳優の名前を知ることができる。クイン氏によると、同社はこの拡張機能を使ってプロダクトをテストし、ユーザーがどのような使い方をしているのか、データを収集したいという。

アドテック企業のDataXuを2019年にRokuに売ったMike Baker(マイク・ベイカー)氏によると、彼はこのプロダクトのデモを見て即座に投資を決めた。「強力なプロダクトであり、ユーザー体験はとてもスムーズだ」と彼はいう。

クイン氏は、Disruptelはスマートテレビの広告を改善できると提案する。彼によると、現在の広告はほとんど使い物にならないが、Huluなら「押しつけがましくない、すき間広告が可能」だという。

高校生がこれだけの技術をどのように開発したのか?現在、クイン氏は21歳だが「いっぱい勉強したし、今のチームは機械学習にフォーカスしており、その技術者たちも次から次と研究論文を読破している。現状は、リサーチによって到達したベストのソリューションだと思っている」という。

Disruptelも大企業がやってることを真似て、コンテンツの事前加工にフォーカスしていたら「こんな研究開発には絶対手を出さなかっただろう」とクイン氏は語る。

カテゴリー:ソフトウェア
タグ:Disruptel資金調達スマートテレビ音声アシスタント

画像クレジット:Disruptel/Disney

原文へ

(文:Anthony Ha、翻訳:Hiroshi Iwatani)

アマゾンがスーパーボウルCMで人間型アレクサとの暮らしを映像化

アマゾンがスーパーボウルCMで人間型アレクサとの暮らしを映像化

米国では国民的スポーツイベントのスーパーボウルにあわせて、大企業が凝った特別なコマーシャルを放映するのが恒例となっています。

今年のアマゾンが公開したのは、もしデジタルアシスタントのアレクサの「ボディ」がスマートスピーカー Echo ではなく人間型だったら?という妄想をショートフィルム仕立てで映像化した「Alexa’s Body」。まずは映像をどうぞ。

「アレクサ」の新しい筐体?を演じるのは、若手俳優マイケル・B・ジョーダン。映画『クリード チャンプを継ぐ男』ではかつてロッキーのライバルだったアポロの遺児アドニス・クリード役を、映画『ブラックパンサー』ではメインの強敵キルモンガー役を演じました。

Twitterのほうが若干長い90秒バージョン、YouTubeバージョンは60秒。

アマゾンがスーパーボウルCMで人間型アレクサとの暮らしを映像化

お風呂で本を音読してくれるアレクサ。

アマゾンがスーパーボウルCMで人間型アレクサとの暮らしを映像化

明かりを暗くして、と言われればおもむろに服を脱ぎランプにかけて暗くするアレクサ。瞳の周りが青く、Echoのリングライトを再現しているのが芸が細かいところ。

映画俳優型ボディは妄想としても、アマゾンが開発する Echo スマートスピーカーの発想は初代から、マイクアレイと高度な信号処理で部屋中どこにいても声を聴き取ってくれること、ユーザーがPCに向かったりスマホ画面を注視やタップする必要なく、人間に話しかけるように自然な会話で使えること。

アマゾンがスーパーボウルCMで人間型アレクサとの暮らしを映像化

実際、最上位モデルの Echo Show 10 はカメラがAI 画像処理でユーザーの姿を追い、首振り追従してどこにいても画面を正面に見せ、ビデオ通話ではカメラの中心に捉えズームまでしてくれます。

人間型はそれはそれで問題がありそうですが、部屋ごとに置かなくても追従してくれる、置き忘れたらついてきてくれるデジタルアシスタントは意外と理想の姿かもしれません。

Engadget日本版より転載)

関連記事
アマゾンが車やアプリ、ゲーム向けAlexaアシスタントを企業が独自開発するためのプロダクトを新たに提供
ケンウッドがAmazon Alexa搭載完全ワイヤレスイヤフォンを1月中旬発売、Googleアシスタント版は2月上旬
2台のNew Echoをステレオスピーカーとして運用するのがコスパに優れた選択肢
Alexaオーナーが高齢家族の様子をモニタリングできる「Care Hub」機能登場
Amazon Alexaが会話上手に、複数ユーザーとの同時会話や質問のパーソナライズを実現
アマゾンがEchoをリニューアルして球形に、Echo Show 10は画面が自動追従、Alexaも改良
2019年のスマートスピーカー出荷量は70%アップの1億4690万台で新記録
米国のスマートスピーカー利用者の約7割がAmazon Echoを使っている
Alexaは失望を表現するようになる
8インチ画面のEcho Showが約1万4000円で登場

カテゴリー:人工知能・AI
タグ:Amazon / アマゾン(企業)Amazon Alexa(製品・サービス)Amazon Echo(製品・サービス)音声アシスタント / Voice Assistant(用語)コマース

アマゾンがEchoデバイスを使った「ライブ翻訳」機能をローンチ

Amazon(アマゾン)は米国時間12月14日、Alexaの新機能Live Translation(ライブ・トランスレーション、ライブ翻訳)を発表した。2つの異なる言語で交わされる会話を翻訳するというものだ。アマゾンの音声認識技術とニューラル機械翻訳技術によって機能し英語、フランス語、スペイン語、ポルトガル(ブラジル)語、ドイツ語、イタリア語間で翻訳ができる。

ライブ翻訳を使いたいときは、Echoデバイスのオーナーが「Alexa, translate French(アレクサ、フランス語を翻訳して)」という具合に命令すると、英語とフランス語の翻訳が開始される。ビープ音がしたら、いずれかの言語で話ができるようになる。文章の間に自然な間を入れても大丈夫だとアマゾンは話している。Alexaは話された言語を自動的に認識し、互いの話を翻訳して伝える。Echo Showでは、会話を音声で聞くばかりでなく、テキストで読むこともできる。

終わらせたいときは「Alexa, stop(アレクサ、ストップ)」と命じる。

同社は、多言語翻訳機能の開発に取り組んでいることを、2018年のYahoo Finance(Yahoo Finance記事)で発表していた。

この新機能の追加により、Alexaは、すでにGoogleアシスタントで翻訳サービスが利用できるGoogleアシスタント対応機器との競争力をさらに高めることになった。Google Home機器は、2019年の初めにリアルタイムで複数言語を翻訳できる「通訳モード」を導入している。現在では、通訳モードはスマートスピーカー、スマートディスプレイ、スマートクロック、さらにはGoogleアシスタントを搭載したスマホやタブレットなど数多くのGoogleアシスタント対応機器で使用できる。しかしPixel Budsでは、導入当初、この機能はうまく働かなかった(WIRED UK記事)。

Alexaの翻訳機能がどれだけ使えるようになるかは、本日のローンチ以降のさらなる試練にかかっている。

ライブ翻訳は、Echoデバイスの言語に集中した一連のアップデートの最後の1つとなる。

これは、2019年に米国向けに導入された、たとえば英語とスペイン語、フランス語と英語、ヒンディー語と英語といった組み合わせの会話をAlexaで可能にする多言語モードに続く新機能だ。Alexaはまた、対応する50の言語の単語や語句の翻訳もできる。

さらに、ユーザー同士のコミュニケーションを円滑にするために、この機能を言語学習に利用することもできるとアマゾンでは話している。また、ホテル業界向けにデザインされたプラットフォームであるAlexa for Hospitality(アレクサ・フォー・ホスピタリティー)を通じて、ホテルの客と従業員との会話の支援も行えるという。

関連記事
Google Homeが26ヶ国語をリアルタイムで通訳してくれるようになった
米国のAlexaがスペイン語を話す、多言語モードでも

カテゴリー:人工知能・Ai
タグ:AmazonAmazon Alexa機械翻訳音声アシスタント

画像クレジット:Amazon

原文へ

(翻訳:金井哲夫)

Googleアシスタントに電話の保留待ち時間を有効活用できる新機能「Hold for Me」が加わる

Googleは、スマートフォンの最も基本的な機能の1つについて、その可能性を広げてきた。最近では見過ごされがちだが、スマートフォンの特徴の1つは電話機能だ。数年前には、着信を調べるCall Screenレストラン予約のためのDuplex、そして9月には「誰がなぜ電話をかけてきたか」を教えてくれるVerified Callsという機能(未訳記事)をローンチした。そして米国時間9月30日に「Hold for Me」(私のために待って)という機能を追加した(日本語は現在のところ非対応)。

9月30日、グーグルが新しいPixelスマートフォンを発表した同社のハードウェアイベントで、Pixelの最新のトリックが披露された。Hold for Meと呼ばれる機能は、利用者が電話を保留にしている間、回線接続を維持して相手が電話に出たときに警告してくれるという機能だ。接続先の電話が混み合っているときは延々と保留音を聞かされるハメになるが、Hold for Me機能を利用すれば保留から切り替わって電話口に人が出るまでの時間を有効活用できるわけだ。

グーグルは、同機能が既存のスパム電話を判別する技術であるCall Screen(コールスクリーン)と、Googleアシスタントが人間を相手に電話で自然に会話させる技術であるDuplex(デュプレックス)を組み合わせて実現したことを明らかにした。ちなみに後者はAIベースの技術で、電話での会話分析に焦点を当てている。

Hold for Meの短いデモをみたところ、同社はPixelデバイスの所有者が回線を保留にした後で機能を有効にする方法を示していた。通話をミュートするボタン、スピーカーフォンをオンにするボタン、およびそのほかの通話中の電話の各種コントロールボタンの上に表示される新しいボタンをタップすることで機能がオンになる。

有効化されると、Googleアシスタントが通話内容を聞いているので、画面には「電話以外のほかのことを続けられます」というメッセージと「回線を切らないでください」というアラートが表示される。

もちろんこの画面には、いつでもタップして通話に戻れるボタンも用意されている、その下には「music playing」と書かれたオンスクリーンメッセージが表示され、Googleアシスタントがまだ接続先の保留中の音楽を聞いているかどうかを示している。この画面から電話を切る赤いボタンを押して通話を終了することもできる。

電話口に人が出てくると、Pixelデバイスは通話に戻る時間になったことを利用者に知らせてくれる。

人々が失業給付のような新型コロナウイルス関連の政府援助のために何時間も電話を保留して待っている時にHold for Meオプションは非常に有用な新機能だろう。失業による財政危機の真っ只中にある人々には文字どおりの救世主かもしれない。

グーグルによると、このHold for Me機能はまずはPixel 5で利用可能になるという。そして、近日中に予定されているPixel端末向けのアップデート「Pixel feature drop」のロールアウトのタイミングで、旧世代のPixelスマートフォンに順次搭載される。

google-hardware-event

画像クレジット:Google

原文へ

(翻訳:TechCrunch Japan)

Amazon Alexaが会話上手に、複数ユーザーとの同時会話や質問のパーソナライズを実現

毎年恒例のハードウェアイベントで、Amazon(アマゾン)は米国時間9月24日、同社のAlexa(アレクサ)のパーソナル音声シスタントの新機能を発表した。これにより、Alexaはよりパーソナライズされた質問をすることができるようになり、そのデータを使用してユーザーと対話することが可能になる。

さらに、Alexaが会話に参加できるようになり、「ヘイ、アレクサ」(Hey, Alexa)と常に言う必要のないモードを搭載された。これにより複数のユーザーがAlexaと対話でき、適切なときにシステムがチャイムを鳴らしてくれるようになる。

アマゾンの副社長兼ヘッドサイエンティストのRohit Prasad(ロヒット・プラサド)氏は「質問をして応答をパーソナライズするシステムは、ディープラーニングベースのアプローチを採用しており、Alexaは顧客から学習したことに基づいて新しい概念や行動を獲得することができるようになっています。学習したものは何でもパーソナライズされ、この個人の顧客にのみ適用されます」と説明する。

例えば、温度を「お気に入りの設定」(Favorite Setting)に設定してほしいとAlexaに頼むと、Alexaはその設定が何であるかを尋ねるようになる。

さらにAlexaは、文脈に応じて話し方を変えらるようになった。これは、Alexaに自然な音声を生成する方法をよりよく理解するチームの研究が役立っている。今回示された例では、音楽を再生するように頼んだときに、Alexaが通常のやや単調な声と比較して少しだけ声に力が入っていた。

しかし、本当のブレークスルーは会話モードだろう。これを有効にするには「浅草、 私たちの会話に参加してください」(Alexa, join our conversation.)と話しかける必要がある。今回のデモで同社は、例えばピザを注文するときにAlexaがどのように動作するかを示した。演者の一人が、彼女はそれほどお腹が空いていなくて「小さめのピザが食べたい」と言った。すると、Alexaが自動的に彼女のためにその注文を変更してくれた。チームはこれを「自然な話者交替」と呼んでいる。

Amazon Hardware Event

画像クレジット:Amazon

原文へ

(翻訳:TechCrunch Japan)