日本のDeNAがEasyMile製自動運転電気バスの運行開始へ

2016-07-08-slide-easymile-11-1395x600

単なるFOMO(fear of missing out 取り残されるのが怖い)かもしれないが、最近あらゆるインターネット企業が自動車・交通ビジネスに参入を図っている。日本のDeNAも例外ではなかった。ソフトウェア・メーカーとして有名なDeNAは東京でイベントを開催し、運輸事業を展開することを発表した(Reuters記事)。これには12人乗りの自動運転電気バスが用いられ、まず千葉の幕張地域のショッピングモールで来月から営業を開始する。

DeNAの名前はTechCrunch読者にはおなじみだろう。同社がTechCrunchでもっとも注目を集めたのはモバイルで人気の同社のゲーム・キャラクターとブランドが任天堂にパートナーとして選定されたことだったかもしれない。しかしDeNAはしばらく前からオートモーディブ事業部をスタートさせており、今回フランスの自動運転電気自動車メーカー、EasyMileのバスを使って営業を開始する運びとなった。投入されるのはEZ10ロボット・シャトルと呼ばれるコミュニティー・バスで、世界各地でテスト・プロジェクトが進められている。

EasyMile EZ10は最高時速40kmで、カメラ、GPS始め各種のセンサーを搭載している。ただし制約なしに公道を走るようにはデザインされていない。EasyMileの自動車は限定された私有地構内での運行を前提としており、大量の歩行者や他の交通などが引き起こす困難を避けている。.

DeNAの今回のプロジェクトの目的は主としてフランス製自動運転車が既存システムおよび現行の各種規制の範囲内で正常に運行できることを地元規制当局と協力しつつ確認することにある。また損害保険や自動運転電気自動車を購入したユーザーのための保守契約の提供も手掛ける。

AlibabaLGと同様、DeNAも自動車関連ビジネス参入にあたってスクラッチでハードウェアを製造する道を選ばず、経験豊富なサードパーティーと提携することとした。自動車製造がきわめて複雑であり膨大な資金を要する作業であることを考えれると賢明な選択だろう。

音楽が止まったときに空いている椅子を奪い合うゲーム同様、自動車ビジネスへの参入は非常に大きな賭けだ。ただしサードパーティーとの提携であれば、初期投資は少なくてすむし、賭けに失敗したと判明したときの撤退でも大きな損害を被らずにすむ。各種要素の正しい組み合わせを早期に発見した企業は大きな利益を得られるだろう。DeNAとEasymileが賭けに勝つことになるのか注目だ。

〔日本版〕国内のメディアの記事では自動車事業におけるDeNAとDoCoMoとの提携も報道されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleがフランスの画像解析スタートアップMoodstocksを買収

DUBLIN, IRELAND - APRIL 19:  (FRANCE OUT) A general view outside the Google European headquarters, on April 19, 2016 in Dublin, Ireland.  (Photo by Vincent Isore/IP3/Getty Images)

Twitterはプラットフォームにおける写真と動画のユーザー体験を向上させるため2週間前にMagic Ponyを買収し、機会学習の精度を高めようとしている。Googleも同じ道をたどる。本日、Androidと検索大手は、Moodstocksを買収したと発表した。Moodstocksはパリに拠点を置くスタートアップで、機械学習によるスマホの画像認識技術を開発し、「画像版Shazam」と呼ばれるAPIを開発者に提供している。

MoodstocksのAPIとSDKは近いうちに使用できなくなると、同社はホームページの声明で伝える。「私たちは、Goolgeで卓説した画像認識ツールを構築することに注力します。現在Moodstocksを有料で使用しているカスタマーに対しては、サブスクリション期間満了までは使用を続けられることを保証します」。

買収の詳細は開示されていない。またMoodstocksがこれまでいくら調達したかも定かではない。Crunchbaseにはベンチャーキャピタルから調達した資金は記されていないが、 2010年私たちが始めて同社のことについて書いた時、ヨーロッパの投資家から50万ドルをシードで調達したと伝えた。ちなみにTwitterは少し前に買収した、イギリスのMagic Ponyに対して1億5000万ドルを現金で支払っている。

Magic Ponyは創業から短く、広く買収対象となりうる段階で買収されたが、Moodstocksは2008年からモバイル端末での画像認識精度の向上を目指し取り組んできた。「私たちの夢は、カメラをスマートセンサーにすることで、周りのことを理解できるよう機械に目を与えることです」と同社は買収発表/さよなら/初めましての挨拶を兼ねた声明で伝える。

当初Moodstocksは自社開発のコンシューマーアプリを制作していたようだ。SNSのようなアプリだ。ユーザーは本などのメディアの写真を撮り、そのメディアに対して自分のコメントをつけることができる。他のユーザーの写真の個別の「フィンガープリント」を合致させる画像認識技術で、コメント同士をリンクさせるというものだ。

面白いアイディアだが、人気は出なかった。そこでMoodstocksはその技術を他の開発者に提供する方向にピボットした。少なくとも1つのアプリ「Moodstocks Scanner」は、開発者がアプリに機能を実装する前にSDKを試すツールに変わった。

Googleは、開発者がアプリに画像サービスを実装できるよう自社でもSDKをローンチするかどうか示していない。また、このテクノロジーをGoogleがコンシューマー向けサービスに活用するかも分からない。分かっていることは、MoodstocksのチームはGoogleのフランスにある研究開発運用拠点に参加することだ。Moodsotcksはが共同創業したスタートアップだ。

短い声明で、Googleのフランスのセンターを率いるVincent Simonetは、MoodstocksはGoogleに高精度な画像検索をもたらすことを期待していると伝える。すでにGoogleが提供しているサービスを改良するという。「画像認識の面で、大きく前進することができました」と彼はフランス語で伝えている。「しかし、この分野ではまだまだ改良できる部分が多くあります」。

Moodstocksの取り組みが、引き続きスマホ向けに留まるのか、他のところで活用されるのかはわからない。Moodstockの機械学習アルゴリズムが活用できる箇所は多くある。例えば、Google検索で検索単語と一致、あるいは関連する画像を見つけるために「学習」することができる。Googleは、このテクノロジーを、例えばGoogleフォトなどの既存アプリに活用することもできるだろう。

あるいは、将来ローンチするプロダクトに採用するのかもしれない。ただ、スマホなら分かりやすいユースケースが目の前にある。小さな端末のタッチスクリーンだとテキスト入力はやや手間がかかる。また、ユーザーは自分で撮った品質の低い画像から類似したものを探そうとするだろう。両方の課題に対し、強力な画像認識ツールは便利だ(例えば、何かの写真を撮って、それを検索「キーワード」として使用するような場合だ)。

Googleはフランスで他にもスタートアップの買収を行っている。例えば、スマホのパフォーマンスを向上させるFlexyCoreなどだ。また、顔認識のJetPacPittPattなど、複数の画像関連テクノロジーも買収している。他の大手テクノロジー企業もこのエリアでテクノロジーの買収を行っている。今年には、Amazonが静かに、AIやニューラルネットワークを活用する写真認識テクノロジーを開発するスタートアップOrbeusを買収している。

[原文へ]

(翻訳:Nozomi Okuma /Website

コンテンツをシェアする場所とタイミングをAIが最適化してトラフィックを倍増するEchoboxが$3.4Mを調達

image

オンライン出版のための人工知能サービス、を自称するEchoboxは、コンテンツをTwitterやFacebookなどで共有したいと考えているパブリッシャーを助けて、もっとインテリジェントな共有ができるようにする。その同社がこのほど、Mangrove Capital Partnersが率いるラウンドにより、340万ドルを調達した。これにはSaul and Robin KleinのLocalGlobeも参加した。

EchoboxのファウンダーでCEOのAntoine Amannはこう語る: “今度の資金でイノベーションをさらに推進し、AI技術を改良したい。また営業とマーケティング努力を拡大して、うちの技術を利用するパブリッシャーをもっと増やしたい”。

Le Monde, Le Figaro, Axel Springer, San Jose Mercury Newsなど有名誌紙を顧客に抱えるロンドンの同社は、パブリッシャーたちのデータサイエンスワークロードを受託する。具体的には、コンテンツをソーシャルメディアにシェアするタイミングの決定だ。

同社のAI技術、Echobox AIは、記事のヴァイラル性を正確に予測し、それをいつどこへポストすれば最大のトラフィック増が得られるかを判断する。そのほかのソーシャルメディア最適化/共有サービスと違うのは、パブリッシャー自身のアナリティクスとデータを利用して、AIをもっとオーダーメイド的に最適化することだ。

Amannは曰く、“弊社のAIは今では相当大きく進歩し、コンテンツのトラフィックがほぼ倍増するぐらいになった。また最近開発した“速報ニュース検出エンジン”により、記事の速報ニュース性をアルゴリズムで判断する。一見ささいなようだけど、でもこのイノベーションにより、パフォーマンスを大きく上げることができた”。

さらにAmannによると、Facebookが最近ニューズフィードの扱い方を変えて、企業(やパブリッシャー)よりも友だちや家族の共有を重視ようになったため、Echoboxのようなサービスがなお一層必要になってきた。

“Facebookはつねに多大な努力を投じてユーザー体験の向上に努めているから、今回のニューズフィードの扱いの変化なども、メディア企業にとって破壊的な影響をもたらすんだ。でもパブリッシャー自身は、そういう頻繁で激しい変化に対応して、コンテンツのオンライン配信を最適化するための方法論や技術を持っていない。それはとても大きくて、しかも絶えず進化しているデータサイエンスの問題だ。そのソリューションを、Echoboxが引き受ける”、と彼は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

会計士の仕事がなくなる?Smaccは会計業務を自動化するAIを開発

receipts

SmaccはAIで会計業務を自動化する。SmaccはシリーズAでCherry Ventures、Rocket Internet、Dieter von Holtzbrinck Ventures、Grazia Equityとエンジェル投資家から350万ドルを調達したことを発表した。

Smaccは会計業務と財務プロセスのデジタル化と自動化を行うプラットフォームを中小企業向けに提供する。

Uli Erxleben、Janosch Novak、Stefan Korschの3人のファウンダーは、スタートアップを運営する中で会計業務が最もやっかいな要素だと知り、このサービスを思いついた。 ErxlebenはRocket Internetに勤め、アメリカでニューヨークとサンフランシスコの投資案件の管理をしていた。また、彼はクラフトビールのスタートアップBerliner Bergのファウンダーでもある。

カスタマーはSmaccにレシートを提出すると、レシートを機械が読み取れるフォーマットに変換し、暗号化を施した上で、勘定科目を振り分ける。プラットフォームは徐々に自分で学習し、インボイス、売上、コスト、資産状況などをトラックする。

システムはVAT-ID(付加価値税登録番号)や発行元の情報が正しくても、会計処理中において64のデータポイントを確認し、インボイスや小切手などを認証する。システムが一旦、各ポジションレベルごとのサプライヤーとの取引を学習すれば、自動で処理ができるようになる。時間が経つにつれ、データの振り分けと取引の自動化がさらによくなると話す。

「このツールを使うと資産計画や収益と支出の報告は、リアルタイムに近いスピードで得ることができ、自分でデータを入力する必要もありません。月末に外部の経理担当から報告を待つこともありません」とErxlebenは話す。

他にもXeroやCrunch Accountingといったクラウドベースの会計ソフトウェア・プロバイダーはあるが、Smaccの違いは、会社が通常手動で入力しなければならない会計業務と財務プロセスを高レベルで自動化できることだという。

[原文へ]

(翻訳:Nozomi Okuma /Website

IBM Watsonを乗客インターフェイスに利用した電気ミニバス、Olliが運行開始へ

2016-06-17-watson-olli

今日(米国時間6/16)、IBMは自動運転分野に大々的に参入したことを明らかにした。ただし実際に自動車を作るのではなく、自動運転に興味深い機能を提供する頭脳としての役割だ。

IBM Watsonの人工知能が電気自動車のOlliの乗客インターフェイスのベースとなる。Olliは12人乗りのミニバスで、アリゾナの自動車メーカー、Local Motorsが開発した。

Olliの製造にあたっては3Dプリントなどの最新のテクノロジーが利用され、これまで少量生産に付きものだった高コストが克服された。このミニバスは当初ワシントンDCで走るが、今年中にマイアミ・デイド郡、ラスベガスに運営が拡張される予定だ。 IBMによれば、マイアミ・デイド郡は自動運転車を利用して乗客をマイアミの各所に実際に移動させるパイロット・プログラムをスタートさせるという。

Local Motors、IBM、それにIntelは以前もRally Fighterというコンセプト・カーの開発などで協力したことがある。Olliはこの提携が産んだ最初の商用プロダクトのようだ。

詳しくいえばOlliは自動運転車のアプリ向けに最適化されたカスタム版のWatsonを用いており、自動運転機能のすべてを担当しているわけではない。IBMの声明によれば「乗客の利用体験を改善する」ことに主眼が置かれている。

「WatsonとWatson IoTを含むIBMのテクノロジーはOlliの操縦やナビゲーションではなく、乗客の体験を改善することに用いられている。Watsonによって乗客はバスと自然に意思疎通ができるようになる」と声明は述べている。

ただしこれは第一歩にすぎないようだ。Local Motorsの共同ファウンダー、John B. Rogersは声明でこう述べている。

「長年待ち望まれてきたスマート、安全、かつビジネスとして長期に運営可能な公共交通機関をOlliは実現する。Watsonを利用するOlliはわれわれの考える自動運転車の世界へのドアだ。パートナーとLocal Mortorsのコミュニティーはこの1年、静かに開発を続けてきた。ごく近い将来、われわれが開発したテクノロジー・ポートフォリオはあらゆる自動車に適用できるようになるだろう。われわれは採用のための努力を加速していく。高度な自動車テクノロジーの分野において、われわれのオープン・コミュニティーが貢献を行うことができる大きな可能性には興奮させられる」

Olliは4つのWatson APIを利用している。具体的にいえば、音声をテキスト化するSpeech to Text、自然言語のクラス分類を行うNatural Language Classifier、 固有表現を抽出するEntity Extraction、逆にテキストを音声化するText to Speechだ。これらの機能を用いて、Olliは車内の30以上のセンサーから収集される膨大な情報を適切に処理することができる。

IBMによれば「A地点からB地点に移動中に、乗客はOlliと自然な会話を行うことができる。乗客はOlliにバスの目的地だけでなく、作動の仕組や今なぜそのような運転操作を行ったのかを尋ねることができる」という。さらにOlliは食事をするのに適したレストランや付近の観光地に関する情報も教えてくれる。ただしWatsonは自動運転そのものを担当するわけではない。

【IBMの声明は原文参照】

[原文へ]

(翻訳:滑川海彦@Facebook Google+

マネーボール理論を企業でも、ビズリーチが採用管理システム「HRMOS」公開

映画「マネーボール」といえば、貧乏球団のアスレチックスを強豪チームに変えた実在のGM(ジェネラルマネージャ)、ビリー・ビーンの活躍を描いた物語である。

ブラッド・ピット演じる主人公のビリーは、野球のデータを統計学的に分析して、選手の評価や戦略を決める「セイバーメトリクス」という手法を採用。これによって、資金不足にあえぐ弱小チームを、ア・リーグ記録の20連勝を遂げるまでに育てあげた。

このセイバーメトリクスを企業人事で実践しようとしているのが、転職サイトを手がけるビズリーチだ。

ビズリーチが発表した戦略人事クラウド構想

ビズリーチが発表した戦略人事クラウド構想

人事業務のムダをなくす

人材の採用から育成、評価までをクラウド上で最適化する構想「HRMOS(ハーモス)」を6月14日に発表。第一弾として、求人媒体ごとの採用状況を一元管理するサービス「HRMOS 採用管理」をスタートした。

例えばリクナビやマイナビといった求人媒体からCSVファイルを取り込むと、ダッシュボード上で応募者のステータスを一覧表示する。ビズリーチの転職サイト経由の応募者情報は自動的に、人材紹介エージェントや社員紹介による応募者情報は手動で入力すれば、ダッシュボード上で一元管理できる。

設定済みの面接や要対応メールの有無などのタスクをダッシュボードでわかりやすく表示する

ダッシュボード上では、「書類選考」「最終面接」「内定」といった応募者のステータスがわかり、人事担当者はやるべきタスクがひと目でわかる。応募者とのメールのやり取りもHRMOS上で完結する。

応募者の情報や面接の進捗状況をExcelで管理して、そこからメールアドレスをコピペして連絡する……といった人事業務にありがちな面倒な事務手続きから開放されそうだ。

02

応募者ごとの選考ステータス

応募経路別の採用単価をグラフ化する機能もある。求人媒体や人材エージェント、社員紹介によるリファラル採用などで、一人あたりの採用にかかるコストを比較することで、もっとも効率のよい採用方法に注力できる。

04

応募経路別の選考状況

面接官が応募者に出した評価もグラフ化する。面接官の山田さんは内定者に「A評価」を出す傾向があるが、面接官の鈴木さんは内定者に「C評価」を出す傾向があるので、「山田さんの判断を重視すべき」といった意思決定を支援してくれそうだ。

05

面接官別の選考評価レポート

企業経営でマネーボールの理論は実践できるか

採用管理サービスに続き、第二弾として「HRMOS 勤怠管理」を今秋、第三弾として「HRMOS 業績管理」を来春にリリースする。これらのモジュールが連動しながら、自社で活躍する人材の行動や成果を人工知能が学習し、戦略的な人材活用の意思決定を支援するという。

ビズリーチの南壮一郎社長は「人事関連のデータを活用した企業経営が実現できる」と意気込む。

「◯◯さんは現在、どれだけ会社に貢献していて、採用時はこんなパラメータだった、ということがわかるようになる。自社で活躍する社員のデータと照らし合わせることで、高い実績を残すハイパフォーマーの採用や育成にもつながる。」

とはいえ、企業の業績は市場環境や競合などの外部要因で左右するもの。南氏も「経営は野球ほどシンプルな指標で分析できない」と認めるが、人事領域では「採用したら終わり」で完結しているのが問題点だと指摘する。

「営業やマーケティングでは効果検証を行うにもかかわらず、なぜか人事領域は例外。採用した人材が3〜5年後にどんな成果を出したかを数値化し、次回の採用の改善に役立てている企業は少ない。」

プレイヤーが乱立するATS業界

HRMOSをリリースするにあたっては、セールスフォース・ドットコムと業務提携し、機能面での連携を視野に入れている。今年3月に実施した総額37億3000万円(37.3億円で「みなみ」ということらしい)の資金調達では、Salesforce Venturesからも投資を受けている。

スタート時は特別価格として月額5万円で提供。すでに試験提供を開始していて、スタートアップ業界ではRettyやSansan、ラクスルなどが導入済み。2019年6月までに、ビズリーチの利用企業を中心に2000社以上の導入を目指すという。

biz01

ビズリーチの南壮一郎社長

クラウド型採用管理システムは、ATS(アプリカント・トラッキング・システム)と言われ、米国では大企業向けのOracle「Taleo」やSAP「SuccessFactors」が先行、スタートアップではairbnbやsnapchatが導入することでも知られる「greenhouse」がある。

国内でもTaleoやSuccessFactorsが先行するが、古株では2005年に開始した「リクログ」、2008年に開始した「ジョブスイート」、直近3年では「jinjer」や「talentio」、シンガポールに本拠を置く「ACCUUM」も日本市場に進出するなど、新興サービスの参入も相次ぐ。

ちなみにマネーボールの舞台となったアメリカでは、人事にもビッグデータを活用するのは当たり前という風潮になってきている。このあたりの話は過去記事「経験や直感による採用はもう古い、人材採用に広がるデータ・ドリブンなアプローチ」に詳しいので、興味のある方は読んでほしい。

必見! AIが映画脚本を書いたらこうなった

screen-shot-2016-06-11-at-8-05-30-am

スマホの予測変換を続けていくとヘンテコな文章ができあがっていくことがあるが、そのような機能でできあがるのは不条理な詩だけではないらしい。Sunspringのチームは、この技術(正確にはLSTMニューラルネットワークという)を使用して脚本を書き上げた。

それ自体かなり愉快なことではあるのだが、同チームはさらに優れたアイデアがあった……。なんと、ドラマ「シリコンバレー」でPied PiperのCEOであるリチャード・ヘンドリクスを演じたトーマス・ミドルディッチをはじめとする俳優を起用して本当に映画にしてしまおうというのである!

チームはAIに大量のSF映画脚本、さらに幻覚成分を与えて脚本の執筆を依頼した。

チームはAIに大量のSF映画脚本、さらに幻覚成分を与えて脚本の執筆を依頼した。

計画は実行に移され、とにかく、馬鹿げていて、面白くて、わけがわからなくて、魅力的なものに仕上がった。「良い映画」とまでは言えない。(従来的な意味でいえば視聴に耐えうるレベルにさえない)。しかし、もしAIに触れたことがある人なら(あるいは自動変換で遊んだことがある人なら)、AI脚本家が陥りがちな流れを見て取れるだろう。

しかし、映画の見どころは、俳優たちのセリフが全く。意味を。なさない。ところだ。だが、これはカルト的な傑作だ。ぜひ観てもらいたい。

(注: 訳者が字幕をつけようと試みたところ、現段階では設定上手動で字幕をつけられなかったので、YouTube画面右下の字幕機能から日本語の自動翻訳をONにして雰囲気を味わっていただきたい)

[原文へ]

(翻訳:Nakabayashi)

人工知能はSEOを一変させる―Googel RankBranを知らない対策が危険な理由

2016-06-06-google-rankbrain

編集部:この記事はJohn Ramptonの投稿。 Ramptonはオンライン請求サービス、DueのファウンダーでCRUNCH NETWORKのメンバー。

この筆者にようる過去記事:The broken world of mobile payments and how to fix it, What Zuckerberg And Gates Teaming Up Really Means For Clean Energy In 2016

SEOは完全に違うものになった

将来を見通すという困難な仕事にかかる前に、まずGoogleのサイト評価アルゴリズム、RankBrainがSEOをどう変えたかを考える必要がある。私はカーネギーメロン大学の同窓生で友達のScott Stoufferとこの問題について話し合った。彼は Market Brewの共同ファウンダー、CTOだ。この会社はFortune 500掲載の大企業のSEOチームにランキングのモデルを提供している。検索エンジンの専門家としてStouffer過去10年間に検索エンジンがどう進歩してきた知る絶好の位置にいる。

以下に述べるのは、SEOビジネスにとってGoogleの人工知能がどんな意味を持つかについてのStoufferの意見をベースにしている。

6

現在の回帰分析には深刻な欠陥がある

SEOビジネスでこれは現在最大の誤謬だろう。Googleのランキング・アルゴリズムが大きく変更されるたびに「それはこういう影響をもたらす」と解説する予言者が大勢現れてきた。誰でも知っているような有名企業のデータサイエンティストやCTOが最新のGoogleアルゴリズムについて「詳しく知る立場にある」と主張する。これはアルゴリズムのアップデート以前のランキング・データを調べ、次にアップデートの内容が適用されたならこれこれの変化があるとあらゆる種類のサイトについて予測するという手法だ。

現在の回帰分析のアプローチでは、データサイエンティストは(良きにつけ悪しきにつけ)ランキング・アルゴリズムに影響を受けるタイプの特定のサイトのグループに着目する。そしてこうしたサイトのランキングの変動はしかじかのアルゴリズムの変更(コンテンツ関連、バックリンク関連、その他)によって引き起こされた可能性が高いと結論する。

ところがGoogleはアルゴリズムのアップデートに当たってもはやこうした考え方を採用していない。 GoogleのRankBrainは極めて強力な機械学習、あるいはディープ・ラーニングのシステムであり、そのアプローチはまったく異なる。

Googleのランキング・アルゴリズムにはコアとなる考え方が存在する。RankBrainはまずこのコア・アルゴリズムを理解し、現実のサイトに適用された場合、どのようなアルゴリズム組み合わせによってベストの検索結果を得られるかを決定する。たとえばRankBrainは、あるタイプのサイトではもっとも重要性の高いシグナルはMETAタグのtitleの内容だと判断する。

META titleの重要性が高いのであれば、ここに検索エンジン向けの記述をすることで検索結果に好影響を与えることができる。しかし常にそうであるとは限らない。別の種類のサイトではtitleタグは検索結果に破壊的な結果をもたらすことがある。

7

重要なポイントは、それぞれの検索結果はまったく異なるアルゴリズムの組み合わせだということだ。この点に注目すれば、サイトのタイプや検索のコンテキストを無視した単なる回帰分析がいかに深刻な問題をもたらすかがわかるだろう。

つまり回帰分析は個別の検索ごとに行われなければ意味がない。 最近、Stoufferは検索モデル分析というアプローチについて書き、Googleのアルゴリズムの変更は、正しい分析を行えば定量的に確認できると論じた。第一に、過去に特定のキーワードに対する検索結果のスナップショットにもとづき、Googleが検索アルゴリズムルをどのように調整しているはずであるか、モデルを作成して推定する。ランキング決定に変化があった場合、新旧のデータの差異からモデルを再調整し、Googleが検索アルゴリズムにどような変化を加えらたかを明らかにする。 このようなアプローチを採用した場合、ランキング結果の変化がどのアルゴリズムのウェイトの増大あるいは低下によるものであるかを推定できる。

人間が未来を予測するときの誤りは、その意義を過小評価することだ

こうした知識をベースにすれば、われわれは特定の検索に対する体験を改善するためのSEOを始めることができる。ただし同じようなSEOアプローチが他のタイプの検索に対しても適用できると期待してはならない。前にも述べたようにRankBrainは検索結果(つまりキーワードのレベル)に対して最適化されているからだ。RankBrainは文字通りアルゴリズムをカスタマイズしてそれぞれの検索結果を表示している。

分類エラーを防ぐためにはニッチを出るな

Googleはディープ・ラーニング能力を利用してRankBrainに「良いサイト」と「悪いサイト」がどのようなものであるかを教えることができるのを発見した。個々の検索ごとにアルゴリズムをカスタマイズするのと同様、Googleはそれぞれのジャンルのサイトで典型的な「良し悪し」のサインがあることに気づいた。それぞれのジャンルには異なる顧客管理モデル、異なるテンプレート、異なるデータ構造があるのだから適用すべき基準も異なるのは必然的だ。

RankBrainは実行される特定の環境ごとに自らの「正しい設定」を学習する。繰り返しになるが、「正しい設定」はサイトのジャンルごとに異なる。たとえば健康ビジネスではGoogleはWebMD.comは信頼すべき優秀なサイトであることを知っており、検索結果のトップ付近にこのサイトが来るよう検索インデックスが調整されている。そしてWebMDに類似、あるいは関連したサイトは「良い」と判断される。同様に健康ビジネスでスパムを乱発しているサイトに類似するサイトは「悪い」と判断される。

RankBrainがディープ・ラーニング機能を利用してジャンルごとに大まかな「良いサイト」と「悪いサイト」という区分を作っているなら、数多くのジャンルの内容を含むサイトを運営している場合、どういうことになるだろう?

8

まずディープ・ラーニングの仕組みをもう少し詳しく知る必要がある。「良い」と「悪い」という2つの大きなバケツにサイトを分類する前にRankBrainはそれぞれのサイトが「どんなジャンルに分類されるか」を知らねばならない。Nike.comWebMD.comの場合は簡単だ。これらは大きなサイトなので数多くのサブセクションがある。しかし全体としてNikeはスポーツ用品メーカーであり、 WebMDがヘルス・ビジネスに属することに変わりはない。こうしたサイトは容易に分類可能だ。

しかしサブセクションがそれぞれ異なるジャンルに属するようなサイトの場合はどうだろう? たとえば、ハウツー・サイトなどがよい例だ。こうしたサイトはきわめて広いジャンルのサブセクションを持つことになる。するとディープ・ラーニング・システムは十分に機能できなくなる。こうしたサイトを分類するためにGoogleはどんなトレーニング・データを用いたらよいだろう? あまりにジャンルが広い場合は有効なトレーニング・データを作成することはできない、というのがその答えだ。トレーニング・データは特定のジャンルを前提とする。Wikipediaにように極めて有名なサイトの場合、Googleはディープ・ラーニングによる分類を諦め、サイト自体を対象から除外している。こうした著名なサイトを含めることによってディープ・ラーニング・システムを混乱させることを防止するためだ。Wikipediaについていえば、「大きすぎて〔RankBrainを〕失敗させるわけにいかない」という例だろう。

SEOはきわめて高度なテクノロジー分野となりつつある

しかしWikipediaほど有名でないサイトの場合は話が違ってくる。残念ながらこちらの答えは「そんなことは誰にも分からない」だ。ディープ・ラーニング・プロセスはサイトを同ジャンルの他のサイトを比較する前に、どのジャンルに属するかを決めなければならなないはずだ。そのとき、ハウツー・サイトがたまたまWebMDサイトに酷似していたら、たいへん幸運だ。

しかし、Googleの分類プロセスがそのサイトを「スポーツシューズに関連している」と判断するなら、WebMDではなくNikeのサイトと構造を比較するだろう。もしハウツーサイトが、尊敬すべきWebMDではなく、スパム・サイトとして知られる靴サイトに似ている場合、Googleはこのサイトに「スパム」の烙印を押しかねない。もしハウツー・サイトがジャンルごとに別のドメインに分割されていれば、RankBrainがそれぞれのドメインをそれぞれのジャンルの他のサイトと比較するのは容易になる。つまりこれが「ニッチにとどまれ」という理由だ。

バックリンクにご用心

上に述べたようなジャンルへの分類が行われた後の段階となるが、次にバックリンク(被リンク)の影響について考えてみよう。サイトが「関連あるコミュニティーに留まる」ことの重要性はますます高まっている。RankBrainはジャンルごとの通常のバックリンクのプロフィールを知っており、これと異なるような状態を検知できる。

ある会社が靴のサイトを運営していたとしよう。上で説明したとおり、RankBrainはこのサイトを靴サイトにおける「良いサイト」、「悪いサイト」と比較する。当然ながらバックリンクの内容も「良いサイト」、「悪いサイト」と比較されることになる。

「良い靴サイト」はおそらく次のようなジャンルからのバックリンクを持っているはずだ。

  • スポーツ
  • ヘルス
  • ファッション

仮に靴会社のSEOチームがこれと違った新しい分野のバックリンク獲得に力を入れ始めたとしよう。 CEOチームの1人が優秀なエンジニアであり、また前職の関連で自動車産業に強かったとする。するとこのチームは「自動車の新規リースで靴を1足、無料進呈」というようなクロス・マーケティング・プロジェクトを始めるかもしれない。このプロモーションが自動車サイトに掲載されれば、靴サイトは大量のバックリンクを獲得できる。うまい話だろうか?

RankBrainは突然バックリンクが増大したことに気づき、他の評判の良い靴サイトのバックリンク・プロフィールとまったく性質が異なると判断する。それどころか、最悪の場合、RankBrainは靴のスパムサイトが自動車サイトから大量のバックリンクを得ていることを発見するかもしれない。これは非常にまずい事態だ。

そういう次第で、RankBrainは、それが正しい手段で得られたバックリンクかどうかに関わりなく、検索結果にとって「良い」リンクであるか「悪い」リンクであるか区別しようとする。その結果、この靴サイトには警告フラグが立ち、サイトの努力もむなしくオーガニックなトラフィックも急降下するということになりかねない。

SEOの未来と人口知能

以上見てきたように、RankBrainなどの人工知能は、ある時点でその能力が人力を超えてしまう。その後人口知能がどこへ向かうのか人間には正確に判断できなくなる。

しかし確実なこともある。

  • それぞれのキーワードは独自に検索の文脈を検討される
  • 誤った分類を防ぐために、多くのサイトはニッチな分野に留まることが必要
  • 自サイトが属する分野でもっとも信頼されるトップサイトの構成を模倣することが安全

ある意味でディープ・ラーニングはSEOの仕事をやりやすくしてくれる。RankBrainなどのテクノロジーは人間のやることに非常に近い。どういう意味かといえば、もはや「手っ取り早い抜け穴」などはないということだ。

もちろん困難になった面もある。その一つはSEOが極めて高度なテクノロジー分野になっていくという傾向だ。アナリティクスとビッグデータは単に今日のバズワードであるだけでなく、あらゆるSEOエンジニアが学んでおかねばならない基礎でもある。学ぶためにはたいへんな苦労をするかもしれないが、こうしたテクノロジーを使いこなせるエンジニアは高給を期待してよい。

画像::Maya2008/Shutterstock

〔日本版〕この投稿は長文のためGoogle RankBrain等に直接関連ある後半を訳出した。人工知能全般を論じている前半は原文を参照。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

スタンフォード大学のロボット‘Jackrabbot’は歩行者が無意識に守っている説明の難しい複雑なルールを学習中

jackrabbot

人間の大人でも、人混みの中を歩くのが難しいことがある。ましてや、不器用で素朴な脳のロボットはどうだろう? 人にぶつかることを避けるために、“右へ行くべきか左か?”を一瞬々々ぎごちなく考えながら歩く、…スタンフォード大学の研究者たちは、彼らのロボット”Jackrabbot”が、そんな路上のルールを学習できる、と期待している。

同大のComputational Vision and Geometry Lab(コンピューターによる視界とジオメトリ研究所)はこれまですでに、歩行者の動きを追跡して予測するコンピュータービジョンのアルゴリズムを作ってきた。しかしそのルールはきわめて複雑で、群衆や歩道の幅、一日の中の時間帯、自転車やベビーカーの有無、等々大量の変数を含むため、まさしく、そのほかの機械学習のタスクと同じく、有益な結果を得るためには膨大な量のデータを必要とする。

LSTM-probmap

しかも、彼らが開発しているアルゴリズムは、完全に観察データだけを使用し、それをニューラルネットワークが解釈することを意図している。研究者たちが、ヒント(“この状況では人は必ず左へ行く”など)を与えてはいけない。

彼らのこれまでの努力は小論文に記され、今月の終わりごろ出るCVPRに掲載される。彼らが作った動き予測アルゴリズムは、多くの同種アルゴリズムよりも優れており、そのモデルは、人が集団の中で相互作用/反応する場合の複雑微妙ぶりをある程度学習できた。

現在、楽しげにめかしこんだJackrabbot(上図)は、人間が手動でコントロールしながら、研究のモデルをロボットの知覚に実装する方法を模索している。その本体は実はSegway RMP210の改造バージョンで、ステレオカメラとレーザースキャナーとGPSを搭載している。訓練用データは鳥瞰ビューを使用したが、ロボット本人には鳥瞰的視界を持たせずに、さまざまな歩行者の互いの距離と歩行速度から、空間中の各個人の座標を求め、彼らの動きを高い精度で予測させる。

cv_intersection

研究者のAlexandre Alahiは本誌へのメールで、“この夏には、私たちの社会的知覚を持つ予測モデルをロボットに実装したい。リアルタイムのデモは、年末までには行いたい”、と言っている。

人間の空間を無事にナビゲートできるロボットが、まだ万人の目の前ではないけれども、どこかSFにほとんど近いような場所に、出現しようとしている。しかし、われわれが日々、思考を必要とせずに行っていること…回りをスキャンしその場の障害物と運動物を判断し、それに応じて自分の動きを適切に計画すること…は、コンピューターにとってものすごく難しいことなのだ。

このようなプロジェクトの多様な蓄積の中から、最終的には、家の中や都市の中を人間と同じようにはやく安全に、他人に配慮しながら歩けるロボットが生まれるだろう。自動運転車がたぶん都市の道路の様相をすっかり変えてしまうように、自律性のある歩行者ロボットは、それがヒューマノイドであろうとなかろうと、歩道の状況を変えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのAIが初期のCasioのシンセに匹敵する音とメロディーを作り出す

burning-man-piano

それは1989年だった。親たちはベルリンの壁が取り壊されるのを見ていたが、あなたは二階の自分の部屋でCasio SA-1の電池を交換し、コンサートに備えていた。それが叩き出すビートは熱い。あなたはデモ曲“Wake me up before you go-go”聴き、自分もやる気むんむんとなる。100種類ある音色の02番、”HONKY-TONK PIANO”を選ぶ。そのプラスチック製の象牙(鍵盤)をまさぐり、気分は絶好調。さあ、行くぜ!

しかし、ここまで^

悪くないね、そう思わない? でもこいつは、当時7歳の練習熱心な子の迷演ではなくて、人工知能が作ったオリジナル曲だ。そのAIを作ったのはGoogle ResearchというかGoogle Brainの連中。すでに記事のタイトルにあるから、驚かなかったと思うが、タイトルを飛ばしていきなり本文を読んだ人は、どうだったかな? ( )。

これは、“マシンインテリジェンスに音楽やアートの高度な生成能力を持たせるための研究プロジェクト”Magentaの、最初の公開出力だ。プロジェクトのサイエンティストの一人Douglas Eckによると、機械学習は発話認識(speech recognition)のような比較的単純明快なタスクではかなり進歩してきたが、でもそれは、たとえば、音の並びが音楽と呼べるためには何がどうあるべきか、を学習できるだろうか? あるいは、アートとして鑑賞できる色や言葉の並びを? へんてこな詩(PDF)を作ったことは、あったけど。

“発話認識や、翻訳、画像アノテーション〔タグ付けなど〕などでうまくいったやり方を基盤として、アートや音楽を創造できるすばらしいツールを作れる、と信じている”、とEckは書いている。

クリエイティブなワークは何でもそうだが、Magentaもまず必要なのは練習、そしてフィードバックだ。そのためGoogleは、クリエイティブとプログラミングの両方の分野に、コミュニティへの参加を呼びかけている。コードのチェックや、データの供給などのためだ。このプロジェクトはGitHubに置かれ、Google自身のオープンソースの機械学習プラットホームTensorFlowも利用できる。あなた自身の、フォークを作ってみよう。

研究者たちが初めて、コンピューターに作曲をさせてみたのは、もうかなり昔の話だ(数十年前)。でもGoogle Researchの潤沢なリソースと頭脳があれば、Magentaはもう一歩二歩進んだ結果を見せてくれるかもしれない。

このプロジェクトの今後の進捗は、Magentaのブログでチェックできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

チャットボットには大きな将来性―ただし現行製品はどうしてああもダメなのだろう?

2016-05-31-chatbot

この記事はCRUNHCH NETWORKのメンバーでEvaのファウンダー、CEOのFaisal Khalidの執筆。Evaは消費者向けモーゲージに関するチャットボットを開発中。

今年に入ってチャットボットについてのニュースをあちこちで見かけるようになった。まずMicrosoftがTayを発表したが、>女性の声でしゃべるのが性差別主義的だと非難されただけでなく、悪意あるユーザーに教えられた通りにあらぬことを口走るようになってしまった。次にFacebookがMessengerのボットをリリースしたが、上々の滑り出しとはみえない。それからAppleのVivが話題となった。一見したところSiri 2.0のように思えたのも無理はなく、開発者はSiriと同じだった。

ニュースだけは賑やかだったが、驚くべきことに、本当に出来のいい製品は一つとしてなかったように思える。

もちろん「本当に出来のよい製品」の定義をめぐって面倒な議論を始めることは可能だ。しかし簡単にまとめれば、素晴らしい製品には3つの特長がある。 (1)機能が分かりやすく使い勝手がいい。 (2) 99%以上の稼働率、(3)なんであれ、ユーザーが厄介だと感じる作業を大幅に肩代わりしてくれる。

そこで最初の問題に戻る。なぜチャットボットというのはああもダメなのだろう? ダメ、というのは、私には広くユーザーから喝采を受けているチャットボットが一つも思いつかないからだ。もっと重要なことだが、アプリよりも使い方が簡単なチャットボットの例も浮かんで来ない。どうしてこういうことになっているのか、少し詳しく検討してみる必要がありそうだ。

あまりに手を広げすぎたチャットボットは失敗する

VivとSiriがこの範疇に入る。どちらも「あらゆる問題に役立つ」ことを目標としたため、個々の問題を解決する能力が落ちてしまった。「すべてに対応する」という目標がなぜ問題を引き起こすのか理解するためにはチャットボットの動作の仕組みを理解する必要がある。

チャットボットは通常、「脳」と「ボディー」の2つの部分から出来ている。

まず「脳」だが、これは自動車を考えると分かりやすい。車にはエンジンが積まれていて車を走らせる。ボディーはユーザーの必要に応じてカスタマイズできる。ほぼ同じエンジンを積んでいてもボディーはSUVであったり、GTであったり、普通のセダンであったりすることが可能だ。

チャットボットも同様で、「脳」はユーザーの人間が発した言葉の意味を受け取り、実行可能なコードを生成する。狭い範囲の目的に特化したボットの場合、人間が発することを予期する言葉も狭い範囲に限定される。

たとえば、飛行機のフライトの予約に特化したボットを考えてみよう。フライト予約に関連して人間が発する可能性のある単語は100語から200語くらいだろう。そこでこうした発言を理解するボットを開発するのは難しくない。そんなボットなら私でも1週間で書けるし、その反応は99%以上適切だろう。しかしもっと広い範囲をカバーするボットを開発しようとすれば、それだけ多数の文が処理できなければならない。Siriのように「どんな場合にも役立つ」ボットであれば、理解しなければならない文の数は無限に近くなる。

「あらゆる文を正しく理解する」というのは信じがたいほど困難な作業だ。ほとんど無限といってよいエンジニアリング上の努力と時間を必要とする。人間の子供が言語を正しく使えるようになるのに数年かかるなら、人工知能が言語を理解できるようになるにもそのぐらいかかるだろう。しかし人間でさえ常に理解が成功するとは限らない。それは自然言語にはきわめて非論理的な側面があるからだ。たとえば6歳の子供は次に何を言い出すか分からない。しかし40歳の大人が相手だったら次に何を言いそうか予測することははるかにやさしい。

チャットボットのもう一つの要素は「ボディー」だ。私が上で述べたように、こちらは比較的「やさしい」部分だ。量は巨大であっても中身は「知識」にすぎない。ターゲットとする分野にもよるが、適切なカスタマイズにはもちろん多大のリソースを必要とする。さきほど述べたようにフライトの予約に役立てたいだけなら知識の量はさほど必要ない。おそらくはTripAdvisorのAPIを使うだけで相当に実用的なチャットボットが作れるだろう。

「なんでもできる」上に「非常に優秀」であるようなチャットボットはまず存在しない

私は金融分野で役立つチャットボットの開発を行っているが、この分野のハードルは非常に高い。必要とされる知識は莫大なもので、それをボットが利用できるように整理するためには非常に時間がかかる。金融サービスのサイトを見てみればわかるが、この分野の言語は特殊だ。チャットボットは、定義上、普通の人間が話したり、しゃべったりすることを理解でき、そのように話したり、しゃべったりできなければならない。金融は当然ながら複雑で理解が難しい分野だ。金融サービスの術語や特異な表現をチャットボットが話す言葉に翻訳するのはおそろしく時間がかかり、ハードルが高い作業だ。

本当に知的な作業ができるボットを作るのも難しい

こう言えば驚く読者も多いだろうが、現行の チャットボットの大半は実は全く知的ではない。ともかく私が使ったことがあるボットは知的ではなかった。チャットボットが知的かどうかは主として次の2つの基準で判断できる。(1) サービスが自己完結的であり、利用を続けるうちに自然と賢くなる。 (2)ユーザーは文字通り自由に文を組み立てて質問ができる。

具体例を考えてみよう。MicrosoftのチャットボットのTayは知的なボットの代表だろう。話しかけれられたことを何でも理解しようと務める様子がみえる。利用時間とともに機能も向上していく、つまりいちいち命令を受けなくても、聞いた言葉からパターンを抽出し、理解できるようになるはずだ。少なくとも理屈の上からは、そうだった。では知的でないボットの例はというと、残念ながらFacebook Messengerのボットの大部分、CNNのボットなどがそうだ。これらのボットが理解できるのは事前に用意された定型的な文だけだ。

ところが注意しなければならないのは、実際に役立つ―つまり予期せぬ動きをしたりぜず期待されたとおりに仕事をこなす―ボットは知的でない製品だ。その理由はこうしたボットは事前に決められた有限の道筋しか辿らないので失敗しないのだ。

デモでクールなチャットボットのUIを書くのは面倒な作業

こkで面白い点がある。われわれが見たチャットボットのデモのほとんどは(たとえばVivなど)こうした面倒な点をまったく無視している。優れたアプリの場合、ユーザー側の入力はほとんど必要ない。何度かスワイプし何度かクリックすれば終わりだ。それで役目は果たせてしまう。キーボードからのタイプはほとんど必要ない。ところがチャットボットではそうはいかない。

チャットボットは物事の説明を練習するには良い―うまく説明できるまで質問攻めにされる

現在のところ、たいていのチャットボットは音声認識をサポートしていない。そこでユーザーはひたすらタイプ入力を強いられる。当然ながらこれはスワイプやクリックに比べて時間を食う作業だ。その結果、チャットボットはアプリよりはるかに効率が悪いという結果となる。直感には反するかもしれないが、これが現実だ。しかも入力した文をボットが理解できない場合、ユーザーは同じ質問を別の表現に変えて再入力しなければならいので、能率はさらに悪くなる。

チャットボットは失敗を運命づけられているのか?

もちろんそんなことはない。その反対だ。しかし現在チャットボットはきわめて初歩的な段階にある。 ブラウザでウェブサイトを使うのに比べて専用アプリのほうがはるかに処理が速く、使用も簡単なことは10年から15年前に分かっていた。モバイル・アプリのメリットは当時から明白だった。

ところが現在チャットボットを利用してみても、メリット―スピードと使い勝手―は明白とはいえない。 またスピードが速く使い勝手がいい場合でさえ、正確性が不足しているために仕事に使えるのかどうか確信が持てない状況だ。

個人的な意見だが、「知的でない」なチャットボットがまず実用になると思う。たとえばカスタマー・サービスでFAQに答えるような場合には役立つだろう。また金融サービスのような複雑な問題をわかりやすく説明するのにも好適だ。もしもっと複雑な問題、たとえばそれまで接触がなかった顧客が家を買おうとするような場合に、必要な情報を細大漏らさず提供できるようなボットができればその価値は計り知れない。

チャットボットは同じ質問に疲れることなく繰り返し繰り返し答えることができる。ユーザーは納得がいくまで細かく質問できるし、ボットはそれに応じて細かい点まえ説明できる。またチャットボットは、長い入力書式を代替するのにも向いていると思う。書式に延々と入力させるのはいかにも非人間的だ。ボットの方がずっと人間味があるだろう。つまり起業家がチャットボットでビジネスを考える場合、適用可能な分野は数多くあるということだ。

最後にVivについて

一部にVivについての誤解があるようだ。まずVivはSiriではない。つまり「なんにでも対応」することぉ目的とする独立のチャットボットではない。先ほどの比喩でいえば、Vivは「脳」ないし「エンジン」の部分に相当する。Vivは回答に当たってサードパーティーのAPIからの入力を前提としている。Vivは他のチャットボットないしチャットボットAPIを作動させる共通のプラットフォーム、いわばチャットボットのOSとなることを目指している。

もしVivが成功するなら、やがてチャットボットのApp Storeのような存在となるだろう。チャットボットのデフォールトのプラットフォームを狙うんはFacebook MessengerやSlack、さらにその他のSNSも同様であり、Vivのライバルになるだろう。

さてチャットボットの将来は以上述べたようになるだろうか? 実のところ私にも確信はない。私はVivのような中央集権的、OS的なチャットボットが存在するのが良いことかどうかについても確信はない。われわれは新しいアプリが必要なときはApp Storeに探しに行く。将来はチャットボットもApp Storeのような場所に探して行くことになるのだろうか? 今は分からないとしか言えない。しかしやがて判明するときが来るだろう。

F画像: photosync/Shutterstock

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AmazonのAlexaにWebブラウザーから質問できるEchosim.ioがローンチ

amazon-echo

Amazonの音声で応答するAIソフトウェアAlexaは、これまでEchoやDot and Tapで使われていたが、今度はそれをWebブラウザーから利用できるサイト、Echosim.ioがオープンした。

ログインはAmazonのアカウントで行い、マイクの形をしたボタンを押してAlexaに質問する。

Alexa、お天気やニュース、音楽などに関する質問に答え、家の中のほかのガジェットをコントロールできる。またEchoの重要な差別化要因は、サードパーティのデベロッパーが自分のサービスに利用できることだ。

Amazon Echoは今では、ピザの注文受け付けや、Uberの呼び出し、ギターのチューニングなどにも利用されている。

しかしこれまでは、Echoという専用の端末装置がなければAlexaの能力を利用できなかった。でも、NexmoのSam Machinが2015年のハッカソンで作ったEchosim.ioを使えば、誰もがWebにアクセスしてAlexaを試せる。

Amazonはこれまで、Alexaの活躍の場所をAmazonのハードウェア以外にも広げようとしてきた。最近同社はSDKとAPIの提供を開始したので、ハードウェアとソフトウェア、両方のデベロッパーがAlexaを自分のプロダクトに統合できる。

でも、ユーザー人口が圧倒的に多いのは、なんと言ってもWebだ。

Alexaをブラウザーで試してみたい人は、Echosim.ioへ行こう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

地図上の地形的特徴でクェリすると各都市のマッチ結果(野球場、テニス場、etc.)を返してくれる画像検索エンジンTerrapattern

terrapattern

Terrapatternは画像検索エンジンだが、誰もがそれを初めて使ったとき、“何でGoogleがこれを10年前からやってないの?”、と不思議に思うだろう。地図上の特徴(施設など)…野球場、マリーナ、ロータリー、などなど…をクリックすると、アルゴリズムが複数の都市の「それはここだ!」と信じたものの写真を見せてくれる。速いし、使い方は簡単、そして可能性としてはとっても役に立つ。

実際に試してみると、その検索がとても自然であることが分かるだろう。どんな原理なのか? ひとにぎりのデジタルアーチストとデベロッパーが、35000ドル足らずでどうやって作ったのか?

最近のおもしろいヴィジュアルコンピューティングプロジェクトの多くがそうであるように、このプロジェクトも畳み込みニューラルネットワーク(convolutional neural network)を使っている。基本的にはそれはAIのようなプログラムで、画像からあらゆるデテール(細部情報)を取り出し、さまざまな構造体の中に、そのパターンを探す。それは、人間の目が相似のパターンを探すやり方と同じだが、その精妙さと柔軟性は、人間の脳が上だ。

Terrapatternの場合は、小さな矩形の地形図を見て、それをOpenStreetMapが提供している地図上の特徴のタグ付き画像の、巨大なデータベースと比較するよう、ニューラルネットワークを訓練する。それは、地形図上の情報を何らかのコンセプトに結びつけることを学習する。

たとえばカメラが人間の顔を認識して、その顔が瞬(まばた)きしてるか微笑んでいるかを判断するとき、何をどうやっているのか。それは顔や微笑みや目などを“知っている”のではなくて、それらを画素の何らかのパターンに結びつけ、相似性の高いものを拾い上げているだけだ。

terrapattern patterns

Terrapatternを訓練して、船や貯水塔など、ありとあらゆる地理的特徴を認識しカテゴライズできるようになると、それに、ニューヨークやピッツバーグ、デトロイト、サンフランシスコなどの大きな詳細地図を見せる。するとTerrapatternはそれらの地形図を舐めるように見て、特徴と類似性の巨大なデータベースを作る。そしてそれに対して、小さな矩形の地形図でクェリすると、相似物が直ちに返される。ユーザーが地形図(施設など)をクリックしたときニューラルネットワークは“考える”のではなくて、データベースのデータ集合を照合するだけだ。

そうやってユーザーはたとえば、“オークラウンドのテニス場”を見つけたり、いろんな視覚的検索が完全にできるが、Terrapatternが探すのはあくまでもパターンの相似だから、原っぱの真ん中の家、とか、行き止まりの袋小路、とか、枯れた芝生、円形の駐車場などなども、そんなパターンが見つかれば検索結果として返す。Terrapatternにとってそれは、空港やフェリーのターミナルを探すことと、なんら変わらない。それらはすべて、ニューラルネットワークにとっては、特徴の集まり〜組み合わせにすぎない。

TerrapatternはGolan Levin, David Newbury, Kyle McDonaldの三名がKnight FoundationのPrototype Fundから得たお金で作った。彼らの資金と時間では、4つの都市の特徴マップデータベースを作るのが精一杯だったが、今後はほかの都市もやっていくつもりだ。そしてうまくいけば、もっと高いレベルと低いレベルの特徴を検出したい。野球場を見つけるのはふつうのレベルだが、小さな交差点(低レベル)や刑務所(高レベル)を見つけるのは難しい。

この作品はCreative Commons 4.0のライセンスにより、無料で利用できる。彼らのコードは、GitHubにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが新サービスのアシスタントボットを搭載したAIチャットアプリ、Alloをリリース

o92a6076

本日(米国時間5月18日)のGoogle I/O(Googleの開発者向けカンファレンス)でGoogleは、コミュニケーション業界への進出ついての発表を行った。Alloはスマートメッセージアプリで、機械学習の機能を搭載の上、新サービスのGoogle Assistant(AmazonのAlexaへの対抗馬)も採用している。Allo上では、画像や様々なサイズのテキストをやりとりできるだけでなく、Google(将来的にはサードパーティアプリも対応予定)を立ち上げることで、データを共有したり、イベントを計画したり、ものを買ったりできるほか、Alloにチャット相手への返信を考させることさえできる。iOS・Android対応のアプリが発表されたが、実際にサービス提供が開始されるのは今年の夏頃になるとGoogleは語る。

1-Expressiveness_animation_v4-GIF_abbrevGoogleのニュースに目を見張っている人にとっては、Alloの発表自体には特段の驚きはなかっただろう。昨年12月のWSJの報道によると、当時GoogleはAIベースのメッセージアプリの開発を行っており、まさにAlloがそのアプリである可能性が高い。

Alloは、Googleにとってなかなかおもしろいタイミングで誕生したと言える。これまでGoogleは数々のソーシャルサービスの開発を試みてきたが、Google+、Wave、Buzzといったサービスは、FacebookやTwitter、Snapchatが流行する中、陽の目を見ることはなかった。

一方で、検索にはじまって、地図やその他の領域まで含み、情報サービスの王といえばGoogleである。Gmailの人気のほか、Googleは素晴らしい機械学習開発チームを社内に抱え、世界で最も人気のモバイルプラットフォームであるAndroidもGoogle製だ。

そのため、FacebookのWhatAppやMessenger、そのほかにもViber、Line、WeChat、ビジネスに特化したSlackなど、数々の人気メッセージアプリが溢れる今日のような状況でも、Googleが強力な手札をあたためつつ、自社のサービスが飛び立つタイミングをうかがっているとしても驚きではない。

Googleは自社サービスの利用法の大きな転換に、Alloを対応させていきたいと考えている。本日行われたI/Oのキーノートスピーチ内で、GoogleのCEOであるSundar Pichai氏は、「私たちは検索サービスにもっとアシスト力をつけようとしてます」と述べた。スピーチ中には、新サービスであるGoogle AssistantやGoogle.com上で検索を行った際に、Google Assistantが提供する様々なアシスト機能についても発表された。さらにPichai氏は、最近の検索リクエストの半数近くがモバイル端末から送られていると語っており、既に顧客となる層が存在していることがここからわかる。

Googleは当初、Alloの開発を支援する目的で、少なくともスタートアップ1社(元200 Labs、現ChatFuel)の買収を行おうとしていたが、結局は自社のチームによってインハウスで開発された。開発チームを率いたErik Kay氏は、Googleのコミュニケーションチームのエンジニアリング担当ディレクターで、本日のI/Oでもプレゼンテーションを行っていた。

また重要事項として、Googleは、Allo同様チャット機能を持つGoogle Hangoutsのモバイルアプリへの投資も継続し、Alloと共に順次アップデートを行っていくと語った。

Alloの機能

他社のメッセージアプリ同様、Alloのユーザーは、携帯電話に登録された電話番号をもとに友達をみつけることができる。さらに、GmailなどでGoogleアカウントを利用しているユーザーは、そのサービス上のコンタクト情報を読み込むこともできる。

メッセージサービス界におけるユーザー情報保護に関する動きに呼応する形で、Googleは、Allo上でもユーザーがシークレットモードへ切り替えられるようにした。これはGoogleがChromeの開発で培った技術で、全てのチャット内容は暗号化され、通知機能も控えめだ。Googleはこれらの機能について、今後もサービスに実装し続け、アップデートしていく計画だと言う。

ユーザーはAllo上で普通の会話をすることもできるが、アプリに搭載されている様々な機能を使ってこそ、Alloの真価が発揮される。

2-Smart-Replies_animation_v6-GIF_abbrev絵文字機能や、文字のサイズを変化させてメッセージの内容を強調できる「ささやき(Whisper)/大声(loud)」モードのほかにも、たくさんのAIベースの機能が備わっているのだ。

Smart Reply機能がそのひとつ。Alloが返信内容の候補を考えてくれるという機能で、Inboxの類似機能同様、これを使えば、ユーザーは返信時に何もタイプする必要がなくなる。また、Inbox上のSmart Reply機能と同じく、アプリがユーザーの返信内容を「学習」していくので、徐々にその内容の精度があがっていく。

Smart Reply機能は、Google Photosの写真に対しても有効で、画像に対する返信(ちょっと気味がわるいが……)内容も考えてくれる。食べ物の写真に対して「おいしそう!」とコメントするのが面倒なときにこの機能を使えば、会話を止めないですむ。

さらに興味深いのは、本日のI/O中に発表されたボットベースのGoogle Assistantを、GoogleがどのようにAlloと組み合わせたかという点だ。

Google Assistantにはもともと言語情報が備わっているため、ユーザーが直接会話や質問をしたり、グループチャット上で何かを計画しているときに呼び出したりすると、返事をもらうことができる。最初は、飛行機の時間や、スポーツの試合結果、上映中の映画情報や、位置情報、検索ワードなど、ほかのGoogleアプリが管理している情報を参照することができる予定だ。

リリース後は、サードパーティーアプリ内の情報を参照できるように、Googleは開発者がGoogle Assistantをアプリに統合できるような施策をとることが予想される。時が経てば、Google Assistantが、既にリリースされているほかのメッセージサービスに搭載されたボットと比べて、機能面で上回ることができるかどうかというのもわかってくる。そのなかで競争が激化し、さらに多くの機能が登場することとなるだろう。

原文へ

(翻訳:Atsushi Yukutake

チャットにも音声にも対応、Googleがバーチャルアシスタントを発表

o92a6015

Googleは本日、年1回Mountain Viewで開催しているGoogle I/O開発者カンファレンスでバーチャルアシスタントツール「Google Assistant」を発表した。

これはGoogle Nowとできることが似ていて、Google Nowのアップグレード版のようだ。質問に答えることやその質問に関連した別の質問にも回答することができる。Googleは会話を把握し、適切な答えを返すことができるということだ。Googleはこのサービスを会話ベースのユーザーインターフェイスを持つ新プロダクトに導入する。Googleの独自のチャットボットアプリAllo、そしてAmazon Echoの対抗馬であるGoogle Homeにも搭載される

「アシスタントとは何かと考えると、会話ができるアシスタントが思い浮かびます。私たちはユーザーに双方向のつながった会話をしてほしいと考えています」とCEOのSundar Pichaiは言う。

Google Assistantはチャットにも対応する。ユーザが複数の質問をしても、Google Assistantはそれぞれの質問を理解し、適切な回答をするという。Google Nowがとても賢いチャットボットになった印象だ。これはGoogleにとって重要な道筋だ。より多くのサービスが会話ベースのインターフェイスやAIを駆使したコンシェルジュサービスに注目している。

Google Assistantの直接の競合相手はAlexaやSiri、そしてHoundのようなバーチャルアシスタントだろう。ユーザーが何かを検索した時、どんなことでも回答を返すことができるバーチャルアシスタントとしてブランドを確立することにGoogleが真剣になったことを示していると言えるかもしれない。

Google Assistantのユースケースの例を挙げる。Google Assistantのユーザーは、チャットか音声で、Googleに「『ゼロ・グラビティ』の映画監督は誰か?」と聞いたとする。次に関連した質問、例えば「その監督が撮影した他の映画は?」を尋ねると、Google Assistantはその質問にも回答することができる。Google Assistantは特定のタスクなら実行することも可能だ。例えば予約時間の変更やカレンダーのリマインダー通知の設定などだ。

O92A6012

Google Nowのアップグレードに過ぎないと思うかもしれないが、それでもこれはGoogleにとって重要な動きだ。Googleは自社の検索機能を全ての端末とインターフェイスに導入したいと考えている。それはFacebookのメッセンジャーボットのような会話ベースのユーザーインターフェイスもAlexaのような音声を使ったインターフェイス、そしてGoogleの代名詞的な検索エンジンで使用する一般的な検索クエリも含まれる。

「端末を超えてどこでも使用できるアシスタントであると考えてください」とPichaiは言う。「コンピューターは電話を超えて進化します」。

Googleがこの分野に参入したのは遅くなかったかどうかというのは重要な問題だ。Houndはびっくりするようなバーチャルアシスタントを発表し、Facebookも自社のバーシャルアシスタントのアプリ開発に力を入れ、さらにバーチャルアシスタントの他の構成要素のために開発者プラットフォームを構築している。Googleは、自社の強力なAIツールと卓越したバーチャルアシスタントを構築するために何年もかけて収集したデータを活用することで勝負を挑む。Googleはデータの扱いで知られている企業だ。

Googleは(他の検索インターフェイスも)新たな端末に裾野を広げようとしているが、Googleはそれと同時にマネタイズする方法も探さなくてはならないだろう。Googleの「クリック単価」は広告の価値を示していると言えるが、ここ数年の間その価格は下がり続けている。モバイル端末からのクエリを増やすことでGoogleはその埋め合わせをしようとしているが、ビジネスを継続的に成長させるためには新たな広告商品を作る必要がある。

会話ベースのインターフェイスは検索における新たなプロダクトだ。Googleはそれに伴い新たな広告商品も構築することになる。幸いなことにGoogleは検索の広告商品を何十年にも渡って制作してきた経験があるので、このプロダクトに付随する新たな広告商品が近い将来登場する確率は高いだろう。

本日Googleは、他にもAlexaの競合製品となるGoogle Homeを発表した。これは、Google Assistantを搭載する音声認識インターフェイスだ。商品の検索に特化したAmazonや人を探せるFacebookのように個別分野に注力する競合他社に打ち勝つため、GoogleはGoogle Assistantの性能を高めること、そして新たなインターフェイスを含め、どこからでもGoogle Assistantを利用できるようサービスの対応を進めていくだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

ノーベル賞を獲得した困難な実験をAIが各種パラメータを自力で最適化しつつ自分でやれるようになった

ah1p3581

【抄訳】
オーストラリアの物理学者たちが、たぶん連日の徹夜仕事から解放されたいためだと思うが、物理の実験をほとんど監視不要で自動的に行い、ときには人力よりも上手に行うAIを作った。このようなシステムによって今後、人間研究者は面倒な手作業等から解放され、より高度な問題や研究の設計に集中できるようになるかもしれない。

このAIが行った実験は、超低温のガスBose-Einstein condensate(ボース=アインシュタイン凝縮)を作ることで、そのプロセスで2001年に三人の物理学者がノーベル賞を授与された。この実験は、一定方向のレーザー照射により原子の集団を静止に近い状態にし、さまざまな興味深い効果を作り出す。

オーストラリア国立大学(Australian National University, ANU)のチームは、少量のガスを1マイクロケルビンにまで冷却した。これは、絶対零度よりも100万分の1度高い温度である。そしてそれを、AIのコントロール下に置く。AIはレーザーの当て方を自分で考え、そのほかのパラメータも、原子をもっとも低温に冷却できるためにコントロールし、その温度を数百ナノケルビンまで下げる(1ナノケルビンは10億分の1度)。それを数十回繰り返すことによって、もっとも効率的なやり方を見つけ出す。

“レーザーのパワーの上げ下げやそのほかの操作など、人間が従来、試行錯誤でやっていたことを、このロボットがやってくれる”、とANUの共同指導研究員Paul Wigleyがニューズリリースで言っている。“マシンは実験のやり方を1時間足らずで覚えたが、それはわれわれの想定外だった。今後は、人間が考えもしなかったような複雑なやり方を編み出して、さらに低温下での実験を行い、測定の精度を上げてくれるだろう”。

Co-lead researchers Paul Wigley (left) and Michael Hush.

共同指導研究員Paul Wigley(左)とMichael Hush

ボース=アインシュタイン凝縮には、奇妙ですばらしい特性があり、エネルギーの変動に対する極端な感受性が、そのほかの実験や測定の役に立っている。しかしその極端な感受性のため、作成と維持もきわめて困難である。AIは多くのパラメータを一度にモニタし、プロセスを素早く調節する。そのやり方は人間に理解できないかもしれないが、いずれにしても効果的なのだ。

その結果、凝縮をより早く、より多様な条件下で、より大量に作り出せる。しかもAIは、食べないし寝ないし休暇も取らない。言い換えると、人間物理学者よりコスパが大幅に高い。彼らの研究論文は、今日(米国時間5/16)発行のScientific Reportsに載っている。

【後略】

参考記事。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ロボットは人間の仕事を奪うだけでなく生み出していくもの

robotboss

【編集部注】執筆者のMynul Khan氏は、専門家と企業をマッチするオンラインプラットフォームを運営するField NationのCEO。

ルンバが家の掃除をし、Siriが両親の家の近所で一番良いイタリアンのお店を教えてくれる、というのが目新しかった頃から、ロボットと人工知能の進化は止めどなく進んでいる。

車は自動で走行し、ロボットがピザを配達するなど、今まさに革命が起きようとしている。オックスフォード大学の2013年の研究によると、向こう20年でアメリカ国内に存在する仕事の半分が自動化される可能性がある。更に同研究は、数ある産業の中でも、交通・物流・事務関連の仕事が特に自動化されやすいと指摘した。その他にも、教師や旅行代理店、通訳等の職業につく人々が、ロボットに取って代わられるのも時間の問題であるという主張をする人さえいる。

このような労働機会の消失に関する予測がされる中、多くの未来学者や経済学者が仕事のない未来について考え始めている。彼らの主張は大きく2つのシナリオに別ける事ができる。1つはディストピア的なシナリオで、将来的に人間は職や収入を無くし、賃金格差の拡大や社会的混乱が起きるというもの。そしてもう1つは、各国政府が市民の収入を保障し、人々はより生産的でクリエイティブかつ起業家精神に溢れた活動を行えるようになるというユートピア的なシナリオだ。

この問題について、私はそろそろ別の角度から光を当てる必要があると考えている。つまり、労働現場にいるロボットは、むしろ仕事の幅を広げ、新たな種類の仕事を生み出す機会をもたらすという視点だ。ロボットは人間の仕事を奪うだけでなく、生み出すものなのだ。

テクノロジーの歴史

テクノロジーの進歩はこれまでにない速度で進んでいるが、大きなテクノロジーの変革を経たのはわれわれの世代が最初ではない。車輪の発明から、グーテンベルグの印刷機まで、歴史を通して人間は新たなものを生み出し、新たなテクノロジーに順応してきた。そして同様にこれまでも、新しいテクノロジーが労働者にどのような影響を与えるかということが危惧されてきた。

そしてどの例をとっても、テクノロジーは結果的に新たな産業や仕事を生み出してきた。1440年の印刷機の発明によって本の大量生産が可能になると、製本や、輸送、マーケティングや販売などの仕事が登場した。その後、印刷所が立ち並ぶようになると、印刷コストの低下し、新聞の創刊に繋がった。確かに印刷機の登場によって、写本筆記者という職業はなくなってしまったが、その代わりに新たな仕事が生まれていったのだ。

もっと最近の例で言うと、農業や繊維業を思い浮かべてほしい。1800年代には、アメリカ国内の仕事の80%が農場で行われるものであった。今ではその数字はたった2%にまで縮小している。しかし、ご存知の通り農業の機械化は経済を損なってなどおらず、むしろロボットによって農業がより簡単かつ環境に優しいものへと姿を変えたことから、更なる機械化が今日も続いている。

時を同じくして、繊維業も技術的に大きな変化を遂げた。産業革命によって力織機等の機械が生み出されたことで、織布に必要な労働力が減少したのだ。

ロボットによって生み出された職に就くために、全ての人がエンジニアになる必要はない。

職を失うことを恐れた織物工や自営の織り手によって組織されたラダイトは、イングランドで機械化に反対し、時には機械を破壊しながら反乱を扇動して、最終的には軍の力によって抑えつけなければならない程であった。今ではラダイトという呼び名は誰かを侮辱するときに使われており、彼らの心配が事実無根であったこと証明している。

私たちが将来への糸口を見つけ出すためには、過去を振り返るしかない。確かに今日人間が行っている仕事の多くは、将来的にロボットが行うようになり、労働力や人間の仕事の種類に影響を与えるだろう。しかし、歴史が証明する通り、それが必ずしも人間の仕事が無くなってしまうこととには直結しない。アメリカの労働者は、過去200年間に劇的な変化を切り抜けてきた、強靭で柔軟な存在なのだ。

未来の仕事

ロボットの弱点と、人間の長所に目を向けることで、未来にはどんな仕事が待っているかというのを想像することができる。

ロボットは未だ、交渉や説得といった複雑なタスクをこなす能力を持っておらず、問題解決能力に比べて、新たなアイディアを生み出す能力に劣る。つまり、部下を持つマネージャーや看護師、アーティストや起業家等、創造性や感情的知性、社会性が要求されるような仕事はすぐにはなくならないだろう。

そして私たちは、テクノロジーが上手く機能したときの高揚感と、上手く機能しないときの不満感について良く理解している。最先端のテクノロジー企業でさえ、人間が所属するカスタマーサポート部署を完全には閉鎖していない。何か問題が起きたときに、それを解決するのは多くの場合人間だからだ。

これからも機械を相手にしていく上で、現場の人間やその専門性は欠かせないものであり続けるだろう。ロボットは誤作動することもあれば、アップデートや新たなパーツが必要になることもある。機械化されたシステムや自動装置への私達の依存度が高まっていく中で、システムやハードの運用・交換・更新・保守を行う技術的なスキルを持った人に対する需要は高まって行くだろう。

そしてその傾向は既に現れて始めている。デジタルテクノロジーの導入以後、IT部署がどの会社でも誕生し、ネットワーク管理者やウェブディベロッパー、保守技術員といった肩書は30年前には存在さえしなかった。

テクノロジーは、単に社内の部署や仕事だけでなく、全く新しい企業やビジネスを生み出してきた。あるパーツが壊れていたら、誰かがロボットを修理しないといけないし、自動運転車にも整備士が必要なように、技術的なスキルへの需要は自動化が進むことで増加していく。

新しい仕事は、ナノテクノロジーやロボット工学のように科学(Science)やテクノロジー(Technology)、エンジニアリング(Engineering)や数学(Mathmatics)のSTEM分野を中心に生まれていくだろう。2011年のある研究によると、100万台の工業機器の導入によっておよそ300万もの新たな仕事が生み出されていた。更に調査対象となった6ヶ国のうち、5カ国でロボットの増加つれて失業率が下がっていったことがわかっている。

この研究から、新たな仕事がSTEM分野以外にも生み出される可能性があることがわかる。また、著者は今後ロボット導入の直接的な影響で、雇用者数が増えるとされる6つの業界について触れている。自動車、電子機器、再生エネルギー、高度システム、ロボット工学、食品と飲料がその6つだ。ロボットによって生み出された職に就くために、全ての人がエンジニアになる必要はない。

また、ロボットの導入によって仕事や職場を失う恐れから、現代のラダイトになる必要もない。むしろ、これまでのテクノロジーがそうであったように、ロボットは私達の生活を豊かにしてくれるものであり、更には新たな仕事が生み出してくれるものであると歓迎さえできる。

私は将来ロボットが雇用を増加させ、私たちが今では想像もつかないような刺激的な仕事を生み出してくれるのを楽しみにしている。

原文へ

(翻訳:Atsushi Yukutake

1万人以上がFacebookのチャットボットを開発している、アナリティクス機能も製作中

facebook-messenger-bots

Facebookのチャットボットの利便性に対する不満があがっているものの、Messengerのプロダクト責任者であるStan Chudnovsky はTechCrunch Disrupt NYのステージで、何万人もの開発者が開発を進めていると明かした。また、Shopifyの5000店はすでに注文確認や出荷通知などMessenger経由で配信していると話し、Eコマース企業がアプリの10億人近いユーザーにリーチしたがっていることを示した。

ChudnovskyとTechCrunchのFacebookのリポーターJosh Constineのパネルの一部始終はこの動画で見ることができる。

ボットとのやりとりは増えてきている。Messengerのプラットフォームに登場した人気のチャットボットにActivisionのCall of Dutyボットがある。このボットは提供開始から最初の週で、600万近いメッセージをユーザーとやりとりし、エンゲージメントが高まったことを示した。

問題はボットがスパムっぽくなると、Messenger内の友人からのメッセージが埋もれてしまうことだ。そうなればユーザーはMessengerが鳴る度にスマホをチェックしなくなってしまうだろう。幸いなことにChudnovskyは、ユーザーをボットスパム、遅延メッセージ、大量の配信メッセージから守るための方法を考えているという。ボットの配信では異なる音や振動パターンで知らせたり、通知を一切出さない方法などだ。

理想的にはFacebookが踏み込むのではなく、開発者自身がスパムにならないよう管理することに期待している。今の所開発者は、ボットのパフォーマンスに関する知見を少ししか得られない。Chudnovskyは、Facebookは網羅的なMessengerのチャットボット用アナリティクス・システムの開発に注力していると認めた。それにより、開発者はどのようなメッセージがユーザーに嫌われ、ブロックされたり、ボットを放棄させたりしているかが分かる。また、どのコールトゥアクションやメッセージのタイミングがもっともエンゲージを促しているかも分かるようになる。

tcdisrupt_NY16-4600

Messengerはより良いユーザーとビジネス間のコミュニケーションを促進するプラットフォームを公開したが、ConstineはチャットボットはMessengerから人間の温かみがなくすことにならなかと聞いた。

Chudnovskyは、タッチトーンによる連絡網や待ち時間など、既存のビジネスとカスタマー間のコミュニケーション・ネットワークの大部分はロボット的だと話す。彼は、Messengerのチャットボットプラットフォームはこのやりとりを改善できる可能性が大いにあると説明する。

「人と企業間の連絡を簡単にすることができるなら、そこに大きなチャンスがあると思います」と Chudnovskyは言う。

CiGnLYlVEAI1_EC

「カスタマーサービスの体験に人間らしさを加えたいと考えています。電話するよりテキストでチャットした方が簡単です」。

このパネルから分かったことはMessengerにおいてマイナーな変更は稀だということだ。 ChudnovskyはConstineにプラットフォームのグループ通話機能は、さほどプロモーションを行っていないにも関わらず最初の24時間におけるVoIP音声通話の合計時間は1100万時間近くに及んだという。

グループ機能の成功について語ったものの、次に動画グループ通話を実装するかの質問には端的に「ノーコメント」と言った。ただ、「動画グループ通話は素晴らしい体験であると私たちも考えています」と話していた。

  1. tcdisrupt_ny16-4614.jpg

  2. tcdisrupt_ny16-4606.jpg

  3. tcdisrupt_ny16-4610.jpg

  4. tcdisrupt_ny16-4600.jpg

  5. tcdisrupt_ny16-4613.jpg

  6. tcdisrupt_ny16-4612.jpg

  7. tcdisrupt_ny16-4611.jpg

  8. tcdisrupt_ny16-4602.jpg

  9. tcdisrupt_ny16-4594.jpg

  10. tcdisrupt_ny16-4598.jpg

  11. tcdisrupt_ny16-4601.jpg

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

未来のカスタマーサービスの形、ボットやメッセンジャーは現状を変えられるか

robot-customer-service

【編集部注】この記事の執筆者Michael Schneider氏はServiceの創設者兼CEO。

1970年代の企業では、CFOとCEOがデスクを囲み、顧客が簡単に補償請求できないようにどうやって困らせるかという方法を思案していた。電話の自動音声機能を利用してみたり、難解で融通が利かないポリシーを作ってみたりして、顧客からの苦情に「屈しない」ことを喜んでいたのだ。

当時はそれで良かった…ソーシャルメディアの登場までは。今では「一般人」が、有名人と同じ位の発言権を持っており、不満があればすぐに企業の注意を惹くことができる。

先月F8(Facebokが主催する開発者向けカンファレンス)を見ていて、本当に将来はチャットを開いて必要な情報を入力すれば問題が解決するほど簡単に物事が進むのか考えずにいられなかった。花の注文はできる。ニュースを取得することもできる。天気もチェックできる。しかし、本当にテクノロジーを利用してカスタマーサービスを行うことはできるのだろうか?

これまでケーブル会社に電話して「永遠に」電話が繋がらないという経験をした人の中で、チャットを通して担当者に連絡して、すぐに問題を解決したいとは思う人はどのくらいいるだろうか?(Amy Schumerなら同意するだろう)どのくらいの人が、航空会社とチャットをしてリアルタイムで問題に対処してほしいと感じているだろうか?言うのは簡単だが、現実はそこまで甘くない。

ほとんどの人、特に若者にとって、チャットは電話よりも気軽に使うことができるコミュニケーション手段だ。しかしチャットも万能ではない。もともと問題を上手く伝えることが出来ない人は、チャットを使っても上手く説明できるわけがない。担当者側も、イラついている日はチャット上で、自動音声のように融通が利かず、同情心に欠けた対応をするだろう。手段を変えるだけでは、カスタマーサビスの問題は解決しない。

しかし、ボットを利用することでカスタマーサービスの効率化を図ることはできるかもしれない。ボットは、担当者とのやりとりを通して情報を収集することができ、正確に何が起きたか、また顧客が何を求めているか、更には基本的な問題を解決するまで機能を高めることができる。しかも全て自動で。

ボットの概念自体はカスタマーサービス界でも長らく利用されていた。現状でも自動音声の指示に従って口座番号や、何についての電話かを口頭で伝えたり、リクエストに応じてプッシュボタンを使ったりできる。ここでの違いは、自動音声は基本的に顧客をイラつかせるのに対して、チャットボットはその逆の効果を持っているということだ。

「ボット」と「人間」のバランスは企業ごとに変わってくる。更にはボットの品質、そして何より人間の担当者の質がカスタマーサービスではモノを言う。

私は、人間とボットが上手く組み合わされれば、うまく業務を行うことができると信じている。ここでいう「業務」とは、困っている顧客を幸せにしつつ、ビジネスとしても損をしないことを指す。

これからAI(ボット)の性能はますます向上していき、様々な企業が問題解決の手段として利用していくようになるだろう。チャットを通じてケーブル会社に連絡すると、(電話だと5〜25分もかかるのに対して)30秒でアポイントが設定できるような状況を想像してみてもらいたい。量販店が不良品をすぐにとりかえてくれるとしたらどうだろうか。また、ホテルが不満に対してポイントで埋め合わせしてくれればどんなによいだろう。ボットを使えばこれら全てを自動で対応することができ、企業にとって大切(で高くつく)人間の担当者を、本当に人が対応する必要がある問題にあたらせることができる。

FacebookのMessengerプラットフォーム以外にも、将来的にはいくつものプラットフォーム上でカスタマーサービスの問題を解決できるようになるだろう。賢いソフトと少し人の温かみが組み合わさることで、顧客はよりよいサービスをうける事ができる。企業も不快なツイートの嵐や、ネガティブなオンラインレビューといった、現代の消費者ができるようになってしまったブランドイメージを傷つけるような行為を回避できる。

未来のカスタマーサービスの場では、顧客が希望する手段(恐らく電話以外)で連絡をすることが簡単にでき、理想的には人間の手を介さず(知的ソフトウェアを使って)、より短時間で問題が解決できるようになるだろう。

将来的には、「カスタマーサービス」とは、顧客が怖がりながら連絡するものではなく、企業と顧客を強く結びつける手段になるだろう。優良なカスタマーサービスこそが一番のマーケティングであり、チャットボットはその大きな助けとなる。

原文へ

(翻訳:Atsushi Yukutake

TechCrunch Disrupt:Siriの共同ファウンダーが音声認識で会話する次世代AI、Vivアプリをデモ

2016-05-10-tcdisrupt_ny-kittlauspg

自然言語の音声認識をベースにした人工知能インターフェイスの有用性はコンピューティングにおける新たなパラダイムシフトを起こしつつある。

今日(米国時間5/9)、ブルックリンで開幕したTechCrunch Disrupt NYのステージで、Siriの共同ファウンダー、元CEOのDag Kittlausが新しい人工知能プラットフォーム、Vivで開発されたアプリを初めて公開デモした。Kittlausによれば、Vivは「すべてに対応する知的インターフェイス( intelligent interface for everything)」だという。

VivのデモでKittlausは事実、「パラダイム」という言葉を少なくとも10回は使った。Kittlausは次世代のコンピューティングについても触れ、Vivが「さまざまな対象にいわば命を吹き込み、人間との会話を可能にするだろう」というビジョンを述べた。

目を皿のようにした大観衆の前だったにもかかわらず、ライブのデモは目立った齟齬もなくスームズに進んだ。

Kittlausはまず「今日の天気はどうなるだろう?」という質問からデモを始めた。そこから話題はVivがいかに複雑な問題に取り組まねばならなかったが説明された。

「ゴールデンゲートブリッジ付近で、明後日の午後5時以降、華氏70度(21℃)以上になるだろうか?」とKittlausはステージ上でVivに尋ねた。

Vivはこの質問に難なく答え、これに続く奇妙なほど詳細な質問にも適切に対応した。

Dag Kittlaus of Viv

このレクチャーで明らかになったVivの強みの一つはサードパーティーを歓迎するオープンな姿勢だ。Vivはデベロッパーがアプリを開発する際に組み込まれるバーチャル・アシスタントのプラットフォームだ。デモでKittlausはVivに友達に20ドル支払うよう命じた。するとVivは提携アプリのVenmoを立ち上げ、「支払」ボタンが表示された。あとは1回タップするばかりとなった。

Kittlausは「サードパーティーのエコシステム」がVivにとって決定的に重要であることを強調した。KittlausはVivが将来、「ユーザーにとって普遍的なリソース」となることを期待している。

Vivの特長の一つは「質問の積み重ねが可能」な点だ。Siriは一つ質問に答えられても、その後は何を質問されたか忘れてしまう。これに対してVivはある質問に答えた後でも何を質問されたか覚えており、最初の質問をフォローする質問を受けた場合もよどみなく適切に反応する。

TechCrunchの編集長、Matthew Panzarinoの壇上での質問に答えてKittlausは他のAIアシスタントとVivとの差異を詳しく語った。

それによると、Vivの強みの秘密は「ダイナミックなプログラム生成」にあるという。固定したプログラムにもとづいて固定した反応を返すのではなく、VivのAIは質問を理解するとそれに適切に答えるためのプログラムを動的に生成する。

Kittlauは「プログラマー側で処理コードを1行ずつ書く必要なしに、Vivは尋ねられたことに答えるための処理を行うプログラムを自ら書く。Vivの最大のメリリットはアプリのプログラマーが〔AIの詳細に立ち入らずに〕どんな反応が必要かさえわかっていればいいという点だ」と述べた。

デモを見ているうちに、必然的にSiriとの比較が頭に浮かんだ。Siriはデビュー当初、画期的な進歩だと賞賛されたものの、次第に欠点も浮き彫りになっていった。現在、Siriについて「日常の情報源として利用するには信頼性が不足している」という批判が強まっている。

この状況は、SRIで開発された人工知能テクノロジーを2007年にSiriとして実用化したのがほかならぬKittlausのチームだったという点で皮肉だ。Siriが発表されたとき、Kttlausが用いた表現は、Vivの将来を描写した表現とよく似ている。Siriは当初オープン・コンピューティングをサポートするとしており、リリース時点で45種類のサードパーティーのサービスをサポートしていた。しかしSiriはその後すぐ、2010年に2億ドルでAppleに買収され、iOS専用のアシスタントとなり、サードパーティーのサポートはすべて打ち切られた。

Vivの開発はこの4年間、どちらかというとステルス的に行われてきた。Vivは昨年、Iconiq Capitalから1250万ドルを調達したが、Forbesの記事によれば、それ以外にもFacebookのマーク・ザッカーバーグやダスティン・モスコヴィッツ、シェリル・サンドバーグ、Twitterのジャック・ドーシー、LinkedInのリード・ホフマンらに支援されているという。

Q&Aセッションでは聴衆からWashington Postが報じたようなFacebookやGoogleによるVivの買収の可能性に関する質問が出た。これに対してKittlausは「そういう噂があるようだ。誰でも記事を読むことはできる」と受け流した。

この質問はVivにしたほうがよかったかもしれない。

聴衆からはVivが広く利用可能になるのはいつかという質問が多数出たが、Kittlausは特定の日時を明かすことを避けた。ただし「最初の提携アプリは今年後半には登場するだろう」と述べた。

[原文へ]

(翻訳:滑川海彦@Facebook Google+