IBMがディープラーニングのモデルの訓練を分散並列処理で短時間化するライブラリを発表

二か月前にFacebookのAI研究所FAIRが、大規模な分散ビジュアル認識モデルの、かなり感動的な(==短い、はやい)訓練時間を発表した。今日(米国時間8/7)はIBMが反撃に出て、独自の数字を発表した。IBMの研究グループによると、1000のクラスに対応する画像分類モデルResNet-50を、256のGPUを使用するシステムで50分で訓練できた。つまり、Facebookのモデルよりもはやい、と言いたいのだ。FacebookがCaffe2を使った結果では、同じResNet-50を、8kのミニバッチ方式で、256のGPU上で1時間で訓練できた。

しかしそもそも、それのどこが重要なのか? 分散処理はAIの研究でも重要な関連分野だが、でもそれは、科学的というより、あまりにも技術的なテーマだ。しかもディープラーニングのような大きなジョブは、ジョブを分割し、複数のCPU(ここではGPU)に分担させて同時並行的にやるのが、大規模高速コンピューティングの昔からの定石だ。

しかしディープラーニングのモデルの訓練では、GPUの台数と処理速度が単純に比例しない。1台のGPUで2分かかる訓練が、2台のGPUだと1分で済むか、というとそうは行かない。タスクの分割と結果の再結合という面倒な処理が、かなりの時間を食う。

IBMが約束しているのは、大きなディープラーニングの問題を数百の小さな問題に分割して効率的に行う、分散ディープラーニングライブラリだ。それらは単一のコンピューティングジョブが目的ではなくて、IBMやFacebookが毎日のようにやっているのは、何百万もの顧客のためのモデルの訓練だ。大手のテクノロジー企業はどこもそんな課題を抱えているが、企業により問題により変数の数や性質が異なるため、それらを単純に横並びで比較することはできない。

しかし、分散処理の漸進的な改良にもそろそろ限界があるのではないか。IBM Researchでシステムのスピードとメモリを担当しているディレクターHillery Hunteによると、今やどこも最適解に近づいている、という。

“今やシステムの能力の限界まで来ているから、最適解に近いと言える。今後の改良の大きさがどの程度になるのか、そもそも学習時間にこれ以上の改良は可能なのか、そろそろ問うてみる必要がある”。

IBMは今後ResNet-50だけでなくResNet-101も分散訓練を試してみる予定だ。101は50よりもずっと大きくて複雑なビジュアル認識のモデルだ。チームによると、GPU 256基の分散システムの上で、データセットとしてImageNet-22kを使って行ったResNet-101の訓練では7時間を要した。それは、かなり良好な結果だそうだ。

“この分散訓練は小さなシステムにもメリットはある”、とHunterは言う。“しかもGPUが256とか、システムが64までは(小さなシステムでは)要らないからね”。

このディープラーニングライブラリは、TensorFlowやCaffe、Torchなど、主なオープンソースのディープラーニングフレームワークで利用できる。自分で試してみたい方は、PowerAIから入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

本人が何も装着せず、電波の反射波を利用する非侵襲型(当人が意識しない)の睡眠モニタをMITで開発

MITの研究者たちが、睡眠をワイヤレスでモニタする新しい方法を公開した。それは反響定位法(エコーロケーション, echolocation)に似ていて、電波を睡眠者に当てて反射波を捉え、体の影響による電波の変化を調べる。

チームはこれまでも、低出力の電波をモニタリングに利用する方法をいろいろトライしてきたが、今回のはその最新の成果だ。今回はAIを利用することによって、睡眠者の体のわずかな動きでも、電波の変化の中に捉えることができた。それにより、睡眠ステージ(浅い深い、REM/NREM)、睡眠中の運動、呼吸率など、睡眠のパターンに関する有意味な情報を得ることができた。

テストは25名のボランティアに対し、100晩かけて行われた。研究の指導教授Dina Katabiによると、そのシステムは80%の正確度で睡眠パターンを検出できた。それは業界標準の睡眠テストEEGにほぼ匹敵する。

睡眠の追跡調査はFitbitやApple Watchのようなウェアラブルでもある程度行われているが、それらはもっぱら、スマホが内蔵している加速度計を使って体の動きを検出し、それにより睡眠のパターンを判断している。

“ウェアラブルもいいけど、われわれのねらいは、目に見えないものを捉えることだった”、とKatabiは語る。“それは家庭の中で、みんなが忘れてしまうぐらい目立たないが、しかしそれと同時に、ワイヤレスの信号だけを使って健康上のあらゆる問題をモニタできる”。

そのワイヤレスシステムは、取り上げる要素がウェアラブルよりずっと多い。動きだけでなく、呼吸や心拍も捉える。それでいて、まったく生活の邪魔にならず、ベッドから数メートル以内の棚や壁に目立たない形で置ける。

使用する電波はWi-Fiよりずっと弱く、一家の中で複数台を複数の人に対して使える。調整などは要らない。被験者にとって、まったく気にならない存在であることも、本機の理想的な性質だ。

本人がその存在を忘れている状態で長期の検診ができるから、パーキンソン病やアルツハイマー病のような睡眠障害と関係の深い疾病のモニタにも向いている。ただし、そこまで一般化大衆化するためには、まずFDAなどの認可が必要だ。結果はすでに良好だから、それも大丈夫だと思えるが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AI対AIやAI対人間を“戦わせる”ことでイノベーションを喚起するNIPSカンファレンスのコンテスト

ちょっとした競争心が、イノベーションのきっかけになることがある。そこでNeural Information Processing Systems(NIPS)カンファレンスは、競争するAIシステムを今年のテーマにした。そして、人が歩くときの筋肉の動きを模倣するシステム、雑学クイズ・チャンピオン、画像の微妙な操作など、さまざまなテーマで競い合うことになった。

NIPSの今年のこの新しい企画には23種の‘競争するAI’がテーマとして提案され、最終的に5つに絞られた。カンファレンスが行われるのは12月の初めだが、どれも、片手間で簡単に作れるようなシステムではないので、戦いは今からすでに始まっている。どのテーマもすでに、応募作は相当多い。

コンテストは一つ々々が独立していて、スポンサーが付いたり、賞金が出るものもある。

走ることの学習: これはたぶん、視覚的にいちばんおもしろいコンテストだろう。このシステムは人間が歩く動作をするときの、脳による筋肉と骨のコントロールを模倣する。生理学と物理学のシミュレーションだが、滑る床や階段、弱い筋肉、といった障害も設定されている。目標は歩き方を知っているAIを作るだけでなく、脳性麻痺の人に手術をした場合、歩き方にどんな影響が現れるか、といった問題意識もある。コンテストの詳細はスタンフォード大学のニュースリリースにあり、リーダーボードのGIF画像がなかなかおもしろい。AmazonがAWSのクレジット3万ドルぶんを賞金として提供している。

NNの敵対的攻撃と防御(Adversarial Attacks and Defenses): 私たちはすでに、画像を認識するニューラルネットワークをあちこちで見ている。それらは人間の顔や、猫、風景などを認識する。それらは、あらゆる種類の低レベルデータに対する独特のロジックで動くから、その判断を騙して、まったく違うものに認識させてしまうことも可能だ。もちろん、画像そのものを別のものに変えたりはしない。このコンテストは、NNを騙す悪役と、それに対する防御を作品として募集する。〔訳注: この項については、Google検索やWikipediaなどで、Generative Adversarial Net, GANを勉強すると、理解できると思います。〕

人と会話できるAI: このコンテストの目標は、できるかぎり人間のように振る舞えるAIを作ることだ。ボットと人間が対面して、両者に、最新のニュースやWikipediaの記事などを読ませ、それについてなるべく長く会話をする。応募作品に制限はないが、最優秀のボットが12月のNIPSに出場する。優勝賞金は1万ドルだ。チャットボットの進化に前から関心のあるFacebookが、“プラチナスポンサー”になり、本誌TechCrunch DisruptのStartup Battlefieldに出たMaluubaが、“シルバーパートナー”になる。それらの意味は、よく分からないけど。

人間対コンピューターのQ&A: このコンテストの応募者は、小型のWatsonを作る。そのWatsonは、Jeopardyで人間を負かしたときのバージョンぐらいの実力が必要だ。システムは一回に一つずつ、クイズのような質問を与えられ(例: ローマ帝国の第四代の皇帝は誰か?)、人間よりも早く、少ない語数で…もちろん正解を…答えたらポイントをもらう。NIPSで、人間とコンピューターの決戦を見ることになるだろう。“エキシビションマッチで人間チームと対戦するときのシステムの組み合わせは、出場者(システムの作者)が決めてよい”そうだ。

遺伝子突然変異の臨床的応用性のある分類法: 癌の悪性腫瘍を生じさせている遺伝子と、それらの腫瘍を破壊する遺伝子が分かったら、癌の拡大を防げるかもしれない。でもそれは、専門家たちによる、難しくて時間のかかる研究開発過程だ。しかし、もしも、何千もの遺伝子突然変異に関するそれら専門家たちの注記注釈にアクセスできたら、ニューラルネットワークを使った機械学習に出番があるかもしれない。すくなくとも、今後の研究対象を絞り込むぐらいは、できるのではないか。優勝賞金1万ドルは、Memorial Sloan Kettering Cancer Centerが提供する。すでに、685の応募作が寄せられている!

コンテストの結果が分かるのは12月だが、作品の応募だけでなく、議論に加わることは今からでもできる。参加は、自由だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが機械知性スタートアップの育成と支援のためにAI Studioを開始

新しい週の幕が開いて、Googleによる、AIのスタートアップをターゲットにした新しいプログラムが発表された。今月の初めには、私たちはGoogleの決算資料上に、そのAI投資ファンドであるGradient Venturesの名を目にしたばかりだ。またその2日後には、Google Cloudマシンラーニングコンテストのファイナリストたちが、トップAI投資家たちに向けてプレゼンを行う様子を見た。そして今日(米国時間7月26日)、GoogleのLaunchpadが、意欲的なAIのスタートアップたちに、事業を離陸させスケールアップするために必要リソースを提供する、新しい実践プログラムStudioを発表した。

狙いはシンプルなものだ。すべてのスタートアップが同じように作られるわけではない。AIのスタートアップたちはデータを必要とし、それを十分に得るために奮闘している。彼らはしばしば、新しいデータが入手できる度に、段階的に市場投入しなければならない。そして通常、高度な技術チームを抱えながらも、製品化の才覚には欠けていることが特徴だ。もうお分かりだろう。

LaunchpadのStudioプログラムは、特化したデータセット、シミュレーションツール、およびプロトタイプ作成支援などの提供を通して、これらのニーズに真正面から取り組もうとしている。Launchpad Studioの別のセールスポイントは、プログラムに採用されたスタートアップたちは、Google社内の、エンジニア、IP専門家、プロダクトスペシャリストなどのリソースにアクセスできるということだ。

「これまでにLaunchpadは世界40カ国で運営されています」と、説明するのはGoogleのアクセラレーター事業のグローバルリーダーであるRoy Geva Glasbergだ。「私たちは世界で、1万を超えるスタートアップと協力し、2000人以上のメンターを訓練しました」。

このメンターベースのコアメンバーは、Studioを支援するためのメンターを募集するためのプールとして機能する。Launchpadの取締役であるBarak Hachamovは、今回のプログラムのための新しいメンターを決定するために、Glasbergと共に世界を巡ってきた。

スタートアップ向けスタジオのアイデア自体は新しいものではない。ここ数年のうちに、何回か試みられてきたものの、最終的にはAndy RubinのPlayground Globalに人材を奪われたようである。Playgroundは、スタートアップに手厚いサービスを提供し、製品のために最高のタレントへのアクセスを可能にし、最大のハイテク企業たちと競争している。

AI Studioに先立ち、Yoshua BengioのElement AIが、同様のプログラムを立ち上げるために、シリーズAで1億200万ドルを調達している。最も有名なAI研究者の1人であるBengioは、GoogleのDeepMindやFacebookのFAIRのようなトップAIグループと対等に付き合うことができるので、最高の機械学習タレントを引き付けることが可能だ。Launchpad StudioにはBengioは参加していないが、Peter Norvig、Dan Ariely、Yossi Matias、そしてChris DiBonaが担当者として参加する。

しかし、ベンチャーキャピタルと組んだ3億ドルの資金を持つPlaygroundや、自己資金を持つElement AIとは異なり、Launchpad Studioには実際に提供する資金はない。あとは資金があれば完璧だとはいうものの、一方では、良いAIスタートアップが、資金を調達できないと嘆くのを私は聞いたことがない。

Launchpad Studioは、Google Developer Launchpadネットワーク上に置かれる。同グループはこれまで、世界規模でアクセラレーターを運営してきた。現在は4回目のスタートアップたちのクラスで、チームは立ち上げの不安を和らげるために、ビジョンを具体化し、Google内の専門家との関係を構築する時間持つことができている。

「LaunchpadはGoogleによるスタートアップのためのグローバルプログラムとして位置づけられています」とGlasberg氏は語る。「これは、Googleが世界各地でスタートアップに手を差し伸べ、能力を与え、訓練を提供し、サポートを行うために持っている、最も拡張性の高いツールです」。

世界中のすべてのリソースを利用する、StudioにおけるGoogleの最大の課題は、ビジョンや実行そのものではない。全てがスムースに進むことを保証するものではないということだ。GVCapital GGradient Ventures、GCP、そしてStudioと、起業家たちは沢山の接点をGoogleとの間に持つことになる。

理論上は、Launchpad StudioはGoogleプログラムの中のスイスである。すなわち収益やGoogle Cloudのポジショニング強化を目指すものではない。しかし、創業者たちの視点からすれば、多少の混乱があることには留意しなければならない。もし理想的な世界なら、私たちはLaunchpadのGlasberg、GradientのAnna Patterson、そしてGCPのSam O’Keefeの志が合わされたものを見ることになるだろう。

Launchpad Studioはサンフランシスコを拠点とし、テルアビブとニューヨークでも事業を展開する。最終的には、トロント、ロンドン、バンガロール、シンガポールでA創業者たちのためのローカルイベントが開催されるだろう。

既にスタジオへの申請は開始されている。もし興味があればここから申し込むことが可能だ。プログラム自体はスタートアップの段階には関係しないので、企業サイズに制限はない。理想的には初期段階と後期段階のスタートアップたちが、機械学習モデルを大規模なユーザーに拡大する際に互いに学ぶことができるだろう。

[ 原文へ ]
(翻訳:Sako)

ネットマーケティングのHubSpotがAIによる営業トークの効果アップを目指してKemviを買収

マーケティング・テクノロジー*のHubSpotが、人工知能と機械学習で営業を支援するKemviを買収した。〔*: たとえばソーシャルメディアへのパブリシティ活動を代行する。〕

数か月前にKemviが立ち上げたDeepGraphは、一般公開されているデータから営業のベストタイミングを見つけるデータ分析ツールだ。売り込み先の企業の、業務の変化とか、何かの記事の発表、などのタイミングに合わせて、売り込みを仕掛ける。また、今後起きることを見越して、先取り的に営業を展開することもできる。

KemviのファウンダーでCEOのVedant Misraはこう説明する: “インターネット上の膨大な量のテキスト情報から、業界や世界の最新の動向を取り出し、営業やマーケティングの能力を高めることが、うちの仕事だ”。

そしてHubSpotの側としては、同社の戦略担当常務Brad Coffeyによると、同社はそのプラットホームへのAIの導入を志向していた。彼曰く、AIや機械学習は今安易に使われているバズワードだが、Kemviは営業の人たちの現実的なニーズに対応しているので、魅力を感じた。

“重要なのは、顧客に具体的な価値を提供することだ”、とCoffeyは語る。“彼らにはそれがある。顧客が事業の成長のために必要としている情報、彼らのお客さんの心をつかむ情報、そういう情報をマーケティング部門や営業に提供できる。機械学習やAIは情報を精選するために利用するのであり、単に勉強のために導入するのではない”。

Kemviのチームは、Misraを含めて二名だ。彼らがHubSpotに入って、その技術をHubSpotのプラットホームに統合する。同時にそれと併せて、既存のKemvi/DeepGraphの顧客に対する移行プランもある。“彼らも、HubSpotとの合体を喜んでくれるだろう”、とMisraは語る。

この買収の財務的条件は公表されていない。Kemviは過去に、 Seabed VC, Neotribe Ventures, Kepha Partnersなどから100万ドルを調達している。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Qualcommのモバイルチップ化したディープラーニングフレームワークが完全にオープン化

モバイルのチップメーカーQualcommは、あらゆる種類のデバイスの上でディープラーニングを利用するソフトウェアの開発ができるようにしたい。同社がそのSnapdragonシリーズのモバイルプロセッサー用にNeural Processing Engine(NPE)を作ったのも、そのためだ。そのNPEのソフトウェア開発キットを、誰もがQualcomm Developer Networkから入手できるようになった。これはそのSDKの最初の一般公開リリースで、スマートフォンや車載プラットホームなど、さまざまなデバイスの上で行うAIコンピューティングの、大きなそして多様な可能性を開くものだ。

このフレームワークの目的は、SnapchatやFacebookなどがモバイルのカメラアプリでやっているような画像のスタイル変換〔eg.“ゴッホふう”〕や各種のフィルタなどのUXの実装を簡単に可能にし、ユーザーの写真に対するもっと精度の高いアプリケーションを作れるようにすること。また、シーン検出や顔認識、オブジェクトの追跡や回避、自然言語処理といった各種のファンクションをディープラーニングのアルゴリズムによって高性能にすることも、目的に含まれる。要するに、これまでは強力なクラウドサーバーや先進的なプロセスにお願いしていたようなタスクを、デバイス上でローカルにできるようにしたいのだ。

NPEの初期的アクセスを獲得したデベロッパーの中にはFacebookもおり、同社はすでに画像やライブビデオ上のARの性能を、QualcommのSnapdragon SoC上のAdreno GPUを使って従来の5倍にすることに成功している。

NPEはTensorflowやCaffe2など一般的によく使われている一連のディープラーニングフレームワークをサポートし、Snapdragon 600/800シリーズのプロセッサープラットホームで使用できる。

今後ますます多くのテクノロジー企業がAIベースの計算機能をリモートサーバーからローカルなプラットホームへ移して、信頼性を高めるとともにネットワーク関連の面倒な要件から逃れようとするだろう。そうなるとこれはQualcommにとって巨大な財産になり、モバイルの次に優勢になるテクノロジーのトレンドが何であれ、それに乗り遅れるおそれはなくなるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apple、機械学習研究サイトを開設

Appleは機械学習に関する研究論文と同社の発見を共有するための専用ブログを開設した。Apple Machine Learning Journalと名付けられたそのサイトはまだガラガラで、ニューラルネットワークの訓練のために合成画像をリアル化することに関する記事が1件あるだけだ。

この動きは興味深い。なぜならAppleは自社の研究プロジェクトについて何も語らないのが普通だからだ。これまでにAppleはいくつか重要なオープンソースプロジェクトに貢献し、Safariを動かしているブラウザーエンジンであるWebKitや、Appleの最新プログラム言語でiOS、macOS、watchOSおよびtvOSに使われているSwiftなども開発している。しかし、人工知能プロジェクトに関する研究論文を掲載するブログは、Appleとしては新しい試みだ。

これはいくつかの理由で興味深い。第1に、この研究論文はすでにarXivで公開されている内容だ。今日のバージョンは同じものを少しやさしい言葉で書き直している。結果を図示するためのGIFも追加されている。

この論文によると、Appleは写真に写った顔などの物体を認識するためにニューラルネットワークを訓練する必要があった。しかし、そのために何億枚もの写真ライブラリーを作る代わりに、Appleはコンピューター生成画像を合成し、本物らしく見せるフィルターをかけた。こうしてニューラルネットワークの訓練を速く安価に行うことができた。

第2に、Appleはサイト開設の挨拶文で、フィードバックをメールするよう読者に呼びかけている。さらにページの下にはAppleの求職情報へのリンクが大きく表示されている。Appleがこの場を利用してこの分野の有望なエンジニアを探そうとしていることは明らかだ。

第3に、機械学習に関しては多くの人がAppleを批判し、GoogleやAmazonの方が進んでいると言っている。そしてAppleに動きがなかったのは事実だ。GoogleのアシスタントやAmazonのAlexaなどの消費者向け製品はAppleのSiriよりずっと優れている。

その一方でAppleは、端末上のフォトライブラリーの解析や、iPhone 7 Plusの深度効果、ARkitによる拡張現実への取組みなどでは大きな成果を見せている。Appleはこれまでの評価を一新しようとしている。

[原文へ]

(翻訳:Nob Takahashi / facebook

LINEのスマートスピーカー「WAVE」、7月14日に先行体験版を予約開始

6月15日に開催されたプライベートカンファレンス「LINE CONFERENCE 2017」でお披露目があった、スマートスピーカー「WAVE」。その先行体験版の予約が7月14日から始まるようだ。予約サイトでは7月12日現在、カウントダウンが始まっている。

WAVEはLINEのクラウドAIプラットフォーム「Clova」を搭載した、スマートスピーカーだ。家庭内での使用を想定しており、Wi-FiおよびBluetoothに対応。音楽配信サービス「LINE MUSIC」で提供する約4000万曲の楽曲が再生でき、音声操作で曲の検索やレコメンドも可能な「MUSIC」機能をメインに、ニュースや天気予報などの情報を聞いたり、家電のON/OFF操作をしたりできる。また、コミュニケーションアプリ「LINE」と連携して、メッセージの読み上げなどの操作も可能。今後さらに機能拡大も予定されている。

14日から予約を受け付ける先行体験版では、音楽再生のMUSICに機能を限定。今秋予定の正式版販売時に機能をアップデートし、正式版と同等の機能が使えるようになる予定だ。先行体験版の価格は1万円、正式版の価格は1万5000円(いずれも税別)。

LINE CONFERENCE 2017で発表されたスマートスピーカー「WAVE」

サイズは86.25mm×139.84mm×201.05mm、重さは998g。2.5インチ20Wのウーファー、1インチ5Wのツイーター2基を搭載。プロセッサはQualcomm APQ8009 Quadcore 1.3GHz、音声認識用にConexantのマイク4基がセットされており、最大で約5m先からの会話が可能だという。

Facebook、Messengerでディスプレイ広告を世界で実験中

今やモバイルの中心はメッセージ・サービスだ。そこでFacebookはメッセージでもできるだけ多くの広告を表示したい。Facebook Messengerにディスプレイ広告を表示する試みはオーストラリアとタイで「有望な結果をもたらした」という。

FacebookではMessgerにおけるディスプレイ広告のベータ・テスト世界に拡大する。広告主はMessengerにスペースを買うことができるようになる。今月末から、一部のユーザーはMessengerアプリのホーム画面に広告が表示されるのを見るだろう。

TechCrunchの取材に対し、FacebookはMessenger広告の表示は「ユーザーが用いるモバイルデバイスのディスプレイのサイズ、精細度、また開くスレッドの数などによって変化する」と述べた。

来月までかけてFacebookは徐々にMessenger広告を世界に拡張する計画だ。広告はAds ManagerまたはPower Editorから購入できる。これらのサービスでMessengerはFacebook本体、Instagram、Audience Network参加サイトと並んでモバイル広告を自動的に配信するメインの媒体の一つとなる。広告はユーザーが書いたメッセージ内容とは連動せず、通常のFacebook広告と同様のターゲティングを受ける。また視認性を確保するため広告はディスプレイのピクセルの50%以上を占める必要がある。

FacebookはMessengerでディスプレイ広告のテストを始めたのはこの1月からだが、表示デザインはその後変化している。当初は水平に移動させるカルーセル・デザインだったが、その後、単純な1枚のページに変わった。これは最近Messengerのデザインが改良され、ユーザーがスワイプできるようになったことに対応している。つまりうっかり広告もスワイプしてしまうことを防ごうしたもののようだ。【略】

昨年の4月、Facebookは企業によるスポンサード・メッセージの送信を可能にすべての企業がMessengerでの広告を利用できるようになった。 Facebook本体のニュースフィード広告をクリックしたユーザーがMessangerで企業と会話を続けることができる仕組みは2015年から導入されている。

Messengerのディスプレイ広告は通常のウェブページで、アプリの内部ブラウザでレンダリングされる。またクリックしてメッセージへという広告(Click To Message)と同様、ユーザーがディスプレイ広告をクリックすると企業はメッセージでユーザーと会話し、さらにプロモーションを続けることができる。こうしてユーザーが企業と会話することを選ぶと、企業は将来ユーザーにスポンサーード・メッセージを送信することが可能になる。

Facebook広告の専門家でBlitzMetricsのCTO、Dennis Yuによれば、「Facebookの場合はこうした新機能の導入を徐々に行うのが普通だが、購入と支払いを統合できるのがMessengerプラットフォームが特に優れた点だ。またMessengerにFacebookのAIアシスタント、Mが導入された。FacebookとAmazonはフリクションのないコマースを実現するという点で競争関係にある。FacebookはMsessengerの利点をできるだけ活かそうとするだろう」と述べた。

YuによればMessengerにはP2Pの送金に利用されているアプリ内支払機能があるため、FacebookではMessengerでユーザーが直接プロダクトを購入できるようにしていくだろうという。M AIアシスタントはユーザーのメッセージを分析して何かを購入しそうとだと判断するば関連するプロダクトを推薦できる。

一部のユーザーにとって、Messenger広告は私的に会話に割り込んできて狭いスペースを占領する邪魔者だ。Messenger広告を 完全にオフにする方法はない。しかし画面下部の下向矢印をタップすれば非表示やスパムを報告するなどのオプションが現れる。

いずれにせよディスプレイ広告は、スポンサード・メッセージのように広告であるにもかかわらず通常のメッセージと紛らわしいというようなことはない。ディスプレイ広告は、表示される頻度によるが、受信トレイに入り込む頻度があまり多くないのであれば、FacebookはMessengerのユーザー体験をあまり悪化させることなく収益化することが可能になるかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

企業の非技術系一般社員でも機械学習を利用できるようにするH2O.aiのDriverless AI

Driverless AIH2O.aiの最新のプロダクトで、企業におけるデータサイエンスの活用の、敷居を低くすることをねらっている。このツールは、非技術系の社員たちを助けて、データの準備、パラメータの調整、当面の問題に対する最適アルゴリズムの判断などのタスクを、機械学習を利用して行う。

機械学習で解こうとする問題は、研究者のレベルでは複雑で予測不可能なものが多い。前例のないユースケースでGANや強化学習などの新しい技法を使っていくためには、高い技術力が必要だ。しかし企業が機械学習を使っていく場合は、比較的予測可能な問題が多い。たとえばサポートベクターマシンを使ってデフォルト率を評価する、など。

でも、そんな比較的簡単な問題でも、非技術系の社員の手には負えないことがある。企業は営業や人事など、データ分析とは無縁だった分野でも、最近ますますデータサイエンスを利用しようとしているが、そのために彼らを再教育するのはコスト的にたいへんすぎる。

H2O.aiのプロダクトはどれもAIを使いやすくしてくれるが、でもDriverless AI(運転者不要のAI)はさらに一歩進んで、モデルを準備するときに必要な難しい決定の多くを自動化する。Driverless AIは、feature engineering(特徴量工学、特徴量の選択・作成・変換)を自動化する。特徴量とは、いろんな変数/変量がある中で、モデルの構築に利用すべき重要な変数変量のことだ。

Driverless AIにはよく使われるユースケースが組み込まれているが、どんな機械学習の問題でも解ける。うまくいけば標準的なモデルを見つけて十分にチューニングし、そのロングテールの少なくとも一部を自動化する。

同社は1月にDeep Waterをローンチしたとき、今日のリリースを暗示した。Deep Waterは、ディープラーニングとGPUを一般ユーザーが利用するためのプラットホームだ。

機械学習による自動化は、まだまだ初期的段階だ。GoogleのCEO Sundar Pichai は今年のI/Oカンファレンスで、試行錯誤と大量の計算処理で機械学習の問題を解くための、最良のモデルと特徴を自動的に選び出すAIツールを作っていると述べて、会場をどよめかせた。

Driverless AIはAIを非技術系ユーザーのために民主化し抽象化する旅路の第一歩だ。ダウンロードして実験してみたい人は、ここからどうぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NvidiaとBaiduが、クラウド、自動運転、リサーチ、そしてスマートホームにまたがる包括的なAI協業提携を行った

本日(米国時間7月5日)BaiduとNvidiaは、人工知能についての包括的な協業提携を行ったことを発表した。適用分野はクラウドコンピューティング、自動運転、教育と研究、および民生機器を介した家庭内での利用にまたがる。これはNvidiaにとって、急成長する人工知能ビジネスの中で、これまでで最も包括的なパートナーシップであり、今後数年にわたりNvidiaのGPU事業を大きく拡大する可能性がある。

今回のパートナーシップには、Baidu CloudでNvidiaのVolta GPUを使用する契約や、複数の中国の自動車メーカーと提携して自動運転車を市場に投入しようとしているBaiduの取り組みに対して、Drive PXを適用することなどが含まれている(今朝発表されたBaiduの自動運転車向けApolloプログラムとその野望、詳細はこちらから )。さらに、BaiduとNvidiaは、Baiduが開発した、Nvidia Volta用オープンソース深層学習フレームワークであるPaddlePaddleの最適化に向けて協力を行なう。そしてその成果は広く研究者や研究機関などに提供される予定だ。

消費者サイドに目を向けると、Baiduは今年初めにハードウェアをアップグレードしたAndroid TVベースのセットトップ・ストリーミングボックスであるNvidia Shield TVに、DuerOSを追加する予定だ。DuerOSは、SiriやGoogle Assistantに似た仮想アシスタントで、以前スマートホームスピーカーやデバイス向けに発表されていたものだ。Shield TVは今後のアップデートによって、Google Assistantのサポートを受ける予定だ。Nvidiaはまた、最終的に家庭内に展開可能なスマートホームマイクを提供して、DuerOSでも動作可能な機能を提供する。

これはNvidiaにとって大きな勝利であり、現代のAIコンピューティングにおける最も重要なパートナーシップの1つが出現する可能性がある。両者はこれまでも協業してきたものの、今回の提携はAIの将来の成長が見込まれる潜在的な分野すべてにパートナーシップの幅を広げるものだ。

[ 原文へ ]
(翻訳:Sako)

AI活用で企業は儲かる、2035年までに各業界で平均38%の増収――アクセンチュアのAIレポート

AIは人間から仕事を奪うのか?それはどうなるかまだ分からないが、アクセンチュアの調べによると、少なくとも企業はAIを活用することで、2035年までに16業界で平均38%の増収が見込めるという。

本日、アクセンチュア・リサーチは、フロンティア・エコノミクスと共同でAIが経済に与える潜在的なインパクトについてレポートをリリースした(全文レポートは英語)。

このレポートでは先進国12ヶ国における16の業界を分析している。AIの活用が進まなかった場合を「ベースラインシナリオ」、AIが市場に浸透して経済成長をもたらした場合を「AIシナリオ」としてモデリングし、各業界にAIがもたらす経済的な影響をGVA(粗付加価値)を指標に算出している。

2035年時点の年間GVA成長率を、ベースラインシナリオとAIシナリオで比較

 

アクセンチュアによると、GVA成長率が最も高い業界は、情報通信(4.8%増加)、製造(4.4%)、金融サービス(4.3%)だ。16業界で伸び率が最も低いと予想される教育業界でも1090億ドル(約12兆4000億円)、社会福祉業界で2160億ドル(約24兆5000億円)のGVAの増加が見込まれている。全業界を加重平均すると、2035年までに経済成長率を平均1.7%向上できる可能性があるという。

ベースラインシナリオと比較した場合の、2035年時点におけるAIシナリオの利益配当金の増加率

 

レポートにはAIを活用する企業の収益のインパクトも掲載している。グラフを見ると全業界で増収が見込まれているのが分かる。卸売・小売業では、AIが人間の労働力を補うことで生産性が高まり、59%の増収が可能となるという。また、製造業では、機械にAIを搭載することで誤作動やダウンタイムが減りることで利益率が高まり、39%の増収が可能になると予測している。

AIは少なくとも3つの要素により経済成長をもたらす、とアクセンチュア・リサーチのマネジング・ディレクターを務めるMark Purdy氏はレポート(英語版)で指摘している。

「1つは、AIは新たな仮想の労働力を創造することができるためです。私たちはこれを「知的なオートメーション」と呼んでいます。2つ目は、AIは既存の労働力や物的資本のスキルや能力を補完したり、高めたりすることができます。3つ目は、これまでに登場したテクノロジー同様、AIは経済にイノベーションをもたらすことです」

履歴書を廃止しテストの結果でAIが求職者の適性を判定するHarverがシリーズAで$8.1Mを調達

人を雇うときには、履歴書という厄介物を相手にしなければならない。方法はいろいろあるし、履歴書の篩い分けを代行してくれるサービス企業もある。でも、大量の履歴書を読むことから、そうやって逃げるための努力も、忌まわしい仕事だ。

しかし人間リクルーターを起用する代わりに、自分で自分を訓練し最適化した機械学習のプラットホームを使えるとしたら、どうだろう。

実はそれが、Harverのやり方だ。同社は今回、Insight Venture PartnersがリードするシリーズAのラウンドで810万ドルを調達して、AIによる予選(初期的選別)プラットホームTalentPitchのユーザー拡大を目指している。

これは、企業の既存のHRプロセスやシステムを統合して履歴書をリプレースするプラットホームだ。予測分析によって、雇用の過程を改良する。

今回の資金調達で同社の調達総額は1140万ドルになり、今ではBooking.com, Netflix, Zappos, OpenTable, Casper, Adeccoなどがユーザー企業だ。顧客は13か国に分散し、求職者の予選を42の言語で行い、今日(米国時間6/30)ついに、アメリカに上陸した。

Harverの仕事は、履歴書をリプレースすることだ。

求職者は履歴書を書く代わりに、選別のための質問に答えていく。これで最初から、適材を選べる。その過程で、その会社や会社の企業文化を紹介したビデオを見たり、現実的な判断を試されたり、人格のテスト、知力のテスト、言語能力のテスト、求職者のスキルを判定するためのゲーム、などなどがある。これらのテストの結果を総合して、Harverのアルゴリズムが、その求職者の適性を判断する。

HarverのCEOでファウンダーのBarend Raaffは曰く: “今の仕事の多くは、それらへの求職者の適性を予見するために、履歴書はほとんど役に立たない。Harverの完全に自動化された人選ソリューションはビッグデータに基づいているから、きわめて客観的に求職者の資質を判定できる”。

このシステムには、リクルート業界も注目すべきかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIでヘイトコメント問題に取り組むInstagram

Instagramは、敵意があったり、攻撃したり、あるいは嫌がらせをするようなコメントを自動的に検出し、人びとがそれらを見ないようにする仕掛けを導入しようとしている。この新しいシステムはFacebookとInstagramがDeepTextを使って行った成果に基づくものだ。なおDeepTextとは、スパムと戦うために言葉を文脈の中で解釈するテキスト分類エンジンだ。

Wiredが最初に報告したように、Instagramのシステムは、Facebookがスパム対策に上手く適用できた技術を、昨年10月から取り込んでいる。どのようスパムを識別すべきかを人間の入力によって教える訓練を経て、チームは満足できる結果を得ることができた。ただしこのことによって、対策前に比べて正確にはどれ位の効果が出たのかについては発表されていない。

このシステムの成功に基づいて、チームは更により強烈な問題に適用できるかを探りたいと思っていた。すなわち敵意に満ち、嫌悪感むき出しで、嫌がらせを狙ったコメントを識別するということだ。さて、おそらく読者はインターネットには詳しいと思う。もしそうなら、インターネットという場所が、その最終的な効果をほとんど考慮しない、言いっ放しの、傷つける罵りや攻撃が、大量に拡散される手段となっていることに気がついているだろう。

Wiredによれば、DeepTextの訓練を請け負った評価者たちは、ネガティブなコメントを識別して、それらを「いじめ、人種差別、性的嫌がらせ」のような幅広いカテゴリーに分類するような訓練を行った。評価者たちは、現在の公開に至る前に、少なくとも計200万件のコメントを分析したと言われており、分類の正しさを確実にするために、それぞれのコメントは最低2回評価された。

レポートによれば今日(米国時間6月29日)からシステムは稼働し、今後は敵対的なコメントを入力してもただ消されることになる(ただしそのコメントを投稿した人には表示され続ける。これは表示されるまで投稿を繰り返すような、フィルターをすり抜ける努力をさせないためだ)。このフィルタは、最初は英語のみに適用されるが、このプロジェクトのために雇われた評価者たちは皆少なくともバイリンガルであり、Instagramはそのスパムフィルターを他言語にも広げつつある。よって他の地域にこのツールが展開されるのも時間の問題だろう。

個人的には、Instagramは既に多くの友人がやってくるソーシャルネットワークになっていると思う。なぜなら大部分のインターネットソーシャルフォーラムよりもより親しみやすいものだからだ。もし今回のシステムが効果的だということが分かったら、長期的には利用者を長く留める避難所になることもできるだろう。

[ 原文へ ]
(翻訳:Sako)

子供たちとロボットの対話をより自然なものにするためのディズニーの実験

遅かれ早かれ、私たちの子供たちはロボットによって育てられることになる。このためロボットと子供関連の商品を提供しているディズニーは、その傾向を先取りしたいと考えている。その研究部門から発表された3つの研究は、子供たちが、ロボットやそれ以外のある程度スマートなマシンとどのように会話もしくはやりとりを行うのかを理解し、改善することを目指している。

3つの研究は、全部を合わせて1度に実施され、それぞれの研究が別々の論文として執筆され、米国時間6月27日に公開された([論文1][論文2][論文3])。研究対象の子供たち(約80人)には、基本的に物語を話すことと会話を伴った連続した短いアクティビティが与えられ、子供たちの反応は実験者たちによって注意深く記録された。

まず初めに子供たちはPiperという名前のロボットに紹介される(この紹介は実験のために、当然個別に行われる)。ロボットは別の部屋にいる人形使いによって遠隔操作(「オズの魔法使い方式」だ)されているが、異なる実験の条件に合わせてあらかじめ決められた反応が設定されていた。ここでの発想は、ロボットは何を言うにせよどのように言うにせよ、何かを伝えようとする際には、それまでに得た相手と関連する知識を使うべきだということだ。しかし特に子供相手の場合には、それがどのように役立つかはあまり明らかではない。研究者らは次のように述べている

人間とロボットの対話は、長時間に渡る対話という課題に晒されている。それまでに行った会話を、関係の感覚を育むためにどのように利用できるのかを理解することが鍵なのだ。何故ならロボットが私たちの話したことを記憶しているか否か、それらの記憶をいつどのように提示してくるかが、私たちがロボットに対して抱く感覚に関係してくるからだ。

挨拶を済ませたあと、子どもたちは実験である協力して物語を語るアクティビティ(storytelling:子供と指導者が協力しながら物語を組み立てていくアクティビティ)に参加した。研究者たちは、このアクティビティの背後にある根拠をこのように説明する:

近年の進歩にもかかわらず、AIは子供たちの言葉の認識と自然言語の意味の理解に対しては不完全なままである。不完全な音声認識と自然言語理解は、ロボットが意味的に一貫した方法で子供に応答できない可能性を示唆する。こうした困難な要因のため、子供とロボットの間に流れるような物語活動が実現可能なのか、子供たちによって価値あるものと認識されるかどうかという点には、まだ疑問が残されている。

理論上の共同作業AIの代役を担う実験者は、子供とその相手の2人が紡ぎ出す物語にキャラクターを追加した。ある場合にはストーリーの文脈に沿って(「彼らは洞窟の中に仔猫を見つけました」)、またある場合にはランダムに(「物語に仔猫を追加しましょう」)。目的は、どちらがより多く子供たちを引きつけたか、どちらがアプリやデバイスをつかうのに現実的なタイミングだったのかを観察することだ。

幼い子どもや少年たちは、文脈の追加を求められた場合に躓きがみられた。これはおそらく、ある程度の思考と統合が必要だったからかもしれない。よってそれらとやり取りをする際には、反応が多くなる可能性がある。

物語を語るアクティビティの途中で、子供たちはPiperのところに立ち寄る。Piperは子供たちの物語について一般的なやりかたで対話する。例えばストーリーの中に出てきたキャラクターを識別したり、それについての感想(例えば「その仔猫が洞窟を無事に出られたことを祈るよ」など)を追加したりする。続いて別のアクティビティ(ロボットとのコラボレーティブゲーム)が行われ、その後同様の反応と共に同様の対話が続いた。

3番目の実験は一言で言うなら「Dora the Explorer(アニメの主人公)が、あなたが彼女の質問に答えるのを耳にしたら、何が起きるでしょう?」実験だ(日本では「ドーラと一緒に大冒険」というタイトルで放映された。Doraが番組中で質問をするが、約2秒後には答が示される)。

子供たちが、タブレットやビデオゲームシステムなどのインタラクションを可能にするシステム上で、より多くのテレビ番組を見るようになるにつれて、彼らを引き込む様々な機会が増えている…私たちは3つの実験を通して、正確なプログラム応答時間の影響、未回答に対する質問の繰り返し、子供が応答しそうな内容に関するフィードバックの提供、に関する調査を行った。

子供が何か言うか言わないかがわからない1,2秒後にただ答を言うのではなく、反応を(最大10秒まで)待って継続するか、あるいは答を言うように再び促す実験を行った。待つことと、促すことは明らかに応答率を高めたが、誤った答に対する指摘などのフィードバックが含まれていても効果はあまり見られなかった。

この活動をした後、子供たちはPiperの前に戻り、また別の会話を行った。その後、親しみやすさ、賢さなどの点でロボットを評価した。

研究者がPiperに関して発見したことは、以前の会話や選択肢を覚えているといった、より人間らしい反応が多いほど、より年齢の高い子供たちが好み、より反応がよくなったということだ。このことは基本的な社会的機能が、共感を生み出すためには重要であることを示唆している。

実はこれらはすべて、最初に述べたような、ロボットを私たちの子供たちに育てさせるために重要というよりも、むしろ人間とコンピューターのやりとりをより自然にするために大切なものなのだ。この際に、やりすぎや不気味さを防ぐことは大切だ。誰しもAlexaやGoogle Homeに「先週あなたが、家で1人落ち込んだ気分でピザを作っていたときに聴いていたものと同じプレイリストを、再生しますか?」とは言われたくないだろう(しかしそれは技術的には可能なのだ!)。

これらの論文はまた、子供が理解や言葉使いを改善するためにしばしば使われるゲームを用いたスピーチ療法のような局面に、このような研究が良く適用可能であることを示唆している。より幅広い応用を想像するのは難しいことではない。より暖かく、より曖昧さを許容し、コンテキストを意識したコラボレーティブなAIには多くの利点がある。こうした初期の実験は、そうしたことを可能にするための始まりに過ぎない。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: JEFF SPICER / STRINGER/GETTY IMAGES

深層学習とは異なる機械学習モデル「Deep Binary Tree」を開発するエイシングが約2億円を資金調達

人工知能の活用と聞くと、先日トップ棋士に連勝して引退を表明したAlphaGoのDeepMindや、IBM Watsonなどがまず思い浮かぶだろうか。日本でもPreferred NetworksNextremerといったAIベンチャーのほか、さまざまな企業が機械学習モデルの開発やサービス提供に乗り出している。これらの企業で採用されている機械学習モデルの共通点は、ディープラーニング(深層学習)を利用しているところだ。

ところが、エイシングが提供する「Deep Binary Tree」は、ディープラーニングとは別のアルゴリズムを採用した、独自の機械学習モデルだという。そのエイシングが6月21日、テックアクセルベンチャーズが運営するファンドを引受先とする第三者割当増資により、1億9800万円の資金調達を実施したと明かした。

エイシング代表取締役CEOの出澤純一氏は、2007年、早稲田大学大学院修士課程在学中に、エイシングの前身となるベンチャー企業・ひらめきを創業。卸売・小売・医療機器販売事業のかたわら、水面下で人工知能の研究開発を進めていたそうだ。2016年12月、ひらめきからAI開発事業をスピンアウトする形でエイシングを設立。岩手大学准教授の金天海氏とともに開発した独自のAIアルゴリズム、Deep Binary Treeの提供を行っている。同社は2017年2月には、日本総合研究所が主催するアクセラレーションプログラム「未来2017」のピッチコンテストで日本総研賞を受賞している。

エイシング代表取締役CEOの出澤純一氏

Deep Binary Treeは、機械学習モデルではあるもののディープラーニングとは異なるアルゴリズムで動く、機械制御や統計解析を得意とするAIプログラムだ。ニューラルネットワークを使ったディープラーニングでは多数の情報を処理することが可能なため、画像認識や音声認識に強く、囲碁の対局など複雑なタスクにも対応できる。ただし学習精度を高めるためには、エンジニアが適切な学習データを与えたり、パラメーターの調整を行ったりする必要がある。また計算量も多く、時間もかかる上に、一度できあがったモデルで最適化されると動的な応用は難しくなる。例えば物をつかむ学習を行ったロボットアームが、缶をつかむ学習を強化して最適化されると、ビンをつかむことが難しくなってしまう、といったことが起こる。

Deep Binary Treeでは、ディープラーニングのような大量の入力には対応していないため、画像の解析などには使えない。しかし、機械制御や統計解析の分野では高精度な学習・解析が可能で、動的な追加学習もできるという。パラメーター調整が不要で学習速度も速く、学習アルゴリズムファイルが約40KB、獲得学習ネットワークが3MB〜50MBと軽量なため、IoTデバイスでのリアルタイム学習も可能。速く、小さく学習して、新たな情報をどんどん覚え直して修正していく、というイメージだ。エイシングでは「ディープラーニングは認識をつかさどる頭頂葉的な働きに近く、Deep Binary Treeは反射的な反応ができる小脳的な働き」と説明している。

ディープラーニングでは発生しやすい過学習問題(ある特定の学習データにモデルが特化してしまうことで、それ以外の新たなデータに対して正しい解を出せなくなってしまう問題)や局所解問題(ある範囲内で収束した解を最適解としてしまうことで、本来の最適解に到達することができなくなってしまう問題)の影響も、Deep Binary Treeでは受けることがない。エイシングによれば、ある機械メーカーで、ディープラーニングによる解析で問題があり、行き詰まっていたところをDeep Binary Treeで解決した例もあるそうだ。

Deep Binary Treeがどういった用途で採用されているのか、出澤氏に聞いてみたところ、機械制御分野では「自動車メーカーのエンジン制御ユニット(ECU)の制御チップの最適化や流体力学シミュレーターに利用されている例がある。また、センサーのオートキャリブレーション、ファクトリーオートメーションでの異常検知や、職人の勘をエキスパートシステム化するための動作データ学習などでも使われている」とのこと。統計解析分野では「金融業界で株価予測や与信調査に採用されたり、コールセンターのオペレーターの需給予測や、本の増刷冊数の予測などにも使われている例がある」ということだ。

こうした大手企業向けのカスタマイズ提供のほかに、エイシングでは、2017年3月からSaaS版Deep Binary Treeも提供を開始している。また出澤氏によれば「AIチップ(SoC:System on Chip)の開発も各社と共同で進める準備をしている」ということだ。海外からの引き合いもあるそうで「グローバルな半導体メーカーや、ヨーロッパの自動車メーカーからも声がかかっている」と出澤氏は言う。

今回の調達資金について、出澤氏は「研究職・技術職の人材確保と営業力の強化、研究開発のさらなる強化に投資していく」と話している。

機械学習を利用して見込み客別にもっとも有効なピッチを営業に教えるHighspotが$15Mを調達

営業はいつも大量のノルマを抱えているが、でも最新のテクノロジーは、それらが従来よりももっと売れるようにしてくれる。

それともあなたは、うちのピッチ(売り込み)は完璧、と思っているかな? Highspotは、それは違う、と教えてくれる。まあそれが、Highspotのピッチだけど。

Highspotのソフトウェアは、見込み客とのさまざまなコミュニケーション、たとえばプレゼンテーションやケーススタディ、教育訓練ビデオなどを分析する。そして、それらの有効性を表すデータを提供する。

その分析結果が売上増に導くなら、それは多くの企業にとって大きな売上機会になる。そこでVCたちは、Highspotが今後ビッグビジネスになることに、さらにもう1500万ドル賭けている。

そのシリーズBのラウンドをリードしたのはShasta Venturesで、Salesforce VenturesとMadrona Venture Groupが参加した。シリーズAは、2014年の1000万ドルだった。

ShastaのマネージングディレクターDoug Pepperはこう語る: “Highspotは、営業を支援するソフトウェアの市場にAIや機械学習のパワーを持ち込んだ。彼らのプロダクトとチームと顧客評価技術は、長年営業を悩ませてきた問題を解決する。その問題とは、その見込み客に対して適切なコンテンツを適切なタイミングで提示して、営業努力をを成功に導くことだ”。ワンパターン、行き当りばったり、出たとこ勝負の営業は、古いし、効率も最悪だからね。

CEO Robert Wahbeの言い方はこうだ: “Highspotは、営業が頭の中につねに確実に(顧客・見込み客別に)適切な情報を持ち、顧客に提示する適切なコンテンツを確実に持ってる状態を作り出し、維持する”。同社の現在の有料顧客(月額会費制)は、中小企業と大企業合わせて100社ぐらいだ。

彼は、HighspotがCRMと競合する製品だとは見ていない。むしろ、CRMを“補完するプロダクトだ、と。とくに、顧客がSalesforceのプロダクトとHighspotを併用してくれることを、彼は期待している。

同社が拠を構えるシアトルについてWahbeは、“今は一種のブーム・タウンだね”、と言う。同市のスタートアップシーンは、今や“沸騰している”そうだ。

将来の買収については、彼は言葉を濁(にご)した。そして、“でも上場企業にはなりたいね”、これが彼の考える同社の将来像だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

LINEがスマートスピーカー「WAVE」をお披露目、今夏には1万円で先行版を販売

WAVEを持つLINE取締役CSMOの舛田淳氏

3月にスペイン・バルセロナで開催されたイベント「Mobile World Congress 2017(MWC)」。その基調講演で発表されたLINEのクラウドAIプラットフォーム「Clova」と、スマートスピーカーの「WAVE」。そのWAVEの詳細が、6月15日開催のプライベートカンファレンス「LINE CONFERENCE 2017」にて明らかにされた。

ClovaはLINEと韓国NAVERが開発するクラウドAIプラットフォーム。音声認識や画像認識など、人間の五感にあたる機能の「Clova Interface」と、自然言語理解や言語翻訳処理など、人間の頭脳にあたる機能の「Clova Brain」で構成される。

LINE取締役CSMOの舛田淳氏は、LINEがPCからスマートフォンというプラットフォームの変化の過程で生まれてきたと振り返る。そしてこの先5年、10年後にやってくる“ポストスマートフォン”の時代において、AIこそがインパクトを与えていくと改めて語った。そんな流れがあるからこそ、LINEもこれまでのスマートフォンにフォーカスした体制を変えていくという。PCやスマートフォンを含めた全てのデバイスをターゲットに、その共通基盤となるAIプラットフォーム(Clova)を作ることに注力するという。

「Clova」のイメージ図

初のClova搭載デバイスとなるWAVEは、家庭内での仕様を想定したスマートスピーカーだ。Wi-FiおよびBluetoothに対応。メインとなる機能は「MUSIC」、つまり音楽の再生機能だ。WAVEは音楽配信サービス「LINE MUSIC」で提供する約4000万曲の楽曲を聴くことができる。音声操作でアーティスト、楽曲名を指定したり、ユーザーの好みを学習して、雰囲気や気分に合わせた楽曲をレコメンドする機能もある。

そのほか、カジュアルな会話を楽しんだり、ニュースや天気などの情報を聞いたり、赤外線コントローラー対応の家電機器のON/OFF操作(国内主要家電メーカーを中心に2000メーカーに対応予定)をしたり、コミュニケーションアプリ「LINE」と連携して、メッセージの読み上げをはじめとした操作も可能だという。今後の機能拡大も予定する。

サイズは86.25mm×139.84mm×201.05mm、重さは998g。2.5インチ20Wのウーファー、1インチ5Wのツイーター2基を搭載。プロセッサはQualcomm APQ8009 Quadcore 1.3GHz、音声認識用にConexantのマイク4基がセットされており、最大で約5m先からの会話が可能だという。

スマートスピーカー「WAVE」

日本での販売開始は今秋で、販売価格は1万5000円(税別)を予定する。ただしMUSICに機能を限定した先行版を今夏販売する予定だ。価格は1万円(税別)。先行版は、正式版の販売時に機能をアップデートし、同等の機能が得られる予定だ。

ディスプレイ搭載の「FACE」

WAVE(とディスプレイ付きのコンセプトモデル「FACE」)はMWCで概要が発表されていたが、これに加えて、新たにキャラクターをモチーフにしたスマートスピーカー「CHAMP」も今冬をめどに提供することが明らかになった。

そのほか、ソニーモバイルコミュニケージョンズのコンセプトモデルである「Xperia Ear Open-style」、ヤマハの歌声合成技術「VOCALOID(ボーカロイド)」とClovaの連携も進めるとしている。

カジュアルなスマートスピーカー「CHAMP」

企業の営業活動を自動化するPeople.aiが$7Mを調達、営業の全過程の可視化が鍵

People.aiは、売買が成立するための最良の方法や道筋を示す予測的指針をAIを利用して作成し、企業の営業部長に提供する。同社は今日(米国時間5/30)、Lightspeed Venture PartnersがリードするシリーズAの投資ラウンドにより、700万ドルを調達した。Index VenturesとShasta Venturesが新たに参加したほか、これまでの投資家Y CombinatorとSV Angelもこの投資に参加した。LightspeedのパートナーNakul Mandanが、People.aiの取締役会に加わる。

この営業管理プラットホームが解決しようとする問題は、営業の教育がデータではなく直感に基づいて行われている現状だ。People.aiは、すべての営業活動と、営業が商談締結までに行うアクションを見渡す全体的な視野を提供することによって、これを解決したい、と考えている。同社のソフトウェアによって、営業がどの部分でいちばん時間を消費しているかを突き止め、何が成功に導く要素かを同定する。営業は、体を使うより頭を使え、というわけだ。

目標は、営業マン/ウーマンの営業活動過程を完全に視覚化して、成績トップの者はどの段階で多くの時間を費やしているか、もがいている営業はどこで、成功へ導くやり方から逸脱しているかを見極める。取引の特定の段階に、あまりにも足をとらわれていないか? (客先の)プロダクトマネージャーや役員やそのほかの意思決定者と、十分な時間をとって話をしていないのではないか? そもそも、正しい見込み客にアプローチしているのか? これらの質問に、People.aiのアルゴリズムは答えようとする。

そのソリューションは、営業とクライアントとのあいだの、コミュニケーションのさまざまなタッチポイントにおける活動を調べる。そのために、メールや電話履歴、ミーティングのカレンダーなどを調べて、商談の各段階でどれだけの時間を費やしているか、誰にコンタクトして結果はどうだったか、を示すダッシュボードを作り出す。

  1. opportunities-sorted-by.png

  2. account-filters.png

  3. leaderboard-with-feed.png

  4. ranking.png

昨年People.aiがローンチしたとき、CEOで機械学習のベテランOleg Rogynskyyは、営業活動をファンクションとして自動化したい、と望んだ。その後同社は、このようなソリューションの提案は大企業に向いている、と考えるようになった。

こういう、問えば答える会話的なAIは、Chorus.aiや VoiceOpsなど競合他社も多いが、People.aiはこれらの企業を単なるデータソースと見なし、自分たちのソリューションはすべてのタイプの営業活動を読み取る、営業のバックボーンだ、と考えている。

Rogynskyyによると、最近では大企業やFortune 500社からの引き合いが増えている。今度の新たな資金は、プロダクトと同社営業チームの規模拡大、そして大企業向けR&Dへの注力に充てたい、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニング・アプリケーションの開発〜デプロイ過程をシンプルに一元管理するBitfusion Flex

BitfusionがDisrupt NY 2015でローンチしたときは、GPUやFPGAなどのコプロセッサーを利用するコンパイル済みのライブラリをデベロッパーに提供してアプリケーションのスピードを上げる、というビジネスだった。それは2年前のことだ。今では、そんな技術の最大の市場が、ディープラーニングのモデルの訓練だ。同社がローンチしたときには、それらはレーダーに映っていなかった。でも、当然とはいえ、Bitfusionが今まさにフォーカスしているのが、その市場だ。

今日同社は、Vanedge Capitalがリードするラウンドによる500万ドルのシリーズA資金の調達を発表した。そのラウンドには、新たな投資家Sierra Venturesとこれまでの投資家Data Collective, Resonant VC, そしてGeekdomが参加した。同社の計画では、このお金は研究開発の強化に投じられ、そしてとくに、AIプロジェクトの構築と管理を支える、フレームワークを特定しないプラットホームBitfusion Flexにフォーカスされる。

今ベータのBitfusion Flexは、デベロッパーが単一のプラットホーム上でAIアプリケーションのライフサイクル管理ができるようにする。デベロッパーは単一のダッシュボード上で開発、訓練、そしてデプロイまでも実行し管理できる。内部的にFlexはコンテナを使って実験やモデルを複数のローカルマシンやクラウド間で容易にスケールし移動できるようにしているが、しかしベアメタル上のデプロイもサポートしている。

ただしFlexは、モデリングそのものを容易にしてくれるわけではない。TensorFlow, Torch, Caffeなど、フレームワークの選択とセットアップはアプリストア的なインタフェイスでできるが、その強みは、これらのアプリケーションを作って動かすために必要なインフラストラクチャの管理にある。したがってFlexは、フレームワークのことは気にしないし、またアプリケーションをどこへデプロイするのかも気にしない。

このサービスを利用して行う工程の管理は、Web上(ブラウザー上)のインタフェイスからでもできるし、またコマンドラインインタフェイスからでもできる。そしてたとえば開発時には、リモートのGPUをローカルなラップトップから使ったりできるのだ。

BitfusionのCEOで協同ファウンダーのSubbu Ramaはこう語る: “ディープラーニングのプロジェクトは、現状ではプロトタイプから先へ進めない人が多い。今は至るところで猫も杓子もディープラーニングをやりたがるが、Global 2000社には人がいない”。そこでBitfusionはFlexでもって、インフラストラクチャの管理という面倒な仕事を抽象化し、企業がやっと雇えたデータサイエンティストたちがアプリケーションに集中できるようにする。

Flexのベータ終了は数か月後の予定だ。オースチンに本社のある同社は、今後シリコンバレーでのプレゼンスを大きくしたい。ただし研究開発の多くは今後もずっと、オースチンでやっていきたい、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))