IBMが教育スタートアップGalvanizeと共同でWatson APIの機械学習アプリケーションへの応用を教える

IBMは同社の今年のInterConnectカンファレンスで、機械学習の学習コースを発表した。それは、スタートアップの卵たちにワークスペースと教育を提供しているGalvanizeとの提携事業で、主にWatsonのAPIの使い方を教えていく。それらのAPIを利用すれば、言葉や音声や視像(画像や映像)の認識に依存するアプリケーションの構築が、容易にできるようになる。

そのコースはIBM Cognitive Courseという、なんか冴えない名前だが、4週間で機械学習の基礎とWatsonで何ができるかを教える。生徒はそのクラスに、IBMのクラウドプラットホームBluemixからアクセスする。

IBMでWatsonとIBM Cloudを担当しているCTOのBryson Koehlerはこう言う: “WatsonのAPIで何ができるのか、知らない人もいる。Watsonのエキスパート、と呼べるほどの技術者は、まだとても少ない”。

コースを補助するリアルなワークショップ、題してBuilder Fairsが、Austin, Denver, New York, San Francisco, Seattle, Bostonの各都市で行われる。また、ハッカソンや個別面談(“オフィスアワー”)などのイベントBuilder Spacesも予定されている。

“ワークショップがあることは、この学習ではきわめて重要だ”、とは語る。“実用アプリケーションを作れるためには、実物体験が欠かせないからね”。

Galvanizeは過去にいろんなコースを展開した経験があり、そのために技術者たちのコミュニティができている。最初のBuilder Spaceは、今行われているInterConnectカンファレンスがその会場になる。

クラウドコンピューティングを提供している各社はこのところ、デベロッパーへの訴求に熱心だ。デベロッパーというより、これから人生で初めてプログラミングをする、という超初心者も対象にし始めている。IBMは、Galvanizeとのパートナーシップで、最初からいきなり技術者たちの大きなコミュニティに訴求できる。この前GoogleがKaggleを買収したのも、同じねらいだ。コミュニティの人数はもっと多い。

クラウド上のデベロッパー向け学習リソースは、AWSにも、AzureやGoogle Cloudにもある。たとえばGoogleはUdacityと組んで、ディープラーニングの3か月コースを提供している…こちらはもちろんWatsonではなくTensorFlowが中心だ。

IBMには前から、Galvanizeとの関係がある。GalvanizeのデータサイエンスのディレクターNir Kalderoは、2017年のIBM Analytics Championに指名された。昨年の秋に両社共同で、企業役員のためのデータサイエンス教育を催している。また昨年初めには、両社でエンタープライズ顧客のためのBluemix Academyを開催した。Galvanize単独では、IBMのクラウドプラットホームのプロモーションのために、サンフランシスコでBluemix “Garage”を行った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MesosphereのDC/OSにワンクリック統合の対象サービスが増え、とくに機会学習のサポートを充実

Mesosphereが、マイクロサービスとビッグデータアプリケーションをプライベートとパブリックのクラウドで動かすためのプラットホームDC/OSをアップデートした。今回バージョン1.9になったDC/OSは、一見メジャーアップデートではないような番号だが、実は大型リリースだ。

このアップデートによりDC/OSのユーザーは、一度のクリックで100以上のサービスをデプロイできる。このバージョンで新たに加わったサービスは、高速分散ストレージアクセスAlluxio、NoSQLデータベースCouchbase、分散データベースサービスDataStax Enterprise、アナリティクスサービスElastic Search、そしてインメモリデータ構造Redisなどだ。これらの新しい統合はすべて、DC/OSのPartner SDKを使っている。同社によると、そのために、完全なデータサービスインフラストラクチャの構築が比較的容易に(とは言っても単純ではないが)なり、数日で構築できる。

さらにDC/OSにGPUベースのスケジューリングのサポートが加わったので、インフラのGPU部分をプールしておいて機械学習のワークロードに向ける、といったことができる。それはNvidiaとMesosphereが2015年に発表した提携事業の延長だ。

新しいデータコレクションやメトリクスも加わり、複数のコンテナにまたがるデプロイメントをモニタできる。その単純化されたログシステムは、SplunkやDatadogなど、そのほかのモニタリングツールと統合できる。

MesosphereとDockerとKubernetesは、同じ顧客を奪い合っているように見えるかもしれないが、しかしMesosphereは、ビッグデータの世界に自分のニッチを見つけた。今回のアップデートも同社がその強みに乗ったものだが、機械学習のサポートは新しい。企業のデータウェアハウスが、大量のデータを処理する機械学習のブームでまた忙しくなってることも、同社の追い風になっている。

 
[DC/OS紹介ビデオ]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Intel、Mobileyeを153億ドルで買収―自動運転テクノロジーの拠点をイスラエルに移す

Intelは自動運転のためのコンピューター・ビジョンのリーダー、Mobileyeを153億ドルで買収することを確認した。両社の関係は当初は提携だったが、最終的には買収に進んだ。これはテクノロジー関連のイスラエル企業の買収としてこれまでで最大となる。

Intelは声明で次のように述べている。 「合意された条件に基づき、Intelの子会社は、Mobileye社株式について1株当り63.54ドルのキャッシュで公開買付を開始する。すべての発行済株式が買付の対象となる。〔オプション実行などによる〕希薄化後の株式を含んだ買付総額は約153億ドルと見込まれる。会社評価額は147億ドル(…)」。買収手続きは9ヶ月程度で完了するものとIntelは見込んでいる。

現在Mobileyeは 広範囲なテクノロジーとサービスを保有している。センサーフュージョン、マッピング、フロントおよびリアカメラ関連のテクノロジーが含まれる。2018年には高精細度マップのためにデータ取得のクラウドソーシングを開始する。また自動運転の決断の基礎となるドライビング・ポリシーの実用化も導入するととしている。これらの新しいテクノロジーとサービスは今後すべてIntelブランドとなる。Intelはさまざまな自動運転テクノロジーを取得することになるだけでなく、自動車メーカー各社がMobileyeと結んでいる密接な関係もIntleの傘下に入ることを意味する。今日(米国時間3/13)の電話記者会見でMobileyeの共同ファウンダー、CTOのAmnon Shashuaは「われわれは現在自動車メーカー27社と提携している。20016年にはAudi、BMWその他のメーカーと10種類のプロダクション・モデルに関するプロジェクトを実行している」と述べた。【略】

Intelは当初のTechCrunch記事を確認し「Mobileyeの共同ファウンダー、CTOのAmnon Shashua教授がIntelの自動運転事業部の責任者となり、これはイスラエルを拠点する。Intelの上級副社長 Doug DavisがMobileyeとIntelの業務統合全般を指揮し、Shashua教授に直属する」と発表した。

イスラエルをベースとするコンピューター・ビジョン、機械学習に関連して、Googleは道路情報をクラウドソーシングするWazeを11億ドルで買収Appleは3DセンサーのPrimeSenseを3億ドルと報道される額で買収している。

Mobileyeが買収後もイスラエルにとどまることになったのはWazeの買収をめぐるドラマを想起させる。当初FacebookがWaze買収に動いたものの、Wazeのエンジニアはイスラエルにとどまりたいと希望し、FacebookはチームをシリコンバレーのFacebook本社に移したがった。この問題で交渉が中断している間にGoogleがWazeをさらってしまった。Googleはイスラエルに本拠を置きたいというWazeの条件を認めたために買収は即決されたという。

IntelとMobileyeは昨年から公式に提携していた。 今年に入って両社は、BMWの自動運転車40台にテクノロジーを供給している。Mobileyeは早期からTeslaの自動運転テクノロジーのパートナーだった。ただしMobileyeがTeslaの安全性に関する方針に反対したためこの提携は終了している

Mobileyeは2014年にNasdaqに上場し、現在の時価総額は105億ドル.だ。買収のニュースが流れると同時に、市場が開く前に、株価は33%以上アップした。【略】

自動運転テクノロジー関連の動きはIntelにとどまらない。同じく今日、自動車部品メーカー大手のValeoがドイツのスタートアップで、車載3D画像処理ソフトウェアのgestigonを買収したことを明らかにしている。同社のテクノロジーは車両内外のさまざまな情報をドライバーに伝えると同時に自動運転システムともコミュニケーションを取り、車両の動作を決定するのを助けるという。

金額など買収の詳細は明らかになっていない。Valeoは従来から自動運転テクノロジーに活発に投資しており、これまでにもフランスの自動運転シャトルバス、Navyaの株式の一部を取得したりカリフォルニア州で自動運転車のテストを行うライセンスを取得するなどしている。gestigonの買収はこの分野への関心が非常に強いものであることを意味するようだ。

Valeoはこの後、投資家向け電話会見を開く予定なので新しいニュースが判明すればアップデートする予定だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Kaggleを買収したGoogleが早くもコンペの主催者に…機械学習のユニークなアプリケーションで賞金100万ドル、7社のVCが協賛

Googleはデータサイエンスのコミュニティ(コンペの主催プラットホーム)Kaggle買収に続いて、今度はGoogle自身が機械学習のコンペを開催することになった。Googleはとくに、機械学習に革新的な姿勢で臨んでいる若いスタートアップに期待している。

このコンペはSequoia, KPCB, GV, Data Collective, Emergence Capital, Andreessen Horowitz, Greylock、計7社のVCがパートナーとして賛助する。そしてData CollectiveEmergence Capitalは、優勝者の賞金100万ドルを半分の50万ドルずつ折半する。

応募資格としてGoogleのサービスの利用はないが、Google CloudとTensorFlowを使う応募者にはそれなりの副賞がある。すなわち“Build with Google”賞(Googleで作ったで賞)は、100万ドルぶんのGCP(Google Cloud Platform)クレジットとGoogle Cloudのエンジニアからの協力、そしてG Suiteの12か月の利用権10名ぶんだ。この賞の次位企業は、優勝者の半分のGCPクレジットと、そのほかの副賞(優勝者と同じ)を授与される。また、予選を通過した全社は、20万ドルぶんのGCPクレジットと、優勝者と同じG Suite利用権が得られる。

審査の基準は、機械学習の実装の‘ユニークさ’とされる。VCの一般的な基準、たとえばスケーラビリティとか、プロダクトの市場適性、スキル力、チームの結束力なども勘案される。

Googleは、テクノロジー系のスタートアップだけでなく、医療、エネルギー、リテールなどさまざまな専門分野からの応募も期待している。Googleにもコンペを主催した経験は過去にあるが、データサイエンスや機械学習のコミュニティへの訴求は、今週初めに行われたKaggleの買収に負うところが大きい。一方KaggleのCEO Anthony Goldbloomは、この買収によってコミュニティがGoogle Cloudをより高度に利用できる点が魅力、と言っている。

応募企業は、これまでの資金調達額が500万ドル未満であることと、アメリカ合衆国の法人であることが条件だ。応募の受け付けは、今日(米国時間3/10)から4月16日までだ。予選通過者が決まるのは6月、そして最終決戦は夏の終わりごろになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが多様なツールを用意してクラウド上のデータ操作/データ処理を助ける

今日(米国時間3/9)のCloud NextカンファレンスのステージでGoogleは、データの準備や統合化を助ける一連のツールを発表した。いずれも、Google Cloudの企業利用をより強力かつ敏速にするためのアップデートだ。

まず紹介されたのがGoogle Cloud Dataprepの非公開ベータ。その名のとおり、データ(data)を視覚化のために準備(preparation)する。このツールには、異状検出機能があり、機械学習を利用して通常と異なる形のデータをユーザーに告げてデータのクォリティーを改善する。

誰にも使いやすいツールにするために、すっきりとしたインタフェイスに留意している。多くのコントロールが、ドラッグ&ドロップでできる。DataprepはGCP(Google Cloud Platform)への統合化に向けて最適化されており、Google Cloud Dataflow中のパイプラインを作ることによって、容易にBigQueryへデータをフィードできるようにしている。

今日は、BigQueryも強調された。新たにBigQuery Data Transfer Serviceというサービスを立ち上げて、複数のデータソースからのデータのマージを単純化する。既存の商用データセット、Xignite, HouseCanary, Remind, AccuWeather, Dow Jonesなどを最初からサポートしている。

ユーザーがTableauのような視覚化サービスを利用するときは、データをシームレスに準備して分析結果を表示できる。BigQueryは大規模プロジェクトのためにCloud Bigtableを今後サポートするから、データをいちいちコピーして移送する手間もなくなる。

Googleのクラウドプラットホーム担当VC Brian Stevensはこう語る: “マーケティングのチームがマーケティングに関するデータ分析をGCP上できわめて容易にできるようにした”。

Cloud Dataflowには、PythonによるSDKが広く提供される。これまでのJavaを超えて、コミュニティがさらに拡大するだろう。

ワークフローツールCloud Datalabも、今度から一般提供される。デベロッパーは、ノートブック環境Jupyterと標準のSQLを使って、データ分析ができる。TensorFlowとScikit-learnもサポートされる。バッチとストリーム処理はCloud DataflowやApache Spark + Cloud Dataprocでできる。またCloud DataflowのためのStackdriver Monitoringはベータへ移行し、GCPやAWSがホストするアプリケーションのモニタリングや診断を行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleがデータサイエンスと機械学習のコンペ主催プラットホームKaggleを買収

情報筋によるとGoogleは、データサイエンスや機械学習のアイデアのコンペ(懸賞)を主催しているKaggleを買収する*。〔*: このニュースの翌日(米国時間3/8)、Googleはサンフランシスコで行われたCloudNextカンファレンスで、この買収を確認した。〕

Kaggleの協同ファウンダーでCEOのAnthony Goldbloomは電話取材に対して、買収を否定した。Google自身は、“噂に関してコメントはしない”、と述べた。〔3月7日時点〕

Kaggleは2010年にGoldbloomとBen Hamnerが創業し、今ではここを自己表出のためのプラットホームとして利用しているデータサイエンティストが約50万人いる。同社は早くスタートした方だが、今ではDrivenData, TopCoder, HackerRankなど競合他社も少なくない。しかしKaggleはあえて特定の専門分野にフォーカスすることによって、今もトップの座を維持している。今では同社のサービスが、データサイエンスと機械学習のコンペの定番のように見なされている。

Googleが買収しようとしているのは、データサイエンスに関する最大でもっとも活発なコミュニティだ。買収によってこのコミュニティにおけるGoogleのマインドシェアも伸びるだろう(Tensorflowなどのプロジェクトを抱えるGoogleは今すでにかなり高いマインドシェアではあるが)。

KaggleとGoogleは、最近になって付き合いの履歴がある。今月の初めにはGoogleとKaggleが共同で、YouTubeのビデオを分類する賞金10万ドルのコンペを開始した。このコンペは、Google Cloud Platformとの深い統合が前提になっている。

GoogleはKaggleのサービスを、その名前を残したまま継続するようだ。

買収のねらいはKaggleの技術よりもコミュニティにあると思われるが、Kaggleはコンペを主催するためのおもしろいツールの数々や“カーネル”〔応募コードを実際に動かす環境やライブラリ〕も開発している。カーネルは、そのソースコードも(主に応募者のために)公開されている。以前それは、(コードを動かすための)“スクリプト”と呼ばれていた。

コンペ・サイトの通例として、Kaggleにも求人求職ボードがある。Googleがそれをどう利用するのかは、不明だ。

Crunchbaseのデータによると、Kaggleは2010年の立ち上げ以来1250万ドルを調達している(PitchBookによると1275万ドル)。投資家はIndex Ventures, SV Angel, Max Levchin, Naval Ravikant, GoogleのチーフエコノミストHal Varian, Khosla Ventures, そしてYuri Milnerだ。

Kaggle関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、データサイエンス、機械学習のKaggle買収を確認

今日(米国時間3/8)、Googleはデータサイエンスと機械学習をオンラインでホスティングするKaggleを買収したことを発表した。TechCrunchでは昨日、GoogleがKaggleを買収するという情報があることを伝えたが、これは事実であると確認された。

この発表は現在サンフランシスコで開催中のGoogle Cloud Nextカンファレンスで行われた。ただし買収金額などの詳細は明かされていない。そうではあってもGoogleがKaggleを傘下に収めたこと自体は驚きではない。Kaggleのプラットフォームを利用するデータサイエンティストが10万人単位で存在するため、同社の買収はGoogleのAIコミュティーでの地位を大きく高めるだろう。Googleはクラウド事業でAmazonと正面から競争を挑む展開になってきたため、可能な限り有利な条件を整備する必要があるはずだ。

Kaggleの買収によってデータサイエンティストの間でもGoogleブランドはいっそう権威を高めそうだ。もちろん同社はTensorFlowプロジェクトなどで機械学習のコミュティーの有力なメンバーだが、自動運転やディープ・ラーニングなどで人工知能が現実に応用される例が増えるにつれて競争は激化している。こうした新分野では大小を問わず多くの企業にチャンスがある。人間の最強棋士を破ったアルファ碁が劇的に示したような進歩が他社に起きれば、少なくとも可能性としては、AI分野におけるトップクラスの地位からGoogleが押しのけられることになる。

Kaggleの買収は、同社のAIコミュニティーにおける影響力を考えるなら、人材獲得の面でもGoogleにメリットをもたらすだろう。GoogleはPinterest(画像検索テクノロジーに力を入れている)などと競争していくために、今後ますますディープ・ラーニング分野でトップクラスの人材を必要とする。Kaggle買収は同社の高度なテクノロジーを取得できたことはもちろんだが、GoogleがAI分野全般での地位を高めるという目的もあったに違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、ビデオ中の対象を認識する機械学習API公開―Cloud Next 2017

SAPとの提携に引き続きGoogle Cloud Nextからのニュースだ。今日(米国時間3/8)、サンフランシスコでスタートしたカンファレンスでGoogleは新しい機械学習APIを発表した。このAPIはビデオ中の対象を自動的に認識し、検索可能にする。

新しいVideo Intelligence APIを利用するとデベロッパーは ビデオから対象物を自動的に抽出する能力を備えたアプリを開発できる。これまで画像認識APIはクラウド・サービスでのみ利用でき、しかも多くは静止画だけを対象にしていた。しかしGoogleのAPIを使えばデベロッパーはユーザーがビデオを検索して情報を引き出すようなアプリを開発できる。つまりflowerやdogなどのキーワードでビデオを検索できるようになる。

ビデオ中のエンティティの抽出に加えて、このAPIはシーンの転換を認識し自動的なタグづけを可能にする。

ただしビデオそのものはGoogleクラウドに保管されている必要がある。こちらでデモを見ることができる。

Google CloudのAIおよび機械学習担当チーフ・サイエンティストのFei-Fei Liのキーノート講演によれば、画像処理は静止画の先へ進みつつあるという。ビデオは機械学習の開発者にとって長らく困難なターゲットだった。新しいAPIは静止画の画像認識同様んび簡単にビデオから情報を引き出すことを可能にする。

さらにGoogleのクラウド機械学習エンジンはTensorFlowフレームワークを用いてデベロッパーが独自のカスタム機械学習モデルを構築できるようにする。Gogleによればこのエンジンは今日、一般に公開された。

キーノートでLiは、Googleは「社内で開発した機械学習テクノロジーの一般への普及を図っている。 今回もVision APIの公開もその例だ」と述べた。

〔日本版〕Googleが用意した説明ページのデモでは動物園、Google本社の自転車などを撮影したサンプルビデオにAPIを適用して処理した結果を見ることができる。APIの利用例のサンプルコードも掲載されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのCloud PlatformがGPUをサポート

tesla-m40-header

3か月前にGoogleは、2017年の早い時期に、機械学習などの特殊なワークロードためにハイエンドのグラフィクスプロセシングユニット(graphics processing unit, GPU)のサポートを開始する、と発表した。2017年の早い時期とは今のことだから、Googleは言葉に違(たが)わず今日から、Google Cloud Platform上でGPUを使えるようにした。予想通りそれはNvidiaのTesla K80で、ユーザー(デベロッパー)はひとつのCompute Engineマシンで最大8つを動かすことができる。

GPUベースの仮想マシンを使えるのは当面、三つのデータセンター、us-east1, asia-east1, そしてeurope-west1だけだ。ひとつのK80コアに2496のストリームプロセッサーと12GBのGDDR5メモリがある(K80ボードには2つのコアと24GBのRAMがある)。

image02

複雑なシミュレーションを動かしたり、TensorFlow, Torch, MXNet, Caffeeなどのディープラーニングフレームワークを使っているときには、計算力はどれだけあっても過剰ではない。GoogleがこれらのGPUインスタンスでねらっているのも、ハイエンドマシンのクラスタを常時動かして機械学習のフレームワークを駆動しているようなデベロッパーだ。このGoogle Cloud GPUは、GoogleのCloud Machine Learningサービスおよび同社のさまざまなデータベースとストレージのプラットホームに統合される。

GPUの利用料金単価はアメリカでは1時間70セント、ヨーロッパとアジアのデータセンターでは77セントだ。時間単価としてはお安くないが、Tesla K80の2コア/24GB RAMのアクセラレータは、たちまち数千ドルの節約を稼ぎだしてくれるだろう。

この発表から数週間後にGoogleはサンフランシスコで、Cloud NEXTカンファレンスを開催する。そこではおそらく、同社の機械学習をもっと多くのデベロッパーに使ってもらうための企画が、発表されるだろう。

image00-1

〔参考記事: AWSのGPUインスタンス

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

企業のクラウド環境をモニタしてリソース等の最適化を行うYotaScaleが$3.6Mを調達

Vector high tech internet data center. Network equipment that is used to organize the server room

エンタープライズ指向のアクセラレータAlchemistを卒業したYotaScaleが、360万ドルのベンチャー資金の調達を発表した。そのラウンドに参加した投資家は、Engineering Capital, Pelion Ventures, およびエンジェルのJocelyn Goldfein, Timothy Chou, そしてRobert Dykesだ。同社は機械学習を利用して、企業のクラウドコンピューティングの実行性能(パフォーマンス)や可用性、費用などの最適化を図る。同社と競合するCloudHealth TechnologiesCloudabilityも、この今や熱い市場で、合わせて8000万ドルの資金を獲得している。

クラウドコンピューティングは、今やどの産業でも事業の不可欠な要素になりつつあるが、しかしイノベーションが急速なので、インフラの進化に適切に付き合っていくのが難しい。その責任を人間に丸投げするのではなく、YotaScaleはクラウドインフラの実行性能管理そのものを自動化する。

同社は、きわめて多面的で複雑なクラウドデータを絶えず精査して、顧客企業のインフラストラクチャがその重要な事業的プライオリティに向けて確実に最適化されている状態を保つ。プライオリティは、費用の最小化などシンプルなものもあれば、目標の異なる複数のプロジェクトが関与する複雑な動的構造のこともある。

“機械の稼働率が低い、などの単純なことなら人間にも分かるし、一部の機械を止めればすむことだ”、とYotaScaleのCEO Asim Razzaqは語る。

Razzaqのシステムは、クラウドの利用データに課金とログのデータを結びつける。その複合データが、ベースラインと対照して異状を検出するための基盤になる。大量のデータではない、と思われるかもしれないが、リソースの消費やCPUの利用状態などの稼働状況を外挿するには十分なのだ。

むしろ、異状検出で難しいのは‘正常’の定義だ。何が正常かは、状況によって千差万別だからだ。分かりやすい例としては、CPUの利用がスパイクしても、それがブラックフライデーのeコマースなら全然異常ではない。そこでYotaScaleは履歴データにだけこだわるのではなく、今後の見通しも重視する。それによって、状況によるデータの浮動も理解できるようになる。変化が見られたら、それらにいちいちフラグをつけるのではなく、パフォーマンスの見通しと実態を突き合わせる。

クラウドインフラストラクチャのデータは、さまざまなタイプのデータがさまざまな時間間隔で生成される。毎時というものもあれば、毎日、というものもある。それらの違いを正確に見極めながら最適化を図る作業が、非常に難しい。アンサンブル学習という機械学習のテクニックを利用して分析の精度を上げ、捕捉したデータの多面的な特徴を管理している。基本は回帰分析だが、用途によってはそのほかの半教師ありモデルも使っている。

YotaScaleのユーザーであるApigeeやZenefitsなどは、機械学習に頼ってクラウドコンピューティングのニーズの理想的な管理ができている。その負担が、クラウドからもDevOpsからも消えている。また言うまでもなく、機械学習はリアルタイムの分析がとても得意だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YouTube、毎日ビデオ10億本を自動字幕化と発表

2017-02-17-youtube-subtitle

Googleが最初にYouTubeに自動字幕化機能を導入したのは2009年のことだったが、結果は散々だった。しかしGoogleの音声認識機能は飛躍的進歩を遂げた。YouTubeの字幕化は現在でも多少の間違いは散見するものの、聴覚障害があるユーザーには欠かせない機能となっている。今日(米国時間2/16)、YouTubeチームが発表したところによると、毎日字幕を付加されるビデオは10億本、ユーザーは1500万人に上っているという。

Googleによれば、このサービスはエラー率で人間による文字起こしに日々近づきつつある。この数年の同社のエンジニアリング・チームの努力により、字幕の正確性は50%増加した。YouTubeビデオの内容はとほうもなく広い範囲にわたるので字幕を付けるのは困難な作業だ。同時にGoogleの音声認識テクノロジーにとって非常に有用な訓練データを提供する役割も果たしている。YouTubeのユーザー・コミュニティーは字幕をチェックし、間違いがあればフィードバックする。この情報も機械学習の精度をアップするのに非常に役立っている。

YouTubeの字幕化機能は現在10言語をサポートしている。YouTubeのプログラム・マネージャー、Liat Kaverは「われわれは音声認識の最新の成果をすべての言語に活かしたい」と書いている。

〔日本版〕記事中のスクリーンショットの字幕の中央部にYouTubeとあるが、Googleのブログ記事を見ると、当初は誤ってyouという字幕をつけていた。ブログ記事原文はこちら。サポートされている言語は英語、オランダ語、フランス語、ドイツ語、イタリア語、日本語、韓国語、ポルトガル語、ロシア語、スペイン語。 自動字幕起こし機能の利用法はこちら(日本語)。

元の動画(YouTubeクリエーターアカデミー)を下にエンベッドした。画面下部メニュー欄右側の四角い「字幕」アイコンをクリックすると画面内に字幕(英語)が表示される。YouTubeサイトに移動して「その他」メニューから「文字起こし」を選択すると画面下に別窓が開き、各国語に翻訳された字幕が表示される(画面内に表示される字幕とは別)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Baiduが音声アシスタントのRaven Techを買収してAI色を一層強める

img_9817-crop

Baiduがこのほど、音声アシスタントを開発している中国のスタートアップRaven Techを買収して、AIへの進出をさらに一歩前進させた。Baiduは、Ravenの技術と製品と60名のスタッフすべてを買収したことを確認した。

Baiduは1か月前に、以前Microsoftにいた、AIのエキスパートとして著名なQi Luを雇用し、COOとGroup Presidentの座に据えた。Raven Techの買収額は公表されていないが、同社はMicrosoft Venture AcceleratorとY Combinatorの出身であり、DCM VenturesやZhenfundなどのVCから1800万ドルを調達している。

Raven TechのFlowは中国のSiriと言われつつ、ビジネスとしては離陸できなかった。Tech In Asiaの指摘によると、そのアプリは中国のApp Storeで700位よりも下を一貫して低迷、一方Siriは標準中国語をサポートし、またXiaomiやBaiduのような有力企業からもライバル製品が登場していた。

Baiduによると、この買収を機に同社はデジタルアシスタントDuerや、それと関連する拡張現実製品に特化した新たな事業部門を作る。Raven TechのCEO Cheng LuはBaiduのスマートホームデバイス部門を率い、また、“新製品開発に関してDuerのチームと協働する”。Cheng Luは、Qi Luの配下になる。

BaiduのAIおよび機械学習路線は、CourseraのファウンダーAndrew Ngがそのトップであり、彼はカリフォルニアにあるBaiduの研究部門の長でもある。先月Baiduはそこへ拡張現実の研究グループを加え、さらにこの研究部門にはディープラーニングとビッグデータの研究グループも前からある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleとKaggleの共催で大量のビデオに自動的にタグ付けする機械学習アプリケーションの懸賞、賞金総額10万ドル

verticals-mosaic-6x3-big

GoogleとKaggleが今日(米国時間2/15)、機械学習の技術でビデオのタグ付けを自動化する方法の懸賞発表した

優勝賞金は3万ドルで、2位から4位まではそれぞれ2万5千、2万、1万5千、1万ドルの賞金をもらえる。応募するデベロッパーは、Googleが最近アップデートしたビデオデータの集合、YouTube-8M V2のビデオを分類してタグ付けする。700万本のYouTubeビデオから成るこのデータ集合は、計45万時間ぶんのビデオに相当する。ラベルはすでに付いているから、デベロッパーはそれを訓練データとして利用できる。ただし、まだ誰も見ていないビデオが70万本あるから、それらのタグ付けが難関だ。
kaggle
[ビデオのURL700万 総時間45万時間 オーディオ/ヴィジュアルフィーチャー32億 クラス4716 平均ラベル数3.4]

treemap-big

この懸賞を発表したまさに同じ日に、GoogleはTensorFlowの1.0をリリースしたが、おそらくそれは偶然ではない。懸賞で使用する機械学習フレームワークは、TensorFlowに限定されない。何を使ってもよい。しかしフルフレームで1.71TBにもなるこのデータ集合はGoogleのCloud Platform上にあるから、モデルの訓練にもGoogleのサービスを使うデベロッパーが多いだろう。しかも今回は、Cloud Platformを無料で使えるオプションもある。

先週Googleは、ビデオデータ集合YouTube-BoundingBoxesをローンチした。名前が示すとおり、このデータ集合(500万本のビデオ)には下図のように、各フレームにオブジェクトを指示するバウンディングボックス(囲み枠)がある。今回の懸賞でデベロッパーがそれらを使うことはないが、Googleがビデオの分類に関心を持っていることの表れでもある。日増しに成長を続けているYouTubeは、そこだけでの検索件数が、Google検索と競合するほかのどんな検索エンジンよりもたぶん多いのだ。

image00

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YahooがTensorFlowをApache Sparkで高度なスケーラビリティへアップ

Servers in Data Center

Apache Sparkの模範市民Yahooはかつて、CaffeによるディープラーニングモデルのスケーラビリティをSparkの並列処理で高めるフレームワーク、CaffeOnSparkを開発した。そしてそのYahooが今回は、TensorFlowOnSparkと呼ばれるプロジェクトをオープンソースで公開した。今度のそれは、SparkとTensorFlowを組み合わせることによって、大規模なクラスターで動くディープラーニングモデルを作るデベロッパーにとってTensorFlowフレームワークを、より魅力的にするものだ〔==TensorFlowのスケーラビリティを高める〕。

ビッグデータ時代の人気者になったApache Sparkは、効率の高い並列処理を可能にするオープンソースのフレームワークだ。Hadoopのようなシステムを追う形で出てきたSparkは、たとえばNetflixのような企業における大量のユーザーデータの処理を支え、リコメンデーションのスケールアップを可能にしている。

GoogleのTensorFlowやCaffeのような機械学習のフレームワークの登場によって、機械学習の専門知識のない者でもディープラーニングのモデルを作れるようになった。抽象度の高いライブラリがオープンソースで存在するからデベロッパーは、車輪を再発明する苦労から解放されて、いきなりモデルそのものを作ることができる。

ビッグデータの処理を高効率なクラスタリング並列処理で支えるSparkは、機械学習、中でもディープラーニングが必要とする膨大な量の、そして高速であることを要する、データ処理にも向いている。Yahooは自社で利用するためにCaffeOnSparkを作ったが、Caffe用のツールは機械学習のコミュニティのごく一部にとってしか恩恵がない。それに対して、人気がすごく高いフレームワークがTensorFlowだ(下図)。そこでYahooは、ディープラーニングのための大量高速データ処理をSparkにやらせるその処理枠組みを、TensorFlowに移植し、コミュニティの尊敬をかちとることを目指した。

YahooはTensorFlowとSparkのあいだに橋をかけるために、既存のツールSparkNetやTensorFrameを参考にしたが、最終的には一から自分で作る方が良い、と結論した。その結果デベロッパーは、自分の既存のTensorFlowプログラムを比較的簡単に、TensorFlowOnSparkを使うよう改造できる。

ディープラーニングのフレームワークは、デベロッパーたちが特定の“部族”に凝り固まる傾向がある。たとえばJavaで書かれたSkymindのDeeplearning4jは、最初からSparkを統合しているオープンソースのフレームワークだが、このライブラリの人気は6位と低い。そして他方には、複数種類のGPUにまたがるスケーラビリティを誇るMXNetがある。その特長がAmazonの関心をとらえ、AWSの努力によりMxNetはApacheのインキュベータに加入した

TensorFlowOnSparkはオープンソースだが、Yahoo自身による改良努力は今後も続く。入手は、YahooのGitHubから可能だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonのRekognition APIがあなたの年齢を当てる、いや…、当たらない?!?!

screen-shot-2017-02-10-at-10-30-27-am

自分は(たぶん)自分の歳を知っている。友だちに、自分の歳を当てさせることもできる。それになんと、Microsoftも、あなたの歳を当てられる。でもいちばん重要なのは、毎日買い物をするAmazonに、自分の歳を知ってもらうことじゃないかな。

これまでのところ、Amazonが自分の歳を何歳だと思っているか、知るためには、リコメンデーションの品目を見るしかなかった。昨日(きのう)なんかぼくは、一日の大半が、大量の短編SFを調べることでつぶれた。Amazonが、ぼくがそれを必要としている、と固く信じているからだ。そう、Amazonは、ぼくがテクノロジーの好きなミレニアル世代であることを、見事に当てているのだ。

でもこれからは、こんな、過去の事象に頼るテクニックは要らなくなる。AmazonのRekognition APIを作っている連中が今日(米国時間2/10)公開した便利な機能は、そこへ自分の写真をアップロードすると、年齢を当ててくれる。今日はたまたま、友だちの誕生日なので、Amazonのそのツールと、MicrosoftのHow-Old.netと、人間によるクラウドソーシングに、当て比べをやらせてみた。

まずAmazonだ — このWebアプリケーションは、友だちの年齢を26歳から43歳のあいだ、と推定した(上図)。彼の本当の年齢は26歳よりもずっと若いから、嬉しい結果ではない。性別と幸福状態には“appears”(〜〜と見える、思われる)という留保が付いているが、正しい確率は99.9%になってる。ぼくも、自分が43歳と思われないためには、つねに作り笑いでスマイルしているべきだろう。

screen-shot-2017-02-10-at-10-30-50-am

Amazonは大失態だったが、それでもMicrosoftよりはましだ。MicrosoftのHow-Old.netツールは、友だちの年齢を30歳と言った。参ったね。

三者の中では、人間がベストだった。ランダムに選んだ人たちに聞いてみた結果では、答の平均値が“22歳の半ば”だった。本当は、今日22歳になったばかりだから、6か月の誤差がある。

参照データを得るために、今度は自分の、顔に光がよく当たった写真でテストしてみた。やはり、誤差は大きい〔John Mannes, 1995/11/14生; 昨年まで本誌インターン〕。Microsoftは、ぼくの年齢を27歳と言ったが、ぼくの本当の年齢は友だち〔22歳〕よりも若いんだけどね!。

ご自分の写真を、ここここで試してみよう。その結果、その後のあなたの生活に起きるであろうさまざまな危機も、ご遠慮無く共有してくださってけっこうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

日本発のPaintsChainerはAIで線画を自動着色―ニューラルネットワークが驚異の能力

2017-02-03-paintschainer

スケッチが趣味という人は多いだろう。しかし線画を着色するという作業にはあまり魅力を感じないかもしれない。それなら最新のデジタルアート・テクノロジーが助けになる。

Chainerというのは非常に汎用性の高いニューラルネットワークのフレームワークだ。PaintsChainerはこのChainerフレーワークをベースにスケッチを自動的に着色してくれるプロジェクトだ。コンテンツが線画でさえあれば作成したツールは問わない。各種のフォーマットがサポートされている。JPG、PNG、GIFはもちろんTIFFでもよい〔ただしαチャンネルはサポートしていない〕。

ユーザーが線画を選んでウェブページにドラグ・アンド・ドロップするだけでシステムは水彩画ないし色鉛筆スタイルで着色を実行する。

Left to its own devices, the tool comes up with interesting color choices.

ヒントなしで作業させるとこのAIツールは自分の趣味で着色を行う。

もちろんユーザーはどの部分をどんな色で着色すべきかツールに正確に指示することができる。しかしブラウザ内に表示されるツールバーのカラーパレットから色を選んで希望の場所に点を打つことでAdventure Timeの登場人物とピカチュウの例のようにヒントの入力ができる。ヒントを細かく指定するほど仕上がりもよくなるようだ。いずれにしても自分で着色するのに比べればはるかにシンプルだ。

ofy8l1hn8utva2l4k1x7odgrmehec9mw_0

特に驚きなのはこのシステムがいっさいのヒントなしでも着色を実行できることだ。ガイダンス・システムを通じてわずかなヒントを与えるだけで出来栄えは大きく改善される。現在PaintsChainerを利用した多数の画像が公開されている。下に貼ったような非常によく描けたオリジナル線画も多い。Twitterで#PaintsChainerというハッシュタグで検索できる。

〔日本版〕ベースとなるAIフレームワークのChainerのサイト。PaintsChainer開発者tai2an氏の「自動着色デモ公開」のツイート。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWSのディープラーニングフレームワークMXNetがApacheソフトウェアの一員になる、対TensorFlow戦略の一環

Connecting lines, computer illustration.

Amazon Web Servicesの推奨ディープラーニングフレームワークMXNetが今日(米国時間1/30)、Apache Incubatorに加わった。このインキュベータに受け入れらることは、オープンソースのプロジェクトがApache Software Foundationの一員になるための第一歩だ。

Apache Software Foundationは、何千人ものデベロッパーによる、世界中のさまざまなオープンソースプロジェクトのメンテナンス努力を支えている。今後はMXNetも、Apche流儀の実績豊富なオープンソース方式を採用し、またApacheのコミュニティにアクセスできる利点も享受していく。

MXNetは、デベロッパーによるディープラーニングモデルの構築を助ける、今や数多いフレームワークの一つで、それらを使えることによってデベロッパーは、ユースケースごとに‘車輪を再発明’することを避けられる。さまざまな機械学習方式の中でもディープラーニングはとくに、大きなデータ集合からパターンを掘り出す処理に向いている。

それらの中でMXNetの差別化要因は、多様な言語に対応していることだ。デベロッパーはC++とPythonという主軸言語のほかに、R, Scala, MATLAB, JavaScriptなども使える。

MXNetのもうひとつの特長が、スケーラビリティだ。昨年Amazonがこのフレームワークの内部的利用と対外的推奨をを決めたとき、画像認識アルゴリズムを動かすGPUの数が多くなると、ほかのフレームワークに比べてスループットが良い(速い)、と言っていた。ただ速いだけでなく、MXNetは‘拡張効率’が良くて、GPUの台数増加率の85%の高いスループット向上が得られる、という。〔例: GPUの台数を2倍(200%)にすると、スループットは1.85倍に向上する。〕

しかしディープラーニングのフレームワークの中でMXNetは、ユーザー数の多さではGoogleのTensorFlowなどの後塵を拝している。AmazonがMXNetを推奨フレームワークにすることを決めたのは、デベロッパーたちの関心を高める意味もある。AWSはMXNetを機械学習コミュニティの人気者に育てるべく、コードとドキュメンテーションで尽力している。今回Apache Software Foundationの一員になったことも、この目標の実現に貢献するだろう。

Blue - TensorFlow, Yellow - Theano, Red - MXNet, Green - DL4J

青: TensorFlow, 黄色: Theano, 赤: MXNet, 緑: DL4J

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMの機械学習フレームワークPower AIがGoogleのTensorflowをサポート、Intelより一歩遅れて

shutterstock_157995017

IBMには、同社のPowerプロセッサーとNVIDIAのNVLinkをベースとするサーバーを使っている企業のための機械学習フレームワークPowerAIがある。NVLinkはGPUとCPUを結ぶ高速リンクで、ディープラーニングの計算はその多くをGPUが担当する。今日(米国時間1/26)同社は、そのPower AIが、機械学習ライブラリの中ではとくに人気のあるGoogleのTensorflowをサポートする、と発表した。

TensorFlowは公開されてまだ1年とちょっとだが、短期間でGitHub上の一番人気のオープンソース機械学習ライブラリになった。IBMのPowerAIはすでに、CAFFETheano, Torch, cuDNN, NVIDIA DIGITSなどのフレームワークをサポートしていたが、Tensorflowのサポートがないことが、まるで欠陥のように感じられていた。

IBMはPowerAIのNvidia NVLinkインタフェイスとPascal P100 GPUアクセラレータの組み合わせを、強力な差別化要因とみなしていた。その際、競合他社としていちばん意識しているのがIntelだが、そのIntelが最近Googleと組み、同社のCPUでTensorFlowのパフォーマンスを上げようとしている。

IBMはもちろん安物のサーバーを売っている企業ではないので、Power AIをサポートするマシン、Power System S822LC for high-performance computingは、プライスリストにすら載っていない。その一般商用バージョンの価格は、1万ドル弱から上だ。

IBMの今日の発表の中には、TensorFlowのサポートに加えて、ニューラルネットワークを作るためのフレームワークChainerのサポートがあった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがRaspberry Pi用のAIツール/ライブラリの提供を充実、TensorFlowも

pi3_angled_web

Googleは今年、人気の高いマイコンボードRaspberry Piを使っているメイカーたちのプロジェクトをパワーアップするために、開発ツールの充実を進める。それらは、顔認識、情動認識、音声のテキスト変換、自然言語処理、感情分析、予測分析などのソフトウェアツールだ。

今Googleは、Piメイカーへのアンケート調査で、彼らが欲しいと思っているツールを探っている。そのアンケートは、Raspberry Pi FoundationのWebサイトで見られる。

“Googleの関心は、メイカーたちのためのスマートツールを作ることであり、そのためには、みなさんの要望をお聞きする必要がある”、とアンケートは述べている。

アンケートの回答者は、まず関心分野を選ぶ: ホームオートメーション、ドローン、IoT、ロボット、3Dプリント、ウェアラブル、そして機械学習。Googleの対象が相当広いことが、これらからも分かる。

Piの協同ファウンダー、Eben Uptonはこう語る: “大きな機会がありそうなのは、ディープラーニングとAIだ。Googleはこの分野でとても強い、とくにDeepMindを買収してからはね。現実世界のさまざまな仕事をするRaspberry Piを、それらのサービスに結びつけると、もちろんいろんなメリットがあるだろう。ユーザーが何を志向しているのか、アンケート調査の結果を早く見たいね”。

イギリスの非営利団体であるPi Foundationは、この安価なマイコンキットで大成功し、昨年9月には1000万台を突破した。4年半前に最初にリリースしたときには、全部で数千台も売れれば十分、と彼は予測していた。

今ではPiメイカーたちのための開発ツールも豊富にあり、たとえば顔認識のプロジェクトなら、OpenCVのコンピュータービジョンライブラリを使える。

しかしGoogleが提供するのは、いろんなAIツールのセットであり、ユーザーもいろんなタイプのプロジェクトに容易に取り組める。たとえば機械学習のためのオープンソースのライブラリTensorFlowも、元々はGoogleで作られたツールだ。

Googleは前からPiに関心を持ち、2013年には100万ドル相当ぶんのこのマイコンをイギリスの15000名の学童にプレゼントした。多くの若者がプログラミングできるようになることは、Pi Foundationの中核的ミッションであると同時に、Googleにとっても重要なことだからだ。

またGoogleは以前、PiをベーシックなWebサーバーにするためのオープンソースツールを開発した。そしてGoogleのIoTプラットホームAndroid Thingsは、最新最強のPi、Pi 3をサポートしている。

AndroidのPi用公式バージョンはまだないけど、AndroidをPiの上で動かす方法はいろいろある(やや制約はあるが)。Googleが本物の実装に取り組んでいるらしい兆候もある。

それについてUptonはこう言う: “公式のAndroidに関するニュースはないけど、うちの社内のソフトウェアプラットホームとしてはPIXELとRaspbianに前から一貫して力を入れている”。

Googleのスポークスパーソンは、Piの開発ツールについてまだとくに詳しい情報はないけど、“今後とも、さらに多く、オープンソースの機械学習ツールをPiのコミュニティと共有していけることは、すばらしい。今年はもっといろいろあると思うから、ずっと見ていてほしい”、と語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Eloquent Labsが150万ドル調達ーAI+担当者+クラウドソースの新しいサ―ビス

widget_on_store

Keenon Werlingは、恐らく対話型AIが過大評価されていると最初に認めた人物だろう。そんな彼が最近設立したEloquent Labsは、他社のようにきらびやかなディープラーニングならぬディーパーラニングのアルゴリズムを売り出す代わりに、人間というもっとローテクな力を使ったサービスを開発している。カスタマーエクスペリエンス向上のための彼らの秘策は、AIとAmazonのMechanical Turkのようなクラウドソース、そして従来のカスターマービス担当者の融合だ。

本日Eloquent Labsは、シードラウンドでKhosla VenturesXSeed CapitalAlchemist Accelerator、エンジェル投資家などから150万ドルを調達したと発表した。

同社のビジネスモデルは、Elleと名付けられた対話型AIアシスタントを、Shopifyを利用しているオンラインショップに組み込み、配達状況の確認や返品処理、キャンセル、よくある質問への対応など、一般的なカスタマーサポート機能をスモールビジネスに提供するというものだ。このようなビジネスはこれまでにも存在したが、ここにクラウドソースが融合することに彼らのユニークさがある。

eloquent_team

左からSydney Li、Gabor Angeli、Keenon Werling、Brandon Maddick、Tian Wang

まずDigital Geniusのような企業は、以前からカスタマーサポートにおける「人間+AI」の活用をうたっている。例えばセーターを返品したいという人がシームレスなサービスを受けられるようにするため、ほとんどのスタートアップはシステムがどこで諦めるべきかに関するトレーニングを行っている。こうすることで、顧客とAIアシスタントのやり取りがとんでもない方向へ向かうのを防ぎ、顧客の質問内容がAIの処理できる範囲を超えると、人間の担当者が出てきてスムーズにやり取りを引き継ぎ、問題を解決できるようになっている。

この人間と機械の連携によって、企業はかなりのコストを削減してきた。Werlingによれば、小売企業は人間の担当者が関わるたびに平均で5ドル消費しており、逆に言えば機械が問題を処理するたびに、企業は自動的に5ドル得しているのだ。

しかしEloquent Labs設立の背景には、ほぼ機械がこなせるという十分な確証がないようなタスクに人間の担当者をあてがうことで、企業は未だに無駄なお金を使っているという考えがある。

Werlingは、AmazonのMechanical Turkのようなクラウドソースを利用した機械学習の研究を大学で行っていた。クラウドソーシングプラットフォーム上では、何十万もの人々が比較的簡単な作業をオンラインで請け負うことで収入を得ている。Eloquent Labsは、Mechanical Turkと人間の担当者、そしてAIを組み合わせることで、企業のコストをさらに抑えるようとしているのだ。

on_the_job_learning_teaser

実際のところ、ほとんどの機械学習は情報の分類の問題だ。誰かがチャットに文章を入力すると、機械がそのよくわからない文章を予め準備したリストと照らし合わせて、どうにか分類しようとする。もしも質問内容が商品の配達日に関することだと機械が自信を持って判断できれば、これは簡単な話だ。

しかし質問内容に(例示のためにかなり簡略化しているが)”オーダー”や”配送”といった単語が含まれていない場合、”DHLの予定”というフレーズが62%の確率で商品の配達日を示していたとしても、それは実際に機械が配達日に関する回答をするには十分な確率ではないのだ。従来のサービスであれば、ここで企業の担当者が出てきてフレーズの意味を判断するのだが、Eloquent Labsはこの段階でクラウドソースを利用している。

コスト削減以外にも、このアプローチには利点がある。クラウドソースを通じて仕事を請け負っている人は、Elleが処理できなかったタスクを引き継ぐと同時にEloquent Labsの機械学習モデルのトレーニングも行っているのだ。このような利点は全て、訓練もなしにオンデマンドで短い間だけ仕事をお願いすることができるクラウドソースのおかげで成り立っている。

営業・ビジネス開発面において、Eloquent Labsは発展段階にあるため、まだ同社のサービスに対してお金を払っている企業は存在しない。Zendeskのような巨大な競合がいるため、WerlingはAppleの戦略をまねて、まずはエグゼキューションを完璧にしようとしているのだ。

  1. eloquent_convo_1

  2. eloquent_convo_2

さらにElleは、人間と機械の連携における他の問題の解決にも役立つようにつくられている。例えば”見習い”モードを使えば、重要な顧客とのやりとりをElleに任せられると感じるまで、企業はElleが生成した回答を手動で承認・却下することもできる。

プロダクトの開発にあたり、Eloquent Labsはうまく課題に優先順位をつけられているようだ。人間の担当者にふられたやりとり(全く意味をなさないような質問)を再度機械に戻すといった機能を搭載することで、同社はさらにプロダクトを進化させられる可能性を持っている。一方でこのような双方向の連携は、現状のAIの性能を考えると大変難しいため、同機能を省いたのはEloquent Labsの賢い選択だと言える。しかし競争の激しい市場の中で、最終的には彼らもさらに他社との差別化を図る必要が出てくるだろう。

原文へ

(翻訳:Atsushi Yukutake/ Twitter