コンテンツをシェアする場所とタイミングをAIが最適化してトラフィックを倍増するEchoboxが$3.4Mを調達

image

オンライン出版のための人工知能サービス、を自称するEchoboxは、コンテンツをTwitterやFacebookなどで共有したいと考えているパブリッシャーを助けて、もっとインテリジェントな共有ができるようにする。その同社がこのほど、Mangrove Capital Partnersが率いるラウンドにより、340万ドルを調達した。これにはSaul and Robin KleinのLocalGlobeも参加した。

EchoboxのファウンダーでCEOのAntoine Amannはこう語る: “今度の資金でイノベーションをさらに推進し、AI技術を改良したい。また営業とマーケティング努力を拡大して、うちの技術を利用するパブリッシャーをもっと増やしたい”。

Le Monde, Le Figaro, Axel Springer, San Jose Mercury Newsなど有名誌紙を顧客に抱えるロンドンの同社は、パブリッシャーたちのデータサイエンスワークロードを受託する。具体的には、コンテンツをソーシャルメディアにシェアするタイミングの決定だ。

同社のAI技術、Echobox AIは、記事のヴァイラル性を正確に予測し、それをいつどこへポストすれば最大のトラフィック増が得られるかを判断する。そのほかのソーシャルメディア最適化/共有サービスと違うのは、パブリッシャー自身のアナリティクスとデータを利用して、AIをもっとオーダーメイド的に最適化することだ。

Amannは曰く、“弊社のAIは今では相当大きく進歩し、コンテンツのトラフィックがほぼ倍増するぐらいになった。また最近開発した“速報ニュース検出エンジン”により、記事の速報ニュース性をアルゴリズムで判断する。一見ささいなようだけど、でもこのイノベーションにより、パフォーマンスを大きく上げることができた”。

さらにAmannによると、Facebookが最近ニューズフィードの扱い方を変えて、企業(やパブリッシャー)よりも友だちや家族の共有を重視ようになったため、Echoboxのようなサービスがなお一層必要になってきた。

“Facebookはつねに多大な努力を投じてユーザー体験の向上に努めているから、今回のニューズフィードの扱いの変化なども、メディア企業にとって破壊的な影響をもたらすんだ。でもパブリッシャー自身は、そういう頻繁で激しい変化に対応して、コンテンツのオンライン配信を最適化するための方法論や技術を持っていない。それはとても大きくて、しかも絶えず進化しているデータサイエンスの問題だ。そのソリューションを、Echoboxが引き受ける”、と彼は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

YCombinatorが研究プロジェクト「都市のあるべき姿」を推進、SimCityのファンはぜひ参加を

alternative energy solar cell for the city

あなたは、新しい都市を設計したい、と思ったことはあるかな?

子どものころから長年、SimCityやLegosにはまっていた人たちに、幸運が訪れるかもしれない。YCombinatorが今、都市の住宅問題や公共施設の設計といった都市の問題の解決を目指す研究プロジェクトのために、都市問題/都市研究の一匹狼のような人たちを探している。

スマートシティというはやり言葉は、今では平凡で月並みな言葉になりつつあるが、でもYCは、起業というこれまでなかった視点からこの問題に取り組もうとしている。

YCが、公共サービスに実在する問題とスタートアップのアクセラレーションという二つのものを混ぜあわせようとするのは、これが初めてではない。同社は今、ベーシックインカムを市の施策として一般化した場合の影響を調べるために、オークランド市のプロジェクトに協力している。YCの計画では、一部の住民に年額計150万ドル近いベーシックインカムを提供し、彼らのその後の生活をコントロールグループ(対照群)と比較し調査する。

またYCの最新のプロジェクトのもっとも意欲的な目標は、都市にとって絶対必要不可欠な規制や規則を100ページ以内にまとめることだ。このプロジェクトには、ダイバーシティ(女性、非白人雇用)の増加や行政への市民参加の目標を、データ分析をもとに策定する、という仕事もある。

州のレベルでは、政策立案へのデータの利用を、主に州議会が先導してきた。2007年には、メリーランド州知事O’Malleyが、州データの一般公開で注目を浴びた。その事業は、透明性を確立し、また行政効果に関するデータの重要な分析結果を具体的に政策に反映していくことが、目的だった。

YCでは、Adora Cheungがこのプロジェクトをリードする。Cheungは、かつてY Combinatorが支援したHomejoyのCEOだった。Homejoyは現代的に合理化された清掃サービスを提供したが、労働者の待遇をめぐる法的問題で閉鎖した。

このプロジェクトについては、続報をお待ちいただきたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

インドア農業にデータ分析と営農アドバイスを提供するAgrilystがシードで$1Mを調達

tcdisrupt_ny16-5597

Disrupt SF 2015のBattlefieldで優勝したAgrilystが今日(米国時間5/11)、インドア農業に同社が提供する分析サービスの育成のために100万ドルのシード資金を獲得したことを発表した。

ラウンドをリードしたのはBrooklyn Bridge Venturesで、これにMetamorphic Venturesやそのほかのエンジェル投資家とシードファンドが参加した。その中には、同じくBattlefieldでデビューし、のちにFacebookが買収したQuickFireの創業者たちもいる。

Agrilystの協同ファウンダーAllison Kopfによると、この投資ラウンドは投資希望者の数が予定より多すぎた。それだけの関心が集まった原因は、彼女によると、関心はあるけど彼らがよく知らない農業という分野と、従来からあるSaaSのビジネスモデルおよびデータ分析の両者が、組み合わさっているからだ。

1 (1)

創業からほぼ1年になる同社は、現在の社員数が6名だ。昨年のDisrupt SFでデビューしたときには、やっとプロダクトのベータバージョンが完成した段階だった。

しかし今の同社はサービスの新しいバージョンを立ち上げるまでに成長し、その新サービスはとくに、野菜の生産向けに最適化されている。

またこのサービスには今ではワークフロー管理ツールや、在庫管理、作物の栄養管理と病疫や害虫管理の機能もある。今度のニューバージョンには、農業経営者が新規採用者を教育訓練するための機能もある。

ベータのときも今も、Agrilystはデータを利用してインドア農業の経営者に、営農管理の最適手法を勧奨する。今後は、作物をよりおいしくするための推奨事項も提供していきたい、という。

2 (2)

Kopfによると、インドア農家の多くがまだセンサーを使っていない。使っている農家でも、そのデータは彼らのデスクトップにローカルにたまっていくだけで、オンラインへ行かない。でもAgrilystに任せれば、スプレッドシートのデータでも十分利用価値があるのだ。

しかし状況は徐々に変わりつつあり、Agrilystは今ではインドア農業でよく使われているセンサーシステムからのデータも利用している(CO2や土壌水分など)。でもまだ、データ入力の多くは手作業で行われている。しかしAgrilyst自身は、ハードウェア企業になるつもりはなく、むしろできるだけ多くのサードパーティ製センサーをサポートしていきたい、という。

Kopfによると、同社がローンチしたときは、マリファナ関連の企業だと思われたくなかったが、しかし蓋を開けてみると、今インドア農業で急速に成長しているのが、マリファナの栽培なのだ。そこで7月以降は、Agrilystはマリファナの栽培農家もサポートしていく。

agrilyst

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Strata + Hadoop World 2016に見るビッグデータの最新トレンド、「インメモリ」で「リアルタイム」へ

15366067990_febad7909e_k

[筆者: Josh Klahr](Atscaleのプロダクト担当VP)

今年もまたStrata + Hadoop Worldが始まる。それはいつも、一歩引いてセッションの内容を一望し、ビッグデータの最新の動向を理解するための、良い機会だ。

これまで毎年のようにこのカンファレンス参加してきた人は、このイベントがオープンソースの技術を実験するソフトウェアデベロッパーのための催しから、重要なエンタープライズソフトウェアの大会に変わってきたことを、目撃されただろう。今ではデベロッパーだけでなく、企業の役員たちや、ベンダー、プロフェッショナルなサービスのプロバイダーたちが一堂に会して、この分野の最新の開発について共有し、学習している。

サンノゼで行われる今年の大会の、もっともホットな話題を知るために、この週全体にわたるコンテンツ(教育訓練クラス、キーノート、プレゼンテーションなど)のタイトルに登場する言葉の頻度を数えてみた。当たり前のような言葉(Hadoop, data, analytics, Apacheなど)を取り除いて集計すると、上位の語彙は下図のようになる:

pasted image 0 (10)

このデータをじっくり見ると、ビッグデータ界隈における、いくつかの重要なトレンドが浮かび上がってくるのではないだろうか。

Sparkの採用と関心が成長を続けている: 採用の絶対数では依然としてHadoopがトップだが、このところ、ビッグデータのエコシステムにおけるSparkの成長が著しい。HadoopとSparkは二頭の王座、と言えるかもしれない。とりわけSparkはユースケースの幅が広くて、データのパイプライン処理や、データサイエンスワークロードの並列処理といった分野でも利用されている。

ストリーミングとリアルタイムが“次の大物”: 上図では、“streaming”や“real-time”と並んで、“kafka”、そしてKafkaの商用ディストリビューションである“confluent”が上位に来ている。今企業は、Hadoopのクラスタにデータをバッチでロードし処理することには成功し、次の段階として、リアルタイムのデータ取り入れ、処理、そして分析へと関心を移しつつある。

視覚化は依然として重要: AtScaleのHadoop Maturity Surveyによると、最近の企業はますます、Hadoop上のビジネスインテリジェンスユースケースの展開に力を入れつつある。その関心は、データサイエンスへの投資を上回っている(メディアは今でもデータサイエンスを“セクシー(ナウい!)と持ち上げているけど)。データの視覚化とセルフサービスは、Hadoopの世界においても、今後も重要な投資対象であり続ける。

SQL-on-Hadoopが脇役から主役に昇進: 上図のHadoop World上位語彙のリストにはSQL-on-Hadoopが見当たらない。前年までは、Hiveに始まりImpalaやSparkSQL(そしてそのほかの商用SQL-on-Hadoop製品の数々)に至るまで、これらの技術に対する熱い関心があった。しかしSQL-on-Hadoopは勢いが衰えたのではなくて、Hadoopツールキットにおける“必須品目(must have)”になり、メインストリームの一員になったのだ。Hadoop上のビジネスインテリジェンスに関する最近のベンチマークが示しているように、今ではこれらのSQLエンジンが大規模で分析的なSQLワークロードをサポートしている。

インメモリサブストレート…それは次の最適化か?: 語彙リストの上位に登場している“alluxio”とは、なんだろうか? Alluxioは、最近Tachyonから改名された仮想分散ストレージシステムだ。それはメモリ基板(サブストレート)を利用するストレージなので、クラスタ間のデータ共有がメモリのスピードで行われる。SQL-on-Hadoopエンジンの場合ならそれによってクェリの時間が速くなりパフォーマンスが上がる。Alluxioを採用したBaiduの経験でも、確かに彼らの分析的データ処理がスピードアップしている。

Hadoopの採用が最大の関心: “adoption”と“production”がリストの上位: 今では多くのIT組織が、次世代のデータプラットホームとしてHadoopに大きな期待を寄せ、ワークロードをTeradataのようなレガシーシステムから、もっとローコストでスケーラブルな環境へ移行させつつある。これらの組織にとって重要なのは、彼らのHadoopへの投資が、ビジネスインテリジェンスなどの中核的なビジネス機能によってプロダクションクラスタ(実用・現用システムで使われるクラスタ)の形で採用され、現実にコスト低減に貢献している、と実証することだ。“production”へのこだわりは、試用やパイロットの段階を超えた実践実用レベルへの関心の強さを表している。

クラウド上のビッグデータを忘れるな: AmazonとMicrosoftの二社がリストに登場している。Hadoopへの取り組みが遅かったMicrosoftも、今ではビッグデータの分野で大きな成功を収め、HDInsightのようなサービスを提供している(WindowsではなくLinux上で動く!)。そしてAmazonは前から一貫して、ビッグデータの分野に大きな貢献を果たしている。中でもとくにRedshiftは、S3やEMR(Elastic MapReduce)などの人気サービスを補完するサービスとして、採用が引き続き増加している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データを発見しそれらの起源・出自を調べるLinkedInの社内ツールWhereHowsがオープンソース化

linkedin-chocs

LinkedInが今日(米国時間3/3)、WhereHowsをオープンソース化した。WhereHowsは主に同社の社員が、同社が生成するデータを見つけ、また同社のさまざまな内部的ツールやサービスで使われているデータ集合の出自を調べるために使っている、メタデータツールだ。

今では多くの企業が毎日のように大量のデータを作り出しているから、それらの情報のフローを全社的に管理することがほとんど不可能になっている。データウエアハウスに保存するのはいいけれども、結局のところ、同じようなデータ集合が大量に集積したり、元のデータ集合のいろんなバージョンが散乱したり、いろんなツールで使うためにデータ集合がさまざまに変形されていたりする。まったく同じデータが、名前やバージョンを変えて複数のシステムにあることもある。だからたとえば新製品開発をこれから始める、というとき、あるいは単純に役員が見るためのレポートを作ろうとするとき、どのデータ集合を使えばよいのか、よく分からないことが多い。

2016-03-03_0839

LinkedInのShirshanka DasとEric Sunによると、同社もまさしく、この問題に直面していた。そこで彼らは、WhereHowsを開発した。それは、LinkedInのような大きな企業で、データに何が起こっているかを常時追跡するための、中央的リポジトリ兼Webベースのポータルだ。今では中小企業ですら、大量かつ雑多なデータの整理や管理に悩まされているだろう。LinkedInでは、WhereHowsが現在、約5万のデータ集合と14000のコメントと3500万のジョブ実行の、ステータスに関するデータを保存している。それらのステータスデータは、約15ペタバイトもの情報に対応している。

LinkedInはHadoopの大ユーザーだが、このツールはほかのシステムのデータも追跡できる(Oracleデータベース、Informatica、などなど)。

WhereHowsはAPIとWebの両方でアクセスできるから、社員たちはデータ集合の出自や由来を視覚化したり、注釈を加えたり、いろんなことができる。

DasとSunによると、LinkedInは、そのサービス本体に属していないプロダクトをこれまでも長年、オープンソース化してきた。その基本的なねらいは、会話を喚起することだ。ビッグデータの大きなエコシステムがあれこれのツールを採用すると、同社もそのことで結果的に得をする。これまでぼくが取材してきた多くの企業と同様に、LinkedInでも、オープンソースが同社の技術のブランドイメージを高め、すぐれた人材の獲得を容易にするのだ。

2016-03-03_0844

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Databricksの無料Spark学習コースにオンラインのマイクロインスタンスCommunity Editionが補助教材として加わる…受講者10万超をねらう

shutterstock_230086303

Apache Sparkオープンソースプロジェクトの商用実装をビジネスとするDatabricksが今日(米国時間2/17)、Sparkの使い方を人びとに教えるための、無料のCommunity Editionをリリースした。それは、同社が昨年作った無料のオンラインコースMOOCs〔複数形〕)の教材として利用される。

この無料バージョンは有料のエンタープライズバージョンにある高度な機能はなくて、Sparkによるビッグデータ処理の初歩を、小さな単一のSparkインスタンス(“マイクロインスタンス”)で学んでいく。

同社のMOOCsは驚くほど好評で、これまで50000名が受講、演習やテストを含め全課程を終了した者は20000名に達する。DatabricksのCEOで協同ファウンダーのAli Ghodsiが、そう説明した。

Sparkを学びたいという関心がこれほどまでに大きいことを見た同社は、コースの補助教材としてCommunity Editionを作ることにした。Community EditionとMOOCsを結びつけることによってDatabricksは、地球上のへき地に住む低所得の人たちにも、データサイエンスの初歩とSparkを教えることができる。つまり、コンピュータとインターネット接続と、コースを完了する意志さえあれば、誰でもコースを受講できる。

学習者はDatabricksの基礎的な機能にアクセスして、マイクロクラスタの作り方とか、クラスタ管理ツールの使い方、ノートブックやダッシュボードの作り方を学ぶ。もっと大きなクラスタの作り方や高度な機能を会得したければ、クレジットカードをスワイプして本格的なビジネスコースへ進めばよい。

Databricksに投資しているAndreessen Horowitzの協同ファウンダーでパートナーのBen Horowitzによると、Community Editionによってビッグデータとその分析の敷居が、きわめて低くなり、誰もが気軽に学べるものになった。

“それまでは自分でクラスタを作るか、あるいは大学のコースなどに毎月何千ドルも払って、データサイエンスや高度なデータ分析、機械学習などを本格的に勉強する必要があった”、とHorowitzは声明文の中で言っている。

安上がりをねらった同社は、まず、学習者がクラスタの構築や保存のために使うコンピューティングリソースとして、Amazon Web Servicesを利用している。その高度な共有環境を同社が細心の注意をもって管理することにより、低コスト化に成功している。

“仮想マシンを共有することにより、コストを大幅に下げることができた。同じリソースを複数の学習者が再利用していくから、無駄が生じない。その方法をMOOCの一つで試してみて、意外なほどうまくいったんだ”、とGhodsiは語る。

もちろんこれは、慈善事業ではない。たくさんの人間にSparkと関連ツールの使い方を無料で教えれば、その後、その中の何人かが必ず有料の顧客になる、と同社は確信している。同社はすでに、MOOCsでそんな経験をしている。Community Editionが加われば、それがもっと増えるだろう。

“これはとても優れた見込み客生成プロジェクトだ。うちの企業経営に大きく貢献するだろう”、と彼は語る。

DatabricksのMOOCは、今年もっと増える。そして来年には、受講者数を10万人以上にもっていきたい、という。無料のCommunity Editionが好評なら、それも夢ではないだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

テキストの目的効果パフォーマンスを分析するTextioが$8Mを調達、TwitterやMicrosoftもユーザだ

textioscreenshot

TextioのCEO Kieran Snyderは大学で、定量的言語学研究を専攻した。だから彼女と協同ファウンダのJensen HarrisがMicrosoftを去って新しい会社を始めたとき、それが言語を軸とする企業になったのも、当然の成り行きだった。

かくして、一定の状況における、テキスト中の語句のパフォーマンスを分析するスタートアップTextioが誕生した。同社は今日(米国時間12/16)、Emergence Capitalが率いるラウンドで800万ドルを調達したことを発表した。Cowboy VenturesとBloomberg Beta、およびUpside Partnershipがこのラウンドに参加した。

Snyderは語る: “テキスト中の語句の処理は相当長らくディスラプトされていない、と前から感じていた。コンピュータ処理のユーザインタフェイスはコマンドラインからGUIに変わったけれども、処理の中身が変わっていない。インターネットがやってきて、ソーシャルとか共有の時代になった。そのことをベースに、AIとその関連技術が、テキストに対する次の大きなディスラプターになるだろう。ドキュメントのパフォーマンスが発表前に分かれば、それを直してから発表できるようになる”。

Textioの最初のツールは、人材獲得、たとえばジョブポスティング(job postings, 求人票, 求人広告)のためのドキュメントが対象だ。それらのドキュメントのパフォーマンスとは、良い人材がたくさん集まるかどうかだ。言葉を適切に選び、良いレイアウトをすれば、多くの求職者の関心を集めることができる。そこで同社のサービスは、ドキュメントに対する予測的分析を行う。たとえばそのツールでは、要点が箇条書きになっているジョブポスティングは、文章だけのよりもパフォーマンスが良い、という結果が出ている。

もちろん、テキストのパフォーマンスは、メールや履歴書など、そのほかのドキュメントでも重要だし、Textioのツールが十分に使える分野だ。いろんな文書に対して、テキストの効果を採点する技術を応用できることが、投資家にとって、同社の魅力だ。

そして、もうひとつ、投資家にとって価値があるのは、同社の顧客だ。Textioはすでに、Twitter, Atlassian, Starbucks, Square, それにMicrosoftなどが利用している。自然言語処理(Natural Language Processing, NLP)の技術は…出来の良いものであれば…応用範囲がきわめて広いから、投資家という蜂たちにとっては、蜜の豊富な花なのだ。

Textioの予測的分析技術は、6万あまりの語句(語とフレーズ)を認識する。Snyderによれば、そのデータ集合は継続的な運用を通じてコンスタントに変化している。この技術はたとえば、語の並びを分析する(“このフレーズは動詞が重い(難解である)”とか)。ドキュメントの構文関連の特性も分析する。それらの分析結果を合わせて、現状のドキュメントを採点し、そのドキュメントが目的をどれぐらい達成しそうか、を評価する。

Textioは言語学の専門家が使うわけではないから、使いやすさが重要だ。だからドキュメントの評価を文章ではなく高輝度表示やドロップダウンボックスを利用して行う。ユーザはNLPの専門家でもないから、このツールの舞台裏で統計学が活躍していることも、ユーザはあまり感じていないようだ、とSnyderは言っている。

もちろん、NLPは昔も今もコンペティタが多い分野だ。大物ではIBMのWatsonがテキストの分析もやるし、そのAPIを上手に使えばTextioと同じようなことができるだろう。しかしSnyderがTextioの強みとして挙げるのは、技術の、コンテンツタイプ別のチューンナップだ。たとえば上述の、人材獲得用ドキュメントの場合のように。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

メッセージングアプリでコンピュータサイエンスおたくがデザイン偏重のWebに復讐する

chatapps

[筆者: Indus Khaitan](Oracleに買収されたエンタプライズモバイルのBitzer Mobileの協同ファウンダ。その前はソーシャルメディアのコンテンツ発見プラットホームSezWhoのCTO。)

初期のWebサイトは単純なHTMLだった。長いHTML文が何でも表現し、左右対称のページレイアウトが好まれた。CSSがなかったので、今日のように、HTMLのコードが三次元的に肥大することはなかった。ぼくは最初からCSSが嫌いで、今でも大嫌いだ。

敬愛すると同時に憎たらしくもあるデザイナーたちが、ぼくのWebを乗っ取ってしまった。彼らは、ぼくのシンプルなHTMLのコードを、CSSとJavaScriptの煮えたぎるマグマの中に放り込んだ。Webサーバ以外の部分では、元々デザイナーだった友だちの多くが、Webデベロッパやアプリのデベロッパになった。

しかしぼくは、あくまでもコンピュータサイエンスのエンジニアなので、Webデザインという軽薄なアートに手を染めることはなかった。その代わり、お金を払った。たくさんのお金を、Webデザイナーたちに払った。

Webのフロントエンドの開発は、今や混乱のきわみだ。フォームの記入欄を表示するといった簡単なことでも、10とおり以上ものやり方がある。そしてそれらのやり方は標準性がなく、どれもばらばらだ。ささやかなHTMLをCSSで粉飾し、それにJavaScriptを加えてページを100%混乱させる。言うまでもなく、同じマークアップコードを複数のJavaScriptフレームワークが管理していると、混乱は倍増する。もっとひどいのは、複数のデベロッパが触ったページだ。それは、複数の外科医が昼休みにバーガーを食いながら手術をした患者の体になる。

モバイルアプリともなると、デザイナーへの依存度がWebの10倍になる。さまざまな画面サイズや、解像度、ボタン、画像、それらと絡み合うテキスト…これらを管理しなければならない。そしてルックスがすべてに優先するから、関係データベースの湖から流れ出るビットの内面的な美を鑑賞する楽しみは、消え去る。

でも、解脱の時が近づいている。チャットのウィンドウが、新しいユーザインタフェイスになりつつある。エージェント(人間またはマシン)と会話をする、仕事はそれだけだ。今日の、ごてごてしたWebページと違って、メッセージングアプリにはマークアップがなくて、テキストをネットワークに乗せるだけだ。Human Computer Interaction(HCI)の理論は、人間の日常の動作に倣え、と教える。メッセージングアプリなら、それが可能だ。

チャットでコンピュータサイエンスが再び輝きを取り戻す。

メッセージングアプリは今でも、新種が続々出ている。Magic, GoButler and Operatorなどなど、WeChatの成功の後を追うアジア製が多い。いずれも単純なテキストメッセージをやりとりするだけがアプリの仕事だが、料理の注文も、タクシーの呼び出しも、航空券の予約も、何でもできる。どれも人間の生活を助ける人間コンシェルジュが相手だが、中には人間とマシンの対話もある。後者の場合でもしかし、人間の日常の会話を真似ている。人間がエージェント(人間または機械)に話しかける。向こうにいる人間またはマシンがメニューを説明し、配達してほしい品物の購入トランザクションが完了する。

チャットでコンピュータサイエンスが再び輝きを取り戻す。Webページやアプリの画面で、何をどこに置こうか考えるのではなく、チャットアプリでは、機械学習やデータ構造をめぐって本物のイノベーションが起きている。単純なテキストによる会話が定型データへと整理され、JSONのペイロードを介してどこかのAPIに投入される。

今日では、アプリの多くを人間がサポートしている。ときには、人間の大群が。でも彼らの仕事には、機械学習の技術が使いやすくなったために、完全に自動化できるものが多い。たとえば、誰でも使える機械学習エンジンIBM Watsonをベースとして、(Facebookが買収した)wit.aiのような新進スタートアップが続々登場している。Y Combinatorの傘下にも、MonkeyLearnのような機械学習大衆化サービス、AIaaS(artificial intelligence-as-a-service)が増えているという。

機械学習をクラウドサービスとして使えるようになり、メッセージングがユーザインタフェイスになれば、今や時代は再び、コンピュータサイエンスおたく(nerd)のものだ。メッセージングアプリによって、今日のWebページが陥(おちい)ってしまった軽佻浮薄なフレームワークにおさらばできる。そして、人間と機械の対話の、単純性を取り戻せるのだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

都市の大規模建設プロジェクトから発生頻度の高い問題やエラーをビッグデータ分析で事前に取り除くVernox Labs

scaffolding

都市における建設や土地開発は、スケーラビリティとは縁遠いビジネスの典型だ。

まず、設計はそのときかぎりで、再利用性がない。土地利用の政策は各地域や国によってまちまちで、標準性がない。現場のサイズも大小まちまち、使用する素材も建物ごとに違う。つまりそれは、スケールするビジネスではない。

予算オーバーが日常化し、それはまれな例外ではない。

そこで、このほどY Combinatorから孵化したVernox Labsは、過去のプロジェクトから得られる多様な非定型データを活用して、上記のような、いろんな面での予測不可能性をできるかぎり排除しようとする。そして、ゼネコンや設計家やプロジェクトマネージャが、よくあるエラーをなるべく犯さないようにする。

まず、住居系のプロジェクトや病院などプロジェクトのタイプ別に、ゼネコンと設計事務所とのあいだで交わされる大量のメールやWordの文書やExcelのファイルなどを人工知能が読んで分析する。

そしてそれらのデータから、予測可能事のチェックリストないし設計の事前リビューを自動生成し、プロジェクトマネージャはそれと、新しい企画の細部を照らし合わせる。またGoogleのような検索エンジンを使って、部位や素材に対して下請けや建設労働者が抱く疑問に、即座に答える。

協同ファウンダのVinayak Nagpalはこう語る: “建設プロジェクトは、ひとつひとつが閉鎖的な蛸壺(silo, サイロ)だ。新規のプロジェクトは、できたてほやほやのスタートアップに似ている。しかしそれでも、毎回々々、同じような問題があちこちに生じてしまうんだよ”。

Nagpalは、トラブル続きのNokiaを辞め、Michael Savaianoと共に、UC BerkeleyのCenter for Entrepreneurship & TechnologyでVernox Labsを立ち上げた。

Savaianoは言う、“いつも、同じようなことを見忘れている。なにか、カーテンウォールのようなものが、毎度々々、過去に何千回も作られている。だから、過去の状況が分かれば、そこから学べるはずなのだ”。

Savaianoの説明によると、デベロッパは完成物の具体的なイメージを持っている。それを設計家に持ち込むと、設計家は設計を作る。次に、ゼネコンが登場して、その設計をいじくり回す。そこから、設計者と建築者とのあいだの、ありとあらゆる行き違い、コミュニケーションのエラーが生じてくる。

“今のビルは、とても複雑だ。その設計は、なお一層複雑だ。素材も、いろいろありすぎて複雑だ。建築を進めるシステム全体が、ものすごく複雑だ”、と彼は語る。“しかしそれでも、これまではプロジェクトのデリバリを助けるものが何もなかった。その状況は、何百年も変わっていない。われわれは、そこに着目したのだ”。

かつて大企業相手の営業をやっていたSavaianoは、パイロット協力企業を二社確保した。そのデベロッパ二社の名前は、当面非公開だ。Vernox Labsのサービスは今は無料だが、いずれは有料になる。

“うちがやるのは、起きうる問題を事前にシミュレートし、求めに応じて予測を作り出すことだ”、とSavaianoは述べる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

需給ギャップが大きいデータサイエンス技術者をオンラインコースで育てるDataCampがシード資金$1Mを調達

shutterstock_144037288

データサイエンスとその技能の持ち主をもっと多くしたい、と願う教育サービスDataCampが、Accompliceがリードするシードラウンドで100万ドルを獲得した。すでに30万ドルを獲得している同社にとってこれは、二分割二度目のシード資金になる。

DataCampはGeneral AssemblyCodeacademyのように一般的なプログラミングを教えるのではなく、もっぱらデータサイエンスのスキルを教える。

ファウンダのJonathan Cornelissen曰く、今データサイエンススキルに関しては需給ギャップがとても大きい。“うちはこの、データを扱える者が今はものすごく少ない、という問題を解決したい”。

AccompliceのChris Lynchも、こう語る: “うちがDataCampに投資したのも、データサイエンスが1000億ドルの市場で、年率30%で成長しているからだ。今、データサイエンティストは10万人ぐらいしかいない”。データサイエンスの人材は今圧倒的に売り手市場だから、DataCampのような企業は投資家にとっても魅力が大きい。

データサイエンスのためのプログラミング言語といえばRだが、DataCampは6部13モジュールから成るRのコースを立ち上げた。生徒たちはデータ分析の基本を学びながら、Rによるデータの操作、モデリング、視覚化などの技法を身につけていく。

ただしこれは、あくまでも入門編だ。

来年は実践編として、実際にSparkやHadoopなどのソフトウェアツールを使うデータサイエンススキルのコースを立ち上げる。コースのこのような拡張や多様化は、最初から計画されている。

学費は月額25ドルで、DataCampのすべてのリソースに無制限でアクセスできる。一部のコースは、試行用として無料だ。個人がそうやって‘入学する’形のほかに、Microsoftなどの企業が社員教育のために同社とパートナーするケースもある。

2年近く前にベルギーで起業した同社は、昨年ニューヨークにやってきてTechStarsの育成事業に参加し、同時に合衆国への進出を果たした。これまでもトラフィックのほとんどが合衆国から、そしてパートナー企業も合衆国企業が大半だったから、アメリカ進出は同社の既定路線だったとも言える。

提供するコースには、同社が作るものと、パートナー企業が提供するものがある。たとえば金融分野専門のデータサイエンスコースが必要になれば、その道のエキスパート企業を起用することになるだろう。

Accompliceがマサチューセッツ州ケンブリッジの、起業初期専門のVCなので、そのご縁でDataCampは州都ボストンにオフィスを構えた。ウェストコーストに比べると故国のベルギーに近いことも、ここを選んだ理由の一つだ。

[原文へ]
(翻訳:iwatani(a.k.a.
hiwa

“部屋を片付けられない病”ならぬ“データを片付けられない病”になりつつある現代企業を救うKomprise…ストレージとデータ管理のスケーリングを自動化/効率化

userinterface1

大量のデータを保存することには、費用が伴う。正しい情報管理の方法を実践していない企業では、その費用も大きい。しかしここでご紹介するKompriseは、企業が抱えるビッグデータをすっきりと分かりやすく整理して、余計なストレージ費用が発生しないようにする。

サンフランシスコ生まれのKompriseは今ベータを準備中で、最近600万ドルのシリーズAをCanaan Partnersから調達したばかりだ。その同社のサービスとは、データの保存と組織化と分析を、オンプレミスのサーバやクラウドにおいて、高い費用効率で自動化することだ。新たな資金は、陣容の増員に充てられる。〔Kompise→comprise→すべての部分要素から全体を構成すること。〕

同社のファウンダはCEOがKumar Goswami、COOがKrishna Subramanian、そしてCTOがMichael Peercyだが、彼らにとってKompriseは三つめのスタートアップだ。その前の仮想デスクトップサービスKavizaは2011年にCitrixに買収された

Subramanianは曰く、“前の二つのビジネスは、データに関して企業が抱える別の問題に焦点を当てていた。最初のスタートアップは営業のためのファイル共有アプリケーションだったし、その次のは、仮想デスクトップで高価なSAN(storage area network)を使わずに済ませるサービスだった”。

“それらを通じて顧客から学んだのは、データに関して今日の彼らが抱える最大の問題が、日々のデータの増加量が、かつてなかったほどにすさまじく多いことだ”。

そのため今では、企業の年間のIT予算の1/4が、ストレージとデータ管理に充てられている。しかも、それらのデータの多くが、各担当部署で蛸壺(たこつぼ)入りしているだけで、まったく活用されていない。…Kompriseのファウンダたちは、そんな状況を至るところで見た。

そこでKompriseが考えたのが、オンプレミスのサーバの容量をクラウド上のストレージで拡張する、というソリューションだ。それによってかえって、必要なデータへのアクセスやデータの管理が容易になる、と彼らは展望した。

CTOのPeercyによると、“Kompriseを使えば企業は最大で70%のコスト削減を図り、しかも効率をアップできる。またDevOpsチームのある企業では、新しいアプリケーションをクラウドで動かしたいが必要なデータはオンプレミスにある、という状況を改善できる。Kompriseのサービスにより、データの保存と管理が自動化そして効率化され、つねに必要なところにデータがあるという状態を実現できる”、ということだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

日本のSoftbankがアメリカ最大の投資…リアルタイムイベント探索BanjoのシリーズC $100Mをリード

image_hero

イベントや最新ニュースに関するデータ〔主に画像データ〕をリアルタイムで分析するBanjoが、SoftbankがリードするシリーズCのラウンドで、1億ドルを調達した。以前の投資家BlueRun Venturesも、このラウンドに参加した。

これはBanjoにとって圧倒的に最大のラウンドで、これで同社の総調達額は1億2100万ドルになった。同社のシリーズBは2014年3月の1600万ドル、シリーズAは2010年8月の500万ドルだ(どちらもBlueRun Venturesが参加した)。

同社のプレスリリースによると、新たな資金の一部でデータサイエンティストとエンジニアの増員を行う。同社はソーシャルディスカバリーアプリとしてスタートしたが、その後、ニュースのパブリッシャーなどのためのデータ分析に方向転換をした。

1年前のシリーズBは、消費者向けのプロダクトからイベント分析プラットホームに方向変えするための資金として使われた。Banjoは後者のサービスのことを、クリスタルボール(crystal ball, 水晶球)と呼んでいる*。〔*: ホームページでは“神の目の視野”、と豪語している。〕

ニュース企業のNBCやFox、BBCなどは、最新ニュースをTwitterやFacebookなどで騒がれる前に報じるためにBanjoを利用している。同社が提供するインサイトを、救急機関や交通安全のための道路規制当局なども利用している。

Wall Street Journalのインタビューで、ファウンダでCEOのDamien Pattonは、Banjoの“クリスタルボール”を開発しようと思ったのは、2013年のボストン・マラソンのテロ事件が契機だった、と述べている。そのときは、多くの見物人たちが、何が起こったのか分からずに右往左往していた。そこでPattonは、目撃者がアップロードしたビデオや写真を迅速に配信できれば、警察などよりも早く重要な情報を画像で知ることができるはずだ、と考えた。

日本のSoftbankにとって今回は、合衆国における最大の投資だ。アジアではSoftbankは、SnapdealやAlibabaなどのeコマース企業、それにKuadi DacheやOlaのようなタクシーサービスに大きな投資をしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

自動化マーケティングの将来…データから顧客や市場の現実を知ることがベース

marketingfuture

[筆者: Vik Singh]
編集者注記: Vik SinghはInferの協同ファウンダでCEO。それまでの彼はSutter Hill Venturesの正社員起業家。彼は検索やソーシャルネットワークやコンテンツオプティマイゼーションの分野で13件の特許を持っている。

その業界に詳しいDavid Raabの説では、マーケターの三人に二人は既存のマーケティング自動化ソフトウェアに大なり小なり不満である。またBluewolfの調査報告書“State of Salesforce”は、マーケティングソフトへの投資のわずか7%しか、まともなROIを得られないという。この、企業や商店に大きな利益をもたらすはずの自動化マーケティングは今、標準性を欠く乱雑な多様化とユーザの不満が激化しているのだ。

Marketing Automation Market Share (Source: Datanyze)

マーケティング自動化サービスのマーケットシェア(出典: Datanyze)

自動化マーケティングがそうなってしまった原因は、そのルーツがメール爆弾であることにある。そういうシステムはユーザのターゲットページや入力フォームやWebのアクティビティデータやトリガや、などなどに長年勝手に貼り付いてきたから、だんだん、やることが多くなって肥大し、ユーザがうんざりするような、口数ばかり多い無能ソフト/アプリケーション/サービスへと頽落した。

たとえば下の図はEloquaのスクリーンショットだが、この積み木ゲーム(Jenga)のような画面を見ると、われわれ自動化マーケティングの連中が今マーケターたちに提供しているものが、どんだけややこしくて脆(もろ)いものであるか、が分かる。われわれ、と言ったのは、こんな面倒な推奨ワークフローをマーケターに提示しているのは、Eloquaだけではないからだ。

Infer TC Image

自動化マーケティングが自動化しない

最大の問題は、上図のようなワークフローが、良い見込み客を見つけるための画一的で普遍的な法則とされ、具体的なデータに基づく指針になっていないことだ。

たとえば、こんなワークフローだ: “ユーザがこのリンクをクリックして、そのあと、あのリンクを二度クリックしたら、二日後にこのメールを送りなさい…”。これが、絶対的なルールとして書かれている。ユーザがWebサイトのデザインを変えたら、この(多くの人が無視したであろう)ワークフローは、もう使えない。

こんな低レベルな構成では、多様な現実への対応がほとんどできない。こういうワークフローを作った者がいなくなったら、どうするのだ? ワークフロー地獄は深刻なパフォーマンスの問題ももたらす。

私が実際に見たある企業は、自動化マーケティングシステムのすべてのワークフローを8時間以上もかけて処理してから、やっと見込み客をCRMシステムに渡していた。ネットで見つけた見込み客に営業が接触するまで、8時間以上もかかるのだ。自動化マーケティング約束した、スピードと単純化と、そしてまさに自動化は、どこにあるのだ?

2018年にはどのマーケティングプラットホームが優勢か?

今は、自動化マーケティングを再発明すべき時だ。そのプラットホームは、スケーラブルで応答の速いデータベースと、データに連携したワークフローシステムを提供する必要がある。それは、見込み客や顧客に関するデータを調べることに最適化された、軽いシステムでなければならない。また、サードパーティが特殊な目的の応用システムを構築できるために、クリーンなAPIを提供すべきだ。

そんな方向に向かうための条件は、早くも整いつつある。まず、膨大な量の外部データ、先進的なデータサイエンスと、さまざまな特殊目的に対応するマーケティングアプリケーションの登場。3年後の2018年には、新世代の自動化マーケティングソフトウェアが出揃うだろう。そして2018年に優勢になっているマーケティングプラットホームは、予測能力があって、どんな見込み客に対しても適切なリコメンデーションを出力する、オープンなプラットホームだ。

最初に予測ありき

明日のプラットホームは、何もかも詰め込んだ一枚岩的な自動化マーケティングシステムではなく、インテリジェントで痩身で、多くの小さな専門的アプリケーションに接続できる基幹プラットホームだ。それは豊富なデータに基づいて、顧客とのさまざまなタッチポイント(接触点)に適切なリコメンデーションを配布する。

最新のデータサイエンスと、それに基づくビッグデータ分析や機械学習技術により、そこらにあるさまざまなデータから重要な信号を読み取ることが、できるようになっている(Netflixのムービーのリコメンデーションは一体どうやっているのか、考えてみよう)。またコンピューティングのインフラストラクチャが安価になったので、多様な顧客モデルの作成とそれらに基づく具体的な個人化を、個々の企業に合わせてできるようになった。今ではConversicaLyticsRelateIQ、そしてInferのような企業が予測分析を誰の手にも届くようにし、見込み客の育成やキャンペーンの最適化、見込み度の判定など、自動化マーケティングのこれまでの課題だった項目に対しても、より効率的で効果的なソリューションを提供している。

予測能力のある人工知能(predictive intelligence)は今、すべての企業がこぞって求めている。それがさまざまなニッチのアプリケーションと結びついたプロダクトやプラットホームは今後、誰にでも使えて、具体的なアクションに結びつくシステムとして普及するだろう。それは使いやすいだけでなく、企業の進化の方向性に即したものでなければならない。そんなシステムは、ワークフローの構成など面倒なタスクも自動化するので、ユーザはパフォーマンスのチューニングとか劣化などを心配する必要がない。こういう予測型のシステムは、一人々々の顧客のアクションについて自分で学び、適応し、そして自分を改良していく。

マーケティングとセールスを循環させるリコメンデーション

(フルサークル (full-circle)リコメンデーション)

一人の顧客や見込み客に、マーケティングとセールスが別々に対応すべきではない。未来のプラットホームは顧客データをめぐる派閥性を解消し、すべての、マーケティング/営業機能を一元化する。今すでにKnoweldgeTreeなどのサービスは、営業とマーケティングとのあいだの風通しを良くすることによって、それを実現しようとしている。次のベストアクションやベストコンテンツが、片方の独断で決まらないようになる。

顧客に関する予測も、営業とマーケティングが共有する。セールスデータの履歴をよく吟味して、良い見込み客とはどんなタイプか、を見つけ出す。そしてその情報を、営業とマーケティングの両方に浸透させる。さらに、その結果に対しても然りだから、この情報活動には循環性がある。そこで‘フルサークル’と呼ぶ。

良い見込み客を拾い上げるための予測モデルを、短期的なCR(コンバージョンレート)重視型から長期お買い上げ重視型に変えることができれば、カスタマーサクセスチームがそれを利用して顧客のロードバランスを図れる。

オープンなプラットホームを目指せ

次世代のマーケティングプラットホームは強力なAPIを提供する。Autopilotがその好例だが、でもどんな企業でも、焦点を絞った、インサイトに満ち満ちた、由緒正しいツールを作ることはできる。それらは今はびこっている、何でも屋のような、インテリジェンスのないプラットホームより10倍も優れている。

たとえば仕込みキャンペーンをやる場合は、予測インサイトと痩身的システムならではのスケーラビリティを利用して、それまで無視してきた仕込み用データベースから見込み客を見つけるだろう。そういうデータベースは、見込み客の見込み度の得点を、彼らのWebビヘイビアに応じて絶えず更新しているから、仕込み客を見つけるのにはうってつけだ。そしてそういう見込み度の高い見込み客に個人化されたメールを送ったり、そのリストをセールスに回すことによって、仕込みキャンペーンが回り出す。

今ではマーケティング関連のサービスが2000近くあると言われる。CRMのSaaS化や自動化マーケティングが流行(はや)ってきたためだが、SalesforceのAppExchangeの影響も大きい。でも自動化マーケティング関連のサービスは、まだ幼児期にあるため、充実したエコシステムやAPIがなく、したがって成功例に乏しい。

でも、個々のアプリケーションのレベルでは、優れたものが現れ始めている。そして今後のオープンなマーケティングプラットホームは、CRM型ではなくデータ型(データ分析型)になるだろう。そもそも、CRMにデータを提供したり、またCRMからデータを拾う側、すなわちデータサイドが、顧客情報を長期的に多く集積しており、それらが効果的に分析されれば、マーケティングに大きく貢献しうるのだ。

クラウドコンピューティングが伸びていくとき、“ソフトウェアの終焉”という言葉が言われたような意味で、予測型プラットホームは自動化マーケティングというカテゴリーに革命をもたらす。未来のマーケティングは、キャンペーンの管理や見込み客の行動調査などを超えたものになる。

新しいプラットホームは、ワークフローとプログラムとアクションの形を、今後ますます強力になる予測インサイトの枠組みの中で変えていく。それらのワークフロー等は、マーケティングとセールスのあいだのギャップを、予測を糊としてCRMと自動化マーケティングをくつける(一体化する)ことにより、橋渡しする。

身軽でスケーラビリティの大きいデータプラットホームというものがまずあり、そこに予測のレイヤを置く。そしてコンバージョンを高めセールスを成功に導く良質なアプリケーションが、予測を活用する。初めに予測ありきのソフトウェアが世界を食べている。今その歯は、マーケティングとセールスに食らいついたところだ。覚悟を決めよう。

〔訳注: 本稿の筆者は、機械学習による予測ソフトのベンダ。自分が前に買ったり調べたりしたものに基づいて、来る日も来る日も、同じようなものの広告ばっかし見せてくれるのは、そういう‘機械的’ソフトが猛威を揮っているから。マーケティングが、その企画者実行者の人間知と人間性と創造力に基づく、クリエイティブな営為、新しいものや新しい発想を作り出す仕事であることは、ここでは完全に無視されている。本当のヒット商品や人気店は、どうやって生まれているのか、考えてみよう。データの集積と分析は重要だが、それらの処理の形や方向性を決め、処理結果から何かに気づくのも、人間性の能力だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

多様な非定型データの分析サービスを提供するSensaiがAndreessen Horowitzらから$900Kを調達

データ分析は帳票などの定型的なデータを対象とすることが多い。しかし企業のペーパーレス化が進み、電子化されたドキュメントが増えるに伴って、非定型的なデータが多くなり、それまでの技術では分析が難しくなる。PalantirやIBM(のWatson)は、非定型的なテキストデータを容易にクェリできる方法を提供しようとしている。そしてこの分野の新人選手Sensaiが今日(米国時間3/31)、ステルスを脱して正式にローンチする。

同社は今日さらに、Andreessen HorowitzとFormation8、Chris Kelly、ValueStream Labsなどからの90万ドルのシード資金の獲得を発表した。ビッグデータ関連のインキュベータData Eliteから巣立った同社は、年内にシリーズAの資金調達を行う予定だ。

sensai_screenshot_investigations

Sensaiは、料金の安さと、データサイエンティストたちにとっての使いやすさで勝負したい、と言っている。月額料金は5000ドルからだが、顧客のニーズに応じて利用プランをカスタマイズできる。また使いやすさの面では、顧客企業の一般社員でも使えるようにする、という。Sensaiは非定型的なデータの分析を得意とするが、競合他社はどちらかというと、それぞれの企業独自の定型的データを扱うところが多い、と同社は主張している。

対象データは内部のファイルやソーシャルメディア、Web上の記事、オンラインの公開ドキュメントなどさまざまだが、それらに対するクェリをユーザがセットアップすると、結果はリアルタイムでSensaiのダッシュボードに現れる。またユーザがカスタマイズした報告書への出力や、APIからの結果取得も可能だ。Sensaiはクラウドサービスとしても、あるいはオンプレミスの展開でも、どちらでも利用できる。

同社によると、そのサービスは人工知能と深層学習(deep learning)の技術を駆使して、ユーザのクェリを非定型ドキュメントの集積に対して適用する。結果はきわめて正確で、またそのシステムは顧客の利用歴から学んでどんどん進化するという。

サービスのクォリティに関する同社の主張を、実際に確認することはできなかったが、でも顧客の中にはSiemensや金融サービスのUBS、資産管理のWorldQuantなどがいる。SiemensはこのサービスをITの監査に利用し、UBSは同社のEvidence Labの調査に利用している。

sensai_screenshot_dashboard2

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ビッグデータ分析/視覚化で異色の技術を築いたQuidが早くもシリーズDで$39Mを調達

独自の高度な形でデータの視覚化を行うQuidが、3900万ドルの資金調達を発表した。昨年秋に創業4年を経過した若い企業だが、今回の資金調達がすでにシリーズDである。

Quidは自分のことを、“各種の調査研究とそれらの結果からインサイトを得る過程を加速する人工知能企業で、とりわけ、世界でもっとも複雑な問題を扱う”、と説明している。具体的にはそれは、何百万ものドキュメントを処理して、その結果のヴィジュアルマップを作る、というサービスだ。たとえば企業のために、プロダクトのローンチに対するオンラインの反響を視覚化したりする。

同社のことをかつて本誌TechCrunchは、世界でいちばんうぬぼれのでっかいWebサイトと評したことがあるが、しかし今ではホームページのメインタイトルも、自分たちの技術のマーケティング的な売り込みコピーになっており(上図)、またHyundaiやMicrosoft、Boston Consulting Groupなどメジャー企業の顧客からの評価を引用している

本誌が2010年に同社を取り上げたときには、もっぱら最先端技術を追っていたが、今では対象がもっと広くなっているようだ。Quidによると、現在の顧客数は80で、プラットホームは昨年の初めに一新している。

今回の投資ラウンドを仕切ったのはLiberty Interactive Corporationで、これにARTIS VenturesとBuchanan Investments、Subtraction Capital、Tiger Partners、Thomas H. Lee Limited Family Partnership II、Quidの取締役Michael Patsalos-Fox、Quidの会長Charles Lhoなどが参加した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa


製品の設計から広告の効果まで何でも最適化するSigOptはデータサイエンスの最新分野

Y Combinatorから孵化したSigOptのヴィジョンはでっかい。協同ファウンダでCEOのScott Clarkによると、彼の目標は、“調整可能なパラメータのあるものなら何でも最適化する”ことだ。

名前の中に最適化(optimize)のある企業やサービスは多いから、こんな話を聞いても感動しない人がほとんどだと思うが、でもClarkによると、同社はA/Bテストをやって何かを最適化するサービスではない。なるべく簡単に言うと、ひとつのもののいろんなバラエティをテストするだけではなく、同社はデータを調べて“次は何を試してみるべきか”をユーザに推奨する。だから、ユーザはそれを、ずっと継続的に改良していける。

Clarkはこんな例を挙げる: 会社で広告のいろんなバージョンをテストするとき、ひとつひとつをすべてテストして、最後にもっとも効果の高かったのを選ぶのが通例だが、SigOptでは、ユーザが指定したクリエイティブの要素、たとえば製品写真の色、アングル、位置、等々に基づいてSigOptがいろんなバージョンを作ってテストし、売上やクリック数の多いものを自動的に決める。

上のようなメディア作品だけでなく、SigOptでは製品の物理的な特性も最適化できる。たとえば同社の初期の顧客の中には、SigOptを利用してシェイビングクリーム(髭剃りクリーム)の最適配合成分を決めた企業がいる。つまりSigOptでは、テストするものは何でもよい。調整できる変量さえあれば単純にデータを利用して、その値や組み合わせをテストするだけだから、きわめて汎用的なシステムだ。

Clarkはコーネル大学で応用数学の博士号を取り、その後Yelpのターゲット広告部門の技術者として仕事をした経験から、SigOptのアイデアがひらめいた。彼がYelp時代に仲間と共作したシステムはMetric Optimization Engine(MOE)と呼ばれるオープンソースの最適化ツールで、それはYelpだけでなく、Netflixでも使われている。当時Netflixのアルゴリズムエンジニアリング部長だったXavier Amatrainが、機械学習に関する彼のトークの中で(24:58あたり)MOEに言及している。

MOEはオープンソースだが、ClarkらSigOptの協同ファウンダたちはそれをベースにプロダクトとサービスを構築した。彼はSigOptの目標について、ClouderaがHadoopに対してやったように、SigOptはMOEを商用化したいのだ、と言う。

“Netflixのデータサイエンスチームは世界最高だけど、それと同じレベルの最適化技術をうちはすべての人に提供していきたい”、と彼はそのヴィジョンを語る。

Clarkが見せてくれたデモを十分理解するためには、多少の技術的知識と、また物理的なテストの場合は手作業が多くなるが、でも印象としてはかなり単純明快で、ユーザはテストのためのコードをほんの数行書くだけだ。

まあ今のSigOptはぼくの脳力をやや超えているけど、Clarkによると、今後もっと単純化して、しかも、同社ならではの“秘密の味付け”をいろいろやっていきたい、という。

個人的にちょっと気になることがあったので、Clarkに聞いてみた。SigOptでいろんなパラメータをテストして、人間(個人)の健康を最適化することは、できるだろうか? Clarkの答は、完全に個人レベルでは無理でも、大量のユーザの健康情報がデータとして集まれば、それに基づいてリコメンデーションをしていくことは可能だ、ということだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))