コードよりもデータが重要なSoftware 2.0の時代に向けて企業を助けるMachinifyが$10Mを調達

データは価値を生み出す。ただしそれは、データへのアクセスの仕方と、その正しい読み方を知ってる企業に限る。そしてその両方をお助けするのが、Machinifyだ。人工知能企業である同社は今日(米国時間10/8)、Battery VenturesがリードするシリーズAのラウンドで、1000万ドルを調達した。これには、GV(元Google Ventures)とMatrix Partnersが参加した。

MachinifyのファウンダーでCEOのPrasanna Ganesanはこう語る: “われわれの基本的な考え方として、今日の企業は大量のデータを集めているが、それを経営の意思決定に活かして効率を上げているところはきわめて少ない、という認識を持っている”。

Machinifyを利用する企業は、そのシステムにローデータを放り込み、データを何に利用したいのか(例:売上のアップ)を指定する。するとマシンが、では何をどうすべきかを示唆する。また、過去の意思決定に基づいて、今後の方向性を決める。

Machinifyを利用する好例が、ヘルスケアの分野にある。そこでは医療機関や保険企業などがMachinifyのツールを利用して請求処理の精度とスピードを上げている。そしてその結果もちろん、売上の増加やコスト削減を実現している。

GVのゼネラルパートナーAdam Ghoborahは、声明でこう述べている: “企業がいわゆるSoftware 2.0の時代に対応していくためには、解決しなければならない重要な問題がいくつかある。Machinifyはそれらのひとつひとつに的(まと)を絞って最適解を見つける。Software 2.0は、もはや人間が書く従来的なソフトウェアではなくて、AIのモデルと企業の大きなデータセットによって動的に駆動される。だからSoftware 2.0は、これまでとは完全に違うアプローチを要求するが、Machinifyには、そこから価値を取り出すための鍵がある”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

総合的なデータプロビジョニングサービスElasticがSwiftypeを買収してサイト検索を強化

Swiftypeは、本誌がそれについて書いているだけでなく、そのサイト内検索技術を実際に使っている。今度同社は、オープンソースのElasticsearchを作っているElasticに買収されることになった。

それで分かったきたのは、両社がすでに良い仲だったことだ。Swiftypeは、検索するコンテンツのインデクシングと保存にElasticsearchを使っている。実はSwiftypeのCTO Quin HoxieがElasticのCEO Shay Banon(上図)のことを初めて聞いたときには、“あのすごい量のソフトウェアを書いたという伝説のデベロッパーが実在する一人の人間だったのか”、と思ったそうだ。

HoxieとBanon両人によると、買収によってSwiftypeの方向性が大きく変わることはない。Hoxieによると今回の決定は、これまでの路線の延長にすぎず、組織を大きくすることによって技術力だけでなく、経営にも好影響がある、という。

実際には、Swiftypeがやや変わる。まず、導入期のユーザーは料金が月額79ドルになる。また合同チームにより、ElasticのElastic StackとX-PackがSwiftypeのEnterprise Searchに統合される。それにより企業ユーザーは、DropboxやG Suiteなどの全サービスに対する検索ができるようになる。

一方Banonによると、Elasticは以前Opbeatを買収したが、そのときと同じように、買収したチームの自立性を尊重する。“余計な介入をしたくない。コラボレーションでも何でも、自然発生的なのが良い”。

今回の買収に関しては、Banonによれば、エンドユーザーのユーザー体験の部分をこれまでよりも良くしたかった。とくにサイト内検索に関しては、Swiftypeが作ったものが、この界隈で最良のユーザー体験だ、とBanonは言う。

振り出しに戻って円が完成するのは良いことだ、と彼は言う。Elasticという円のスタート地点はサイトとアプリケーションの検索だったが、その後ロギングやアナリティクスなどにも手を伸ばしていった。そして今回の買収で、初心の検索に回帰したのだ。

買収の金額等は、公表されていない。Swiftypeは前に、2200万ドルあまりをY Combinator, New Enterprise Associatesなどから調達している。顧客には、AT&T, Dr. Pepper, Hubspotなどがいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アジャイルソフトウェア開発からヒントを得た営業ツールHeresydでコラボレーションとデータに基づくスマートな営業を

Stack OverflowのヨーロッパのマネージングディレクターだったDimitar Stanimiroffが作ったHeresyは、営業チームのメンバー間のコラボレーションを盛んにして、グループとしても個人としても、データ駆動の意思決定能力を磨き、販売実績を上げる、というツールだ。

このSaaSは、CRMに代わるものではない。CRMは今、Salesforceの統合に腐心しているが、Stanimiroffによると、Heresyはアジャイルソフトウェア開発からヒントをもらい、それにフロントエンドとしてシンプルなKanban(==トヨタのかんばん方式)ボードを、データの入力と、営業の進捗状況チェックのために置いたものだ(この部分はTrelloに似ている)。

営業が入力したデータはまとめて分析され、チームやマネージャーがそれらの案件の、成約や目標達成への寄与の見通しを知る。それらの案件が不発に終わりそうだったり、目標を達成できそうもないときには、ソフトウェアがそのことをいち早く教え、対策を提示する。

Stanimiroffによると、ロンドンで創業したHeresyの大枠的なミッションは、営業チームのメンバー間のコラボレーションを盛んにして、昔の、互いに支えあったり学んだりすることのない‘たこ壺営業’と決別することだ。一匹狼営業と、格差の激しい孤独な営業にも別れを告げる。

それは彼がStack Overflowで学んだレッスンで、そこではHeresyの初期のバージョンを試用したが、それにより短期間で120名あまりの営業チームが利用するようになった。コラボレーションの効果が、それだけの説得力を持った。

筆者もちょっと試してみたが、かんばんボード的なUIへのデータ入力はとてもやりやすい。個々の営業マン/ウーマンが、すぐにそれを使えるようになるだろう。

これまでの営業用のCRMでは、正しいデータを入力することが難しくて、しかも営業マン/ウーマンの役に立つというより、営業部長が見るためのデータを作っているような感じだった。徐々に、CRMは使われないようになり、使われている場合でも、そのデータは不正確だった。

Heresyでは、営業が入力したデータに基づいて目標達成状況などをリアルタムですぐに見られる。また、うまく行きそうもない案件には、警報を出す。目標達成の見通しも、ソフトウェアがチェックする。

“営業の各段階の状況報告や、今後やるべきことのリマインダー、過去のメールやノートを調べるなど、営業が必要とする情報をすべて提供し、しかもそれを、画面上のUIのクリックや、シンプルなドラッグ&ドロップでできる”、とStanimiroffは語る。

そして、集積し分析したデータを、マネージャーやチームと共有する。そのことを通じて営業の文化というものを作っていくが、その過程は、StanimiroffがStack Overflowで経験したソフトウェア技術者たちのコラボレーションに似ている。

チーム全体としてのその月の営業の進捗状況が画面で簡単に分かるから、それまでの孤独な盲目状態に比べると、それだけでも安心や励みにつながり、コラボレーションの意識や意欲も高まる。営業の動的過程を実際に画面上で見ることがとても重要、とCEOのStanimiroffは言う。

“問題が早めに分かるから、チームのコース修正も、間に合うタイミングでできる”、と彼は言う。

Heresyこのほど、75万5000ポンドの資金を調達して、製品開発と、(イギリスだけから)ヨーロッパへの進出にそのお金を充てようとしている。同社を支援する投資家は、LAUNCHub Ventures, AngelList, Seedcamp, そしてLondon Co-Investment Fundだ。Stack OverflowのファウンダーJoel SpolskyとTrelloの協同ファウンダーMichael Pryorも、同社の良きアドバイザーだ。

コミュニケーションのない孤独な営業から、コミュニケーションの盛んな強い営業へ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニングをApache Sparkのクラスターで分散化、サーバーレスでそれができるDatabricksのServerless Platform

今日(米国時間6/6)のSpark Summitの幕開けで最初にボールを蹴ったDatabricksは、Apache Sparkのためのサーバーレスプラットホームを発表した。クラスター管理に費やす時間を短くしたいと願うデベロッパーにとって、良いニュースだ。デベロッパーの仕事をより単純化しようとする動きは、このイベントの全体を貫く大きなテーマでもあった。同社はServerless Platformに加えて、Sparkでディープラーニングフレームワークをより使いやすくするためのライブラリDeep Learning Pipelinesも披露した。

今、クラウドベースのデータ処理技術がどんどん進歩している中で、DatabricksはオープンソースのApache Sparkプロジェクトの商用サービスだ。同社のエンジニアたちはもっぱら、Sparkのエコシステムを支えるツール類を作っている。今日発表された製品も、その一部だ。

大企業における意思決定がますますデータ駆動型になりつつある今日、これから取り組もうとする新しいユーザーにとっては、データパイプラインとクラウドインフラストラクチャの扱いが、目の前に山のようにそびえる大きな課題に見えてしまう。そこに登場したサーバーレスの技術とは、サーバーなしでデータを操作するという意味では決してなく、エンドユーザーがサーバーなどの低レベルの問題にいっさい関わりあうことなく、コンピューティングリソースの管理されたプールから適当なものを選んで、単純に今やるべき仕事をする、という単純化簡素化された新しいタスク構造を指す。

“SQLはステートレスだから扱いも楽だが、データサイエンスにはステートがあるから、それをサーバーレスにするのは難しい”、とDatabricksのCEO Ali Ghodsiは説明する。

ServerlessがDatabricksの幅ないし広さを表すとするなら、Deep Learning Pipelinesはその深さへの挑戦だ。TensorFlowなど、現存するディープラーニングフレームワークは“使いやすい”とはお世辞にも言えないが、でも昔の(AI言語とも呼ばれた)LISPなどに比べたら相当に使いやすい。そのためディープラーニングは今、ますます多くのワークフローに導入されつつある。

“Sparkなどを使ってTensorFlowのタスクを分散化しようとすると、手作業でグラフを作り、どのマシンがどの部分の処理を担当するか、いちいち決めなければならない”、とGhodsiは言う。“100台のマシンを相手にそれを人間がやるとすると、ものすごくたいへんな作業になる”。

Databricksの今度のオープンソースのライブラリを使ってデベロッパーは、ディープラーニングのモデルをSQLのファンクションに変換できる。ユーザーは学習をSpark MLlib Pipelinesで転送し、Sparkの分散コンピューティングが提供する利点を享受する。

なお、Ghodsiによると、DatabricksのStructured Streamingが一般公開された。このAPIは、シーケンシャルデータのストリーミングを処理する。同社によると、Structured Streamingの開発工程では、レイテンシーの最小化が最優先された。それによって、異状検出などのアプリケーションを動かす顧客にとって、費用低減とスピードの向上が実現した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NTT DataがNoSQLデータベースで各所に散在する企業データを統合化するMarkLogicに戦略的投資

日本のグローバルなITサービスプロバイダーNTT Dataが今日(米国時間5/31)、データベースのプロバイダーMarkLogicに戦略的投資を行った、と発表した。額は公表されていないが、MarkLogicのマーケティングと企業開発担当EVP Dave Ponziniによると、“巨額でもないが、ささいな額でもない”そうだ。これまでMarkLogicは、総額1億7300万ドルあまりを調達し、中でも大きいのが、2015年シリーズFの1億200万ドルだ。

MarkLogicの自己定義は、さまざまなデータサイロに散在しているデータを一つのデータベースに統合化するサービスだ。データの有効利用が企業戦略としてますます重視されるようになった今日、それはどの大企業にとっても、日に日に重要性を増している問題だ。これまでは、買収などを契機として、企業内の複数のグループがそれぞれ異なるデータベースシステムを使っていたが、今ではそれらの情報をすべてまとめる方法を探している。そのためによく行われるのが、すべてのデータをスキーマのないNoSQLデータベースに流しこむ方法だ。そこに、MarkLogicの出番がある。

仕事の性質からいって、同社の顧客の多くがGlobal 2000社であることも当然だ。売上等は公表されていないが、Ponziniによると年商“1億ドル強”、というあたりだ。

NTT Dataは2012年にMarkLogicを使い始めたが、むしろ同社(NTTD)の顧客のためのアプリケーションを作ることが主な目的だった。その後同社はデータベースの再販も手掛けるようになり、Ponziniによると、それによりMarkLogicは、たとえば金融サービス市場などにも食い込めるようになった。今日の投資はそんな両社の関係を強化するものであり、MarkLogicは、自社の事業所はないけどNTT Dataがとても強い市場(スペインなど)に参入できることになる。両社の既存市場が重複している地域においては、NTT Dataの顧客にデータベースを売るのはNTT Dataとなる。

NTT DataのCEO Toshio Iwamoto(岩本敏男)は、今日の発表声明で次のように述べている: “NTT DATAは、MarkLogicとの戦略的関係の拡大に感激している。日本で過去5年間、両社が共に経験した成功を、世界に広げていきたい。MarkLogicのデータベースプラットホームとNTT DATAが開発した知財資本を用いて、複雑なデータ統合化問題を解決するわれわれの能力により、クライアントは彼らのデータから重要なインサイトを析出でき、彼らが属する市場において競争上の優位を獲得できる”。

わずか数週間前に、MarkLogicは同社のデータベースのバージョン9をローンチした。このリリースはセキュリティを強化し、要素レベルのパーミッションやリダクションなどが導入された。MarkLogicのEVP Joe Pasquaはこう語る: “われわれはつねに、もっとも安全なNoSQLデータベースであり続けてきた。しかし今回強化したかった新たな側面は、共有に伴うリスクを減らすことだ”。すべての情報を統合化すると、どのデータには誰がアクセスしてよいのか、という一連の問題が発生する。要素レベルのセキュリティによって企業は、一部の情報を多くのユーザーに隠したままの状態で、データの有効利用を確保できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

営業はデータ情報作業を自動化すれば効率三倍増も夢ではない、それを助けるOutreachが新たに$30Mを調達

各種企業の営業チームに、時間の有効活用と営業活動の最適化のために必要な力与えるサービスと、売り込みの過程を管理するための組織化ツールを提供しているソフトウェアデベロッパーOutreachが今日(米国時間5/23)、そのまさに売り込み努力によって、3000万ドルの資金を調達した。

最前線の営業がそれまでの三倍、いろんな相手に面会できるようになり、営業のパイプラインをそれだけ増やせることが、ソフトウェアサービス企業としての同社の誇りであり自慢だ。

Outreachは、それを可能にするためのマジックを、メールやCRMツール*など、さまざまなソースからのデータの収集で演ずる。逆に、得られた情報を、CRMに入力することもある。〔*: CRM, customer relationship management, 顧客関係管理〕

メールやCRMなど既存のデータソースがいろいろあっても、そこから営業活動のための有意義な情報を得ることは難しいし、そんな才能がたまたまある人でも、時間と労力がかかる。そこで、その仕事を自動化するのがOutreachだ、と考えるとよい。同社のCEO Manny Medinaはそう説明する。

まさにその点を、昨年本誌TechCrunchに寄稿したTrinty VenturesのパートナーKaran Mahendruも指摘している:

今、営業というゲームに欠けている最重要のピースが、営業の自動化だ。これは今後、とても大きな活動分野になり、今後数年間は、自社の営業のためのホーム画面を求めて買収も盛んになるだろう。

わが社の新しいポートフォリを企業であるOutreachや、SalesLoftToutAppなどの企業は、営業の生産性を上げ、そのワークフローを円滑にするために必要な、アクションのシステムを作っているのだ。

今言わんとしている営業のテクノロジー化とは、〔コールドコール、コールドメールなど〕一対多の作業で需要を生成することから、取引先別の一対一の営業とマーケティングへの、着実な移行の動きだ。このトレンドが、次世代のエンゲージメント(顧客の積極関心の喚起)のプラットホームへの道を、今舗装している。初めて、これらのツールと技術が、営業の“やり方”を可視化しつつあり、“どれだけ/なんぼ”の営業だけではない新しい世界を拓(ひら)きつつある。

結局のところ、目標は、営業の商談締結を実際に助けるソフトウェアを作ることであり、ただ単に管理職のための報告書作成ツールを作るだけのことではない。われわれが求めるのは、プロの営業が自己の最良のバージョンになれるためのソフトウェアだ。

同社の今回の資金調達はDFJ Growthが指揮し、これまでの投資家Mayfield, MHS Capital, Microsoft Ventures, Trinity Venturesが参加した。新たな投資家として、Four Rivers Groupも加わった。

今日までOutreachは、計6000万ドルのベンチャー資金を調達した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが多様なツールを用意してクラウド上のデータ操作/データ処理を助ける

今日(米国時間3/9)のCloud NextカンファレンスのステージでGoogleは、データの準備や統合化を助ける一連のツールを発表した。いずれも、Google Cloudの企業利用をより強力かつ敏速にするためのアップデートだ。

まず紹介されたのがGoogle Cloud Dataprepの非公開ベータ。その名のとおり、データ(data)を視覚化のために準備(preparation)する。このツールには、異状検出機能があり、機械学習を利用して通常と異なる形のデータをユーザーに告げてデータのクォリティーを改善する。

誰にも使いやすいツールにするために、すっきりとしたインタフェイスに留意している。多くのコントロールが、ドラッグ&ドロップでできる。DataprepはGCP(Google Cloud Platform)への統合化に向けて最適化されており、Google Cloud Dataflow中のパイプラインを作ることによって、容易にBigQueryへデータをフィードできるようにしている。

今日は、BigQueryも強調された。新たにBigQuery Data Transfer Serviceというサービスを立ち上げて、複数のデータソースからのデータのマージを単純化する。既存の商用データセット、Xignite, HouseCanary, Remind, AccuWeather, Dow Jonesなどを最初からサポートしている。

ユーザーがTableauのような視覚化サービスを利用するときは、データをシームレスに準備して分析結果を表示できる。BigQueryは大規模プロジェクトのためにCloud Bigtableを今後サポートするから、データをいちいちコピーして移送する手間もなくなる。

Googleのクラウドプラットホーム担当VC Brian Stevensはこう語る: “マーケティングのチームがマーケティングに関するデータ分析をGCP上できわめて容易にできるようにした”。

Cloud Dataflowには、PythonによるSDKが広く提供される。これまでのJavaを超えて、コミュニティがさらに拡大するだろう。

ワークフローツールCloud Datalabも、今度から一般提供される。デベロッパーは、ノートブック環境Jupyterと標準のSQLを使って、データ分析ができる。TensorFlowとScikit-learnもサポートされる。バッチとストリーム処理はCloud DataflowやApache Spark + Cloud Dataprocでできる。またCloud DataflowのためのStackdriver Monitoringはベータへ移行し、GCPやAWSがホストするアプリケーションのモニタリングや診断を行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AP通信社が自社の記者たちのためのデータサービスをData.worldの協力で一層充実

ap-data

The Associated Press(AP通信社)は2013年から、自社の記者たちへのデータ提供サービスを始めている。たとえば情報の自由法(Freedom of Information Act)に基づくデータリクエストを手伝ったり、4名のエンジニアを起用してデータの視覚化や、大量のスプレッドシートからのインサイトの取り出し、などをやってきた。そして今日(米国時間3/3)から同社はData.worldとの共同パイロット事業により、記者たちにこれまでよりも詳細なデータを提供していくことになった。

データ分析企業Data.worldB corpの認定企業でもあるので、自分たちの事業の社会性をつねに意識している。今回のAPとのパートナーシップでもそれは変わらず、データの提供者が個々のデータ集合のパーミッションを自分で設定できるようにした。たとえばAPは、インポートしたデータとその分析結果をとりあえずプライベートにしておき、その真実性に確信を持てた段階で一般公開することができる。

APのデータジャーナリズムチームの編集長Troy Thibodeauxはこう語る: “データにフォーカスしたプラットホームが欲しかった。ほかのものは今ますますヴィジュアル性が重視されるようになってきたが、ユーザーがデータにアクセスしてそれらを深く正しく理解することも重要、と考えている”。

Thibodeauxたちは最初、そんなデータプラットホームを内製するつもりでいたが、最終的にはData.worldを起用することに決めた。過去にAPは、データ配布のためのいろんなWebサイトを作っていた。でも今では、その新しいプラットホームが、データへのアクセス性の向上以上のことを、やってくれる。たとえば一つの調査課題に対して一般公開データとプライベートなデータの両方を取り出して、状況がより詳しく分かるようにする。それにより、一つのことに関して、複数の異なった考え方があることも、分かるのだ。

複数の報道機関の共同体でもあるAP通信は、データを配布するためのハブとしても理想的だ。たとえばAPのメンバーである各地の地方紙はそれらのデータを利用してインサイト(とくにニュースに対する解釈や意味)を、読者が求める方向へ調整できる。

“最近は、アメリカに来た難民たちの現状に関するデータを公開した。7つの国からの10年におよぶ移民データだ。そのデータの要約のような短い記事も付けたが、データの利用者であるうちの記者たちの方が、もっとずっと良い記事を書いてくれた”、とThibodeauxは語る。

今後は、データの読み方や使い方に関する記者たちへの教育も行っていく予定だ。そしてシステムが効果的に稼働するようになったら、その結果として実現するデータドリブン(data-driven, データ駆動型)なジャーナリズムが、ニュースの信頼性と透明性と妥当性(適切性)を向上させるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

つねに一歩先を見ながらやっていける農業経営をデータ分析で支えるFarmLogsが早くもシリーズCで$22Mを調達

jesse-vollmar-farmlogs-06

収穫量の計算、利益予測、天候被害や害虫/疫病対策など、農家の経営のさまざまな側面を支えるミシガン州アンアーバーのFarmLogsが、立ち上げから4年で早くもシリーズCの資金調達ラウンドを迎え、2200万ドルを獲得した。ラウンドをリードしたのはNaspers Venturesで、同社の初期の投資家Drive Capital, Huron River Ventures, Hyde Park Venture Partners, SV Angel, それにY Combinatorの社長Sam Altmanのような個人も参加した。

FarmLogsのCEOで協同ファウンダーのJesse Vollmarによると、Y Combinatorのアクセラレータ事業を2012年に卒業した同社はその後、衛星画像およびデータの分析利用に重点投資をしてきた。それらの原始データをもとに予測モデルを開発し、農家の“計画的な”農業経営を助ける。

“今では全国各地の農地を年間を通して分析している。そして問題の兆候が見えたらそこを強調して農家に警報している。彼らは、地上にいるだけでは分からない初期的問題をチェックでき、対策を講じる。それができるのは、衛星画像を複数年にわたって分析している、われわれの積み重ね努力のおかげだ”、とVollmarは説明する。

最近の例では、近隣の農家がどこもバッタの被害に遭っているから、うちでもすでにどこかで発生しているかもしれない、被害がわずかながら始まっている場所を特定してくれ、という依頼が大規模農家からあった。これなどは、衛星画像が得意とする分野だ。もうひとつの例では、やはり大規模農家から、灌漑設備に故障が起きて過灌水や乾燥が生じている箇所を見つけてくれ、という依頼があった。そんな農地では、高価な肥料や農薬が無駄になってしまうのだ。

Vollmarは農家の子どもとして農村で育った。実家は、コーンを有機栽培していた。FarmLogsはこれまで主に、コーンや大豆のような条植作物の生産農家を対象にしてきた。それらはアメリカの農業生産の大きな部分を占める。Vollmarによると、農家が同社のモバイルアプリやWebサイトを好むのは、データサイエンスに基づくデータ駆動の農業経営のために、自分で大量のハイテク機器を導入せずにすむからだ。しかし今ではトラクターなど主な農業機械には必ずデータ収集機能があるから、それらJohn Deere, Holland, Case Corporationなどの農業機械メーカーが作った機器からFarmLogsは原始データを集め、それらのデータをあらゆる角度から分析する。

FarmLogsの正社員は今や約70名いるが、今度の資金でさらなる増員を図り、もっと多くの条植作物農家に同社の技術を知ってもらいたい。この投資の一環としてNaspers Venturesのアメリカにおける投資のトップMike Katzが、FarmLogsの取締役会に加わる。

同社の主な競合相手は、Monsanto傘下のClimate Corp.と、そのClimate FieldViewアプリケーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データをAPIに加工するOpenDataSoftが$5.4Mを調達、コードだけでなくデータもオープンソースにする社会的メリットとは

stocksnap_c6ygdz1dsw

フランスのビッグデータ分析サービスOpenDataSoftがこのほど、シリーズAで500万ドルを調達した。Aster CapitalSalesforce Venturesがこのラウンドをリードし、既存の投資家AurinvestAder Financeが参加した。

OpenDataSoftは企業や団体などがデータをより有益に利用するためのサービスを提供するSaaSだ。今、多くの企業や自治体などは大量のデータを抱えているが、その有効利用はほとんどやっていない。OpenDataSoftは、それらの団体や組織がデータの分析と処理と視覚化に取り組むとき、その第一歩を助ける。

社名に‘OpenData’とあるように、同社がとくにねらうのは、データをオープンにして外部者や第三者が、独自の用途やサービスに利用できるようにすることだ。たとえば鉄道企業がすべての時刻表データをAPIとして公開したら、デベロッパーは乗り換え案内のアプリを作れるだろう。

ぼく個人的には、自治体がOpenDataSoftのようなものを利用して、もっとデータドリブンになってほしい。いろんなサービスや自治体、公共団体等のあいだに、デジタルのコミュニケーションがない。なさすぎる。ひとつの都市と、その周辺(関連団体等)の可動部品がすべて統合されたら、あらゆることをもっと効率化できるだろう。ぼく自身は、“スマートシティ”という、もっともらしくて空疎な言葉が大嫌いだ

同社は、これまでのヨーロッパに加えて、今度ボストンにオフィスを構え、アメリカ進出をねらう。ヨーロッパも今後は、フランスだけでなくドイツ、イタリア、スペイン、イギリスなどにも顧客を開拓していく。

これらの国にオフィスを置く、という意味では必ずしもないが、これらの国々からの人材起用は十分にありうるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

成功しているデータ駆動型企業はここが違う…データの運用化能力を高めるには

tomasz-tunguz1

[筆者: Harry Stebbings](ベンチャーキャピタルに関するインディーのポッドキャストThe Twenty Minute VCのファウンダーでホスト。)

これからの10年は、データを運用化*できる能力が、スタートアップの成功の鍵を握る。

それでは、データ駆動型企業(data driven companies, データが駆動する企業)の多くは今日、データを運用化するために何をしているのか。RedpointのパートナーTom Tunguzへの先日のインタビューで私たちは、輸送業と宿泊業の最大の大手であるUberやAirBnbについて議論した。彼らはなぜ、インフラを持たずにあれだけ成功できたのか。

Tunguzによると、答えは単純だ、“要するに彼らは、データをもっとも効率的に運用化しているからだ”。では、これらの企業はデータをもっとも効果的に運用化するために何をしているのか?

〔*: 運用化, operationalize, データが実際に(情勢判断や意思決定のために)運用されていること。〕

機構改革

データをもっとも効果的に運用化している企業は、社内の機構を変えて、組織をデータ駆動型の企業文化に適応させている。

Tunguzはこう述べる: “Social CapitalやFacebookは‘データ駆動専門チーム’を作っている。しかし機構改革は、それほどフォーマルな形でなくてもよい。要するに、コラボレーションの仕方や意思決定の仕方、そして会議のやり方が、大きく変わればよいのだ。決定的に重要な要素は、企業が、データを過去の記録として利用する企業から、データを使って未来の意思決定を行う企業へと、変わることだ。

サプライがすべて

データの機能的なサプライチェーンを作ることが、ビジネスを運用化するためにもっとも重要だ。それがあれば、正しいインサイトを正しい人たちに正しいタイミングで送ることができる。スプレッドシート上に整理されたデータが一見単純に見えても、その背後には元データの大きな複雑性が横たわっているのだ。

したがって重要なのは、データを一元的に総合化して、現在の状況の統一的で正確なビューを作り出すことだ。そして状況を正しく正確に把握できるようになれば、正しいデータに正しいタイミングで即座にアクセスできるためのインフラストラクチャ(データ・インフラストラクチャ)を作れる。

共通言語

データ駆動型企業の多くが、社員のための社内的データ辞書を作っている。データ辞書は、その企業で使う測度の共通言語のためのガイドラインだ。‘ナントカ率’という言葉があったとき、その言葉の意味の理解が全社員的に共通していなければならない。現状は、たとえば、‘見込み客(lead)’という言葉の解釈が、営業とマーケティングではまったく違っていたりするだろう。それにより、混乱と間違いと、目標達成の遅延が生じる。

そのため、Tunguzが強調するのは、“堅固なデータパイプラインの構築”だ。それにより、全社共通の言語の普及が可能になる。

結局のところ、1)データリテラシーのボトムアップの全社的積み上げ、2)データの堅固なサプライチェーン、3)社内機構の抜本的な改革、以上が、データ駆動型企業が成功している主な理由だ。全社のデータを総合化し、そして前進しよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))