Googleクラウド上の関係データベースサービスCloud SQLがバージョン2となり大幅に高性能化

datacenter_google

GoogleのCloud Platform上には、完全な管理を伴うMySQLデータベースのサービスがあり、そのサービスはCloud SQLと名付けられている。そして今日(米国時間12/10)、このデータベースサービスのバージョン2が、ベータでローンチした。

Cloud SQLのバージョン1は2011年にローンチしたが、一般公開されたのはそれからちょうど2年半後だ。そしてGoogleによると、今日のアップデートでCloud SQLのスループットはこれまでの7倍速くなり、スケーリングの上限はデータ10TB、IO速度15000IOPS、1インスタンスあたりのRAMサイズ104GBとなる。いずれの数値も、バージョン1より大きい。

performance-comparison

今回のアップデートに伴い、Cloud SQLの料金プランも変わる。サービスのインスタンスタイプがCompute Engineと同じになるので、‘長く使えば安くなる’のGoogle哲学により、Google独自の持続的利用の料金(sustained use pricing)が適用される。つまり1か月の時間の25%以上サーバを動かすと、ディスカウント料金になる。

ただしベータ期間中は、サーバの使用時間の長短にかかわらず、全ユーザが持続的利用料金になる。

以下が、ニューバージョンの仕様だ:

0-1

Googleの注記によると、このバージョン2のサービスは同社のCloud Platformのこれまでの改良成果をフルに利用している。それはスピードの向上だけにとどまらず、さまざまな面での柔軟性(自由度)のアップにより、データの量的処理能力も大きくなっている。

そのほかニューバージョンにはHigh Availabilityフェイルオーバ、リードリプリケーションのオプション、バックアップ周期とメンテナンスウィンドウを構成可、などの高度な機能もある。

デベロッパはこれらのデータベースに、どこからでも接続できる。GoogleのCompute Engineからはもちろんだが、彼らのワークステーションからでも。ただしApp Engineからのニューバージョンの利用は、もうすこし待たされるようだ。

〔訳注: 12月10日に公開された原文が、しばらくアクセス不能となり、今日(日本時間12/15)復帰しました。今後持続する正規稿とみなし、ここに訳出します。〕

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

メッセージングアプリでコンピュータサイエンスおたくがデザイン偏重のWebに復讐する

chatapps

[筆者: Indus Khaitan](Oracleに買収されたエンタプライズモバイルのBitzer Mobileの協同ファウンダ。その前はソーシャルメディアのコンテンツ発見プラットホームSezWhoのCTO。)

初期のWebサイトは単純なHTMLだった。長いHTML文が何でも表現し、左右対称のページレイアウトが好まれた。CSSがなかったので、今日のように、HTMLのコードが三次元的に肥大することはなかった。ぼくは最初からCSSが嫌いで、今でも大嫌いだ。

敬愛すると同時に憎たらしくもあるデザイナーたちが、ぼくのWebを乗っ取ってしまった。彼らは、ぼくのシンプルなHTMLのコードを、CSSとJavaScriptの煮えたぎるマグマの中に放り込んだ。Webサーバ以外の部分では、元々デザイナーだった友だちの多くが、Webデベロッパやアプリのデベロッパになった。

しかしぼくは、あくまでもコンピュータサイエンスのエンジニアなので、Webデザインという軽薄なアートに手を染めることはなかった。その代わり、お金を払った。たくさんのお金を、Webデザイナーたちに払った。

Webのフロントエンドの開発は、今や混乱のきわみだ。フォームの記入欄を表示するといった簡単なことでも、10とおり以上ものやり方がある。そしてそれらのやり方は標準性がなく、どれもばらばらだ。ささやかなHTMLをCSSで粉飾し、それにJavaScriptを加えてページを100%混乱させる。言うまでもなく、同じマークアップコードを複数のJavaScriptフレームワークが管理していると、混乱は倍増する。もっとひどいのは、複数のデベロッパが触ったページだ。それは、複数の外科医が昼休みにバーガーを食いながら手術をした患者の体になる。

モバイルアプリともなると、デザイナーへの依存度がWebの10倍になる。さまざまな画面サイズや、解像度、ボタン、画像、それらと絡み合うテキスト…これらを管理しなければならない。そしてルックスがすべてに優先するから、関係データベースの湖から流れ出るビットの内面的な美を鑑賞する楽しみは、消え去る。

でも、解脱の時が近づいている。チャットのウィンドウが、新しいユーザインタフェイスになりつつある。エージェント(人間またはマシン)と会話をする、仕事はそれだけだ。今日の、ごてごてしたWebページと違って、メッセージングアプリにはマークアップがなくて、テキストをネットワークに乗せるだけだ。Human Computer Interaction(HCI)の理論は、人間の日常の動作に倣え、と教える。メッセージングアプリなら、それが可能だ。

チャットでコンピュータサイエンスが再び輝きを取り戻す。

メッセージングアプリは今でも、新種が続々出ている。Magic, GoButler and Operatorなどなど、WeChatの成功の後を追うアジア製が多い。いずれも単純なテキストメッセージをやりとりするだけがアプリの仕事だが、料理の注文も、タクシーの呼び出しも、航空券の予約も、何でもできる。どれも人間の生活を助ける人間コンシェルジュが相手だが、中には人間とマシンの対話もある。後者の場合でもしかし、人間の日常の会話を真似ている。人間がエージェント(人間または機械)に話しかける。向こうにいる人間またはマシンがメニューを説明し、配達してほしい品物の購入トランザクションが完了する。

チャットでコンピュータサイエンスが再び輝きを取り戻す。Webページやアプリの画面で、何をどこに置こうか考えるのではなく、チャットアプリでは、機械学習やデータ構造をめぐって本物のイノベーションが起きている。単純なテキストによる会話が定型データへと整理され、JSONのペイロードを介してどこかのAPIに投入される。

今日では、アプリの多くを人間がサポートしている。ときには、人間の大群が。でも彼らの仕事には、機械学習の技術が使いやすくなったために、完全に自動化できるものが多い。たとえば、誰でも使える機械学習エンジンIBM Watsonをベースとして、(Facebookが買収した)wit.aiのような新進スタートアップが続々登場している。Y Combinatorの傘下にも、MonkeyLearnのような機械学習大衆化サービス、AIaaS(artificial intelligence-as-a-service)が増えているという。

機械学習をクラウドサービスとして使えるようになり、メッセージングがユーザインタフェイスになれば、今や時代は再び、コンピュータサイエンスおたく(nerd)のものだ。メッセージングアプリによって、今日のWebページが陥(おちい)ってしまった軽佻浮薄なフレームワークにおさらばできる。そして、人間と機械の対話の、単純性を取り戻せるのだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

人気のグラフデータベースにいよいよ大企業が進出の兆し、トップ企業Neo Technologyの外堀城壁強化策を見る

shutterstock_315316133

グラフデータベースNeo4jを作っているNeo Technologyは、まだある意味無名に近い企業かもしれないが、一般的にグラフデータベースそのものは、私たちの日常の中にすでに広く浸透していて、誰もがそれとは知らずにアクセスしているはずだ。その市場は今急速に伸びていて、大企業も注目し始めている。

グラフデータベースは、物事と物事のあいだの、論理的な関係を表現する。それはたとえば、あなたが過去に買ったものや、Facebook上のあなたのソーシャルグラフから、あなたが好きなものを見つけ出す。

データベースの人気を調べているWebサイトDB-Enginesのデータによると、2014年に成長率がいちばん高かったデータベースがグラフデータベースだ。

DB-EnginesによるとNeo TechnologyのNeo4jはグラフデータベースのトップシェア製品だが、同社はその地位に満足していない。それどころか、今ではOracleMicrosoftのような大企業がグラフデータベースに進出しようとしているし、AmazonやHPなどもその後を追おうとしている。

それは、グラフデータベースがこのところいよいよ、エンタプライズの世界で離陸しようとしているからだ。企業のデータ集合においても最近では、事項間の論理的な関係を見出そうとするニーズが、高まっているのだ。

GartnerのリポートMaking Big Data Normal With Graph Analysis for the Massesによると、“2018年には、大企業の70%がグラフデータベースを利用するパイロット事業や概念実証努力に取り組んでいるであろう”、という。

市場の成長とともに、選手の数も増えてくるが、Neo TechnologyのCEO Emil Eifrem は、大企業が特定の垂直市場に食い込むことはあっても、一般的には技術の蓄積量と経験量の多いリーダー企業の製品、すなわちNeo4jを求める顧客が多いだろう、と展望している。

彼によると、今日までのNeo4jのデプロイ数は数百の顧客に対して約10000、その中にはWalmartやeBay、Adidasなどもいる。だから資金量の豊富な競合他社といえども、簡単に追いつけるものではない。

今後もトップの座を維持し続けるための切り札のひとつがオープンソースで、Neo4jもまさにそれだが、さらに同社は今週、他社製のグラフデータベースとの互換性を実現するツールopenCypherをリリースした。

“Cypherはうち固有の製品だが、他社が利用されてもかまわない”、とEifremは語る。彼のその姿勢は、必ずしも愛他精神からではない。さまざまなベンダのグラフデータベース製品間のコミュニケーション能力は、顧客にとってきわめて重要だから、既存システムとの互換性を心配していた顧客も今後徐々にNeoのユーザになる、と彼は見ている。

Cypherの開発にはOracleやDataStaxも関与した。後者はCassandraデータベースを作っているが、今ではグラフデータベースにも手を染めている。

さらに同社は最近、IBMとのパートナーシップにより、Neo4jをプレインストールしたPower 8サーバを売れることになった。顧客が求める大規模なジョブに対しては、高性能なハードウェアプラットホーム込みでシステムを売り込めるのだ。

また、最近バージョン2.3にアップグレードしたNeo4jは、かなり抜本的なアップデートにより、余裕をもってビッグデータを扱えるようになった。

以上、いくつかの新しい基本的な取り組みにより同社は、これからいよいよ押し寄せてくるであろう大企業からの攻勢に耐え、グラフデータベースにおけるトップの座を守りぬき、彼らとの差をさらに大きく開けようとしている。

Neo Technologyはこれまで、4410万ドルを調達している。最近の調達は、1月の、シリーズCの2000万ドルだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa)。

ストリーミングSQLデータベースPipelineはデータベースへの連続的なリアルタイム出力をサポート

16248892298_94c1d92ada_h

PipelineDBはY Combinatorの2014年冬季の出身だが、そのストリーミングSQLデータベース製品のオープンソースバージョンを今日(米国時間7/7)一般公開した。商用バージョンのリリースは今年の後期の予定だ。

このオープンソースのデータベースはSQLのクェリを連続的にストリーミングで流し、結果のテーブルを次々と保存する。協同ファウンダのDerek Nelsonはこう説明する: “連続的な処理とリレーショナルのストレージを一体化しているので、ストリーム処理をしながら、別途、外付けのストレージシステムを管理しなくてもよい”。

典型的なユースケースは、分析やモニタリングを継続的に行って結果を逐次、リアルタイムで報告するもの。たとえばeコマースのサイトが行うA/Bテストは、結果のログを翌日見るのではなく、刻々と変わっていく状態をリアルタイムで見ることができる。

Nelsonの主張によると、このプロダクトは、通常のデータベース作成過程であるETL(extract, transform and load…データを取り出す、変形する、ロードする)を不要にする。PipelineDBはこれら全体を一つの流れにすることによって、リアルタイム化する。

また、他のストリーミングプロダクトのように特別のプログラミング言語を必要とせず、誰もがおなじみのSQLのクェリを使うから、企業ユーザなどでもPipelineDBを今日からすぐに使える、というところが多いはずだ、と彼は言う。

Nelsonは、前にAdRollで仕事をしていたときに、クェリとその結果の連続的ストリーミング、というアイデアを発想し、いつかそのためのツールを作ってやろう、と思っていた。そして同社を辞めてから、念願のツール作りに取り組み、PipelineDBが生まれた。

オープンソースで出すことに決めたのは、実用上の理由からだ。まず第一に、実動プロダクトだけだと、新米のスタートアップが顧客企業の信頼を得ることが、なかなか難しいこと。ソースがオープンであれば、企業はそれを見て、彼らのプロダクト(PipelineDB)に納得することができる。

第二に、Nelsonの説では、Facebook、Google、Amazonといった巨大テクノロジ企業はすべてオープンソースがベースだから、そういうところへプロプライエタリなプロダクトを持ち込んでも、勝ち目はない。

“Y Combinatorに参加したことは、とても良かった”、とNelsonは語る。クラスの中で突出してテクニカルな企業だったため、ちょっと異端者だったが、商業的なプロダクトと競合しなかったため、楽でもあった。

彼によると、YCに参加したためコネができ、多くの企業と営業以前の会話ができたし、またYCのパートナーたちから知恵と経験談を授かった。そういうことの価値が、ものすごく大きかった、と彼は言う。

本日オープンソースのプロダクトをリリースしたことにより同社は、新たな一歩を踏み出すことができた。

PipelineDBはシード資金は獲得しているが、その額は公表していない。投資家は、SV Angel、Data Collective、Paul Buchheit、Susa Ventures、TenOneTen、および数名のエンジェルたちだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

どんなデータソースもいきなりWebサイトに変えてしまうをSlashDB…データベース操作の部分を書くのが嫌な人向け

screen-shot-2015-06-29-at-11-05-31-am

プログラマが好きな二つのものは、ピザと、仕事を楽にしてくれるもの、だ。ぼくがSlashDBにとくに関心を持つのも、そのためだ。このプロダクトは、どんなデータソースでもXMLやJSONやHTMLで表現してアクセス可能にする、と自称している。プログラマのVictor Olexが作ったこのシステムは、どんなデータでも、REST APIによりほんの数秒でWeb化できる。

Olexはこう言う: “SlashDBは、データベースのための自動化Web APIだ。つまり、データベース中のどんなレコードでも、分かりやすいリンクから到達できるようにする。互いに関連する複数のレコードもリンクにできるから、これまでのSQLデータをグラフ的に見せることもできる。そうやって作られるデータのWebは、リード、ライト、そして通常のHTMLによるいろんなデータ形式での検索が可能だ”。

彼がリンク、リンクと言っているものは、REST APIの結果としてうんと長くなったURLだ。たとえば、こんなの:

http://demo.slashdb.com/db/Chinook/Genre/Name/Classical/Track/InvoiceLine/Invoice/Total/

これでDBからデータがとり出され、いろんなフォーマットで返される。いろんなWebページの上に正しいHTMLコードを出力するクェリも、ありえる。

このシステムは今、数社のクライアントのところで使われており、最近ではOlexはAruba Tourism Authorityと一緒に、バックエンドがほとんどなくてデータベースだけがある、というWebサイトを作った。今では、Microsoft Azure Marketplaceでも売られている。その”lite”バージョンは、一データベースあたり250ドルで、今では、大量のデータベースを使っているユーザのための大型の実装も提供している。SlashDBはピザではないけれども、アプリケーションのデータ接続層で多くの時間と労力を費やしたくないデベロッパにとっては、おもしろいソリューションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のデータソース(何百ものデータベース!)をひとつにまとめるTamrが$25.2Mを調達

shutterstock_227718223

今、多くの企業のデータは、複数の、それぞれ孤立したデータベースの上にバラバラに存在している。マサチューセッツ州ケンブリッジのTamrは、そういうバラバラなデータベースを統一して、それらを“人間が理解できる”単一のデータ集合にする。同社は今日(米国時間6/19)、シリーズBで2520万ドルの資金を調達したことを発表した。

その投資家たちは、いつものシリコンバレーのVCではない。CEOで協同ファウンダのAndy Palmerによるとそれは、同社のミッションの真価を理解している戦略的投資家たちのグループだ。その具体的な面子(めんつ)は、Hewlett Packard Ventures、Thomson Reuters、MassMutual Ventures、そしてそのほかの匿名の投資家たちだ。これまでの投資家NEAとGoogle Venturesも参加し、これで同社の調達総額は4240万ドルになった。

Palmerの信念によるとTamrは今後、GoogleがWebにもたらしたような大きなインパクトを、企業世界に与えていく。GoogleがWebページを見つけるアルゴリズムでトップに立ったように、Tamrはデータベースを見つける*アルゴリズムで先頭に立つつもりだ。〔*: 大量&雑多なデータベースを抱える企業が多く、欲しいデータがどこにあるのか分からない場合も多い(後述)。〕

えっ、企業のデータベースがWebページの数ほどもあるのか、と思ってしまうが、しかしPalmerによると、大きな企業ほど、古いデータベースをいっぱい抱えていて、どれに何があるかを知ってた人はとっくの昔に退社している。中には流出するとやばいデータもあるから、この、どこに何があるか分からないという状況はきわめて危険だ。また、今日のビッグデータ分析のトレンドに乗って、データから価値を取り出すこともできない。

“Oracleのインスタンスが数十、データベースの数は数百、という企業がとても多い。テーブルの数は数千〜数万だろう。しかも現状では、それらをカタログ(目録作成)し、それぞれに何があるかを知る方法がない”、とPalmerは語る。

Tamrは、その企業のすべてのデータソースを一望できるカタログ(目録)を作り、今会社には、どこに何のデータがあるか、分かるようにする。そこからさまざまな価値を導けるが、最近とくに重要なのは、データの流出を防止するためのセキュリティだ。万一流出事件があった場合でも、何がいつやられたかは分かる。それまでの状態では、事故が起こったことすら、誰にも分からない。

“データの透明性は、企業の必須要件のひとつだ。いまうちに何があるのか、分かっていなければ、それが消失しても消失したことが永遠に分からない”、とPalmerは説明する。

このカタログ作成作業は、企業の細かい内部事情への理解や配慮を要するので、顧客側との共同作業になる。Tamrとしては、出向社員や出張社員のような形が多くなるので、新たに得られた資金の最大の使途はエンジニアの増員、その次が営業とマーケティングの充実だ。営業も必然的に、痒いところに手が届く、細かいコンサルティングセールスにならざるをえない。営業のサービス的な側面を充実させるためには、顧客と一緒に仕事ができるサードパーティを育てることも重要だ。Palmerは、“パートナーを教育訓練するための明確なプロセスを確立する必要がある”、と語っている。

大企業の顧客でとくに重要なのが、サプライヤーのカタログを作って、どこから、何を、いつからいつまで、いくらで仕入れていたかをはっきり知ることだ。部品、原材料、工具、機械などの‘物’だけでなく、無形の人的サービスもある。これを、過去から現在まで総合的なデータ集合として一望できない大企業が、けっこう多い。データがあちこち分散していて、しかも何がどこにあるか誰も知らないからだ。

サプライヤーと並んで重要なのが、顧客だ。何を、だれ(どこ)に、いつからいつまで、なんぼで売ったか、その取引に関し付随条件や特殊状況はあったか、…。企業は顧客に関するこれら360度のビューを得たいと願っているのだが、これまた、分断化しているデータソースからそんな情報を得るのは難しい。Tamrなら、その問題も解決できるだろう。

今の同社の10数社の顧客の中には、ToyotaやGE、Novartis、それに投資家のThomson Reutersがいる。

現在Tamrは、ケンブリッジとサンフランシスコを合わせて55名の社員がいるが、今後はまず、後者のまだ小さなオフィスに20〜30名を増員し、さらに1年半後の総社員数100名を目指したい、という。

同社のファウンダPalmerとMichael Stonebrakerは、かつてVertica Systemsを立ち上げた人たち。Verticaは2011年にHPが買収した

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MongoDBが既存のデータ視覚化ツールやBIアプリケーションと接続するためのコネクタを発表

shutterstock_130139699

オープンソースのデータベースプラットホームMongoDBが今日(米国時間6/2)、ニューヨークで行われた同社のMongoDB Worldカンファレンスで、いくつかのアップデートを発表した。その中には、Tableauなどのデータ視覚化ツールの統合も含まれる。

MongoDBは従来のRDBと違って非定型データを扱える自由性があるため、今では多くの企業のアプリケーションで利用されている。それが、MongoDBを使う主な理由の一つだが、でもデータを視覚化することが必要になると、これまで使ってきたデータ視覚化ツールで非定型データを扱うのは難しい。MongoDBのストラテジー担当VP Kelly Stirmanは、そう説明する。

彼曰く、“それらのアプリケーションが現代的と言われるのは、従来の行(row)と列(column)のデータベースでは扱えない豊富なデータ構造を使うからだ”。

その便利で現代的なMongoDBがもたらした予期せざる結果に対応するため同社は、BI(ビジネスインテリジェンス)やデータ視覚化ツールと接続するためのコネクタを発表し、後者の一つの例として同社のパートナーTableauを紹介するとともに、そのほかのツールでもコネクタが同様に使えることを明言した。

“Tableauは弊社のパートナーだが、しかしコネクタは、IBMのCognosやSAPのBusinessObjects、Microsoft Excelなど、そのほかのツールとの互換性もある。そのコネクタはSQLベースのODBCツールとの互換性もあるから、ほとんど何にでも対応できる”。

Stirmanはさらに加えて、“何百万ものユーザがこれらのアプリケーションを毎日のように使っているが、これまでそれらは、MongoDBとは断絶した世界だった”、と語る。そこで新たなコネクタが、両世界を橋渡しすることになる。

これまで、既存のデータ視覚化ツールでMongoDBとそのデータを扱うためには、大量のプログラミング努力を要し、そのために費やす時間と費用は膨大だった。しかし、“コネクタを使えば、既存の視覚化ツールが、あいだにレイヤを必要とせず、MongoDBのデータにアクセスできるようになる”、と彼は説明する。

同様の発表を先週、Salesforce.comも行ったが、それは今回のMongoDBのケースとは逆で、外部データをSalesforceの視覚化ツールWaveで、Salesforceのデータと共に視覚化するためのコネクタだ。

MongoDBの場合と同じく、それまでは、プログラミングで苦労すれば外部データをWaveで見ることは可能だった。そしてSalesforceも今回のMongoDBと同じく、外部との円滑な接続性を実現することはベンダ自身の責任だ、と悟ったのだ。両社が作ったコネクタにより、データソースと視覚化ツールとのあいだのデータ移動やデータアクセスが、簡易化された。

MongoDB 3.2には、コネクタのほかに、REST対応の暗号化や、データベースアドミンのためのGUIなども導入される。その一般公開は、今年の第四四半期の予定だ。

MongoDBはこれまで、投資家たちの関心を大いに集め、総額で3億ドルあまりを調達している。最近のラウンドは、なんと、今年の1月のシリーズGで、8000万ドルを獲得している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OpenSignalのWiFiホットスポットマッパーは有料/無料を識別できるお利口さん

【抄訳】
WiFiMapper

モバイルの信号を地図に落とすマッパーサービスOpenSignalが、良い接続を求めるユーザを助けるためにWiFiホットスポットをマップするアプリをローンチした。同社は2013年に、クラウドソーシングした携帯電話ネットワークのデータから天気予報情報を拾い上げて地図に落とすアプリをローンチしたが、今回は同社のクラウドソーシング努力の第二弾である。

前の天気予報マッパーの名前がWeatherSignalだったのに対し、今回の新しいアプリはWifiMapperという名前だ。今日はiOSバージョンのローンチだが、約1か月後にはAndroidバージョンも出す、と協同ファウンダでCEOのBrendan Gillが言っている。

アプリは無料で、はじめは、OpenSignalの既存のアプリのユーザたちのネットワークが作り出したWiFiホットスポットのデータベースに依存する。

“データはこの4年間、最初はモバイルのネットワークから、次いでWiFiのネットワークからクラウドソーシングしてきた。あのアプリケーションは1500万近くダウンロードされた”、とGillは述べる。さらに加えて、“うちが集めたWiFiネットワークのデータベースは、たぶん世界最大だと思う”。

App Storeにはすでに、さまざまなWiFiホットスポットマッピングアプリがあるが、Gillが言うように、OpenSignalのWifiMapperはまずそのスケールで他を圧している。“そのほかのWiFiアプリに比べると、うちが集めたデータの規模は、はるかに大きい”、と彼は主張する。

OpenSignalのアプリのアクティブユーザは全世界で約150万、そして彼らのアプリから、この新しいWiFiホットスポットマッピングアプリにデータがやって来る。今そのデータベースには、5億近いホットスポットが載っている。

WifiMapperのもうひとつの大きな差別化要素は、無料のWiFiホットスポットと有料のホットスポットを区別できることだ。それらは色分けされるから、たとえばカフェやバーの無料のWiFiホットスポットを見つけることもできる。カフェとかバーといった情報は、Foursquareの位置レビューデータを利用して入れている。

“うちが作ったインテリジェントなアルゴリズムが、そうやってWiFiを分類する。うちのデータベースに5億のホットスポットが載っていても、その多くはユーザが実際に使えないものだ。だから、どれが無料かを見分けるアルゴリズムが重要なのだ”、とGillは語る。

“またそのアルゴリズムは、ホットスポットがある実際の場所も調べるから、そこがカフェであるとか、バーである、空港である、なども分かるのだ。そのお店に関するコメントも、表示される。それらも、やはり元ネタはFoursquareの場所データベースだけど”。

さらなる差別化要素として、OpenSignalのWiFiホットスポットマッパーではホットスポットのクォリティが分かる。“うちのアプリはWiFiのスピードやレイテンシなど、ホットスポットのパフォーマンスデータを継続的に調べている。だから長期的な目標は、WiFiデータベースの決定版になることではなくて、無料で快適で速くて混んでいないWiFiホットスポットを見つけるアプリになることだ。そこまでやるアプリは、ほかにないと思うね”、と彼は述べる。

WiFiホットスポットが無料か否かを調べるためにはクラスタリングのアルゴリズム〔k平均法など〕を用いて大量のシグナル(位置情報など)を解析する。たとえば、そこがオフィスや居住地でなくバーやカフェなら、無料だろう、と見当をつける。WiFiネットワークの名前も、検討の素材にする。また、ログイン後のリダイレクトがあれば、それは有料ゲートウェイであるという兆候だ。

以上のように大量の情報処理を自動的に行っているが、ローンチ後にはユーザのクラウドソーシングへの参加により、もっと多くのWiFi情報が得られるはずだ。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleがスケーラビリティとパフォーマンスの高いNoSQLデータベースCloud Bigtableをベータで提供開始

google-cloud-bigtable

Googleが今日(米国時間5/6)、新しいNoSQLデータベースCloud Bigtableをローンチする。名前が示しているように、それは同社のデータストレージシステムBigtableを利用しているが、APIはApache HBaseのそれと互換性があり、というかHBaseもGoogleのBigtableプロジェクトを利用しているのだ。BigtableはGmail(メール)やGoogle Search(検索)、Google Analytics(アクセス分析)も利用しており、いわば実戦で鍛えられたサービスだ。

GoogleはCloud Bigtableのレイテンシがひと桁のミリ秒で、コストパフォーマンスはHBaseやCassandraの二倍、と約束している。HBaseのAPIをサポートしているから、Cloud BigtableをHadoopのエコシステム内の既存のアプリケーションと統合することも可能だが、また同時に、GoogleのCloud Dataflowもサポートしている。

Cloud Bigtableのクラスタはわずか数秒でセットアップでき、ストレージはユーザのニーズに応じて自動的にスケールする。

png;base64f1e982d227e3a1a8

なお、GoogleがクラウドベースのNoSQLデータベースを提供するのはこれが初めてではない。同社のApp Engineプラットホーム上ではかねてからデベロッパが、高可用性のNoSQLデータストアCloud Datastoreを利用できている。そのサービスもやはり、Bigtableがベースだ。Google Cloud PlatformのプロダクトマネージャCory O’Connerによると、Cloud DatastoreはWebアプリケーションやモバイルアプリに多い、リード主体のワークロードに向いているそうだ。

“Cloud Bigtableはその逆で、大規模なデータ処理を必要とする大企業など向けに設計されており、複雑なワークロードに対応する”、とO’Connerは言っている。“たとえば、企業がデータをストリームでぶち込んだり、データの分析をしたり、一つのデータベースから大量のデータをサーブする、といった用途にCloud Bigtableは向いている。弊社の顧客は今後、Cloud Datastoreでプロトタイプを作り、大規模で複雑なデータ処理を伴う本番の展開ではCloud Bigtableへ移行する、というパターンになるだろう”。

この新しいサービスは当面ベータで提供されるので、誰でも利用できるけどSLAや技術的サポートは提供されない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

スプレッドシート+データベースを簡易化したAirtableがAPIと埋め込み機能をローンチ

airtable

2か月前に個人や企業がデータを組織化する(まとめる, organizeする)ためのユニークなツールをローンチしたAirtableが、その、スプレッドシートとデータベースのハイブリッドのようなものを便利にシェアできるための、新しい二つの機能を発表した。

このアプリの中で作った関係データベースのリード/ライトアクセスをシェアできるだけでなく、今日からはこのアプリの強力なAPIを使ってデータから画像を起こし、その情報をアプリケーションやWebサイトにシームレスに埋め込める。また、お絵かきの才能のない人は、データそのものをYouTubeビデオなどと同じように埋め込んで共有できる。

Airtableのアプリは、人びとがよくExcelに詰め込む、計算を伴わないデータを、便利に扱えるようにしてくれる。たとえばイベントに参加する人のリストを作るとか、プロジェクトの必要資材の入手先のリンク集とか、地域のお気に入りレストランの分類表(中華は〜、定食屋は〜、〜)、などなど。

Airtableは任意のテキストや数値を行や列に簡単に記入できるだけでなく、楽屋裏で関係データベースを使ってそれらのデータを管理するので、それらのデータ間の論理的な関係を企業目的などのために、より有効に利用することもできる。

たとえば営業チームがこのアプリを共用すると、古臭いCRMの古臭いデザインに縛られることなく、もっと簡単に個々の見込み客の進捗を記録管理できる。またプロダクションやスタジオなどでは、一つのページの上で全員のスケジュール管理ができ、また、制作スタッフとキャストと小道具と各シーンなどの複数のリストを論理的に正しく結び付けられる。

先日本誌TechCrunchのオフィスにやってきたAirtableの協同ファウンダHowie Liuは、このアプリを個人的に使っているところを見せてくれた。その使い方は映画のプロダクションなどに似ていて、たとえばキャンプ旅行の企画では、参加する人びと、それぞれがどの車に乗るか、必要な物をだれだれが持ってくるか、などのデータを記録し管理している。

Liuはそのキャンプ旅行の例で、今回の新しいデータ埋め込み機能をデモした。用品などのリストはその特定の旅行のために作るのだが、でも今後のそのほかのアウトドア的状況でも利用できる。だからそのリストは、ブログ上で友だちへのリコメンデーションとして使えるだろう。そのためにはAirtableを開き、埋め込み用のインタフェイスを出し、必要なデータを切り取り、それを埋め込むためのコードは30秒弱でできあがる。

Airtableは、まず個人で使ってみて会社でも使うようになる、とか、あるいはその逆を期待している。同社はプロモーションのために、ユーザたちのおもしろいユースケースを募集している。とても便利そうなのが見つかったら、そのテンプレートを一般ユーザに提供するつもりだ。

Liuは、テンプレートが増えれば将来的にはアプリストアのような形でそれらを提供できる、と考えている。その場合は、とくにAirtableが介入しなくても、パワーユーザたちの活用例がほかのサービスにも統合されていくだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

自動化マーケティングの将来…データから顧客や市場の現実を知ることがベース

marketingfuture

[筆者: Vik Singh]
編集者注記: Vik SinghはInferの協同ファウンダでCEO。それまでの彼はSutter Hill Venturesの正社員起業家。彼は検索やソーシャルネットワークやコンテンツオプティマイゼーションの分野で13件の特許を持っている。

その業界に詳しいDavid Raabの説では、マーケターの三人に二人は既存のマーケティング自動化ソフトウェアに大なり小なり不満である。またBluewolfの調査報告書“State of Salesforce”は、マーケティングソフトへの投資のわずか7%しか、まともなROIを得られないという。この、企業や商店に大きな利益をもたらすはずの自動化マーケティングは今、標準性を欠く乱雑な多様化とユーザの不満が激化しているのだ。

Marketing Automation Market Share (Source: Datanyze)

マーケティング自動化サービスのマーケットシェア(出典: Datanyze)

自動化マーケティングがそうなってしまった原因は、そのルーツがメール爆弾であることにある。そういうシステムはユーザのターゲットページや入力フォームやWebのアクティビティデータやトリガや、などなどに長年勝手に貼り付いてきたから、だんだん、やることが多くなって肥大し、ユーザがうんざりするような、口数ばかり多い無能ソフト/アプリケーション/サービスへと頽落した。

たとえば下の図はEloquaのスクリーンショットだが、この積み木ゲーム(Jenga)のような画面を見ると、われわれ自動化マーケティングの連中が今マーケターたちに提供しているものが、どんだけややこしくて脆(もろ)いものであるか、が分かる。われわれ、と言ったのは、こんな面倒な推奨ワークフローをマーケターに提示しているのは、Eloquaだけではないからだ。

Infer TC Image

自動化マーケティングが自動化しない

最大の問題は、上図のようなワークフローが、良い見込み客を見つけるための画一的で普遍的な法則とされ、具体的なデータに基づく指針になっていないことだ。

たとえば、こんなワークフローだ: “ユーザがこのリンクをクリックして、そのあと、あのリンクを二度クリックしたら、二日後にこのメールを送りなさい…”。これが、絶対的なルールとして書かれている。ユーザがWebサイトのデザインを変えたら、この(多くの人が無視したであろう)ワークフローは、もう使えない。

こんな低レベルな構成では、多様な現実への対応がほとんどできない。こういうワークフローを作った者がいなくなったら、どうするのだ? ワークフロー地獄は深刻なパフォーマンスの問題ももたらす。

私が実際に見たある企業は、自動化マーケティングシステムのすべてのワークフローを8時間以上もかけて処理してから、やっと見込み客をCRMシステムに渡していた。ネットで見つけた見込み客に営業が接触するまで、8時間以上もかかるのだ。自動化マーケティング約束した、スピードと単純化と、そしてまさに自動化は、どこにあるのだ?

2018年にはどのマーケティングプラットホームが優勢か?

今は、自動化マーケティングを再発明すべき時だ。そのプラットホームは、スケーラブルで応答の速いデータベースと、データに連携したワークフローシステムを提供する必要がある。それは、見込み客や顧客に関するデータを調べることに最適化された、軽いシステムでなければならない。また、サードパーティが特殊な目的の応用システムを構築できるために、クリーンなAPIを提供すべきだ。

そんな方向に向かうための条件は、早くも整いつつある。まず、膨大な量の外部データ、先進的なデータサイエンスと、さまざまな特殊目的に対応するマーケティングアプリケーションの登場。3年後の2018年には、新世代の自動化マーケティングソフトウェアが出揃うだろう。そして2018年に優勢になっているマーケティングプラットホームは、予測能力があって、どんな見込み客に対しても適切なリコメンデーションを出力する、オープンなプラットホームだ。

最初に予測ありき

明日のプラットホームは、何もかも詰め込んだ一枚岩的な自動化マーケティングシステムではなく、インテリジェントで痩身で、多くの小さな専門的アプリケーションに接続できる基幹プラットホームだ。それは豊富なデータに基づいて、顧客とのさまざまなタッチポイント(接触点)に適切なリコメンデーションを配布する。

最新のデータサイエンスと、それに基づくビッグデータ分析や機械学習技術により、そこらにあるさまざまなデータから重要な信号を読み取ることが、できるようになっている(Netflixのムービーのリコメンデーションは一体どうやっているのか、考えてみよう)。またコンピューティングのインフラストラクチャが安価になったので、多様な顧客モデルの作成とそれらに基づく具体的な個人化を、個々の企業に合わせてできるようになった。今ではConversicaLyticsRelateIQ、そしてInferのような企業が予測分析を誰の手にも届くようにし、見込み客の育成やキャンペーンの最適化、見込み度の判定など、自動化マーケティングのこれまでの課題だった項目に対しても、より効率的で効果的なソリューションを提供している。

予測能力のある人工知能(predictive intelligence)は今、すべての企業がこぞって求めている。それがさまざまなニッチのアプリケーションと結びついたプロダクトやプラットホームは今後、誰にでも使えて、具体的なアクションに結びつくシステムとして普及するだろう。それは使いやすいだけでなく、企業の進化の方向性に即したものでなければならない。そんなシステムは、ワークフローの構成など面倒なタスクも自動化するので、ユーザはパフォーマンスのチューニングとか劣化などを心配する必要がない。こういう予測型のシステムは、一人々々の顧客のアクションについて自分で学び、適応し、そして自分を改良していく。

マーケティングとセールスを循環させるリコメンデーション

(フルサークル (full-circle)リコメンデーション)

一人の顧客や見込み客に、マーケティングとセールスが別々に対応すべきではない。未来のプラットホームは顧客データをめぐる派閥性を解消し、すべての、マーケティング/営業機能を一元化する。今すでにKnoweldgeTreeなどのサービスは、営業とマーケティングとのあいだの風通しを良くすることによって、それを実現しようとしている。次のベストアクションやベストコンテンツが、片方の独断で決まらないようになる。

顧客に関する予測も、営業とマーケティングが共有する。セールスデータの履歴をよく吟味して、良い見込み客とはどんなタイプか、を見つけ出す。そしてその情報を、営業とマーケティングの両方に浸透させる。さらに、その結果に対しても然りだから、この情報活動には循環性がある。そこで‘フルサークル’と呼ぶ。

良い見込み客を拾い上げるための予測モデルを、短期的なCR(コンバージョンレート)重視型から長期お買い上げ重視型に変えることができれば、カスタマーサクセスチームがそれを利用して顧客のロードバランスを図れる。

オープンなプラットホームを目指せ

次世代のマーケティングプラットホームは強力なAPIを提供する。Autopilotがその好例だが、でもどんな企業でも、焦点を絞った、インサイトに満ち満ちた、由緒正しいツールを作ることはできる。それらは今はびこっている、何でも屋のような、インテリジェンスのないプラットホームより10倍も優れている。

たとえば仕込みキャンペーンをやる場合は、予測インサイトと痩身的システムならではのスケーラビリティを利用して、それまで無視してきた仕込み用データベースから見込み客を見つけるだろう。そういうデータベースは、見込み客の見込み度の得点を、彼らのWebビヘイビアに応じて絶えず更新しているから、仕込み客を見つけるのにはうってつけだ。そしてそういう見込み度の高い見込み客に個人化されたメールを送ったり、そのリストをセールスに回すことによって、仕込みキャンペーンが回り出す。

今ではマーケティング関連のサービスが2000近くあると言われる。CRMのSaaS化や自動化マーケティングが流行(はや)ってきたためだが、SalesforceのAppExchangeの影響も大きい。でも自動化マーケティング関連のサービスは、まだ幼児期にあるため、充実したエコシステムやAPIがなく、したがって成功例に乏しい。

でも、個々のアプリケーションのレベルでは、優れたものが現れ始めている。そして今後のオープンなマーケティングプラットホームは、CRM型ではなくデータ型(データ分析型)になるだろう。そもそも、CRMにデータを提供したり、またCRMからデータを拾う側、すなわちデータサイドが、顧客情報を長期的に多く集積しており、それらが効果的に分析されれば、マーケティングに大きく貢献しうるのだ。

クラウドコンピューティングが伸びていくとき、“ソフトウェアの終焉”という言葉が言われたような意味で、予測型プラットホームは自動化マーケティングというカテゴリーに革命をもたらす。未来のマーケティングは、キャンペーンの管理や見込み客の行動調査などを超えたものになる。

新しいプラットホームは、ワークフローとプログラムとアクションの形を、今後ますます強力になる予測インサイトの枠組みの中で変えていく。それらのワークフロー等は、マーケティングとセールスのあいだのギャップを、予測を糊としてCRMと自動化マーケティングをくつける(一体化する)ことにより、橋渡しする。

身軽でスケーラビリティの大きいデータプラットホームというものがまずあり、そこに予測のレイヤを置く。そしてコンバージョンを高めセールスを成功に導く良質なアプリケーションが、予測を活用する。初めに予測ありきのソフトウェアが世界を食べている。今その歯は、マーケティングとセールスに食らいついたところだ。覚悟を決めよう。

〔訳注: 本稿の筆者は、機械学習による予測ソフトのベンダ。自分が前に買ったり調べたりしたものに基づいて、来る日も来る日も、同じようなものの広告ばっかし見せてくれるのは、そういう‘機械的’ソフトが猛威を揮っているから。マーケティングが、その企画者実行者の人間知と人間性と創造力に基づく、クリエイティブな営為、新しいものや新しい発想を作り出す仕事であることは、ここでは完全に無視されている。本当のヒット商品や人気店は、どうやって生まれているのか、考えてみよう。データの集積と分析は重要だが、それらの処理の形や方向性を決め、処理結果から何かに気づくのも、人間性の能力だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Web ServicesはデータウェアハウスサービスRedshiftの基盤としてデータ移行プラットホームAmiatoを買収していた

screen-shot-2015-04-20-at-16-29-50

Amazon Web Services(AWS)は、2012年にローンチしたRedshiftにより、サービスのリーチをデータウェアハウジングやビッグデータ分析の分野にも広げてきた。CTOのWerner Vogelsによると、それはAWSの中でも今いちばん急成長のプロダクトだ。このRedshiftには、AWS生え抜きの技術者たちだけでなく、買収によって獲得した人材も開発に関わっていたことが、このほど明らかになった。

実は昨年の5月にAmazonは、NoSQLデータベースから非定型データを取り出してRedshiftにポートするプラットホームAmiatoを秘かに買収していた。ポートされたそれらのデータは、Amiatoの技術やそのほかのBI(business intelligence)ツールで分析できる構造を持つ。

そういう買収があったらしい、ということは今月初めにBloombergが初めて報じた。本誌は、Amazonと、Amiatoの元協同ファウンダでCEOのMehul Shahらにコンタクトして、買収の確証を得た。

Amiatoに投資しているSignatures Capitalは、Amiatoの一件はうまくいったイグジット(出口, exit)だ、と言う。Amazonに買収されたのは2014年の5月だそうだ。

Screen Shot 2015-04-20 at 16.58.41

Amiatoの元社員(の一部)も、LinkedInなどで見ると、今はAWSにいる。

AmiatoのTwitterアカウントは2013年以降更新されていないが、サービスを停止したという告知はない。

Amiatoは、2012年にY Combinatorで孵化されているときはNou Dataという名前で、その後Bobby YazdaniやData Collective、Andreessen Horowitz、Ignition Partnersらから200万ドルを調達した

しかしながら、観測筋によれば、同社はローンチ前から問題を抱えていた。要するに同社は、Redshiftがもうすぐローンチするという時期に、Redshiftのデータウェアハウジングサービスと同じプロダクトを開発していた。Amiatoが2013年3月にステルスを脱したとき、同社は準定型データのためのビッグデータA/Bテストプラットホーム、を自称していた。

しかしその後同社は進化し、ホームページでは次のように述べた: “AmiatoのSchema-lift™技術はNoSQLデータベースからすべてのデータを取り出し、それらを自動的に変換し、Amazonのペタバイト級のデータベースRedshiftに連続的にロードする。それらを直ちにSQLでクエリしたり、TableauやExcelにコネクトしたり、あるいはLookeのようなBIディスカバリツールで分析できる”。

元CEOも社員の一部も今はAmazonにいるのだから、それは技術と人材獲得を目的とする買収だったようだ。

RedshiftのローンチやAmiatoの買収等で最新のデータ技術をサービスの基盤に据えたAWSは、最近では2lemetryを買収するなどにより、今度はIoT方面の地固めに着手している。AWSがこうして買収に走るのも、過去にはなかった傾向だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのビッグデータサービスCloud Dataflowが公開ベータで一般利用可に、BigQueryはヨーロッパゾーンに対応

cbf_008

Googleが今日(米国時間4/16)、ブラッセルで行われたHadoop Summitで、同社がクラウドから提供しているビッグデータプロダクトのアップデートを発表した。まず、公開ベータで立ち上がるCloud Dataflowは、大量のデータを処理するGoogleの新しいサービスだ。そしてビッグデータ(Googleが提供するビッグデータデータベース)へのクェリを提供するBigQueryが同社のヨーロッパデータセンターにも展開され、また行(row)レベルのパーミッションも導入される。

Cloud Dataflowがデビューしたのは昨年6月のGoogleのデベロッパカンファレンスだったが、これまではずっと非公開アルファで、一般に利用できるプロダクトではなかった。しかしこれからは、関心のあるデベロッパなら誰でもこのサービスをトライし、使用を開始できる。ただしまだベータだから、公式のSLAはない。

Googleのプロダクトマネージメント部門のディレクタTom Kershawによると、ビッグデータに対するGoogleの基本的なポリシーは、複雑性をできるかぎり取り除くことだ。これまで業界を苦しめてきたのは、ビッグデータの取り扱いがきわめて難しいことだった。企業は自分たちが毎日作り出しているデータに大きな価値があることをそろそろ理解してきたが、まだ多くのデベロッパがそれらのデータを扱うるツールの開発で難儀している。Kershawは曰く、“ビッグデータの利用は、もっと民主化される必要がある。Googleにはビッグデータ処理のためのソフトウェア資産が蓄積しているので、これからはそれらを、ものすごく使いやすい形で提供していきたい”。

Cloud Dataflowは、データをストリームとしても、あるいはバッチでも、処理できる。スケーリングは、ニーズに応じて自動的に行われる(ただしユーザが押しこむデータの量があまりにも膨大になったら、Googleからの“適正な”課金が行われる)。デベロッパはCloud Dataflowを利用するためのコードを一度だけ書き、そのあとはGoogleが彼らに代わってインフラストラクチャの設定や操作等をすべて行う。

Cloud Dataflowは一般ユーザ/デベロッパにとって新しいと言えるが、しかしBigQueryは2010年からある。しかし今日からは、ユーザは自分のデータをGoogleのヨーロッパデータセンターでホストできる。Kershawによると、これまでその要望がとても多かったそうだ。データに対するユーザの主権についてうるさいヨーロッパで、Googleがもっと早くそれをやらなかったのが、不思議なぐらいだ。

BigQueryのもうひとつのアップデートは、データベースが行(row)レベルのパーミッションをサポートすることだ。ささやかなアップデートのようだが、Kershawが言うように、実用レベルではとても重要な機能だ。

ひとつのビッグデータデータベースをいろんな部課が利用する、という企業が少なくない。でもたとえばマーケティング部門には、彼らが必要とするデータにはアクセスを許可しても、そのほかの機密性のあるデータにはアクセスさせたくない。ITはそのために、必要なデータのコピーを作って渡す、という方法を採ってきた。しかしそのコピーは通常、データベース本体のアップデートと同期しない。だからマーケティング部門は、正しくない古いデータを使うことになる。しかし行レベルのパーミッションがあれば、データベース本体に安全にアクセスさせられる。〔もちろん、列(column)レベルのパーミッションもある。〕

今回のアップデートにより、BigQueryはテーブル上の行を最大毎秒10万行読み込むことができる。ビッグデータ、たとえばログファイルの巨大な集まりなどを分析するときは、これぐらいのスピードが必要だ。実際、Kershawによると、BigQueryはその目的のためにも、よく使われているそうだ。

Googleのビッグデータツールは現在、BigQueryとCloud DataflowとメッセージングサービスCloud Pub/Subの三本柱だ。Google自身がかねてから、社内的にビッグデータのエキスパートだから、おそらく来月のGoogle I/Oではさらに新しいアップデートやビッグデータプロダクトが発表されるのではないかな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

モバイルアプリに組み込む小型のローカルデータベースRealmが$20Mを調達

モバイルアプリの中に組み込む小さなデータベースを作っているRealmが今日(米国時間3/24)、2000万ドルの資金調達を発表した。

このラウンドを率いたのは、同社のシリーズAも担当したKhosla Venturesで、新たな投資家としてScale Venture Partnersが参加した。これで同社の資金調達総額は2900万ドルになる。Scale Venture PartnersのAndy Vitusと、ゲームエンジンのメジャーUnityのファウンダでCEO David HelgasonがRealmの取締役会に加わる。

Realmは、1MB足らずのとても小さなデータベースを作っているが、デベロッパがこれを利用すれば数週間ぶんのコーディング作業を節約できる。協同ファウンダのAlexander Stigsenによると、デベロッパはほんの数行のコードを書くだけで、自分のアプリにデータベースを加えられる。彼によると、クラウド上など外部のデータベースを呼び出さずにアプリ内に組み込むのは、いくつかのアドバンテージがあるからだ。

まず第一に、いつでも使える。オフラインでもよい。第二に、超速い。しかも完全にローカルだからプライバシーも良好。外部サーバ上のデータベースは、政府や悪人のハッキングに遭うおそれがある。外部データベースは使うたびに課金されるが、Realmにはそれがない。

だからRealmは、デベロッパにとって魅力満載だ。6月にステルスを脱したばかりの同社は、今では1億台のデバイスで動いている、と同社は言ってる。顧客の中には、Groupon、Buzzfeed、Intuit、Zynga、Coinbase、Expensifyなど、有名企業も多い。

同社の主な競合企業はSQLiteだ。15年前に軍用に開発されたが、今ではモバイル向けに改作されている。でもStigsenによると、最初からモバイル向けに作る方がよりシンプルであり、クロスプラットホームな互換性も最初から提供できる。

同社がローンチしたのは2011年で、Y Combinatorからだった。YCを卒業してからはステルスモードに入り、プロダクトの開発に専心していた。

Stigsenはこう説明する: “データベースを作るのはとても時間がかかるから、誰も手を出そうとしない。うちはデータベースのコアも自分で作り、初期的なベータテストを行った。とてもソリッドなものができたから、苦労のかいがあったと言える”。

サンフランシスコにオフィスのある同社は、今回の資金で現在21名の社員を年内に倍に増やす。また新たな市場開拓も行う。つまり、サポートするプラットホームを増やすとともに、営業努力を拡大する。

Realmの二人の創業者はどちらも元Nokiaの社員だ。彼らはNokiaでフィーチャーフォンを作っていたが、そのときモバイルを熟知できたことが、Realmに生かされている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa


名刺管理アプリEight、プレミアム機能でデータのエクスポートが可能に

Sansanは2月16日、同社の提供する名刺管理アプリ「Eight(エイト)」で月額課金のプレミアム機能「Eightプレミアム」の提供を開始した。価格は月額400円、年額で支払う場合は4000円となっている。

Eightは2012年2月にリリースされた名刺管理アプリ。アプリを起動し、スマートフォンのカメラで名刺を撮影し、クラウド上に保存。それを同社にてデータ化することで、スマートフォンアプリやPCからいつでも名刺にアクセスし、名刺の画像を閲覧したり、ワンタップで電話をかけたり、メールを送信したりできる。FacebookやGmailとも連携していて、友人の名刺を閲覧可能。さらに名刺内の情報をアップデートした際には、名刺を交換をした相手に通知が届いて常に最新の情報を閲覧できる。

今回提供するEight プレミアムでは、登録した名刺データをCSV形式で一括ダウンロード可能になる。また、データ入力が一般ユーザーより優先される。具体的な時間は明示していないが、これまでの1/3程度になるという。また、混み具合によっては会社名、⽒名、電話番号、メールアドレスのみがデータ化されるが、部署・役職、郵便便番号、住所など、すべての項目がデータ化されるという。

これまで無料でのサービス提供を貫いてきたEightがいよいよ本格的にマネタイズをするのかとも思ったのだけれど、同社いわくそうではないらしい。Sansan EightエヴァンジェリストでMarketing& PR Managerの日比谷尚武氏は「Eightはこれまで、名刺をデータ化する『ためる』、名刺を持ち歩くという『使う』、異動情報や(白ヤギコーポレーションと連携して提供する)企業のニュースを提供する『応用』ということを進めてきた。今回のサービスもその応用の1つ。たださすがに無料で提供できないので一部費用を頂く」と説明。今後は「ビジネスインフラとして成長させたい」とのことで、そこで本格的なマネタイズを行うとしている。

なおSansanでは、プレミアム機能提供にあわせてキャンペーンを実施する。2月末までに同機能を申し込んだユーザー限定で、過去に登録した名刺データに関しても、全項目のデータ化を行うとしている。


DeNA、ヘルスケア領域での”次の一手”は健保向けサービス-住友商事と合弁で

2014年には遺伝子解析サービス「MYCODE」を開始してヘルスケア領域に踏み込んだディー・エヌ・エー(DeNA)だが、今度は健康保険組合向けの事業を開始する。DeNAは2月3日、住友商事と合弁会社を設立し、新サービス「KenCoM(ケンコム)」を4月から提供することをあきらかにした。

合弁会社の社名はDeSC ヘルスケア(ディーエスシーヘルスケア)、3月設立予定で、資本金は3億円。出資比率はDeNAは51%で住友商事が49%。代表者代表取締役社長にはディー・エヌ・エー ヘルスケア事業部事業部長の大井潤氏が就任する。大井氏はMYCODEを運営するDeNAライフサイエンスの代表も兼任する。

KenCoMでは、利用者の健康データを一元管理し、利用者の健康度に応じた情報提供を行うという。具体的には、健康診断情報を取り込んで時系列で管理・閲覧したり、その健康データや興味・関心もとにユーザーごとに最適なコラムやニュースを提供する。DeNAいわく「これまでに培ってきたゲームや各種サービスのノウハウを活用し、より健康に関心を持って飽きることなく続けていただく仕掛けが随所に盛り込まれます」とのことだ。

厚生労働省では現在、健康保険組合に対してレセプト(医療報酬明細)等のデータの分析、そしてその分析に基づく組合加入者の健康保持増進にむけた「データヘルス計画」の策定と実行を求めているという。DeNAで現在、複数の健保組合に対して導入を提案している。


グラフデータベースNeo4jのNeo TechnologyがシリーズCで$20Mを獲得、売上は各年倍々ゲームの急成長

グラフデータベースNeo4jを作っているNeo Technologyが、投資家たちからもその着実な成長を認められ、このほどシリーズCで2000万ドルを調達した。

このラウンドはCreandumがリードし、Dawn Capitalとこれまでの投資家Fidelity Growth Partners Europe、Sunstone Capital、およびConor Venture Partnersも参加した。

同社のこの前の資金調達は2012年11月の1100万ドル、今回を合わせて総調達額は4410万ドルになった。

複数のデータ間の複雑な関係は、グラフでしか表せないこともある。たとえばよく知られているFacebookのソーシャルグラフは、ユーザとその複数の友だちとのあいだの、さまざまな結びつきを表す。Amazonなどのeコマースのサイトでは、たとえば、[この人はAを買ったがBも好きかもしれない]といった、複数の実体間の関係をグラフで表現する。

実際にWalmartはNeo Technologiesの顧客だし、本誌TechCrunchの姉妹企業Crunchbaseは、Neo4jのグラフデータベースを使って企業間の複雑な関係を表現している。

同社の協同ファウンダでCEOのEmil Eifremによると、Neo4jの主なユースケースは二つある。ひとつは、Walmartのような企業がそのアプリケーションの基盤の一つとしてグラフデータベースを使って、買い手との関係を表す場合だ。

もうひとつのユースケースはMaster Data Management日本語Wikipedia〕のインフラとしてグラフデータベースを利用するもの。大企業などでは、多様なデータソースから拾ってきたさまざまなデータを関係付けてひとつのレコード(単位的データ構造…たとえば一つの顧客データ)を作らなければならない。それはきわめて不定形なデータ構造になるため、やはりグラフを使うのがいちばん便利だ。

“これはたいへん困難で骨の折れる問題だ”、とEifremは語る。“そういうデータ構造は、作るのも操作するのも極めて難しい。しかもデータは頻繁に変化している”。そういう厄介なデータ問題の、最適のソリューションがグラフモデルだ、と彼は主張する。

Eifremによると、同社は2007年にオープンソースのプロダクトとしてスウェーデンに誕生し、最初の2年はプロダクトの構築とコミュニティの育成に注力していた。今ではそのコミュニティが同社の生命線であり、そして2011年ごろから一般の顧客も増えてきて本格的な商用化が必要になってきた。

そこで同社は本社をカリフォルニアに移し、技術者だけをスウェーデンに残した。Eifrem自身はそのとき、居住する国を変え、また自分の会社を純粋なオープンソース企業から、オープンソースをベースとする商用企業に変える、という二重の変化を経験した。

彼は90年代の半ばに学生として合衆国にいたので、友だちも少なくない。だから本社の移転は、想像したほど難しくはなかった。商用企業への移行に関しては、それは最初から彼のビジョンにあったことなので、とくに問題はなかった。

“うちはオープンソースだけど、いずれは大きな会社になる、と考えていた。オープンソース企業が力を持つためには、ある程度大きな企業でないとだめだ、と思っていた”、とEifremは語る。

データベース市場全体の中でグラフデータベースが占めるパイはとても小さいが、今急速に成長しており、彼の会社も伸びている、だから投資家たちを惹きつけるのだろう、とEifremは言う。

同社の社員は今7〜80名、今回の資金で年内に120名への増員を考えている。2011年に本社を移転してから売上は各年前年比2倍〜3倍増加している。それを、投資家たちが見逃すはずがない。

彼も言う、“毎年倍々ゲームを繰り返していれば、会社も当然でかくなる。投資家たちも当然目をつけるよね”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))