コンテンツ・アドレッサブルで多バージョン分散データベースNomsのAttic Labsが$8.1Mを調達

1-lsdbfqbeg_rcgnidp40dia-1

サンフランシスコのAttic Labsが今日(米国時間8/2)立ち上げたNomsは、新しい分散データベースで、その‘新しさ’はGit, Camlistore, ipfs, bupなどからヒントを得ている。同社の今日の発表では、GreylockがリードするシリーズAで810万ドルを調達し、Nomsなどのプロジェクトの継続が可能になった。Harrison Metalなどのエンジェル投資家たちも、このラウンドに参加した。

Attic Labsが初耳の人でも、ほとんどの人が、ここのチームが関わったプロジェクトのどれかを、使ったことがあるはずだ。たとえば協同ファウンダーのAaron BoodmanはGreasemonkeyの作者だし、Google Chromeの開発リーダーでもあった。もう一人の協同ファウンダーRafael WeinsteinもChromeの開発(等々)に関わり、チームのほかのメンバーたちも、Chrome、Chrome OS、ECMAScript(JavaScriptのスタンダード)などで仕事をしている。

では、Nomsは、これまでのデータベースとどこが違うのか? チームが主張するのは、今日のデータベースはその多くが、“データを単一時点の存在”と捉えている。たとえばある欄がアップデートされると、アップデートされた時点の値がその欄の値に(次にアップデートされるまで)なり、前の値を知ることは困難である。今のデータベースを分散化することは可能でも、利用する側にとってそれは単なる単一のデータ集合であり、分散にユーザーレベル、アプリケーションレベルの意味は何もない。

そこでBoodmanが今日の発表声明で書いているのは、Nomsはたぶん、Gitと比較すると分かりやすいだろう、ということだ。GitのようにNomsでもユーザーはデータをレプリケート(複製)でき、複数のマシンの上でオフラインでエディットし、それらのエディットを再びシンクする(BoodmanとWeinsteinはAvantGoなどのシンクサービスの仕事をしたこともある)。Nomsでは、ヴァージョニングとエディットが破壊的でない〔前のバージョン、前のエディットが消えない〕。ただしGitと違うのは、保存するのが定型データだけで、テキストファイルは保存しない。主に、非常に大きなデータ集合をサポートすることが目的だ。

そのため、Nomsはとくに、大量のデータをインポートする業務に向いている(自動的に重複エントリを一つにする)。また、複数のソースからのデータを組み合わせ結びつけるタスクにも合う(データの変形が簡単にできる)。そしていちばん得意なのは、そんなユースケースで必ず必要になる、大きなデータセットのシンクだ。

Boodmanは次のように書いている: “Gitがソフトウェアの世界をほとんど一晩で席巻してしまったのは、分散が本質であるためにソースコードが複数のコンピューターや組織、そして人びとのあいだを、とてもなめらかに移動し、それによって、すごく充実したコラボレーションが可能だからだ。世界は、データをなめらかに共有し、密なコラボレーションのできる方法を必要としている、と思う。それを実現する自然で必然的な方法は、コンテンツでアドレシングできる(content-addressed)〔日本語Wiki〕、非集中型で、シンク能力のあるデータベースだ”。

今日の投資の結果として、GreylockのJerry ChenがAttic Labsの取締役会に加わる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

オープンソースのインメモリNoSQLデータベースとして好評のRedis Labsが、シリーズC $14Mの調達へと成長

shutterstock_141093727

インメモリキー-ヴァリューストア(KVS)データ構造(NoSQL)Redisをオープンソースで提供しているRedis Labsが今日(米国時間7/21)、Bain Capital VenturesCarmel Ventures率いるシリーズCのラウンドで1400万ドルを調達したと発表した。同社の前からの投資家Silicon Valley BankとTamar VenturesのマネージングパートナーZohar Gilonも、このラウンドに参加した。

これはこの前の1500万ドルのシリーズBに次ぐもので、Redis Labsの調達総額はこれで総額4200万ドルに達した。

同社によると、新たな資金は営業とマーケティング努力の拡大、およびエンタープライズユーザーベースの一層の強化に投じられる。

2011年に創業された同社は今日さらに、今年の前半で新たなエンタープライズ顧客600社を獲得したことを発表した。今や顧客は多様な業種業態に広がり、著名な企業としてはGroupon, TD Bank, Verizon, HipChat, DBS, Ring Central, Menards, Twitch, flydubaiなどの名が挙げられる。

Redis Labsは現在の成長市場であるインメモリデータストアで、その成長に乗じて業績を上げている典型的な企業のひとつだ。同社は最近、高価なRAMではなくSSDを利用するRedisデータストアとしてRedis on Flashをローンチした。IoTに注目する企業が増え、リアルタイムのデータ分析の高効率化が求められるようになると、Redisのような高速なデータストアへのアクセスがますます重要になる。

今日の発表声明でRedis LabsのCEOで協同ファウンダーのOfer Bengalは語る: “今は、過去のどんな時期にも増して、企業は大量のデータ集合を高速に処理できるソリューションを必要としている。われわれがRedis Labsを創業したのは、Redisの力をエンタープライズ向けに拡大し、複雑巨大なデータの管理を単純化したいという彼らのニーズに応えることを、使命とするためだ。Redisの真価を理解するエンタープライズとデベロッパーがこのところ増えているので、今回のシリーズCの投資により、ハイパフォーマンスなRedisソリューションの、さらなるイノベーションとそのデリバリ能力を、拡大強化していきたい”。

オープンソースをベースとするエンタープライズ企業の通例として、Redis Labsもその中核的データベース技術は無料で提供している。しかしクラウドからの完全な管理サービスプロダクトRedis Cloudや、そのRedis Labs Enterprise Clusterのサポートなどは、同社のメインの収益源である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

地理的データの視覚化をデータサイエンスの知識技能のない人でも簡単にできるCARTO

carto-featureimage

マドリッドで2012年に創業されたデータ視覚化企業CartoDBが、分析ツールCARTO Builderの発売を機に、社名をCARTOに変え、これまでもっぱらデベロッパーだけだったユーザー層を、企業の一般社員やノンプログラマーにも拡大しようとしている。

CartoLogo

元々CartoDBは、SQLができるデータのスペシャリストを助けて、彼らが位置データの分析をできるようにするのが、本業だった。また、データの視覚化は大好きだがコーディングはできない人びと、たとえば一部のジャーナリストなどは、同社を利用して対話的なマップをスクラッチから(はじめから、ゼロから)作ることができた。そしてこれからの同社は大企業にデータ分析ツールをCARTO Builder提供して、彼らのビジネスの意思決定や、消費者トレンドの予測などを助けていく。

CARTOのCEO Javier de la Torreはこう語る: “CARTO Builderはどんな業種でも利用できるが、当面は金融と通信方面に営業を注力して、彼らのいろんな分野に対する投資のリスクを、予測するサービスを提供していきたい”。

CARTO BuilderはWeb上(ブラウザー上)で使うドラッグ&ドロップ方式の分析ツールで、いろんな公開プラットホームから集めたさまざまなデータシートもある。今のバージョンには新たに、ウィジェットと予測ファンクションという二つの機能が加わった。どちらも、コーディングの知識がなくても使える。

Carto-USmap

ウィジェットは、データセット中のとくに関心のある項目を指定すると、それらに関する分析をインスタントにやってくれる。ウィジェットには4つのタイプがあり、それらは、(1)カテゴリー、(2)ヒストグラム、(3)フォーミュラ、(4)時系列、だ。マップの色を、使用するウィジェットごとに指定できる。

たとえば、アメリカのすべての列車事故の平均被害額を知りたい、としよう。すべての事故と、それら個々の被害額を羅列したデータが、手元にある。そうするとユーザーは、“フォーミュラ”ウィジェットで正しいパラメータを指定するだけだ。マップが即座に、列車事故の平均被害額を表示してくれる。

“こんなのは昔は、JavaScriptをたくさん書かないとできなかった”、ニューヨーク市の事業開発マネージャーJeff Ferzocoが、CARTOでそう言った。

Carto-styling

CARTO Builderはコーディングの知識を必要とせず、データ中にパターンを外挿するスキルも要らない。CARTO Builderのエキスパートユーザーは前と同じくSQLを使ってデータベースの操作ができるが、専門家でない一般ユーザーはこのツールの“Analyze and predict”へ行ってパラメータを指定するだけだ。そこでユーザーにできるのは、(1)点のクラスターを計算する、(2)アウトライアーとクラスターを検出する、(3)トレンドとボラティリティを予測する、のどれかだ。

“CARTO Builderのおかげで、それまではデータサイエンティストがやっていたたくさんの仕事を、今ではデータアナリストでない人でも容易にできる”、とFerzocoは語る。

1万行のデータベースをCARTO Builderに分析させると1分30秒かかる。5000万行だったら、たぶん40分だろう、とFerzocoは言う。“実際にやってみたことはないけどね”。

De la Torreによると、CARTO Builderのベーシックバージョンの料金は月額149ドルからだ。“エンタープライズバージョンを使う企業が多いけど、それなら年額1万ドルからだ”、と彼は言う。

同社によると、CARTO Builderの展開は7月7日から始めて、その後段階的に進めていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

社員のスキルと保有資格を見える化、「SKILL NOTE」のイノービアが1億1000万円を調達

SKILL NOTE_top

どの社員が何のスキルや資格を持っているのか?何万人の社員を抱える会社にとってその管理は骨の折れる仕事だ。特に製造業では、重要なスキルを持っているベテラン層が引退して、プロダクトの品質に影響があっては大問題だ。イノービアの提供する「SKILL NOTE」は社員の持つスキルや資格を見える化し、そういった問題を解決する。本日イノービアはインキュベイトファンドから7000万円の第三者割当増資と日本政策金融公庫から4000万円をデットファイナンスで総額1億1000万円を調達したと発表した。

SKILL NOTEは主に製造業、工事業、IT業の企業が社員の保有資格やスキルを管理するためのクラウド型システムだ。SKILL NOTEにはスキルや資格の管理機能と各社員のキャリアプランのための機能、そして教育研修の募集や申し込み、参加履歴などを管理する機能などを備えている。SKILL NOTEの特徴は全社員の実務スキルと保有資格のデータを蓄積し、そのデータを可視化する点だ。例えば「スキルマップ」では、横軸に社員、縦軸にスキル項目が並び、誰がどのスキルを習得したかを一覧で確認することができる。習得済みや習得予定、レベルなど、全体の習得状況が一目で分かる。

SKILLNOTE_スキルマップ

SKILLNOTEのスキルマップ

規模の大きい製造業の会社では全社で5万から10万種類のスキルを設定しているとイノービアのファウンダーで代表取締役の山川隆史氏は説明する。社員が1万人を抱える企業だとその情報量は膨大な量となるが、未だに各部署の担当者は社員のスキルを紙やエクセルで管理しているところもあると話す。エクセルの管理だと上書きした場合に過去の履歴が参照できなかったり、人材が異動した場合に対応できなかったりすると山川氏は指摘する。SKILL NOTEではそういった情報を一元的に管理することが可能となる。

ただ、「SKILL NOTEは紙やエクセルを置き換える以上の価値を提供することができると考えています」と山川氏は話す。SKILL NOTEに社員のスキル情報が蓄積するほど、現時点のみならず、将来のスキルの習得状況も予測できるようになる。例えば「年齢別スキル分布」のデータからは、各年代ごとのスキルの習得状況が分かる。ベテラン層に重要スキルが集中している場合、彼らが引退した時にその仕事を引き継げる人がいないという状況になりかねない。データを随時確認することで、事業を運営していく上で必要なスキルを保持するための統合的な人材育成を図ることができるようになる。

SKILLNOTE_年齢別スキル分布

SKILL NOTEの年齢別スキル分布

スキルの可視化で、キャリアプランの制定もしやすくなると山川氏は言う。SKILL NOTEの「ステップアップシート」では、会社が職種ごとに若手や中堅に求めるスキルや資格を明示することができる。これまでも会社側は社員のキャリアプランを考えてはいたが、それを社員に明示することは少なかったと山川氏は話す。会社は様々な教育研修を用意し、社員のスキルアップを促してきたが、社員の方としては全体のキャリアプランが見えないために、なぜこの研修を受ける必要があるのか理解できないこともあるという。そこを明示することで、社員は自分のキャリアプランを見て、ステップアップとして次にこういったスキルが必要だから研修に参加しようと計画を立てることが可能になる。研修を受けるモチベーションにもつながると山川氏は言う。

SKILLNOTE_ステップアップシート

SKILL NOTEのステップアップシート

山川氏は信越化学工業で市場開拓や次世代技術開発などに従事した後、2006年3月に製造業の人材育成を支援する会社を創業した。その会社では製造業向けの教育研修を担っていたが、次第に単発の研修だけでなく、技術者の能力を見える化して戦略的な教育研修ができるソリューションを提供できないかと考えるようになったと山川氏は話す。そのためのシステムを少しづつ構築し始め、このサービスの展開のため2016年1月にイノービアを設立した。2016年6月からサービスを「SKILL NOTE」にリブランディングしている。

社員数によって価格は変動するが、SKILL NOTEは社員100名なら料金は月額2万円からだそうだ。すでにリコーインダストリー、JFEスチール、ヤマサ醤油など大手企業を含む50社以上に導入が進んでいるという。小規模なスタートアップにも関わらず、大手製造業からの引き合いが多いのはスキル管理に特化したサービスが他に少ないこと、大手企業が抱える課題にうまく刺さっていることが理由のようであると山川氏は説明する。問い合わせの多くは各企業の人事やITソリューション部ではなく、社員のスキル管理に日々頭を悩ませている現場に近い技術部門からなのだと言う。

今回の資金調達では営業とマーケティング力の強化、そして導入企業のフィードバックを元にサービスの拡充を進めていくという。総勢20名程度スタートアップだが、次の2、3年でSKILL NOTEを国内の製造メーカーへの普及を進め、5年後には海外でも使用されるサービスになることを目指すと話している。

Reserve、レストラン向け予約管理と顧客データベースツールを公開

reserve

2014年の立ち上げ以来Reserveはしばしば「外食のコンシェルジェ」と呼ばれてきた。確かにカッコ良くは響くが、その定義は少々曖昧かもしれない。基本的にReserveは、柔軟性のある予約システムと支払い機能の合わさったサービスを提供する。

今回、Reserveはサービスを拡張し、新たにReserve for Restaurantsというサービスをローンチする。レストラン向けプロダクトのトップであるPeter Esmondは、これを「テーブル・マネジング・サービス」と説明している。これはOpenTableなどが提供しているようなサービスを指す業界用語で、Esmondは「レストランでの顧客体験を最初から最後まで管理するための運用ツール」と説明する。

Reserveの場合、そのサービスには単なるレストランの予約管理に加えて、顧客情報のデータベース化が含まれる。顧客が個別店舗に来店した時だけでなく、グループやチェーン店舗を訪れた際にもレストランは顧客の好みやアレルギーを把握することができる。

予約業務においては、ReserveはReserve.comを立ち上げ、スマートフォンからだけでなくウェブからのレストラン予約を可能とした。さらに埋め込み可能なウィジェットを提供することで、レストランは自分のウェブサイトに予約システムを加えることができるようになった。

Reserve Dashboard

Reserve for Restaurantsはレストラン一箇所あたり月99ドルで提供する。これまでの予約1件に対し5ドル課金するシステムは廃止する。

「我々はパートナーであるレストランと共に在りたいのです」とCEOであるGreg Hongは言った。「より良い課金システムによりそれが可能です。我々のテーブルマネジメントシステムを定額制で使えます。好きなだけ予約を入れてもらっても料金は一定、定額です」。

ReserveはもともとExpaで立ち上がった。Expaはスタートアップスタジオで、そのパートナーであるNaveen Selvaduraiは本日午前11時半(東海岸時間)よりDisrupt NYに登壇する。

[原文へ]

(翻訳:Hideo Tsubouchi)

Bashoが時系列データ専用NoSQLデータベースRiak TSをオープンソース化してIoTへの浸透をねらう

internetofthings

世界中のありとあらゆるデバイスメーカーが、自分たちの製品をインターネットに接続しようとしているように、思える。ベッド用のマットレスも、洗濯機も、トースターも、そしてジューサーも〔冷蔵庫も〕。大量のデータが空中や線上にあふれ出て、分析されるのを待つ列に並ぶだろう。

そのようなデータは今後増加の一方で、それを送信する能力は、最近1億5000万ドルを調達したSigFoxなどの企業によって徐々に整備されていくが、しかしながら今の分散データベースのアーキテクチャの多くは、市場が求めるそんな帯域にマッチできるほどの、高速なデータ処理と出力の能力を持っていない。

シアトルのBashoは、同社のNoSQLデータベースRiak TSの最新リリースで、そんな問題の一部を解決しようとしている。TSはtime-series(時系列)の頭字語で、データのユニークなキーヴァリューがタイムスタンプであり、それはそのデータが作られた日時を指している。TSシステムはこれまでもBashoのエンタープライズクライアント(Uber, AT&Tなど)にしばらく使われてきたが、今回のオープンソースリリースによって、そんなデータタイプを初めて扱うデベロッパーでも、気軽に利用できるようになった。

MongoDBやDataStaxなどの同業企業と違ってBashoはこれまで、わずか2500万ドルの資金しか調達していない。明らかに同社は、時系列データを扱うという独自性が、NoSQLデータベースの業界で強力な差別化要因になる、と信じている。

今回のニューリリースは、ApacheのクラスターフレームワークSparkを統合し、SparkとRiak TSにおけるインメモリ処理のためのデータの、自動的分散化と対話をサポートしている。

多くの人にとってこれは些細なことと思えるかもしれないが、センサーからの大量の時系列データを扱う者にとっては、大規模な分散化データが、コンピューターの実動時にすら、長いリード/ライト時間の原因となり、分散化による冗長性が効率を殺してしまう。

ソリューションとしては、ハッシュランクを使ってデータのキーをデータクラスター全体にわたって均一に分散するやり方が多い。それによって、大規模なノード集合全域にわたる同じタイムレンジからのデータを効率的に入力するが、一方でレンジへのアクセスが高負荷な操作になる。

BashoのCEO Adam Wrayによると、Riak TSが使っているユニークな分散化システムはユーザーに、タイムスタンプのある、あるいはそのほかの連続的な、データの処理における有利性を与える。

“われわれはデータの配置を最適化し、特定のノードが特定のレンジのデータを得るようにしている”、と彼は語る。つまりこのような配置によって、一定のタイムレンジからのデータのフェッチが、より少ない操作ですむようにしている。

新しいリリースのREST APIによって個々のデベロッパーが利益を得るだけでなく、Bashoがエンタープライズの世界で歓迎される要因は、Riak TSの、既存のSQLデータベースコマンドとの互換性だ、と彼は考えている。

“それは正規のSQLコマンドであり、一部のCQLや、SQLのわれわれ独自の変種ではない”、とBashoのCTO Dave McCroryは述べる。“われわれは、人びとがいちばん多く使いたがる従来的な操作をサポートする”。

たしかに、いちばん多く使われているSQL操作をサポートすればレガシーユーザーやエンタープライズの多くにとって魅力的だが、多くのエンタープライズユーザーはSQLプラットホームの上に内製のカスタムソリューションを乗っけており、それがエンタープライズ世界におけるRiak TSの広範な採用を妨げるかもしれない。

Riakのノードは仮想と物理的、両方のマシンにまたがって分散化でき、またMicrosoftのAzureやAmazon Web Servicesなどのプラットホーム上の、クラウドインスタンスの上でもそれは可能だ。

Bashoの主張によると、時系列データの処理では、Riak TSの方がApacheのNoSQLデータベースCassandraなどよりも50%は速い。本誌TechCrunchはこの主張を検証していないが、今回オープンソース化されたことにより、Rial TSシステムのパフォーマンスゲインは多くのユーザーにとって明らかになるだろう。

このシステムが内包している強力な事故回復力が、エンタープライズユーザーたちのデータベース乗り換えの十分な動機になるか、それはまだ分からない。Riak TSでは各クラスターが同一データのコピーを三つ抱えるので、マルチクラスターのリプリケーションが天文学的な数の操作になることもありえる。しかし十分なスケーラビリティがあれば、これによって高いアップタイムと低い誤り率が保証される。ただしそれに要する費用は、小さな企業が尻込みするほどの額だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

インメモリデータベースのMemSQLがシリーズCで$36Mを調達、ビッグデータの優等生に投資家が殺到

23827490171_fb0198e989_k

インメモリデータベースのMemSQLが今日、シリーズCで3600万ドルを調達したことを発表した。新規の投資家REVとCaffeinated Capitalがラウンドをリードし、既存の投資家Accel Partners, Khosla Ventures, Data Collective, IA Ventures, およびFirst Round Capitalも参加した。

2011年にY Combinatorを卒業したMemSQLは、リアルタイムのビッグデータ分析という分野で活躍するスタートアップで、ほかにHortonWorks, Cloudera, Couchbase, SAP Hana, MongoDBなどもこの分野の主力選手たちだ。MemSQLの協同ファウンダーEric Frenkielによると、今回のラウンドは参加を希望する投資家が多すぎて、一部のコンペティターの評価額が下がってる中でのその現象はきわめて異例だ、という。

“ビッグデータの市場は今急速に、主記憶とApache SparkやKafkaのようなソフトウェアを使うリアルタイム処理に移行しつつある。企業はMemSQLを利用して、データのリアルタイムストリームを作り、分析できる”、と彼は語り、加えて、“ビッグデータ企業の多くが、オープンソースのモデルで投資家の高い期待に応えようとして、苦戦している。しかもそのやり方は、結構高くついている”、と述べた。MemSQLには、そのデータベースの無料バージョンはあるがソフトウェアはオープンソースではない。

Frenkielによると、同社の現在の顧客の中には、Pinterest, Comcast, Akamai, Kellogg’sなどがいる。

今回の新しいラウンドは、2014年の3500万ドルのシリーズBに次ぐ資金調達だ。同社の調達総額は、これで8500万ドルになる。計画では今回の資金は、“技術、営業、サポート、マーケティングなどすべての分野で成長を加速していくために”、使われる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

分散PostgresデータベースのCitusがAWSと組んでクラウドバージョンCitus Cloudを立ち上げ

9362355418_61d8c4b856_k

分散データベースのCitusは、最近ちょっとニュースが多い。二週間前に同社は、そのPostgres起源のデータベース製品をCitus 5にアップグレードしたが、もっと大きなニュースはそれをオープンソースにするという大胆な発表だった。そして今日同社は、それをクラウド化した新製品Citus Cloudを発表した。Database as a Serviceの誕生だ。

Citus 5では、メモリと処理能力のスケーリング能力が強化されたが、大量のビッグデータを扱わなければならない今日では、スケールアップの費用も大きい。しかしデータセンターを自前で持たずにクラウドサービスに依存するなら、最近のクラウドは“エラスティックな”リソース割り当てを提供しているから、無駄なリソース費用は、発生しない(はずだ)。

スケーラビリティだけでなく、管理も問題だ。企業が自力でデータベースの世話をするとなると、その時間と費用が相当な量になる。クラウドからのサービスとして提供されるCitusなら、その重荷がない。メンテナンスの責任が顧客からCitusへ移り、継続的なアーカイビングと災害復旧能力により、事故時にもデータベースの健康が維持される。

スケーリングは、クラウドの場合も、サーバーの費用は増えるが、データベースの管理をデータベースの専門企業がやってくれることは、顧客企業から重い負担を取り除く。

Citusの顧客はこれまでも、AWSの上でCitusを使っていることが多いので、今回始まるクラウドサービスも、AWSとのパートナーシップのもとに行う。将来的には、そのほかのクラウドサービスからの提供も考えているが、リソースに制約のあるスタートアップとしては、まず世界でもっともポピュラーなIaaSから始めて、その後、ほかのオプションも検討する。

この新しいクラウドサービスは、6月か7月までをベータ期間とするが、でもファウンダーでCEOのUmur Cubukcuによると同社は、顧客のためにできるだけ多くのものを自動化したいので、ベータの参加企業の協力を得て、要望されている機能のほとんどすべてを実装していきたい、という。そしてそのあとに、Citus Cloudは一般公開される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apache Cassandraデータベースを商用提供してきたDataStaxが昨年のAurelius買収の成果によりグラフデータベースをメニューに加える

shutterstock_222839971

DataStaxが昨年、グラフデータベースのAureliusを買収したときは、それは同社のDataStax Enterpriseプロダクトにグラフデータベースの機能を加えたいからだと思われたが、今日(米国時間4/12)同社はその目標を実現し、DataStax Enterprise Graphのリリースを発表した。

このエンタープライズグラフプロダクトはDataStax Enterpriseプロダクトセットに完全に統合され、これまでのキー・バリュー(key-value)、表形式、およびJSONドキュメントモデルに加え、初めてグラフオプションが顧客に提供される。

Kaiser PermanenteやCambridge Intelligence、Linkuriousなど10社による2か月の綿密なベータを経て同社は、このプロダクトをついに一般公開できることになった。この新しいグラフデータベースは、Aureliusが開発したオープンソースのグラフデータベースTitanがそのベースだ。

DataStax Enterprise Graphは複数のプロダクトで構成され、それらにはグラフデータベースを動かすDataStax Enterprise Server、管理部位DataStax OpsCenter、グラフを視覚化するDataStax Studio、多様な言語をサポートするDataStax Driver(s)などがある。

Graph visualization in DataStax studio.

グラフを視覚化するDataStax Studio(写真クレジット: DataStax

 

グラフデータベースはいくつかの点で、関係データベース(リレーショナルデータベース)と異なる。関係データベースでは複数の表のあいだの関係を定義し操作できるが、あまりにも複雑なデータや大量のデータになると、それらを十分な実用レベルで扱うことはできない。データ集合が大きくなり、さまざまなデータ間の関係が複雑になると、企業はそれらを無理なく表現し操作できる方法を求めるようになり、そこにグラフデータベースの出番がある。

いちばんよく知られているグラフデータベースは、FacebookのSocial Graphだろう。それは、あなた自身とあなたの友だちとの結びつきを表現する。このほか、たとえばAmazonのようなeコマースのサイトでは、ある製品とその関連製品の結びつきを表すために、この技術を利用している。Amazonで買い物をした人は、誰もがその機能を気に入るだろう。また医学の分野では、たとえば患者の症状とさまざまな疾病との結びつきを調べたり、クレジットカード会社は異常事と多様な犯罪的行為との関連を調べたりする。グラフ構造で表現するのがふさわしいデータ間の複雑な関係は、まだまだ、いろいろありえる。

DataStaxは社員が400名あまりいて、その実態はオープンソースのApache Cassandraデータベースのいわば商用部門だ。Cassandraへのコントリビューションも強力に行っており、また多様なサポートとより高度な機能を求める企業顧客向けには、そのエンタープライズバージョンをサポートしている。〔Cassandraのドキュメンテーションの多くがDataStax上にある。〕

同社は2010年にローンチし、これまでにおよそ1億9000万ドルを調達している。最近の資金調達は、2014年の1億600万ドルのラウンドだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftのNoSQLデータベースDocumentDBがMongoDB完全互換になる

documentdb-mongodb

MongoDBができる人、今日はあなたの吉日だ。MicrosoftのNoSQLドキュメントデータベースDocumentDBが、これからはMongoDBのドライバーをサポートする。今あなたが使っているMongoDBのツールやライブラリをDocumentDBで使って、Microsoftのクラウドを利用できるのだ。

あるいは、DocumentDBのインフラストラクチャからMongoDBと互換性のあるデータベースサービスを提供する、といったハイブリッドなこともできる。今日(米国時間3/31)から、そのプレビューが提供される。

皮肉にもMicrosoftは、MongoDBのサポートの使い方をデモするスライドの中で、Parseを使っている。Parseをベースとするアプリは、MongoDBの命令を使ってDocumentDBとコミュニケートできる。しかし、Facebookは近くParseを閉鎖する。でもご安心を! ParseのサーバーをAzureへ移行できるから、デモでParseを使っているのは意外と正解かもしれない。

DocumentDBはJSONベースのNoSQLドキュメントデータベースへの、Microsoft独自の取り組みだ。顧客はパフォーマンスのレベルを選択でき、あるいは一部のコレクションに対してのみ高いパフォーマンスレベルを割り当てて、そのほかを低くしておくこともできる。

また今日からは、DocumentDBで複数のリージョンのデータをレプリケートできる。前から、世界中の複数のデータセンターにまたがってDocumentDBを利用できるけれども、今日からはそんな展開でも応答性に優れたデータベースを構築できることになる。

DocumentDBの料金体系も変わる。今日のMicrosoft Buildの会場で詳しい説明はなかったが、とにかく今後はDocumentDBがお安くなり、大規模な展開も楽にできるようだ。期待しよう。

Ce5Bg-LXEAAcQrA

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ユニークな分散型オープンソースデータベースCockroachDBがシリーズA1で$20Mを調達、著名投資家たちが将来性に注目

screen-shot-2016-03-30-at-8-04-44-am

CockroachDBはニューヨークのオープンなデータベース企業で、企業顧客のアプリケーションが、データセンターやクラウドインフラストラクチャとの接続が切れても無事に動くことをねらっている。その同社がこのほど、シリーズA1のラウンドで2000万ドルを調達した。投資家はIndex Venturesと初期の投資家Benchmark, FirstMark Capital, およびGV(元Google Ventures)だ。

CockroachDBは1年近く前にも、BenchmarkのPeter Fentonが率いるシリーズAのラウンドで625万ドルを調達している。Fentonには、人びとの注目を集める、そして成功率の高い投資案件が多く、中でもZendesk, Hortonworks, New Relicなどのケースがよく知られている。

初期の投資家たちの中には、上記のGVなどとともに、Sequoia Capitalとテクノロジー企業の役員たちがいる。たとえばHortonworksのCEO Rob BeardenやClouderaの協同ファウンダーJeff Hammerbacherなどだ。

CockroachDBは元GoogleのソフトウェアエンジニアSpencer Kimball, Peter Mattis, およびBen Darnellの三名が創業した。CEOのKimballとエンジニアリング担当VPのMattisは、CockroachDBの前に写真共有アプリViewfinderを作り、それを2013年の後半にSquareに(価額非公開で)売った。今同社の社員数は10名あまりだが、すでにシード資金も初期に獲得している(金額非公開)。

写真はSpencer Kimball本人

〔参考記事: WikipediaCockroachDBの来歴(日本語記事)。〕
〔ゴキブリ(cockroach)には、グローバルな熱核戦争に生き残る唯一の生物、という都市伝説がある。CockroachDBのP2Pアーキテクチャの強靭性を、シンボライズしている。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

次世代SQLデータベースのCrateが$4Mのシード資金を調達、コンテナ環境との相性が売り

3991309955_059841f3d5_o

2014年のTechCrunch Disrupt Europe startup Battlefieldで優勝したCrateが今日(米国時間3/14)、そのオープンソースのSQLデータベース技術に対する400万ドルのシード資金を獲得したことを発表した。

このラウンドをリードしたのはロンドンのDawn Capitalで、これに既存の投資家Sunstone Capital, DFJ Esprit, およびSpeedinvestが参加した。さらにまた、Dockerコンテナの原作者でDocker, Inc.のファウンダー&CTOのSolomon Hykesも投資に加わった。

Hykesは今日の発表声明で、次のように述べている: “Crateの、マスターのないシンプルなアーキテクチャはコンテナ環境に完全にマッチする。マイクロサービスパラダイムを採用するデベロッパーが今後増えるに伴い、広くデプロイされることを期待している”。

CrateのCEOで協同ファウンダーのChristian Lutzによると、同社は今回の追加資金を同社のシリコンバレーにおけるプレゼンスを拡大するために使いたい、という。Crateの中核的な技術者グループはヨーロッパに残るが、合衆国にはプレセールスのエンジニアなどを置き、顧客の増大に備えたい、と。

Lutzによると今年の後半にはシリーズAのラウンドを行いたいが、今回のラウンドがそのためのベースになる。

Lutzは語る、“若いデータベース企業の最大の課題は、信頼と信用の獲得だ”。昨年Crateはシリコンバレーで、有名企業数社を顧客にできた。それらの社名は明かさないが、Lutzによるとセキュリティ企業のSkyhigh Networksが最近Crateに乗り換えたので、今同社はSkyhighのデータベースクラスタを動かしている。それは、数十億件のセキュリティイベントを保存するデータベースだ。

今後の予定としては同社は近く、初のエンタープライズプロダクトをローンチする。それには、データセンターのレプリケーションなども含まれ、Crateのオープンソースコアとは別途のコードになる。

 

〔参考記事: docs, Wikipedia, cloudpack

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

BIサービスのTableauがドイツのHyPerを買収してビッグデータ分析を高速化

shutterstock_1301396992

BIサービスのTableauが、ドイツの先進的データベース企業HyPerを買収したことを発表した。Tableauのねらいは、彼らの技術を自社のプロダクト集合に組み入れることだ。

Tableauはビジネスインテリジェンスとデータ分析の企業として、企業顧客が自分たちのデータからインサイトを得ることを助けている。大学の研究から生まれたHyPerのデータベース技術は、Tableauのすべてのプロダクトのパフォーマンスを向上させる。Tableauのエンジニアリング担当シニアディレクターPatrice Pellandは、そう説明する。

“HyPerはダイアモンドの原石だ。ミュンヘン工科大学(Technical University of Munich, TUM)の研究チームがそれを開発した”、とTableauは述べている。

Tableauは実は、この若い企業に前から注目していた。最初に発見したのは、データベース技術に関する学界の場だった。その技術が姿をなしてくるにつれてTableauは、それが同社のBIサービスによくフィットしていることが分かってきた。

HyPerがTableauに持参する能力の中には、データ分析の高速化がある。それは、データセットのサイズとは無関係であり、トランザクションのシステムと分析システムを一体化してプロセスをスピードアップする。またその多様な分析能力は、定型データと非定型データの両方をサポートし、ビッグデータの分析に威力を発揮する。

まだ生まれたてほやほやのHyPerは資金もなく、Tableauが買収しようとしたとき、顧客もいなかった。買収の条件をTableauは公表していないが、Tableauのスポークスパーソンによると、“それは現金以外の取引なので公表はできない”、という。つまり、おそらくそれは1億ドルに満たない価額と思われるが、まだ新生児のような企業だから、それも当然かもしれない。

HyPerのトップは、TUMの二人の教授で、これまで院生たちとともに研究を続け、HyPerデータベースシステムの開発に至った。Tableauも数年前に、大学(スタンフォード)の研究プロジェクトから生まれた。つまり両者は‘大学発’というルーツを共有する。二人の教授は当面コンサルタントとして仕事を続け、プロジェクトに関わった4人のPhDは、ミュンヘンに設けられるTableauのR&D部門を担当する。

そのオフィスは今後拡張する予定だが、最初何名の社員でスタートするかは、公表されていない。

今現在、彼ら新しい社員たちは、シアトルにあるTableauの本社を訪れて、技術者たちとHyPerのデータベース技術とTableauのプロダクトとの統合について、話し合っている。

これはTableauの二度目の買収だ。“うちの企業をもっと良くする機会はいつも探しているが、企業文化という重要なものがあるので、買収にはつねに慎重だ”、とPellandは述べる。

なお、Tableauは2013年に上場し、昨年7月には一株127ドル44千とという高値をつけた。しかし今週水曜日(米国時間3/9)の時間外では、42ドル64セントと落ち込んでいる。今年のテクノロジー株は年初から良くないが、Tableauの下げは激しすぎる。

〔ここにグラフが表示されない場合は、原文を見てください。〕

[graphiq id=”3oaS89DzStf” title=”Tableau Software Inc. (DATA)” width=”700″ height=”414″ url=”https://w.graphiq.com/w/3oaS89DzStf” link=”http://listings.findthecompany.com/l/14692592/Tableau-Software-Inc-in-Seattle-WA” link_text=”Tableau Software Inc. (DATA) | FindTheCompany”]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MongoDBの管理サービスMongoLabが名前をmLabに変えて新分野への進出を目指す

shutterstock_141093727

MongoLabは長らく、MongoDBデータベースをデプロイし管理するためのデファクトのサービスだったが、今では同社がこの市場をほぼ支配してしまったので、事業を新たな分野へ拡張することになった。まだ新しいプロダクトはローンチしていないが、そのために同社は社名を、MongoLabからmLabに変えることになった。

mLab - Logo

MongoLab/mLabのCEOで協同ファウンダーのWill Shulmanによると、彼のかねてからの計画でもMongoLabはあくまでも、二段階プランの最初の部分だったそうだ。

その計画では、最初に構築するサービスはNoSQLのムーブメントに乗って主にJSONサービスを提供すること。それは、明らかにうまくいった。MongoLab/mLabはこのほど、4回めの黒字四半期を迎えた。今では同社は約25万のデータベースのデプロイをAWS, Azure およびGoogle上で管理している(圧倒的に多いのはAWSだ)。

“MongoDBのホスティングでは、ほかのプロバイダに比べ、有料ユーザーはうちがいちばん多い”、とShulmanは語る。“MongoDBそのものの有料ユーザーよりも多いぐらいだ”。

これらのユーザーのサービスの多くがMongoLabmLabを、彼らのJSONベースのアプリケーションのバックエンドとして利用している。“当時は、何もかもサーバーサイドだった”、とShulmanは語る。“今はポリクライアント(poly-client, 複数クライアント)の時代で、サーバーサイドの開発といえばAPIやデータサービスぐらいだ”。

今ではMongoLabmLabのユーザーの約70%がMongoを使って、自分たちが必要とするデータサービスを手作りしている。

同社の今後の計画をShulmanは詳しく述べなかったが、明らかにmLabのプランは、デベロッパーが自分のデータベースをベースとするAPIを作ることを助ける、サービスだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Sonyがブロックチェーンを利用する教育と試験のためのプラットホームを計画中…各人の“教育ID”を共有する場に

blockchainhero

Sonyは、ビットチェーンを利用しようとしている企業の一つだ。ビットチェーンは暗号通貨bitcoinの基盤的技術として有名になったが、Sonyはこれを使って、学生等の学業の成績やテストの点を集中的に共有できるプラットホームを築こうとしている。

同社のSony Global Education事業部が開発したその技術は、ブロックチェーンを使って教育データを格納し、それをほかのサービスやサードパーティとセキュアに共有できる。Sonyによると、この技術で“完全に新しいインフラストラクチャシステム”が実現し、たとえばそれは、就職希望者のテストの結果などを知るための中心的なシステムになり、普遍的な“教育ID”とか、あるいは、LinkedInのような履歴書サイトのよりオフィシャルなものになる。

同社のプレスリリースはこう言っている:

たとえば、試験をして彼または彼女の学業成績が分かると、各企業などはそのデータを共有できるので、各社の就職試験などで再度再々度、個人に対して独自の試験をする必要がなくなる。全システム的に実装されれば、このようなインフラストラクチャは世界で初めてである。

Sonyによると、このプラットホームのポテンシャルが教育機関やそのほかの学習サービスの関心を呼べば、このコンセプトにさらに価値を加えることができる。たとえば、今後の展望としては、大学や高校などのセキュアな参加により、個人の学校での成績や卒業記録などもプロファイルに記録され、求職や、さらに上位の教育機関への応募などにも利用できるようになる。教育以外の、医療や環境、エネルギーなどの分野にもこの技術は応用できる、とSonyは言っている。

これは現時点ではコンセプトにすぎないが、この“新しい教育インフラストラクチャ”の開発が実際に始まるのは2018年以降、と同社は言っている。同社のプランでは、最初は同社主催の’Global Math Challenge’(80あまりの国から15万人あまりが参加する数学テスト)の結果を統合したい、という。今後はさらに、Sonyのそのほかの教育事業も加えていく。しかし、そのより大きな目標は、なかなか魅惑的だ。それは、あなたの資格や教育履歴が共有されるプラットホームなのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Webスケールのサービスを作るためのキモ中のキモ、それは(とくにデータベースの)抽象化層だ

holygrail

[筆者: Salil Deshpande](Bain Capital Venturesの専務取締役で、主にインフラストラクチャのソフトウェアとオープンソースが専門。)

顧客は品物やサービスに今すぐ自分のいるところからアクセスしたいと欲するから、サーバーはリクエストの洪水になり、膨大な量の並列処理と応答能力が求められる。そこで今や、どんなタイプの企業も、“Webスケールの”*システムを作ることに力を入れている。〔*: Web-scale, “Web大の”。〕

Webスケールのシステムは最初、FacebookやGoogleのような巨大なサービスが必要とした。しかし今では、どんなサイズの企業でもこのスローガンを唱えている。Webスケールのアーキテクチャで作られたシステムは、その柔軟性とスケールとパフォーマンスで顧客を幸福にするから企業にとって必須である、と信じられている。

しかし、さまざまなテクノロジーの重なりの全体の中では、とくにデータベースが、Webスケールを構築するための最難関の隘路として目立っている。

それは単純に技術的難関であるだけでなく、データベースが当然のように持っている性格でもある。…データというものはACIDな特性を持ち、複数のサーバーに亙って複製される場合でも、いや、さまざまなデータセンターに分散していても、一貫性と保存性を維持しなければならない。そこでデータベース、とりわけ関係データベース(リレーショナルデータベース)は、Webスケールのの技術の重なり(“技術スタック”)の中でのアキレス腱であり続ける。データベースがアプリケーションのパフォーマンスを左右し、そして顧客が毎日体験するのはデータベースではなくてアプリケーションなのだ。

ぼくのVC稼業は今年で10年になるが、その過程で幸運にも、さまざまな関連技術に投資することにより、このアキレス腱の恩恵にたっぷりと与(あずか)ってきた。アプリケーションサーバーのSpringSourceに投資した。エンタープライズサービスバスのMuleSoftや、CassandraによるNoSQLデータベースDataStax、Redis NoSQLデータベースRedis Labs、インメモリコンピューティングファブリックHazelcast、JavaとScalaのためのマイクロサービスプラットホームAkka、AWS Lambda的なマイクロサービスアーキテクチャIron.io、などなどにも。これらはどれも、直接的または間接的に、データベースというアキレス腱の痛みを和らげていたが、痛みそのものと対決してはいなかった。

初めてWebスケールのの技術を作った彼らGoogleやFacebookは、従来からの(関係)データベースの問題を、抽象化層(abstraction layer)を作って解決した。彼らはそれを“データアクセスレイヤ”(data access layer)と呼び、それをアプリケーションとデータベースのあいだに置いた。

アップタイムに関しては多くの場合、データベースがシステムのいちばん弱い急所だ。

抽象化層は、そのぶん処理の負担は増えるけれども、これまであったアプリケーションとデータベースのあいだの1:1の結びつきを切るので、アップタイムとパフォーマンスを改善する。このような分離、このような離散的な技術の層は、アプリケーション開発を単純化し、Webスケールの利点をデータベースにももたらすので、今ではシステムとアプリケーションをスケールするときのベストプラクティスとされている。柔軟性(負荷耐性)とスケールとパフォーマンスが上がるからだ。

データベースの抽象化層と相前後して、一種のトレンドのように、さまざまな技術が“抽象化”され、あるいは“仮想化”された。サーバー仮想化やソフトウェア定義ネットワーク(SDN)、WebレベルにおけるWebロードバランサなどはいずれも、アプリケーションと低レベルとのあいだの1:1関係を破り、アップタイムとパフォーマンスにおけるWebスケールのの利点をもたらす。

データベースのレベルでは、抽象化層が提供する重要な利点により、データベースの欠点の一部が克服される。このような、データベースをロードバランスするソフトウェアは、たとえば、フェイルオーバーとスケールアウト(分散化)とスループットの高速化をを透明に可能にする。

上の、“透明に”がとくに重要だ。こういった能力をすべて、アプリケーションやデータベースに変更を加えずに獲得することが、キモ中のキモである。

初期のインターネット企業が“データアクセス層”を着想したときは、デベロッパーたちが抽象化層の仕様や特性に合わせてアプリケーションを書き換えなければならなかった。でも、アプリケーションとデータベースの仲を取り持つネットワークレベルの透明なプロキシなら、コードの書き換えやアーキテクチャの変更は要らない。このこともやはり、キモ中のキモである。

以下は、Bain Capital Venturesにおけるインフラストラクチャソフトウェアのプラクティスだ。うちのベンチャー資金の半分以上はこれらに投じられている。データベースのレベルにおける抽象化は、いろんなところで進展している:

  • 代替データベース
  • プロキシを作るデータベースベンダ
  • Webロードバランサ企業が彼らのプロダクトのSQLバージョンを作る。そして、
  • スタートアップは目的指向(purpose-built)のシステムを作る

以上はどれも、抽象化方式の価値を認知し、それをベースにしている。最初のWebスケールの企業がまさにそうだったし、これらのベストプラクティスは今では99%の企業を助けている。しかも彼らのほとんどは、数百名のエンジニアと数百万のドルを投じて抽象化層を自作してはいない。

われわれは4年前に、ScaleBaseに投資した。そこは、目的指向のデータベース抽象化ソフトウェアを作っているスタートアップだ。この企業の技術的資産は今ではScaleArcがオーナーになり、そこにはわれわれも最近投資をした。この技術は、データベースというアキレス腱に挑戦し、それを解消する。

調査会社のGartnerが最近、抽象化アーキテクチャに向かうこのトレンドを特集している。そこで同社は、“SQLロードバランシング”を、その最新の“ITサービスの継続性誇大宣伝賞”の一員に加えた。その報告書の中でGartnerは、ITショップが求めるべきソフトウェアの特質を次のように推奨している:

  • 複数のデータベースをサポートしている
  • クラウドでもオンプレミスでも快調に動く
  • セキュリティで妥協をしていない

アップタイムに関しては多くの場合、データベースがシステムのいちばん弱い急所だ。Webスケールを構築するテクノロジーの全体的な重なり(“スタック”)の中では、データベースがいちばん難しい部分だからだ。われわれは、全員がFacebookでもGoogleでもないから、内部のエンジニアだけで問題を解決できない。その代わり、データベース抽象化ソフトウェアが企業にWebスケールの能力を与える。彼らが必要とする、柔軟性とスケールとパフォーマンスを。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MariaDBがさらに$9Mを調達、‘アメリカ化’をねらってMichael HowardをCEO、Monty WideniusがCTOに

seal

オープンソースの世界にビッグニュースがまたひとつ。MariaDB Corporation(元SkySQL)が、新たに900万ドルの資金を調達し、新CEO Michael Howardの就任を発表した。MariaDB Corporationは、MariaDB Foundationが管理しているMySQLフォークの商用バージョンを作っている企業で、Howardはエンタプライズ畑のベテラン経営者だ。これでMariaDBの調達総額は4000万ドルをわずかに超え、今回のラウンドはこれまでの投資家Intel CapitalとCalifornia Technology Venturesがリードした。

さらに同社は、もうひとつの重要な役員人事を発表した。MySQLを作り、後年MariaDBを作ったMichael “Monty” Wideniusが、CTOとして加わったのだ。彼は、MariaDB Foundationのファウンダでオープンソースの運動家でもある。

Howardは、前にGreenPlumやC9などを手がけ、今回はPatrik Sallnerに代わってMariaDBのCEOになる。フィンランド人のSallnerは、2012年からMariaDBのCEOを務めた。Howardによると、新たな資金は主にマーケティングと、新製品開発、そして事業の比重を故国フィンランドから合衆国へシフトしていくことに充てられる。

“今、パロアルトかメンロパークにいい場所を探している”、と彼は語る。“徐々に合衆国の企業にしていきたいし、だからこそアメリカ人を新CEOに選んだのだ。主なパートナーシップはみなシリコンバレーにいるから、その意味でも合衆国を活動拠点にしていきたい”。…マスコットも、フィンランドふう(上図)から、ウェストコーストふうに変わるのかな?

MariaDBは評価額を公表しないが、しかしHowardによると、今回の投資は今後12か月以内に予想されるより大きな投資への“踏み台”だそうだ。

Howardによると、同社の現在のユーザ数はおよそ900万、ソフトウェアのダウンロード数は1200万で、収益性はきわめて快調、という。“Webサイトのビジター数は数百万に達する。Linuxに載って配布されているから、今やオープンソースの定番だと思う。ITのインフラストラクチャにMariaDBがあり、そのコミュニティの一員であることは、単なるビジネスモデルではなくて戦略的意思決定だ”、と彼は語る。

たしかに、それまでプロプライエタリだったソフトウェアがオープンソースになる例が最近多い。それに今では大企業もオープンソース本格的な投資をして自分たちもその需要を確実に掴まえようとしている。

MariaDBの新製品についてHowardはあえて言葉を濁すが、データベースとセキュリティ、時間的な処理、そしてIoTだ、と言った。IoTも、同社が将来、買収をしそうな分野のひとつだそうだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

ストリーミングSQLデータベースのPipelineDBが初めてのエンタプライズバージョンをリリース

16436561715_365fffb023_h

PipelineDBが今日(米国時間1/14)、PipelineDB Enterpriseのリリースを発表した。このプロダクトは、同社が昨年の夏にリリースしたオープンソース製品の、初めての商用バージョンだ。

協同ファウンダのDerek Nelsonの説明によると、PipelineDBはSQLデータベースの新しい見方に立って構築されており、データを大きなサイロに眠っているものではなく、データのストリームと見なす。

彼によると同社は、このようなタイプのデータベースに大きく賭けているが、今のところ業績は順調なようだ。彼が挙げるおおまかな数字では、インストール数が数千、終日稼働数が数百といったところだ。

商用製品はかねてから構想していたが、今やっとリリースするのは、大企業顧客からの需要が高まってきたからだ。高可用性を求める彼らは、レプリケーションやハードウェアノードのフェイルオーバーなど、オープンソースバージョンにない機能を要求する。このプロダクトをミッションクリティカルな目的に利用するためには、それらの機能が欠かせない。あるノードがダウンしたら、ほかのノードが自動的に取って代わらなければならない、とNelsonは説明する。

もうひとつ要望が多い機能は、リアルタイムのアラートだ。PipelineDBを詐欺の検出やセキュリティ侵犯の検出に利用している企業では、とくにそれが重要だ。リアルタイムアラートは、見逃してはならない異状を発生とほぼ同時に知らせる。さらに、今回のエンタプライズバージョンには、水平的スケーリングの能力と、24/7の技術サポートなど、大企業がつねに求める機能がある。何かがおかしくなったら、‘喉の痛み’でそれを即座に知る必要があるのだ。

エンタプライズバージョンを求めるのはユーザの数パーセントにすぎない、とNelsonは見ているが、でも今後同社が収益を上げていくための入り口としては、それが欠かせない。オープンソース企業の多くが、サポートを収益源にしているが、Nelsonによれば、同社はあえてその道を選ばなかった。

“商用ライセンスを売っていく方が効率的だし、投資の間隔も短くなり、本体(オープンソース製品)と商用製品と、今企画中のそのほかの製品の改良も迅速にできる”、とNelsonは述べる。

同社はすでにシード資金は獲得している(額は非公開)が、今でも最初の4名のファウンダたちだけがメンバーだ。意図的にリーンな形を維持しつつ、製品を商用化する有効な方法を模索していたのだ。

今でも、同社を独立企業として維持できるだけの収益があれば、外部資金は要らない、と考えている。Nelsonによると、ユーザも大半はオープンソース企業だが、その中の大企業は金を払うことを厭わない。それで十分だ、と。

PipelineDBは、Y Combinatorの2014年冬季クラスの卒業生だ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

OracleがDocker運用管理サービスのStackEngineを買収、経営の軸足はますますクラウドへ

2500129881_55a8fb5f90_b

長年クラウドを馬鹿にしていたOracleが最近は逆にそれを、ものすごく重視している。先週ひそかにStackEngineを買収したのも、同社のPaaSの提供物をさらに一層充実させるためだ。

テキサス州オースチンのStackEngineは、同社のWebサイト上の短い声明で、Oracle.comへの合体を説明している。それによると、データベース大手のOracleが同社を買収し、その条件の一環として社員は全員Oracleに加わる。

StackEngineは昨年、二人のベテラン技術者たちが創業し、Dockerの運用管理を提供するサービスとして2014年10月にステルスを脱した。オープンソースのコンテナシステムであるDockerは、最近の数年間で、猫も杓子も使う日用品のような、普遍的人気者になっているが、それ自体は、ITのプロたちがアドミニストレータとしてコンテナを管理するための機構を欠いていた。StackEngineは、そのことに着目した。

ChefやPuppetとスクリプトを使えばそんな管理層を作ることは可能だが、StackEngineは、もっと最初からDockerに特化された適正な管理コンソールを提供したい、と考えた。今回の買収までに同社は、二度のラウンドで計450万ドルの資金を獲得している。

単独で見ればこの買収は、Oracleの買い物としては奇妙に見えるかもしれないが、むしろこれは、もっと大きな同社のクラウド計画の一環だ。同社は今年、クラウドに向かう大きな数歩を踏み出したが、今回の買収はDockerコンテナに直接関連していて、Oracleのコンテナ市場への参入と、その市場の将来性に賭ける姿勢を表している。

この買収はDockerにとって有意義だったかもしれないが、Dockerはこの前、競合製品Tutumを買収しており、そのほかのコンテナ管理スタートアップにとっては状況が不利になったかもしれない。Docker自身が選んだ管理レイヤが、Tutumなのだ。

Oracleは別の声明で、StackEngineの本拠地オースチンに新たにクラウド専用事業所を作ると言っている。その近くに、クラウド担当社員のための住宅も買うらしいから、今後の人材獲得策も含め、このプロジェクトへのOracleの“本気度”が伺える。

今月初めに発表された決算報告(.pdf)でOracleは、クラウドの売上が26%伸びて6億4900万ドルである、と言っている。その内、PaaSの売上は4億8400万ドルで34%伸びている。対して、オンプレミスの売上は7%ダウンだ。同社の、未来に向けての伸びしろはクラウドにしかない、ということか。

StackEngineにとっては嬉しいイグジットパス、そしてOracleにとってはPaaSの持ち駒のさらなる充実だった。今建設中のオースチンキャンパスは、2016年のOracleの新しい動き(新たな買収、プロダクト開発など)のメインの舞台になるだろう。

〔訳注: ここにグラフが表示されない場合は、原文を見てください(Oracle企業プロファイル)。〕
[graphiq id=”5kqMqbO7qrH” title=”Oracle Corporation (ORCL)” width=”700″ height=”461″ url=”https://w.graphiq.com/w/5kqMqbO7qrH” link=”http://listings.findthecompany.com/l/12055771/Oracle-Corporation-in-Redwood-City-CA” link_text=”Oracle Corporation (ORCL) | FindTheCompany”]

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

GoogleのBigQueryがアップデートで細かいコスト管理を提供、監査ログやストリーミングAPIの改良も

cbf_009

GoogleのSQLベースのビッグデータ分析サービスBigQueryが今日(米国時間12/15)アップデートされ、ユーザは暴走クェリで費用が発生することを避けやすくなり、また大量のデータを自分たちのデータベースへ直接ストリーミングできるようになった。

またこのアップデートにより、BigQueryの監査ログがベータで導入された。この機能によりITのアドミンたちは、ユーザがこのサービスの上でやってることを把握しやすくなる。

big-data

クォータをユーザが設定できるようになったので、クェリが処理するデータ量をプロジェクトのレベルやユーザのレベルで制限できる。設定の単位量は、ユーザレベルでは10TB、プロジェクトレベルでは50TBだ。BigQueryの処理料金は1TBあたり5ドルである。

担当マネージャのTino Tereshkoは今日の声明文の中で次のように述べている: “BigQueryできめ細かい費用管理ができるようになったことは、従来の固定サイズのクラスタに慣れていた方にも歓迎されるだろう。固定サイズの場合は費用も定額であり、スケーリングが難しかった。サイズが固定では負荷の増加と共にパフォーマンスが劣化し、しかも簡単にはスケーリングできない。今回のきめ細かいコストコントロールにより、企業はBigQueryの利用に関しても十分な予算管理ができるようになるだろう”。

同じくコスト管理の面では、今回のアップデートによりBigQueryのユーザは、自分たちのクェリが実際にどのように実行されているのかを、容易に見ることができる。そのために提供されるのがQuery Explainと呼ばれるグラフィカルなツールで、これを使えばパフォーマンスのボトルネックがどこにあるかも、分かるようになる。

download

そしてStreaming APIも改良され、EUのユーザがEU内のデータセットをロードできるようになった。またストリーミングの待ち時間(“ウォームアップ”)もなくなり、ビッグデータの分析はデータの最初の行がテーブルにストリーミングされた直後からすぐに始まる。これまでのウォームアップは数分を要したが、これからはデータが直ちに可利用になる。

Streaming APIをよく使うユーザのために新たに導入された’テンプレートテーブル‘機能により、INSERTリクエストをストリーミングする場合既存のテーブルをテンプレートに指定できる。

今回のアップデートで、いちばん分かりやすいメリットは、クェリのコスト管理が改善されたことだろう。GoogleはAmazonやMicrosoftに対抗してなるべく多くのエンタプライズユーザを獲得しようと努めているから、そのためにはコスト管理機能がとりわけ重要だ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。