Red HatがITオートメーションのAnsibleを$150Mで買収へ…OpenStackデプロイをDevOpsのために簡易化

redhat_hat

オープンソースで大企業を築いたRed Hat(社員数7300)が、エンタプライズITのポートフォリオ充実のため、また企業買収を行おうとしている。本日(米国時間10/16)同社は、ITオートメーションのスペシャリストAnsibleを買収すると発表した。同社の得意分野は、オンプレミスとクラウドの両ソリューションを組み合わせたハイブリッドITの、構築、デプロイ、そして管理だ。

これまでの噂では買収価額が1億ドル強とされていたが、業界筋によると実際には1億5000万ドルに近いようだ。Red Hat自身は買収の条件を何も公表しないが、買収の完了は今月とされている。ただし、Red Hatのほかにも、Ansibleにアプローチしている企業が数社あるらしい。

2013年にSanta Barbaraで創業したAnsibleはこれまで主にMenlo Venturesと、e.venturesのパートナーDoug Carlisleから計600万ドルしか資金を調達していない。それに対し1億5000万ドルは、相当大きなリターンだ。

AnsibleはOpenStackクラウドのスペシャリストとして名を上げ、今年前半にはその支援者としてCisco, HP, CSCおよびRackSpaceとパートナーシップを結んだ。Red HatによるAnsibleの買収は前者が今後もOpenStackビジネスを拡大していく意思の現れであり、それにはハイブリッドクラウドの管理や、OpenStackとコンテナの展開など広範囲なサービスが含まれる。

とくに今回の買収では、Red HatによるDevOps向けプロダクトの底入れが期待され、デベロッパ兼オペレータが頻繁に現場の問題に即応して、迅速にコードを書き、デプロイもしていくという最近の成長トレンドを、支援していくものと思われる。すでにTwitterなどのテク企業では行われていたこの実践が、今やほかの業界の企業にも普及しつつある。

“Ansibleは、その過程を自動化する方法を提供する”、とMenloのCarliseは語り、それがRed Hatが同社に関心を持った理由でもある、と述べた。

Red HatのVP Joe Fitzgeraldは声明文の中で、“AnsibleはITオートメーションとDevOpsにおける、誰もが認めるリーダーである。同社はRed Hatが目標とする、摩擦のないITの提供に、大きく貢献するものと思われる”、と言っている。

また、Ansibleの協同ファウンダでCEOのSaïd Ziouaniは、“オープンソースのグローバルリーダーであるRed Hatが、ITオートメーションとシステム管理の未来に挑戦するためにAnsibleを選んだことに感動している。このことは、Ansibleのシンプルなサービスと、エンタプライズのカスタマベース、そして強力なコミュニティが、コンピューティングとネットワーキングとクラウドとコンテナのすべてをカバーするエンタプライズITオートメーションにおける、勝者になりつつあることの、強力な認定である”、と声明している。

買収に関するRed Hat自身の説明はここで読める。本誌ライターのFrederic Lardinoisによると、Ansibleは複雑なOpenStackに一見単純な外見を与えて、一般ユーザにとって使いやすいものにしている。

そのようにAnsibleは、コードのデプロイに伴う大量の専門技術や専門知識を不要にして、ふつうに英語でコマンドできるようにした、新世代のITプラットホームに属する、とされている(私の知人がそう説明してくれた)。

買収に関するRed Hatの声明文は、“競合するソリューションと違ってAnsibleではコーディングのスキルが要らないので、ITオートメーションの最大の障害の一つが取り除かれている”、と述べている。

Red Hatによると、Ansibleの技術がカバーしているのは、アプリケーションをプライベートとパブリック両方のクラウドにまたがってデプロイし管理する能力、DevOps方式でサービスのデリバリをスピードアップすること、OpenStackのインストールとアップグレードを簡素化/合理化すること、オーケストレーションと構成を単純化することによってコンテナの採用を加速すること、などである。

Red Hatは今日、ニュースの一部として決算報告の簡単なアップデートも発表した。それによると買収は同社の第三および第四四半期の売上に大きな影響を及ぼさない。2016会計年度のNon-GAAP操業費用はQ3で200万ドル、一株あたり0.01ドル増加し、Q4ではこの買収の結果400万ドル(0.02ドル)となる。

Red Hatは1999年に上場し、今回はその14番目の買収となる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa)。

Dropbox、高度な生産性ツール、Paperを予約受付中―Googleドキュメントに対決

2015-10-16-dropbox-paper-1

Dropboxは非常に人気の高いウェブサービス、Googleドキュメントと真っ向から対決するつもりのようだ。 同社が発表したDropbox Paper 〔日本語で予約受付中〕はブラウザ内で共有が可能な生産性ツールのプラットフォームだ。ユーザーはこれらのツールを使ってブラウザ内でリアルタイムで文書を処理し、Dropboxに登録された連絡相手なら誰とでも共同作業ができる。機能と操作方法を簡単に見ていこう。sakuradrops2&

Dropboxユーザーはファイル名をテキストで入力するだけでPaperのファイルを作成できる。これはGoogleドキュメントと同様だが、 GoogleやQuipの場合、リッチ・テキストの編集機能はかなり限られている。文書を望みのスタイルに整形したければ、ユーザーはワープロソフトの力を借りねばならない。ある意味でこれはEtherpadの遺産だ。

画像やビデオを挿入したい場合、ユーザーはDropbox内からウェブを検索して文書内に直接リンクを埋め込むことができる。 Paperはリンクを解析して自動的に画像やビデオに変換する。この機能はYouTubeビデオやSoundCloudの音楽など多数のサイトで有効だ。

ユーザーはtodoリストを作成し、他のユーザーの協力が必要な場合「@ユーザー名」で指定してフィードバックを求めることができる。他のユーザーは指定されたパラグラフにコメントを書き込むことができる。

この3月にDropboxがPaperをテストし始めたことを最初に発見して記事にしたのはわれわれのPerez記者だ。PaperはDropboxが昨年春にクラウド生産性ツールのスタートアップ、HackPadを買収した成果だ。その後ウェブにはこのツールの機能の一部をテストすることに成功したレポートも現れた。

私はPaperをGoogleドキュメントのライバルになると書いたが、他の文書へのエンベッド機能などGoogleのプロダクトがとは異なる面も多い。Paperはむしろサードパーティーがさまざまに拡張していくことを期待した巨大なホワイトボードのようなものだと思う。Paperが登場しても、Googleドキュメントがすでに大量に使われており、特にプレーン・テキストで素早くドラフトを作成するときに重宝されていることには変わりがないだろう。

つまりGoogleドキュメントのユーザーが大挙してPaperに乗り換えるかどうかは不明だ。ドキュメントの機能はシンプルだが、多くのユーザーにとってこのシンプルな機能で十分であり、Paperの高度な他文書エンベッド機能は必要とされないかもしれない。現在のところPaperはまだ一般公開されていない。Dropboxユーザーは順番待ちリスト(日本語)に登録することができる。

  1. dropbox-paper-2.jpg

  2. dropbox-paper-3.jpg

  3. dropbox-paper-4.jpg

  4. dropbox-paper-5.jpg

[原文へ]

(翻訳:滑川海彦@Facebook Google+

現在、最強のエンタープライズIT企業はAmazon AWSだ

2015-10-13-reinvent15-logo-aws

先日、Amazon AWSは4年目となるデベロッパー向けカンファレンス、re:Inventを終了した。これを見ると、Amazonがもはやデベロッパー向けプラットフォームではなく、スモールビジネスからFortune 500にリストアップされるような大企業まで、あらゆる企業のニーズに応えるフル機能のエンタープライズ・クラウド企業となったことが分かる。

今やAWSはパブリック・クラウド市場を制覇したことが明らかだが、これはパーソナル・コンピュータの登場以来、エンタープライズ・コンピューティングにおける最大のディスラプトだと思われる。

いくつか具体例を挙げよう。

  • AWSはどの顧客企業よりもはるかに巨大だ。したがって顧客企業はAWSの料金とストレージ容量に太刀打ちできない。規模のメリットを活かすことによってAWSは最新、最良のテクノロジーをいち早く導入することが可能となり、もっとも優れたインフラとハードによるシステムを構築できる。いかなる大企業といえども最後にはAWSの規模の経済に太刀打ちすることは不可能となるだろう。この点、Zyngaのエンジニアの証言を聞くのはためになる。彼らは数年前にAWSを飛び出して独自のクラウド・インフラの構築を図った。しかし、結局彼らはその試みが無駄だったことを認め、AWSに戻ってしまった。Amazonほどのスケールになれば、その巨大さがますます多くの顧客を惹きつけることになる。
  • AWSエンタープライズ事業の拡大はこれがすでにメインストリームとなったことをうかがわせる。たとえば、Capital One、Hertz、AOL、John
    Deere、 FINRA等々の大企業がAWSのクラウド・サービスの新規顧客として注目されている。Capital Oneのキーノート・プレゼンがかっこうの例だ。Capital
    Oneのカスタマーは今やAWSで作動するアプリを利用することになっており、Capital Oneはこれがなぜ最良の解決法で他社もいずれこれにならう他ないかをデータで説明している。それだけでも十分興味深いが、 Capital Oneはフィナンシャル・サービスを提供する会社であり、最新のクラウド・テクノロジーにまっ先に飛びつくような企業ではない事を考えると、クラウドの浸透ぶりがうかがえる。
  • すでに事業として成功を収めているにもかかわらず、AWSは驚くべきスピードでイノベーションを進めている。今年に入ってすでに500以上の新機能を追加しているし、re:Inventカンファレンスだけでもさらに大きな機能追加の告知があった。Amazonはクラウド・サービスの本質を深く理解しており、顧客のニーズ、サービスの利用形態も他のどのプレイヤーより深く知っている。他社がやっと事業を軌道に乗せ、収益を上げられそうになったとき、AWSはすでにその先を行っているわけだ。
  • Lambdaは非常に重要なプロダクトだ。というのも、これはAmazonの精神、いわばマインドセットを知る手がかりになるからだ。このイベント・ベースのコンピューティング・サービスは去年秋、メジャー・アップデートを受けた。Python、VPCがサポートされ、関数の生存期間が延長されるなどした。サーバーなしで複雑なアプリを作動させようというこのアプローチは斬新で興味あるものだが、重要なのはAmazonが各種AWSサービスとEC2のカニバライゼーション(共食い)を避けるつもりがないことが分かる点だ。歴史的にみて、AWSのコストには圧倒的な競争力がある。Amazonはこの点、いわゆる「イノベーターのジレンマ」を避けようとせず、AWSの利点を最大限に利用するつもりのようだ。これは競合他社にとって脅威となるだろう。.
  • 最後に、AWSはもはや IaaSサービスにとどまらないことを注意しておきたい。AWSはスタックを拡充し、顧客との関係を密接化し、クラウド・サービスをますますユーザー・フレンドリーなもにしている。たとえば、 Amazonは今週、ビジネス・インテリジェンス・プロダクトとしてQuickSightを発表した。これはエンド・ユーザー向けで必ずしもデベロッパー向け製品ではない。驚くべき進展ではないかもしれないが、AWSサービスの上にさまざまなシステムを構築して収益を上げている他社に恐怖を与えるには十分だっただろう。Amazonがビジネス・インテリジェンスなどの分他で洗練されたサービスを提供できるまでにはかなりの時間がかかるだろう。当初は機能不足で荒削りなものにとどまる可能性が高い。それでも他社はAWSがいつまでも infrastructure-as-a-serviceの段階で満足はしていないことを知るだろう。

AWS事業は通年換算で100億ドルの事業に成長した。対前年比で81%の成長だ。これはエンタープライズ・コンピューティングの分野として驚くべき高成長だ。Bairdによれば、AWSの今年の売上はデータセンター事業全体の 5%、全エンタープライズ市場の 1%以下にしかならないという。逆にみれば、AWSにはまだ大きな成長の余地が残されていることんなる。AWSのスケール・メリットとこれまでの実績は次の10年で飛躍するための理想的な土台となるだろう。

AWSのカンファレンスが終了した頃、DellがEMCを買収するという情報が流れた。 EMCの最大の資産はもちろんVMwareだ。EMCは言うまでもなくオンプレミスのエンタープライズ・ストレージの頑強な支持者であり、そのVMwareはサーバーのバーチャル化のチャンピオンだ。両者はオンプレミスのエンタープライズ・データセンターの基盤としてこの10年以上。大きな成功を収めてきた。しかし今はおそらく、彼らの最良に時期はAWSによって過去のもにされかかっているのではないかという不安に捕らわれている頃だろう。

これに引き換え、AWSは上り坂であり、大規模な企業コンピューティングのあらゆる局面をリードする立場にある。もちろんMicrosoft、IBMなどはエンタープライズ市場の攻略に向けて巨大な資産を蓄えている。そうであっても現在この分野を主導するのはAmazonであり、世界でもっとも重要なIT企業であるという点は揺るがないだろうというのが私の考えだ。.

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWSが外部に一般供用するKinesis FirehoseはIoTなどのセンサデータをクラウドへ直接送る

screen-shot-2015-10-07-at-12-18-51-pm

今日(米国時間10/8)のAmazon AWS re:inventで、センサなどからのデータストリームをクラウドに直接送るサービスKinesis Firehoseが紹介された。

AWSのSVP Andy Jassyによると、Amazonがこの種のストリーミングデータをゲットするためにKinesisをローンチしたのは数年前で、すでにこれを使ってデータを処理するカスタムアプリケーションをいくつか作ってきた。そしてAmazonは顧客を待たせすぎであることに気付き、そしてまた、一部の顧客はそんなデータストリームユーティリティを自分で作るためのリソースを欠いていた。

このFirehose as a service(FaaS)を使えば、ユーザ企業はデータストリーミングのためのアプリケーションを自分で作る必要がなくなる。Jassyによると、APIを一回呼び出すだけで顧客はデータをAmazon RedshiftやS3に置くことができ、ただちにそのデータを使って仕事を開始できる。

このシステムはもちろんエラスティックで、データの量が多ければそのぶん、多くのストレージを使える。データはKinesis上で圧縮および暗号化され、ユーザはデータアップロードの時間間隔や、一回のデータ送付量のリミットを指定できる。

そしてデータがシステムに入ってしまえば、顧客はその暗号を解いてデータをHdoopのクラスタなどにロードし、処理や分析を開始できる。

これには、AWS側に二つのアドバンテージがある。ひとつは、AWSがそのビッグデータ関連サービスをIoT分野にも拡大できること。そしてそれにより、S3などストレージサービスの利用量が大幅に増えることだ。

顧客は自分のアプリケーションのあるAWSにデータを送って利用できるし、Amazonは客単価を増大できる。まさにwin-winの関係だ。

AWS re:Invent 2015

[原文へ]
(翻訳:iwatani(a.k.a. hiwa)。

【詳報】ソラコムがベールを脱いだ、月額300円からのIoT向けMVNOサービスの狙いとは?

ソラコムがステルスで取り組んでいた新規プラットフォーム事業の詳細を明らかにした。ソラコムは、元AWSのエバンジェリスト玉川憲氏が2015年3月にAWSを退職して設立したスタートアップ企業で、創業直後に7億円というシードラウンドとしては大型の資金調達が注目を集めた。TechCrunch Japanは発表直前にソラコムに話を聞いてきたので詳しくお伝えしたい。

soracom02

提供を開始したSIMカードを手にするソラコム創業者で代表の玉川憲氏

ソラコムが取り組むのは、IoT向けの格安MVNOサービス「SORACOM Air」だ。これだけ書くと、何だまたもう1つ別のSIMカード提供会社か登場したのかと思うかもしれないが、2つの点で注目だ。

1つは、利用用途によっては月額利用料が300円で済むという衝撃的な安さ。これだけでもIoTや業務用スマホ・タブレットの全く新しい市場を切り開く可能性がある。

さらにもう1点、ソラコムの新プラットフォームが注目すべき理由は、基地局だけ既存キャリアのシステムを流用していて、残りをソフトウェアで実装している点だ。通信キャリアはもちろん、従来のMVNO事業者は、パケット交換、帯域制御、顧客管理、課金など、キャリア向けの専用機器を利用していた。ソラコムでは、この部分をAWSのクラウド上に展開したソフトウェアで置き換えてしまった。

これは単に運用コストの削減に繋がるだけでなく、高い柔軟性とスケーラビリティーを確保できるということだ。例えば、SIMカードを搭載したデバイス、もしくはそのデバイスを管理するサービス側からソラコムのAPIを叩いて通信速度をダイナミックに変更できたりする。これは、ちょうどAmazon EC2でインスタンスをソフトウェア的に切り替えるような話だ。暗号化通信もクラウドの豊富なコンピューティングリソースを使うことでソフトウェア的に簡単に実現できてしまう。AWSでサーバーがプログラマブルになったように、ソラコムは通信サービスをプログラマブルにしてしまうということだ。

IoTで未解決だった「通信とセキュリティー」問題を解決する

ソラコムの狙いと、今後のビジネスモデルの話は、創業者である玉川憲氏の経歴に重ねて説明すると分かりやすいかもしれない。

WP1.5view

WatchPad

玉川氏は東京大学大学院機械情報工学科修士卒で、日本IBMの基礎研究所でキャリアをスタートしている。2000年ごろ、IBMで「WatchPad」と名付けられた今で言うスマートウォッチを作っていたそうだ。製品化には至らなかったものの、Linux搭載で腕に巻きつけられる超小型コンピューターとして当事非常に大きな注目を集めた。

「2000年にIBMの基礎研でWatchPadを作っていたのですが、その頃からIoTの課題って変わってないなと思っています。1つはバッテリーが持たないこと。10年かかって2倍にもなっていませんよね。10年で100倍速くなっているコンピューターとは違います。もう1つはネット接続。近距離無線は進化しているものの、まだまだネット接続が難しいのが現状です」

「もう1つ未解決なのはセキュリティーです。デバイスで暗号化をすると小型化や低コスト化ができません」

ソラコムでは、通信とセキュリティーについての回答を用意したという。

近距離通信としてはBluetoothが普及しているし、家庭内のWPANとしてZ-WaveやThread、Weave、ZigBeeなどの規格もある。しかし、これらはスマホやハブといったアップストリームにぶら下がった端末までの接続のためのもので、ネット接続ではない。一方、Wi-Fiは小型デバイスにとっては難しい。玉川氏によれば、これまでモバイル通信は、おもにヒト向け。「IoT向けのモバイル通信を作りたい」と考えて立ち上げたのがソラコムだという。

従来のMVNOと違って専用機材ではなく、クラウド上に各機能を実装

モバイル向け通信に参入するといっても、「全国に設置した基地局だけで1兆円ぐらいのアセット。パケット交換や帯域制御、顧客管理、課金といった部分で数千億円規模の投資。さらにISPも入れて、この3つをやって初めて通信キャリアなわけですが、われわれは、そうはなれません」という。

「一方、MVNOといえば、楽天やイオン、DMMが参入しています。これは(1契約あたり)2000円で仕入れて2500円で売るというビジネスで、ブランドや販売網があればできますが、これもわれわれにはできないし、テクノロジーのビジネスでもありません。われわれがやるのは基地局だけをレイヤー2接続の契約で利用して、残りはクラウドネイティブで提供するというモデルです」

fig01

従来のMVNOの接続では、キャリアが持つ基地局からパケットが飛んでくるゲートウェイに続けて、MVNO事業者が利用者認証や課金管理、利用者ごとのポリシー適用のための機材などをそれぞれ用意する必要があった。ここはエリクソンなど専用ベンダーが提供するハードウェアの世界。ここの機能群をAWSのクラウド上にソフトウェアで実装したのがSORACOM Airで、クラウドの特徴であるスケーラビリティーの高さがメリットだ。玉川氏は「人口の10倍とか100倍のデバイスが繋がってきても対応できるような、IoTに特化したバーチャルキャリア」と、そのポテンシャルを説明する。

スケーラビリティーは上限のほうだけなく、小さい単位から即利用できるという点にも当てはまる。例えばデバイスとサービスを統合したソリューションを展開する企業が通信部分が足りていないようなケース。

「従来のMVNOだとSIMカード2000枚以上、500万円以上からと言われたような話が、SORACOM Airなら1枚から利用できる。誰でも通信キャリアになれるというモデルで、自在に値付けしてビジネスができます」

クラウド上に実装された通信管理機能には、AWSクラウドと同様にWebコンソールからでも、APIからでも操作可能で、複数SIMを一括操作するようなことができる。各端末からでもサービス側からでもAPIを通して、各SIMの通信状態の監視や休止・再開、速度変更といったことができる。

dashboard

SORACOM AirのSIMカードは20枚で1万1600円(1枚580円)など。月額基本料金は300円で、32kpbsだと1MBあたり上り0.2円、512kbpsで1MBが0.24円。上り・下りで料金が違ったり、夜間割引も適用されるなど明朗会計だ。料金設定はAmazon EC2のインスタンスサイズを選ぶようなイメージだ。将来的にはニーズに応じて料金を変動させる「スポットインスタンス」のようなことも、アイデアとしては検討しているそうだ。以下がSORACOM Airの価格表。s1.minimumとかs1.fastとか、何だか見慣れた命名規則だ。

price

SORACOM Beamで暗号化やルーティングなど高度な処理をクラウドにオフロード

IoTで未解決だった問題として、玉川氏はセキュリティーを挙げていた。これについてはクラウドで潤沢なリソースを使った「SORACOM Beam」というサービスで解決可能だという。SORACOM Beamはデバイスとサービスを繋ぐ通信経路を暗号化したり、ルーティングするサービスだ。

セキュアな通信を行うには暗号化が必要だが、小型デバイスに暗号化処理をやらせるのは重たい。ただ、もともとキャリアのパケット網はゲートウェイ部分まではセキュアなので、ソラコムにパケットが入ってきてインターネット側のシステム(サーバー)へと繋ぐ部分を暗号化すれば良いだけだ。そこで、

・HTTP→HTTPS
・MQTT→MQTTS
・TCP→SSL

という変換をソラコムのクラウド上で行うことで、重たく面倒な処理はデバイスではなくクラウドで済ませることができる。実際、車いす開発のWHILLは、バッテリーをできるだけ使わずにセキュアに見守りシステムを作ることを検討していて、こういうケースだと「TCP→SORACOM Beam→HTTP」とすることで、デバイス側の負荷をオフロードできるのだという。タイムスタンプやSIMのIDもソラコム側で分かるし、カスタムヘッダを付けてHTTPSで送ることもできる。そして、これがまた重要だと思うのだけど、こうした設定はすべて、デバイスの設定に触れることなくAPIで変更ができる。出荷したIoTデバイスに触れることなく、サービス改善や新規サービス開発が可能ということだ。

ソラコムでは今回、デバイスやソリューション、インテグレーションのサービスを提供するパートナープログラム(Soracom Partner Space)を発表している。現時点では、以下のような企業がテストしているそうだ。

・内田洋行:IoT百葉箱
・リクルートライフスタイル:無料POSレジアプリ「Airレジ」にSORACOM Air搭載、イベント会場で1カ月だけ臨時店舗運営
・フォトシンス:スマートロックのAkerunで応用、カギを開けるときには低速、ファームウェアのアップロード時には転送速度をアップ
・フレームワークス:物流システムにおける動態管理システム。トラックにスマホを搭載してGPSデータだけを利用。業務時間のみの小容量の通信
・キヤノン:事務機器でSORACOM Airの実証実験
・東急ハンズ:業務システムのバックアップ回線として利用
・Global Mobility Service:フィリピンでクルマにSORACOM Airを搭載。割賦未払いの利用者のクルマを遠隔地から停止

いろいろな実験的取り組みがベータ期間中にも出てきているが、ソラコムの新サービスは、Amazon S3が出てきたときと似ているかもしれない。S3のリリース初期には開発者だけではなく、個人利用で使ってしまうパワーユーザー層にもアピールしたものだ。SORACOM Airも1枚880円からAmazonで購入できるので、何かのアプリが出てきて個人ユーザーが使うような事例も出てきそうだ。

Amazon同様に継続的な値下げ努力とイノベーションで競合に勝つ

ステルス期間は別として、ローンチしてしまえばアイデアは自明だし、ソフトウェアの話なので誰でも実装できるのではないだろうか。競合が出てきたときに、ソラコムではどうやって戦っていくのだろうか。

「ソラコムは、モバイルとクラウドが融合した初めての形と思っています。単純な通信ではなく、暗号化したり、認証したりという付加価値があます。新機能や新サービスも開発していきます。まだ2つ3つは温めているアイデアがありますし、実際にお客さんと話している中でニーズが見えてくる面もあります」

「これはAWSが出てきたときと似てるなと思っています。AWSはクラウドです。当事は、うちもクラウドですといってプライベートクラウドみたいなのが、たくさん出てきましたよね。でも、その多くはあくまでもサーバー仮想化の話であって、AWSがやっているようなクラウドネイティブではありませんでした。ハードウェアを仮想化して、物理サーバー上に仮想マシンを複数設置しましたという程度にすぎなくて。もちろん仮想化は仮想化で価値はあるんですけど、瞬時に使えて、いつでもやめられて、いくらでもスケールできるというクラウドとは違いますよね」

「もしソラコムが取り組む市場が良い市場だとしたら、今後は競合がたくさん入ってくるはずです。でも正しいアプローチでやれる企業は少ないと思うんです。いつでも始められて、いつでも利用をやめられて、APIが備わっていて、自動化ができてという。そういうことを質実剛健にやっていけるような企業は少ない」

「われわれも運用コストに少しだけ利益をのせて回していくのですが、Amazonみたいな薄利多売モデルで、どんどん価格を下げていきます。Amazonにいた私からすると当たり前のことですけど、ふつうはそうじゃありません。多くの企業は大きな利益を取っていくので、同じアプローチを取る会社が多いとは思っていません」

「かつてAWSがでてきて、その結果、InstagramやDropbox、Pinterest、Airbnb、Uberといったサービスが出てきたみたいに、ソラコムのようなプラットフォームによって、きっと面白いIoTが出てくるんじゃないかなと思います」

バックアップサービスのBackblazeがAmazon S3の1/4の料金でクラウドストレージサービスを立ち上げ

backblaze-b2-08-storage-pod

Backblazeは消費者向けと企業向けのバックアップサービスでよく知られており、そのサービスのために同社が買うハードディスクの台数も話題になった。しかし今日同社は、これまでとはやや毛色の違うサービスBackblaze B2の非公開ベータを立ち上げた。それはAmazon S3や、あるいはMicrosoft AzureとGoogleのCloud Platformなどと価格で競合するクラウドストレージサービスだ。

Backblaze-B2-02-cloud-storage-cost-comparison

2007年にローンチして今では利益も出ている同社は、150ペタバイト相当のバックアップデータと1000万を超えるファイルをそのサーバ上に保存している。同社の協同ファウンダでCEOのGleb Budmanによると、そもそもBackblazeが独自のストレージサービスを始めたのも、当時自己資本のみの同社にとって既存のサービスが高すぎたためだ。

“これまでは毎年、時間と労力の90%がクラウドストレージの構築に投じられ、フロントエンドはわずか10%だった”。と彼は語る。そして、きわめて安定したバックエンドを持つようになった同社は、多くのユーザから、バックアップを預けるだけでなく、S3のようなAPIでそのバックエンドに自分で直接アクセスしたい、という要望が寄せられるようになった。

Budmanによると、Backblazeの技術者たちは一年がかりで、その要望に応えるためのソフトウェアを構築した。最初の頃は、わずかな数の社員たちが日々の成長への対応に追われていたから、こんな余技はまったく不可能だっただろう。でも今では、既存勢力と価格や可用性で十分勝負できるB2Bプロダクトを作れる、という気持になっている。

Backblaze-B2-04-screenshots-UI-CLI-API

Backblazeのサービスの料金は、AWSのとても遅いコールドストレージサービスAmazon Glacierの半額、通常のS3サービスの1/4だ。Budmanも、デベロッパがS3からBackblazeに乗り換えるとしたら、その動機は価格だ、と認める。彼によると、“ストレージが高すぎるために存在できないユースケースがいろいろある”、という。たとえばデータを世界各地に分散させて保存したいが、それをAWSだけでやろうとすると、自分で工夫してやる場合の倍の費用がかかるだろう。Backblazeの低料金なら、データの冗長コピーをAmazonに払う場合の15%の料金(約1/6弱)で保存できる。

当面Backblaze B2のユーザは、画像やビデオ、大量のドキュメントなどのデータを保存するだろうが、Budmanは、いずれ膨大な量の研究データなども保存されるようになる、と展望している。

Backblaze B2には無料プランもある(ストレージ10GBまで、読み出し1GB/日、書き込み帯域は無制限)。デベロッパにはAPIとコマンドラインインタフェイスが提供されるが、一般人のためのWebインタフェイスもある。

今はまだ非公開ベータだが、登録はここでできる。一般公開は今年の終わりごろの予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

NGINXの商用版アップデートNGINX Plus R7がHTTP/2をサポート、TCPロードバランサも改良

8469758619_dc95f4264f_o

投資家たちにも愛され、人気急伸中のWebサーバNGINXが今日(米国時間9/16)、HTTPの次世代規格HTTP/2を、サーバの最新の商用リリースでサポートする、と発表した。

無料のオープンソースバージョンではすでにHTTP/2を部分的にサポートしていたが、今日はNGINX Plus R7が同社の顧客にリリースされた。このリリースではHTTP/2のサポートが最大の目玉だが、この、同社を代表するプロダクトには、そのほかの新しい機能もいくつか加わっている。

HTTP/2は、その一部がGoogleのSPDYプロトコルをベースにしている。しかしNGINXのマーケティング担当Peter Guagentiによると、ブラウザ側のHTTP/2のサポートにまだむらがあるので、多くのブラウザの実装のレベルが揃うまでは、デフォルトの高速HTTPプロトコルとしてSPDYを使った方がよい、という。しかしHTTP/2はセキュリティの機能が優れているので、その試用は今から初めておくべきだ、と。

http2-27-1024x300

HTTP/2のNGINXの実装方式では、レガシーユーザに標準のHTTP 1でページを容易にサーブできる。またそれをサポートしているクライアントには、HTTP/2やSPDYで接続する。ただしSPDYとHTTP/2をパラレルに動かすことはできない。

今回のアップデートでは、NGINX PlusのTCPロードバランサが改良されている。前回の最初のリリースでは、TCPのサポートと、NGINXのHTTPのサポートがうまくマッチしていなかった。しかしこれからはたとえば、ユーザはTCP接続の接続リミットや帯域リミットを設定できる。一見するとマイナーな機能のようだが、しかし今ではストリーミングサービスなどでTCP接続が頻繁に利用されているから、アクティブな接続の数を制限できることは、DDoSとの戦いの最前線の防備として重要だ。

NGINX Plus R7はまた、Microsoft NT Lan Managerの認証を使っているアプリケーションに対応できる。これはTCPよりもさらにもっとマイナーなようだが、これによりレガシーのMicrosoftアプリケーションを動かしている環境でNGINXをロードバランサとしてデプロイできるようになる。同社によると、これはユーザの要望が多かった機能だ。

Guagentiによると、今回のリリースにはパフォーマンスアップのための改良が数多く盛り込まれ、またサーバのモニタリングと管理の機能も改良されている。これら多くの機能にアドミンが容易にアクセスできるよう、ダッシュボードも刷新した。彼によると、今のユーザは、“自分のスタックに対する驚くほど詳細な可視性を要求する”。でも、高度なユーザならサービスのAPIを使って必要なデータを取り出し、既存のダッシュボードにそれらを統合できる、と。なお、新しいダッシュボードでは、そこからアドミンがサーバの稼働中にパラメータを変えてトラフィックを調節したり、サーバをオフラインにする、新しいサーバを加える、などの操作ができる。

Screen-Shot-2015-09-14-at-1.59.10-PM-1024x493

この新しいリリースの技術的詳細はここにある。

NGINXのチームによると、商用バージョンをまさに商用に利用する顧客が、今は非常に多様化している。“これまでのNGINXはナードのベストフレンドだったが、今ではエンタプライズユーザが同じものを求める”、とGuagentiはジョークを言う。このところの成長率は、通常のテク企業よりもエンタプライズによる採用の方が高い。彼によるとそれは、エンタプライズが現代的なソフトウェアアーキテクチャに前向きになっているからであり、DevOpsやクラウドへの移行が本格化しているからだ。今では金融企業や保険企業も、同社の顧客中に多く見られるようになっている。それに、一部の政府機関も。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがStrongLoopを買収してNode.jsによるAPI開発を同社クラウドプラットホームに導入

ibm-earnings

IBMが今日(米国時間9/10)また、同社のクラウドサービ事業を拡大するための買収を行った。今回は、エンタプライズアプリケーションの開発の分野だ。同社が買収したカリフォルニア州San MateoのStrongLoopは、オープンソースのサーバサイドJavaScript環境〜ライブラリNode.jsによるエンタプライズソフトウェアのための、アプリケーション開発ソフトウェアを作っている。企業はそれらのツールを使って、APIを装備したモバイルアプリやクラウドベースのアプリケーションを作り、またそれらを統合して、モバイルやWeb、IoTなどのアプリケーション間を行き交う大量のデータを取り扱う。

価額など買収の条件は公表されていない。StrongLoopはこれまで、ShastaとIgnition Partnersから900万ドルの資金を獲得しており、それには2013年の800万ドルのラウンドも含まれる。

IBMによると、同社はStrongLoopのNode.js機能を、MobileFirstやWebSphereと並ぶものとして、同社の幅広いソフトウェアポートフォリオの一員に加える。Node.jsの開発フレームワークが加わることの主な利点は、各種APIを利用して大量のデータを取り扱うアプリケーションを作り、またバックエンドではそのほかのエンタプライズアプリケーションとコネクトしたい、という企業からの需要に応えることだ。しかもさらに、2013年からすでにNode.jsの開発プラットホームを提供しているAmazonなどとの競合条件も良くなる。

IBMはNode.jsが成長著しい開発フレームワークであると認識しており、それはまた顧客からの要望にも応えうるソリューションである。IBM Systemsのミドルウェア担当ゼネラルマネージャMarie Wieckは、“エンタプライズはIT全体の形を変えて、新しいチャネルに手を出し、新しいビジネスモデルを導入し、またクライアントとのエンゲージメントを個人化したいと願っている”、と述べている。“それを実現するための重要な原材料がAPIであり、StrongLoopのNode.js機能を利用して迅速にAPIを作る能力と、IBMの、クラウドプラットホーム上のJavaとAPI管理におけるリーダーシップが合わさることにより、この二つの強力な開発コミュニティの、イノベーションのポテンシャルが解き放たれるだろう”。

IBMによると、今日からNode.jsデベロッパは、IBMのPaaS Bluemixを利用できる。“StrongLoopのツールおよびサービスと、IBMのWebSphereおよびJavaの能力を組み合わせてIBMは、クライアントにJavaとNode.jsのブリッジを提供でき、それによりクライアントは、自分たちのアプリケーションへの投資からより大きな価値を取り出すことができる”、と同社は言っている。ユーザはさらに、IBMのビッグデータ分析能力や、同社のAIプラットホームWatsonにもアクセスできる。

StrongLoopにとっては、これによって同社の技術とNode.jsそのものの窓口がぐんと大きくなる。“この買収によってNode.jsがエンタプライズ世界におけるメインストリームになり、そのことが業界全体の利益にもなる”、とStrongLoopのCEO Juan Carlos Sotoが言っている。“Node.jsのオープンコミュニティのリーダーとしてわれわれは、コミュニティが引っ張るオープンなイノベーションをさらに前進させ、またグローバルでエンタプライズ級のソフトウェアおよびサービスとも帯同することにより、API経済におけるクライアントヴァリューを増大させたい”。

Node.jsはオープンソースの技術なのでIBMは、この買収を契機にオープンソースコミュニティとの結びつきをさらに強めたい意向だ。同社は、Node.js Foundationのプラチナ会員である。

このサービスの一部は直ちに可利用になるが、そのほかの部分がオンラインで提供されるのはしばらく後になる。とりわけ同社は、“StrongLoopの買収によって得られる一部のクラウド機能は、IBM IoT FoundationにIBMのPaaSであるBluemixと共に組み込まれ、セキュリティと分析機能を強化し、センサのデータからインサイトを生み出す強力なIoTプラットホームへの、エンタプライズアクセスを提供する”、ということだ。

また2016年半ばまでには中国語(繁体と簡体)や日本語、フランス語、イタリア語、スペイン語、ブラジルポルトガル語へのローカライゼーションを完成して、グローバルなサポートを提供する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleは同社エッジロケーションをCloud Platformのユーザと共有、FastlyなどとパートナーしてCDNサービスも提供へ

google-datacenter-tech-05

Googleが先月PageSpeedサービスを閉鎖したことにより、そのツールの一部であったCDN(content delivery network)サービスもなくなった。今のGoogleはほかのコンペティタ(Amazon AWS、Microsoft Azure)のように独自のCDNサービスを提供していないが、静的コンテンツをユーザにはやく配達したいと願うデベロッパに対しては、FastlyなどとパートナーしてCDNサービスを提供している。

今日(米国時間9/9)同社はそういうパートナーシップを一歩前へ進めて、CDN Interconnectというサービスをローンチした。今や同社はCloudFlareFastlyHighwindsLevel 3 Communicationsなどとパートナーして、同社のクラウドサービスを利用してアプリケーションを動かしているデベロッパに、使いやすくて安いCDNを提供しようとしている。

cloud_interconnect_partners

このInterconnectイニシアチブはGoogleのCloud Interconnect Serviceの一環であり、それは企業がエンタプライズクラスの接続でGoogleを利用したり、あるいはGoogleの世界中70箇所を超えるエッジロケーションでGoogleと直接にピアする、というものだ。

CDN Interconnectを利用するデベロッパは、主に写真、音楽、ビデオといった静的コンテンツをサーブするために利用するのだが、これからは、これらのCDNロケーションへのトラフィックの送付を、安い料金で行えるようになる。

Googleによるとそのねらいは、“Cloud Platformからエンドユーザに近いエッジへコンテンツを定常的に配布するためのベストプラクティスを、おすすめすることであり、GoogleはCloud PlatformとパートナーであるCDNプロバイダとのあいだの、プライベートで高性能なリンクを提供することによって、ユーザのコンテンツがレイテンシの低い信頼できるルートをたどって弊社のデータセンターからエンドユーザに届くようにする”、ことだ。

Googleによると、静的コンテンツとは言っても現代のそれは、高精細の画像だったり、HDないし4Kのビデオであったりして、ネットワークの負荷が大きい。そのために、一つのWebページの平均伝送量が2MB近くにも達する。それは2014年に比べて15%の増であり、今年はさらに増加するだろう。大半が画像や映像であるコンテンツを世界中に高速でロードするためには、CDNが唯一のソリューションだと言わざるを得ない。

ではなぜGoogleがPageSpeedサービスを閉鎖したのか、まだよく分からないが、要するにCDNはGoogle自身がやるべきビジネスではない、と判断したのだろう。しかしGoogleと同じく大企業の品揃えの一環としてクラウドプラットホームを提供しているところでも、AmazonのAWSやMicrosoft Azureには、そのプラットホームを利用するデベロッパのための独自のCDNサービスがある(AWSはCloudFront)。今回Googleは、CDNというゲームに復帰したと見えなくもないが、まだそれはユーザにパートナーを紹介するにとどまっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Eko Coreは、発明されてから200年間変わっていない聴診器をデジタル化する

screen-shot-2015-09-01-at-6-47-47-pm

聴診器は数カ月後に200才の誕生日を迎える。医療に大きなブレークスルーがあった1816年から聴診器は今でも医者に訪れた際には必ず目にするものだ。聴診器は医療を象徴するものにもなっている。

この200年間、聴診器はほとんど変わっていない。今使用されているものは、17世紀に使用されていたものとさほど違わないのだ。心拍音を聞く方法はマニュアルなままで、心拍音の異常を判別するのは医者の耳を頼りにしている。

しかし、バークレーに拠点を置くEko Devicesというスタートアップのお陰でそれも過去のこととなるだろう。彼らが開発した機器は、Class Ⅱの医療機器としてFDA(アメリカ食品医薬品局 )に承認された。このように承認された中で、彼らが最も若いチームだ。共同ファウンダーのConnor Landgraf、Jason BelletとTyler Crouchは、カリフォルニア大学バークレー校を最近卒業し、200才になる医療機器にデジタルな機能を与えた。

Eko Coreと呼ばれるこの機器は、一般的な聴診器に付けて使い、クラウドに心拍音のデータをストリームするソリューションを提供する。これにより、医師は心拍音を分析するのにより豊富な情報を得ることができる。

「細かい心雑音を聞き取るのは難しいのです。心拍の速い患者を診断する場合は特にそうです」とLandgrafは言う。「心臓の専門医も、心臓の音を聞くのは音楽的な耳を培うのと一緒で、習得するには5年から10年の経験が必要です」。

Eko Coreを使用すれば、医師はモバイル端末から心拍音の音波を目で確認することができ、また音量を大きくして聞くことができる。視覚と聴覚の2つの側面からデータを記録することができ、それを他の医師や病院と簡単に共有することもできる。

医師が心雑音を検知し、心臓弁の問題、動脈の塞がりを当てずっぽうではなく、特定するために役立つのだ。

疑わしい心雑音のある小児科の患者の70%は心臓の専門医を受診する必要はないという。Ekoを使うことで、何万ドルとかかる不要な超音波心臓診断を避けることができ、節約にもつながるだろう。

「医師は聴診器による診断に自信がもてない状況に度々直面し、本来必要でないにも関わらず、心臓の専門医への受診を薦めています」とLandgrafは言う。

Ekoはスタンフォード病院とパイロット検証を行っていて、全員がEko Coreの機器を研修用ツールとして使用しているという。今日からEkoは、一般向けに機器単体を199ドル、聴診器とのセットを299ドルで自社から販売する。

これから数ヶ月、チームはEko端末で集めたデータを分析するアルゴリズムの開発を進める予定だ。このアルゴリズムで心拍音から病状をリアルタイムで特定できるようになる。「心拍音用のShazam」と医師の間では呼ばれているとLandgrafは言う。

「患者の身体を傷つけずに済む方法で、医師に患者の心臓で何が起きているかを伝えることができます。これは患者と医師を結びつける強力なツールです」とLandgrafはいう。「現在、患者の心臓の圧力を知るためにカテーテルを体内に入れる方法などがありますが、手術で切開しなければならず、効率的ではありません」。

病状を検知する機能は、来年のQ1内にローンチする予定だという。LandgrafはEkoから今後、患者の身体を傷つけずに医師が患者の心臓の動きを知ることのできる他のプロダクトも展開すると示唆した。

Ekoは2013年に創業し、これまでにスタンフォード大学のStartX Fund、FOUNDER.orgのファウンダーであるMichael Baum、Shazamの共同ファウンダーなどから合計280万ドルを調達している。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

Microsoft AzureがVMを値下げ、新たに高速大容量ストレージ併設のGSシリーズVMを提供開始

azure_azure

Microsoftが今日(米国時間9/2)、同社のAzureクラウドコンピューティングサービスの二つのアップデートを発表した。ひとつはパフォーマンスが最適化されるGクラスのVMに新しいタイプを導入、もうひとつは計算力に重点を置くDクラスVMを値下げしたことだ。

GクラスVMはAzureクラウド上のもっともハイエンドのマシンで、したがって料金ももっとも高い。Windowsが動き、最高月額は7180ドルにもなる。今度からこのGクラスのマシンに、高仕様ストレージを伴うGSというタイプが新たに導入され、そのストレージの最大仕様は64TB、毎秒80000I/O、最大スループットが2000MB/sとなる。

これまでのGシリーズと新しいGSシリーズはともに、VMが帯域20Gbpsのネットワーキングをサポートする。そのスループットは、競合他社の倍、だそうだ。

担当マネージャCorey Sandersによると、この有料ストレージオプションを導入したのは、顧客の要望による。Gシリーズのユーザは、大きなデータベースを必要とすることが多いのだ。

“そういうワークロードが増えているから、ストレージのスループットの増大を求める声が頻繁に聞かれるようになった”、と彼は語る。彼によると、GSシリーズのVMはMySQLやMicrosoftのSQL Serverなどだけでなく、MongoDBのようなNoSQLデータベースも高いスループットで利用できる。

Sandersによると、Azureの顧客の一部はデータウェアハウスや、あるいはExchange、Dynamicsのようなエンタプライズアプリケーションを稼働するためにこれらのマシンに着目している。

gs-series

今回のアップデートでMicrosoftは、DシリーズVMの最大27%の値下げを行う。このVMはWebアプリケーションのフロントエンドや、メインのデータ処理/供給層で使われることが多い。Sandersが説明する値下げの動機は、このDシリーズをいわば、Azure利用の入り口と位置づけ、今後なお一層のユーザ増を図りたいためだ。値下げは、10月1日から有効となる。

さらに今後Azureから、メッセージングサービスService Busを利用できるようになり、より高いアップタイムと、より予測可能なパフォーマンスが約束され、VMの診断能力も提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

経験や直感よりデータ、人材採用に広がるデータ・ドリブンなアプローチ

2

編集部注:この原稿は鈴木仁志氏による寄稿である。鈴木氏は人事・採用のコンサルティング・アウトソーシングのレジェンダ・グループのシンガポール法人の代表取締役社長を務めていて、シンガポールを拠点にクラウド採用管理システム「ACCUUM」(アキューム)をシンガポールと日本向けに提供している。

企業の人材採用活動において経験値や感覚値に頼るだけでなく、データ分析に基づいて採用を行う企業が増えてきている。アメリカでは、データ分析に基づいて採用活動のPDCAを回す「データ・ドリブン・リクルーティング」という概念が確立されていてソリューションも多く存在する。私自身がデータ・ドリブン・リクルーティングについて話す際に例として使う、映画「マネーボール」を交えながら、アメリカのソリューションを中心に紹介したい。

「マネーボール」は米国メジャーリーグベースボールでの実話を基にしている。主役であるオークランド・アスレチックスのGMビリー・ビーンが、データに基づく選手分析手法「セイバーメトリクス」を用いて、当時資金もない弱小チームを2002年にはア・リーグ記録の20連勝を達成するチームに育てるというストーリーだ。TechCrunch Japan読者でこの映画を観た人は、「データ分析 x ベースボール」という部分に少なからず興味をひかれたのではないだろうか。

「マネーボール」の舞台となったアメリカでは、様々な領域においてビッグデータ活用が謳われており、ここ数年は人事にもビッグデータを活用するのは当たり前という風潮になってきている。それに伴い、データ・ドリブン・リクルーティングという言葉も頻繁に使われるようになってきた。

採用プロセスは細分化すればきりがないのだが、一番シンプルにするとこんな感じだろうか。

0

上記の採用プロセスの順に、データ・ドリブン・リクルーティングについて説明したい。

必要な人を決める

「探す/集める」という行為の前には、必要な人を決める(リクルーターたちは”求める人物像の策定”と呼んだりする)必要がある。社内のハイパフォーマーを特定して共通する特徴を分析したり、成功するために必要なスキルや経験を明文化したりすることだ。カルチャーフィットなど含め、社内ディスカッションなどで定性的に行われる部分もあれば、人事システムのタレントマネジメントモジュールやアセスメントツールなどを活用して定量的に行われることも多い。

「マネーボール」では、「セイバーメトリクス」という選手をデータで分析する手法が用いられる。これはアメリカ人野球ライター・野球史研究家・野球統計家であるビル・ジェームズらによって提唱された分析手法で、主観的・伝統的な評価軸ではなく客観的・統計的に選手を評価するものだ。例えば投手の評価においては、当時は伝統的に重要とされていた防御率は野手の守備力の影響をうけるため純粋な投手の力ではないとし、被ホームラン数、奪三振数、与四球数などを重要視する。ビル・ジェームズがこのような指標をもとに上原浩治投手を高く評価し、アドバイザーを務めるボストン・レッドソックスに獲得を強く勧めた話は有名だ。

例えば「マネーボール」では、資金難を理由に放出せざるをえないジェイソン・ジアンビやジョニー・デイモンといった2001年シーズンのスター選手の穴をどう埋めるかについて、ブラッド・ピット演ずるGMビリー・ビーンが「セイバーメトリクス」を信じない古株のスカウトマン達と議論しているシーンがある。2001年のオークランド・アスレチックス選手の年俸総額は約3380万ドル(30チーム中29位)、選手一人当たり平均にしても125万ドルと、総額・選手平均ともにダントツ1位のヤンキースの3分の1だった。その中で、超主力選手だったジアンビ(年俸710万ドル)とデイモン(同410万ドル)は、2人だけでチーム年俸総額の3分の1をしめていたのだ。

2001年に38本のホームランを打ったジアンビの代わりに同じタイプの選手を探しているスカウトマン対して、GMビリーは主要3選手の出塁率を平均すると3割6分4厘(0.364)であることから、出塁率が0.364の選手を3人探して穴を埋めろと指示を出した。スカウトの勘・経験やプレイヤーの体格といった定性的な視点はもちろん、ホームラン数や打率といった従来信じられていたKPIに頼ることを否定し、チームが勝つために必要なプレイヤーは出塁率や長打率などの高い選手であるという結論を導き出し、それに基づいてトレードやドラフトリスト作成の基準を決めたのだ。

探す/集める

求める人物像が決まったら、それを集めるのはリクルーターだ。リクルーティングにおいて、求人サイトやソーシャル・リクルーティング・サービスなどに代表される「探す/集める」領域は、サービスプロバイダーが一番多い部分といえるだろう。探す/集めるの領域のプレイヤー数が多い理由の1つは、1社につき1システムしか導入することのない採用管理システムなどの業務サポートシステムとは違い、メディアとして1社が複数利用することが多く、市場が大きいということがあるのだろう。全国求人情報協会発表のデータによると、2014年は年間540万件の求人がネット求人サイトに掲載された。求人サイト利用による1人当たりの採用コストは幅が広く(中途正社員採用:20万円〜150万円程度、新卒採用:100万円〜300万円程度、パート・アルバイト採用:2万円〜100万円程度)、掲載無料&成功報酬モデルもある。仮に平均単価が10万円としても5000億円を超える市場規模がある。

掲載型の求人広告とは少し異なるアプローチで、ダイレクト・ソーシングとも呼ばれる「探す」という行為もある。このアプローチでは、Linkedinのようなデータベースを活用することも可能だが、アメリカでは「People Aggregator(人の情報収集システム)」なども注目されており、EnteloやMonsterに買収されたTalentBinなどが有名だ。「Google for Jobs」(求人版のGoogle)と言われるIndeedがあれば、このようなサービスは「Google for Talent」(タレント版のGoogle)と呼ばれたりする。Enteloのサービスは検索した個人のEmail、Facebook、Twitter、LinkedIn、あるいはエンジニア向けサイトで個々人の技術スキルも分かるGitHub、StackOverflowなどの様々なサービスのアカウントをEntelo上でまとめるだけでなく、「現職への転職から24カ月目の節目は転職率が高い」とか「LinkedInのプロフィールを更新してから一定期間は転職率が高い」といったソーシャルシグナルの分析に基づく独自アルゴリズムによりターゲット人物をランキングしたり、その個人の各種サービス利用頻度などから直接連絡を取るのにベストな手段をサジェストしたりする。この辺りは「マネーボール」の中で、GMビリーが他球団と電話でトレード交渉を進める横で、GM補佐であるイェール大学卒業のピーター・ブランドが、ラップトップでデータを見ながらトレードで取得すべき選手の名前を次々に挙げていくシーンなどが思い浮かぶだろう。

2

そして「集める」という行為をデータ・ドリブンで行うには、現状のチャネル分析や候補者行動分析などの小さなPDCAを常に繰り返し実行する必要がある。エクセルやグーグルフォームでなく、 採用管理システムを上手く活用してリアルタイムにデータ分析を行うことが重要となる。チャネル毎の応募数や採用数だけでなく、利用デバイスやブラウザなども分析することでポジション毎に最適なチャネルを選ぶことができる。この領域にはJobviteを中心に、JibeGreenhouseSmartRecruitersなど2500万〜5500万ドルを調達して注目されているアメリカ発のサービスが多く、当社が提供するクラウド採用管理システム「ACCUUM(アキューム)」もこの領域でサービスを提供している。これらの採用システムに共通するコア機能としてはATS(Applicant Tracking System)と呼ばれる応募者管理機能があり、ウェブサイトや人材紹介会社からの候補者を一元管理しチャネル分析などを行えるが、それ以外のマネタイズの方法は各社異なる。例えばJobviteは後述するビデオ面接機能を最近強化して選考側を強化している一方、SmartRecruitersは管理画面からIndeedやLinkedInなど外部求人サイトへ簡単に掲載させる機能により母集団形成側を強化している。OracleのTaleoやSAPのSuccessfactorsなど大規模人事管理システムではこのような機能は、MultiPostingなどとAPIで連携しているケースが多いが、採用管理システムではこのような機能も自前で持つところが増えてきている。こういったサービスを活用すれば、採用企業は、いくつもの外部サービスにログインして一つひとつ求人情報の掲載をしなくて済む。のみならず、今後は外部サイトに簡単に掲載できるだけでなく、ビッグデータ分析によって職種毎に使うべき求人サービスをサジェストする機能なども強化されていくことだろう。

6

前述の求人サイトの掲載価格は、アメリカの求人サイトMonsterが1職種月額5万円以下(375米ドル)、東南アジアで強いJobStreetが1職種月額1万円以下(100シンガポールドル)であることを考えると、日本の求人掲載料はまだまだ高い。無料掲載のビズリーチのスタンバイや、月額3万円から職種数無制限で掲載できるウォンテッドリーなどが市場に変化を与えているが、自社の応募データを分析して、データ・ドリブン・リクルーティングで自社に合ったチャネル戦略を立てることにより、採用単価や採用スピードを改善できる余地は大きい。

選ぶ

「探す/集める」の次は「選ぶ」ステップになる。この領域において注目されているリクルーティングサービスの1つがビデオインタビュープラットフォームのHireVueだ。既述の通りJobviteなどが追加機能として提供するだけでなく、GreenJobInterviewSparkHireなどスタンドアローンのサービスも多いが、9200万ドルを調達しているHireVueがプロダクトとしてもクライアントベースとしても抜きん出ている印象だ。サービスがスタートした当初の質の低いSkypeといった印象から大きく進化を続け、今では総合的な採用プラットフォームになっている。その強みのコアは、やはりビデオインタビュー部分だ。Fortune 500 企業などを含む500社以上のユーザー企業を誇るHireVueによると、平均して1ポジションに約100名の応募があるが、そのうち面接の機会を与えられるのはたったの6人だという。ビデオ録画機能を使ってより多くの候補者に質問に答えさせ、面接での質問に対する300万件以上の候補者の発言などの分析をもとにしたHireVue独自のアルゴリズムで、やる気・情熱・感情・性格などを予測する。履歴書や職務経歴書だけで100名から6名に絞り込むよりも、より正確に企業やポジションに合った候補者を選ぶことが可能という。

7

GMのビリーがニューヨーク・ヤンキースからデイビット・ジャスティスという選手の獲得を提案した時、年齢による衰えから2001年シーズンでは打率はピーク時の0.329から0.241まで落ち、ホームラン数は41本から18本に落ちていること、そして足の故障や守備のまずさなどを理由にスカウト達は猛反対をした。ただし、既述の出塁率が0.333と目標値に近く、また、年俸700万ドルの半分をヤンキースが負担するという好条件もあり、アスレチックはジャスティスを獲得した。従来のKPIだけで見ていたら獲得リストにも載っていなかった選手だが、GMビリーとGM補佐ピーターのアプローチによって選ばれた選手の一人だ。

口説く

最後は当然「口説く」ことが必要になる。私の知人が経営する会社では、本年度は特に採用が最重要課題であるという理由から、会社のトップセールスを1年間限定でリクルーティングの責任者においた。最近は日本でもこのようなケースが見られるが、アメリカではマーケティングや営業のスーパースターをリクルーティングチームに移すことは珍しいことではなくなってきている。もちろんただ単にコミュニケーション能力があるというだけの話ではない。口説く相手が100人いれば100通りの異なるストーリーを考えることが必要になるからだ。

映画の最終的な脚本ではカットされてしまっているが、出回っている英語版の脚本ドラフトで印象に残るシーンがあった。GMのビリーとGM補佐のピーターが、一塁手のスコット・ハッテバーグと話しているシーンだ。ハッテバーグは怪我によりキャッチャーとしてのキャリアを捨てざるを得なくなり、スカウト達が獲得を反対した選手の一人だ。この選手を一塁手にコンバートして獲得するというオファーを出したのだが、 実はハッテバーグ本人ですら何故アスレチックスがそこまで興味を示したのか、分からずにいた。入団後になるが、本人の過去のバッティングデータからストライクやヒットの多いゾーンについての傾向を教えると、本人はなるほどという反応を示す。次に、打席平均の相手ピッチャー投球数の4球という数字は、バリー・ボンズやジェイソン・ジアンビといった超一流打者の5球という数字には及ばないものの非常に良い数字であり、相手ピッチャーを疲れさせるためには非常に重要であるという根拠とともに「One of the reasons why we love you.(僕たちが君を高く評価する理由のひとつだ。)」と伝えると、この数字の重要性に気付いていなかったハッテバーグも、驚きをもって興味を示す。

情熱やフィーリングはもちろん重要だが、ビリー・ビーンの様にリサーチデータを基に候補者一人ひとりに合わせたストーリーで口説けるようになることもリクルーターとして重要なスキルの1つであり、そのためにはいくつかのソリューションを使いこなすことも必要だろう。

GoogleのCloud Platform上でDockerコンテナを使うための自動化管理サービスContainer Engineがベータを終えて一般公開

docker-google

Googleが同社のオープンソースのKubernetesを使って、Googleのクラウドプラットホーム上でDockerのコンテナを動かし管理するサービスContainer Engineが、ベータを脱し一般公開される。すなわちGoogleはそれをプロダクションレディ(production-ready, 企業活動のための本格採用OK)と見なし、アップタイム99.5%のSLAを保証する。

Google自身が早くから、自社のデータセンターでコンテナを使ってきたし、昨年あたりからは、コンテナを大規模に使ってきた経験から学んだことを外部に公開し始めた。なにしろ同社のデータセンターでは、毎週20億個あまりのコンテナインスタンスがローンチされるそうだ。外部公開の典型的な例が、コンテナ管理ツールKubernetesだ。それは最近、新たに作られた団体Cloud Native Computing Foundation寄贈された

Container Engineは、コンテナに関する同社のそんな取り組みの頂点にあり、デベロッパはこれを利用して自分のコンテナ展開のための管理つきクラスタを、ほんの数クリックでセットアップできる。Googleによると、すでにRed HatやMicrosoft、IBM、Mirantis、VMWareなどが自社プラットホーム(主にOpenStackのプラットホーム)にKubernetesを統合し始めており、そのためデベロッパは自分のワークロードを、必要に応じて、複数のクラウドプロバイダ間で容易にポートできるようになった。

このEngineサービスを使いたいデベロッパは、自分のクラスタをセットアップし、コンテナの要件(CPUやメモリなど)を宣言する。するとEngineサービスはこれらの指示に従ってクラスタをモニタする。GoogleはContainer Registry提供しており、こちらは2ヶ月前に一般公開された。このレジストリにプライベートなDockerイメージを保存してアクセスすることにより、デベロッパは自分のクラスタを必要に応じてスケールできる。またGoogle Cloud VPNを利用すると、コンテナネットワークのハイブリッドな展開も可能だ。

このサービスの使用料は仮想マシン5基までが無料(ただしCompute Engineのインスタンスは有料)で、その後、最大100仮想マシンまでの標準クラスタが、毎時15セントだ(こちらもCompute EngineやそのほかのGoogle Cloud Platformの費用は別)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Mirantisが1年足らずで二度目の$100Mの資金調達、Intelが積極的なパートナーシップ

9375803578_8d7e438aff_k

昨年10月に、OpenStackの専業ベンダMirantis1億ドルの資金調達ラウンドを発表したが、それからわずか10ヶ月後の今回また、同じ額の資金調達を発表した。今度のラウンドはIntel Capitalがリードし、また 同社は、OpenStackの企業向け売り込みに関してIntelとパートナーする。

Goldman Sachs、August Capital、Insight Venture Partners、Ericsson、Sapphire Ventures、およびWestSummit Capitalがラウンドに参加した。先週SECに提出された文書によると、調達額の75%が株式、残りが直接支出だ。

2010年7月にローンチしたオープンソースのクラウドオペレーティングシステムOpenStackは、Amazon Web ServicesやMicrosoft Azure、Google Cloudなどの、プロプライエタリなパブリッククラウドインフラストラクチャに代わる製品だ。OpenStackのまわりに、最初は多くのスタートアップが誕生したが、昨年からは大企業がこれらのスタートアップを拾い上げるようになった。2014年にはCiscoがMetacloudを買収し、さらに今年の6月にはPistonを買収した。IBMはBlueBoxを買収し、EMCはCloudscalingを取得した。またこのような整理統合の嵐の中で、企業向けOpenStackデプロイサービスのNebulaはこの春閉店した

買収もされず店仕舞いもしなかったMirantisは、Intelとの密接な協働という道を選び、大量の資金を導入して、OpenStackの大企業向け展開を助けている。一応同社は前進してはいるが、これからの問題は大規模なスケーリングだと思われる(後述)。Intelとのパートナーシップにより同社のハードウェア研究所にもアクセスできるようになり、またそのほかのリソースも利用できる。Mirantisの協同ファウンダで社長のAlex Freedlandによると、これらはいずれも、Mirantis単独ではできなかったことだ。

Mirantisは、OpenStackの自称‘ピュアバージョン’を提供している。Freelandによると、そこが大手のOpenStackサービス/プロダクトとの大きな違いだ。“Mirantisはオープンなプラットホームであり、門番も壁もないので、誰でもアクセスし利用できる。それが、コストを下げ機能を充実するための唯一の方法だ”、と彼は語る。

Mirantisのコンペティタは、OpenStackを売っているIBMやCisco、HP、Oracleなどの大企業ばかりではない。VMwareやMicrosoftなどの、成熟度が高く資金状態も良いエンタプライズテクノロジ企業も強敵だ。Freelandの構想では、今回得られた資金とリソース(主にIntelの)により、大企業におけるOpenStackの全面的な展開を手がけられるようになりたい、という。今のところOpenStackは、全社的というより、個々の小さなプロジェクトで実装されることが多い。

彼によると、VMwareやRed Hatも今のような成熟に達するまでに10年近くを要している。OpenStackはまだ、5年の歴史しかない。

一方のIntelにはこのところ、自分のクラウドインフラストラクチャを持ちたいという企業からの、支援のリクエストがますます増えている。Intelのクラウドプラットホーム担当VM/GM Jason Waxmanによると、Mirantisへの投資により、同社のハードウェアのユーザである顧客たちの、OpenStack開発を加速したい、と。

両社の協働により、1年後には目に見えるような成果を上げていたい、と彼らは期待している。またFreelandによると、年内にはこのコラボレーションに関連した事業拡張も行いたい、という。

これが、IntelによるMirantis買収への第一歩、と見る読者もおられると思うが、Waxmanは直ちにその考えを否定した。“買収に関心があるのなら、投資のような余計なことはしないだろう”、と彼は述べる。Mirantisを独立企業として高く評価しているからこそ、投資とパートナーシップという道を選んだのである。しかも、Intel自身がOpenStack導入支援企業になるなんて、そもそも考えられない。

1年足らずで1億ドルのラウンドを2度経験したMirantisは、新たな成長の段階を迎えている。2014年に同社は、Ericssonに対する3000万ドルという、大きなOpenStack関連の売上を計上した。そのことも、今回の投資に貢献している。

今日(米国時間8/23)発表により、同社の資金調達総額は2億2200万ドルになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

大量のデータアップロードで回線を長時間占領したくないユーザのためにGoogleが物理メディアによるデータ送付サービスを開始

17990597742_01ff216232_o

2年前の2013年にGoogleは、ユーザがハードディスクを送って、そのデータを同社のCloud Storageにインポートしてもらう、という新しいサービスをプレビューで立ち上げた。今日(米国時間8/24)そのサービスが拡張され、Offline Media Import/Exportと名前を変えた。

このサービスでは、ユーザがハードディスクやテープ、USBフラッシュドライブなどの物理メディアをパートナーに送り、パートナーはをそれらをCloud StorageのStandard、DRA、あるいは最新のローコストでハイレイテンシのNearlineなど、任意のクラスを選んでインポートする。これまでのバージョンは、ハードディスクだけをサポートしていた。

データをふつうにインターネットでアップロードせず、宅配便や郵便で物理メディアを送るのはなぜだろう。Googleによると、企業内の典型的なDSL回線では1テラバイトのデータをアップロードするのに約100日かかる。高速な回線を使える企業もあるが、しかしそれでもなお、オンラインアップロードよりはクロネコやサガワ(上図)の方が速いだろう。

Googleはこのサービスを、北米の顧客に関しては、Iron Mountainに代行させている。近くこのサービスは、世界のそのほかの地域でも供用されるだろう。

プレビュー期間の料金は、どんなデータサイズでもメディア一つにつき80ドルだ。Iron Mountainからの課金については、まだ分からない。

インポートは分かったが、Cloud Storageからのエクスポートはどうなるのだろう。GoogleやIron Mountainからデータが送られてくるサービスに関しては、今のところ、何も発表がない。

AmazonのAWSも、かなり前から、AWS Import/Exportという似たようなサービスを提供している。料金はデバイス1基につき80ドル+データロード時間1時間につき2ドル49セントだ。サービスの名前がImport/Exportだから、ハードディスクへのエクスポートもできる。Azureにも同様の機能があり、それはAzure Import/Exportという、たいへん独創的な名前だ〔皮肉!〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

いちばんユーザ数の多いクラウドサービスはOffice 365だった…アイデンティティ管理Oktaの報告書より

shutterstock_165303932

クラウドアプリケーションのためのアイデンティティ管理を提供しているOktaのところには、人びとのクラウド利用に関する大量のデータが集まっている。同社は今日(米国時間8/20)、初めての、Okta Business @ Work Reportと題する報告書をリリースした。いろいろおもしろい発見がある中でとくに目立つのは、MicrosoftのOffice 365が、今年のこれまでの、いちばん多く利用されたクラウドサービスであることだ。

Oktaと同様にZenDeskも、集めたデータから報告書を生成している。同社の四半期ごとの報告書は、同社が提供しているカスタマサービスから得られたデータを集約している。両社共に、それらのデータは自社のビジネスの軌跡でもあり、両社はそれを、顧客と共有しようとしているのだ。

OktaのCEOのTodd McKinnonによると、そのデータはまた、同社の今後のリソース配分方針を決めるための指針にもなる。“データから、人びとがどんなアプリケーションを、どれぐらいの頻度で利用しているかが分かるから、そういう人気の高いアプリケーションを統合するのがベストだ、ということになる”、と彼は語る。

同社の顧客企業はおよそ2500社、クラウドアプリケーションの数は4000を超えるから、そのデータの量は、報告書を作ってそれを共有する価値が十分にあるほどの量だ、とMcKinnonは言う。それが同社の顧客ベースのスナップ写真にすぎないことは彼も認めるが、Oktaの顧客たちがクラウドをどのように使っているかが分かるから、とてもおもしろいデータでもあるのだ。

いくつかのおもしろい発見

Oktaがアプリケーションの使われ方を記録するようになったのは2012年だったが、当時はSalesforce.comがつねにトップだった。しかしその後、Office 365が徐々に伸びてきてついに首位に立ち、Boxが三位になった〔下図: O365がSFを2015/2月に抜いている〕。

Cloud app usage data from 2012 to 2015. The top 3 today are Office 365, Salesforce and Box.

Slackは、今やどなたもご存知だろう。人気急上昇中の企業向けメッセージングアプリだが、2015Q2の成長率は50%でダントツだった〔下図〕。もっと意外なのは、ITの事故情報管理ツールPagerDutyが、同じ四半期に25%強の成長を遂げていることだ。成長率3位は、オンラインのアンケートサービスSurveyMonkeyの23%だ。

Okta app survey data. Top growing companies over last quarter. Slack, PagerDuty and SurveyMonkey comprise the top three.

 

Oktaの顧客企業が抱えるスタンドアロンのクラウドアプリケーションの数は、企業の大小に関わらず11から16ぐらいだ。McKinnon自身は、もっと少ないと想定していたので、意外だった、と言っている。

クラウドサービスにタブレットからアクセスするユーザがいちばん多い業種は、製薬、バイオテク、教育の3業種だった。一方、モバイルデバイスからの利用がとくに多い業種は、教育とリテイル(eコマース)だ。

Oktaはアイデンティティ管理の企業なので、今回の報告書にはセキュリティ関連の項目もある。それによると、多要素認証(multi-factor authentication, MFA)をもっとも多く実装し利用しているサービスは、Amazon Web ServicesとSalesforce.comとOffice 365だ。Office 365は、ユーザのメールデータなども保護しなければならないから、セキュリティの要件も厳しい。

報告書の対象となった2500の顧客企業と4000あまりのアプリケーションには、それぞれ独自の統合先が計数千もあり、またアクセスするエンドユーザは一日あたり185か国、数百万に達する。

このほか、報告書は、クラウドサービスの人気がとくに高い業界や、国なども分析している。McKinnonによると、報告書は今後有料にするかもしれないが、当面は無料だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウドSDNのPLUMgridがLinux FoundationとパートナーしてI/Oレイヤ技術IO Visorをオープンソース化

5713689531_b0a849008d_o

The Linux FoundationPLUMgridが今日(米国時間8/16)、現代的なデータセンターのLinuxによるネットワーキングと仮想化をより一層推進するための、ハードウェアメーカーとLinuxディストリビューションのベンダらによる集団パートナーシップを発表した。このパートナーシップには当面、Barefoot Networks、Broadcom、Canonical、Cavium、Cisco、Huawei、IntelおよびSUSEが加わる。

このプロジェクトはPLUMgridのIO Visorの技術をベースとし、PLUMgridはIO Visorをプロジェクトに寄贈する。Linux Foundationが、そのほかのサポートを提供する。

今のトレンドとして、コンピューティングとストレージとネットワーキングは仮想化ヘ向かっている。そしてPLUMgridの主張によれば、I/Oとネットワーキングのサブシステムも、このトレンドに追随すべきであり、とくに物のインターネット(IoT)のアプリケーションにおいて、このことが言える。

PLUMgridの見方によると、ネットワークの機能を仮想アプライアンスとして提供するこのトレンドは、ルータやスイッチなどの高価な専用ハードウェアを使うことに比べると、パフォーマンスとスケーリングでボトルネックを抱える。すなわち同社によると、これらの仮想アプライアンスは需要に応じて容易にスケールするように作られていない。

PLUMgrid-Platform-iovisor-1024x544

PLUMgridのファウンダでCTOのPere Monclusは次のように語る: “わが社は数多くのオープンソースプロジェクトを積極的にサポートしているから、IO VisorをLinux Foundationと共にオープンソースとしてコミュニティに提供していくことは、弊社のベストインタレストに適うだけでなく、クラウド技術がアジャイルに、かつ高いパフォーマンスでスケールすることに依存しているユーザの利益にも適うものである”。

この技術の核は、IO Visorをデータセンターのすべてのサーバに組み込むことによって、仮想ネットワークを構築することにある。するとヴァイザーがPLUMgridのDirector サービスと協働してデータレイヤを作り、デベロッパのニーズに応じてそれらのすべてのネットワークに接続していく。〔参考資料(1)(2)。〕

“仮想化は柔軟性とセキュリティの要求が厳しいから、今回の共同パートナーシップにはきわめて重要な意義がある”、とLinux Foundationの事務局長Jim Zemlinは語る。“オープンソースソフトウェアとコラボレーションに基づく開発は、どの業界においても、大きな変化に対応していくための重要な要素だ。IO VisorはLinux上の仮想化とネットワーキングのための、不可欠のフレームワークを提供するだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft、Windows 10に早くも3回目の累積的アップデート

windows10

Microsoftは7月29日にあらゆるデスクトップからモバイルまでデバイスで作動し、あらゆる入力手法をサポートするOSとしてWindows 10を一般公開した。その後Microsoftは矢継ぎ早にアップデートをリリースしている。8月11日の2回目のアップデートにつづいて今週初めに3度目となるWindows 10の累積的アップデートがリリース された。

前回同様、今回のアップデートのリリースノートも以下のように詳細を極めている。

Screen Shot 2015-08-16 at 4.31.48 PMScreen Shot 2015-08-16 at 4.31.48 PM

というのは冗談で、これら一連のアップデートは新たな機能を追加するものではなく、バグ修正やパフォーマンス改善など目に見えない部分の変更なのでリリース・ノートが簡潔になるのは驚くにあたらない。

Windows 10のこれまでのアップデート同様、累積的なので、前のアップデートをインストールずみのユーザーの場合、新たな差分だけがダウンロードされ、インストールされる。Microsoft自身の表現によればこうだ。

Windows 10のアップデートは累積的だ。つまり今回のパッケージには発表ずみのすべての修正ファイルが含まれている。ユーザーがすでにアップデートをインストールずみの場合、新しい修正ファイルだけがダウンロードされ、コンピュータにインストールされる。

Microsoftは今後とも累積的アップデートをリリースし続けるようだ。やがてメーカーにプリインストール用に提供されるパッケージも含めてアップデート済みのパッケージを標準とするようになるのではないかと思う。2015年7月29日版を未来永劫提供し続ける必要はないはずだ。しかし現在のところ新旧両方のパッケージが利用可能だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MirantisがCoreOSのTectonicを統合、Kubernetes管理構造を最初から持つコンテナインフラストラクチャをOpenStack上で提供へ

166468610_1ab146fab6_o

OpenStackの専門企業Mirantisと、Linuxコンテナを軸とする分散化/クラスタ化OSを提供するCoreOSが今日(米国時間8/6)、両者のパートナーシップにより、前者のOpenStackディストリビューションとCoreOSのコンテナプラットホームTectonicを統合する、と発表した。これにより事実上、OpenStackとGoogleのコンテナ管理/スケジューリングツールKubernetesが統合されることになり、またそのサポートと管理を伴うプラットホームを、企業ユーザは利用できることになる。

企業の自前のクラウドプラットホームとなるOpenStackとコンテナとの相性は、はっきり言ってまだ未実証だが、OpenStack Foundationは、両者は天国で結婚した仲だと主張している。そのような見方に立てば、企業が従来からのVMと、Kubernetesなどとともにコンテナの両方を使っていくときに、OpenStackクラウドを統合エンジンと位置づけることができる。

OpenStack Foundationの事務局長Jonathan Bryceは、今日の発表声明の中でこう言っている: “OpenStackは今、VMやコンテナ、ベアメタルなどさまざまな技術分野において、オープンソースのクラウドプラットホームとして急速に普及が進んでいる。コントリビューターのCoreOSやMirantis、Googleなどがコミュニティを支援することによって、OpenStackを主軸とするまとまりの良い、オープンソースのクラウドソリューションが企業に提供され始めている”。

CoreOSのTectonicはオンプレミスとパブリッククラウドのどちらでも利用できるが、7月の後半にプレビューでローンチした。それは、KubernetesとCoreOSとDockerを組み合わせたコンテナインフラストラクチャを、商用レベルのサポートを伴うプラットホームとして提供するプロダクトだ。

CoreOSのCEO Alex Polviはこう語る: “つまりTectonicとMirantisのOpenStackを使うと、商用のコンテナ&クラウドプラットホームに最初からKubernetesのコンテナ管理構造があるわけだから、いわば企業は、Googleクラスのインフラストラクチャをその日から簡単に自分のものにできるのだ。Mirantisにはオープンソースのソフトウェアに対する深い理解があり、OpenStackを軸とする同社のオープンソースエコシステムへの貢献度の大きさは、右に並ぶものがない。だから企業がOpenStack上でKubernetesのベネフィットを体験できるためには、Mirantisとのパートナーシップがいちばん自然なのだ”。

企業がOpenStackの本格的な採用を開始するまで、数年を要しているが、しかしRed Hatで同社のIaaS(+OpenStackの商用提供)を担当しているTim Yeatonによると、今ではパイロットから本番稼働に移行する企業が徐々に増えているそうだ。

この、企業によるOpenStackの本格採用の動きと、そしてコンテナへの関心は、たまたま時期的に一致しているので、両者の合体に企業が関心を示すのも、また当然だ。OpenStackが提供するものは、クラウドと呼ばれるネット上の収容構造(いわば大きな風呂敷)だから、そこに何を入れ、何と何を統合しても、問題ない。だからOpenStackのディストリビューションであるMirantisにとって、コンテナ導入のために、自分で車輪を再発明することをせず、CoreOSのTectonicのようなコンテナプラットホームを統合するのが、つねにベストのプロダクトを求める顧客のためでもあるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Red Hat Enterprise OpenStack PlatformのアップデートでOpenStackのデプロイを容易にするオペレータインタフェイス(ディレクター)を実装

redhat_hat

Red HatのEnterprise Linux OpenStack Platform 7が今日(米国時間8/5)から一般供用される。これはRed Hat Enterprise Linux ServerとOpenStackの最新リリース“Kilo”を合体したディストリビューションで、さらに、OpenStack Cloudsをインストールし管理するサービスが付随している。

Red Hatによると、このアップデートによりクラウドのオペレータは、OpenStackを使ったクラウドのデプロイと管理が、より容易になる。OpenStackのTripleIOプロジェクトをベースとする新たなOpenStack Platformディレクターによりユーザは、一つのGUI上で日々のオペレーションを管理し、またリソース配置(プロビジョニング)の最適化を図ることができる。このディレクターはさらに、オペレータによるベアメタルサーバのプロビジョンを支援し、ハードウェアリソースの必要に応じてのデプロイとリパーパス(目的変え)を容易にする。

Red HatのIaaS部門を担当しているTim Yeatonによると、こういうディレクターというものを中心に持ってくることになったのも、同社のOpenStackプロダクトがパイロット段階を終えて、最近では企業による正式採用が増えているためだ。パイロットのインフラと違って、本格採用のプロダクション環境では、新たな要求が数多く存在する。そのために、ディレクターと呼ばれる一種のオペレータダッシュボードを提供して、今後のバグフィクスや新しい機能のインストールを容易にする必要がある。これがあることによって、今後のOpenStackのアップデートも、よりシンプルに行えるようになる。

今回のアップデートでもうひとつ新しいのは、Red Hat Enterprise LinuxとIPv6とそのほかのネットワークまわりの強化、およびインクリメンタルバックアップのサポートにより、モニタリングとフェイルオーバーサービスが内蔵され、それによって高可用性のコンピューティングクラスタの作成が可能になったことだ。これらの機能もやはり、従来からエンタプライズユーザの要望が多かったものだ。

Yeatonによると、OpenStackの最近の新しい機能の多くは、OpenStackを初期から採用している通信企業のニーズに触発されたものだ。

彼曰く、“主に通信企業が求めたこれらの機能には、彼らの関心が大きく反映している。しかしそれら通信企業の利害に沿う機能も、その多くはもっと広範囲なエンタプライズによるOpenStackの採用を促進しうるものだ”。彼はその典型的な例として、最近のOpenStackのネットワーキングスタックへの注力と、ネットワーク機能の仮想化(network functions virtualization, NFV)を挙げる。いずれも今では、多くのエンタプライズがOpenStackを採用する重要な動機のひとつになっている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa