AWSがローンチするBloxはEC2 Container Serviceのためのオープンソースツールのコレクション

img_20161201_102504

AmazonのクラウドコンピューティングプラットホームAWSはかなり前から、EC2 Container Service(ECS)でもってソフトウェアコンテナのサポートを提供してきた。今日の同社のデベロッパーカンファレンスre:Inventで同社は、コンテナのサポートの仕方に関するいくつかのアップデートを発表した。コンテナは今や、分散アプリケーションを運用する方法の定番とも言える地位に、急速に上(のぼ)りつめている。

まず、EC2のこのコンテナサービスは、カスタマイズの幅が広がる。とくに、Task Placement Engineと呼ばれるツールにより、デベロッパーはコンテナを特定の可利用域に配置できるようになる。

“コンテナの管理と実行は、弊社の少なからぬ顧客にとって、とりわけ一部のオープンソースソフトウェアを使った場合、苦労が多すぎた”、とAmazonのCTO Werner Vogelsが今日のキーノートで述べた。ECSの今回のアップデートは、その苦労の一部を軽減することが目的で、AWS上でコンテナを使うユーザーに、より多くの柔軟性を与える。

また今日Amazonが発表したBloxは、ECS用のコンテナ管理ツールを作るためのオープンソースプロジェクトのコレクションだ。たとえばコンテナのスケジューラーを作りたければ、MesosのようなサードパーティのスケジューラーをECSに統合できる。

Bloxが最初に提供する二つのプロジェクトは、どちらもGitHub上にある。それらは、クラスターのステートをチェックするサービスと、デーモンのスケジューラーだ。これまでオープンソースのコミュニティとは比較的‘浅い仲’だったAWSにしては、興味深い動きだ。しかしコンテナのエコシステムはその大半がオープンソースのプロジェクトに支えられているから、Amazonとしてもそろそろ積極的に関わった方が得策かもしれない。BloxプロジェクトはApache 2.0のライセンスで公開される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

モニタリングサービスの老舗大手New Relicがコンテナ/マイクロサービスをモニタするDigital Intelligence Platformを立ち上げ

screenshot-2016-11-07-11-26-17

モニタリングはこれまで、比較的単純なタスクだった。モニタするアプリケーションの数はいつも一定、という企業が多い。しかも最近はWeb上で動かすアプリケーションが多く、一定数のサーバーの上で何年間も動き続ける。

しかし今日の環境は、もっと多様化し複雑だ。そこでNew Relicは今日(米国時間11/7)行った一連の発表で、アプリケーションをデリバリする新しい方法に顧客が対応できるよう、助けていきたい、と述べている。

今の企業は、モバイルアプリとWebアプリケーションの両方を提供していることもある。それらの一部は、オンプレミスでもクラウドでも、コンテナに収められたマイクロサービスの集まりだ。だからNew Relicのようなアプリケーションのパフォーマンスをモニタするサービスも、これまでとは違う対応を求められる。

このような、モニタする対象の変化に対応して同社は今日、Digital Intelligence Platformというものを発表した。それは、より広範なモニタリングを可能とするダッシュボードサービスで、顧客がどこにいようと、またデリバリの方法が何であっても、アプリケーションの状態報告を提供する。また顧客企業のニーズに応じて、ジョブ別に細かく分割したモニタリングも提供できる。

New Relicのマーケティング担当Barath Gowdaはこう説明する: “オペレーション(ops)とデベロッパー(dev)の両方がアプリケーション全体を理解できるための、単一のデスティネーションを作った。今アプリケーションの管理はどうなっているのか、コンテナの動作具合はどうか、構成に問題はないか、等々を両者が一望できる”。

コンテナの普及によって、モニタリングはそのぶん難しくなった。コンテナによって、アプリケーションを独立したマイクロサービスの集合としてデリバリできる。仕事を数マイクロ秒で終えるコンテナもあれば、数分あるいはそれ以上動き続けるのもある。そんな多様性と、つかの間的性質により、モニタリングも一筋縄では行かない。ずーっとスタティックにいてくれないものを、どうやってモニタリングするのだ?

この多様性に対応するためにNew Relicは、コンテナの(マイクロサービスの)変数をタグ付けする(variable tagging)、というまったく新しいやり方を考案した。モニタリングのインフラストラクチャは、それらのタグを見て、そのコンテナに今問題があるかどうか、ほかのアプリケーションデリバリシステムとの関係は正常順調か、などをチェックする。これによりユーザー企業は、パフォーマンスの問題とその原因がマイクロサービスにある場合を、検出できる。そのマイクロサービスが、自分のタスクを終えたあとでも。

それがどれだけうまくいくのか、その結論はまだ出ないが、理論的にはアプリケーションとインフラストラクチャに対してより幅広く制御が可能になるだろう。そのデリバリ方法が何であっても。

この、コンテナごと、マイクロサービスごとのモニタリング機能は11月16日から一般供用される。その日はNew Relicの顧客向けカンファレンスFutureStackの初日だ。

New Relicは2014年12月に上場したが、その直前には2億500万ドルあまりという巨額を調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetesによるコンテナ管理をステートフルなアプリケーションにまで広げるCoreOSのOperatorデザインパターン…最初の2つの実装をオープンソース化

Old Cord Switchboard Operator

CoreOSが今日(米国時間11/3)、コンテナ管理の新しいコンセプトOperatorsを発表した。同社によるとそれは、コンテナの管理をより一層自動化することによって、Kubernetesを使用するプロジェクトの進捗を早める。しかも同社は、この技術をオープンソースにする。

CoreOSのCTO Brandon Philipsはこう説明する: “Operators(オペレーター)はその名のとおり、システムのオペレーション(運用)の部分を担当し、自動化する。具体的にはそれは、エンジニアやデベロッパーがスクリプトやランブック(run book, 操作指示書)の中に書く大量の知識、とくにドメイン固有の知識を、自動化するソフトウェアだ”。

Googleのオープンソースのコンテナ管理プロジェクトKubernetesは、広く使われている。小さなマイクロサービスをコンテナに収めることによって、デベロッパーは複雑なアプリケーションを独立した部品に分割し、これまでのプログラミングデリバリ技術に比べてはるかに効率的に動かすことができる。

CoreOSがOperatorsでやろうとしているのは、生半可なことではない。従来の作業では、一連の複雑なタスクを取り上げて、それらをユーザーのプロジェクトのホワイトボードビュー(構造図・流れ図)にまとめる。そのプロジェクトが、3つのサーバーから成るクラスターを必要とするとしよう。すると各サーバーのIPアドレスを知り、構成ファイルを作り、それを3つのマシンにコピーする。以上は多くのデベロッパーがかなりの時間を投ずる作業であり、プランが変わったときには手作業で調整しなければならない。Operatorsを使うと、デベロッパーはこれらの手作業のすべてを、一つの宣言文: “Launch three clusters”(3つのクラスターをローンチせよ)に要約できる。あとはいっさい、 Operatorがやってくれる。

データベースやモニタリングツールなどの複雑なアプリケーションでは,このことがとくに重要だ。Philipsの説明によると、Kubernetesは、単純でステートレスなアプリケーションのスケーリングは得意だが、もっと複雑なステートフルなアプリケーションでは、大量のスクリプトを人間が書かなければならない。Operatorsは、そのたいへんな作業をなくすことが目的だ。

たしかに、昨年本誌TechCrunchのCrunchNetworkでゲスト記事I want to run stateful containers too(ステートフルなコンテナも動かしたいね)を書いたDean Peterson(abecornの協同ファウンダーでミネソタ州雇用経済開発部のソリューションアーキテクト)も、こんな嘆きを述べている:

今のぼくの考えでは、MongoDBのようなステートフルなアプリケーションも、ステートレスなクライアントやサービスと一緒にコンテナで動くべきだ。そう言うぼくは、馬鹿かもしれないが、でもコンテナの価値はアプリケーション全体を容易にスケールできることにある、と思う。

今日の発表で、Petersonの素朴な夢が実現への一歩を踏み出した。それには、二つのOperatorsのオープンソース化が含まれる。最初のetcd Operatorは、etcdのクラスターを管理し分散化する。etcdはKubernetesのためのキー-ヴァリューストアで、CoreOSが作った。もうひとつのPrometheus Operatorは、オープンソースのモニタリングツールPrometheusで使って、Kubernetesのリソースをモニタする。

Philipsによると、この二つのローンチがきっかけとなって、コミュニティによるそのほかのOperatorsの開発が盛んになることを期待したい。この二つを実際に使ってみたら、誰もがその気になるだろう、と彼は言う。

“Operatorの基礎部分の多くは、Kubernetesのコミュニティが作った。彼らとうちとの、初めての協働で、ドメイン固有の知識をKubernetesの上で管理するやり方が、だんだん分かってきたんだ。これをいわばパターン(‘デザインパターン’)として、この便利な仕組みをもっと広げてほしい”、と彼は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSのOpenStackクラウドを15分でデプロイできるツールStackanetes(OpenStack+コンテナ+Kubernetes)がテクニカルプレビューに達す

Aerial view of container terminal

6か月前に、小型のLinuxディストリビューションとコンテナ管理サービスを提供するCoreOSは、その複雑さで敬遠されがちなOpenStackによるプライベートクラウドを、コンテナと、Googleのコンテナ管理ツールKubernetesを利用して容易にデプロイできるやり方をデモした。そして今日(米国時間10/26)同社は、そのツールのテクニカルプレビューのローンチにまでこぎつけ、誰もがたった一つのコマンドで、Kubernetes上のOpenStackをわずか15分でデプロイできるようになった、と発表した。

この、OpenStackとKubernetesをセットにしたプロダクトは“Stackanetes”と呼ばれ、CoreOSのチームは残念ながらこの奇妙な名前を気に入っているのだが、OpenStackの最新リリースであるNewtonを使用し、そのプラットホームのすべてのインフラストラクチャサービスを揃えた完全な高可用性OpenStackデプロイメントをセットアップする。

しかしOpenStackのクラウドをセットアップしている企業の多くは、Mirantis, Canonical, HPEなどのサードパーティベンダを利用してミッションクリティカルなワークロードをセットアップしている場合がほとんどだから、15分自力セットアップを訴求するCoreOSの今回のプロダクトは、一種のスタントでもある。しかしこれにより、OpenStack/コンテナ/Kubernetesという組み合わせが、少なくともOpenStackのベーシックなデプロイを、これまでになく、大幅に簡易化することを、多くの人びとに見せつけることはできる。これまで、OpenStackを使うことなど考えたこともなかった企業すら、前向きの関心を示すかもしれない。

StackanetesはコンテナエンジンとしてDocke Engineではなく、それと競合するCoreOSのrktを使用し、クラスタオーケストレーションツールとしてKubernetesを用いる。またCoreOSのチームによれば、Kubernetes自身もそのキー-ヴァリューストアとしてCoreOSで育ったetcdを使用している。

CoreOSのこのプロダクトでは、OpenStackのクラウドをセットアップするために必要なKubernetesの全オブジェクトが、約300行のYAMLのマークアップで定義されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSがRedspreadをチームに加えてTectonicによるコンテナ管理を一層容易に

shutterstock_145340113

CoreOSが今日(米国時間10/17)、Redspreadのファウンダー(複数)を雇用したことを発表したY Combinatorで育ったRedspreadは、Kubernetesのコンテナクラスタによるソフトウェアのデプロイを手伝う、サービスやツールを提供している。今回のトップ引き抜きにより、RedspreadのオープンソースツールもCoreOSの傘下になる。

今日の発表では、RedspreadがCoreOSに“参加する(joining)”となっていて、CoreOSのスポークスパーソンは“参加する”の意味をはっきり言わない。はっきりしているのは、Redspreadの協同ファウンダーでCEOのMackenzie Burnettと、CTOのDan GillespieがCoreOSのチームに加わり、同社のオープンソース製品をCoreOSが管理する、ということだけだ。

hero-screenshot

Crunchbaseによると、Redspreadはこれまで24万ドルの資金を調達しており、また今回の“参加”に際して、ある程度のお金が動いたものと思われる。

Redspreadの主力製品であるSpreadは、Kubernetesによるクラスタを容易にデプロイし、Dockerコンテナ群を実稼働状態(プロダクション状態)までもっていく、コマンドラインツールだ。Spreadはユーザーのインフラストラクチャのバージョン管理を行い、必要なら旧バージョンへのロールバックもやってくれるが、そのために内部でgitを使用している。

CoreOSにはKubernetesによるコンテナのデプロイと管理を助けるツールTectonicがすでにあるが、Redspreadのコラボレーション的デプロイツールは、Tectonicに統合される予定だ。

CoreOSのCEO Alex Polviは、発表声明でこう述べている: “RedspreadがCoreOSに参加してくれたことに、ワクワクしている。その優れたチームが来てくれたことによって、ユーザー企業のためのKubernetes開発で弊社は、ますます優位に立てる。またKubernetesの利用は、Tectonicの利用によっても、なお一層容易になる。”

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

いまさら聞けないコンテナ入門

wtf-containers

いまどき開発者会議に行って、ソフトウェアコンテナについて聞かずに済ますことはできない:Docker、Kubernetes、Mesos、その他多くの海事にちなんだ名前が耳に入ってくる。Microsoft、Google、Amazonそして他の皆も、昨年あたりからこのバンドワゴンに飛び乗っているようだ、だが皆が夢中な理由は何だろう?

コンテナがこのように大変な注目を集める理由を理解するために、まず物理的コンテナのことを少し考えてみよう。現代の海運業界が、現行の形で機能しているのは、私たちが輸送用コンテナサイズに対して、限られた数の標準化をしているおかげである。この規格が出現する前には、大量に何かを出荷することは、複雑で面倒なプロセスだった。たとえばスマートフォンが載せられたパレット(フォークリフトですくい上げることのできる荷台)を、船から降ろしてトラックに積むときに、どれほど苦労するか想像してみると良いだろう。アジアからスマートフォンを持って来る際に、特化した船を使う代わりに、私たちは、荷物を全てコンテナに収納することができる。そうしたコンテナがどのコンテナ船にもフィットすることは保証されている。

ソフトウェアコンテナの背後にある考えは基本的に同じだ。完全なオペレーティングシステムとソフトウェア(およびあなたのソフトウェアが依存するソフトウェアも)を出荷する代わりに、単にあなたのコードとそれが依存するものだけをコンテナへパックすれば、どこでも動作させることができる ‐ それらは通常かなり小さいため、1台のコンピュータ上に多くのコンテナを詰めることができる。

なぜこれが、そんなに大したことなのだろう?コンテナが普及する前には、いわゆる「仮想マシン」が、1台のサーバーで互いに独立した多くの異なるアプリケーションを実行させる手段として、有力なものだった。それこそが第1世代のクラウドアプリケーション(そしてウェブホスティングサービスまでも)を可能にしたテクノロジーだったのだ。すべてのアプリケーションのために、いちいち新しい物理サーバーを立ち上げていたら、コストが屋根を突き破ってしまっていただろう。

仮想マシンの動作は、オペレーティングシステムとコードを一緒にパッケージすることで行われる。仮想マシン上のオペレーティングシステムは、自分自身の専用サーバー上で動作していると思っているものの、実際には、サーバーを多くの別の仮想マシンたちと共有しているのだ ‐ それぞれの仮想マシンがそれぞれのオペレーティングシステムを持ち、そしてお互いを知ることはない。それら全ての仮想マシンの下にあるのが、ホストオペレーティングシステムで、これら全てのゲストそれぞれに、自分が世界の中心だと思わせる役割を果たしている。しかしこれが問題であることはおわかりだろう。ゲスト仮想マシンは基本的にエミュレートされたサーバー上で動作し、そのことは多くのオーバーヘッドを生み出し、動作を遅くする(まあその代わり、同じサーバー上で沢山の異なるオペレーティングシステムを実行できるのだが)。

輸送用コンテナの話に沿うならば(そしてそのメタファーを不条理まで突き詰めるならば)、これは巨大なコンテナ船を所有することに似ている。その巨大なコンテナ船には沢山のプールがあり、そのプールにはそれぞれ特別なコンテナ船が浮かんでいるのだ。

それぞれのコンテナは全く異なる動作をする。それらは単にアプリケーションと、それが依存するライブラリやフレームワークなどだけを含むので、1つのホストオペレーティングシステム上に沢山のコンテナを置くことができる。サーバー上のオペレーティングシステムは、1つのホストオペレーティングシステムだけで、コンテナたちはそれと直接対話をすることができる。これによって、コンテナを小さく、オーバーヘッドも著しく低く保つことが可能になる。

仮想マシンは、ゲストとホストオペレーティングシステム間のエミュレーション層として、いわゆる「ハイパーバイザー」を使用する。コンテナの場合、コンテナエンジンが大雑把ではあるがこれに対応している。中でもDockerエンジンが現在最も人気の高いものである。

コンテナは、ずいぶん昔にLinuxのコア機能となったのだが、それらはまだまだ使うことが難しかった。Dockerはコンテナを使いやすくするという触れ込みで立ち上がり、開発者たちは素早くそのアイデアを理解した。

コンテナは、開発者たちが、自分のコードがどこにデプロイ(配備)されても、変わらずに実行できるようにすることを容易にする。そしてそれは、しばしば「マイクロサービス」と呼ばれるものを実現可能にする。ひとかたまりの大きなモノリシックなアプリケーションにする代わりに、マイクロサービスはアプリケーションを互いに対話できる小さな部分に分割する。これが意味することは、異なるチームがアプリケーションのそれぞれ異なる部分に対して作業をしやすくするということだ。それぞれの部分が対話する方法を大幅に変えない限りは、という条件付きだが、チームは独立して仕事を進めることができる。これにより、ソフトウェア開発が加速され、起き得るエラーを簡単にテストすることができるようになる。

これらのコンテナすべてを管理するには、他の専用ソフトウェア群が必要だ。その1つの例がKubernetes(当初Googleによって開発された)で、これはコンテナを異なるマシン上に送り出す手伝いを行い、きちんと実行されることを保証し、需要が高まった際に特別なアプリケーションを載せた幾つかのコンテナを自動的に立ち上げる。そしてもしコンテナ同士にお互いを認識させたいのなら、それぞれのコンテナにIPアドレスを割り当てる、仮想ネットワークを設定する手段が必要となる。

コンテナは、あらゆる種類のアプリケーションを実行することができるものの、仮想マシンとはかなり異なっているために、大企業がいまだに使っている多くの古いソフトウェアが、このモデル上には移行していない。しかしながら、仮想マシンは、そうした古いアプリケーションをAWSやMicrosoft Azureなどのクラウドサービスに移行させる役に立つ。このため、コンテナには多くの利点があるにも関わらず、仮想マシンも簡単にはなくなることはないだろう。

[ 原文へ ]
(翻訳:Sako)

Runnableがマイクロサービス時代のための開発環境の迅速なセットアップをサービスとして提供

runnable

2013年にRunnableは、“コードのYouTube”になることをミッションに掲げてローンチした。ユーザーはこのサイトで、コードの小片を見つけられるだけでなく、それを動かしてみることもできた。しかしそれも少しずつ変わり、今日(米国時間9/20)この資金潤沢なスタートアップは、これまでとはやや違う方向性を打ち出した。Runnableが今日リリースしたツールにより企業は、デベロッパーの各コードブランチ用の完全な開発〜テスト環境を迅速に整えることができる。今日からこのサービスはベータを脱して一般公開される。

RunnableのCEOでファウンダーのYash Kumarは、今日の発表声明の中で述べている: “RunnableのCodeSnippets(コード小片)コミュニティでは、開発ワークフローのための環境をオンデマンドで作りたい/欲しいという声がとても多い。今日、すべての開発チームのために、そのためのツールを提供できることは、とても喜ばしい”。

同社のトップは今でもKumarだが、社長兼COOにKen Olofsen、取締役にEric Wittmanを迎えたことにより、元Atlassianのベテラン営業経験者を二人も獲得したことになる。新しいサービスを、企業やデベロッパーに強力に売り込んでいくためだ。OlofsenはAtlassianで主に開発ツールとJIRAとマーケティングを担当し、Wittmanは開発ツールのゼネラルマネージャーだった。

1

Olofsenはこう説明する: “今日のアプリケーションは、コンポーネントやマイクロサービスといった小片の集まりとして構成され、デベロッパーはそれぞれの小片を担当する小さなチームに分割される。しかしこのやり方ではデベロッパーが、自分が担当する小片がアプリケーション全体の中でどう働くのかを理解しないまま、納品まで行ってしまう。納品直前のステージングの段階では、各デベロッパーが自分が担当する小片の機能しかチェックできない。Runnableが提供しようとしているのは、毎回のコードの書き換えやブランチをアプリケーション全体としてテストできるような、オンデマンドの環境だ”。

小片寄せ集め主義の弊害を克服するためにRunnableが作るオンデマンドの環境は、すべてのコード書き換えやブランチをGitHub上で行い、そこでは完全な形のアプリケーションを伴うフルスタックの環境が提供される。Runnableはこれらの環境の作成にAWSを利用し、そのセットアップ過程は30秒前後で終わる。

プロジェクトによっては、そういう環境を何百も用意しなければならないが、しかし課金は月額9ドルでアプリケーション単位だ。必要な環境の数とは無関係だ。

Wittmanはこう語る: “今のデベロッパーや彼らを抱える企業は、全員が今からすぐ使える(複数の)環境を求める。パイプライン型の開発モデルは、消滅するだろう”。

Runnableのこの発想は、タイミングも良かった。コンテナによって、デベロッパーがコードをテストするためのこのような短命の環境を立ち上げることが、容易・迅速・安上がりになっている。それと同時に企業は、ますます敏速にアジャイルに動かなければならないことも自覚している。マイクロサービスという考え方を、企業も受け入れざるをえない。

Runnableの現在の顧客には、Cratejoy, DoorDash, Hitch, Udemyなどがいる。サンフランシスコに本社のある同社は、これまで1000万ドルの資金を調達した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloud FoundryがDocker互換のコンテナ管理システムDiegoを立ち上げ、DEAを廃棄へ

steel foundry in Redcar clouds billowing

PivotalとVMwareから孵化したオープンソースのPaaS企業Cloud Foundryが今、新製品のコンテナ管理システムDiegoに力を入れている。同社はこれまで、コンテナの管理にDroplet Execution Agents(DEA)と呼ばれるものを使ってきたが、しばらく両者を並行して使ってみた結果、これからはDiego一本に絞ることにした。この管理システムにより、一つのクラスターの中で最大25万までのコンテナを動かすことができる。

Cloud Foundryのユーザー企業でそれほど大規模にコンテナを使っているところは、まだ少ない。しかし最近のエンタープライズデベロッパーたちは口を揃えて、企業におけるコンテナの採用は多くの人が想像する以上に急成長している、と言う。Cloud Foundry自身の調査でも、今や多くの企業がコンテナを評価中だ。ここ数か月の動向を見ると、実装数はまだそれほど多くはないけれども。

unnamed

Cloud Foundryが目をつけているのは、良質なコンテナ管理サービスにより大規模な展開が容易になれば、企業ユーザーの今後のコンテナの需要とデプロイメントも増え、Cloud Foundry自身の顧客ベースも安定拡大することだ。

しかし、GoogleのKubernetesやDockerのツールなど、既存の(そして比較的よく使われている)コンテナ管理サービスがすでにいくつかある中で、なぜCloud Foundryは、自社製に踏み切ったのだろうか。

Cloud FoundryのCEO Sam Ramjiによると、重要なのは、Dockerによってコンテナが人気者になる以前から同社は、DEAによりコンテナを使ってきた。“しかしそれは標準技術が登場する以前のことなので、かなり癖の強いシステムだった”、とRamjiは語る。たとえば、DEAが前提するコンテナのフォーマットは、独自のものだ。しかしDiegoは、Docker互換だ。つまりそれは、既存のリッチなコンテナエコシステムに、そのまま入っていける。そしてCloud Foundryは、ここ3年ぐらいの間に急速に勃興してきた新しいコンテナ技術の数々を、利用できる。

同社は、DEAの寿命を2017年まで、としている。CloudFoundryの公認ベンダは、それ以降DEAを使ってはならない。しかしこのことは、デベロッパーにはほとんど無関係だろう。Cloud Foundry上でアプリケーションをデプロイするために使うコマンドは、すべて前と同じだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AppFormixの総合クラウド監視最適化サービスが監視対象として仮想化ネットワークをサポート

gettyimages-476365440

AppFormixは、Rackspaceなどのクラウドプラットホームを利用する企業の、OpenStackおよびコンテナベースのクラウド上のシステム監視し最適化する。その同社が今日、そのサービスにvirtualized network functions(VNF, 仮想化ネットワーク機能)*のサポートを加えた、と発表した。〔*: 日本では言葉として、NFV(Network Function Virtualization, ネットワーク機能の仮想化)の方がよく使われるようだ。〕

これまでのネットワーキングは、高度な専用ハードウェアを駆使するシステムだったが、しかし最近では徐々に、ありふれた日用品のようなコンピューターの上でソフトウェアを動かしてネットワークを実現するようになった。ハードウェアに要する費用は激落した。ただしネットワーキングという機能は、とくに通信業界などではレイテンシー(遅延)に敏感だ。しかもこの業界はVNFの主要ユーザーのひとつであり、またOpenStackのユーザー企業がとても多い。しかし、厳しくチューニングされた専用ハードウェアではなく、安価な日用品的コンピューターを使うと(そのままでは)、遅れやジターといった問題に悩まされがちだ。

AppFormixの協同ファウンダーでCEOのSumeet Singhによると、同社のサービスを利用するとジターを最大70%減らせる。彼は述べる: “VNFはまだ新しい技術だが、通信企業はこれによりネットワーキングをハードウェアからソフトウェアへ移行させようとしている。そして問題にぶつかる。弊社のサービスは一種のリアルタイムシステムで、これら仮想化ネットワークの状態…あらゆる性能要素…を常時監視し、分析し、その結果に基づいて最適化する”。

VNFの場合、最適化とは、ワークロードの構成やリソースの割り当てを変えることだ。AppFormix自身の調査によると、CPUの割り当てはジターにあまり影響しない。むしろ、問題の原因は多くの場合、キャッシュやメモリの使い方にある。たとえばAppformixのサービスがキャッシュの割り当てを適正化すると、ジターは減少する。

Singhが強調するのは、仮想化ネットワーキングの常時監視と最適化が重要なのは通信企業だけでなく、ユーザーを満足させる迅速なネットワーキングサービスをコンスタントに提供しなければならないeコマースなどでも重要、という点だ。

AppFormixの総合的なクラウド最適化サービスにVNFのサポートが加わったことにより、OpenStack(によるクラウド)とKubernetes(によるコンテナ管理)をベースとするクラウドシステムのユーザー企業はより安心して、ネットワーキングのソフトウェア化に取り組めるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

OpenStackがもうすぐKubernetesを利用してコンテナ内で動くようになる…Google, Intelなど主要プレーヤーが尽力

Aerial view of container terminal

企業等がAWS的なクラウドコンピューティングサービスを自分のデータセンターで動かせるためのオープンソースのプロジェクトOpenStackが、最近の数回のアップデートを経てコンテナのサポートを加えてきた。しかし、OpenStackそのものをコンテナで動かす、となると、別の話だ。CoreOSはStackanetesという奇妙な名前のプロジェクトで、OpenStackをコンテナに入れて動かすための環境を作ったが、それはOpenStackのコミュニティやOpenStackの中核的なデプロイおよび管理のためのツールの、外部で起きたことだ。

しかしもうすぐ、Mirantis, GoogleおよびIntelなどの尽力で、デプロイメントツールOpenStack Fuelが、CoreOSの〜〜netesの場合と同じく、KubernetesをOpenStackのオーケストレーションエンジンとして使えるようになる。理想としては、これにより、OpenStackの大規模なデプロイメントの管理が容易になるだろう。

MirantisのCMO Boris Renskiはこう語る: “コンテナのイメージフォーマットとしてはDockerが、そしてコンテナのオーケストレーションではKubernetesが今やスタンダードだから、分散アプリケーションのオペレーションにやっと継続性が見えてきた。KubernetesとFuelの組み合わせでOpenStackの新しいデリバリモデルが開かれ、それによりアップデートをより迅速にこなして、顧客に結果を早く届けられる”。

これは、もうすぐOpenStackをGoogleのクラウド上のコンテナで動かせるようになる、という意味でもある。というか、Kubernetesをサポートしているクラウドサービスならどこでも…。

Googleの上級プロダクトマネージャーでKubernetesプロジェクトのファウンダーの一人でもあったCraig McLuckieは今日の発表声明で、こう述べる: “FuelでKubernetesを利用すればOpenStackが本格的なマイクロサービスアプリケーションになり、レガシーのインフラストラクチャソフトウェアと次世代のアプリケーション開発とのあいだのギャップを橋渡しする。コンテナと高度なクラスタ管理を、障害に強くスケーラビリティの高いインフラストラクチャの基盤として利用すれば、多くの企業が大きな利得を得るだろう”。

Mirantisのチームは以前、IntelやCoreOSとともにStackanetesを手がけたことがあり、そのときの経験や見聞が今回の新しいプロジェクトにとって実質的に概念実証になっている。“今日(米国時間7/25)発表したGoogleやIntelとのイニシアチブでもCoreOSとのコラボレーションを継続し、Stackanetesに見られるものの一部を取り入れたい”、とMirantisのスポークスパーソンは語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Kubernetesがバージョンアップ: 複数のクラスター、ゾーン、クラウドにまたがるなどプロダクション対応を強化

A warm glow highlights the ship's wheel on board the sailing yacht "Sincerity" as sunset approaches.

Googleが、同社のオープンソースのコンテナオーケストレーションサービスKubernetesのニューバージョンバージョン1.3を発表した。

1.3は、プロダクション(本番稼働)におけるコンテナを管理するための、よりスケーラブルでロバストなシステムをユーザーに提供することに焦点が当てられている。また、今度のKubernetesは、CoreOSのrktやOpen Container Initiative (OCI)、Container Network Interface(CNI)などが提起している新しい規格もサポートしている。

GoogleのプロマネAparna Sinhaが、今日(米国時間7/6)の発表声明でこう書いている: “ユーザーが自分たちのプロダクションのデプロイをスケールしていくに伴い、サービスを複数のクラスターやゾーン、あるいはクラウドの境界にまたがって利用したい、という声が大きくなっている。また、ステートフルなサービスなど、もっと多くのワークロードをコンテナ化したい、という要望もある。今回のリリースでは、これら二つの問題への対応にとくに力を入れた。また、新しいデベロッパーやエンタープライズがより容易にKubernetesを利用でき、彼らが大小さまざまなスケールで分散システムを管理できるよう心がけた”。

flower

今回のアップデートでユーザーは、複数のクラスターから成るサービスをセットアップでき、しかもそれらは複数のクラウドからホストされていてもよい。Googleによると、これによってハイブリッドでマルチクラウドなシナリオにも対応でき、停電などの事故にも強い高可用性のクラスターを作れるようになる。

ニューバージョンのKubernetesは、データベースのようなステートフルなアプリケーションをコンテナで動かしたい、という多くのデベロッパーの要望にも応えている。関連して、オートスケーリングのサポートも改良され、“これからの顧客はクラスターのサイズを気にする必要がなく、デベロッパーは、クラスター自身が需要の変化に対応できる、と期待してよい”、とGoogleは言っている。

Dockerのランタイムに対する代替的なコンテナランタイムとしてrtkのサポートが加わったことは、それほど意外ではない。GoogleはKubernetesが、拡張性のあるオープンなプラットホームであることを望んでおり、コンテナへのニーズも多様であることを知っている。Dockerの、自由でプラッガブルな性質はもともとKubernetesにも合っているが、それにもかかわらず、あえてユーザーに、自分の好きなパーツの利用を許そう、というのだ。

Kubernetes 1.3はGoogleの、このところ人気が盛り上がっているContainer Engineサービスにも展開される。これは基本的には、Googleのクラウドプラットホーム上の完全な管理を伴うKubernetesサービスだ。Googleによると、Container Engineのユーザーは90日ごとに倍増しており、また今回のKubernetesのニューバージョンにより、ユーザーはひとつのクラスタでこれまでの倍のノード(最大2000まで)動かせる。そしてサービスは、複数の可用性ゾーンにまたがって利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Dockerがコンテナ化されたソフトウェアのためのマーケットプレースを立ち上げ…それは目下の急成長市場

v5qcdypiuxteaes1f7gnlbntzqrqzn7y9abztaxoq8q

Dockerが今日(米国時間6/21)、シアトルで行われた同社のデベロッパーカンファレンスで、Docker化された検証済みで信頼できるソフトウェアのマーケットプレースDocker Storeの、非公開ベータを発表した

これは一種のセルフサービス型のポータルで、Dockerのエコシステムを構成するパートナーたちが自分たちのソフトウェアをDockerイメージで公開し配布する(有料or無料)。そしてユーザーはそれらのアプリケーションを、容易にデプロイできる。

Dockerはすでに、コンテナの(コンテナ化したソフトウェアの)レジストリを(主にデベロッパー向けに)提供しているが、今度のDocker Storeはエンタープライズのニーズに対応する。同社によればこのストアはエンタープライズに、“コンプライアンスを満たし商用サポートを伴うソフトウェアを、信頼性のある、検証済みのパブリッシャーから、Dockerイメージとして提供する”。有料のソフトウェアもあれば、無料のものもある。有料の場合は当然ながらお店(Docker Store)がマージンを取る。ただしそれらの詳細は、現時点では不明だ。

IMG_20160621_095244

公開の過程はコンテナイメージのクォリティーに焦点が置かれ、すべてのコンテンツをDockerが検証し、企業のコンプライアンスのためにライセンス情報も含める。

同社は今日の発表声明で述べている: “ここ二年ほどで、Docker化されたコンテンツの利用と作成が急増している。コンテンツに対するこのような需要と、企業内におけるDockerの利用の拡大に伴い、当然ながら、セキュリティとコンプライアンスのニーズも高まっている”。

_7UUhyY5FotRVCj9RtoKrrnTzqrqzN7Y9aBZTaXoQ8Q=

Dockerによると、最近の2年間でコンテナ化されたアプリケーションは3000%増加して46万種に達し、Docker Hubとイメージリポジトリからとり出されたイメージの数(ダウンロード数)は40億を超えている。マーケットプレースの開設によってパブリッシャーたちは、同社の継続的に成長している顧客ベースにアクセスできる。

Docker Storeはまだ非公開ベータだが、おそらくパートナーのパブリッシャーたちをもっと増やしてから一般公開されるのだろう。現在のパートナーには、Chef, New Relic, Citrix, Splunk, Nginxなどがいる。

IMG_20160621_095316-01

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

DockerがコンテナのオーケストレーションをDocker Engineに統合、単独サービスを不要に

img_20160619_175158

Dockerが今週シアトルで行ったデベロッパーカンファレンスは、事前にチケットが売り切れてしまう盛況だったが、そこでは同社のメインの製品であるDocker Engineに新しい大きな要素が加わった。これまで同社は、コンテナの構築、それらのデプロイ、オーケストレーションなど、主な工程を分割して提供していたが、今回はDocker Engineの中にコンテナのオーケストレーション機能を組み込んだ。

同社はまた、そのツールをMicrosoftのAzureやAmazonのAWSの上で、より容易にデプロイできるようにした。

DockerのCOO Scott John Johnstonによると、これらはすべて、コンテナをもっと使いやすくし、またCEOのBen Golubが今日(米国時間6/20)のキーノートで強調したように、コンテナのオーケストレーションを民主化するための努力の一環だ。コンテナのオーケストレーションは、KubernetesやMesosなど、そのためのフレームワークがすでにいろいろあるにも関わらず、依然としてデベロッパーにとって大きな痛点だ。

docker_engine_swarm_mode

今回Dockerがやったことは、昨年11月にベータを終えたクラスタリングサービスDocker Swarmと、オーケストレーションサービスComposeの、Engine本体中への統合だ。これからは、デベロッパーが”Swarmモード”をonにすると、Dockerエンジンの自己治癒型でお互い同士を発見できるクラスターが作られる。Swarmモードにはオーバレイネットワークのサポートが含まれ、それにより自動的サービス発見とロードバランシングのツールが利用できる。また新たに提供されるService Deployment APIにより、デベロッパーはこれから使うサービスや画像、ポートなどを宣言できる。

Johnstonによると、Dockerの既存のSwarmとComposeツールには何も変更がない。それはユーザーの既存のデプロイを壊したくないからであり、また、サードパーティのツールと併用できるという約束に、違反したくないからだ。同社によると今回の統合化によって“Dockerプラットホームを軸とする構築の機会がさらに拡大され”、またそのプラグイン方式のアーキテクチャにより、今後はネットワーキング、ストレージ、ログ取り、パートナーのモニタリングなど、これらのネイティブなオーケストレーション機能を利用する多方面の進化が期待できる。

docker_swarm-commands

しかしそれと同時に、彼によれば、これらの新しい機能を使いたいと思っているデベロッパーとシスアドミンの両方が、すでに使い慣れている同じDockerコマンドラインを使えるし、アプリケーションをテストしデプロイするために必要なインフラストラクチャをより容易に構成稼働できる。“分散コンピューティングは難しいが、シスアドミンは分散アプリケーションを管理するために学校へ戻るわけにもいかない”、とJohnstonは語る。“これを構築することによって、ノードが複数ある場合にも、必要なことをすべてオーケストレーションツールがやってくれる”。

またDockerの主張によれば、そのシステムは、外部のインフラストラクチャに依存する特定のエラー発生箇所を持つことがない。セキュリティ機能をSwarmモードにも拡張したため、すべてのノードがTLSとDockerのCryptographic Node Identityを使って通信し、アドミンがやることは、ワークロードを信頼できるノードへディスパッチするだけだ。

これらの新しい機能をすべて揃えたDocker 1.12は今、リリース候補(リリースキャンディデート)を利用できる。一般公開は、7月を予定している。その後さらに徹底的なテストを重ねて、Swarmモードなどの新しい機能が商用製品として提供されるのは、今年の後半だ。

IMG_20160620_092304

DockerをAWSやAzureで使う

これらの新しい機能と並行してDockerは今日、Docker for AWSとDocker for Azureを発表した。これにより、Docker Engineをこれら両プラットホームで容易にデプロイできるようになる。Johnstoneは語る、“最近の弊社の拡大した市場には、これまで自分たちが選んで使ってきたインフラストラクチャの上でそのまま、Dockerを使いたい、というユーザーが少なからずおられる”。そこでたとえばDocker for AWSは、AWS自身のインフラサービス(AWS Autoscaling, Elastic Load Balancer, Elastic Block Storeなど)とタイトに統合され、Azureエディションは同様に、Microsoftのクラウドサービスと統合化されている。

ここにGoogleのCloud Platformが抜けていることについてJohnstonは、まず市場の圧倒的多数派に対応した、という。Google Cloudのユーザーは、まだ少数派だ。しかし、複数のクラウドを使いたいというエンタープライズも少なくないので、今後のDocker製品のスケーリングと拡張においては、GoogleやRackspaceなどもサポートしていきたい、と彼は述べる。

IMG_20160620_100449

さらにまた、Docker for OS X(近未来のDocker for macOS?)とDocke for Windowsが非公開ベータを終えて今では公開ベータが提供されている。いずれもDocker体験としては同じだが、AWSやAzureの場合と同様、これらのプラットホーム向けに特別にチューニングされているバージョンだ。

ただしDocker for AWSとDocker for Azureの方は、当面、非公開ベータでのみ提供される。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

LinuxとWindows、両方のコンテナ管理を引き受けるContainerXがベータを終了、無料プランもあり

2294098768_cbe540b30c_o

コンテナ管理プラットホームを選ぼうとすると、昨今は選択肢が多くて迷ってしまう。でも、LinuxとWindowsの両方をサポートしてて、マルチテナントで、導入したらすぐに使えるようなソリューションとなると、候補はそれほど多くない。

今日(米国時間6/16)ベータを終了したContainerXは、DockerとWindows Containersの両方をサポートし、またプライベートとパブリックの両方のクラウドで使える。ただしWindowsの方は、Windows Server 2016がまだプレビューの段階なので、サポートは実験的だ。

ContainerXのCEOで協同ファウンダーのKiran Kamityによると、ベータ期間中に同社に接近してきた企業の1/3以上は、レガシーの.NETアプリケーションをコンテナ化したいために同社のプロダクトに関心を示している。さらに別の1/3は、マルチテナントのサポートに関心があり、残りは、ターンキーのコンテナ管理サービスを探していた。

コンテナに関してKamityがWindowsに関心を持つのは当然だ。彼の最初のスタートアップRingCubeは、Dockerが話題になる前からコンテナをWindowsに持ち込んでいた。RingCubeはその後、 Citrixに買収された

  1. unnamed-15.png

  2. unnamed-16.png

  3. unnamed-17.png

Kamityによると、コンテナ管理のソリューションは賭に参加している企業がとても多い。Windowsのサポートは、そんな競争の中でContainerXが自己を差別化する方法のひとつだ。もうひとつの同社の特長は、一部のチームメンバーがVMware出身であることもあって、VMwareのツールとしっかり統合されていること。それに、ContainerXのエラスチックなクラスターとコンテナプールも魅力だ。コンテナ管理サービスは必要に応じてのスケールアップ/ダウンを自動的に行うものが多いが、ContainerXの実装は複数のユーザーを効果的に隔離するので、障害からの立ち直りがはやい、という。

ContainerXの初期のサービスプロバイダークライアントのひとつであるAdvantage24は、東京で複数のデータセンターを運用している。そこの社長で協同ファウンダーのTerry Warrenはこう述べる: “今あるコンテナ管理プラットホームをほとんどすべて、ほぼ8か月かけて評価し、調査したが、最終的にContainer Xに決めたのは、Container Poolsのようなマルチテナント機能があること、ベアメタルのプラットホームを本格的にサポートしていること、そしてターンキーのユーザー体験が、完全なコンテナ管理ソリューションを求めているエンタープライズとサービスプロバイダーの両方にとって理想的だからだ”。

ベータを終えたContainerXには、三本柱の料金体系がある。無料のユーザーには最大100までのロジカルコアをサポート、ゴールドプランは中小企業向けの年額25000ドルのサービス、そして75000ドルからの大企業とサービスプロバイダー向けプランには、チャージバック(払い戻し)などの特典がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Linuxの新しいパッケージフォーマット、Ubuntu生まれのSnapsは、小アプリケーション群のためのコンテナのようだ

4772680734_489299f43f_o-1

Dockerのコンテナでアプリケーションを分散化する技術は、Linuxの世界の分裂をやや縫合することに役立っている。そして今度は、互いに会話/対話する、あるいは一緒にアップデートされる、複数の小さなアプリケーションのための新しいパッケージフォーマットが、同様の効果を期待している。それはUbuntuにアプリケーションをインストールするために、今年初めにCanonicalが導入したSnapsと呼ばれるパッケージングフォーマットで、今では複数のLinuxディストリビューションが、デスクトップやサーバー、クラウド、それに各種デバイスといった複数のプラットホームにわたって利用している。

2016-06-14_0957

Linuxの新しいパッケージングフォーマットは、RedHatのRPMやDebianのdebなどのフォーマットと競合するので、多くのディストリビューションがサポートしないかぎり、普及は難しい。Canonicalはしかし、Dell, Samsung, Linux Foundation, The Document Foundation, Krita, Mycroft*, Horizon Computingなどかなりの数のサポーターと、Arch, Debian, Gentoo, OpenWrt, Ubuntu, およびこれらのディストリビューションの派生系といったコントリビューターを集めることに成功した。そしてCanonicalによると、今ではSnapsはArchとDebianとFedoraの上、およびUbuntuベースのディストロであるKubuntu, Lubuntu, Ubuntu GNOME, Ubuntu Kylin, Ubuntu MATE, Ubuntu Unity, Xubuntuでネイティブに動き、またCentOS, Elementary, Gentoo, Mint, OpenSUSE, OpenWrt, およびRHELの上では目下検証が行われている。そのほかのLinuxディストリビューションの上でも、容易に利用できるそうだ。〔*: Mycroft, Microsoftではない!〕

Canonical自身が最初にSnapsのアイデアを実験したのは、Ubuntuの”Snappy”エディションの上だ。CanonicalのファウンダーMark Shuttleworthによると、Snapsは最初、CanonicalのディストリビューションであるUbuntuのために開発されたが、コミュニティの力でいち早くそのほかのディストリビューションにも広まっていった。

本誌のインタビューに対して彼は、“今日のニュースはUbuntu関連ではなくて、Linuxの分裂と多様化に関するニュースだ”、と語った。“多くのデベロッパーからのコントリビューションのおかげで、パッケージングアプリケーションSnapsは、すべてのメジャーなLinuxの上で、何も変えずにそのままで動く”。

Snapsのねらいは、ソフトウェアのベンダがLinuxベースのアプリケーションをもっと容易に配布できるようにすることだ。MozillaのFirefox担当VP Nick Nguyenが、声明文の中でこう述べている: “われわれは、ユーザーにすばらしい体験を提供し、Firefoxが多くのプラットホームで使えるよう、努力している。Snapsを導入したことによって、Firefoxの継続的最適化が可能になり、Linuxユーザーにも、もっともアップツーデートな機能を提供できる”。

Snapsの初期のユースケースとして彼が挙げるのは、Cassandraのような、複雑なデータベースを動かす必要のある、“依存性の巨大な塊のような”アプリケーションだ。それらのアプリケーションにはたくさんの依存性があり、インストールが難しい。またTelegramメッセージングやAtomエディターのような消費者アプリケーションはJavaScriptで書かれているので、Linuxで使えるけどLinux上に“インストール”はできない、そういうアプリケーションもSnapsは、部品を集めて束ねることができる。それらは互いに会話はできても、互いに、また他のデータからも隔離されている、とNguyenは述べる。そのためにSnapsは、カーネルの隔離機能と、特製のセキュリティ機構を使っている。

これらに加えて、Snaps中のアプリケーションはアップデートもできるし、旧バージョンへの復帰もできる。この機能はすでに、IoTで利用されている。

“IoTの市場は多様化が激しく、複雑であり、デバイスメーカーが完全なソフトウェアスタックを構築するのは高くつく”、と、Samsung Strategy and Innovation Center(SSIC)のエコシステム担当VP兼IoTゼネラルマネージャーのCurtis Sasakiは、声明文で述べている。“だからSamsung ARTIKモジュールをベースに新しいプロダクトを作るデベロッパーは、Snapsのエコシステムを利用してプロダクトのライフサイクルを加速したいのだ。そのためにこそわれわれは、ARTIKの上でSnapsが使えることを喜んでいる”。

Shuttleworthが創業したCanonicalは、Ubuntuのサポートや関連サービスが収益源だ。彼によると、Snapsにはそういう財務的事業的な視角はない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ChefのHabitatは多様なインフラストラクチャへの対応雑務からアプリケーションデベロッパーを解放する

Chefが今日(米国時間6/14)、Habitatをローンチした。それはアプリケーションを、いろんなインフラストラクチャの上でそのまま動けるようにパッケージする、オープンソースのプロジェクトだ。

Habitatは基本的に、アプリケーションを独自の軽量ランタイム環境で包み、それらをどんな環境でも動けるようにする。ベアメタルのサーバー、仮想マシン、Dockerコンテナ(+そのコンテナ管理サービス)、Cloud FoundryのようなPaaSシステム、などなど。

2016-06-14_1038

“アプリケーションをインフラストラクチャへの依存性から解放して、DevOpsが本来の仕事をできるようにすべきである”、とChefの協同ファウンダーでCTOのAdam Jacobが今日の声明で述べている。“オープンソースソフトウェアは世界中でこれからもどんどん作られていく。そんな中へHabitatを送り出すことは、たいへんすばらしい。アプリケーション中心の自動化が、現代の開発チームに彼らが本当に望むものを与える。それは、新しいアプリケーションを作ったら、ややこしいインフラの工事をいっさいしなくても、それをすぐに動かせることだ”。

Chefのチームによると、最近のソリューションはどれも、あまりにもエンタープライズへ視野狭窄していて、どの企業の環境も独自に深くサイロ化しているので、“われわれはソフトウェアを個々のサイロに合わせていちいち再設計しなければならない”、という。一方GoogleやFacebookのようなWebスケールの企業は独自のプラットホームをスクラッチから作り、それを作ることが彼らのビジネスになっているが、それはどんな企業にもできるやり方ではない。

そこでHabitatは、アプリケーションの見地から見て、アプリケーションを作り、デプロイし、管理するためのベストの方法は何か?、という問に答えようとする。それは、インフラストラクチャを定義するのではなく、アプリケーションが動くために何を必要とするか、を定義し、そこから出発する。そして、一種の“スーパーバイザー”であるHabitatがデプロイを担当し、またあなたがそこにデプロイしたいと考えている環境の、アップグレードやセキュリティポリシーの面倒も見る。

Chefのチームによると、レガシーのアプリケーションをHabitatに移植するのは、かなり簡単だそうだ。

Habitatのそんな約束は、そもそも、かねてからコンテナについて言われていたことと似ている。でもChefによると、Habitatはコンテナ体験を改良し、コンテナ管理の複雑性を大幅に減らした。そこで、ある意味ではこのプロジェクトは、コンテナに対するChefの反応のようでもある。コンテナは、少なくとも部分的には、同社のコアビジネスを脅(おびや)かしているのだ。そして当然ながらHabitatは、Chefの既存のDevOpsツールと問題なく併用できる。

Habitatを試してみたい人のために、Chefはチュートリアル集対話的なデモを提供している。

2016-06-14_0844_001

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSが古典的ビッグサーバーではなく分散コンテナクラスタ向けに最適化されたストレージシステムTorusをオープンソースでローンチ

shutterstock_127403000

CoreOSが今日(米国時間6/1)、同社の最新のオープンソースプロジェクトTorusをローンチした。Torusは、スタートアップやエンタープライズに、GoogleなどのWebスケールの企業が内部的に使っているものと同種の技術にアクセスさせよう、とする取り組みの一環だ。Torusの場合それは、分散ストレージである。

アプリケーションがコンテナでデプロイされ、それらがGoogle育ちのコンテナ管理サービスKubernetesを使っている場合、Torusはデベロッパーに、信頼性が高くてスケーラブルなストレージシステムを提供する。

CoreOSのBarak Michenerが今日の発表声明でこう述べている: “コンテナクラスタというインフラストラクチャにおけるパーシステントなストレージは、コンピューティングにおける今もっとも興味深い問題の一つだ。マイクロサービスが作り出し消費するデータの、膨大な量のストリームを、どこに保存すべきなのか。とりわけ、イミュータブルで離散的にコンテナ化された実行コードが、これほどまでに強力なデザインパターンになっているときには?”

つまりCoreOSのチームが主張するのは、既存のストレージソリューションはコンテナのクラスタが使うために設計されていない、という点だ。それらは大きなマシンの小さなクラスタを想定しており、一方今日のコンテナベースのやり方では、比較的小さなマシンで動く大規模なクラスタが主力だ。またコンテナのデプロイメントは、必要に応じてコンテナを迅速に始動しまたシャットダウンもする、というやり方だが、多くのデベロッパーは、これらのコンテナの上で動くアプリケーションにデータを供給できるパーシステントなストレージシステムを求める。

“クラスタの中で始動、停止、アップグレード、ノード間のマイグレーションを頻繁に繰り返すこれらのコンテナマイクロサービスのためにパーシステントなストレージを確保することは、モノリシックなアプリケーションのグループや、まして複数の仮想マシンが動く単一のサーバーを支えるストレージを提供することのように単純ではない”、とMichenerは書いている。

Torusは、ファイルの保存と取り出しにキー-ヴァリュー方式のデータベースを用いる。それならノード数数百までスケールできる、とCoreOSは主張する。今の、初期的バージョンのTorusは、ファイルをNetwork Block Deviceによるブロック指向のストレージとして露出する。しかしそのシステムは拡張性を前提としているから、今後誰かが必要なツールを作って、Torusの上でオブジェクト指向のストレージシステムがサポートされることを、CoreOSは期待している。

Torusは、CoreOSのLinuxディストリビューションCoreOSや、コンテナエンジンrkt、ネットワーキングツールflannelなどと共に、同社のオープンソースプロジェクトの一員になる。これらと、さらにそのほかの多様なツールが相まって、同社の商用製品であるコンテナ管理システムTectonicや、ソフトウェアコンテナの構築、保存、および配布を行うQuayなどを動かしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コンテナ管理のWeaveworksにGV(元Google Ventures)がシリーズBで$15Mを投資、オープンソースと商用サービスの併立へ

shutterstock_127403000

コンテナ管理ツールのWeaveworksが今日(米国時間5/11)、GV(元Google Ventures)がリードするシリーズBのラウンドで1500万ドルを調達したことを発表した。同社へのシリーズAで500万ドルを投資したAccelが、このラウンドにも参加した。同社の調達総額は、これで2000万ドルになる。

Weaveworksは、デベロッパー(dev)とエンタープライズのオペレーション(ops)の両方にとって最新のホットな技術であるコンテナを、管理しモニタしセキュリティを図るための一連のオープンソースのツールを作っている。しかし今回得られた資金は、オープンソースのプロダクトよりも構造性の明確なシステムを求める企業のために、商用製品を作っていくことに充てられる。

CEOのAlexis Richardsonは、今回の資金調達を発表するブログ記事で、“次のステップは統合化された商用製品の提供だ”、と述べている。同社にはクラウドサービスを提供していく計画もあり、それはまだベータの段階だ。

データセンターの進化史における最初の原生動物は、モノリシックな(一枚岩的な)アプリケーションだ。単一の巨大なアプリケーションを作り、それをセットアップしていく。アップグレードは大作業になるので、本当に必要になってからでないと、できなかった。

しかし今日では、デベロッパーはもっと迅速にアップデートしたいし、ユーザーは、変化の激しい市場の中でもっとも最新のツールを使って企業競争に勝ちたい。コンテナはアプリケーションを、複数のマイクロサービスの集まりへと分割する方法を提供する。それらは迅速にデリバリでき、自分の仕事が終わったらメモリから消えていく。

今の企業は、何百何千という大量のコンテナをデリバリし、そのそれぞれが、特定の時間にローンチしてディスクリートなタスクを実行しなければならない。大量のコンテナに関して、それらがすべて正しく行われるためには、ソフトウェアのコーディネーション努力がたいへんな仕事になるが、でも今日までは、デベロッパーとオペレーション(合わせてDevOps)たちは、自作のツールを適当に寄せ集めてそのプロセスを管理していた。

まだコンテナがアーリーアダプターのものだった時代には、そんな大変な仕事を誰もがやっていたが、でも技術がメインストリームに乗って市場の大きな部分を捕まえていくためには、企業が簡単に買えて簡単に使える出来合いのツールセットがあって、それらを既存のシステム管理体制に容易に組み込めないといけない。

そういう仕事をやってくれるのが、Weaveworksだ。同社はコンテナとそのまわりに存在する大量の可動部品のすべてを管理する方法を提供し、ユーザーが作ったコンテナのエコシステムを視覚化する。そしてそのエコシステムのライフサイクルに付き合いながら、複雑な仕事を単純化するためのお手伝いを提供する。

Weaveworks以外にもコンテナ管理を代行するサービスはあるが、同社はその業界のリーダーになれる、とGVは賭けている。今回の投資は、そのための賭け金である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetes/Docker Swarm両方をサポートするコンテナ管理プラットホームRancher LabsがシリーズBで$20Mを調達

rancher_labs

KubernetesとDocker Swarmの両方をサポートするコンテナ管理プラットホームRancher Labsが今日(米国時間5/9)、シリーズBで2000万ドルを調達したことを発表した。このラウンドをリードした同社の新しい投資家は、中国の投資企業GRC SinoGreenで、既存の投資家MayfieldとNexus Venture Partnersも参加した。これで同社の資金調達総額は3000万ドルになる

新たな資金は、営業とマーケティングの強化および、ユーザーの要望に合わせての製品の改良に充てられる、という。

Rancher LabsのCEO Sheng Liangは今日の発表声明の中でこう述べている: “コンテナ化によって企業は、アプリケーションのパフォーマンスと可利用性とコストを改良するための、すばらしいことがいろいろできるようになった。このパズルの次のピースはコンテナ技術の完成に貢献するものであり、それはコンテナの管理に関連するツールだ。ユーザーがコンテナ技術をフルに利用して、コンテナが約束する財務的および組織的な利益を得ていけるための、正しいツールを提供していくことが、弊社の目標である。弊社が今後もこの目標追求のための努力を継続できることは、きわめて喜ばしい”。

コンテナプラットホームの市場はやや混み合ってきたが、Rancher Labsによれば、KubernetesとDocker Swarmの両方をサポートしているために、Rancherはエンタープライズのコンテナ展開のための正しいツールになっている。しかしおそらくさらに重要なのは、 それが、使用するクラウドを特定しないこと、およびエンタープライズがパブリックとプライベート両方のクラウドと、さらに従来からのデータセンターで、コンテナを使えることだ。

なお、Rancherはマルチテナントプラットホームなので、各チームが自分たちのニーズに即したやり方で自分のクラスタを管理できる。この方式では、たとえば、Kubernetesのクラスタのセットアップがわずか5分でできる。(ただしクラスタのデプロイを初めてやる方は、もっとかかるかもしれない。)

コンテナのデプロイを容易にするために同社は、アプリケーションカタログを提供している。それを利用すると、かなり複雑なアプリケーションのデプロイでも、わずか数クリックで簡単に構成できる。

投資をリードしたGRC SinoGreenのパートナーDr. James Zhangは発表声明の中でこう語る: “コンテナはソフトウェアの開発とITのオペレーションを急速にディスラプトしつつある。Rancher Labsはそのすばらしいオープンソース技術によって、ソフトウェア開発の加速化のためにはコンテナ管理が重要であることを企業に示し、同じく適正なコンテナ管理によってアプリケーションをプロダクション(本番稼働)における高い信頼性と効率で動かせることを、示してきた”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSのStackanetesを使えばOpenStackのコンテナをKubernetesで管理運用できる

Container

オースチンで行われているOpenStack Summitで今日(米国時間4/26)CoreOSが、OpenStackと、Googleのコンテナ管理サービスKubernetesを共用できるシステムStackanetesを発表した。OpenStackとKubernetesはともにオープンソースのソフトウェアで、前者OpenStackは、企業がそれを使ってAWS的なクラウドコンピューティングサービスを自己のプライベートな、あるいはパブリックなクラウドで運用できる。Stackanetes(そう、あまり良い名前ではないかもしれない*)を利用すると、Kubernetesで管理されるOpenStackソリューションを、Kubernetes単独、またはCoreOSのTectonicプラットホーム上で動かせる。〔*: Stackanetesの’netes’はたぶん、Kubernetesの’netes’。〕

OpenStackプロジェクトは、Dockerの成功でコンテナの人気が盛り上がるよりも以前にスタートした。最初、OpenStackとコンテナという二つの技術は同じ市場を争う、と思われていたが、しかし実際には両者は相補的な関係にあることが分かってきた。CoreOSは最初、コンテナを作って動かすことを主眼とする同社の軽量Linuxディストリビューション(CoreOS)に力を入れてきたが、その後、同社独自のコンテナ管理プラットホームTectonicを立ち上げた。

DSC05973

そしてこれからは、Tectonicの上でOpenStackのクラウドを運用し管理することができる。CoreOSの仕事はすべてGitHubのレポジトリにあるので、CoreOSのユーザーであれば誰でもTectonicを使える。特別の会員登録などは、要らない。Tectonicを介さずに直接Kubernetes + OpenStackを使うこともできるが、その場合は、今日のデモで示されたように、コマンドラインからの操作になる。

Kubernetes自身がいわゆる自然治癒(self-healing)のためのツールセットを提供しているから、そこからOpenStackのHorizonダッシュボードを自動的にリスタートしたり、そのほかのダウンしたOpenStackコンポーネントを再起動したりできる。またもちろん、デプロイメントのスケールアップ/ダウンもできる。

CoreOSの協同ファウンダーでCEOのAlex Polviによると、重要なのはOpenStackが単なるソフトウェアである、という認識だ。同社のチームは3週間でこのサービスを構築し、今日それをGitHub上でリリースする。このやり方でOpenStackをデプロイすれば、OpenStackのサービスのライフサイクル管理が容易になり、OpenStackとコンテナの両者をデプロイするための単一のプラットホームが提供される、とCoreOSは主張する。そして、この構造の中でいつでも、OpenStackの上にKubernetesをデプロイできる。

Polviによると、結局のところ今回の仕事(Stackanetes)も、CoreOSの全体的なミッションの一環だ。すなわち、インターネットの安全を確保し、そしてGoogleのインフラストラクチャ(Polviの造語ではGIFEE)を誰もが利用できるようにすることだ。

OpenStack FoundationのCOO Mark Collierはこう語る: “Kubernetesの実力は、OpenStackコミュニティの一員として体験的によく知っている。最近行ったユーザー調査でも、KubernetesはOpenStackのクラウド上でアプリケーションを管理する方法として人気がある。今回CoreOSがKubernetesとOpenStackの両コミュニティを結びつけ、同社の広範なコンテナ専門技術/知識を寄与貢献してくれることは、非常に喜ばしい”。

IMG_20160426_094832 (1)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))