CoreOSがDockerのプライベートリポジトリをサービスとして代行提供するQuay.ioを買収

大規模なサーバファーム/データセンターコンピューティングを支えるカスタムLinuxディストリビューションCoreOSが今日、プライベートなDockerリポジトリをホストするサービスQuay.ioを買収したことを発表した。Dockerを使用するデベロッパの多くが、Docker自身のパブリックリポジトリまたは自分で作ったプライベートリポジトリを利用している。Quay.ioはリポジトリに関わるデベロッパの負担を取り除き、そして今日からは、CoreOSが最近ローンチした有料サービスManaged Linuxのユーザは、Quay.ioにより新たにローンチされたCoreOS Enterprise Registryにアクセスできる。

Quay.ioの二人のニューヨーク出身の協同ファウンダはCoreOSに加わり、CoreOSはこれを機にニューヨークオフィスを開設する。

Quay.ioのCEO Jake Moshenkoは今日の声明文の中で、こう述べている: “CoreOSのチームに加わりQuay.ioがCoreOSによる完全なソリューションの一部となることを目の当たりにするのは、すばらしい。チームとはすでに良好なお付き合いがあり、共にQuay.io + CoreOSの未来を目指していきたい”。

CoreOSのファウンダでCEOのAlex Polviが今週初めに語ったところによると、買収後もオープンソースでスタンドアロンのプロダクトとしてのQuay.ioは存続するので、現在の顧客が何かの変化を/に経験したり気づくことはない。CoreOSとQuay.ioはこれまでも協働関係を維持しており、したがって両社の一体化はきわめて自然である。CoreOSのエコシステムの中軸がDockerである。そのほかのオープンソース企業と同様にCoreOSも、無料のサービスを核とする有料サービスを、そのビジネスモデルとする。

Polviは同社のそのほかのプロジェクトについて多くを語らないが、彼によるとCoreOSはユーザに、大規模なクラスタを管理するための“完全なソリューション”を提供していきたい、という。たしかに目下同社が開発中なのは、大規模クラスタを管理するためのさまざまなツールであるようだ。しかしまた同時に彼は、CoreOSはつねにユーザにオープンなインタフェイスを提供する、と力説する。すなわちユーザは、有料サービスであれ無料のオープンソースツールであれ、使いたいソフトウェアコンポーネントを自由に選択でき、それによって相互運用性が行き詰まることはない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


DockerがPaaSプラットホームのdotCloudをcloudControlに売ってコンテナビジネスに専念

オープンソースのアプリケーションコンテナ技術Dockerの開発とメンテナンスを行っているDocker, Incが、同社のPaaSビジネスdotCloudをベルリンのcloudControlに売却したことを発表した。これによりDockerは、本業のコンテナソフトウェアに、より集中できることになる。

DockerのCEO Ben Golubは本誌TechCrunchに、これからは同社のビジネスのDockerの部分に集中したい、と語った。“これまでの18か月でDockerのユーザ数は急増した。今ではそれは、わが社が全力を上げてそれに集中しなければならないほどのレベルだ。そこでdotCloudには、もっと顧客のためになる新居を見つけてあげることになった”。

Golubによると、一定の厳しい条件を満たす買い手を探すのに苦労をした。まずそれは、すでに市場で高く評価されているPaaSベンダであること。そしてdotCloudプラットホームのメンテナンスを継続できる力量があること。つまり、dotCloudの500あまりの既存の顧客をぶんどることが、ねらいではないこと。

dotCloudのWebサイトでデベロッパサポートマネージャAndrew Rothfusが、“dotCloud PaaSプラットホームが、合衆国に進出しようとしているドイツのPaaSプロバイダcloudControl GmbHの合衆国の子会社に買収されたことを発表できることは、欣快至極である”、と述べている。

そのブログ記事はさらに、dotCloudの名前の存続と、顧客の事業の継続性(現状維持)を約束している。そしてそのために、新しい親会社とのスムーズな統合化のために、あらゆる努力を惜しまない、と。

Golubはこう付言する: “cloudControlはヨーロッパでは大手であり、合衆国進出もねらっているぐらいだから、能力は高い”。

Dockerは今とても人気の高いコンテナ技術であり、デベロッパたちの想像力をとりこにしている。本誌TechCrunchの6月の記事は、Dockerについて次のように述べている:

“Docker 1.0はGoogleが開発した新しいコンテナ技術の実装系の一つで、アプリケーションを、これまでのように変更を加えたり、開発サイクルの新しいステージに入るたびに、まったく新たな再インストールや再構成を必要とせず、安全に配布できる”。

dotCloudはもともと同社のミッションの一部ではないので、今回の売却は好機であった。またベルリンのcloudControlにとっても、意義のある買収だった。どちらもPaaSを主力とする企業であり、どちらも顧客のアプリケーションをクラウドに展開〜管理〜スケールすることが技術の中心だ。両社はいわば“似た者夫婦”であり、dotCloudはcloudControlに、既存の顧客によるインスタントな成長を与え、また合衆国市場におけるインスタントな足場も与える。

そもそも会社がDocker, Inc.に名前を変えてから以降、dotCloudには不安定感があった。そして今回の買収によりdotCloudの顧客企業はむしろ、このプラットホームのPaaSとしての長期的な存続に関して、より安心感を持てるようになった、と言える。

Golubによると、今Dockerの社員は50名で、うち4名がdotCloudを担当していた。彼らは今後もDockerの社員として、所有権の移行期90日間はdotCloudのサポートにあたり、その後はDocker本体の仕事に移行する。

Golubは買収の価額等を公表しなかったが、目的はお金ではなく、あくまでも、dotCloudの顧客たちに良き新居を見つけてあげることにあった、と言っている。“それはおもしろい取り引きだったけど、主な狙いは顧客たちに良い家を見つけてあげて、われわれが安心してDockerに専念できるようにすることだった”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


サーバ管理をプログラムにより自動化するChefが分析プラットホームTower3を買収してログを充実、Dockerサポートも改良

Chefは、グルメのためのこの夏の新作映画であるだけでなく、今最速で成長しているITオートメーションサービスだ。同社の今日の発表では前四半期の売上の前年同期比が182%の増だという。同社のようなサービスへの需要が、このところ大きい。それは今、企業のITを取り巻く環境が急速に変わりつつあることと、Chefがそういう彼らのために使いやすくて高速なサーバの構成と管理を提供しているからだ。

多くのスタートアップにとって、ChefとDockerの組み合わせ、そしてChefのオープンソースバージョンを無料で使えることが、AWSなどのクラウドサービス上で動かしているサーバの艦隊を管理するための、標準的なツールになっている。

Chefの売上の多くは言うまでもなく企業からなので、今日のアップデートも企業関連がほとんどだ。

まず、同社の分析サービスをレベルアップするために、ビッグデータと分析のプラットホームTower3を買収した。その分析サービスに今すでにChefのユーザはChefのアクションログとしてアクセスできる。そのログはサーバの変化をユーザに通知でき、サーバのアドミンは単一のダッシュボードからロールや環境やインフラの変化を追跡できる。

また今日からChefは、同社のテストドリブンインフラストラクチャ*の商用サポートを開始する。これは、同社の言葉を借りれば、“全スタックのテストをユーザプログラムにより自動化でき、ITの一貫性のある最大の安全性を確保する”ものだ。これは本も出ているほどのビッグなテーマだが、アプリケーションのコードに対するテストをプログラムを書いて自動化するという方式を、インフラに応用したものだ。本日のアップデートにより、Chefはテストドリブンインフラストラクチャの商用サポートを提供する初めての企業になる。〔*: test-driven infrastructure, (プログラムによる自動化手法で)テストを動かしながら運用していくインフラストラクチャ。〕

さらに今日のアップデートでは、Dockerのサポートが改良される。新たなChef Containerと呼ばれるビルドはChefのクライアントとそのほかのツール群から成り、DokerなどのLinuxコンテナを統合して、アドミンによるコンテナリソースの管理を助ける。またKnifeと名づけた新作のDockerプラグインがあるので、 Chef Containerのユーザがそれを使ってDockerコンテナをローンチし構成できる。

画像クレジット: Chef the film.

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Microsoft、Red Hat、IBM等がGoogleのDockerコンテナ管理ツール、Kubernetesサポートで団結

今日(米国時間7/10)、MicrosoftRed HatIBMDockerMesosphere、 CoreOS、 SaltStackの各社はGoogleが開発したDockerコンテナのオープンソース管理ツール、Kubernetes プロジェクトに対する支持を発表した。

Dockerコンテナは最近、分散アプリケーションの開発と運営における標準的なテクノロジーになってきた。ここ数ヶ月で有力なクラウド・ベンダーがこぞってDockerをサポートしている。Docker.io自身もシリーズBのラウンドで1500万ドルを調達し、Dockerプラットフォームの拡充に務めている。

それでもDockerコンテナの利用にはかなりの困難が伴う場合がある。そこで1ヶ月前にGoogleはその巨大データセンターのインフラ上でDockerコンテナをサポートするKubernetesプロジェクトをローンチした。今日の発表に加わった各社は、それぞれ得意分野のテクノロジーでこのプロジェクトに貢献することを約束した。

「各社はそれぞれユニークなテクノロジー上の強みを持っている。Kubernetesが強力なオープンソースのコンテナ管理フレームワークになり、どんなクラウドでも、あるいはプライベート・クラウドやハイブリッド・クラウドでも作動するようわれわれは協力していく」とGoogle上級副社長、ウルス・ヘルツルは今日の発表で述べた。

コンテナはデベロッパーがさまざまな異なる環境のサーバや異なるクラウドににアプリケーションをインストールし、運用することを容易にするためのテクノロジーだ。そこでMicrosoftは、正確には、 Microsoft Open TechnologiesはLinux版KubernetesをAzureプラットフォームで提供していくことを約束した。Microsoftはまた別のDockerプロジェクトであるlibswarmもAzureでサポートする。

Red HatはKubernetesを自社のハイブリッド・クラウドでサポートする。IBMはコードを提供する他、Dockerエコシステム全般を支援し、「こうしたコンテナがエンタープライズ・レベルの適合性を持つことを確認し、Dockerコミュニティーがオープンな組織として機能することを助ける」という。

MesoSphere、CoreOS、SaltStackはそれぞれ自社のテクノロジーにKubernetesを組み込む。MesoSphereは昨年末にDockerのサポートを開始しているが、そのスケジューリングと管理機能をKubernetesのユーザーにも提供していく。私の取材に対してCoreOSチームが答えたところによれば、KubernetesにすでにはCoreOSのクラスタのバックボーンとなるetcdキーバリューストアが用いられているという。

全体として今回の発表はDockerプロジェクトにはこの上ない朗報となった。参加した各企業はすでに何らかの形でKubernetesを支援していたが、こうした形で公式にグループが結成され、エコシステムの構築に向けて協力が約束されたことはDockerの普及に大きな弾みをつけることになるだろう(同時にライバルのバーチャル化テクノロジーにとっては手強いライバルの出現を意味する)。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


大規模サーバ向けLinuxディストロCoreOSが$8Mを調達して管理サービスつき有料アカウントを開始

とても大規模なサーバサイトの構築展開のために最適化されているLinuxディストリビューションCoreOSが、Kleiner Perkins Caufield & Byers率いるシリーズAのラウンドにより800万ドルを調達したことを発表した。参加したそのほかの投資家は、Sequoia CapitalとFuel Capitalで、これは前回Andreessen HorowitzとSequoia Capitalが行った投資に次ぐ投資ラウンドだ。

同社は今日から、初の有料アカウントの提供を開始する。CoreOS本体の提供は、これまでと同じくオープンソースで無料だが、有料アカウントには様々な周辺的サービスがつく。有料アカウントはCoreOS Managed Linuxと呼ばれ、その名のとおりOS周辺の重要な管理業務を同社がユーザ企業に代わって代行する。

CoreOSのファウンダでCEOのAlex Polviは、次のように述べる: “今日はわが社にとって重要な日だ。シリコンバレーの主要なベンチャーキャピタル企業からの投資を発表しただけでなく、Managed Linuxの提供にもやっとこぎつけた。今企業は、CoreOSのことを自社のOSチームの延長と見なし始めており、Linuxを使っている企業にとってCoreOSは、最後の、これ以上のものがない、マイグレーションになっている”。

この“管理サービスつきLinux”の料金は、サーバ10台までが月額100ドルだ。必要なパッチ当てやアップデートなどはすべてCoreOSがやってくれるし、そのほかのサービスもある。さらに大規模なサーバ展開向けのプレミアムサービスでは、電話やチャットやメールによるサービス、および同社のCoreUpdateサービスによる、ファイヤーウォールの背後のローリングアップデート(稼働時アップデート)も行われる。なお、サーバ10台までの格安プランの次は、50台までのCoreOSサーバが対象で、基本プランが月額2100ドル、プレミアムプランが6600ドルとなる。

CoreOSには今、成長の勢いがついている。たとえばGoogleは同社のCompute EngineプラットホームでCoreOSをサポートするようになったし、またRackspaceやAmazon向けのイメージもある。

同社は、このところ人気絶大なDockerプラットホームをサポートして、同OSの中核的機能である分散アプリケーションを動かしている。これまでのLinuxディストリビューションと違ってCoreOSにパッケージマネージャがないのも、アプリケーションはすべてDockerのコンテナ内で動かすことになるからだ。Docker自身が今、投資家たちから見てかなりホットなアイテムだから、Dockerのエコシステムの一員として活躍するCoreOSのような企業も、投資家にとっては目が離せないのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


GoogleのApp EngineもDockerをサポート、オープンソースのコンテナ管理ツールを提供

Dockerは今や明らかにデベロッパコミュニティの大スターであり、Googleも当然、真剣に対応している。 今年はCompute EngineにDockerの基本的なサポートを加えたが、さらに今日(米国時間6/10)は、App EngineもDockerに対応する、と発表した。そしてそのためには、最近ローンチしたユーザ管理型仮想マシン(Managed VMs)を活用する。

またデベロッパによるDockerの利用を支援するために、Googleは今日、コンテナ管理ツールKubernetesをローンチする。さらにGoogleがDockerのコミュニティに本格的に参加するために、同社のインフラ担当VP Eric BrewerをDocker Governance Committeeにノミネートし、 “コミュニティと協力してコンテナのさらに良いオープンスタンダード構築に貢献していきたい”、との意思表示をした。

コンテナはGoogleにとって新しいものではない。同社はこれまで長年にわたって、大規模なデータセンターを管理するために内製のコンテナを使ってきた。今や同社は毎週、同社のデータセンター全体で20億あまりのコンテナをローンチしている。

GoogleのクラウドサービスプロダクトにおけるDockerの導入を推進してきた、プロダクトマネージャのCraig McLuckieは、Dockerのサポートは同社にとって当然なことだ、と言う。従来型のホスティングでは、新しいボックスを加えることが毎回、大仕事だった。しかし最近のアプリケーションは多くの小さなサービスの集合体であることが多いので、コンテナがうってつけの世界だ。だからMcLuckieは、“コンテナはうちにものすごく大量の価値をもたらす”、と言う。“多くのデベロッパにとってDockerは、大きな便宜を提供してくれるのだ”。

デベロッパがDockerをApp Engineで使うと、既存のDockerイメージの大きなライブラリにアクセスでき、またGoogleのストレージサービスを利用して自分のものを持ち込むこともできる。DockerイメージはManaged VMsに展開でき、するとデベロッパはGoogleのPaaSにない各種のサービスをApp Engineで動かせるので、多大な柔軟性 (自由度)が得られる。

またデベロッパが自分のApp Engineアプリケーションをパッケージして、それらからDockerイメージを作る作業を、ものすごく楽にしていきたい、と McLuckieは言っている。

App EngineにおけるDockerのサポートはまだベータだが、デベロッパはここでユーザ登録をして利用できる。

Dockerを使う場合、コンテナの管理やスケジューリングはユーザの責任だが、今ではそれらを支援するKubernetesのようなサードパーティツールがいろいろある。Kubernetesはギリシア語で“船の操舵手”という意味で、マシンの“艦隊”へのコンテナの展開を助けるオープンソースのコンテナマネージャだ。マシンを互いに連携させる機能のほかに、健康管理やレプリケーションの機能もある。なお、このコンテナマネージャはGoogleのサービスに縛られることなく、いろんなプラットホーム上のコンテナを一元管理できる。

Google自身はコンテナシステムとしてOmegaを使っており、Kubernetesも同社のデータセンターの運用にために作ったツールだが、今回はそれをDocker用にまったく新たに書き起こした。Googleが社内で使っているものよりもずっと、デベロッパフレンドリになっているそうだ。スタートアップ企業には、GoogleにあるようなDevOpsのチームがない場合が多いから、その点にも配慮している。

McLuckieによると、Kubernetesには多数のデベロッパが使えるという利点があり、ということは管理するコンテナ群が広範なデベロッパ集合にまたがっていてもよい、という意味だ。そのコードは、GitHubで入手できる。

関連記事(日本語訳)〕

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Dockerがついにv1.0に、サポートとドキュメンテーション完備で本格商用化へ

Dockerプラットホームを支える企業Docker, Incが今日、同社主催のカンファレンスDockercon14で、Docker 1.0のリリースと“Docker化”されたプロダクトのためのマーケットプレイスを発表した。

CEOのBen Golubによると、これらの発表は同社のこれまでの15か月にわたる集中的な開発努力の成果だ。Golubの説明によると、1.0は初めての、商用サポートとドキュメンテーションが完備したプロダクションクォリティーのバージョンである。彼曰く、これまでは多くの人たちが0.xバージョンの開発に従事してきたが、これからはコミュニティサポートではなく商用サポートがつくので、銀行などの保守的な企業でも安心してDockerを利用できる。

Docker 1.0はGoogleが開発した新しいコンテナ技術の実装系の一つで、アプリケーションを、これまでのように変更を加えたり、開発サイクルの新しいステージに入るたびに、まったく新たな再インストールや再構成を必要とせず、安全に配布できる。

これまではデベロッパと運用者(ユーザ、オペレーション側)は利害が相反していた。デベロッパは必要に応じて変更を加えたいし、運用者は安定性を欲する。しかし変更を加えたことによって、他の部分や構成要件などが変わって、オペレーションサイドを悩ませることが多かった。

“Dockerは、この面倒な問題でデベロッパを救った”、と彼は言う。“それと同時に、アドミンの苦労もなくなった。DevとOpsの両方がハッピーになった”。

彼の説明では、Docker 1.0ではデベロッパはラップトップの上でボタンを一つ押すだけであり、プロダクションや、ステージング、顧客環境の側では、すべてが従来どおりに動く。デベロッパが開発ワークフローの次のステップに移って何かを変えても、プログラムを壊したり、問題の原因究明に苦労することがない。

すなわちプログラムをDockerのコンテナに安全に収めることによって、デベロッパがその内部を変えても外側の状態は前と変わらない。

また、Docker 1.0と併せて発表されたDocker Hubは、デベロッパが“Docker化”されたアプリケーションを見つけたり発表する場だ。Docker化アプリケーションとは、Dockerを使って動かすように調整されているアプリケーション、という意味だ。このハブでデベロッパは、ほかのデベロッパとコラボレーションすることができるし、また、Dockerのメンテなたちに会うことができる。ここに寄与貢献されるものを、メンテナたちがフィルタして、特定のジョブやプラットホームに合ったものを見つけるのだ。

Golubが言うには、オープンソースで行くなら全身でその世界に浸らないとだめだ。今では社員35名(+1匹の亀さん) を450名のデベロッパのコミュニティが支え、Dockerの開発や、カンファレンスの開催に尽力している。始まってからまだわずか15か月なのに。

このコミュニティ集団こそが、DokcerプロダクトとDocker Hubのメンテナンスの中心的な力であり、彼らがあらゆるコンテンツのクォリティーをたえずチェックしている。また、彼らの寄与貢献に悪い部分があれば、市場から叱声が返ってくる。

カンファレンスについては、Golub曰く、たった二つの新製品だから、カンファレンスなんかたいしたことない、と最初は考えていた。でも日程を決めて実際に準備を初めてみると、すごい大仕事であることが分かった。“最初は、カンファレンスはいいアイデアだと思ったんだけどね”、と彼はジョークを言う。

数からいえば、大成功だった。最初は500名を予定していたが、先週金曜日には急遽100名追加し、それでも、チケットにあぶれた人が400名以上いた。

講演者はGoogle、IBM、Rackspace、Red Hatなど大物企業の人たちばかり。Wired誌は、GoogleがDockerに深くコミットしていると報じ、GooglerのEric Brewerが二日目に行ったスピーチは、Dockerの知名度と関心を大きく高めただろう。

最近同社は、シリーズBで1500万ドルを獲得した。本誌TechCrunchの記事によると、そのラウンドを仕切ったのはGreylock Partnersだ。参加した投資家はInsight Venture Partners のほかに既存の投資家Benchmark CapitalTrinity Venturesだ。なお、Yahoo!のファウンダJerry Yangも、初期に同社に投資している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Compute EngineがOSの選択肢にCoreOSを加える–併せて仮想化の主役はDockerへ

Googleは今日(米国時間5/23)、同社のCompute EngineでCoreOSが可利用になる、と発表した。CoreOSはLinuxの特殊なディストリビューションで、GoogleやFacebookのような大規模なコンピューティング向けに調製されている。これで、このY Combinator出身の新進企業がDebianやRedHat、Suseなど、Compute Engineのコントロールパネルにデフォルトの選択肢として顔を揃えているLinux界の強豪たちと、肩を並べることになる。

これは明らかに、CoreOSのチームにとって大きな勝利だ。同社は昨年、Andreessen HorowitzやSequoiaから資金を調達している。同社によると、GoogleのクラウドサービスはCoreOSのクラスタにとって“完璧な基盤”だ。CoreOSはGoogleのデフォルトのロードバランサやレプリカプールを元々サポートしているので、Googleのプラットホーム上でCoreOSのクラスタをスケールすることは比較的簡単なはずである。

CoreOSのファウンダでCEOのAlex Polviはこう語る: “CoreOSはGoogleのChromeOSや同じくGoogleの分散システムを大いに参考にしている。Google Compute EngineのユーザがCoreOSを使えるようになることは、とても嬉しい。彼らは、インターネットの巨人たちが使っているのと同じ能力のインフラストラクチャを使えるようになるのだ”。

このオペレーティングシステムの中核的部分は、要らないものをすべてそぎ落としたLinuxカーネルで、今人気沸騰中のコンテナ型仮想化技術Dockerを使ってクラスタを構築していく。Dockerは、OS環境全体を仮想化するVMwareなどに比べて軽量かつリソースの消費量も少ない。そしてCoreOSは、そんなコンテナ向けに最適化された軽量のオペレーティングシステムなのだ。単一のマシンでも十分に使えるOSだが、本来CoreOSは複数のマシン上でコンテナを動かすために設計されている。

このオペレーティングシステムはまた、数々の興味深いトリックを隠し球のように持っている。たとえばrootファイルシステムが正/副二つあって、OSをアップデートするときには今現在休んでいる副の方をアップデートし、そちらを新たに正としてブートする(右図)。それと同時に新たな副の方もアップデートしておく。そのほかのLinuxディストリビューションと違ってCoreOSでは、新しいrootファイルシステムをダウンロードするだけなので、アップデートが極めて簡単だ。従来のようなパッケージ単位のアップデートよりは、こっちの方がロールバックも相当容易にできる、とCoreOSは主張している。

Google Compute EngineのコントロールパネルにCoreOSが登場するのは、数日後の予定だ。その前に試してみたい人は、ここにそのためのインストラクションがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Red HatがEnterprise LinuxとPaaSプラットホームOpenShiftでDockerをサポートへ

Red HatとDocker.ioの今日(米国時間4/15)の発表によると、両社の協働により、DockerのコンテナテクノロジがRed Hat Enterprise Linuxの招待制ベータと、Red HatのPaaSプラットホームサービスOpenShiftに導入されることになった。

Dockerの最初のリリースは約1年前だったが、またたくまに人気が拡大し、従来の仮想化技術に代わってソフトウェアコンテナを使いたいと願うデベロッパたちのツールとして広まった。商用レベルでDockerプロジェクトの面倒をみている組織が、Docker.io だ。

Red Hat Enterprise Linux 7は現在ベータで、コンテナとしてはDockerをメインにサポートしている。Dockerの側では、企業がRed Hat Enterprise LinuxとOpenShiftをベースとしてパイロット事業を作っていくためのサービス、JumpStartを発表した。このサービスは企業にDockerに関する教育訓練と、Docker Registryのインストール、そしてDockerの商用サポートを提供する。

Red HatのCTO Brian Stevensは今日の発表声明の中で次のようにのべている: “Red HatにはLinux Containersをはじめ、革新的な技術の開発と投資と育成に貢献してきた伝統があり、またオープンソースの世界に対しても長年、数多くの寄与貢献を果たしてきた。Dockerの技術は、企業のコンテナ採用を阻んでいたバリヤを取り除くものであり、その使いやすさと、アプリケーションのパッケージングとインフラストラクチャの統合ぶりは、われわれにとってきわめてエキサイティングである”。

Red HatとDockerの協働は、これが初めてではない。両社は昨年、Red HatのLinuxディストリビューションFedora LinuxにDockerをパッケージングすることと、ファイルシステムのディペンデンシーおよびコンテナのプロビジョニングで協働することを発表した。また先月Red Hatは、そのアプリケーション認定事業を拡大して、コンテナ化されたアプリケーションも含む、と発表した。そのときの同社の声明では、Red Hat Enterprise Linuxを使って構築されコンテナ化されたアプリケーションが、複数の認定コンテナホストで動く、とされた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


クラウド上の開発と展開を容易化迅速化するアプリケーションコンテナ技術Dockerが$15Mを調達

【抄訳】

スケールアップからスケールアウトへの移行というトレンドと、プラットホーム中心型を否定するアプリケーション中心型の文化が今、Dockerとその軽量オープンソースの“コンテナ”技術にとって、追い風になっている。アプリケーションコンテナがあることによってデベロッパは、自分のコードを迅速にクラウドへ持ち込むことができるのだ。

追い風の顕著な現れとして今日同社は、Greylock PartnersのリードによりシリーズBで1500万ドルを調達した。Insight Venture Partnersの小額参加のほかに、既存の投資家Benchmark CapitalTrinity Venturesもこの投資ラウンドに参加した。また、個人としては、前回のラウンドにも参加したYahoo!の協同ファウンダJerry Yangも加わった。

Dockerは今回の資金を、Docker環境の可利用性の拡大と、オープンソース技術と対をなす商用サービスの開発、および成長が続いているコミュニティのサポートに充てる予定だ。

その技術がたどった道は、ITが企業のインフラを管理していた初期の時代にVMwareがたどった道と似ている。そのインフラとは当時の最新技術によるデータセンターであり、それを企業のソフトウェアを動かすために最適化する必要があった。そんな課題を抱えたIT管理者たちにとって、ハイパーバイザとサーバ環境の上で複数の仮想マシンを動かせるVMwareは、なくてはならないツールになった。VMwareはその優れた仕事ぶりと、エンドユーザにインパクトを与えない管理手法が賛美され、そしてIT管理者たちは、そのインフラストラクチャを効率的に管理することができた。

初期のVMwareとの類似、およびDockerが今得ている高い評価が、投資家にとって魅力的なのだ、とGreylockのゼネラルパートナーJerry Chenは言う。彼は8月にGreylockに加わったばかりであり、今回の投資はGreylockにおける彼の初めての仕事なのだ。

Chenは今日の電話インタビューで、こう言った: “VMwareからは、摩擦ができるかぎり生じないことの重要性を学んだ。Dockerにも、その素質がある”。

さらにDockerは、スクラッチからのスケールが可能だ。それにより、パブリックなサーバやプライベートなサーバの上で複数のアプリケーションに対応できるようになる、とChenは言う。それに、スケールアウトは数秒で行われ、アプリケーションはどこにでも移動できる。しかも再構成の手間はいっさい不要だ。

Chen曰く、“Dockerは高速アップデート(rapid updates)にうってつけの技術だ”。

Dockerが今直面している課題は、デベロッパやDevOpsの仕事を効率化する機能集合を抱えたその技術を、もっと使いやすいものにすることだ。DockerはDevOpsたちに
代わって、Docker環境を使って継続的にアップデートされるアプリケーションの管理とオーケストレーションに配慮しなければならない。たとえばDockerは、デベロッパが自分のコンテナを保存するためのパブリックなレジストリとプライベートなレジストリの両方を作ってやるべきだ。また企業内でDockerによるコンテナが増えていけば、それらを管理しオーケストレーションするためのツールも必要になる。…こういった使用環境の整備が、これからの課題だ。

そして今、急速に成長中のコミュニティがある。Dockerは今、世界でもっとも急速に成長しているオープンソースプロジェクトの一つだ。GitHubではDockerに9000以上のスターが集まり、フォークの数は1320を超えている。このように、多様化しつつ成長するコミュニティを管理するためには、製品開発に投ずるのと変わらないぐらいの規模の、投資が必要なはずだ。

Red HatがDockerを導入したのも、コミュニティのおかげだ。同社は今Dockerを、同社のPaaS環境OpenShiftに統合しようとしている。Google Compute Engineも、最近Dockerを採用した。eBay、Yandexなど、ほかにも多くの企業が、プロダクション環境でDockerを利用している〔参考記事(1)(2)〕。

【中略】

Dockerと本当に等価なものは存在しない。代替製品は存在するが、しかしLinux上のコンテナとしては、Dockerが圧倒的に広く使われている。いちばん深いところでは、VMwareなどの仮想化技術と市場を争うことになるだろう。でも現状では、それはない。Cloud Foundryには独自のLinuxコンテナがあるが、それに対してDockerは、いかにしてプラットホームとしての充実を図っていけるだろうか。コンテナはパズルの一部だ。それは確かに基盤ではあるが、しかしツールのデベロッパたちはこの機会に乗じて、Dockerのエコシステムに参加しつつDockerと競合する技術を開発するかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


VMを使わずDocker/LXCコンテナベースで継続的インテグレーションをサービスするShippableが$2.05Mのシード資金を調達

Techstars SeattleでデビューしたShippableは、Linux上のアプリケーションコンテナビルダーとしてこのところ好評の、軽量で可搬性に優れたDockerを使って、継続的インテグレーションサービスを提供するスタートアップだ。同社がこのほど、Founders Co-opChris DeVoreが率いる投資ラウンドにより、205万ドルのシード資金を獲得した。これには、Divergent VenturesやPaul AllenのVulcan CapitalMadrona Venture Group、それに数名のエンジェル投資家も参加した。

このサービスは、ソフトウェアの開発から展開までのワークフローを自動化してデベロッパの納期を短縮する。Shippableという名前は、shipできる、出荷できる、納品できる、という意味だが、同社は最初Linux上の自作のコンテナを使っていた。しかしその処理は、アプリケーションの環境の多様化に伴って次第に複雑になった。DockerはLXCコンテナの管理の部分をオープンソース化していたので、Shippableの処理は多様なアプリケーション環境に対し、より統一されたものになった。

“15人のデベロッパが1年以上かかって作るようなものが、無料で簡単に入手できた”、協同ファウンダでCEOのAvinash Cavaleは、Dockerを統合したことについてこう語った。

DockerはDocker社によるオープンソースプロジェクトで、ワークフローを最初から自動化するので使いやすい。これまでの継続的インテグレーションのプラットホームは、仮想マシンを使ってワークロードを管理することが、前提だった。Cavaleがメールで私に語ったところによると、Shippableは、他の(VMを使う)類似サービスに対し、スピードとシンプルさで大差をつけている、という:

パーシステントなステートを提供しているのは、うちだけだ。新たなビルドをランするたびに、前のステートがそのままある(とくに変えないかぎり)。競合他社の多くは仮想マシンの使用に依存しており、そのコスト構造のゆえに環境をリセットせざるをえない。したがって各ビルドのたびに環境のセットアップを一からやり直さなければならない。ビルドのランに20分かかるとすると、そのうちの12分はそういった準備作業だ。うちのプラットホームでは、セットアップは最初の一回だけでよい。

Dockerは完全な仮想マシンを作るのではなく、アプリケーションが必要とする便宜だけを提供する(“仮想マシンではない”アプリケーションコンテナ)。その点に関して、StackOverflowにこんな投稿がある:

Dockerはアプリケーションの展開に向けて最適化されており、マシンが対象ではない。APIにもユーザインタフェイスにも、デザイン哲学にもドキュメンテーションにも、そのことが現れている。これに対してLXCのヘルパースクリプトでは、コンテナはいわば軽量のマシンそのものだ…つまりそれらは、はやくブートしてRAMを多く使わないサーバだ。アプリケーションが求めるコンテナ、アプリケーションコンテナは、もっといろんなものが必要なはずだ。

どんな市場でも、それがオンラインサービスによってディスラプトされるときには、まずスピードで大差がつく。オンラインのサービスプロバイダは、より高速なやり方で顧客にサービスをサーブする必要がある。たとえば小売企業は、物理店舗に伴っていた各種の経費要因を減らそうと努める。そのビジネスはデータ駆動型のビジネスに変わり、コードがそのイノベーションの基盤になる。

そうやってビジネスが次第にコード指向になっていくに伴い、企業は、全体的なアプリケーションライフサイクル管理(application lifecycle management, ALM)に、より注意を払うようになる。その管理業務は、顧客に競合他社よりもベターな体験を提供するためには何をどうするのか、という視点に立って組み立てられる。

仮想マシンは、ITの時代における物理サーバに代わるものとして理想的だった。HPやIBMなどはこぞって、ALMソリューションの基盤としてVMを多用した。

しかし、Dockerがゲームのルールを変えた。Cavaleによると、AWS上のVMのイメージはその平均サイズが1.5GBぐらいだ。それは、それが配置されている可利用ゾーンの中でしかリストアできない。VMを移動するためには、そのイメージをまた作らなければならない。“ハイパーバイザもいずれコンテナ化されると思うから、その結果、新しいALMのプロセスとプラットホームが必要になる”、とCavaleは言う。“Shippableは継続的インテグレーションとともにスタートしているから、古い世界と、今の新しい世界との橋渡しになる。それはスピードとシンプルさでデベロッパたちの心をつかみつつあり、ソフトウェア開発の新しいパラダイムを育てるだろう”。

今日のクラウドサービスは、その多くがクライアント/サーバシステムの上に構築されている。これらのクラウドサービスはワークロードを仮想化する方法としてハイパーバイザを使用する。継続的インテグレーションのプラットホームの多くはVM上に構築され、使えることは使えるがVMの重さゆえに遅い。

Shippableの競合他社は、CircleCi、CloudBees、Perforce、Atlassianなどだ。Codeshipの協同ファウンダMoritz Plassnigは曰く、うちはVMに依存してないので、ShippableとCircleCiなどの競合他社を比較した場合のようなスピードの差はない、という。

Dockerは、 セキュリティの要件が独特なので、それがShippableの採用を妨げるかもしれない。セキュリティの実装は可能だが、そのためにはLinuxのコンテナ環境に関する知識が必要だ。一方仮想化には、InfoQにも書かれているように、ハイパーバイザが持ち込む隔離の層がある。

(画像提供: Flickr上のMike Baird、クリエイティブコモンズのライセンスによる。)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


仮想セキュリティ(アプリケーションの物理的な所在に依存しないセキュリティ)でIllumioが巨額を調達

トップクラスのVCたちとカリスマCEOたちに支えられたIllumioは、このところ続々と登場すタイプのスタートアップの一つだ。彼らの共通項は、われわれをマルウェアの劫火と悪魔のフィッシングから救い出すこと。

しかしそれはまるで新興宗教の一時的なブームのように、次々と現れるセキュリティスタートアップは、その多くが短命だ。彼らが急造したテント村に信者たちが群れ集まり、IPOという約束の地を期待する投資家たちが集(たか)る。彼らは約束する、保護を、暗号化を、データの遮蔽を、監視リポートを、エキスパートを、次世代型xxxxを、革新的なyyyyを。

では、Illumioはどうなのか? このステルスのセキュリティ企業はAndreessen Horowitzが800万ドルを投資し、またAll Things Dによると、SalesforceのCEO Marc BenioffとBoxのCEO Aaron Levieも投資している。VMwareの元CTOで今はGeneral CatalystのゼネラルパートナーであるSteve Herrodは、仮想マシン上のアプリケーション、いわゆる“アプリケーションの仮想化”を保護するこのサービスに3400万ドルを投資した、と今週のMediumに書いている

そしてそれは、Dockerの一件と酷似している。このオープンソースプロジェクトはRedHatが高く評価し、同社のOpenShiftに統合して、すでにRed Hat Fedora上で可利用になっている。

Dockerはそれ自身のメモリ、CPU、ディスクスペースを持つアプリケーションコンテナで、コードだけが移動し、仮想マシンやオペレーティングシステムは移動しない。コードはコンテナ内とクラウドサービスとデータセンターにまたがって臨機応変に移動する。

しかしIllumioはセキュリティサービス、Docker異なるデベロッパフレームワーク間やインフラストラクチャ間でコードをポートする方法だ。とはいえ両者間には、ポータビリティという市場の大きな要求を反映した類似点がある。

Herrodによると、アプリケーションは一つの場所に定住しない。それはデータセンターにあったり、クラウドにあったりする。セキュリティはアプリケーションと共に旅をする必要があり、現代のアプリケーションに特有のマッシュアップ形式を維持する必要がある。しかも多くのアプリケーションが、APIによってさまざまなサービスを組み入れている。それらは、要塞のようなもので守れる単純なアプリケーションではない。アプリケーションがあちこちに移動する今日においては、要塞の壁の背後は空だったりもする。要塞を作っても無駄だ。それは、攻撃されたら崩壊するジェリコの壁と同じだ。

先月のVMworldでは、Marc AndreessenとVMwareのCEO Pat Gelsingerが、セキュリティやクラウドに関して言葉を交わした。Gelsinger曰く、セキュリティとコンプライアンスのためにはデータセンターが重要だ。Andreessen曰く、データセンターはセキュリティの穴を突くハッキングに汚染され、データの破壊やバグ、ウィルスなどに慢性的に悩まされている。そして彼は、今も未来も、クラウドの方がはるかに安全だ、と主張した。

しかしクラウドは、単に別の物理的実体ではない。たとえばAmazon Web Servicesでは、顧客は自分の仮想プライベートクラウドを使ってデータセンターとクラウドサービス間でデータをやりとりする。またOpenStackは企業のデータセンターをパブリックなクラウドサービスに接続する。それらは巨大なメッシュであり、多孔性であり、壁はない。

Harrodはこう書く: “アプリケーションの保護のされ方は、今アプリケーションがどこで動いているか、どんなインフラストラクチャの上で動いているかなどから独立であるべきである”。その意味は、ネットワークの仮想化と同じく、セキュリティも具体的なインフラストラクチャに依存せずに最適化され、異状の警報や通知を行えるべきである、ということだ。

しかしこの分野に登場したのはIllumioが初めてではない。vArmourEmbraneなど、既存の競合他社も少なくない。そのような業界模様については、SDN Centralの今週の記事を読んでみよう。

また新しいテント村ができ、新しい説教師が登壇した。この、“アプリケーションはどこにでもある(application anywhere)”という新しい時代に、われわれに強い感銘を与え、長く生き残る宗派は、どれだろうか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))