クラウドインフラを管理せずにアプリを展開できるQoveryが1.1億円を調達

最初にHerokuがリリースされたとき、それが大きなブレークスルーを起こしたことを覚えているだろうか?Qoveryは、コードとクラウドインフラストラクチャの間に抽象化レイヤーを構築することで、その再現をしようとしている。QoveryのユーザーがコードをGitのリポジトリにプッシュすると、Qoveryがそのサービスをユーザーに代わって管理してくれる。

共同創業者でCEOのRomaric Philogène(ロマリック・フィロジェーネ)氏は「これは開発者のためのCaaS(コンテナ・アズ・ア・サービス)プラットフォームだ。Herokuのように、ユーザーは.qovery.ymlファイルを作成して、必要な依存関係を記述するだけだ」という。

基本的に、QoveryはユーザーのGitリポジトリとクラウドインフラストラクチャのアカウントの間に位置している。同社は、クラウドホスティング自体を管理しているわけではない。QoveryのアカウントをGitHubやGitLab、Bitbucketなどのアカウントに接続すれば、新しいコードをプッシュした際にQoveryが自動的にトリガーされようになる。

その後、Qoveryが自動的に新たなサーバー、管理されたデータベース、KafkaやRabbitMQのようなブローカーを立ち上げる。デプロイの自動化はTerraformやCI/CD(継続的インテグレーション/継続的デリバリー)のソフトウェアでもできるが、Qoveryはそれをもっと簡単にできるようにする。

さらに重要なのは、Qoveryが複数のクラウドプロバイダーを統合してくれることだ。すでにAmazon Web Servicesに対応しており、現在、DigitalOceanScalewayのサポートにも取り組んでいる。Google CloudとMicrosoft Azureもロードマップに載っている。

また、ユーザーは各ブランチごとに独自のインフラストラクチャを設計できる点も興味深い。新しい機能を試行するための開発ブランチやステージングブランチがある場合、本番環境を最初から作り直さずに、このブランチ用の新しいサーバーを立ち上げることができる。

そして、これがQoveryの最も重要な機能であることは間違いない。同社によると、クラウドホスティングは今後コモディティ化するという。各プロバイダーは、マネージドデータベースやメッセージブローカーなどを提供することになるとのこと。信頼性た料金、サポートのレベルが、差別化の要因になる。例えば本番用のアプリケーションをAWS上に置き、開発ブランチを別のクラウドプロバイダー上で動かすことを想像して欲しい。

その裏では、QoveryはTerraformとKubernetesに大きく依存し、それらの上にもうレイヤーを追加している。Herokuのモノリシック(一枚岩的)なやり方に比べると、Qoveryのマイクロサービスを軸にゼロから設計されているため、より効率的にスケールすることができる。

Qoveryの料金は、1アプリケーションあたり月額15ドル(約1590円)だ。ただし最近では、1つのサービスのために数十のアプリケーションを動かすことが普通になっているため、すべてをQoveryに切り替えた場合、各アプリケーションに15ドルを支払うことになる。

すでに開発チームと連携するCIツールを使っているところでは、QoveryがビルトインCIサービスの代わりに、そちらを使ってもよい。Qoveryにロックイン効果はないため、独自のDevOpsチームがあるのであれば、使用を止めることもできる。

同社はTechstarsと多数のエンジェル投資家から100万ドル(約1億1000万円)を調達している。

画像クレジット:Qovery

カテゴリー:ソフトウェア

タグ:Qovery 資金調達

画像クレジット:Qovery

原文へ
(翻訳:iwatani、a.k.a. hiwa

AWSがコンテナ用OS「Bottlerocket」を公開

AWSは、コンテナをバーチャルマシンと物理サーバーの両方で実行するための独自オペレーティングシステムを公開したBottlerocket(ボトルロケット)と名付けられた新OSは、基本的にLinuxのスリム化バージョンで、Container LinuxやGoogleのContainer-Optimized OSなどに似ている。新OSは現在デベロッパープレビューのフェーズだが、EC2のAmazonマシンイメージ(AMI)上でテストできる(あるいはAmaon EKSでも)。

AWSのチーフ・エバンジェリストであるJeff Barr(ジェフ・バー)氏の発表によると、BottlerocketはDockerイメージおよびOpen Container Initiativeイメージフォーマット準拠のイメージに対応しており、これはLinuxベースのコンテナは事実上すべて実行できることを意味している。

Bottlerocketを特徴づける機能の1つが、パッケージベースのアップデートシステムを使っていなことだ。代わりに、イメージベースのモデルを用いており、バー氏によると「必要な時に迅速かつ完全なロールバックが可能」だという。つまりはアップデートが簡単になるということだ。このアップデートプロセスの中核をなすのが「The Update Framework」で、これはCloud Native Computing Foundationが主催するオープンソースプロジェクトだ。

AWSは、自社ビルドのBottlerocketを(一般公開後)3年間サポートすると言っている。現時点でプロジェクトの焦点は当然ほぼ全面的にAWSに向けられているが、コードはGitHubで入手可能なのでAWS上の作業をベースに他者が拡張する可能性もある。Amazonは同プロジェクトを多数のパートナーと共同で立ち上げた。Alcide、Armory、CrowdStrike、Datadog、New Relic、Sysdig、Tigerera、Trend Micro、Waveworksなどが参加している。

「コンテナに最適化されたオペレーティングシステムは開発チームに新たなスピードと効率を与え、スループットを向上させセキュリティーや稼働時間を改善する」とDatadogのプロダクト管理責任者、Michael Gerstenhaber(マイケル・ゲルステンハーバー)氏と説明する。「Bottlerocket上でAWSを使えることを大いに喜んでいる。これでスケールを拡大しても顧客はこの恒久的環境を安心して監視し続けることができる」と続けた。

[原文へ]

(翻訳:Nob Takahashi / facebook

Kubernates利用のクラウドサービス、MirantisがDocker Enterpriseを買収

米国時間11月13日、Mirantis日本サイト)はDockerのエンタープライズ事業を買収したことを発表した。

Docker EnterpriseはDockerのビジネスの中心だった。この売却の結果、評判の高いユニコーンだったDockerのビジネスはいわば以前の抜け殻となった。 残されたDocker自体は今年初めに就任した新CEOの指揮で開発ワークフローを効率化させるツールに引き続き注力するという。一方、MirantisはDocker Enterpriseというブランドを存続させるため混乱が生じることないという。

今回の買収により、MirantisはDocker Enterprise Technology Platformおよび関連するすべての知財(Docker Enterprise Engine、Docker Trusted Registry、Docker Unified Control Plane、Docker CLI等)を取得した。Docker Enterpriseのすべてのクライアント、既存の契約、戦略的技術提携、パートナープログラムも継承する。Docker、MirantisはともにDockerプラットフォームのオープンソースプロダクトの開発を継続するとしている。

両社は買収価格を明らかにしていないが、最近の資金調達ラウンドにおけるDockerの会社評価額を大幅に下回ることは間違いない。Dockerの評価額がこのところ下降を続けてきたことは公然の秘密だった。コンテナ革命のリーダーとして出発したものの、GoogleがKubernetesをオープンソース化し、業界が一斉にに殺到した後は付録のような存在に落ち込んでいた。ただしエンターブライズ事業は多数の大企業をクライアントにもち、健全な運営を続けていた。

Dockerによれば、Fortune 100の3分の1、Global 500の5分の1の大企業がDocker Enterpriseを使用しているという。これはどんな基準からしても高く評価できる成果だろう。Dockerが今回中核ビジネスの売却を急いだということは、こうしたクライアントの大分はDockerのテクノロジーに見切りをつけようとしている同社が考えたことを意味するのかもしれない。

アップデート:Dockerの広報はBenchmark Capitalから3500万ドル(約38億円)の資金を調達したことも発表した。 これは以下の記事の内容に影響を与えるものではないが、Dockerの今後の方向性を考える上で参考になる。なおTechchCrunchはこの資金調達について事前に情報を入手していない。

Dockerは以下のように声明している。

「Dockerは、新しい時代に対応するため、アプリケーションの構築、共有、実行に際して開発者のワークフローの効率化を進めることに焦点を当てることで我々の出発点に戻る。我々のビジネスの重点を再調整する一環として、MirantisはDocker Enterpriseプラットフォーム事業を買収し、このことを発表した。今後我々はDocker DesktopとDocker Hubの役割を拡大することによってアプリの開発者ワークフローを助けていく。具体的には、クラウドサービスの拡大に注力し、開発者がアプリケーションを構築する際に使用するテクノロジーを容易に発見し、アプリを関連する部署、コミュニティと簡単に共有し、オンプレミスであれ、クラウドであれ、Kubernetesが稼働するエンドポイントでアプリをスムーズに実行できるようにしていく」。

一方Mirantis自身もこれまでに相当の波乱を経験している。 Mirantisは十分な資金を調達してOpenStackのディストリビューターとしてスタートしたが、現在ではKubernetesベースのオンプレミスクラウドプラットフォームと関連するアプリケーション配信をサービスの中心としている。CEOのAdrian Ionel(エイドリアン・イオネル)氏は今日の発表に先立って私の取材に答え、「この買収は我々にとって最も重要な決定となるかもしれない」と述べた。

ではMirantisはDocker Enterprise買収で正確に言って何を目指したのだろうか?イオネル氏は 「Docker Enterpriseは我々がすでに目指している方向完全に合致し、また加速するものだ。Mirantisは の方向に大きく踏み出している。目標はKubernetesとコンテナテクノロジーの利用により、 マルチレイヤーのクラウド、エッジコンピューティングとクラウドのハイブリッドを含むあらゆるユースケースに対応することだ。いついかなる場合にもデベロッパーのインフラを開発を助ける一貫したエクスペリエンスを提供する。デベロッパーやクラウド運用者に使いやすいツールをオンデマンドで提供しその負担となるフリクションを最小化する」と述べた。

現在Mirantisの社員は450人ほどだ。買収により新たに元Dockerの社員300人程度を組織に新しく統合する必要がある。Ionel氏によると、当面Dockerのマーケティング部門と営業部門は独立の存在となるという。「我々にとって最も重要なのはクライアントに混乱をもたらさないことだ。そのためチームの統合においても優れたカスタマーエクスペリエンスを維持しなければならない」という。

このことはつまり現在のDocker Enterpriseのクライアントにとっては当面大きな変化はないことを意味する。 Mirantisによれば「Kubernetesとライフサイクル管理テクノロジーの開発、統合を加速すると同時に将来はDocker Enterprise向けのマネージドサービスソリューションを提供していくという。

MirantisとDocker Enterpriseのカスタマーの一部は重複しているものの、この買収によりMirantisは新たに700社のエンターブライズをクライアントに追加することになる。

イオネル氏は「MirantisのライバルはVMware、IBM/Red Hatのような巨大企業だが、我々はクラウドネイティブであり、レガシーのテクノロジーにクライアントをしばりつけることなく、クライアントのコンピューティングをスケールさせることを可能にする」と主張した。

MirantisにとってDockerのエンターブライズ事業の買収が大きな勝利であると同時にDocker時代の終わりを告げるものであることも間違いない。Dockerでは将来に向けた戦略についてさらに発表するとしているが、我々はまだ説明を受けていない。

画像: Chantip Ditcharoen / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

通信市場で争うオープンソースコミュニティ

先日バルセロナで開催されたMWCのことを考えるとき、おそらくあなたは最新のスマートフォンや他の携帯機器について考えることだろう。だがそれは物語の半分に過ぎない。実際には、そうした話題は半分以下なのだ。なにしろMWCで行われているビジネスの大部分は、企業向け通信ビジネスに関わるものだからだ。それほど遠くない昔、そのビジネスとは、高価な専用ハードウェアを売ることに他ならなかった。だが現在は、これらのほとんど全てがソフトウェアに移行している。そして多くのソフトウェアがオープンソースなのだ。

なので、今年Linux Foundation(LF)がMWCに独自のブースを設けたのは当然のことだ。それは巨大なものではなかったが、独自のミーティングスペースを確保できる程度には大きなものだった。ブースはLFによる3つのプロジェクトによって共同利用されていた:Cloud Native Computing Foundation(CNCF)、Hyperledger、そしてONAPOpen Platform for NFV (OPNFV)(どちらも最新ネットワークに欠かせない)などの、基本的なプロジェクトを支えるLinux Foundation Networking (LFN)である。そして5Gの出現により、つかむべき新しい市場シェアがたくさん生まれている。

このイベントにおけるCNCFの役割について議論するために、私はCNCFのエグゼクティブディレクターであるDan Kohn氏の話を聞いた。

MWCでCNCFは、OpenStack上の仮想ネットワーク機能と、CNCFがクラウドネイティブネットワーク機能と呼ぶものの性能を比較したテストベッドを発表した。このクラウドネイティブネットワーク機能は、Kubernetes(とベアメタルホストであるPacket)を利用している。プロジェクトの成果として示されたものは、少なくともこれまでのところは クラウドネイティブコンテナベースのスタックは、競争相手のOpenStackコードよりも1秒あたりにはるかに多くのネットワーク機能を処理できたということである。

「私たちが発信しているメッセージは、ベアメタルもしくは任意のクラウドの上で動作する、汎用プラットフォームとしてのKubernetesを使えば、ほとんどの仮想ネットワーク機能は、クラウドネイティブネットワーク機能上に移植できるということです」とKohn氏は語った。「すべての運用支援システム、すべてのビジネス支援システムソフトウェアも、同じクラスタ上のKubernetesで実行することができます」。

さて、一方OpenStackは、また別の大規模なオープンソースプロジェクトである。ご存知ない方のために説明すると、企業が自身のデータセンターのソフトウェア基盤を管理するための手段を与えるものだ。OpenStackの最大の市場の1つは、長い間通信業界だった。これまでも常にCNCFとOpenStack Foundationの間には、ある種の摩擦が続いていたが、OpenStack Foundationがその組織を、直接コアOpenStackプロジェクトとは関係しないプロジェクトへも開放したことによって、その摩擦傾向は強まった。

私はKohn氏に対して、現在CNCF/Kubernetesスタックを、OpenStackのライバルとして位置付けているのかどうかを尋ねた。「はいそうです。私たちの見解は、Kubernetesをベアメタルサーバー上で動作させるべきで、中間層は不要だというものです」と彼は述べた。これまでCNCFはこうしたことを明言しては来なかったが、内部ではずっとそのように言われていたのだ。彼はまた、こうした摩擦の一部が、CNCFとOpenStack Foundationが、様々なプロジェクトに対して競合関係になっていることから生じていることを認めた。

OpenStack Foundation側は、当然ながらこうした対立には同意しない。OpenStackのCOO、Mark Collierは「KubernetesをOpenStackと対立するものとして扱うことは極めて非生産的です。それに、OpenStackが既に多くのケースで、Kubernetesと組み合わせる形で5Gネットワークを支えているという事実を無視することになります」と私に対して語った。「それに、OpenStackが単なる仮想マシンのオーケストレーターだとおっしゃっているのでしたら、OpenStackが実際に何をしているのかについての理解が不足なさっていることも意味していますね。そうした説明は、もう数年前の過去のものです。多くのワークロードにとって意味のある、仮想マシンからの離脱が、OpenStackからの離脱を意味するわけではありません。今ではOpenStackはそうした環境のなかで、Ironic、Neutron、およびKeystoneサービスを通じてベアメタル、ネットワーク、そして認証を管理しているのです」。

同様に、OpenStack Foundationの元ボードメンバー(ならびにMirantisの共同創業者)であるBoris Renski氏は、私に対して以下のように語った「単にコンテナーがVMに取って代わることができるからといって、KubernetesがOpenStackに取って代わるわけではありません。Kubernetesの基本設計は、低レベルのインフラストラクチャを抽象化する以外のものがあることを前提としています、すなわちアプリケーションを意識したコンテナスケジューラであることを目指しています。一方OpenStackは、ベアメタル、ストレージなどの低レベルのインフラストラクチャ構造を抽象化することを目的に、特別に設計されているのです」。

この議論はKohn氏とCNCFによるKata Containersへの批判にもつながっている。Kata Containersとは、OpenStack Foundationがその組織をOpenStack以外のプロジェクトに対しても開放した後に手がけた、最初のプロジェクトである。Kata Containersは、従来の仮想マシンに対してさらなるセキュリティを加え、コンテナの柔軟性と組み合わせて提供することを約束している。

「KataをめぐるFUD(不安や疑念)に関してはこう言うことができます:通信会社は(a)騒がしい隣人問題(同じテナントに載る他のインスタンスとのリソース競合問題)と、(b)セキュリティに関する問題に対応するために、Kataを使う必要が出てくるでしょう」とKohn氏は語る。「それは未知のものに対するFUDに過ぎませんし、(Kataの採用する)マイクロVMは本当に興味深い技術なのです」。

しかし彼は、サードパーティのコードを実行しているような状況(Firecrackerを実行しているAWS Lambdaを想像して欲しい)に対しては、Kataのやりかたは興味深いと考えているが ―― 残念ながら通信業者たちは通常そのようなコードを実行したりはしないのだ。そして彼はまた、Kubernetesも騒がしい隣人たちをうまく扱うことができると主張している。なぜならそれぞれのコンテナが抱えることのできるリソースの数を限定することができるからだ。

どちらの組織もここではフェアな議論をしているように見える。KubernetesはいくつかのユースケースではOpenStackよりも、よりうまい処理を行い、高いスループットを提供できるかもしれないが、その一方では、OpenStackはそれ以外の多数のユースケースを上手く扱うことができる。だが明らかなのは、ここにかなりの摩擦が生まれていることなのだ。残念なことである。

画像クレジット: Jean Joselle Rosal / EyeEm / Getty Images

[原文へ]
(翻訳:sako)

BlueCargoがコンテナの配置方法を最適化する

港湾ターミナルに焦点を当てる物流スタートアップ、BlueCargoを紹介しよう。同社はY Combinatorの最新卒業生であり、300万ドルの調達ラウンドを、1984 VenturesGreen Bay VenturesSound VenturesKima Venturesなどから行ったばかりだ。

港湾ターミナルを撮影してみると、積み上げられた沢山のコンテナたちが目に入ることになるだろう。しかし、現在の整理方法は効率的ではない。作業ヤードのクレーンは、そうした山の底に置かれているコンテナにアクセスするためだけに、大量のコンテナを動かす必要に迫られている。

BlueCargoはコンテナを適切な場所に保管することを支援することで、そうした動きを最適化しようとしている。ターミナルから出ていく最初のコンテナが、最上段に積まれているようになるということだ。

「ターミナルは、非生産的または望ましくない動きのために多くの時間を費やしています」と語るのは共同創業者兼CEOのAlexandra Griffonだ。「にもかかわらず、ターミナルが収益を得ることができるのは、コンテナを受け取ったり出荷したりする場合だけなのです」。

現状では、ERPのようなソリューションは、コンテナのタイムラインを考慮せず僅かなビジネスルールに従って、コンテナを管理しているだけである。例えば、空のコンテナはすべて1つのエリアに保管し、危険物を収納したコンテナは別のエリアに保管するといった具合だ。

スタートアップは、コンテナごとのデータを可能な限り活用する。それがどこからやってきたのか、コンテナのタイプは、満杯なのか空なのか、それを積み込む貨物船はどれかなどだ。

BlueCargoは新しいターミナルで作業を行うたびに、過去のデータを収集し、それを処理してモデルを作成する。こうすることで、チームはBlueCargoがターミナルを最適化する方法を予測できる。

「サン・ナゼール(フランス西岸の港町)では、コンテナの移動を22%節約できました」と、Griffonは私に語った。

同社は12月にサン・ナゼールでソリューションをテストする。既存のERPソリューションと直接統合を行うのだ。クレーンはすでにコンテナ識別番号をスキャンしている。BlueCargoは、関連情報を即座にクレーンオペレーターにプッシュして、彼らがコンテナをどこに置くべきかを知ることができるようにする。

サンナゼールはヨーロッパ最大の港に比べて比較的小さな港である。しかし同社はすでに、米国最大のコンテナ港の一つであるロングビーチのターミナルと話を始めている。

BlueCargoはまた、慎重に振る舞う必要があることも理解している。これまでにも多くの企業が魔法のようなITソリューションを約束してきたからだ。だが、それは港湾をあまり変化させることはなかった。

これがスタートアップができるだけシームレスにやりたいと考えている理由だ。それは、単に節約できた移動量に基いて請求を行う。古いモデルに従っていたら余計にかかったはずのコストの30%を請求するというものだ。そしてターミナルで作業する人びとのワークフローを変えることもしようとはしていない。単に作業を迅速化してれる目に見えないクレーンのように働くのだ。

世界には、港湾ターミナルを管理する主要なプレイヤーが6社存在している。もしBlueCargoがこれらの企業に、その作業の価値を認めさせることができるなら、良いビジネスチャンスが得られるだろう。

[原文へ]
(翻訳:sako)

分散ストレージCephが独自のオープンソースファウンデーションを設立しLinux Foundationに参加

まだあまり有名ではないオープンソースの分散ストレージCephは、実際にはすでに全世界的に、大規模なコンテナプロジェクトやOpenStackのプロジェクトで利用されている。ユーザーはたとえば、金融のBloombergやFidelity, クラウドサービスプロバイダーのRackspaceやLinode, 通信大手のDeutsche Telekom, 自動車のBMW, ソフトウェアのSAPやSalesforceなどだ。

今日のオープンソースプロジェクトは、その多様な関心を一手に引き受けて処理し管理する管理組織、ファウンデーションが背後にないと、成功を維持し今後の発展を築くことも難しい。そこで当然ながらCephも、自分専用のファウンデーションCeph Foundationを作った。そしてこれまでのオープンソースプロジェクトのファウンデーションの多くに倣い、それをLinux Foundationの下に置いた。

Cephの共作者で、プロジェクトリーダー、そしてRed Hat for CephのチーフアーキテクトでもあるSage Weilはこう述べる: “パブリッククラウドの初期のプロバイダーたちがセルフサービス型のストレージインフラストラクチャを流行(はや)らせ、そしてCephはそれを一般企業や個人、そしていろんなサービスブロバイダーたちに提供している。今では強力で堅固なデベロッパーコミュニティとユーザーコミュニティが育ち、ストレージの分野における未来のイノベーションを推進している。本日のCeph Foundationの立ち上げは、さまざまなオープンソースのコミュニティが協力し合えばデータストレージとデータサービスの爆発的な成長を強力に支えていけることの、証(あかし)になるだろう”。

Cephはすでに多方面で使われているから、ファウンデーションの創設メンバーもすごい顔ぶれだ: Amihan Global, Canonical, CERN, China Mobile, Digital Ocean, Intel, ProphetStor Data Service, OVH Hosting Red Hat, SoftIron, SUSE, Western Digital, XSKY Data Technology, そしてZTEなど。創設メンバーの多くがすでに、非公式団体Ceph Community Advisory Board(顧問団)のメンバーだ。

Linux Foundationの事務局長Jim Zemlinはこう言う: “企業の高い成長率の維持管理を効果的に助け、彼らのデータストレージの需要を拡大してきたことに関して、Cephには長年の成功の実績がある。Linux Foundationの下でCeph Foundationは、より幅広いグループからの投資を活用して、Cephのエコシステムの成功と安定の継続に必要なインフラストラクチャをサポートできるだろう”。

cepha and linux foundation logo

Cephは、OpenStackとコンテナをベースとするプラットホームを構築するベンダーにとって重要なビルディングブロックだ。実はOpenStackのユーザーの2/3がCephをメインで使っており、またCephはRookの中核的な部分でもある。Cloud Native Computing Foundation(CNCF)傘下のRookは、Kubernetesベースのアプリケーションのためのストレージサービスを、より容易に構築できるためのプロジェクトだ。このように、今や多様な世界に対応しているCephだから、ニュートラルな管理機関としてのファウンデーションを持つことは理にかなっている。でも、ぼくの山勘では、OpenStack Foundationもこのプロジェクトをホストしたかったのではないかな。

今日(米国時間11/12)のこの発表のわずか数日前にLinux Foundationは、FacebookのGraphQLのファウンデーションGraphQL Foundationをホストすることを発表した

[↓Facebookのクエリ言語GraphQLが独自のオープンソースファウンデーションを設立(未訳)]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データサイエンティストたちのモデルの活用度を高めるGoogle CloudのKubeflowパイプラインとAI Hub

今日(米国時間11/8)Google Cloudが、KubeflowパイプラインとAI Hubを発表した。この二つのツールは、データサイエンティストが、自分の作ったモデルをいろんな組織や企業で共通的に利用できるようにすることが主な目的だ。

Google CloudでAIとML製品を担当しているプロダクトマネージメントのディレクターRajen Shethによると、同社は、データサイエンティストたちが、モデルを作るけどそれが一度も使われない、という経験をしょっちゅうしていることを知っている。Googleによると、機械学習を団体競技にたとえるなら、モデルはデータサイエンティストから、それらを使ってアプリケーションを作るデータエンジニアとデベロッパーにパスされなければならない。

対策としてGoogleが発表したのが、Kubeflowパイプラインだ。それはKubeflowのエクステンションで、KubeflowはKubernetesをベースとするオープンソースの機械学習用フレームワークだ。パイプラインは要するにコンテナ化されたビルディングブロックのことで、機械学習のエコシステムに属する人たちを連係させて機械学習のワークフローを作り、管理する。

そうやってモデルをコンテナに入れたら、その後データサイエンティストは必要に応じてその中のモデルを単純に調整し、継続的デリバリのようなやり方で再ローンチできる。Shethによると、これによって企業内のモデルの利用の可能性がさらに広がる。

“Kubeflowパイプラインはユーザーに、いろんなパイプラインで実験する方法を提供し、信頼性があって再現可能な環境の中で最良の結果を作りだすものはどれか、を決められる”、とShethは、この新しい機械学習機能を発表するブログ記事に書いている。

同じく今日発表されたAI Hubは、その名のとおり、データサイエンティストがそこでいろんなMLコンテンツを見つけられる場所だ。そこには、KubeflowパイプラインやJupyterノートブック、TensorFlowモジュールなどなどがあるだろう。それは一種の公開リポジトリになり、Google Cloud AIやGoogle ResearchなどGoogleのさまざまなチームが素材を提供し、研究開発に関わるGoogleの専門的知識技能をデータサイエンティストが利用できる場になる。

しかしGoogleはこのハブに、公開ライブラリ以上のものを求めている。同社の見方では、そこはチームが自分たちの企業内で情報をプライベートに共有できる場にもなって、二重の目的に奉仕する。これによって、重要なビルディングブロックが中央的なリポジトリで可利用になるから、モデルの利用の拡大に大きく貢献するだろう。

AI Hubは今日からアルファで利用でき、Googleからの初期的コンポーネントの一部や、内部的リソースを共有するためのツールが提供される。そして今後は徐々に、提供物と能力の拡大が定常的に行われる予定だ。

Googleによると、これによってモデルが汎用のビルディングブロックになり、それによりモデルを容易に共有できる方法が提供され、モデルがさまざまに実用される機会が増えるだろう。これらのツールは、それを達成するための第一歩だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dockerが新たに9200万ドルを調達

米証券取引委員会(SEC)への提出文書によれば、他のいかなる独立企業よりも現在のコンテナコンピューティング環境の創出に貢献してきたDockerが、目標1億9200万ドルのラウンドで9200万ドルを調達した。

この新しい資金調達ラウンドが示すものは、サンフランシスコを拠点とするDockerは、そのツールキットの普及度という意味では、GoogleのKubernetesとの競争に負けたかもしれないが、アプリケーション開発とプログラミングの情報技術運用モデルの、現代的なハイブリッドに移行したい企業たちのための援軍となったということだ。

現代のプログラミングにおけるコンテナの重要性を理解するためには、まずそれが何であるかを説明することが役立つだろう。簡単に言えば、それは動作のためにオペレーティングシステムを必要としない仮想アプリケーション環境である。かつては、この種の機能は、アプリケーションソフトウェアとオペレーティングシステムの両者を含む仮想マシンを使用して作成されていた。

対照的に、コンテナはより効率的だ。

それらは単にアプリケーションと、それが依存するライブラリやフレームワークなどだけを含むので、1つのホストオペレーティングシステム上に沢山のコンテナを置くことができる。サーバー上のオペレーティングシステムは、1つのホストオペレーティングシステムだけで、コンテナたちはそれと直接対話をすることができる。これによって、コンテナを小さく、オーバーヘッドも著しく低く保つことが可能になる。

関連記事:いまさら聞けないコンテナ入門

企業たちは、ソフトウェアの開発および管理方法を改善するために、急速にコンテナに移行しており、その動きはますます速くなっている。しかし、彼らは単独でそれを実現することはできず、そうした移行の手助けをするDockerのようなパートナーを必要としている。

多くの人たちが見逃している点は、Dockerは単なるコンテナオーケストレーションレイヤー(このレイヤーではKubernetes が覇権を握ったが)にとどまらず、コンテナを作成し管理するための完全なツールチェーンを提供するということである。

どんなオープンソースプロジェクトでも、テクノロジー企業たちはオープンソースプロジェクトを迅速に採用(そして適応)し、その使用方法に精通する。そうしたハイテクに精通していない大手の企業たちは、そうしたツールキットで開発されたプロジェクトを管理するために、Dockerのような企業の助けを借りることになる。

大企業顧客を相手にするテクノロジースタートアップが、より多くの利益を上げるにつれて退屈なものになるのは、自然な進化である。大企業が彼らを使い。彼らはお金を稼ぐ。誇大宣伝は終わる。もしある企業が大企業の顧客に売り込むことができれば、顧客はそのベンダーとずっと付き合ってくれるのだ。

Dockerの創業者で元最高経営責任者のSolomon Hykesは、今年初めに退社した際に、以下のように語った

…Dockerは、私たちのCEOである素晴らしいSteve Singhのリーダーシップの下、爆発的な収益性の増大と数百万人の開発者コミュニティに支えられた、エンタープライズビジネスへと静かに変容を遂げました。私たちの戦略は単純です。世界のすべての大企業は、アプリケーションとインフラストラクチャを、一気にクラウドに移行する準備をしています。高価なコードやプロセスの変更や、単一のオペレーティングシステムやクラウドへのロックインなしに、信頼性と安全性を確保しながら移行を行うソリューションが必要なのです。現在、これらの要件を満たす唯一のソリューションがDocker Enterprise Editionです。これはDockerを大きな成長の機会の中心に置くことになります。この機会を活用するには、Steveのそばに、世界最大の企業たち向けに、数十年に渡るソフトウェアの出荷とサポートをしてきた経験を持つCTOが必要です。そのため現在の私は、新しい役割を担っています:理想的なCTOを探すことを助けること、時々助言を行うこと、そして大きなビジネスの構築を続けるチームの邪魔をしないことです。株主として、私はこの役割を、この上なく嬉しく受け入れます。

今回調達した資金で、Dockerは、販売およびマーケティング担当者を増やし、2019年の公開に向けて必要な収益などの確保を始めることだろう。同社は、独立した指名取締役たちを選定した(公開に向けての窓を開こうとしている、また別の明確なサインだ)。

Dockerは既に10億ドル以上の価値を持つ「ユニコーン」である。前回Dockerが資金を調達したと言われているのは、同社が7500万ドルの目標に対して6000万ドルを調達したことを示すSECの文書を、ウォール・ストリート・ジャーナルが明らかにした2017年に遡る。その時の投資家には、AME Cloud Ventures、Benchmark、Coatue Management、Goldman Sachs、そしてGreylock Partnersが含まれていた。また当時、同社の評価額は13億ドルであった。

私たちは同社にコメントを求めている。何らかの回答が得られたときにはこの記事を更新する。

[原文へ]
(翻訳:sako)

画像クレジット: DOCKER WHALE LOGO (MODIFIED BY BRYCE DURBIN)

GoogleのCI/CDプラットホームCloud Buildがコンテナイメージの脆弱性をスキャンする

Googleが今日(米国時間9/19)、同社のCD/CIプラットホームCloud Buildの重要なアップデートを発表した。それにより、このサービスを利用して構築されるすべてのコンテナイメージに対し脆弱性スキャンが行われる。Container Registryに対するその脆弱性スキャンはまだベータだが、現代的なDevOpsの実践手法を採用した企業に対し、彼らがデプロイするコンテナに確実に、既知の脆弱性がないようにすることがそのねらいだ。

Googleがいみじくも言うように、セキュリティプロトコルがつねに確実に実践されているようにするための唯一の方法は、その工程を自動化することだ。今回の場合では、Cloud Buildの新しいイメージはすべて、Cloud Buildがそのイメージを作ってそれをContainer Rgistryに保存するそのときに、自動的にスキャンされる。

このサービスは、セキュリティ関連の標準的ないくつかのデータベースを利用して脆弱性を見つける。現在、脆弱性を見つけることのできるのは、Ubuntu、Debian、そしてAlpineのパッケージだ。CentOSとRHELにも、近く対応する。

問題を見つけたらユーザーに通知するが、ユーザー企業が自動化のルールを決めて、自動的にアクションをさせることもできる。アクションへのメッセージングとアクションの実行にはそれぞれ、Google CloudのPub/Sub通知と、サーバーレスのCloud Functionsを用いる。ユーザーは、脆弱性の重度やCVSSのスコア、どのパッケージが危ないか、有効な対策の有無、などに関する詳細レポートを受け取る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがKubernetesの開発インフラの自社負担から降りてすべてをCNCFに委ねる

Googleが今日(米国時間8/29)、同社がCloud Native Computing Foundation(CNCF)に、Google Cloudのクレジット900万ドルを提供して、Kubernetesコンテナオーケストレータの同団体による今後の開発を支援し、プロジェクトの運用に関わるコントロールを同団体に委ねる、と発表した。このクレジットは3年分割で提供され、Kubernetesソフトウェアの構築や試験、配布などに要する費用に充当される。

これまではGoogleが、このプロジェクトを支えるクラウドリソースのほとんどすべてをホストしていた。その中にはたとえばCI/CDによるテストのためのインフラストラクチャや、コンテナのダウンロード、同社クラウド上のDNSサービスなども含まれている。しかしGoogleは今回、一歩後退することになった。Kubernetesコミュニティの成熟に伴い、GoogleはKubernetesのすべてのサポートワークをコミュニティに移そうとしている。

テストのためのインフラストラクチャからコンテナダウンロードのホスティングまで、すべてを合わせるとKubernetesプロジェクトは常時、15万あまりのコンテナを5000基の仮想マシン上で動かしている。その費用は、相当に大きい。Kubernetesのコンテナレジストリはこれまで、1億3000万回近いダウンロードに応じてきた。

それにまた現在のCNCFは、互いに競合する多様なメンバーを抱えている。Alibaba Cloud, AWS, Microsoft Azure, Google Cloud, IBM Cloud, Oracle, SAP, VMwareなどがその例だ。全員がCNCFの仕事やKubernetesのコミュニティから利益を得ている。Googleはこれまで黙っていたが、そろそろKubernetesのインフラストラクチャを動かす重荷を、それにふさわしい者に担わせるべきだろう。それにコミュニティのメンバーの一部は、KubernetesがGoogleのインフラストラクチャにあまりにも密接に結びついていることを、嫌っていた。

GoogleのKubernetes EngineのプロダクトマネージャーWilliam Denissが、今日の発表声明でこう書いている: “Kubernetesの運用責任をプロジェクトのコントリビューターが共有することによって、彼ら全員が持ち寄る新しいアイデアや効率性を生かせるようになるだろう。それが楽しみである”。彼によると今後も、Kubernetesのインフラストラクチャの運用には、Googleの意思が適宜反映されていく、という。

CNCFの事務局長Dan Kohnはこう述べる: “KubernetesのコミュニティにGoogleの大きな財政支援があることによって、このプロジェクトのイノベーションと採用の安定的なペースが今後も減衰することなく維持されるだろう。Google CloudがKubernetesのテストとインフラストラクチャに関わるプロジェクトをコントリビューターの手に渡したことによって、プロジェクトはオープンソースであるだけでなく、オープンなコミュニティによってオープンに管理されるものになる”。

今後長期的には、インフラストラクチャがGoogleのクラウドから離れることになるのか、そのへんはまだ分からないが、3年後に他のクラウドプロバイダーが同様のクレジットを提供することは、大いにありえるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウドネィティブ環境のためのセキュリティベンダーTwistlockがシリーズCで$33Mを調達

世界がクラウドネイティブなアプローチへ移行していくに伴い、アプリケーションとそのデプロイのセキュリティを確保する方法も変わりつつある。クラウドネイティブ環境のセキュリティを提供するTwistlockが今日、Iconiq CapitalがリードするシリーズCのラウンドで3300万ドルを調達したことを発表した。

これまでの投資家YL Ventures, TenEleven, Rally Ventures, Polaris Partners, およびDell Technologies Capitalも、このラウンドに参加した。これで同社の資金調達総額は6300万ドルになる。

Twistlockは、コンテナとサーバーレスのセキュリティという、困難な問題を解決する。両者はいずれも、本質的に短命な存在だ。それらは寿命が1秒の数分の一と短いので、問題が起きたときその追跡が難しい。同社のCEOで協同ファウンダーのBen Bernsteinによると、彼の会社は最初から、コンテナとサーバーレスコンピューティングがどれだけ短命でも、依然としてエクスプロイトされうる、という前提に立って、クラウドネイティブ環境を保護するためのセキュリティプロダクトを作っている。

Bernsteinは曰く、“寿命の長短は関係ない。むしろ重要なのは、それらの生き方が従来のコンピューターに比べて予測可能であることだ。従来のコンピューターは非常に長時間動くし、しかも多くの場合人間が使っているから、予測は簡単ではない”。

スクリーンショット提供: Twistlock

企業がクラウドネイティブな環境へ移行して、Dockerによるコンテナを使ったり、それらをKubernetesなどのツールで管理するようになると、デプロイ量の大きい、高度に自動化されたシステムを作ることになる。デプロイは自動化で簡単になるが、いろんな問題に対する脆弱性はそのまま放置される。たとえば悪者がコード注入攻撃でプロセスのコントロールを握ったりすると、誰も知らない間に大量の問題が起きていたりする。

Twistlockはそれを防ぐとともに、エクスプロイトがいつ起きたのかを顧客に認識させ、診断分析によりその原因を調べる。

それはサービスであるとはいえ、従来型のSaaSとは様子が違う。すなわちそれは同社のサーバーから提供されるサービスではなくて、顧客が使っているクラウド(パブリックまたはプライベート)にインストールされるサービスだ。今同社の顧客は200社あまりで、その中にはWalgreensやAetnaなど、誰もが知っている企業も含まれているが、顧客リストを公開することはできない。

2015年に創業された同社はオレゴン州ポートランドに本社があり、R&D部門はイスラエルにある。現在の社員数は80名だ。他社との競合についてBernsteinは、従来のセキュリティベンダーはクラウドネィティブをまだうまく扱えない、と言う。そして最近登場してきた若手スタートアップに比べると、少なくとも現状では、成熟度では自分たちが上だ、とも言っている。

“今はまだ、競争が激しくはないが、今後徐々にそうなるだろう”、と彼は述べる。今回得られた資金は、主にマーケティングと営業の拡充に充当して顧客ベースの拡大を図りたい。またクラウドネィティブのセキュリティも競合とともに技術が進化していくので、技術でもつねに先頭を走っているようにしたい、とBernsteinは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

PrometheusモニタリングツールがCNCFの新たな‘卒業’プロジェクトとしてKubernetesに加わる

Cloud Native Computing Foundation(CNCF)はまだそれほどメジャーな名前ではないが、今急成長しているコンテナオーケストレーションツールKubernetesなど、いくつかの重要なオープンソースプロジェクトの本拠地だ。今日CNCFは、モニタリングツールPrometheusが、同団体の第二の“卒業”プロジェクトとしてKubernetesに加わったことを発表した。〔*: 卒業プロジェクト, graduated projecとは、育成涵養段階を脱して、単独・独立の“一人前の”プロジェクトとして扱われること。〕

その発表は、今週ミュンヘンで行われているPrometheusのカンファレンスPromConで行われた。CNCFのCTO兼COOのChris Aniszczykによると、卒業プロジェクトとはプロジェクトの全般的な成熟を表していて、コントリビューションやコミュニティや採用が多様になったことを意味している。

Prometheusの場合は、今すでに20名のアクティブメンテナーがおり、1000名以上のコントリビューターが13000あまりのコミットを行っている。コントリビューターの中には、DigitalOcean, Weaveworks, ShowMax, そしてUberなどがいる。

CNCFのプロジェクトはサンドボックスで始まり、インキュベーションの段階へ入り、そして最後に卒業する。卒業の条件は、CNCFのCode of Conduct(行動規範)の遵守、セキュリティ監査に合格、そしてコミュニティの統治構造が定義されていることだ。また、“コードの質とセキュリティのベストプラクティスに持続的にコミットしていること”も必要だ。

Aniszczykによると、Prometheusツールは時系列データベースにクエリー言語を結びつけたシステムで、ユーザー(主にデベロッパー)がターゲットシステムの問題を知るためにはそのクエリー言語で検索し、それに対する分析結果(アナリティクス)を得る。すでに感づいておられたと思うが、それはとくに、コンテナに適したツールだ。

Kubernetesと同様、のちにPrometheusになるプロジェクトも、ルーツはGoogleにある。Googleはコンテナを積極的に採用した初期の企業のひとつで、Kubernetesの前身であるBorgや、Prometheusの前駆システムBorgmonを開発した。Borgの仕事はコンテナのオーケストレーションを管理することで、Borgにmon(monitor)を付けたBorgmonの仕事はそのプロセスをモニタして技術者にフィードバックを提供し、コンテナの全ライフサイクルにおいて、その中で起きていることを察知させる。

ルーツはBorgmonでも、今ある姿のPrometheusは二人の元Googleエンジニアが2012年にSoundCloudで開発した。2016年5月には第二のCNCFプロジェクトとしてKubernetesに加わり、そして当然のように、第二の卒業プロジェクトになった。

その過程におけるCloud Native Computing Foundationの役割は、クラウドネイティブコンピューティングを推進することだ。どんなに違いのあるインフラストラクチャでも共通のやり方で管理できる、とするその概念は、オンプレミスとクラウドのリソース管理に伴う複雑性を大幅に軽減した。CNCFはLinux Foundationの一員であり、そのメンバーにはテクノロジー業界の大物たちが多い。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのCloud LauncherがGCP Marketplaceと改名、コンテナアプリケーションのデプロイもサポート

Cloud Launcherは長年、Googleが開設したクラウドアプリケーションのマーケットプレースで、サードパーティのベンダーはほんの数クリックで自分のアプリケーションをGoogleのクラウドへデプロイできる。でもその名前からは、そこに商用アプリケーションを置けることや、それらの課金をGoogleが処理してユーザーの通常のGCPの料金請求に加えてくれることなどが、分かりにくい。そこでGoogleは今回、名前をGCP Marketplaceに変えることにした。

それだけでなく、今日(米国時間7/18)のアップデートでは、商用とオープンソース両方の、コンテナアプリケーションも置けるようになる。ユーザーはそれらを、Google Kubernetes Engineへ容易にデプロイできる(ほかのKubernetesサービスを使ってもよい)。これまで、このマーケットプレースは従来的な仮想マシンだけを提供してきたが、でも今や、コンテナのサポートを求める顧客がとても多いのだ。

Googleがいみじくも主張するように、Kubernetes Engineはコンテナの管理から大量の面倒を取り去ってくれるが、でもそれらをKubernetesのクラスターへデプロイするのは手作業の場合が多かった。そこでこのマーケットプレースでは、コンテナアプリケーションのデプロイも数クリックでできるようにし、しかもGoogleのKubernetes EngineだけでなくほかのKubernetesへのデプロイもサポートする、とGoogleは約束している。

Google CloudのプロダクトマネージャーBrian Singerによると、彼のチームはKubernetes Engineのチームと密接に協力して、このような統合をできるかぎりシームレスにしてきた。そして今マーケットプレースにあるソリューションは、GitLabのようなデベロッパーツールや、グラフデータベースNeo4j、データ管理サポートKastenなども含んでいる。WordPress, Spark, Elasticsearch, Nginx, Cassandraといったオープンソースのプロジェクトも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

2017年誕生のKubernetesに特化したCI/CDプラットホームCodefreshが早くもシリーズBで$8Mを調達

Kubernetesのコンテナエコシステムのための継続的インテグレーションとデリバリーのプラットホームCodefreshが今日(米国時間6/27)、MicrosoftのベンチャーファンドM12がリードするシリーズBのラウンドで800万ドルを調達したことを発表した。Viola Ventures, Hillsven, そしてCEIFがこのラウンドに参加し、これで同社の調達総額は1510万ドルになった。

このところ、CI/CDプラットホームは毎日どこかで生まれているようだが、CodefreshはKubernetesへの特化で自己を差別化している。Kubernetesは今や必須かつデファクトスタンダードのコンテナオーケストレーションサービスで、その採用は急速に増えている。Codefreshがやることは、Kubernetesへのアプリケーションのデプロイを助けることによって、“開発時間を最大で24倍はやくする”ことだ。それはあまりにも楽観的な数字だが、Kubernetesを使うアプリケーションの開発にCI/CDが加われば、開発とデプロイの工程がスピードアップすることは確かだろう。

Codefreshの協同ファウンダーでCEOのRaziel Tabibは語る: “Kubernetesの採用が急激に増えているから、ツールチェーンがそれに対応していない。M12は、そのことをよく知っている。今回得られた資金により、弊社のロードマップを加速し、顧客ベースを拡大したい”。

Codefreshのプラットホームがデビューしたのは2017年で、同社によると現在のユーザーは約2万社だ。その中には、Giphyなどもいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Docker Hubから誰でもダウンロードできるコンテナイメージに暗号通貨採掘ボットが潜んでいた

セキュリティ企業のFortinetKromtechが、17の汚染されたDockerコンテナを見つけた。それらはダウンロードできるイメージだが、中に暗号通貨を採掘するプログラムが潜んでいる。さらに調べた結果、それらが500万回ダウンロードされたことが分かった。ハッカーは安全でないコンテナにコマンドを注入し、それらのコマンドが、本来なら健全なWebアプリケーションの中へこの採掘コードをダウンロードしたのだろう。研究者たちがそれらのコンテナを見つけたのは、ユーザーのイメージのためのリポジトリDocker Hubの上だ。

研究者の一人David Maciejakはこう書いている: “もちろん、これらがマニュアルで(手作業で)デプロイされたのではないことは確実だ。というか、犯行は完全に自動化されていたらしい。いちばん高い可能性として、犯人は構成が正しくないDockerとKubernetesのインストールを見つけるスクリプトを作ったのだろう。Dockerはクライアント/サーバシステムだから、REST APIで完全にリモートで管理できる”。

そのコンテナは今やどこにもないが、ハッカーは最大で9万ドルの暗号通貨を持ち逃げしたかもしれない。小額だが、このようなハックとしてはかなりの額だ。

Kromtechのレポートを書いた著者の一人はこう語る: “Kubernetesのようなオーケストレーションプラットホームの構成を間違えて、外部に公開された状態になってるところがとても増えているから、ハッカーはこれらのプラットホームにMoneroの採掘を強制する完全自動化ツールを作れるのだ。悪質なイメージをDocker Hubのレジストリにプッシュし、それを被害者のシステムから取り出す。この方法でハッカーは544.74Moneroを採掘できた。ほぼ9万ドルに相当する”。

DockerのセキュリティのトップDavid Lawrenceは、Threatpostのレポートでこう書いている: “GitHubやDocker Hubのような公開リポジトリは、コミュニティの便宜のためにある。でも、オープンで公共的なリポジトリやオープンソースのコードを扱うときには、お勧めしたいベストプラクティスがいくつかある。1)コンテンツの作者が分かること、2)実行の前に画像はスキャンすること、3)そしてDocker Hubにあるキュレートされたオフィシャルな画像を使うこと、4)できるかぎりDocker Storeの認定コンテンツを使うこと”。

興味深いのは、最近のハッカーはAmazonのAWS Elastic Computeのサーバーよりも、そのほかのコンテナベースのシステムを襲う傾向がある。DockerとKubernetesのコンテナを管理するセキュリティシステムはいろいろあるが、ユーザーも自分の脆弱性に警戒し、しっかり評価して、ハッカーにやられるスキがないようにしよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dockerは複数のクラウドにまたがるコンテナの連合的管理をDocker EEで提供

2013年に急に頭角を現したDockerは、その後のコンテナの普及の中心的な勢力になった。さらにその後Kubernetesが、コンテナ化されたアプリケーションのデリバリーを制御する(オーケストレーションする)ツールとして登場したが、Dockerは、同社が追究する純粋なコンテナのデプロイと、それらツールとの間にギャップを感じていた。今サンフランシスコで行われているDockerConで同社はDocker Enterprise Editionの次のリリースを発表し、そのギャップを埋めようとしている。

Dockerのチーフプロダクトオフィサー(CPO) Scott JohnstonによるとDocker Enterprise Editionに新たに導入された連合的(federated)アプリケーション管理機能により、オペレーションは複数のクラスターを管理でき、それらのクラスターはオンプレミスでも、クラウド上でも、そして複数のクラウドプロバイダーに散在していてもよい。この連合的アプリケーション管理は、アプリケーションがどこにあってもよく、そして三大クラウドプロバイダーのマネージドKubernetesツール、Azure AKS, AWS EKS, Google GKEをサポートする。

Johnstonによると、コンテナのデプロイは問題の最初の部分にすぎない。アプリケーションをデプロイするときには、Kubernetesなどオーケストレーションツールの外にも多くの問題が存在する。“そこで、DockerフォーマットのコンテナとKubernetesやComposeのデスクリプションファイルでコンテナのポータビリティは得られるが、いったんそれらがひとつの環境へ上陸すると、その環境独自のデプロイスクリプトやセキュリティモデル、ユーザー管理などがある。だからアプリケーションがポータブルでも、それらのアプリケーションのアプリケーション管理はそうではない”、と彼は説明する。

彼によると、これによって、さまざまなデプロイメントツールが新たなレベルの複雑性を持ち込む。それらは、コンテナの使用によって排除されるはずだった複雑性だ。この問題は、複数のクラウドにデプロイするときにとくに顕著だ(ときにはオンプレミスでも)。オペレーションチームが自分たちの仕事であるロードバランシングやセキュリティ、テストなどの仕事に取り組むときは、環境によって異なることのない、一貫したやりかたで行いたい。そこでJohnstonによれば、複数の環境を一箇所で管理できる場所をDocker EEが作り出し、すべてのアプリケーションとデータとインフラストラクチャを統一的に管理するという、クラウドネイティブの目標を達成する。

この連合的アプリケーション管理に加えてDockerは、Kubernetes for Docker Enterprise Edition上のWindows Serverコンテナを発表した。Linuxコンテナのサポートは、昨年発表している

そして同社は、技術系でない社員でも、コマンドラインでなくグラフィカルな画面のガイドに従って容易にデプロイができるよう、Dockerのデプロイメントにテンプレートベースの方式を導入した。

連合的アプリケーション管理は、今年後半にベータが始まる。Windows Server Containersは、Docker Enterprise Editionの次のリリース(今年の終わりごろ)に含まれ、Templatesは、今年の終わりごろのDocker Desktop Betaで提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Sumo Logicのアプリケーションモニタリングとリアルタイムデータ分析がコンテナをサポート

アプリケーションの状態をリアルタイムで分析するSumo Logicの長年の目標は、顧客企業のデータの理解を助けることだ。そのデータが、どこに潜んでいても。しかしコンテナの時代になると、コンテナは本質的に短命だから、その目標がさらに難しい。そこで同社は、にもかかわらず、コンテナ化されたアプリケーションでも扱えるように、プロダクトの強化を発表した。

その新しい機能は、DockerのユーザーカンファレンスDockerConで披露された。このイベントは今週、サンフランシスコで行われている。

SumoのCEO Ramin Sayerによると、コンテナの定着は、DockerとKubernetesがメインのツールとして使われるようになった12〜18か月前から始まった。その人気を見て、Sumoは自分たちもコンテナに対応したい、と考えた。“DockerとKubernetesは圧倒的にスタンダードなツールとして新旧大小あらゆるショップで、新しいアプリケーション開発や既存のオンプレミスアプリケーションのクラウドへの移行、あるいはワークロードをベンダーAからBへ容易に移行できるようにするために、利用されている”、と彼は語る。

もちろん彼は間違っていない。コンテナとKubernetesは1年半前ぐらいから大々的な離陸が始まり、デベロッパーもオペレーションもどちらも、それらの理解と採用に奮励努力してきた。

“しかしそれらの利用が標準化してきたために、その扱い方もわかりやすくなってきた。そしてコンテナの扱い方が分かってくると、コンテナ化アプリケーションのベンチマークも提供できるようになった”、とSayerは説明する。

同社はそれを、エージェントを使わずにやろうとする。アプリケーションがVMで動こうが、コンテナで動こうが、どこで動いても、Sumoはデータを捕捉して、ユーザー自身には困難だったフィードバックを届ける。

スクリーンショット提供: Sumo Logic(トリミングした)

同社はKubernetesとAmazonのElastic Container Service for Kubernetes(Amazon EKS)をネイティブでサポートする。Kubernetesのユーザーお気に入りのオープンソースのモニタリングツールPrometheusもサポートする。Sumoの目標は、顧客が問題を早く修復し、ダウンタイムを減らすことだ。

こういう新しいテクノロジーを揃える中で重要になってくるのが、顧客への周知と教育だ。“顧客にはガイドを提供し、ベストプラクティスや使い方のコツを教える。彼らがやってることだけでなく、Sumoのほかの顧客との比較も提供している”、と彼は語る。

Sumo Logicは2010年に創業され、これまでに2億3000万ドルを調達してきた(Crunchbaseによる)。最近のラウンドは、昨年6月にSapphire Venturesがリードした7000万ドルのシリーズFだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コンテナ化アプリケーションの標準パッケージを作るHelmがKubernetesから乳離れして独立

Helmは、コンテナ化したアプリケーションのパッケージをデベロッパーが作って、そのインストールを大幅に単純化するための、オープンソースのプロジェクトだ。これまでは、人気の高いコンテナオーケストレーションツールKubernetesのサブプロジェクトだったが、今日(米国時間6/1)」からそれは、スタンドアローンのプロジェクトになる。

KubernetesとHelmはどちらも、Cloud Native Computing Foundation(CNCF)が管理するプロジェクトだ。CNCFのTechnical Oversight Committee(技術監督委員会)が今週初めに、このプロジェクトを承認した。CNCFの事務局長Dan Kohnによると、二つのプロジェクトは関連性が密なので、Helmをサブプロジェクトにすることは理にかなっていた。

“Helmの良いところは。それがKubernetesのアプリケーションであることだ。KubernetesがAPIでHelmはそのAPIにアクセスする。これをインストールするとKubernetesのAPIにもアクセスすることになり、コンテナやポッド(pod, コンテナの集まり)の操作はすべて、デベロッパーに代わってHelmがやってくれる”、とKohnは説明する。

Helmが一連の要求をまとめて面倒見てくれるから、コンテナ化アプリケーションのインストールを何度繰り返してもその一貫性/整合性は維持される。“HelmはアプリケーションをKubernetesへデプロイするときの共通のユーザーニーズをまとめて引き受け、それらの構成を再利用可能にする”、とGoogleとKubernetesの主席エンジニアBrian Grantが声明で説明している。

パッケージは“charts”(チャート)と呼ばれ、一つまたは複数のコンテナから成る。Kohnによると、たとえば、WordPressとMariaDBを単一のコンテナに収めたチャートをデプロイしたい、としよう。チャートを作ることによってそのインストールプロセスが定義され、そのクラスターではどの部分をどんな順序でインストールするかが決まる。

Kohnによると、今回Helmを単独のプログラムにしたのは、それがKubernetesのリリーススケジュールに従わない場合があるからだ。そこでスタンドアローンしておけば、Kubernetesの毎回のリリースに縛られずにすむ。

またそれによってコミュニティの利点も享受でき、コミュニティが一般的なインストールシナリオのためのチャートを作って提供できる。Helmの共同制作者でMicrosoftの主席エンジニアMatt Butcherは、声明中でこう述べている: “CNCFに参加したことによって、コミュニティの利点を享受でき、またデベロッパーのコミュニティが、ワークロードをKubernetesの上で動かすための既製のチャートの、広大なリポジトリを提供する利点もある”。

このプロジェクトのスポンサーはMicrosoftとGoogleのほかに、Codefresh, Bitnami, Ticketmaster, そしてCodecentricなどだ。プロジェクトのWebサイトによると、現在250名のデベロッパーがこのプロジェクトにコントリビューションしている。CNCFに加わったことによって、その数はさらに増えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コンテナを軽量VMで隔離するKata Containersがついにv1.0をリリース

OpenStack Foundationがホストする初めてのOpenStack以外のプロジェクトKata Containersの、バージョン1.0が今日(米国時間5/22)ローンチされた。それはコンテナのワークロードを隔離して動かすためのシステムで、元々IntelとHyperにそれぞれあった類似のプロジェクトをマージしたプロダクトだ。デベロッパーはKata Containersを使って、DockerやKubernetesをベースとするコンテナに、従来の仮想マシンのようなセキュリティと隔離機能を持たせることができる。

そのためにKata Containersは、各コンテナにきわめて軽量な仮想マシン(VM)を実装し、ハードウェアレベルの隔離を与えるが、ただしそれによる大きなオーバヘッドは生じない。そしてコンテナの標準的な定義に合わないように見えるKata Containersは、実はOpen Container Initiativeの仕様やKubernetesのコンテナランタイムインタフェイスと互換性がある。これをサービスとしてホストするのはOpenStack Foundationだが、Kata Containersは使用するプラットホームやアーキテクチャを特定しない。

IntelとCanonicalとRed Hatが、このプロジェクトの財政的サポートを表明しており、また99cloud, Google, Huawei, Mirantis, NetApp, SUSEなど多くのクラウドベンダーたちも支援を発表している。

このたびv1.0がリリースされたことにより、Kataのコミュニティは、このIntelとHyperの合作技術がついにプロダクション用途にまで成熟したことをシグナルしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Kubernetesのための機械学習ツールKubeflowが発表から4か月で最初のバージョンをリリース

Googleが作ったオープンソースのコンテナオーケストレーションツールKubernetesは、おそらく同社が想像しなかったほど華々しく成長した。そしてその人気が増すとともに、多くの関連プログラムが生まれてきた。今日(米国時間5/4)はGoogleが、オープンソースのツールKubeflowのバージョン0.1のリリースを発表した。これは、Kubernetesのコンテナに機械学習をさせるためのツールだ。

Googleはかなり前にKubernetesをCloud Native Computing Foundationへ移したが、積極的な関与は継続し、今回のKubeflowもそのひとつだ。このプロジェクトは昨年末オースチンで行われたKubeconで発表されたばかりだが、早くもかなりの勢いがついている。

GoogleでKubeflowを運用しているDavid Aronchickは、その前の2年半、Kubernetesのチームを率いた。その彼の言うKubeflowの基本的な考え方とは、データサイエンティストたちが、Kubernetesのクラスターの上で機械学習のジョブを動かせるアドバンテージを享受できることだ。Kubeflowを使って機械学習のチームは、既存のジョブを簡単にクラスターに付けられる。

今日の発表でプロジェクトは前進を開始し、その節目を報告するブログ記事は、安定性のアップと、コミュニティの要望に応じて実装した多くの新機能を強調している。新機能には、機械学習のジョブをコラボレーションと対話により訓練するJupyter Hubや、Tensorflowの訓練とホスティングなどが含まれる。

Aronchickが強調するのは、このプロジェクトがオープンソースなので、いろんなツールを使えるということ。最初のバージョンがGoogleの機械学習ツールばかりサポートしていても、 Tensorflowに縛られることはない。今後のバージョンでは、そのほかのツールのサポートも期待できる。

最初の発表からわずか4か月あまりでコミュニティは急速に成長し、70名を超えるコントリビューターと20社あまりのコントリビューター企業がいて、15のレポジトリーに700以上のコミットが行われた。次のバージョン0.2は、夏になる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa