AWSがKubernetesのホームCloud Native Computing Foundationに参加

噂では、AmazonのクラウドコンピューティングプラットホームAWSが近く、Kubernetesベースの独自のコンテナ管理サービスをローンチする、とされていた。その噂は、今日(米国時間8/9)AWSが、KubernetesプロジェクトのオープンソースのホームであるCloud Native Computing Foundation(CNCF)に、最上位メンバーのプラチナ会員として参加したことにより、かなり具体性を帯びてきた。AWSの参加によって、MicrosoftやGoogle、IBMなどを含むメジャーなパブリッククラウドプロバイダーの全員が、この、Linux Foundationを上位団体とする現代的なクラウド管理技術の推進団体に加わったことになる。

最近の調査によると、Amazon(==AWS)はすでに、Kubernetesを用いたデプロイの大半をホストしているので、Amazonが、ある意味ではKubernetesプロジェクトの本拠地であるCNCFに加わっても、それほど意外ではない。しかも重要なのは、AWSはほかにも大量のオープンソースプロジェクトを利用しているし、また自分のプロジェクトをGitHubで頻繁に公開していることだ。また同社は2013年以来、Linux Foundationのメンバーであり、そこのCore Infrastructure Initiativeの創設メンバーだ。同社が主なコンペティターたちと違うのは、Cloud Foundry Foundationに参加していないことだ〔関連記事〕。

CNCFに関しては、Amazonは同グループのコンテナランタイムcontainerdを提供している。CNCFは今日の声明で、こう言っている: “AWSはクラウドネイティブのコミュニティで積極的な役割を果たし、containerdなどでKubernetesなどのクラウドネイティブ技術に寄与貢献している”。AWSのクラウドアーキテクチャ戦略担当VP Adrian Cockcroftが、CNCFの理事会に加わる。

Cockcroftの発表声明は、Kubernetes関連のAmazonの短期的プランを述べていないが、すでに同プラットホームへの広範な支援を提供し、この急速に拡大している分野において、競合するGoogleやMicrosoftの利益にもなっているわけだから、今後はAWS上でKubernetesをよりダイレクトにサポートしていくことは、ほぼ確実だろう。これまでAWS上でKubernetesを使うためには、サードパーティ製のツールを使う必要があった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

スタートアップと企業のための概念実証プラットホームProoVがシリーズBで$14Mを調達

これまでいくつかの起業経験を重ねた二人の人物が、その間に何度も遭遇した問題を解決するためにProoVを作った。それは起業アイデアの有効性を投資家や大企業の幹部などに分らせるための、概念実証のやり方だ。

2015年に立ち上げたProoVは、今回シリーズBで1400万ドルを調達するまでに成長した。ラウンドのリーダーはHelios CapitalとMangrove Capital Partnersで、これにOurCrowdとCerca Partnersが参加した。同社の総調達額はこれで2110万ドルになり、シリーズAからBまでは18か月の間隔がある。

ProoVのねらいは、スタートアップの概念実証を迅速かつ効率的に行える場を提供することだ。関心あるスタートアップの概念実証を見るために、大企業は現代的なツールを多く使いたがるが、でも概念実証をお膳立てできる人材が社内にいないことや、現物の顧客データをテスト用に使うと規制に引っかかる、スタートアップというものへの一般的な不信、などの問題で行き詰まることが多い。そこでProoVは、概念実証を作って実行するサービスのプラットホームを提供して、これらの問題を回避する。

同社のプラットホームは、ある面ではスタートアップたちのアプリケーションストア、他の面では概念実証サービスのエンジンだ。エンタープライズの顧客は、同社が認めた1000あまりのスタートアップのどれかに接続して、ProoVが作ったデータにより概念実証を行う。データの構造は、顧客が実際に使うデータセットをベースにしている。このやり方だと、顧客企業の現物データをそのまま使うことは避けられ、規制の問題にもぶつからない。

目下、同社の顧客はおよそ125社で、その中にはGE, Amazon Web Services, AIGなどのビッグネームもいる。

ProoVの収益源は多様で、まず、このプラットホーム上で大企業相手に概念実証をやりたい、というスタートアップへの課金がある。しかし売上の大半は、このプラットホームを使って、関心のあるスタートアップの概念実証を行うエンタープライズからの会費と、個々の概念実証実演の料金だ。今同社は、会費と料金の組み合わせについて、複数のプランを設けることを検討している。

そして今回の資金の使途は、ニューヨークにオフィスを開いて15名ほどの営業を新規に雇用することだ。同社の現在の社員は37名。研究開発の拠点は、イスラエルだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetesによるコンテナクラスターのプロダクションレベルのデプロイを「安全化」するHeptioのオープンソースプロジェクト

シアトルのHeptioは、Kubernetesの協同ファウンダーCraig McLuckieとJoe Bedaが最近立ち上げた会社で、企業におけるKubernetesの本格的な利用(プロダクションレベルでの利用)を、より容易にすることをねらっている。2016年に創業したこの資金豊富な会社はこれまで、鳴り物入りの新製品発表などはまったくなかったが、でも今日(米国時間8/3)同社は、二つのオープンソースプロジェクトArkSonobuoyリリースした

Kubernetesの人気は急成長し、それは今やもっとも人気のあるコンテナオーケストレーションシステムだと思うが、でもその周りにできるエコシステムは、誰もが認めるように、今でも未発達だ。Kubernetesをサポートするサービスやオープンソースのプロジェクトは山ほどあるが、現状はまだまだ、成熟期というより成長期だ。Heptioがその二つのプロジェクトで解決しようとする問題は、Kubernetesのクラスターのステートをバックアップすること(Ark)と、これらのクラスターのテストと診断(エラー検出)だ。

Arkのようなツールの標準的なユースケースといえば、インフラストラクチャやデータが落ちたときの災害復旧だ。同社の今日の発表では、こう言われている: “われわれの顧客がKubernetesのプロダクションユースに向かうに伴い、彼らの多くが、クラスターのバックアップとリストアの管理、という難題に直面する。そんなときデベロッパーは、(etcdで)クラスターのステートの直接的なレプリカからクラスターをリカバリしようとするが、うまく行かないこともある”。そこでArkはすべてのクラスターオブジェクトのバックアップを作り、ボリュームのスナップショットを作らせ、クラスター全体を前のステートへリストアする能力を与える。

一方Sonobuoyは、災害の防止だ。それはデベロッパーとオペレーションのチームが彼らのKubernetesのデプロイをテストし、それらが想定通り動いていることと、正しく構成されていることを確認する作業を支援する。

二つのプロジェクトはどちらもGitHubから入手でき、オープンソースなので多方面からのフィードバックやコードの寄与貢献を歓迎している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google CalendarとMicrosoft Exchangeの相互運用が簡単そしてリアルタイムに

Googleが今日(米国時間7/31)、Google CalendarとMicrosoft Exchangeを併用する人たちのための、小さいけど重要なアップデートを発表した

今でも、GoogleのG SuiteツールとMicrosoft Exchangeの両方を使っている企業は珍しくない。今回のアップデートでG Suiteのアドミンはユーザーに対し、二つのシステムをまたがってフリーで急ぎの情報をリアルタイムで見られるようにできる。そこでたとえば、Google CalendarのFind a Time機能とOutlookのScheduling Assistantが容易にコミュニケーションできる。

アドミンがそれらを有効にすると、Google CalendarのCalendar Interopという機能が、Google Calendarからだけでなく、Outlook 2010+のクライアントからも使えるようになる。デスクトップでもWebでもモバイルのアプリでも。

Exchange 2007とExchange 2010に関してはGoogle側に前から、ごく基本的な相互運用性機能があったけど、データのシンクが自動化されていなかったから、リアルタイムでは使えなかった。しかもGoogle CalendarとOutlookをシンクするためには、Exchangeの公開フォルダーを使うなど、アドミンの作業負担が大きかった。しかし今回のアップデートでは、Interopツールのセットアップがとても簡単だ。

同社によると、この新しい機能は目下ユーザー向けに展開中で、三日後には全員が使えるようになるそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マルチクラウドコンテナサービスContainerShipがついにKubernetesを積極導入

Disrupt NY 2015でデビューしたContainerShipは、コンテナに収めたアプリケーションの、さまざまなクラウドプラットホーム上へのデプロイメントを支援する。はじめ同社は主に、ユーザーのコンテナを扱うためにDockerと同社独自のコンテナ管理ツールを使用していたが、しかし今日(米国時間7/25)からは、Googleで生まれたコンテナオーケストレーションツールKubernetesをサポートすると発表し、完全な管理を伴う同社のKubernetesプロダクトを立ち上げた。

ContainerShipの協同ファウンダーでCEOのPhil Doughertyは、次のように語る: “最近の5年間でKubernetesの採用が爆発的に増えて、うちとしてもスケジューラーとしてKubernetesを統合せざるをえなくなった。顧客はうちのスケジューラーに満足していたが、KubernetesプロジェクトやCloud Native Computing Foundationなどの団体の最近の動向を見ると、マーケティングの見地からKubernetesを無視できなくなった”。

ContainerShipの初期のフォーカスは、複数のクラウドプロバイダ間の移行を容易にすることにあり、今でもその名残はある。Doughertyが強調するのは、ContainerShipの仕事はユーザーがKubernetesのクラスターをローンチして、同社のロードバランシングやファイヤウォール、ユーザー管理などの機能を使っていく過程を、支援することにある。それらのタスクを容易化するサービスの一環としてContainerShipでは、今のデプロイメントのスナップショットを取り、それを他のデータセンターやクラウドプラットホームに容易に移行できる。ユーザーは同社のマーケットプレースで、新しいサービスを自分たちのクラスターに迅速にインストールできる。

同社自身のコンテナオーケストレーションサービスは今後もサポートを続けるが、Kubernetesの勢いは強力なので、長期的にはKubernetes一本に絞ることもありえる、とDoughertyは語る。

今回の‘Kubernetes化’の一環として、現在社員数10数名のContainerShipはKubernetesを採り入れている他の企業、たとえばCoreOS, Deis, Red Hat(とそのOpenShiftプラットホーム)などと組んで仕事をしていくことになる。Doughertyの考えでは、同社のマルチクラウド技術が彼らのサービスに良く切れる刃を与えるはずだ。

コンテナサポーターの業界は最近ますます混み合ってきたから、ContainerShipも単純に完全な管理が付随するサービスを提供していくだけでなく、料金体系にも工夫をこらそうとしている。これまでは簡単明瞭に、ユーザー一人あたり月額8ドル(あるいは1時間あたり0.011ドル)という料金だったが、これからは評価のための試用をしたいデベロッパーのための無料プランを設ける。その無料プランには、ロードバランシングやファイヤウォール、スナップショット、ロールベースのアクセスコントロールなどが含まれない。またサポートは、従来のオンデマンドサービスに加えて、月額制を導入する。

ContainerShipの完全な管理を伴うKubernetesプロダクトは、料金が年額50000ドルからで、24/7のサポートがつく。コンテナ化するサービスが三つ以下で、サポートは24/5でよいユーザーは、年額25000ドルになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud、新しいネットワーキングアルゴリズムでスループット向上へ

今日(米国時間7/20)Googleは、google.comやYouTubeなどのネットワークスループットを全世界で約4%改善した新しい輻輳制御アルゴリズム、TCP BBRを、Cloud Platformユーザーにも開放すると発表した

基本的な考えは、既存のインターネットトラフィック用輻輳制御アルゴリズムを改善することにある。現在使われているのは 1980年代からあるもので、パケットロスのことしか考慮していなかった(ネットワーキングバッファーがいっぱいになると、ルーターは新しいパケットを捨てる)。こうしたアルゴリズムは過負荷にならないためにはデバイスがどれだけ速くネットワークにデータを送ればよいかを決定する。最終目的地に到達しないデータパケットの存在にシステムが気づくと、データをゆっくり送る。理想的にはこれで輻輳を減らすことができる。これを実現する(そしていずれはまたスピードアップする)ためのアルゴリズムは数多く存在するが、核となる部分はみな同じパターンを踏襲している。

Bottleneck Bandwidth and Round-trip propagation time”[ボトルネック帯域幅往復伝搬時間]を意味するBBRは、異なるアプローチをとる。パケットロスだけでなく、ネットワークが実際にデータを届ける速さを考慮する。「あるネットワーク接続について、ネットワーク転送速度および往復時間の最新データを使って、この接続で利用できる直近の最大帯域幅と、最低往復遅延時間を含む明示的モデルを構築する」とGoogleは説明する。次にBBRがこのデータを利用してデータを送る速さを決める。

その結果、このアルゴリズムは与えられた時間内に(パケットロス無しに)より多くのデータを送ることができる。長距離のリンクでは特に顕著だ。Googleは、あるベンチマークでスループットが2700倍になったと言っているが、もちろんそれは人工的なベンチマークの極端なケースだ。

GoogleがBBRについて公の場で話したのは昨年の論文が最初で、その後プロトコルをオーブンソース化した。GoogleはLinuxのカーネルTCPスタックにも貢献している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Open Container Initiativeがコンテナの仕様の標準規格v.1.0をリリース

ついにやっと今日(米国時間7/19)、Open Container Initiative(OCI)が、そのコンテナランタイムとソフトウェアコンテナのイメージの仕様の標準規格、バージョン1.0のローンチにこぎつけた。この、今年で2歳になるオープンソースのファウンデーションは、Dockerをはじめコンテナエコシステムのリーダーたちが、まさにこれらの共通仕様を確立し維持管理するために作った組織だ。すなわちそれらは今後、コンテナのフォーマットとランタイムの業界標準になる。

Dockerは、これらの仕様の基盤となるものの多くをOCIに提供した。たとえば同社は、同社のコンテナランタイムのコードベースをOCIに寄贈した。さらにその後、同社の技術コミュニティがコンテナのイメージのフォーマットをOCIのプロジェクトに加えた。OCIの現メンバーは40社あまり、クラウドでプレイする大手テク企業のほとんどが参加している(AWS, Cisco, Facebook, Google, Huawei, IBM, Intel, Microsoft, Oracle, Red Hat, VMwareなどなど)。またRancherやWerckerのような、コンテナ技術を専業とする企業も、少なからず加盟している。

OCIの事務局長を務めるChris Aniszczykによると、たしかに、この組織における仕事の進め方やリリースの形式が決まるまで、かなりの時間がかかった。“同じコラボレーションでも、オープンソースのプロジェクトと違ってスタンダードの作成には困難な側面がある。オープンソースのプロジェクトでも、多くの企業がさまざまなやり方ですでに業務に使用しているものは、意見の違いが大きくなりがちだが、共通スタンダードについても同じことが言える”、と彼は語る。しかし、Linux Foundationの傘下となった今では、ガバナンスの構造も適正かつ安定してきた、と彼は感じている。この取材の席にいたDockerのStephen Walliは、こんだけたくさんのメンバーがいること自体、組織とプロジェクトの成功を物語っている、と付言した。

Aniszczykによると、仕様の策定作業でとくに大きく貢献したのがRedHat, Docker, CoreOS, そしてHuaweiだった。またFujitsu, Microsoft, Google, Oracle, Cisco, Tencentなども積極的に動いてくれた。

バージョンが0.xでなく1.0でリリースされたことは、そのスペックは一般的な採用が可能で、今後、採用者がコードを大きく書き換えなければならないような変更はない、ということを意味している。

今後の計画としてAniszczykは、次に取り組みたいのは検定(仕様への合致の証明)だが、そのほかに、すでに温めている企画として、現状のLinuxだけでなくそのほかのプラットホームのサポートと、レジストリのアクセスやコンテナの配布のためのAPIの標準化作業がある、と語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftはどうやってSQL ServerをLinuxへポートしたか、ついに2017リリース候補がローンチ

Microsoftが2016年にSQL ServerをLinuxに移植すると発表したとき、それは業界全体のビッグなサプライズだった。しかし昨年の一年間で、MicrosoftのLinuxなどオープンソースのサポートはいよいよ明白になり、とにかく同社のツールはユーザーのいるところならどこへでも持っていく、という姿勢も明確になってきた。

同社は今日(米国時間7/17)、SQL Server 2017の最初のリリース候補バージョンをリリースしたが、それは、WindowsとLinuxとDockerコンテナで動く初めてのバージョンだ。Dockerのコンテナは、それだけでもユーザーが100万以上いるから、この新バージョンへの関心も大きいだろう。そしてこのニューバージョンは多くの新しい機能やスピードの改良などがあるものの、最大の見どころはやはり、Linuxのサポートだ。

MicrosoftのDatabase SysytemグループのゼネラルマネージャーRohan Kumarによると、彼はMicrosoftに勤めてすでに18年あまりになるが、最近では、ミッションクリティカルなワークロードにSQL Serverを採用する企業が増えている。しかも同時に多いのは、多くのユーザー企業のITがWindows ServerとLinuxの混成環境になっていることだ。そしてそんな企業にとっては、自分たちがかつて選んだデータベースをLinuxで使えないことが、彼らの脚を引っ張る要素になっている。

“多くの企業にとって今や、従来からのメインのデータベースをLinuxでも動かせることは、明白なニーズになりつつある”、とKumarは言う。“うちはこれまで、Windowsをもっぱらメインで使うよう、顧客に強制してきた”。最近は、これまでと違う‘別のMicrosoft’があって、それがいろんな点でポジティブな姿勢を見せているが、しかし変化は企業の基本姿勢にまで及んではいないのだ。

しかしKumarによると、最近の企業世界でもうひとつ多いのが、Oracle離れだ。そして、Linuxを動かしたいが、データベースは(オープンソースでなく)エンタープライズのサポートが充実しているブランド製品を使いたい、となると選択は自(おの)ずと限られてくる。

Kumarも言うように、Linuxのサポートを試みるのは、彼のデータベースグループにとって今回が初めてではない。“これまで二回トライしたが、会社の承認が得られなかった”、と彼は語る。“それが、うちの会社の戦略レベルの方針になりえる、という認識が当時はなかったのだ”。しかしトップがSatya Nadellaに変わった三年前に、彼のチームは再度、Linuxポートプロジェクトの社内上部売り込みをトライした。“また、すったもんだがある、と覚悟していたけど、驚いたことに、すぐにゴーサインが出た”、とKumarはそのときのオドロキを語る。

やっと会社の方針として決まったけれども、実際の作業はたいへんである。SQL Serverの何千万行ものコードを、どうやってLinuxにポートするのか? しかもKumarは、機能面での妥協はいっさいやりたくなかった。だから、100点満点の完全な移植か、無か、のどちらかだ。ただしWindows用のGUIといくつかのツールは、今のところこの原則の例外だ。

レドモンドのベトナム料理店でフォーのどんぶりをすすりながら、チームは答を見つけた。それがDrawbridgeだ。Drawbridは2011年に始まった研究プロジェクトで、小さなAPIを対外的インタフェイスとして提供するコンテナ、その中では、アプリケーションを効率的に動かせるよう構成されたベーシックなバージョンのWindowsが動く。その基本的なアイデアは、それによりもっとベターでセキュアな仮想マシンを提供することだった。OSのライブラリがアプリケーションやメモリ管理、そしてそのほかの重要な機能を動かし、その下層のオペレーティングシステムを統合する。

約2年前にSQL Serverのチームは、これをLinuxポート努力のコアにすることを決めた。“トップは適切な量の懸念を表明した”、という言い方をKumarはするが、研究プロジェクトにすぎなかったDrawbridgeの本番利用に対しては、上部の少なからぬ懸念があったことだろう。

このOSレイヤが、いろんな意味で、このプロジェクトを可能にした源泉だ。SQL Serverは、WindowsやWindows Serverにできないことを、自前でやっている。それはとくに、メモリ管理の面だ。しかしチームはすでに、標準的なOSの機能をSQLサーバーの OSレイヤに組み込んでいる。そのおかげで、Drawbridgeに収められたSQL Serverはたとえば、自分でメモリを管理できる。このやり方がうまくいったのでチームは、単純にLinux上のSQL Serverを作るのではなく、SQL OSとDrawbridgeでやった仕事を新たにSQL Platform Abstraction Layerという抽象化層へと実装し*、今ではそれがWindowsとLinuxで動く。〔*: 上図、PAL==Platform Abstraction Layer, 関連記事。〕

その結果SQL Serverのチームは、単一のコードベースから仕事ができ、コードが実際に動く対象プラットホームの違いを気にする必要がなくなった。たとえばMicrosoftのAzureでも、上記の抽象化層を持ち込むだけである。

SQL Server for Linuxは今年の後半に一般供用されるが、今日すでに、2社で本番稼働している。ハードウェアが同じなら、スピードはLinuxバージョンとWindowsバージョンで変わらない。

Kumarはすでに、最終リリースのその先を見つめている。データベースの世界もイノベーションが加速していくことは確実だが、しかし1年に一度とかもっと短いアップデートサイクルをミッションクリティカルなシステムには望まないユーザー企業もある。だからSQL Server 2016, 2017と立て続けに例年のリリースをやった次の年となる2018年は、アップデートなしという珍しい年になるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

アメリカの国境警備局はクラウドに保存されているデータを出入国時捜索の対象にできない

デートのお相手の情報をクラウドに保存することは、それを安全に隠すためのいちばん良い方法とは必ずしも言えないけど、でも情報のローカルな保存(自機上の保存)を避けることは、自分の個人情報を明かしたくない人がアメリカの国境を越えるときに役に立つ。

NBCテレビの報道によると、オレゴン州選出上院議員Ron Wydenに宛てた書簡で税関・国境警備局(U.S. Customs and Border Protection, CBP)は、国境における、裁判所の令状がなくてもできる捜索は、ローカルに保存されているデータのみに限定されると思われる、と述べている。CBPのその書簡は、Wydenなどの議員が2017年2月20日に提出した、国境における電子機器の捜索に関するポリシーの詳細を求める、質問状への回答だ。

CBPの長官代理Kevin McAleenanはこう書いている:

“CBPの権限で行う国境捜索は、合衆国に入る、または合衆国から出るすべての品目を対象とし、国際的旅行者によって運ばれる電子機器上に物理的に存在する情報も含まれる。したがってCBPが行う国境捜索は、遠隔のサーバーの上にのみ存在する情報を対象としない。その明確化を提供する機会を感謝する。

その書簡によると、この区別は“それらのサーバーが海外にあっても国内にあっても”適用される。大きな違いではないようにも思えるが、プライバシーを重視する者にとっては嬉しい詳細情報であり、また、そのポリシーと行いを明白にするよりも、批判をはぐらかすことの多いお役所にしては、珍しい情報開示だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのContainer Engineがセキュリティ重視でアップデート、サービスメッシュへの拡張性も

Google Container Engineの最新のアップデートが今日(米国時間7/12)発表された。それはKubernetesを使用するコンテナアプリケーションをGoogleのクラウド上で運用するサービスだ。Google Container EngineをGoogleは、GCEとは呼ばずにKubernetesのKを取ってGKEと呼んでいるが、今回のアップデートも前と同様、Kubernetesプロジェクトからの最新アップデートが中心となる。

今やバージョン1.7となるKubernetesプロジェクトは、プライベートとパブリック両クラウドでコンテナ化ソフトウェアをオーケストレーションするためのデファクトスタンダードになりつつある。ここで一応Microsoftの顔も立てておくべきなら、同社の(顧客の)ワークロードをプライベートクラウドやハイブリッドクラウドで動かすならAzure Stack、そしてGoogleのやり方でハイブリッドクラウドをデプロイするならGoogle生まれのKubernetes、という棲み分けになるだろう。

今回のアップデートは、セキュリティを強調している。GKEを採用する企業が増えるにつれて、彼らのニーズも当然変わってきた。とりわけエンタープライズ(≒大企業)は、セキュリティ要件が厳しい。GKEのチームは、そのサービスが市場でもっとも安全なKubernetes実装だ、と主張するが、その理由として挙げるのは、コンテナのデプロイを構成するさまざまなノードの上で動くオペレーティングシステムをコントロールできるからだ。それはChromium OS(Chrome OSのベース)をベースとするオペレーティングシステムであり、しかもクラウドで動くバージョンは非常にミニマルな(==最小構成の)システムであり、攻撃の取っ掛かりとなる対外インタフェイスがほとんどない。しかもパッチ等はつねに、Google自身が先取り的に講じている。

今回のアップデートでは、Kubernetes自身の新しいセキュリティ機能(ポッド間の通信を制約できる新しいAPIなど)と、Googleのデータセンターの新しい機能の両方が、セキュリティに貢献する。たとえばデータがGoogle CloudのLoad Balancingサービスを通るとき再暗号化することによって、外の旅路だけでなくGoogleのネットワークに入ってからも暗号化状態を維持する。

またGoogleのチームによれば、エンタープライズはセキュリティと並んで拡張性も求めている。とくに、Kubernetesの能力をサードパーティのアプリケーション、たとえばIstioのようなサービスメッシュにも延伸できることだ。Kubernetes 1.7にはAPI集積機能があるから、ユーザーにそんな機能を提供することも可能だ。

もうひとつ光を浴びるべき新機能は、GPUベースのマシンのサポートだ。今はNvidiaのK80 GPUだが、今後はもっと強力なマシンもサポートされる。そのGPUマシンは現状でまだアルファだが、とくに機械学習のワークロードを動かしたいユーザーを顧客としてねらっている。

例によってアップデートはもっともっとたくさんあるが、その完全なリストはGoogleのブログ記事を見ていただきたい。とにかく今日のお話の最大の要点は、KubernetesのコミュニティとGoogleの両方がセキュリティを非常に重視していることだ。GKEをエンタープライズ向けに今以上に普及させたいなら、この姿勢を続けざるをえない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがPhotosとDriveのデスクトップアプリケーションを一本化してBackup and Syncをローンチ

Googleが先月予告していた“Backup and Sync”ツールが、今日(米国時間7/12)ローンチされた。その名のとおりユーザーのコンピューター上のファイルをバックアップしシンクするツールで、これによりMacやPC上ではGoogle PhotosのデスクトップアプリケーションやGoogle Driveのクライアントアプリケーションが要らなくなる。

要するにこれまで二つあったアプリケーションが一本化されるだけであり、コンピューター上のファイルをGoogleのクラウドへアップロードするのに、写真はコレ、そのほかのファイルはアレ、というアプリケーションの使い分けが不要になる。

新しいツールはインタフェイスもシンプルで、Googleのアカウントにサインインして、今後Google Driveに継続的にバックアップしてもらいたいフォルダを指定するだけだ。その際、Google Driveに対するこれまでの設定はそのまま生きる。そのことは、先月も説明された

デスクトップコンピューターからファイルをバックアップできるだけでなく、カメラなどのUSBデバイスやSDカードから写真のバックアップもできる。バックアップしたファイルは、コンピューター、スマホ、タブレットなどどんなデバイスからでも、Google Driveにアクセスすれば見たりダウンロードしたりできる。ファイルが写真やビデオなら、Google Photosでアクセスできる。

PhotosDriveも今ではアップデートされたソフトウェアに対応しており、一般消費者はそれをどちらからでも無料でダウンロードできる。

Googleによると、G Suiteを使っている企業ユーザーは、現時点ではこの新しいソフトウェアユーティリティをダウンロードすべきではない。

同社の計画では、企業向けにはG Suite内のツールとしてDrive File Streamというものが、ビジネス、エンタープライズ、教育、非営利のどのドメインでも今年後半に展開される。その前にこのツールを試したい人は、ここに申し込むとよい。

Backup and Syncのソフトウェアでは、いろいろな設定ができる。たとえばGoogleのクラウドにアップロードされる写真やビデオは、元のクォリティーを保持するか、それとも単なる高品質を選ぶか、など。プロの写真家などは、オリジナル・クォリティーを選ぶだろう。

そのほか、ファイルの削除を指定した場合のオプションや、ダウンロードやアップロードの速度なども指定できる。

さらに、このアプリケーションからGoogle Driveの会員契約のアップグレードができる。これを機会に自分のデスクトップをまるごとクラウドに保存したい、なんて人は、より大きな容量へ契約を更新したくなるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft大変身の勝利と悲劇、Nadellaの思い切った大鉈の経過を検証

長年MicrosoftのCOOだったKevin Turnerが去ったことは、Satya Nadellaがトップになってからの同社の、重要な転機になった。TurnerがいなくなってからはNadellaが全権を握り、最近のレイオフや新しい戦略、人事などはすべてそのことを反映している。それらは同社が、Windows/Office一点集中型の企業から、AzureとOffice 365という新しい二本の脚(あし)で立つ企業に移行したことを、表している。

しかもそれは、意外ではない。Nadellaは最初からクラウド指向の姿勢を鮮明にしていたし、そのことはCEO就任からわずか52日後の記者発表“モバイルファースト/クラウドファースト”にも表れていた。Microsoftの変身は今も続いているが、すでにBallmer色は過去のものとなり、Nadellaによる同社の技術と企業文化の大改革が試みられている。

NadellaはCEO就任以降、技術や経済の大きな変化の中で、Microsoftという船の舵取りに追われていた。今年の5月に行われたデベロッパーカンファレンスBuildでは、2014年のバイルファースト/クラウドファーストに加えて人工知能と機械学習に焦点を当て、同社を確実に未来へ向かう道程へ乗せようとした。

またNadellaは、2014年の就任以降40社あまりを買収し、新たな技術の取得にも努めてきた。ちなみに、買収企業はクラウド関連が多い。これまでで最大の買収は260億ドルを投じたLinkedInだ。いちばん最近の買収は先月末のCloudynで、Azureなどのクラウドプラットホームのユーザーの、クラウドの利用状況を分析教示する企業だ。

果敢な新役員人事

Turnerの退任後Nadellaはまず最初に、クラウド中心で行くという彼のビジョンを共有する二人の人物を、全世界の営業を統轄する部署に置いた。Judson Althoffが全世界の商用ビジネスの長となり、Jean Phillipe Courtoisがグローバルな営業を率いることになった。

先週明らかになったように、Microsoftは近く数千人をレイオフするが、その多くは営業の余剰人員だ。このレイオフは、AlthoffとCourtoisが早くも導入した新たな戦略の結果かと思われる。先週のThe Wall Street Journalの記事によると、同社は単純にWindows中心の世界に別れを告げるだけでなく、業種業界企業別に縦割りだった営業の組織形態を廃止し、大企業と中小企業をもっと幅広い視野で捉える組織に変えていくのだ。レイオフは、その変革がもたらした結果の一部だ。

またこれらのレイオフを背景として、Microsoftは、1993年以来同社に在籍し、2013年からはCIOを務めた古顔の役員Jim Duboisの退社を発表した。彼がCIOに任命されたのは、NadellaがCEOになるよりも前だ。いわば、同社の古い時代の顔である。

そしてそれを機に役職名がCIO(Chief Information Officer)から、より現代的なCDO(Chief Digital Officer)に変わり、その初代にKurt DelBeneが昇格して、Duboisの仕事の多くを引き継いだ。

これらの異動はすべて、最近のMicrosoftの変化の一側面だ。変化により、前の時代を支えた役員たちは去らねばならない。そして思考の波動がNadellaと合う人びとが、それらの役に就く。

レイオフと並行しての動きとは

今日(米国時間7/10)Microsoftは、新しいプロダクトを二つ発表したが、その今日は、WSJが先週報じた、大企業と中小企業を共に対象とする営業のグローバルな大変革が着手される日だ。プロダクトのひとつ、Azure Stackは、クラウド技術としてAzureを利用するプライベートクラウドプラットホームだ。パブリッククラウドに向かないと企業が判断した業務を、これにより自社のデータセンターにインストールしたAzureコンポーネントで動かすことができる。

もうひとつは、中小企業を対象とするOffice 365関連プロダクトだ。それには、メールマーケティング、リスティング、請求書発行、などのサービスが含まれる。

ご覧のように二つのプロダクトは、大企業と中小企業を共に視野に収めている。レイオフなんて、要するにダウンサイジングじゃないか、という声もあろうかと思われるが、でもそれを、このようにほかの動きと並置してみると、これらが単なる偶然の時期的一致とは思えなくなるのだ。むしろ、ひとつの重要な戦略変換の、さまざまな側面と見えてくる。

CEO就任から3年あまりになるNadellaのMicrosoftにおける影は、薄いどころか近年ますます濃い。先週の突風のような急激な変化が、まだまだ今後もある、と考えるべきだろう。巨大企業がその全域にわたって変身を成し遂げようとすると、あちこちで変化の嵐が吹き荒れるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ハイブリッドクラウドの管理サービスを提供するNutanixがリソース予測管理ツールなどを導入

Nutanixは2009年にストレージ企業として誕生したが、つねにコンピューティングの世界に対する広い視野を忘れなかった。社長のSudeesh Nairによると、ストレージでスタートしたのも、当時はレガシーのストレージがデータセンターの変化を阻んでいたからだ。今日(米国時間6/28)同社は、その最初のビジョンを超えた新たな一歩を踏み出し、ハイブリッドクラウドのためのより大きなオペレーティングシステムの一部になる、と同社が見なす二つの新しい製品を導入した。

その最初の製品は、災害復旧プロダクトXi Cloudだ。といってもNairによるとそれは、ファイル構造を別の場所へコピーするふつうの復旧サービスではなく、ファイルやライセンスなどあらゆるものを、適切なIPアドレスへコピーする。もし災害にやられても、スイッチを入れるだけですべてが再び正常に動き出す。そのときの必要なコンピューティングパワーは、Nutanixが提供する。

典型的な災害として、2012年のハリケーン・サンディが挙げられる。そのときはニューヨークとニュージャージーのデータセンターが水没した。しかしXiがあれば、企業はほんの数分でシステムを再稼働できただろう、とNairは言う。
 
結局はクラウドサービスのようだけど、Amazonとどこが違うのか? Nairはこう説明する: “XiはあくまでもNutanixのスタックであり、それを顧客がレンタルするのだ。パブリッククラウドのように聞こえるかもしれないが、Amazonと競合する気はない。うちに、そんな力はない。われわれが提供するサービスは、顧客が保有ないしレンタルするインフラストラクチャ上で、完全に不可視だ(存在を意識しない)”。

同社が今日導入するもうひとつのプロダクトは、Nutanix Calmという名前で、同社が昨年買収したCalm.ioがそのベースだ。このサービスは、ユーザーの典型的な利用パターンに基づいて、今後必要になるクラウドリソースを予測する。今日(こんにち)のパブリッククラウドツールに欠けている管理機能を提供してリソースのコントロールを可能にする、とNairは説明する。

これらのツールはいずれも、同社があえて‘ハイブリッドアーキテクチャのためのオペレーティングシステム’と呼んでいる幅広い機能集合の一環だ。“そのスタック全体がオーナーはうちだから、管理もうちなりにエレガントなやり方でできる”、と彼は語る。

彼はパブリッククラウドのパワーを認めており、彼らと戦う気はない。彼は、別の立ち位置にいる。“オンプレミスの体験がパブリッククラウドに比べて相当悪ければ、単純にそっちへ行けばよい。しかしその前に問うべきは、今保有ないしレンタルしているインフラストラクチャ上のまあまあの体験を、もっと良い体験にすることはできないのか?、という問いだ”。

一部のリソースをパブリッククラウドに置き、残りをオンプレミスに置く、ハイブリッド形式は今後も存続する、とNutanixは信じている。そして当分のあいだそうであるのなら、その環境をできるかぎり効率化したいというニーズも必ずある。

ハイブリッドクラウドアーキテクチャの管理という、本質的に複雑な課題を、企業が意識せずにすむようになれば、これからの新しいことにも取り組めるだろう。だからNutanixが今日導入したプロダクトも、彼らにとって、何かもっと大きなことのスタートになりえるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloudflareがデベロッパープラットホームとその開発努力を支える1億ドルのファンドを創設

Cloudflareが今日(米国時間6/27)、Cloudflare Appsと呼ばれるアプリケーション開発プラットホームを立ち上げ、またデベロッパーたちのアイデアの実現を助けるためのファンド(当初1億ドル)Cloudflare Developer Fundを発表した。

開発プラットホームは、そこでCloudflareのエコシステムを利用するアプリケーションの構築ができ、それらをCloudflare Appsストアに置いたり、またコーディング不要でWebページにマップやフォームなどの機能を容易に配置できる。

CEOで協同ファウンダーのMatthew Princeは、同社上に開発プラットホームがあることの意味をこう説明する: “今のCloudflareは600万を超える顧客のインターネットプロパティの前に座っている〔CDNや他のリバースプロキシサービスで〕。弊社は世界最大のネットワークを稼働させており、データセンターは世界中に115箇所ある。そのネットワークを毎日大量のトラフィックが通っているが、それらが通るときには、それをいろんな方法で変える/加工する方法と機会がデベロッパーにある”。

今回のデベロッパープラットホームは、Cloudflareが昨年12月にEagerという小さな企業を買収したことが契機だ。今日の発表はその買収の成果だ、とPrinceは説明する。

ひとつの例として、ライブのWebページにGoogleのマップを(コードを書かずに)挿入するやり方がある。Eagerの技術を使うとそれは、Cloudflare AppsストアでGoogle Mapツールをクリックするだけだ。そのあとドロップダウンリストからセレクトして、目的の場所へドロップダウンする。ささいなこと、と思えるかもしれないが、なにしろプロのプログラマーがいなくても、誰でも、地図をWebページに加えることができるのだ。その工程は、とても簡単で早い。

1億ドルのファンドの件は、Princeによると、Cloudflareのアイデアではなくて、投資家たちの提案だ。“彼らはとても熱心だった。NEA、Venrock、それにPelion Venture Partnersらは、人びとがCloudflareのプラットホームの構築と拡張に挑戦すれば、そのスケールとパワーを自分でも納得するだろう、そしてそれが、もうひとつのすごい企業を作る機会であることに気づく、と主張するのだ”、と彼は語る。彼らは、Cloudflareをベースとするアプリケーションを、Cloudflareの新たな分身のように感じている。

NEAのマネージングゼネラルパートナーでCloudflareの取締役でもあるScott Sandellも、同じ意見だ。“このDeveloper Fundでデベロッパーは、Cloudflareのネットワーク上で何千ものエンタープライズや何百万ものユーザーにアクセスできるだけでなく、デベロッパーがビジョンを実現できるための資本も提供されるのだ”、と彼は言う。

Cloudflareは2011年にアプリケーションストアを立ち上げ、約30のアプリケーションをサポートしたが、その後、企業の成長戦略の方が忙しくなって、立ち消えになった。Eagerの技術が使える今は、APIを提供する最初の試みよりもずっとデベロッパーフレンドリーだ。プロトタイプもきわめて迅速に作れる、とPrinceは語る。

Cloudflareは2010年9月のTechCrunch Disruptでデビューし、その後1億8000万ドルあまりを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ARMアーキテクチャのプロセッサーにこだわるホスティングサービスのScalewayがサーバーの仕様をアップ

Iliadのクラウドホスティング部門Scalewayはここ数年、ARMのチップセットを強く推している。ホスティングの未来はARMのプロセッサーアーキテクチャがベースになる、と信じているからだ。今日(米国時間6/22)同社は、より強力なARMv8オプションをローンチし、そしていちばん安いオプションのコア数を増やした。

プロセッサーのアーキテクチャといっても、Appleを除いて一般的なものといえば、ラップトップやPCならIntelのx86 CPUと、それとほぼ互換のAMDのプロセッサー、そしてスマートフォンは主に、ARMのアーキテクチャに基づくSoC(system-on-a-chip)を使っている。

今年の4月にScalewayは、64ビットのARM機(CaviumのSoC ThunderX)を使った仮想サーバーを立ち上げた。そしてそのいちばん安いオプションは、、めちゃめちゃ安い。USドル換算で1か月3ドル30セント(2.99ユーロ)、ARMv8の2コア、RAM 2GB、SSD 50GB、200Mbit/sの帯域は使用量制限なしだ。

今日のアップデートではこのオプションが2コアから4コアにアップ、DigitalOceanやLinodeなどのエントリーレベルの仮想プライベートサーバーと十分に競合できる性能だ。同社によると、処理能力単価は市場でいちばん安いそうだ。5.99ユーロ払うと、6コア、RAM 4GBになる。

Scalewayは負荷の大きい重要なタスクにもARMアーキテクチャのプロセッサーを載せたサーバーを使うべきだ、と考えている。そのための最大の構成は、64コア、RAM 128GBだ。厚切りステーキのようなこのオプションはもちろん高価(月額279.99ユーロ)だが、16, 32, 48コアという中間的オプションもある。

でもScalewayは今だに、パリとアムステルダムの2箇所にしかデータセンターがない。競争の激しいクラウドホスティング市場でメインの選択肢の一つになるためには、アジアとアメリカにも展開しなければならないことを、自覚していただきたい。

〔関連過去記事(日本語訳):(1)(2)(3)。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Box、デスクトップ用アプリの Box Drive を公開

Boxはパソコン上でファイル操作を便利にするツールを公開した。

Box DriveはWindowsおよびmacOSで動作するデスクトップアプリだ。ファイルの編集、検索、共有などをブラウザーを開くことなく実行できる。

これは「ファイナルフロンティア」だとCEOのAaron LevieがTechCrunchに話した。Box Driveを使えば「自分の全データに直接デスクトップから無限にアクセスできる」。

企業はこれを使うことでネットワークファイル共有が減り、ITコストの削減が期待できる、「多くの企業IT環境にとって非常に強力な提案だ」とLevieは言う。

アプリ自身は無料だが、General Electric、P&G、The Gapなどの大企業は追加機能の料金をBoxに支払う。既存の一般ユーザーはBox Driveの全機能を利用できる。

Levieは、デスクトップアプリによってクラウドのアクセスは容易になり「パソコン上にCドライブと同じようなドライブが追加されるので、ローカルファイルと同じ操作体験になる」と説明する。「これで、Boxはパソコンの中にシームレスに統合された」。

今月始め、BoxはAppleの新しいアプリ、Filesとの統合を発表した。BoxのドキュメントをiOS端末で利用する方法が増えることになる。

Boxの株価は今年に入って34%上がった。ウォール街がこの発表に注目しているのも良い知らせだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

MicrosoftがオープンソースのPaaSプロジェクトを支えるCloud Foundry Foundation に参加

Microsoftが今日(米国時間6/13)、Cloud Foundry Foundationに参加する、と発表した。この団体が運営するオープンソースで非営利のPaaSプロジェクトCloud Foundryは今や、Fortune 500社の約半数が利用している。

Microsoftは同団体に、Google, Huawei, Ford, GE Digital, NTT, Philips, Swisscomなどと同じくGold Member(ゴールド会員)として参加し、このプロジェクトを支援していく。Googleは昨年12月に加わり、また同財団の元CEO Sam Ramjiを雇用した。

Cloud Foundry FoundationのCTO Chip Childersによると、プロジェクトにMicrosoftが公式に参加したことにより、今では最大の巨大クラウドプラットホームのうちの二つ(GoogleとMicrosoft)がこのプロジェクトを支持していることになる。ということはもちろん、両プラットホーム上の企業顧客からの需要も期待される、ということだ。

まだここにいないのは、言うまでもなく、Amazonだ。“彼らが来れば歓迎する”、とChildersは言うが、最近のAmazonは徐々にオープンソースの世界で活動するようになってきたとはいえ、Cloud Foundry Foundationへの参加については、現状ではまだ何も言えない雰囲気だ。

MicrosoftのAzureのPM Corey Sandersは、今週シリコンバレーで例年のサミットを開くCloud Foundry Foundationへの参加についてこう語る: “そうなればわれわれのソリューションのデリバリ能力がより深くなり、コミュニティを大きくでき、Cloud Foundryの統合も拡大できる”。

彼の話が具体的に意味しているのは、Azure DatabaseとPostgresSQLおよびMySQLのバックエンド統合により、それらをCloud Foundryベースのアプリケーションのバックエンドデータベースにできることだ。Azure上のPostgreSQLとMySQLは、数週間前に同社のデベロッパーカンファレンスBuildでローンチされた。同社は今日さらに、Azure Cloud Shell上にCloud Foundryのコマンドラインツールを加えたことを発表した。これも、ローンチの機会はBuildだった。

Microsoftは今年初めにDeisを買収したことによって、Cloud Foundryと関わりの深いデベロッパーチームと、またとくにOpen Service Broker APIを獲得した。このAPIを使えばデベロッパーやISVs(デベロッパーショップ)やSaaSのベンダーなどが、自分のアプリケーションを容易に、Cloud FoundryやOpenShift、Kubernetesなどのプラットホームで動くアプリケーションから可利用にできる。DeisがMicrosoftに入り、そしてMicrosoftがFoundationに入ったことによって、Sandersによれば、今後Service Brokerのサポートがさらに増える、という。Microsoftは、Open Service Brokerのワーキンググループにも公式に参加する。

MicrosoftがCloud Foundry Foundationに参加して、最初のうち何をやるのか。Sandersによると、初めはもっぱら、“勉強と、コミュニティへの深いレベルでの参加”だそうだ。

なお、MicrosoftはこれまでもCloud Foundryの各種プロジェクトに活発に関わっている。だから今日の発表は、この関係をより強化するものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、クラウドストレージの無制限プランを終了

またひとつクラウドストレージの宴が終わった。Amazonは、Amazon Driveの無制限クラウドストレージ・プランを終了した ―― ただしPrimeメンバーは写真用の無限ストレージを引き続き利用できる。

今日(米国時間6/8)から、Amazon Driveの新規登録で無限クラウドストレージを選択できなくなる。代わりに年間11.99ドルで100 GB、59.99ドルで1 TB(以降最大30 TBまで追加1 TBごとに59.99ドル)のいずれかを選ぶ(従来は11.99ドルで写真を無制限に、59.99ドルであらゆるファイルを無制限に保存できた)。

いずれのプランにも5 GBの無料ストレージがついてくる。1本目のヒットは無料、という意味だと思っておこう。

容量無制限プランは、2015年3月に提供が開始されたばかりだ ―― 当時競争の激化する消費者向けクラウドストレージ市場で果敢な行動と評された。そしてなんと、その2か月後にGoogleは無制限容量の写真サービスをスタートさせた。

2年が過ぎた今Amazonは、金庫にデータを預けた人たちを締めつけ始めた ―― クラウドストレージの世界ではよくある話だ。

写真が例外なのは注目すべきだが、これはライバルのGoogleが無制限の写真ストレージを続けているからというだけでなく、写真は個人データの宝庫だからだ ―― サードパーティーが機械学習技術を使ってデータ抽出できる。つまるところ、ユーザーのパーソナルな写真は大容量のデジタルエンターテイメントコンテンツよりもずっと価値が高いということだ。

従来の無制限容量プランのユーザーは、満了日まで利用を続けられる。その後は、自動更新がオンになっていれば ―― そしてデータが1 TB以下なら ―― 自動的に59.99ドルの1 TBプランに移行される。

自動更新を設定していないユーザー、あるいはデータが1 TB以上あるユーザーは、ストレージの管理ページで、新しい制限付きストレージプランのいずれかを選ぶ必要がある。

新しいプランに切り替える行動を起こさず、かつ無料ストレージの割り当てを越えるデータを預けている人は、利用期間満了後にアカウントが「割り当て超過」状態になる。つまり、それ以上ファイルをアップロードすることができず、コンテンツの閲覧、ダウンロード、または削除しかできなくなる。

Amazonによると、この状態にあるユーザーは、180日以内に、コンテンツを削除して総データ量を無料容量いかにするか、有料プランを契約するかのどちらかを選ぶことになる。180日が過ぎると、Amazonが自動的にデータを削除して割り当て以内におさまるようにする ―― 最近アップロードしたファイルから順番に削除していく(Amazonのデータ保持ポリシー参照)。

プライムメンバーは写真用ストレージについては無制限容量が続くので心配しなくてよいが、写真以外のコンテンツは、プライムメンバーであっても割り当て超過になりうる ―― このためプライムメンバーも一部のデータを救うために行動を起こさなくてはならない場合がある。

Amazonは、Driveのユーザーはいつでもプランを変更できると言っている。Driveに保管したファイルはデスクトップアプリのAmazon Driveを使ってパソコンにダウンロードできる。

【日本語版注:6月8日現在日本向けの無制限容量プランは継続されている】

[原文へ]

(翻訳:Nob Takahashi / facebook

CoreOSがコンテナプラットホームTectonicをアップデート、Kubernetesの最新バージョンとetcdデータストアをサポート

CoreOSが今日(米国時間5/31)、サンフランシスコで同社のユーザーカンファレンスを開催している。当然ながらそのイベントでは、同社のあれやこれやがたくさん発表された。そしてその多くは、Kubernetesベースのコンテナインフラストラクチャを管理するTectonicプラットホームに関連している。

アップデートの多くは、単純明快だ。たとえばTectonicは今やKubernetesの最新バージョン1.6.4を使っているが、同社によると、エンタープライズ対応のKubernetesプラットホームでその最新バージョンを使っているのはTectonicだけだ、という。ただしそのバージョンは主にバグフィクスが目的で、メジャーバージョンではない。

しかしさらに重要なのは、デベロッパーが今や簡単に、CoreOSで人気のキー-ヴァリューデータストアetcdを導入し利用できることだ…そのためには新たなツールetcd Operatorを使う。etcdを使いたいデベロッパーは、Operatorを使ってetcdを必要に応じてスケールするが、エラーはサービス側がおだやかに処理し、アップデートも自動的に行う。

CoreOSのファウンダーでCEOのAlex Polviによると、同社が今注力しているのはエンタープライズ顧客の獲得だ。彼の主張では、今エンタープライズと呼べるほどの企業は、コンテナによるアプリケーション開発に注目している(そして既存のアプリケーションはクラウドへ)。しかしAmazon, Microsoft, Googleなど特定のベンダーにロックインされたくはない。“でも1年ぐらいそこにいただけで、請求書は屋根を突き抜け、彼らのAPIをすべて使い、そして完全にロックインされる。われわれは、そんなサイクルを終わらせたい”。

Kubernetesは多くの企業にとってコンテナオーケストレーションプラットホームの第一の選択肢だから、CoreOSも、主なクラウドプラットホームすべての上で(そしてオンプレミスでも)その利用を手伝いたいが、主なプラットホームすべてをサポートすることで、そのようなロックインを避けたい。

Polviによると、同社がエンタープライズへの直接的な営業を開始したのはやっと2016年の最後の四半期からだ。最近ではそれがほぼ軌道に乗り、そしてPolvi説ではKubernetesも離陸したから、CoreOSの営業活動のエンジン全開もこれからだ、という。

〔関連記事:Microsoftのコンテナアプリケーション開発ツールDraft(未訳)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute EngineはCPUの種類を自由に選べるようになった、メモリは455GBまで使える

GoogleのクラウドコンピューティングサービスCompute Engineが今日(米国時間5/31)アップデートされ、数々の新しい機能が導入されるが、それらはとくに、もっと高性能なプロセッサーを使いたいとか、大量のメモリがほしい、と願っていたユーザーにとって朗報だ。

今日のアップデートはその多くが、Intelの次世代プロセッサーSkylake Xeonの一般供用(最大64コアまで)がベースだ。Skylakeのサポートは2月にベータに入ったが、これからは、Google Cloud Platformの三つのリージョン(Western U.S., Western Europe, Eastern Asia Pacific)でサポートされ、そのほかのリージョンも近日中に対応される。

さらにGoogleは今日64コアのインスタンスとBroadwll CPUのサポートを、すべてのリージョンで可利用にした。

Compute Engineは今やとても多様なIntel系CPUをサポートしているから(Sandy Bridge, Ivy Bridge, Haswell, Broadwell, そしてSkylake)、その中のどれを選ぶかという選択肢をユーザーに与えている。指定は右図のように簡単にできるし、一度指定すると新型機への切り替えは通常のアップデートとして自動的に行われる。

今後60日間は、Skylakeを用いた仮想マシン(VMs)は、古い機種を使うVMと同じ料金となり、そのあとは、古いCPUを使うVMより6-10%高くなる。

このアップデートでCompute Engineのユーザーは、VMインスタンス一つあたり最大455GBのメモリを装着できる。そうするためには、自分だけのカスタムマシンタイプを指定し、その中で拡張メモリオプションを選ぶ。それまでは、メモリと仮想CPUの数のあいだに一定の比率があり、最大が6.5GBだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))