DreamHostのOpenStackベースのクラウドプラットホームDreamComputeがベータを脱し本番提供へ

shutterstock_286565288

DreamHostはWebホスティングサービスとしてよく知られているが、でも同社はかなり前から、オープンソースのエンタープライズプラットホームOpenStackの、主要なコントリビューターだ。そして数年前からは、OpenStackベースの同社独自のクラウドコンピューティングサービスDreamComputeをベータで提供していた。

今日(米国時間4/5)、そのDreamComputeがベータを終わり、従量制と月額定額制を折衷したような、新しい料金モデルで一般供用を開始した。

DreamComputeは、OpenStackにストレージシステムCephと、Dreamhostが育てたネットワークオーケストレーションサービスProject Astaraを組み合わせたサービスで、AmazonのクラウドコンピューティングサービスEC2などともろに競合する。

約1200社の顧客企業と一緒に、DreamComputeのベータを長年やってきた経験から、チームはDreamHostの合衆国東部データセンターに完全に新しいアーキテクチャを実装した。同社のクラウド担当VP Jonathan LaCourによると、この新しいアーキテクチャはベータ時の倍近いパフォーマンスを提供する。チームがこの新しいアーキテクチャの開発に取り組んだのは約1年前だが、そのときチームがすぐに理解したのは、たとえばユーザーがSSDのストレージを求めていること、そして、たくさんコアがあることよりも、高速なシングルコアのパフォーマンスに関心があることだった。

DreamComputeはベースがOpenStackだから、デベロッパーはマシンにrootアクセスでき、またOpenStackのAPIもすべて利用できる。

料金は時間単位の従量制が基本だが、顧客は25日ぶん以上を請求されることはない。月額の最低料金は4ドル50セントだ。この金額では、従来的なハードディスクを使う古いクラスターは、RAM 1GB、仮想CPU1つだが、SSDを使う高速なクラスターではRAMが512MBのみだ(1GBのマシンは月額6ドルから)。DreamComputeの各クラスターには、100GBのブロックストレージが無料でつく。詳しい料金体系は、ここにある

同社はこの、OpenStackクラウドコンピューティングサービスのローンチに併せて、サービスの使い方を詳細に記した知識ベースを立ち上げた。そのすべての情報はGitHub上にあり、またこれに対する、ユーザーの今後の自由な貢献も期待している。LaCourによると、今後はチュートリアルなどそのほかのドキュメンテーションも、何らかのインセンティブ制により、ユーザー貢献型にしたいという。ドキュメンテーションに対するこのやり方は、Linux仮想サーバーホスティングのLinodeのやり方に似ている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Appleはインフラストラクチャ多様化の一環としてGoogleのCloud Platformを使用か

cbf_009

今日(米国時間3/16)飛び交っている噂によると、Appleは同社のクラウド事業の一部をAWSからGoogleのCloud Platformに移しつつある。本誌も独自に調べてみたが、確かにAppleはiCloudのストレージの多様化に努めているようで、その事業用としてGoogleも利用するようだ。

これは、いちばん控えめに言っても、Googleにとってはまた一つの大勝利で、AWSにとっては敗北だ。これまでも、Dropboxは合衆国におけるストレージ事業の相当量をAWSから自社内へ移したし、Spotifyはそのビジネスの少なくとも一部をAWSからGoogleへ移した。

これまでの試合経過を見ると、今月はGoogleにとってとくに良い月だった…とりわけ、同社のクラウドビジネスの新しいトップDiane Greeneにとっては。SpotifyやAppleのような有名企業が顧客なら、そのほかのエンタープライズ顧客もますますGoogleに魅(ひ)かれるだろう。GoogleのCloud PlatformはGoogle自身のデータセンターの技術がベースだが、しかしそのことはこれまで、AWSやMicrosoftのAzureに対する有利な競合要因になっていない。AWSには古顔の有利性があり、Azureの背後にはMicrosoftの強力な営業力とハイブリッドクラウド技術への特化がある。ただしAzureは、バックにいくら強力なMicrosoftがいても、クラウドビジネスではずーっと後方の二位だ。

まだ、プラットホームの移行に関するApple自身の意思決定の内容は不明だ。AWSやGoogleも、この件に関しては口をつぐんでいる。

某匿名情報筋によると、Appleは今確かに、複数のパブリッククラウドベンダ、中でもとくにMicrosoft AzureとGoogleを、自社のオプションとして検討している。しかしまだ、最終的な意思決定は行われていない。、なおAppleはすでにiCloudサービスやメディアのサービングにおいて、AzureとAWSを使っている。

要するに事態が本当に(今日の噂どおりに)‘AWSからの離脱’なのか、その辺も明確でない。ただしAppleが、クラウドのサプライヤーのポートフォリオの中身を多様化しようとしていることは、確かなようだ。

状況のもうひとつの側面として、今Appleはオレゴン州プラインビルのデータセンターを拡張中であり、合衆国とヨーロッパで新しいデータセンターも作るらしい。そして、これに今回の話が絡むのなら、AWSからGoogleへ、Googleからさらにプラインビルへ、という線はないだろう。新しいデータセンターの竣工を、単純に待つだろうから。

もしもAppleが、単純にインフラストラクチャの多様化を目指して、これまでのAzure、AWS、および自社データセンターに加えてGoogleも使う、ということなら、無理のない線だ。また、AppleがGoogleのクラウド上の特定のサービスを使うつもりなら、データ分析プラットホームBigQueryあたりが、ねらい目だろう。

われわれにとって既知の事項のひとつは、Akamaiの最近の決算報告だ。Akamaiはその中で、同社の最大のクライアントのうちの2社が、多様化しつつある、と言っている。“過去数年間にわたり、中でもとくに弊社の最大の二つの顧客 が、Akamaiの全体的な売上の約13%を占めてきた”、とAkamaiのCEO Tom Leightonが述べている。“2016年を展望するならば、これら二つのアカウントが依然として弊社の最大のメディア顧客であり続け、弊社の総売上の約6%に貢献するだろう。貢献率のこの7ポイントの変化は、彼らのDIY努力の増加がその原因であり、それは、今後の2四半期における、低い前年比売上増加率が予想される主な理由でもある”。

Akamaiの最大のクライアントがAppleであることは衆智だから、上の言葉は、AppleがCDN(Content Delivery Network)事業の一部も自社化しようとしていることを、意味している。

Googleは来週サンフランシスコで、大規模なクラウドイベントGoogle Nextを開催する。もしも(←これは確かにビッグな“もしも”だが)同社が、同社の新しい顧客について何かを発表するつもりなら、それはたぶん、このイベントにおいてだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCustom Machine Typesがベータを終了、Red HatとWindowsもサポート

google_data_center_2

GoogleのCloud PlatformのCustom Machine Types(カスタムマシンタイプ) は、ユーザーが自分のアプリケーションを動かすために必要なCPUのコア数やメモリ容量を自由に指定できる。このマシンタイプが発表されたのは昨年の11月だったが、今日(米国時間2/17)ついにベータを終えた

さらに今日Googleは、これらのマシン上でRed HatのLinuxディストリビューションとWindowsの運用をサポートする、と発表した。この二つが、これまでGoogleがサポートしてきたCentOS, CoreOS, Debian, OpenSUSE, およびUbuntuに加わる。さらに独自のセットアップが必要なら、自分が使っているLinuxディストリビューションを持ち込むこともできる。

今日のアップデートに伴い、GoogleのContainer EngineとDeployment ManagerもCustom Machine Typesをサポートする。

Screen Shot 2015-11-18 at 9.09.00 AM

Custom Machine Typesのアドバンテージは、仮想CPUコアとメモリの料金が定率になることだ(合衆国で1コア1時間あたり0.03492; 1GB1時間あたり0.00468ドル)。たとえば、3コアのCPUと15GBのメモリが必要なら、これまでの段階的なマシンタイプの中から無駄で高価なタイプ(4コア;20GBなど)を選ばなくても、必要なリソース量をそのまま指定できる。

tEE1vIKGDF8Ao7aCAm_TX0D3VnsJIGTrsIpeXcyj6RcREsh8J0VVTiMjJASAJnII9gZoTw=s2048

Googleによると、カスタムマシンタイプに切り替えることにより、顧客は最大で50%、平均で19%の費用節約ができる。ただしもちろん、それらは個々の具体的なユースケースによる。同社によると、たとえばWixのメディアプラットホームのコンピューティングコストは18%節減でき、マーケティングの個人化サービスLyticsは20〜50%の費用節減を実現した。

このマシンタイプの料金はGoogleの標準モデルに従い、分単位の課金とsustained use discounts(持続的利用の割引)が適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが日/週/月ベースの予約制インスタンスを割引料金でローンチ

aws_logo

AmazonのクラウドコンピューティングプラットホームAWSが今日(米国時間1/13)、新しい料金制を導入し、それを使うと、一日に一定の時間だけ、とか、毎月一定の日だけとかに自分のクラウドアプリケーションを動かす必要のあるユーザが、AWSのサービスをより使いやすい料金で利用できる。

その新しい料金制はScheduled Reserved Instancesと呼ばれ、AWSのユーザはインスタンスを、日ベース、週ベース、あるいは月ベースで、一定の時間だけ予約し利用できる。そのためには、下図のような入力フォームにスケジュールを記入するだけだ。

ec2_sched_ri_find_sched_2

予約期間の単位は1年だが、その代わり標準のオンデマンドの料金の5〜10%の割引料金になる。

割引率は、一般的にAWSの利用が混みあう時間帯は5%、週末など比較的ひまな時間帯は10%となる。

2016-01-13_1531

この新しい料金制は、当面、US East(North Virginia), US West(Oregon), EU(Ireland)の各リージョンでしか利用できない。

ec2_sched_review_and_buy_2

これは、なかなかうまいやり方、と言えるだろう。クラウドのワークロードはむらが多いからね。でも、週日の午後だけに何かの計算をしたい、とか、月初に課金の計算をするだけ、なんてときに、インスタンスをフル契約するのはもったいない。

AWSでもAzureでもGoogleのCloud Platformでも、任意の日と任意の時間にマシンを動かして停止することは十分に可能だが、そんなユーザでもこれまでは、標準のオンデマンドの料金を払っていたのだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

高価なGPUやFPGAなど特殊ハードウェアをクラウド上で安価に利用できるBitfusionのCloud Adaptorサービス

img_9558

今年の本誌主催TechCrunch Disrupt NYのStartup BattlefieldでデビューしたBitfusionは、アプリケーションが高性能なハードウェアの上で走る場合、ジェネリックで平凡なコードを実行させず、そのハードウェアの性能をフルに使って動けるようにする。デスクトップの場合はもちろんだが、これからは、特殊で高性能なコンピューティングクラウド(“スーパークラウド”)上でもそれができる。

同社の最初のプロダクトBoostは、ライブラリをマシンのハードウェアに合わせて最適化することによって、既存のアプリケーションを高速化する。これまで非公開アルファだったBoostはこのほどベータに移行したので、誰もがここで登録できる。

Bitfusionの協同ファウンダでCEOのSubbu RamaとCTO Maciej Bajkowskiによると、初期のユーザは機械学習やデータサイエンスのプロジェクトにBoostを使ってみて、感激している人が多いそうだ。今のところBoostが対応しているアプリケーションは、Blender, ImageMagick, Octave, Matlab, Torchなどだけだが、今後はもっと増やしたいと同社は言っている。

同社は、Boostをメインのプロダクトと見なしているが、これまでBitufsion Labsの実験的プロジェクトだったCloud Adaptorは、さらにエキサイティングなプロダクトだ。

2015-11-24_1032

デベロッパがCloud Adaptorを利用すると、本来ローカルマシンのために書いたアプリケーションが、クラウドの上でもGPUやFPGAにアクセスできる。アプリケーションは自分が高度なハードウェアを揃えたラップトップの上で実行されていると思い込んでいるが、実際にはそれらのデバイスはクラウドにある。

Ramaは語る、“Cloud Adaptorはわれわれにとって、Boostの次に当然取り組むべき課題だった。Boostはインノード(in-node)のアクセラレーションを提供するが、でも自分のマシンに適正なデバイスがなかったら、そこでお手上げになる”。

しかしCloud Adaptorのコマンドラインツールを使えば、デベロッパはたとえばAWSやRackspace、SoftlayerなどのクラウドのGPUにアクセスでき、またRackspaceと共同開発したBitfusionのクラウド上のFPGAにもアクセスできる。

ふつう、デベロッパがAltera FPGAにアクセスするのは容易ではないが、このサービスを利用するとクラウド上のそれらを簡単に利用できる。あるいは、IntelがAltera FPGAを内蔵したXeonチップを出すまで待つか、だ。

もちろん、違いがはっきり現れるのは、デベロッパがそういう特殊なハードウェアをフルに利用するアプリケーションを書いた場合だ。デベロッパは、APIの呼び出し回数に応じて課金される。

RamaとBajkowskiによると、これまでのデベロッパはGPUやFPGAsの利用を前提とするコードを、書くことはできてもテストすることができなかった。でもこのCloud Adaptorを利用すれば、高価なハードウェアを買わなくてもクラウド上で自分のアプリケーションを動かせる。

このサービスによって、高度なハードウェアを利用するアプリケーションを書くデベロッパ人口が一挙に増える、とBitfusionは期待している。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

Googleが主力のコンテナサービスContainer RegistryとContainer Engineをアップデート…Kubernetesを統合など

docker-google

今年GoogleはContainer RegistryContainer Engineなどにより、同社のCloud Platform(IaaS)のコンテナ対応化にますます力を入れてきた。そして今日(米国時間11/10)は、この二つのサービス(ないしツール)のアップデートが発表された。

Container Engineは、クラスタの管理を自動化しコンテナの展開をオーケストレーションするGoogleのサービスだが、今回のアップデートでKubernetesの最新バージョン(version 1.1)をサポートすることになった。ニューバージョンでは随所にパフォーマンスの改良が行われ、そしてそれがContainer Engineのユーザにも可利用になった。

これによりContainer Engineでは、ポッド(pod, ノードの集合)の水平的スケーリング(クラスタへのサービスの追加)を自動的に行えるようになり、またHTTPのロードバランサも可能になる。後者では、トラフィックがその量に応じて別のKubernetesサービスへルートされる。

また、ネットワークのスピードも向上した。それにはContainer EngineにネイティブIPテーブルを導入し、CPUのオーバヘッドをほとんどなくし、信頼性を向上させたことなどが含まれる。

Container Registry(Dockerイメージのストレージ)の方も、今日同様のアップデートが行われた。それらはAPIのv2、パフォーマンスを40%アップ、高度な認証のサポートなどだ。高度な認証により、CodeshipやCircleCI、Drone、Jenkins、Shippable、Werckerなどの継続的なデリバリシステムを容易に統合できるので、デベロッパの仕事が相当楽になるはずだ。

Googleはまた、TwistLockとパートナーして、コンテナのためのセキュリティサービスを導入した。たとえばContainer Registryのユーザは、その上のコンテナへのアクセスポリシーを、設定できる。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

AWSは韓国に次いでイギリスにも新たにリージョンを設ける意向、今後はインドにも

aws-robot

Amazon Web Services(AWS)このところ、サービス供用地域の拡大にますます熱心だ。AmazonのCTO Werner Vogelsは今日(米国時間11/6)、2016年の終わりないし2017年の初めにイギリスリージョン(UK region)を立ち上げる、と発表した

それはEUでは3つ目のリージョンで、最初はかなり長年、ダブリンのデータセンターが、ヨーロッパのデベロッパがAWSを使って同地域内にアプリケーションをホストするための、唯一の選択肢だった。そして昨年AWSは、ドイツのフランクフルトを拠点とするリージョンを初めて立ち上げた

イギリスリージョンを発表した日の前日にAWSは、韓国リージョン(South Korea region)の計画を発表した。これはアジア太平洋地区では5つ目のリージョンだ。このほか計画中のリージョンとして、インド、中国第二、オハイオ州(2016)がある。AWSの現在稼働中のリージョンは、11ある。

イギリスと韓国に関してAmazonは、すでの顧客数がとても多いことを挙げている。“2006年にAWSを立ち上げた当初から、イギリスの指導的企業の多くがアーリーアダプターだった。弊社は今日まで継続して彼らを、アジリティの強化やITコストの低減、容易なグローバルスケーリング等の面でお手伝いしてきた”、とVogelは声明文の中で言っている。

リージョンの数に関しては、A、M、G三社の中ではM(Microsoft)のAzureが20で最大、G(Google)のCloud Platformは4つだ(合衆国内2、ベルギー、台湾)。デベロッパはエンドユーザに近いところからアプリケーションをホストした方がレイテンシが低い、と考える。またローカルデータ主権法(local data sovereignty law)のあるドイツのような国では、一部のユーザデータが国外に出ることを禁じている。


〔訳注: AWSの現状11のリージョン一覧(出典)〕

米国東部(バージニア北部)リージョン
EC2 アベイラビリティーゾーン: 5*
2006 年開始

米国西部(北カリフォルニア)リージョン
EC2 アベイラビリティーゾーン: 3*
2009 年開始

米国西部(オレゴン)リージョン
EC2 アベイラビリティーゾーン: 3
2011 年開始

AWS GovCloud(米国)リージョン
EC2 アベイラビリティーゾーン: 2
2011 年開始

サンパウロリージョン
EC2 アベイラビリティーゾーン: 3
2011 年開始

欧州(アイルランド)リージョン
EC2 アベイラビリティーゾーン: 3
2007 年開始

欧州(フランクフルト)リージョン
EC2 アベイラビリティーゾーン: 2
2014 年開始

アジアパシフィック(シンガポール)リージョン
EC2 アベイラビリティーゾーン: 2
2010 年開始

アジアパシフィック(東京)リージョン
EC2 アベイラビリティーゾーン: 3
2011 年開始

アジアパシフィック(シドニー)リージョン
EC2 アベイラビリティーゾーン: 2
2012 年開始

中国(北京)リージョン
EC2 アベイラビリティーゾーン: 2

〔アフリカと中東は現状ではヨーロッパのリージョンがカバーしている。〕

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

OpenStackクラウドのデプロイを支援するSolineaが$4Mを調達してアジア太平洋(とくに日本)市場の開拓へ

8681750288_354823d8d3_o

OpenStackのクラウドをデプロイすることは、今なお容易なワザとは言えない。Solineaは、コンサルタント兼技術提供者として企業によるプライベートクラウドの設計と展開を支援する。同社は今日(米国時間10/21)、Translink Capitalが率いるシリーズAのラウンドで400万ドルを調達したことを発表した。数名のエンジェル投資家がこのラウンドに参加している。

TransLink Capitalはアジアとの強いコネがあり、エンタプライズテクノロジの経験もある。SolineaのCEO Francesco Paolaによると、そのため彼の企業にとっては理想的な投資家だ。

Paolaと協同ファウンダでCTOのKen PeppleはOpenStackとのつき合いが長く、同社を創業したのは数年前だが、ほとんど自己資本のみでやってきた。Paolaによると、当時はまだプライベートクラウドをやろうとする企業にとって自己の技術力やサードパーティのサービスが乏しく、彼らにとってはとくにスケーリングが難題だった。

Solineaはサービスのプロバイダとして創業したが、やがて、プロダクトも提供しないとだめだ、と気づいた。そこで同社が作り上げたプロダクトGoldstoneは、OpenStackのクラウドを視覚化して監視および管理するツールだ。Paolaが経験から学んだのは、適切なプロダクトがなくて、素手でサービスビジネスをスケールするのはとても難しい、ということだ。Goldstoneは今年の初めにオープンソース化し、今取り組んでいる次のプロダクトはGoldstoneがベースで、2016Q1にリリースできる予定だ。

今回得た資金は、この新しいプロダクトの開発資金にもなる。そのほかは、APAC諸国(中でもとくに日本)の市場開拓のための資金となる。これらの国々ではOpenStackへの関心は高まっているが、Solineaのようなサービスプロバイダはまだ少なくて、企業によるOpenStackクラウドの本格的な実装もまだそれほど多くない、とPaolaは見ている。

Paolaによると、ヨーロッパ市場もいずれは、と考えてはいるが、そのためには、人材を揃えるなど態勢の整備が重要だ、と彼は言う。

今日の資金調達の発表と並行してSolineaは、Deutsche Börseと共にハイブリッドクラウドのプラットホームを開発中であることを公表した。

“クラウドを採用して成功している企業では、経営者とITのトップたちが、クラウドは単なる技術的なソリューションではないことをよく理解している”、とPaolaは語る。“Deutsche Börseも、また北米やAPACの顧客企業も、クラウドが経営にアジリティと効率をもたらすための戦略的な要請だ、と解釈している。だからDeutsche Börseのチームと協力してハイブリッドクラウドを構築していくことを、とても楽しみにしている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa)。

Red HatがITオートメーションのAnsibleを$150Mで買収へ…OpenStackデプロイをDevOpsのために簡易化

redhat_hat

オープンソースで大企業を築いたRed Hat(社員数7300)が、エンタプライズITのポートフォリオ充実のため、また企業買収を行おうとしている。本日(米国時間10/16)同社は、ITオートメーションのスペシャリストAnsibleを買収すると発表した。同社の得意分野は、オンプレミスとクラウドの両ソリューションを組み合わせたハイブリッドITの、構築、デプロイ、そして管理だ。

これまでの噂では買収価額が1億ドル強とされていたが、業界筋によると実際には1億5000万ドルに近いようだ。Red Hat自身は買収の条件を何も公表しないが、買収の完了は今月とされている。ただし、Red Hatのほかにも、Ansibleにアプローチしている企業が数社あるらしい。

2013年にSanta Barbaraで創業したAnsibleはこれまで主にMenlo Venturesと、e.venturesのパートナーDoug Carlisleから計600万ドルしか資金を調達していない。それに対し1億5000万ドルは、相当大きなリターンだ。

AnsibleはOpenStackクラウドのスペシャリストとして名を上げ、今年前半にはその支援者としてCisco, HP, CSCおよびRackSpaceとパートナーシップを結んだ。Red HatによるAnsibleの買収は前者が今後もOpenStackビジネスを拡大していく意思の現れであり、それにはハイブリッドクラウドの管理や、OpenStackとコンテナの展開など広範囲なサービスが含まれる。

とくに今回の買収では、Red HatによるDevOps向けプロダクトの底入れが期待され、デベロッパ兼オペレータが頻繁に現場の問題に即応して、迅速にコードを書き、デプロイもしていくという最近の成長トレンドを、支援していくものと思われる。すでにTwitterなどのテク企業では行われていたこの実践が、今やほかの業界の企業にも普及しつつある。

“Ansibleは、その過程を自動化する方法を提供する”、とMenloのCarliseは語り、それがRed Hatが同社に関心を持った理由でもある、と述べた。

Red HatのVP Joe Fitzgeraldは声明文の中で、“AnsibleはITオートメーションとDevOpsにおける、誰もが認めるリーダーである。同社はRed Hatが目標とする、摩擦のないITの提供に、大きく貢献するものと思われる”、と言っている。

また、Ansibleの協同ファウンダでCEOのSaïd Ziouaniは、“オープンソースのグローバルリーダーであるRed Hatが、ITオートメーションとシステム管理の未来に挑戦するためにAnsibleを選んだことに感動している。このことは、Ansibleのシンプルなサービスと、エンタプライズのカスタマベース、そして強力なコミュニティが、コンピューティングとネットワーキングとクラウドとコンテナのすべてをカバーするエンタプライズITオートメーションにおける、勝者になりつつあることの、強力な認定である”、と声明している。

買収に関するRed Hat自身の説明はここで読める。本誌ライターのFrederic Lardinoisによると、Ansibleは複雑なOpenStackに一見単純な外見を与えて、一般ユーザにとって使いやすいものにしている。

そのようにAnsibleは、コードのデプロイに伴う大量の専門技術や専門知識を不要にして、ふつうに英語でコマンドできるようにした、新世代のITプラットホームに属する、とされている(私の知人がそう説明してくれた)。

買収に関するRed Hatの声明文は、“競合するソリューションと違ってAnsibleではコーディングのスキルが要らないので、ITオートメーションの最大の障害の一つが取り除かれている”、と述べている。

Red Hatによると、Ansibleの技術がカバーしているのは、アプリケーションをプライベートとパブリック両方のクラウドにまたがってデプロイし管理する能力、DevOps方式でサービスのデリバリをスピードアップすること、OpenStackのインストールとアップグレードを簡素化/合理化すること、オーケストレーションと構成を単純化することによってコンテナの採用を加速すること、などである。

Red Hatは今日、ニュースの一部として決算報告の簡単なアップデートも発表した。それによると買収は同社の第三および第四四半期の売上に大きな影響を及ぼさない。2016会計年度のNon-GAAP操業費用はQ3で200万ドル、一株あたり0.01ドル増加し、Q4ではこの買収の結果400万ドル(0.02ドル)となる。

Red Hatは1999年に上場し、今回はその14番目の買収となる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa)。

バックアップサービスのBackblazeがAmazon S3の1/4の料金でクラウドストレージサービスを立ち上げ

backblaze-b2-08-storage-pod

Backblazeは消費者向けと企業向けのバックアップサービスでよく知られており、そのサービスのために同社が買うハードディスクの台数も話題になった。しかし今日同社は、これまでとはやや毛色の違うサービスBackblaze B2の非公開ベータを立ち上げた。それはAmazon S3や、あるいはMicrosoft AzureとGoogleのCloud Platformなどと価格で競合するクラウドストレージサービスだ。

Backblaze-B2-02-cloud-storage-cost-comparison

2007年にローンチして今では利益も出ている同社は、150ペタバイト相当のバックアップデータと1000万を超えるファイルをそのサーバ上に保存している。同社の協同ファウンダでCEOのGleb Budmanによると、そもそもBackblazeが独自のストレージサービスを始めたのも、当時自己資本のみの同社にとって既存のサービスが高すぎたためだ。

“これまでは毎年、時間と労力の90%がクラウドストレージの構築に投じられ、フロントエンドはわずか10%だった”。と彼は語る。そして、きわめて安定したバックエンドを持つようになった同社は、多くのユーザから、バックアップを預けるだけでなく、S3のようなAPIでそのバックエンドに自分で直接アクセスしたい、という要望が寄せられるようになった。

Budmanによると、Backblazeの技術者たちは一年がかりで、その要望に応えるためのソフトウェアを構築した。最初の頃は、わずかな数の社員たちが日々の成長への対応に追われていたから、こんな余技はまったく不可能だっただろう。でも今では、既存勢力と価格や可用性で十分勝負できるB2Bプロダクトを作れる、という気持になっている。

Backblaze-B2-04-screenshots-UI-CLI-API

Backblazeのサービスの料金は、AWSのとても遅いコールドストレージサービスAmazon Glacierの半額、通常のS3サービスの1/4だ。Budmanも、デベロッパがS3からBackblazeに乗り換えるとしたら、その動機は価格だ、と認める。彼によると、“ストレージが高すぎるために存在できないユースケースがいろいろある”、という。たとえばデータを世界各地に分散させて保存したいが、それをAWSだけでやろうとすると、自分で工夫してやる場合の倍の費用がかかるだろう。Backblazeの低料金なら、データの冗長コピーをAmazonに払う場合の15%の料金(約1/6弱)で保存できる。

当面Backblaze B2のユーザは、画像やビデオ、大量のドキュメントなどのデータを保存するだろうが、Budmanは、いずれ膨大な量の研究データなども保存されるようになる、と展望している。

Backblaze B2には無料プランもある(ストレージ10GBまで、読み出し1GB/日、書き込み帯域は無制限)。デベロッパにはAPIとコマンドラインインタフェイスが提供されるが、一般人のためのWebインタフェイスもある。

今はまだ非公開ベータだが、登録はここでできる。一般公開は今年の終わりごろの予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft AzureがVMを値下げ、新たに高速大容量ストレージ併設のGSシリーズVMを提供開始

azure_azure

Microsoftが今日(米国時間9/2)、同社のAzureクラウドコンピューティングサービスの二つのアップデートを発表した。ひとつはパフォーマンスが最適化されるGクラスのVMに新しいタイプを導入、もうひとつは計算力に重点を置くDクラスVMを値下げしたことだ。

GクラスVMはAzureクラウド上のもっともハイエンドのマシンで、したがって料金ももっとも高い。Windowsが動き、最高月額は7180ドルにもなる。今度からこのGクラスのマシンに、高仕様ストレージを伴うGSというタイプが新たに導入され、そのストレージの最大仕様は64TB、毎秒80000I/O、最大スループットが2000MB/sとなる。

これまでのGシリーズと新しいGSシリーズはともに、VMが帯域20Gbpsのネットワーキングをサポートする。そのスループットは、競合他社の倍、だそうだ。

担当マネージャCorey Sandersによると、この有料ストレージオプションを導入したのは、顧客の要望による。Gシリーズのユーザは、大きなデータベースを必要とすることが多いのだ。

“そういうワークロードが増えているから、ストレージのスループットの増大を求める声が頻繁に聞かれるようになった”、と彼は語る。彼によると、GSシリーズのVMはMySQLやMicrosoftのSQL Serverなどだけでなく、MongoDBのようなNoSQLデータベースも高いスループットで利用できる。

Sandersによると、Azureの顧客の一部はデータウェアハウスや、あるいはExchange、Dynamicsのようなエンタプライズアプリケーションを稼働するためにこれらのマシンに着目している。

gs-series

今回のアップデートでMicrosoftは、DシリーズVMの最大27%の値下げを行う。このVMはWebアプリケーションのフロントエンドや、メインのデータ処理/供給層で使われることが多い。Sandersが説明する値下げの動機は、このDシリーズをいわば、Azure利用の入り口と位置づけ、今後なお一層のユーザ増を図りたいためだ。値下げは、10月1日から有効となる。

さらに今後Azureから、メッセージングサービスService Busを利用できるようになり、より高いアップタイムと、より予測可能なパフォーマンスが約束され、VMの診断能力も提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがCloud Computingの料金を最大30%値下げ、アイドルリソースを使う超安価なインスタンスをローンチ

pry_22

Googleが今日(米国時間5/18)またまた、同社のクラウドコンピューティングプラットホームの料金を値下げした。また、企業がクラウドコンピューティングの利用でさらに一層の省マネーを図れるための、新しいインスタンスタイプを導入した。

今日の値下げはCompute Engineが中心で、最小のインスタンスで最大30%の下げとなる。その、Google Cloudプラットホーム上のMicroインスタンスは、通常の利用で1時間0.006ドル(0.6セント)になる。そのほかのインスタンスは、これほど激しくはなくて、High CPUインスタンスで5%、Standardインスタンスで20%の値下げとなる。

Googleの主張によると、これでGoogle Cloud Platformの利用料金は多くのワークロードにとって40%安くなるそうだ。例によってこういう数字は、眉に少し唾をつけて見る必要があるが、しかし誰の目にも明らかなのは、Googleがクラウドコンピューティングを継続的に値下げしてAmazonやMicrosoftなどに勝ちたい、というその意志だ。

2000x1500_LineChart

今日同社は値下げと並行して、preemptible instances(プリエンプティブルインスタンス)と呼ばれる新しいインスタンスタイプのベータをローンチした〔仮訳: (ユーザでなくシステム側に)先買権のあるインスタンス〕。Amazonのspotインスタンスにやや似ているこのインスタンスは、Googleのデータセンターのアイドルリソースを使うので、standardインスタンスよりも70%安くなる。

ただしCloud Platformは、リソースが必要になったらそのインスタンスを、30秒の警告ののちに終了させる。このインスタンスの上では、フォールトトレラントなサービスしか動かすべきでない、ということ。spotの場合と同じく固定料金なので、料金の変動を心配する必要はない。

png_base649738b56527f5b100

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ついに高性能パソコンそのものがクラウドから提供、仮想化コンピューティングを大衆化したPaperspace

【抄訳】

これからは、パソコンをアップグレードしてスピードもストレージも増やしたいとき、それを高価な新しいハードウェアを買わずにできる。Y Combinatorから巣立ったPaperspaceが、一台の完全なパーソナルコンピュータをクラウド上に作ってくれる。ユーザはそれに、Webブラウザからアクセスする。それはある意味では、VMWareやCitrix、Amazon Workspacesなどエンタプライズ向けのソリューションにも似ているが、Paperspaceがねらうのは一般消費者や、在宅の仕事人だ。

ローカル機(自機)はWebがふつうに閲覧できる程度のものでよいが、クラウド上の高性能リモートパーソナルコンピュータには、同社の専用通信デバイス(上図左下)を自機に接続してアクセスする。

この専用デバイスは文鎮に似ているので Paperweightと呼ばれ、Paperspaceのサーバ上にあるユーザのリモートマシンと対話する。そのリモートマシンは、必要とするコンピューティングパワーに応じて”basic”または”pro”を選ぶ。このデバイスは中に小さなマイクロプロセッサがあるだけで、計算処理はすべてクラウド上で行われるから、“ゼロクライアント”であると見なされる。

Amazon Web Services(AWS)などを初めとして、今日ではクラウド上のコンピューティングパワーを利用するソリューションはたくさんある。でもそれらのサービスはすべて、プロフェッショナルの技術者向けだ。しかしPaperspaceは、同じくリモートのクラウドコンピュータにアクセスするサービスでありながら、一般消費者が画面上のボタンなどをクリックするだけで簡単に使えるようになっている。しかもそのリモートマシンは、机上の自機よりずっと強力な高性能機なのだ。

協同ファウンダのDillon Thompson ErbとDan Kobranによると、彼らがPaperspaceを発想したのはミシガン大学在学中に、建築業界向けの技術的なアプリケーションを作ったときだ。

建築関連のシミュレーションなどを動かすためには、高価なハイエンド機を買う必要があるが、それでもシミュレーションのアプリケーションを数日間ぶっ続けで動かさなければならない。“でも、科学計算の分野ではクラウドコンピューティングが利用され始めていることに、ぼくたちは気づいていた”、とErbは説明する。“そこで、“クラウドコンピューティングのパワーをコンピュータが苦手な建築士などが簡単に使えるためには、どうしたらいいか、と考えるようになった。クラウドコンピューティングは今でも、コンピュータの専門技術者でないと扱えない”。

彼自身もKobranも、二人ともコンピュータの技術者だから、今のソリューションでも十分に使える。ときどきコマンドラインからアプリケーションを動かすこともある。でも、それは一般の人びとには無理だ。

【中略】

Paperspaceは最初のうちAWSを使ってその仮想化機能などを実現していたが、今では自前のサーバの上でクラウドオーケストレーションソフトのXenやNvidia GRIDなどを使っている。サーバを置くスペースとしては、某コロケーションサービスを利用しているが、いずれ自前でデータセンターを持ちたい、と考えている。

VNCや、MicrosoftのリモートデスクトッププロトコルRDPなど従来のリモートアクセスと違ってPaperspaceは、WebsocketやWebGL、asm.jsなど最新のWeb技術をクライアントサイドで利用することによって、クライアント上で完全なHDのコンテンツを動かせる。

Netflixの映画をストリーミングできる程度のローカル機であれば、Paperspaceを十分に利用できる、という。

このサービスの利用料金は月額10ドルが下限だが、完全な料金体系はまだ決まっていない。今はWindows 7と8、およびUbuntuに対応しているが、Mac OS Xなどそのほかのオペレーティングシステムも近くサポートする予定だ。いずれ料金体系が確定して、リモートマシンをより“高性能機”にアップグレードしたいとき、ユーザがすることは何もない。設定も構成もそのまま完全に引き継がれるから、すぐに使い始められる。そこが、Paperspace、クラウド上にある高性能パーソナルコンピュータの、大きなアドバンテージの一つだ。

Paperweightデバイスは当分のあいだ予約価格50ドルで売られるが、本誌の読者250名には5ドルの割引がある。コードTECHCRUNCHを入力すること。デバイスの発売は、今年の後半を予定している。

Paperspaceは現在、Y Combinatorからの支援を除いては自己資本のみ。7名のチームが各地に分散している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa


GoogleがDockerのプライベートなリポジトリとしてGoogle Container Registryを提供開始

Googleの今日(米国時間1/23)の発表によると、同社のCloud PlatformのためにGoogle Container Registryをベータでローンチした。このサービスによりデベロッパは自分たちのDockerコンテナのプライベートなリポジトリをホストし共有し管理できる。

Dockerにはデフォルトでパブリックなイメージレジストリがあり、デベロッパはそれらのイメージから、ベーシックで簡素なUbuntuマシンや、すでにWordPress、mongoDB、Hadoopなどさまざまなサービスがセットアップされているサーバなど、何でも素早くインストールできる。しかし企業の多くは、自分のコンテナをパブリックなレポジトリへパブリッシュすることに関心がなく、自分でプライベートなリポジトリを設けるか、クラウドサービスのQuay.ioなどを利用したりする。そこで今回のGoogle Container Registryは、Googleのクラウドコンピューティングプラットホームを使っている企業のためにプライベートリポジトリの場を提供するものだ。

それはGoogleのCloud Platformのプロジェクトだから、例によってベータのときには無料ですべてのデベロッパが利用できる。

Googleは、次のようなアドバンテージを挙げている:

  • アクセス制御(セキュリティ): このレジストリサービスは、ユーザのプライベートイメージを、ユーザのGoogle Cloud Platformプロジェクトの一環であるGoogle Cloud Storageからホストする。したがってデフォルトでは、そのプロジェクトのメンバーだけがそのプライベートイメージにアクセスできる。それは、Google Cloud SDKのコマンドラインからセキュアにイメージをプッシュしプルすることになる。そしてコンテナのホストVMは、特段の努力不要で、セキュアなイメージにアクセスできる。
  • サーバサイド暗号化: ユーザのプライベートイメージは自動的に暗号化されてからディスクに書き込まれる。
  • 高速で信頼性の高い展開: ユーザのプライベートイメージはGoogleのCloud Storageに保存され、弊社のデータセンターでキャッシュされて、Google Container EngineのクラスタやGoogle Compute Engineのコンテナ向けに最適化されたVMsへ、Google Cloud PlatformのAndromedaベースのネットワークファブリックにより展開されていく。

Googleは早くからDockerに賭けている。もともとGoogleは、自分のインフラの中核としてつねにコンテナを使ってきたからだ。同社はまたKubernetesのようなオープンソースのプロジェクトに重点投資し、昨年11月にはコンテナ専用のContainer Engineサービスをローンチした。

その昨年11月には、AmazonがEC2のContainer Serviceをローンチした。しかしAmazon自身は今のところレジストリサービスを提供していない。ユーザは、サードパーティのDockerレジストリを、どこのものでも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


痩身・軽量・快速の”Snappy” UbuntuがGoogleのCompute Engineでも使える

一週間前にCanonicalは、コンテナファーム向けに最適化された”Snappyな”(軽量快速な)Ubuntu Coreの最初のアルファバージョンをリリースした。そして意外にも、SnappyのローンチパートナーはMicrosoftのクラウドコンピューティングプラットホームAzureだった。しかし今日からは、このバージョンのUbuntuをGoogleのCompute Engineでも利用できる。

Googleはこれまでも、そのクラウドコンピューティング事業の中でコンテナのサポートをとりわけ重視してきた。そのサポートぶりは、競合他社に比べても抜きん出ていたから、今日の発表もそれほど意外ではない。

SnappyとUbuntu Coreの基本的な考え方は、デベロッパに必要最小限のライブラリだけを備えた最小限のサーバイメージへのアクセスを提供し、そこへデベロッパがアプリケーションをインストールする、というものだ。それは、必要あるもの・ないものすべて完備したフル装備のOSイメージの対極にあるものだ。アプリケーションはそれ用に独自にサンドボックス化された”AppArmor“環境で動くため、セキュリティが強固だ。元々AppArmorは、Canonicalがモバイル用に作ったシステムである。Snappyのそのほかの目立つ特長としては、トランザクションアップデート(transactional updates)がある。一気にだぁっとアップデートしてしまうのではなく、節目のあるオンラインのトランザクションをしながらアップデートするので、Ubuntu本体やアプリケーションの、アップデート失敗後のロールバックが安全確実に行われる。

CanonicalのそのほかのLinuxディストリビューションとSnappyとの違いについて、詳しく知りたい方は、この記事を読んでみよう。

Canonicalのクラウドエンジニアリング担当VP Robbie Williamsonは、今日の発表声明の中でこう述べている: “Ubuntu Coreはもっとも痩身でもっとも効率的なUbuntuであり、とりわけ、Dockerなどのコンテナを重用しているクラウドの展開に向いている。そのUbuntu Coreの、さらに軽量快速な(snappyな)パッケージを、Google Cloud Platformにご提供できることは、まことに喜ばしい。このクラウドプラットホームは、高いパフォーマンスと、コンテナ技術の重視で、一般的に評価も高いからである”。

Ubuntuによると、今月内にSnappyを“もうひとつのメジャーなパブリッククラウドに導入する”そうだ。たぶんそれはAmazon Web Servicesだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazonがこれまでで最速のEC2インスタンスをローンチ、IntelがAmazon専用に作ったプロセッサを使用

Amazonが今日、計算処理速度がこれまでで最速のEC2インスタンスを発表した。そのc4と呼ばれるインスタンスは2.9GHzのHaswellプロセッサを使用し(Turboブーストで最大3.5GHz)、最大36の仮想CPUと最大60GBのRAMをサポートする。

IntelはHaswellプロセッサをAmazon専用として作った。そのためEC2に関するAmazonの要求を完全に満たすように、チューニングされている。さらにまた最大のc4インスタンスでは、デベロッパがプロセッサのパフォーマンスとパワーマネージメントP-stateとC-stateの制御により微調整できる。

Amazonは、この高速プロセッサがSSDによるElastic Block Storage(EBS)によく合っている、と特記している。EBSも今日、ややアップデートされ、たとえば最大データ容量16TBまでの汎用ボリュームを作れることになった(最大ベースラインIOPSが1万)。これまでの最大は1TBで3000IOPSだった。もっとIOPSを必要とするアプリケーションのためにAmazonは、スループットレベルをユーザが指定できるプロビジョンドIOPSでは最大2万までを提供する(従来は4000IOPS)。これによりデータ伝送レートは最大で汎用ボリュームでは160MBps、プロビジョンドIOPSでは320MBpsとなる。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


クラスタ管理を抽象化して簡易にするMesosphereがGoogleのクラウドプラットホームにも対応、DockerツールKubernetesを統合

GoogleとMesosphereが今日(米国時間8/18)、両社のパートナーシップにより、GoogleのCompute EngineプラットホームにMesosクラスタのサポートを導入する、と発表したMesosプロジェクトとMesosphereはまだよく見かける名前ではないが、アプリケーションのスケーリング(ニーズに応じての規模拡大)で余計な苦労をしたくないと考える企業にとって、このところ急速に、重要なツールになりつつある。それらのアプリケーションの所在は、完全に自社のみのデータセンターの場合もあれば、パブリックなクラウドサービスの場合、あるいはパブリック/プライベートのハイブリッドの場合など、さまざまである。〔*: Mesosphere関連日本語訳記事(1)(2)。Mesosの’os’はOS(オペレーティングシステム)の意味…クラスタ群を一台のコンピュータへと抽象化する。〕

今度の提携によりGoogleのCloud Platformのユーザは、MesosphereのクラスタをGoogleのサーバ上に10分足らずでセットアップできるようになる。その基本的なインストールには二つの形があり、デベロッパはそのどちらかを選ぶ: 1)4インスタンスの開発用クラスタでアプリケーションのプロトタイピング用に8つの仮想CPUと30GBのメモリを提供、2)プロダクション用インストールで18インスタンス36仮想CPUメモリ136GB。この二つのオプションで不満な場合は独自のカスタムクラスタを作れる。

これらのクラスタにはデフォルトでMesosカーネル、Zookeeper、Marathon、およびOpenVPNが含まれる。クラスタの使用を開始するとMesosphereは、クラスタを管理するためのWeb上のわかりやすいダッシュボードを管理者に提供し、それにはGoogleのダッシュボードからアクセスできる。

MesosphereのCEO Florian Leibertによると、Mesosphereの中心的なねらいは、デベロッパがデータセンターをつねに一台のコンピュータのように扱えることだ。そのためにMesosなどのソフトウェアパッケージがDevOpsの主な仕事のほとんどを抽象化する。Leibertは以前TwitterやAirbnbの社員で今やそのTwitterもAirbnbもMesosのユーザだが、両社にオープンソースプロジェクトMesosを紹介したのはLeibert自身だ。

ユーザのハードウェアは実際には複数のハードウェアや仮想マシンやクラウドのインスタンスなどから成るが、Mesosphereという一枚の層がその上にかぶさるとアプリケーションは、多くのCPUやメモリをかかえた単一のリソースプールを使っている、という外見になる。デフォルトではMesosphereのサービスは、ユーザが使っているオペレーティングシステムやクラウドが何であるかを、まったく関知しない(どうでもよい)。ただし今回のGoogleとの提携にあたっては、Googleのクラウドに対しての最適化を図った。Mesosphereの詳細なドキュメンテーションは、ここにある。

Googleとのパートナーシップの中には、Dockerのコンテナを管理するGoogleのオープンソースのサービスKubernetesをMesopshereに統合することも含まれる。同社によるとこれによって、Dockerのワークロードの展開管理がより容易になる。ただしMesopshereのKubernetes統合は、対象がGoogleのCloud Platformに限定されない。Leibertは今日の発表声明の中で、“われわれが織り上げたコンピューティングの織物は、GoogleのCloud Platformだけでなく、そのほか、ユーザ自身のデータセンターやそのほかのクラウドプロバイダでも使用できる”、と言っている。〔Kubernetes関連日本語訳記事(1)(2)。〕

GoogleでKubernetesなどの次世代クラウドコンピューティングプロダクトを担当しているリードプロダクトマネージャCraig McLuckieによると、GoogleがKubernetesでやりたいことは、Googleが自社のデータセンターを管理するために開発してきた重要なコンセプトの多くを、同社の外部でも利用できるようにすることだ。彼は今回のMesosphereとGoogleの協働関係を、“きわめて相補的である”*と呼び、それら重要コンセプトの一部はMesosにも持ち込まれるだろう、と考えている。〔*: complementary, お互いの足りないところに互いにピッタリとはまり込んで補う、完璧な結婚。〕

MesosphereのシニアVP Matt Trifiro(元HerokuのCMO)によると、KubernetesやMesosのようなプロジェクトは、これらの技術の背後にある非常に高尚な思想を、万人が共有するものにする。現状では、“Webをスケールしなければならないというニーズを抱える企業にとって、ツールが十分にアクセス可能でなかった”。しかし今では、GoogleやMesosの高度なコンセプトとツールを企業も利用できるようになり、デベロッパやDevOps たちは一段高い抽象性のレベルで仕事ができるようになり、アプリケーションを動かしているインフラの具体的な細部を、直接いじらなくてもよくなっている。

Leibertは今日、こう書いている: “Googleと協働することによってGoogleのCloud Platformを、従来からのMesosphereのワークロード、たとえばMarathonChronosHadoopSpark、そして新たにKubernetesなどを使用するための最良の場所にしていきたい”。

この協働プロジェクトでは両社の関係がきわめて密だから、いずれGoogleがMesosphereを買収することもありえるかもしれない。現状ではそれは、あくまでも憶測だが、でも実際にそうなったら、その起源がこれだったことを、思い出そう。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


GoogleのApp EngineもDockerをサポート、オープンソースのコンテナ管理ツールを提供

Dockerは今や明らかにデベロッパコミュニティの大スターであり、Googleも当然、真剣に対応している。 今年はCompute EngineにDockerの基本的なサポートを加えたが、さらに今日(米国時間6/10)は、App EngineもDockerに対応する、と発表した。そしてそのためには、最近ローンチしたユーザ管理型仮想マシン(Managed VMs)を活用する。

またデベロッパによるDockerの利用を支援するために、Googleは今日、コンテナ管理ツールKubernetesをローンチする。さらにGoogleがDockerのコミュニティに本格的に参加するために、同社のインフラ担当VP Eric BrewerをDocker Governance Committeeにノミネートし、 “コミュニティと協力してコンテナのさらに良いオープンスタンダード構築に貢献していきたい”、との意思表示をした。

コンテナはGoogleにとって新しいものではない。同社はこれまで長年にわたって、大規模なデータセンターを管理するために内製のコンテナを使ってきた。今や同社は毎週、同社のデータセンター全体で20億あまりのコンテナをローンチしている。

GoogleのクラウドサービスプロダクトにおけるDockerの導入を推進してきた、プロダクトマネージャのCraig McLuckieは、Dockerのサポートは同社にとって当然なことだ、と言う。従来型のホスティングでは、新しいボックスを加えることが毎回、大仕事だった。しかし最近のアプリケーションは多くの小さなサービスの集合体であることが多いので、コンテナがうってつけの世界だ。だからMcLuckieは、“コンテナはうちにものすごく大量の価値をもたらす”、と言う。“多くのデベロッパにとってDockerは、大きな便宜を提供してくれるのだ”。

デベロッパがDockerをApp Engineで使うと、既存のDockerイメージの大きなライブラリにアクセスでき、またGoogleのストレージサービスを利用して自分のものを持ち込むこともできる。DockerイメージはManaged VMsに展開でき、するとデベロッパはGoogleのPaaSにない各種のサービスをApp Engineで動かせるので、多大な柔軟性 (自由度)が得られる。

またデベロッパが自分のApp Engineアプリケーションをパッケージして、それらからDockerイメージを作る作業を、ものすごく楽にしていきたい、と McLuckieは言っている。

App EngineにおけるDockerのサポートはまだベータだが、デベロッパはここでユーザ登録をして利用できる。

Dockerを使う場合、コンテナの管理やスケジューリングはユーザの責任だが、今ではそれらを支援するKubernetesのようなサードパーティツールがいろいろある。Kubernetesはギリシア語で“船の操舵手”という意味で、マシンの“艦隊”へのコンテナの展開を助けるオープンソースのコンテナマネージャだ。マシンを互いに連携させる機能のほかに、健康管理やレプリケーションの機能もある。なお、このコンテナマネージャはGoogleのサービスに縛られることなく、いろんなプラットホーム上のコンテナを一元管理できる。

Google自身はコンテナシステムとしてOmegaを使っており、Kubernetesも同社のデータセンターの運用にために作ったツールだが、今回はそれをDocker用にまったく新たに書き起こした。Googleが社内で使っているものよりもずっと、デベロッパフレンドリになっているそうだ。スタートアップ企業には、GoogleにあるようなDevOpsのチームがない場合が多いから、その点にも配慮している。

McLuckieによると、Kubernetesには多数のデベロッパが使えるという利点があり、ということは管理するコンテナ群が広範なデベロッパ集合にまたがっていてもよい、という意味だ。そのコードは、GitHubで入手できる。

関連記事(日本語訳)〕

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


AmazonがEC2の報告ツールをローンチ…使用状況, 料金などを視覚化

Amazon Web Servicesのユーザは今日から、クラウドコンピューティングプラットホームEC2の報告ツールを使える。EC2の通常インスタンスや予約インスタンスが今どのように使われているのか、料金はどれぐらいになっているか、などが、簡単に分かる。

Amazonはこれまで、そのクラウドコンピューティングプラットホームのパワーを、New Relicみたいに美麗なグラフや使用状況リポートの背後に隠すことを、あまりしてこなかった。しかし最近では、徐々にユーザの要望に応えるようになってきた。今月初めにはBilling Console(課金情報コンソール)をローンチして、ユーザが利用しているAmazonのサービス全域にわたるクラウドコンピューティングの費用を、ユーザ専用のダッシュボード上で、AWSらしくないきれいなグラフなどで見せるようにした。

今日のアップデートは、サービス全域ではなくEC2だけが対象だ。Amazonによると、今度ローンチした使用状況報告機能は、“インスタンスの使われ方や利用パターンに関する情報をユーザに提示して、EC2の使い方の最適化を図っていただく”、というものだ。

この新たなツールで使用状況が分かるのは、EC2の通常のインスタンス(レギュラーインスタンス)と予約インスタンス(リザーブドインスタンス)の両方だ。報告内容は、タイムフレームや可利用性ゾーン、インスタンスタイプ、購入オプション、タグ、プラットホームなどで分類できる。予約インスタンスに関しては、使用状況と累積料金、オンデマンドのインスタンスを使った場合との費用比較、などが表示される。

費用(料金)や使用状況に関する現状データをユーザに親切に見せる、という点では、最近のAWSはCloudabilityや、RightScaleのCloud Analyticsなどに近くなった。これらの専門ツールは、AWSだけでなく利用しているすべてのクラウドについて現状を見せてくれるが、とにかくAWSがこういう報告ツールを提供して、ユーザの声に耳を傾けるようになったのは、とても良いことだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Dell、HDMI端子付テレビにつながる129ドルのAndroidスティックを発売

Dellの自社ラインアップにAndroidを導入する挑戦は続いている。この新しい129ドルのデバイスは、GoogleのモバイルOSをHDMI入力付のテレビやモニターに持ち込む。Dell Wyse Cloud Connectは、Android Jelly Beanを塔載し、MHL(モバイル・ハイデフィニション・リンク)接続をサポートしている他、Bluetoothおよびmini USB経由でマウス、キーボード等も接続できる。

内蔵Bluetoothに加え、Dell Wyse Cloud Connectは、802.11n デュアルバンドWi-FiとGoogle Playストアを標準塔載している。これはエンタープライズおよびビジネスをターゲットにした商品だが、標準でインストールされているDellのWyse PocketCloudトソフトウェアによって、リモートコンピューターのバーチャル端末としても使える。

これは、事実上、長らく待望されてきた持ち歩き自由で自宅のファイルやソフトウェアやコミュニケーションも利用できるシン・クライアントPCだ。もちろん、出張者がエンターテイメントに利用できないという意味ではない。フルHDの出力を備えNetflixのAndroidアプリも容易に走るはずだからだ。

その「マルチコア」のCortest-A9 ARM SoCは、世界一強力なモバイルプロセッサーではないかもしれないが、Dellは、そのHDおよび3Dグラフィック能力を、特にスペックシートで謳っている。8GBのストレージ、RAM 1GBを内蔵し、micro SDスロットを使えば72GBの追加ストレージを得られる。

あくまでも表面的な印象からだが、出張の多いビジネスマンのつらい旅先には断然おすすめする。果たしDellがこの方向に進んでOuyaやGamestickなどの市場に参入し、ビジネス色に塗りかえることができるのかどうか、今後が楽しみだ。

妙な気分だが、過去少なくとも5年間で初めて、私はDellコンピューターを欲しいと思っている。信じられない。

[原文へ]

(翻訳:Nob Takahashi / facebook