Google CloudがCloud NAT、Firewall Rules Loggingなどネットワーキング機能を充実

今日(米国時間10/10)は、ロンドンでNextイベントを開催しているGoogle Cloudからのニュースで、忙しい日だった。このイベントで同社は、いくつかの新しいネットワーキング機能をローンチした。それらの中でも今日の主役はCloud NAT、これによりデベロッパーは、一般的に公開されるIPアドレスがなくて、企業の仮想プライベートクラウドの中にあるアプリケーションからのみアクセスできる、クラウドベースのサービスを容易に構築できる。

Googleも言うように、このようなセットアップは前から可能だったが、しかし容易ではなかった。でも、よくあるユースケースなのでGoogleは、Cloud NATにより、ネットワークアドレス翻訳(network address translation, NAT)のすべてを取り扱う完全に管理されたサービスを提供することになった。そしてCloud NATのゲートウェイの背後にあるプライベートなインスタンスへのアクセスを、デベロッパーに提供する。

Cloud NATはGoogle Compute Engineの仮想マシンと、Google Kubernetes Engineのコンテナをサポートし、デベロッパーが手作業でIPを指定できるマニュアルモードと、IPが自動的に割り当てられるオートマチックモードの両方を提供する。

今日は新たに、Firewall Rules Loggingがベータでリリースされた。アドミンはこの機能を利用してファイヤーウォールのルールの効果を監査し確認できる。たとえば、ファイヤーウォールがブロックする接続の試みが何度も繰り返されるときには、それらを分析して、誰かが良からぬことをしようとしているのか、それともファイヤーウォールの構成ミスかを判断できる。データの遅れは5秒程度なので、ほとんどリアルタイムに近い点検が可能だ。また、これをほかのサービス、Stackdriver Logging, Cloud Pub/Sub, BigQueryなどと統合してアラートやデータ分析もできる。

さらに今日の発表の中には、HTTPSロードバランサー用に証明を提供するマネージドTLSがある。これは、ロードバランサーを使っているときのTLS証明の管理に伴う煩雑さを解消することが目的で、これによりエンドユーザーのブラウザーがデベロッパーのアプリケーションに安全に接続できるようになる。この機能も、現在はベータだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Compute Engineに最大3844GBのバーチャルマシン登場

ときおり「もっとRAMが必要だ」という状況に出くわす。メモリーを大食いする巨大エンタープライズ・アプリ、たとえばSAPのHANAデータベースなどを運用しているときだ。 非常に高いパフォーマンスを必要するタスクを実行するときもそうだ。これまでGoogleのクラウド・プラットフォームでCompute Engineを利用する際の最大メモリー割当は624GBだった。しかし今日(米国時間5/15)、メモリー割当の大幅拡大が公式ブログで発表された。新たに導入されたクラスでは最大160台のバーチャルコアに3844GBを割り当てることができる。

新しいクラスはn1-ultramemと名付けられ、既存のn1-megamemクラスの一員となる。n1-ultramemはコアの数によって3種類に分けられている。もちろん高いパフォーマンスを得るにはそれなりのコストが必要だ。いちばん「低い」バージョン、40コア、938GB RAMの場合は月額3221ドルだ。トップエンドの160コア、3844GBのバージョンとなると月額1万2885ドルとなる。

1時間当たりの料金表を下にエンベッドした。

これらの新しいバーチャルマシンの投入でGoogleもハイパフォーマンスのクラウド・コンピューティング市場でAWSプラットフォームと互角にわたりあえるようになった。実際GoogleのほうがAWSよりコンピューティング・パワーがわずかに強力だ。これは新しいプロセッサーを用いており、コアの数自体も多いためだ。

Googleは、当然ながら、n1-ultramemの典型的なユースケースとしてSAP HANAを挙げている。公式ブログには 「クラウドへの移行をためらっている理由が、現在社内で実行しているSAP HANAデータベースのインスタンスをロードできるほど大容量のクラウド・メモリーが見当たらなかったからだとすれば、われわれのCompute Engineをチェックしていただきたい。アプリケーションが次々にクラウドに移行する中、データベースだけをオンプレミスで運用しなければならない理由はなくなった」と書かれている。

新しいultramemマシンが利用できるリージョンは現在、us-central1、 us-east1、europe-west1だが、今後さらに拡大される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Compute EngineがCPU 96コア、メモリ624GBの巨大インスタンスを提供、プロセッサーもグレードアップ

どんなにリソース大食漢のアプリケーションでも、Google Compute Engine(GCE)なら満足するだろう。今度新たに、CPU 96基、メモリ624GBという怪物インスタンスが生まれたのだ。Bill Gatesは昔、誰が一体640KB以上ものメモリを必要とするんだい?と言ったらしい。彼には、今日のような日が来るとは想像もできなかったのだ。

これは、本当の話ですよ。しかも、ちょっと前の3月にはGCEは64コアのCPU + 416GBのメモリというインスタンスを発表している。今回は、それを上回る。

使用するチップは、たぶんご想像どおり、IntelのXeon Scalableプロセッサー(コードネームSkylake)だ。Googleによるとこの子は、前の世代のXeon系列に比べて計算性能が20%速く、high performance computing(HCP)では82%より高速、メモリ帯域はほぼ2倍だ。もちろん、これで十分という性能は永遠にないけどね。

それほどのパワーは要らない、というユーザーは、ご自分のワークロードに合わせてCPUとメモリの構成をカスタマイズできる。

Googleによると、今回の巨大インスタンスは、その性能をすでにSAP HANAで実証している。SAP HANAは、ドイツのソフトウェア大手によるインメモリデータベースで、ユーザーの必要に応じてメモリをいくらでも使える。

624GBでも足りない、というユーザーに対応するためGoogleは今、最大4TBまでメモリを搭載できる製品を開発中だ。お金をしっかり用意して、待っていよう。本日(米国時間10/5)紹介されたインスタンスは、一時間約4ドル95セントからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud Platformにさらに強力な(二機種めの)Nvidia GPUのサポートが加わる

Google Cloud Platform(GCP)が今日(米国時間9/21)、Google Compute Engineに、Nvidiaの強力なGPUのサポートを加える、と発表した。

同社はすでにNvidia K80 GPUをサポートしているが、今回はNvidia P100 GPUのインスタンスが新たな長期料金体系(sustained pricing model)によりベータで加わる。

機械学習のワークロードを抱える企業にとっては、クラウドでGPUを利用できれば、分単位の料金制でも柔軟な利用が可能だ。しかし長期料金制なら、一定の長時間、最大30%の割引料金で利用できる。言い換えると、(額が最初からわかっているので)月末になって巨額な請求にびっくり仰天することはない。

そしてGoogleの主張によれば、この方式によりベアメタルに近いパフォーマンスを享受できる。GPUサポートを発表するブログ記事で、Googleはこう言っている: “クラウドのGPUは、ベアメタルのパフォーマンスを得るために提供される便宜である。それは1 VMあたりP100が最大4、K80なら最大8となる(K80のボードは最大4で、一枚あたり2 GPUだ)”。

GPUのワークロードは仮想マシンで直接動かしてもよいし、コンテナに収めてもよい。下図のように、サービスは世界の4つの場所から提供される:

Screenshot 2017-09-21 12.28.20.png

地図提供: Google

Googleが想定しているこのサービスの主な用途は、遺伝子研究や金融工学、機械学習のモデルの訓練と推断など、さまざまな計算集約的なタスクだ。二種類のGPUが提供されるため、ワークロードの特性に応じて速度と料金の適正な均衡をユーザーは実現できる。このGPUクラウドの初期の顧客Shazamは、その音楽同定(音→曲名アーチスト名)サービスに利用している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute EngineはCPUの種類を自由に選べるようになった、メモリは455GBまで使える

GoogleのクラウドコンピューティングサービスCompute Engineが今日(米国時間5/31)アップデートされ、数々の新しい機能が導入されるが、それらはとくに、もっと高性能なプロセッサーを使いたいとか、大量のメモリがほしい、と願っていたユーザーにとって朗報だ。

今日のアップデートはその多くが、Intelの次世代プロセッサーSkylake Xeonの一般供用(最大64コアまで)がベースだ。Skylakeのサポートは2月にベータに入ったが、これからは、Google Cloud Platformの三つのリージョン(Western U.S., Western Europe, Eastern Asia Pacific)でサポートされ、そのほかのリージョンも近日中に対応される。

さらにGoogleは今日64コアのインスタンスとBroadwll CPUのサポートを、すべてのリージョンで可利用にした。

Compute Engineは今やとても多様なIntel系CPUをサポートしているから(Sandy Bridge, Ivy Bridge, Haswell, Broadwell, そしてSkylake)、その中のどれを選ぶかという選択肢をユーザーに与えている。指定は右図のように簡単にできるし、一度指定すると新型機への切り替えは通常のアップデートとして自動的に行われる。

今後60日間は、Skylakeを用いた仮想マシン(VMs)は、古い機種を使うVMと同じ料金となり、そのあとは、古いCPUを使うVMより6-10%高くなる。

このアップデートでCompute Engineのユーザーは、VMインスタンス一つあたり最大455GBのメモリを装着できる。そうするためには、自分だけのカスタムマシンタイプを指定し、その中で拡張メモリオプションを選ぶ。それまでは、メモリと仮想CPUの数のあいだに一定の比率があり、最大が6.5GBだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute Engineの最大仮想マシンが64コアRAM 417GBとなる…AWSの優位動かず

GoogleのCompute Engineが提供する仮想マシン‘一台’の最大コア数が32から64へ倍増した。このハイパワーマシンは今ベータだが、Googleの標準構成とユーザー指定のマシンタイプ(コア数とメモリ)で利用できる。

64コアを指定した場合は、最大メモリサイズがRAM 416GBになる。単一仮想マシンのメモリとしてはこちらも倍増になり、ハイエンドのインメモリデータベースのようなメモリ集約的なアプリケーションを十分に動かせるだろう。

料金は1時間3.7888ドルだが、長期ユーザーの値引きはもちろん適用される。

“ここが終点ではない”、とGoogleのUrs Hoelzleが今日のCloud Nextのキーノートで述べた。“今年後半にはコア数がさらに増え、メモリサイズはTB級になるだろう”、と彼は言った。

なお、AWSのEC2はすでに、コア数128、最大メモリ2095.944GB(2TB+)のマシンを提供している。これらの特注規格を選んだ場合は、料金は1時間13.388ドルになる。Microsoft Azureの仮想マシンは、現在の最大が32コアだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCustom Machine Typesがベータを終了、Red HatとWindowsもサポート

google_data_center_2

GoogleのCloud PlatformのCustom Machine Types(カスタムマシンタイプ) は、ユーザーが自分のアプリケーションを動かすために必要なCPUのコア数やメモリ容量を自由に指定できる。このマシンタイプが発表されたのは昨年の11月だったが、今日(米国時間2/17)ついにベータを終えた

さらに今日Googleは、これらのマシン上でRed HatのLinuxディストリビューションとWindowsの運用をサポートする、と発表した。この二つが、これまでGoogleがサポートしてきたCentOS, CoreOS, Debian, OpenSUSE, およびUbuntuに加わる。さらに独自のセットアップが必要なら、自分が使っているLinuxディストリビューションを持ち込むこともできる。

今日のアップデートに伴い、GoogleのContainer EngineとDeployment ManagerもCustom Machine Typesをサポートする。

Screen Shot 2015-11-18 at 9.09.00 AM

Custom Machine Typesのアドバンテージは、仮想CPUコアとメモリの料金が定率になることだ(合衆国で1コア1時間あたり0.03492; 1GB1時間あたり0.00468ドル)。たとえば、3コアのCPUと15GBのメモリが必要なら、これまでの段階的なマシンタイプの中から無駄で高価なタイプ(4コア;20GBなど)を選ばなくても、必要なリソース量をそのまま指定できる。

tEE1vIKGDF8Ao7aCAm_TX0D3VnsJIGTrsIpeXcyj6RcREsh8J0VVTiMjJASAJnII9gZoTw=s2048

Googleによると、カスタムマシンタイプに切り替えることにより、顧客は最大で50%、平均で19%の費用節約ができる。ただしもちろん、それらは個々の具体的なユースケースによる。同社によると、たとえばWixのメディアプラットホームのコンピューティングコストは18%節減でき、マーケティングの個人化サービスLyticsは20〜50%の費用節減を実現した。

このマシンタイプの料金はGoogleの標準モデルに従い、分単位の課金とsustained use discounts(持続的利用の割引)が適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft AzureがVMを値下げ、新たに高速大容量ストレージ併設のGSシリーズVMを提供開始

azure_azure

Microsoftが今日(米国時間9/2)、同社のAzureクラウドコンピューティングサービスの二つのアップデートを発表した。ひとつはパフォーマンスが最適化されるGクラスのVMに新しいタイプを導入、もうひとつは計算力に重点を置くDクラスVMを値下げしたことだ。

GクラスVMはAzureクラウド上のもっともハイエンドのマシンで、したがって料金ももっとも高い。Windowsが動き、最高月額は7180ドルにもなる。今度からこのGクラスのマシンに、高仕様ストレージを伴うGSというタイプが新たに導入され、そのストレージの最大仕様は64TB、毎秒80000I/O、最大スループットが2000MB/sとなる。

これまでのGシリーズと新しいGSシリーズはともに、VMが帯域20Gbpsのネットワーキングをサポートする。そのスループットは、競合他社の倍、だそうだ。

担当マネージャCorey Sandersによると、この有料ストレージオプションを導入したのは、顧客の要望による。Gシリーズのユーザは、大きなデータベースを必要とすることが多いのだ。

“そういうワークロードが増えているから、ストレージのスループットの増大を求める声が頻繁に聞かれるようになった”、と彼は語る。彼によると、GSシリーズのVMはMySQLやMicrosoftのSQL Serverなどだけでなく、MongoDBのようなNoSQLデータベースも高いスループットで利用できる。

Sandersによると、Azureの顧客の一部はデータウェアハウスや、あるいはExchange、Dynamicsのようなエンタプライズアプリケーションを稼働するためにこれらのマシンに着目している。

gs-series

今回のアップデートでMicrosoftは、DシリーズVMの最大27%の値下げを行う。このVMはWebアプリケーションのフロントエンドや、メインのデータ処理/供給層で使われることが多い。Sandersが説明する値下げの動機は、このDシリーズをいわば、Azure利用の入り口と位置づけ、今後なお一層のユーザ増を図りたいためだ。値下げは、10月1日から有効となる。

さらに今後Azureから、メッセージングサービスService Busを利用できるようになり、より高いアップタイムと、より予測可能なパフォーマンスが約束され、VMの診断能力も提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Compute Engineの上でデベロッパが自前の暗号鍵を使えるようになる…それが必要な業界など向け

5399162987_5d0402e809_o

今日から(米国時間7/28)は、GoogleのIaaS Compute Engineを使っているデベロッパが、このサービスで自分独自のセキュリティキーを使える。この、暗号の鍵を顧客が供給する方式は、目下、公開ベータ中だが、データのセキュリティに関するコントロールをユーザ側に与えるものだ。

デフォルトではGoogleは、そのサービス上のすべてのデータをAES-256ビットの暗号化キーで暗号化し、(a)キー自身も暗号化され、(b)定期的にローテーションされる。今度の新しい(無料の)機能を使うと、ユーザが自分のキーを持ち込み、データの暗号化状態の管理を、そのぶん、より自由に行えるようになる。たとえば、データをいつ静止状態とみなすか、アクティブとみなすか、といった選択もデベロッパの自由になる。Googleはそのキーを保持しないから、同社の中の何人(なんぴと)たりとも、静止状態のデータにアクセスできない。

GoogleのプロダクトマネージャLeonard Lawが、こう言ってる: “セキュリティはデータ保護のイシューであると同時に、コントロールのイシューでもある。暗号鍵を顧客が供給すること(Customer-Supplied Encryption Keys)によって、Google Compute Engineでデータを暗号化するやり方に関するコントロールを、ユーザに与えることになる”。

Lawはさらに、Googleのサービスはすべての形式のデータをカバーする、と強調している。データのボリュームでも、ブートディスクでも、あるいはSSDでも。

しかし現実には、セキュリティキーを自分で扱うのは面倒、という人も多いだろう。鍵を紛失したら、データを回復できない。Googleによれば、この機能を使うのは主に、金融とか保健医療など規制の厳しい業界の、大きな企業・組織・団体だろう、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、オープンソースのクラウド横断ベンチマークツールを公開


Googleは今日(米国時間2/11)、オープンソースのクラウド用ベンチマークツール、PerfKitを公開した。Googleの言葉を借りれば、これは「クラウドサービスを測定、比較の標準となるベンチマークを定義するための取り組み」だ。現在PerfKitツールは、Google自身のCompute Engine、AmazonのAWSおよびMicrosoft Azureの各クラウドサービスをサポートしている。Googleいわく、このプロジェクトのために30人以上の研究者、企業、ユーザーと協力し、その中にはARM、Canonical、Ciso、Intel、Microsoft、Rackspace、Red Hatらも含まれている。

Googleが今日の発表で指摘したように、異なるクラウドサービス間の性能を比較するのは容易ではない。CloudHarmony等、クラウド性能レポートを提供する会社はあるが(あるいはNewRelic等のツールを使えば自分のインストール先をモニターできる)、ニーズにかなった機能を提供するものはなく、テストの実施方法が不透明なものも多い。

PerfKitをインストールすると、約20種類のベンチマークテストが走り、生のCPU性能からより複雑なデータベースやネットワークの性能まで数々のベンチマークを取得する。Googleによると、クラウドに新たなリソースを供給するのに必要な時間を測ることもできる。結果を比較するために、チームはPerfKit Explorerというビジュアル化ツールも作った。

Googleがこのようなオープソースのベンチマークツールを公開したことは興味深い。以前からGoogleは、自社クラウドの性能をライバルと競わせることはためらなわいと言ってきた。このツールによる最初のクラウド間ベンチマークが果たしてどんな結果を出すか注目したい。

[原文へ]

(翻訳:Nob Takahashi / facebook


クラスタ管理を抽象化して簡易にするMesosphereがGoogleのクラウドプラットホームにも対応、DockerツールKubernetesを統合

GoogleとMesosphereが今日(米国時間8/18)、両社のパートナーシップにより、GoogleのCompute EngineプラットホームにMesosクラスタのサポートを導入する、と発表したMesosプロジェクトとMesosphereはまだよく見かける名前ではないが、アプリケーションのスケーリング(ニーズに応じての規模拡大)で余計な苦労をしたくないと考える企業にとって、このところ急速に、重要なツールになりつつある。それらのアプリケーションの所在は、完全に自社のみのデータセンターの場合もあれば、パブリックなクラウドサービスの場合、あるいはパブリック/プライベートのハイブリッドの場合など、さまざまである。〔*: Mesosphere関連日本語訳記事(1)(2)。Mesosの’os’はOS(オペレーティングシステム)の意味…クラスタ群を一台のコンピュータへと抽象化する。〕

今度の提携によりGoogleのCloud Platformのユーザは、MesosphereのクラスタをGoogleのサーバ上に10分足らずでセットアップできるようになる。その基本的なインストールには二つの形があり、デベロッパはそのどちらかを選ぶ: 1)4インスタンスの開発用クラスタでアプリケーションのプロトタイピング用に8つの仮想CPUと30GBのメモリを提供、2)プロダクション用インストールで18インスタンス36仮想CPUメモリ136GB。この二つのオプションで不満な場合は独自のカスタムクラスタを作れる。

これらのクラスタにはデフォルトでMesosカーネル、Zookeeper、Marathon、およびOpenVPNが含まれる。クラスタの使用を開始するとMesosphereは、クラスタを管理するためのWeb上のわかりやすいダッシュボードを管理者に提供し、それにはGoogleのダッシュボードからアクセスできる。

MesosphereのCEO Florian Leibertによると、Mesosphereの中心的なねらいは、デベロッパがデータセンターをつねに一台のコンピュータのように扱えることだ。そのためにMesosなどのソフトウェアパッケージがDevOpsの主な仕事のほとんどを抽象化する。Leibertは以前TwitterやAirbnbの社員で今やそのTwitterもAirbnbもMesosのユーザだが、両社にオープンソースプロジェクトMesosを紹介したのはLeibert自身だ。

ユーザのハードウェアは実際には複数のハードウェアや仮想マシンやクラウドのインスタンスなどから成るが、Mesosphereという一枚の層がその上にかぶさるとアプリケーションは、多くのCPUやメモリをかかえた単一のリソースプールを使っている、という外見になる。デフォルトではMesosphereのサービスは、ユーザが使っているオペレーティングシステムやクラウドが何であるかを、まったく関知しない(どうでもよい)。ただし今回のGoogleとの提携にあたっては、Googleのクラウドに対しての最適化を図った。Mesosphereの詳細なドキュメンテーションは、ここにある。

Googleとのパートナーシップの中には、Dockerのコンテナを管理するGoogleのオープンソースのサービスKubernetesをMesopshereに統合することも含まれる。同社によるとこれによって、Dockerのワークロードの展開管理がより容易になる。ただしMesopshereのKubernetes統合は、対象がGoogleのCloud Platformに限定されない。Leibertは今日の発表声明の中で、“われわれが織り上げたコンピューティングの織物は、GoogleのCloud Platformだけでなく、そのほか、ユーザ自身のデータセンターやそのほかのクラウドプロバイダでも使用できる”、と言っている。〔Kubernetes関連日本語訳記事(1)(2)。〕

GoogleでKubernetesなどの次世代クラウドコンピューティングプロダクトを担当しているリードプロダクトマネージャCraig McLuckieによると、GoogleがKubernetesでやりたいことは、Googleが自社のデータセンターを管理するために開発してきた重要なコンセプトの多くを、同社の外部でも利用できるようにすることだ。彼は今回のMesosphereとGoogleの協働関係を、“きわめて相補的である”*と呼び、それら重要コンセプトの一部はMesosにも持ち込まれるだろう、と考えている。〔*: complementary, お互いの足りないところに互いにピッタリとはまり込んで補う、完璧な結婚。〕

MesosphereのシニアVP Matt Trifiro(元HerokuのCMO)によると、KubernetesやMesosのようなプロジェクトは、これらの技術の背後にある非常に高尚な思想を、万人が共有するものにする。現状では、“Webをスケールしなければならないというニーズを抱える企業にとって、ツールが十分にアクセス可能でなかった”。しかし今では、GoogleやMesosの高度なコンセプトとツールを企業も利用できるようになり、デベロッパやDevOps たちは一段高い抽象性のレベルで仕事ができるようになり、アプリケーションを動かしているインフラの具体的な細部を、直接いじらなくてもよくなっている。

Leibertは今日、こう書いている: “Googleと協働することによってGoogleのCloud Platformを、従来からのMesosphereのワークロード、たとえばMarathonChronosHadoopSpark、そして新たにKubernetesなどを使用するための最良の場所にしていきたい”。

この協働プロジェクトでは両社の関係がきわめて密だから、いずれGoogleがMesosphereを買収することもありえるかもしれない。現状ではそれは、あくまでも憶測だが、でも実際にそうなったら、その起源がこれだったことを、思い出そう。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Red Hat Enterprise Linuxのユーザはインストールをパブリッククラウド(Google Compute Engineなど)に自由に移せる

[筆者: Ron Miller]

Red Hatの本日(米国時間4/7)の発表によると、Red Hat Enterprise Linuxの顧客は、その利用権をGoogle Compute Engineなどのクラウドサービス上に移せる。そしてこれはRed HatとGoogle両社にとって有利な措置となる。

Red Hatが提供している“利用権移動(bring your own subscription)”プランにより、Red Hat Linuxのユーザはオンプレミスのインストールを、Google Compute Engineなど、Red Hatが承認しているクラウドベンダのパブリッククラウドへ移せる。

GCEなどへの移動にはRed Hatが提供しているツールを使用し、ユーザは今後もRed Hatのサポートを引き続き受けられる。ただしその場合、対象は単一のベンダでなければならない(複数のベンダがからむ問題はノー)。複数のベンダがからむと、問題の原因の同定などが困難になるからだ。

Google Cloud PlatformのプロダクトマネージャMartin Buhrは、今回の措置を、Googleのプラットホームの評価が定着した証(あかし)と見ている。“Red Hatの発表は、Googleのクラウドプラットホームへの信頼の表れだ。とくに、エンタプライズアプリケーションの展開に適したプラットホームと見なされている。これまでも、RHELをGCEの上で展開したいというリクエストは多かった。うちがこのプログラムに含まれる二番目のクラウドプロバイダであったことを、嬉しく思っている”、とBuhrは語った*。〔*: 利用権移動(bring your own subscription)”プラン承認プロバイダ)、(日本語ページプロバイダリスト)。〕

Red Hatにとってこのプログラムは、展開の仕方を各社自由にする、という方針の表れだ。各顧客の要件に応じて、物理的な展開(オンプレミス)と仮想(クラウド)のどちらでも認め、また両者の混成も認めていく。

Red Hatのクラウド部長Mike Ferrisによると、これによりエンタプライズユーザがパブリッククラウドを使いやすくなる。

彼はこう言う、“コンピューティングとネットワーキングとストレージとマネージメントの技術革新により、Google Compute Engineのようなエンタプライズ級の大規模なクラウドサービスが可能になった。顧客のビジネスニーズやオペレーションのニーズに柔軟に対応していくためには、オンプレミスとオフプレミスの臨機応変な使い分けが可能な環境を提供していかなければならない”。

オープンソース方面の長年の常連ライターSteven J. Vaughan-Nicholsは、これは両社にとって得だ、と言う。“Red Hatは今後ますますRHELのクラウド顧客を増やしたいし、GoogleはGCEの企業ユーザを増やしたい。これは、オープンソースの天国で結ばれた結婚だ”。

GoogleがRed Hatの認定クラウドプロバイダ事業に参加したのは、Google Compute Engineが一般公開される1か月前だった。先月末にGoogleは、AWS対抗策として、サービスの大幅値下げに踏み切った。

画像: Flickr/Karen Ka Ying Wong; CC BY-SA 2.0のライセンスによる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Google Compute EngineはデフォルトOSとしてDebianを導入

GoogleはGoogle Compute EngineにDebianを導入し、これを、このサービスを利用するデベロッパのデフォルトのOSとする。GoogleはDebian 6.0と7.0の両方をサポートするが、後者は今週リリースされたばかりだ。

GoogleがDebianをデフォルトOSとするについては、いくつかの明白な理由がある。Rishidot ResearchのファウンダでクラウドアナリストのKrishnan Subramanianによれば、それはまず第一に無料であること。“UbuntuやRed Hatでは、Googleはエンタプライズ向けの有料製品を使わされることになる”、と彼は言う。またさらに、Debianはユーザ層/顧客層が厚い。それに、Googleのギークな企業色にも合っている。

この発表に関するブログ記事でGoogleは、Debian 7.0愛称”wheezy”の改良点を挙げている。セキュリティの強化、32/64ビット互換性の向上、そしてコミュニティからのフィードバックへの対応だ。

Googleは、Google Compute Engineとの相性について、今後そのほかのオペレーティングシステムも評価する、と述べている。

なお、Google Compute Engineを利用できるのは、月額会費400ドルのGold Supportパッケージの会員のみである。

Debianの導入は、来週行われるGoogle I/Oの準備の一環のようにも見える。おそらく今年のI/Oでは、Googleのクラウドコンピューティング戦略をめぐる発表が行われるのだろう。

Debianは、Ubuntu、Mint、Fedora(Red Hat)など、そのほかのLinuxオペレーティングシステム配布系(ディストリビューション)と競合している。DistroWatchによると、それらの中でDebianはページヒットランクが5位、1位はMintだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))