Google、単一テナント・クラウドのベータ版開始――ユーザーは物理的マシンを専有できる

クラウド・コンピューティングではユーザーがバーチャル・マシンを立ち上げた場合、実際の処理はデータセンターの運営者が効率が最適となるよう多数のサーバーに分散される。しかしユーザーが他のユーザーとサーバーを共有することを望まず、物理的にマシンを専有したい場合もある。

こうした要求に応えるべく、GoogleはGoogle Compute EngineでSole Tenant Nodesのベータ版をスタートさせた。これは法規に定められた場合やコンプライアンス上の必要からユーザーが物理的マシンを全面的にコントロール下に置かねばならず、他のユーザーと共有することが不適切なユースケースに対応するサービスだ。

Googleのブログによれば「あるバーチャル・マシンのインスタンスを実行する物理的サーバーは多数のユーザーと共有されるのが普通だ。しかしソール・テナント・ノードでは物理的マシンを自分だけで使える」という。

図:Google

Googleではサービスに柔軟性を持たせ、カスタマーが必要に応じて適切にCPUとメモリを構成できるようにしている。 ユーザーはどのマシンを専有するかをGoogleに任せることもできる。この場合はGoogleがその時点でもっとも効率が高いと認めたマシンにタスクが割り振られる。さらに高度なコントロールを必要とする場合は、ユーザーがマニュアルで特定のマシンを選択することも可能だ。いずれのケースでも処理を実行するマシンが他のユーザーと共有されることはない。

このサービスを利用したい場合、トライアル用の無料プランがある。その後はコンピューティングの必要性に応じて各種の有料プランが用意される。Googleによれば、すべてのプランは秒単位(最低1分)の課金となる」という。

現在はベータ版であるためSLA(サービス・レベル契約)は用意されない。MicrosoftとAmazonも同様のプランを提供している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWSの成長にかげりなし

AWSにとって、今年はあらゆる意味で成功した年だった。同社は、大きなマーケットシェアを握る既存勢力には通常見られないような、エネルギーと新しい分野むけの投資によって、まるでスタートアップのような姿勢を継続している。

その1年の出来はどの位のものだっただろうか?Synergy Researchの調査よれば、これまでのところ同社は、35%のマーケットシェアを握るカテゴリリーダーであり続けている。Microsoftのシェアは11%で、2番手につけている。しかし、AWSの成長率は四半期ごとに40%を超えているのだ。巨大なマーケットシェアを占めたときに、そのような大きな成長率を維持することがどんなに難しいかを考えれば、この数字は驚異的なものだ。

「2017年は市場全体で40%の成長が見込まれていますが、AWSのような規模のビジネスが、一貫して収益を40%以上伸ばしているのを見るのは少々驚きです」と語るのは、Synergy Research Groupの主任アナリスト・リサーチディレクター、John Dinsdaleである。

2017年度に報告された3つの四半期の同社の業績は、第1四半期の36億ドルから第2四半期には41億ドルに増加し、第3四半期には45億ドルとなった。これで14四半期連続で成長を続けて来ている。16四半期連続になる可能性もあったのだが、2014年の第1ならびに第2四半期にやや減少した時期があった。

この快進撃の理由の一部は、そもそもクラウドマーケットそのものが急速に成長しているという事実に帰すことができるだろう。すべてのクラウド企業たちは、パイが拡大するにつれて急速に成長している。クラウドコンピューティングは、過去数年の間にはまだ辿り着けていなかった、マーケットによる受け入れ地点に到達し、それがマーケット全体の成長をもたらしたのだ。Amazonはその成長の恩恵を受け続けている。

座して敵を待つことはしない

おそらく普通なら、IaaS(サービスとしてのインフラストラクチャー)マーケットを10年以上も前に定義する際に、大きな役割を果たしたAmazonのような会社が、そろそろ守りの姿勢に入ったとしても不思議はないだろう。非常に成功した企業が、そのマーケット優位性を守ろうと、安全でより慎重なアプローチをとることは珍しくない。しかし同社の場合はまるで逆なのだ。

守りの姿勢どころか、その成長する提供サービスリストに、膨大な新サービスをひたすら追加し続けているのだ。今月初めに開催された、AWSの年次ユーザーカンファレンスである、re:Inventにおいて、Amazonは熱狂的なペースで発表を続けていた。そのときに、私は以下のように書いている:

カバー範囲の広さの感覚を、読者に得てもらうために、今週のTechCrunchはこのイベントに関連した25の記事を掲載した――しかし到底全ての話題をカバーできてはいない。インフラストラクチャー市場での圧倒的優位にも関わらず、AWSはただ座して競合が追いつくのを待つつもりはないことを、明確に示しているのだ。

またre:Invent後にも、シングルサインオン市場への参入を発表して私たちを驚かせた。

2018年に向かう中で、このペースが続くことを疑う理由はほとんどない。同社のCEOであるJeff Bezosが、座して競争を待ったことは一度もないのだ。彼は常に彼の会社が顧客を見つめ続け、顧客が何を求めているかを知り、それらを与えることを目指している。来年もマーケットが加速し続ける中で、Amazonはこれまでのように、1ミリもその持ち分を譲ること無く、マーケットの一角を切り取り続けることだろう。

[原文へ]
(翻訳:sako)

Amazon S3が停止した日―アナリストは冗長性の重要性を指摘

NEW YORK, NY - DECEMBER 14: Jeff Bezos, chief executive officer of Amazon, listens during a meeting of technology executives and President-elect Donald Trump at Trump Tower, December 14, 2016 in New York City. This is the first major meeting between President-elect Trump and technology industry leaders. (Photo by Drew Angerer/Getty Images)

昨日(米国時間2/28)、Amazonのバージニア州北部データセンターに障害が発生し、 AWS S3クラウド・ストレージ・サービスが4時間近くダウンしたというニュースはご存知のことと思う。その結果、有名なウェブサイトやサービスが停止し、大きな混乱が起きた。

念のため断っておけば、今朝、Amazonのダッシュボードはすべて正常に動作中であることを示している。

影響を被ったサイトやサービスにとっては大事件だったものの、Amazon S3は長年にわたって信頼性が高いサービスだったことは指摘しておくべきだろう。またバージニア州北部データセンターがダウンしても他の13のリージョンではS3は正常に作動した。

今回のS3のダウンのようなクラウド・サービスのダウンをモニターしているCloudHarmonyによれば、S3の動作記録はサービスレベル合意書((SLA)が保証する基準を上回っていたということだ。SLAによればS3は99.9%の稼働を約束しており、下回った場合については返金に応じるとしている。CloudHarmonyの調査では、同社が2014年にクラウド・サービスのモニターを開始して以來、AWS S3は年間でほぼ100%の稼働率を達成している。S3の目立った障害は2015年8月のダウンだった。

CloudHarmonyはMicrosoft Azureの仮想マシンとオブジェクト保管も2月19日に5時間にわたってダウンしたが昨日のS3の場合のような注目は集めていないと指摘する。

クラウド・コンピューティングの専門家、ジャーナリストのBen Kepesは「シアトルのAWS本社では夕べは誰も眠れなかっただろう。しかしこの種のダウンはときおりどうしても起きてしまう」と述べた。Kepesによれば、「AWSは他の同種のサービスと比較して隔絶して大きいパブリック・クラウド・サービスだ。そのためダウンすると各方面に非常に大きな影響を与える。昨日のダウンはいかに多くのサードパーティーがAWSのインフラに依存していたかを印象づけた。残念ながら、こうしたサービスはときおりダウンすることがある。ユーザーはこうした場合に対処する方法を準備しておく必要がある」という。

Kepesは「どんな場所であろうとダウンが起きることはITのプロなら誰でも知っている」 と付け加えた。しかしクラウドは通常地味なサービスでありダウンしても関係者以外には注目を引かない。「世間では大騒ぎしているが、事実はどんな公共サービスであろうと落ちるときは落ちる」という。

Forresterのアナリスト、Dave Bartolettiも同意見だ。彼は今回の事件はクラウド・サービスのユーザーに警鐘を鳴らすものだという。「ストレージに冗長性を持たせることが必要だ。ユーザーはクラウドにデータを保管してサイトやサービスを構築する場合、複数のレイヤーを利用する必要がある。ストレージはS3の特定のリージョンのみに依存してはならない」という。

ただしこれらのアナリストも今回のダウンで被害を受けたユーザーを非難しているわけではない。しかし冗長性というのはIT専門家がシステムに組み込むことを必須としてきた要素で、クラウドの場合でもなんら事情は変わらないという指摘だ。

しかしMoor Insight & Strategyのアナリスト、Patrick Moorheadは今回のダウンについてもっと厳しい意見を持っている。今回のダウンタイムはけっきょくのところ数百万ドルの損害をもたらしたはずで、Amazonは顧客の貴重なデータを保管するサービスを提供するからにはもっと高い冗長性をシステムに組み込んでいる必要があったという。

「パブリック・クラウドだからといってこうしたダウンが起きていい理由にはならない。銀行オンラインでダウンがほとんど起きないのは障害耐性が高いアーキテクチャを組み込んだシステムが構築されているからだ」という。

こうした批判の当否はともあれ、インハウスであろうとAWSのようなクラウドであろうとデータセンターの事故はサイトやサービスにとって死活問題だということは明らかになった。どんなアプローチであれ「これで絶対安全」とはならない。だからといってAWSの責任が否定されるわけではないが、少なくとも過去の運用記録からみればS3はきわめて信頼性の高いサービスの一つであったことは間違いない。

t画像: Drew Angerer/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ERP/HCMの大手Workdayが一部のワークロードを7年契約でAWSからIBM Softlayerへ移す

139521507_4037d1c26d_b

人事管理サービスの大手Workdayが、今後7年間という長期契約で、IBMのクラウドインフラプラットホームIBM Softlayerの上で同社の開発および試験サービスを提供していく、と発表した。IBMにとって、それは大きな勝利だ。

Wall Street Journalが最初にこのことを報道した

それはいろんな点で大きな契約だ。まず何よりも、7年は長い。第二に、SaaSの大手ベンダがそのワークロードの大きな部分をIBMのクラウドに移し、GoogleやMicrosoftを無視しただけでなく、AWS一辺倒をやめたことだ。

Workdayは事業のさまざまな部分をAWSで動かしているが、この部分に関してはIBMを選んだ。Constellation ResearchのアナリストR Ray Wangは、そのほかの事業も移すのではないか、と推理している。

“今回のはプロダクションワークロード(メインのワークロード)ではないが、今後もAmazonからIBMへのシフトが起きるのか、それを注目する必要がある。試験と開発を移して結果が良ければ、プロダクションも移すかもしれない”、と彼は語る。

主に人事管理中心のERPをクラウドから提供しているWorkdayは、最初HPを検討したが、しかしHPがクラウド事業から下りたため、別を探した、とWangは語る。彼によると、GoogleとMicrosoftは、最初から対象外だった。なぜならMicrosoftにはすでにクラウドとオンプレミスの両方でERPサービスDynamics ERPがあり、GoogleもいずれERPの提供を始めるかもしれない。Workdayは、将来の競合相手になりそうなところを、最初から避けたのだ、とWangは言う。

彼によると、“Workdayは競合他社の傘の下に入ることを、望まなかったのだ。しかしIBMなら、将来的にもその不安がない”。

IBMにとっては、大手のクラウドクライアントを顧客として捕まえたことは、AWSやGoogle、Microsoftなどとの競合に勝ったことを意味する。Synergy Researchの調査によると、クラウドインフラストラクチャ市場においてIBMは、Googleをわずかに凌ぎ、業界第三位である(下図…第五位は“これらに次ぐ20社計”)。

しかしGartnerの最近の調査報告によると、IBMはこんな良い位置にはつけていない。が、いずれにしても、今回の契約がIBMにとって良いニュースであることは、確かだ。

Workdayはプレスリリースで今回の契約を発表しただけで、それ以上のコメントはない。IBMも、本誌からのコメントのリクエストに応えていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

クラウドの価格競争に勝者なし

今週初めにGoogleは、Google Compute Engineの料金を一律に10%値下げした。費用はきわめて低くなり、ほとんど誰にとっても、インフラをクラウドで動かすためのコストは些細なものとなった。でもクラウドの価格競争がこれ以上続けば、最終的にどこまで安くなり、そして実際にどこかが最終的な勝者になるのだろうか?

最低の料金とはもちろんゼロだが、しかしこれらの企業には経費が発生するし、クラウドコンピューティングのビッグスリー、Google、Amazon、MicrosoftにとってIaaSは副業だが、サービスを無料にすれば株主が黙っていないだろう。今それは、ゼロに急速に近づいているとはいえ。

そして今週は、OracleがそのDatabase as a Serviceの料金をAmazonと同程度まで値下げすると発表して、世間を(少なくともぼくを)驚かせた。長年、料金が高いことで有名だったOracleが、価格戦争に加わるというのだ。ビッグスリーにはそれなりの来歴と状況があるが、Oracleはエンタプライズソフトウェア(およびハードウェア)で高い利益を得てきた企業だから、おどろきだ。

でもこれが、今日のクラウドの料金の現状だ。SalesforceやBox、Zendesk、WorkdayなどのSaaSたちはこのような値下げ競争に走らないようだが、インフラ屋さんたちはこぞって値下げ合戦に参加し、下向きのプレッシャーが今も続いている。そのうち、店をたたんでしまう企業も、出現するのだろうか。

どれだけ料金が安くなっても、今だにクラウドを疑問視する企業は少なくない。でもそんなCIOたちも、どこまで、クラウドの低料金を無視できるのか? 今や、インフラの自前化にこだわることは、良い経営判断とは言えないし、大企業がクラウドサービスに対してどれだけ不安を抱いていても、その低料金は無視できないだろう。

しかし、悪魔は細部に宿るとも言う。インフラの一部をビッグスリーに移行すると、テレビのケーブル企業と同じく、最初はお試し料金だ。お試し期間が終わり、なかなかいいから使い続けようとすると、料金の高いプランを押し付けられる、という定石がある。

今後クラウドベンダが全員この手を使う、という兆しはもちろんない。むしろ今は価格競争が激しいから、それはできない。他社が値下げに走っているときに、高料金のサービスを顧客に押し付けるなんて。

でも、ここがベンダにとって難しいところだ。これ以上の価格競争は、もうそれほどの営業効果を上げないかもしれない。しかも計算機使用の料金は、定額制ではない。彼らが料金を下げ続ける理由は、実際の料金が動く標的だからだ。コンピューティングのコストは、ハードウェアと電力が無料にならないかぎりゼロにはならない。ビッグスリーはある時点で、この危険なゲームをこれ以上続けるのか、決断しなければならないだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


ユーザが複数のベンダから自由に構成を編成できる未来型IaaS、Massachusetts Open Cloudプロジェクト

【抄訳】

今日のクラウドインフラストラクチャ市場は、AmazonやGoogle、Microsoftなどひとにぎりの大企業が支配している。 Massachusetts Open Cloudプロジェクト(マサチューセッツオープンクラウドプロジェクト, MOC)と呼ばれる産・学・民のパートナーシップは、オープンコンピューティングのマーケットプレースを作ることによってこの状況を変えようとしている。このマーケットプレースは、いろんなインフラサービスがここに出店をして、ユーザは自分のニーズに応じてそれぞれ最適のサービスやプロダクトを選び、自己システムを構成する、というものだ。

このプロジェクトのローンチを支えたノースイースタン大学のPeter Desnoyers教授は、Amazonなどのサービスはたしかに便利だが、限界がある、と述べる。

第一に、大学など学術研究というニーズの視点から見ると、彼らのはすべてクローズドなシステムだ。つまり、直接のユーザである研究チームはそのシステムにアクセスできるが、共同研究ないし類似の研究を行っている別の大学のチームなどが論文の参考にするためにそのシステムを研究したいと思っても、できないことが多い。カンファレンスなどで当の研究チームのプレゼンを見たり、論文を入手することはできても、システムの深い知識は得られないのであまり役に立たない。

さらにまたAmazonなどのIaaSベンダは、フォード自動車の始祖“ヘンリー・フォード”方式でIaaSプロダクトを提供している。初期のT型フォードは、たとえば色は黒しかなかった。Amazonなどのプロダクトも、一定のパッケージ製品が提供されているだけだ。しかしユーザはそれぞれ、きわめて特殊な要求を抱えていることが多い。そしてそういう特殊なサービスは、既存のベンダからは得られなかったり、得られるとしても高すぎて使えなかったりする。

Desnoyersによれば、しかし複数のベンダが出店するマーケットプレースを作れば、ユーザはその場ですぐに、必要なものをピックアップして揃えることができる。コンピューティングはA社、ストレージはB社、メモリはC社、といった具合に。ベンダもこの方式が気に入ったようで、すでにCiscoやJuniper、Intel, Red Hatなどなどが参加意思を表明している。

プロジェクトに参加している大学は、Harvard、MIT、 UMass(マサチューセッツ大)、Amherst、Boston University、そしてDesnoyersが在籍するNortheasternだ。

マサチューセッツ州もこのプロジェクトのパートナーとして、同州HolyokeにあるMassachusetts Green High Performance Computing Centerにオフィスを提供する。

ベンダが機器装置類や技術面の人材を提供し、MOCそのものをオープンソースベースの商用プロジェクトとして完成させる。

このプロジェクトに参加しているベンダの一人としてRed HatでCTOの配下にいるシニアコンサルティングエンジニアJan Mark Holtzerは、このプロジェクトからは、ユーザの多様な用例からRed Hat自身も多くを学べる、と言う。とくに、構成の自由なそして可変なカスタマイズに加えて、大量のリソースをすぐに使え、用が済んだらすぐにそのリソースを開放する使い方ができる点が、このプロジェクトの魅力だ、と彼は言っている。

【中略】

今、クラウドインフラストラクチャの選択肢は数多く提供されているが、ユーザが構成や価格をベンダと交渉でき、複数のベンダの製品でユーザシステムを構成できるマーケットプレースはこれまで存在しなかった。未来のIaaSの姿も、このような、完全な自由が最後までユーザの手中にあるという、非常に柔軟な形に変わっていくと思われるので、MOCはそのような未来のいわば先鞭をつけた、と言えるだろう。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))