DropboxがAutodeskを統合、大きな設計ファイルのコラボレーションがクラウドを意識せずにできる

Dropboxが今日(米国時間11/14)、Autodeskのユーザーが大きな設計ファイルに、より容易にアクセスし共有できるための、二つのプロダクトを発表した。ひとつはDropboxに保存しているAutodeskのファイルをAutodeskのソフトウェアからオープンしセーブするためのデスクトップアプリケーション、もうひとつはAutodeskがなくても設計ファイルを見ることができるアプリケーションだ。

Dropboxでデベロッパーユーザーのお世話を担当しているRoss Piperによると。今DropboxにはAutodeskのファイルが15億あり、毎月8500万ずつ増えている。数も驚異的だが、設計ファイルはファイルサイズが大きい。大きくて複雑なファイルが毎日たくさん生成されるからこそ、クラウドストレージが何よりもありがたい。だからAutodeskの統合はDropboxにとって、とっくにやっているべき課題だった。

両社は互いにパートナーになることによって、これらのファイルをもっと扱いやすくしよう、と決心した。

Dropboxのデスクトップアプリケーションは今日から可利用になり、ユーザーはAutoCadアプリケーションから直接に、クラウド上(==Dropbox上)の.dwg設計ファイルをオープン/セーブできる。ユーザーはAutoCadの中で直接これらのファイルを開ける。その感覚は通常のファイルと同じで、Dropboxから取り出していることを意識しない。作業を終えたファイルの保存も、自動的にDropbox上へ行われる。

DropboxがAutoDeskを直接統合。写真提供: Dropbox

もうすぐ提供される単独のビューワーアプリケーションは、設計ファイルをAutodeskのないユーザーとも共有できる。しかも、それらの人びとがファイルにコメントできるので、役員や顧客、協力企業などが変更を要望するなど、設計に容易に‘参加共有’できる。

たとえば、設計者が描いた図面を見て、その中のひとつの部屋や領域をセレクトすれば、その部分に関するコメントを見たり書いたりできる。

写真提供: Dropbox

Dropboxが提供するこれらのツールは、AutodeskのAutoCad App Storeからダウンロードできる。そして、インストールすればすぐに使える。

今回の発表は、Autodeskのような有力なサードパーティパートナーとDropboxの深い統合が、今後もいろいろありえることを示している。各種ビジネスアプリケーションのユーザーは、いちいちDropboxからファイルをダウンロード/アップロードしなくても、仕事用のメインのソフトウェアを使いながら、その中で、必要なファイルのオープン/セーブがごく自然に、できるようになるのだ。

実はBoxも、Autodeskとのこのようなパートナーシップを、2年前から結んでいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのCloud Spannerデータベースがマルチリージョンをサポート、年間ダウンタイム累計5分未満を約束

Googleのグローバルな分散データベースCloud Spannerが今日(米国時間11/14)アップデートされ、マルチリージョン(複数リージョン)がサポートされた。データベースを複数のリージョンにまたがって複製しても、レイテンシーは増えず、良好なパフォーマンスが保証されるという。また、サービス水準合意(Service Level Agreement, SLA, サービス品質保証)も、顧客が満足すると思われる方向へ改定された。

上記後者(新SLA)によると、Cloud Spannerデータベースは99.999%(five nines)の可用性が保証される。Cloud SpannerのプロダクトマネージャーDeepti Srivastavaによると、これは年間のダウンタイムに換算すると5分未満となる。

“システムの可用性と効率を高める改造を行ったので、サービスにそのことが反映されると期待される”、と彼女は述べる。なお、Cloud Spannerは、このようにサービスとして提供される前には、AdWordsなどGoogle内部のプロダクトで使われていた。今でもそうだから、GoogleにとってAdWordsがダウンしたら直接、売上に響く。だからまずGoogleにとって、それはダウンタイムがあってはならない。今では同社の人気サービスの多くが、Cloud Spannerを使っている。

“それは、Googleが動かしているミッションクリティカルなアプリケーションの最前線でテストされている”、とSrivastavaは説明する。

しかしこれまでは、複数リージョンにまたがるサポートが欠けていたので、Cloud Spannerを一箇所に置くことしかできなかった。それが、今日のマルチリージョンサポートの発表で変わった。ユーザー企業は、データベースをエンドユーザーに近いところに置けるようになる。それにより当然、レイテンシーが減り、応答性が良くなるだろう。

Cloud Spannerは今年の初めにベータで提供されたが、それはまるでマジックのように思えた。それは、SQLデータベースのようなトランザクションの一貫性と、NoSQLデータベースのスケーラビリティを兼備している。この両者が揃うことは稀であり、今日ではEvernoteやMarketoなどもCloud Spannerを利用している。

Googleは、Cloud Spannerの導入はわずか4クリックで完了、と謳っているが、既存のデータベースを移行する場合はそう簡単ではないだろう。Srivastavaによると、それはシステムのタイプ次第だ、という。まったく新しいアプリケーションのために新たに導入するのは簡単だが、Cloud Spannerを使うために既存のデータベースシステムのアーキテクチャを変えなければならない場合は、それなりの時間がかかるだろう、と彼女は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS S3がデフォルトの暗号化オプションによりアドミンの苦労と負担を取り除く

顧客がデータを暗号化してないことによるAmazon S3のセキュリティ事故は、慢性的に多い。被害企業の中には、某国防総省納入企業や、本誌TechCrunchのオーナー企業Verizon、大手コンサルティング企業Accentureなどの著名企業もいる。というわけで今日AWSは、S3上のデータが(なるべく)確実に暗号化されるための、5種類のツールセットを発表した

まず、これからのS3には、デフォルトで暗号化する、というオプションがある。その名のとおり、このオプションを指定すると、S3に放り込むデータはデフォルトで暗号化される。アドミンが暗号化されてないファイルのバケットを作ると、それが拒絶される、ということもない…ただ黙って暗号化される。絶対安全とは言えないが、アドミンのうっかりミスで暗号化されなかった、という人的ミスはなくなる。

次に、さらに念を押すかのように、S3の管理コンソール上では、守秘設定のない、パブリックにオープンなバケットの横に、よく目立つ警戒標識が表示される。これによりアドミンは、エンドユーザーのうっかりミスに気づくことができる。

そしてアドミンは、Access Control Lists(ACLs)により、S3の各バケットやオブジェクトのアクセス許容者を指定できる。これまでのパーミッションはデータに付随して移動するが、このバケットレベルのパーミッションなら、別のアドミンが管理する別のリージョンにバケットが移っても大丈夫だ。パーミッションは、そのバケットのレプリカにも適用される。

さらにアドミンは、オブジェクトの複製をAWSのKey Management Service(KMS)が管理するキーで暗号化できる。つまり、アドミン自身が暗号化キーを管理しなくても、S3のデータを確実に暗号化することができる。

そして、万一事故が生じたときには、レポートが提供される。そこにはS3内の各オブジェクトの暗号化ステータスなどが載っている。それは、今後の人的エラー対策のための、基本資料ともなる。

絶対確実なセキュリティ対策はありえないにしても、今度発表されたS3のデータ保護対策により、アドミンが確実にそして容易に、暗号化されていない情報の混入を防ぐことができるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウドインフラストラクチャ市場ではAWSの支配が当分続きそう、後続との差は大きい

【抄訳】
AWSは今四半期でも、クラウドインフラストラクチャ市場の無敵のトップだ。いわゆる成長率ではMicrosoftやGoogle、Alibabaなどが高いが、彼らは分母が小さすぎるから、その成長はAWSから見れば痛くも痒くもない。

AWSの今四半期の売上は、45億7000ドルという巨額だ。この額はアナリストたちの予想45億1000万ドルを上回り、この成長率が続けば2017年の年商が180億ドルに達しそうなペースだ。

“でも、Microsoftのクラウド部門は年商200億ドルでしょ?”、と言うのは無意味な比較だ。なぜならそのクラウド部門なるものに大きく貢献しているのはAzureのようなインフラプラットホームではなくて、Office365などのSaaSビジネスだ。IaaSとかSaaSとか、クラウド方面の謎のような言葉は、この記事で勉強できるだろう。

クラウド市場を追い続けるアナリスト集団Synergy ResearchのJohn Dinsdaleによると、クラウド市場のマーケットシェアを云々するときはSaaSを別立てで計算すべきである。そしてIaaSとPaaSおよびプライベートクラウドを合わせた市場では、SynergyによるとAWSのシェアは35%だ(下図)。他社は、はるか後方に引き離されている。

【中略】

Synergyが作った上図を見ると、AWSはいわゆる“ダントツ”である。Microsoftも頑張ってはいるが、AWSには接近できない。同じくアナリスト企業のCanalysは、やや低い31%をAWSのシェアとしているが、市場の全体像としてはSynergyの結果とほぼ同じだ。

ちょっと意外なのは、これら競合サービスの成長率の高さかもしれない(上図および下図)。Canalysの数字では、AWSの成長率およそ40%に対してMicrosoftは90%、Googleはおよそ75%だ。でも、小額な売上増でも、分母が小さいと増加率は大きくなるのであり、いずれにしても当分は、AWSの牙城はびくともしない。

もちろんクラウド市場はまだ飽和にはほど遠くて、今後ますます大きくなると予想されるが、成長率の高いMicrosoftも含めて、AWSにとって‘脅威’と言えるほどのコンペティターはまだ存在しない。

CanalysのリサーチアナリストDaniel Liuは、こう言う: “AWSは多様なサービスとデベロッパーの大きな知名度により、先行馬としての優位を維持し続ける。しかし後続集団の中での先頭は、伝統的にエンタープライズに強く、Office互換性という有利性を持つMicrosoftだろう。Microsoftのもうひとつの強みは、強力なハイブリッドクラウドソリューションにおける技術と経験だ”。

一方AWSのCEO Andy Jassyは、自社の優位性についてそれほど楽観的ではない:

“これからの市場では、一人勝ちはありえない。この業界はコストが大きいし、サービスの品揃えの豊富さと最先端性が重要だから、30社が市場にひしめくということはありえないだろう。でも、成功者が複数社になることはほぼ確実で、それらの名を今挙げることはできない。でも長年のエンタープライズ顧客が多くて営業に大軍を抱える古顔たちが、きっとその中にはいるだろう”。

でも、少なくとも現状のクラウドコンピューティング市場では、各社間の売上規模の格差が大きく、またクラウドサービスの内容も多様なので、成長率等の数字を見るときは注意が必要だ。

〔訳注: 各社、発表している数字の部門分けなどがまちまちなので、成長率90%、75%のMicrosoftやGoogleが、成長率40%のAWSに追いつくのは何年後か、という単純計算も、一般に公表されている数字からはできない。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

いや、iPhoneにセクシー写真の専用フォルダーはない

ものごとの動きがこれほど速くなると、しくみに対するわれわれの想像が、実際に機能しているしくみに追いつくまでに少々時間がかかるのはいたしかたない。ただ、これは非常に繊細な問題なので誤解を解いておく価値があるだろう。Apple(あるいはGoogleでもどこでも)は特別なフォルダーをもっていて、いけない写真は全部そこに保管してある、という噂。心配になるのは当然だが、幸いなことに実際そんなことは起きていない。

そういう会社が何をやっているかといえば、何らかの方法で写真の内容を分析することだ。彼らは高度な画像認識アルゴリズムを使って、犬やボートから人の顔まで何でも簡単に識別できる。

犬が検出されると、その写真に関連付けられたメタデータに「犬」タグを付加してシステムが追跡できるようになる。撮影時の露出設定、位置情報なども一緒に保存されている。これは非常に低いレベルで行われる処理なので、システムは犬がなんであるかは知らない。単に特定の数値(様々な視覚的特徴に対応している)に関連付けられた写真をとってくるだけだ。しかしこうすることで目的物を検索したときシステムは容易に見つけられるようになる)。

通常この分析はセキュリティー保護された「サンドボックス」の中で行われ、識別された内容はほとんど外へ出ない。もちろん特別な例外はある。例えばチャイルドポルノに関しては非常に特殊な分類システムが用意されており特別にサンドボックス外へのアクセスが許されている。

かつてサンドボックスは非常に大きくウェブサービスを必要としていた ―― 写真が内容に応じてタグ付けされるのはGoogleフォトやiCloudなどのアップロードした時だけだった。今はもう違う。

機械学習や処理能力の向上によって、以前巨大なサーバー群の中でしか生きられなかったアルゴリズムと同じものが携帯電話の中で十分実行できるようになった。このためあなたの写真をAppleやGoogleに送らなくても「犬」のタグを付けられるようになった。

セキュリティーやプライバシーの観点から見て、この方がシステムとしてはるかに優れていることは間違いない ―― プライベートなデータを検査するのに誰かのハードウェアを使い、秘密を守ってくれると信じる必要がなくなった。今でも信じなくてはならないが、信用すべき部分や手順が少なくなった ―― 「トラストチェーン」の単純化と短縮だ。

しかしこれをユーザーに説明するのは簡単ではない。ユーザーから見れば自分たちのプライベートな ―― おそらく非常にプライベートな ―― 写真が本人の承諾なしにカテゴリー分けされているのだから。会社の干渉なしにこれが可能だとは何とも信じ難い。

I’m in a “carton” on the right, apparently.

問題の一部はUIの欠陥にある。iPhoneの写真アプリで検索すると、(もし見つかれば)検索結果が「カテゴリー」として表示される。このことがこの写真はiPhone内のどこかにある「フォルダー」に「入っている」ことを暗示させている ―― 「車」や「水着」などのラベルをつけられて。ここで起きている問題は、検索の実際のしくみを伝達することに失敗していることだ。

この種の写真分類アルゴリズムの限界は、必ずしも柔軟性がないことだ。写真によく出てくる一般的な対象物を500種類識別できるようにシステムを訓練することはできるが、あなたの写真にそのうち1種類も入っていなければ何もタグ付けされない。検索した時に出てくる「カテゴリー」はシステムが探すように訓練されたよくある物事の名前だ。前にも言ったようにこれはかなり近似的なプロセスだ ―― 写真の中に一定の信頼度を超えた物体があるかどうかを見るだけ(例えば上の画像で、私が無響室にいる写真に「カートン」というラベルが付いてる。思うにこれは壁が牛乳パック(milk carton)に見えるからだろう)。

「フォルダー」を始め今日のコンピューターシステムにファイルが保管されているしくみに関するほとんどの知識は時代錯誤だ。しかし、デスクトップ式の階層化されたフォルダーシステムと共に育ったわれわれは、ついついそれを想像してしまい、写真が保管されているものがフォルダー以外であるとは考えられない ―― ただしフォルダーには作成、アクセス、管理などここではあてはまらない特殊な意味合いもある。

あなたの写真は「水着」のラベルがついたフォルダーの中に入っているのではない ―― あなたが検索ボックスにタイプしたテキストを写真のメタデータのテキストと比較して、一致すればその写真を表示しているだけだ。

これは、問題となっている会社があらゆる疑問について完全に無罪放免だという意味ではない。例えば、サービスはどんな対象やカテゴリーを探しているのか、何を除外しているのか、それはなぜなのか?どうやって分類アルゴリズムを訓練しているのか、例えばそれは、皮膚の色や性別の異なる人についても同様に有効なのか?どうやってこの機能を制御やるいは停止するのか、もしできないのから理由は何か?等々。

幸い私はトップIT企業数社と連絡を取り直接この質問をすることができたので、今後の記事で回答の詳細を伝える予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

MicrosoftのAzure Container Serviceの頭字語がACSからAKSに変わった、そのココロは?

コンテナのオーケストレーションに関してはKubernetesが急速にデファクトスタンダードになりつつあり、Docker SwarmやデータセンターOS(DC/OS)を自称するMesos/Mesosphereなどは今や、なんとか自分なりのニッチを見つけようと努力している。そんな中でMicrosoftは長きにわたって、同社のマネージドAzure Container Service(ACS)のアドバンテージのひとつは複数のオーケストレーションツールをサポートすることだ、と主張してきた。しかし今日(米国時間10/24)からは、それがすこし変わるようだ。Azure Container Serviceの頭字語が、なんと、“AKS”になるのだ。

お察しのとおり、この唐突な“K”はKubernetesであり、Microsoftは明らかにそのサービスをこのオーケストレーションツールに向かわせようとしている。サービスの正式名は変わらないのに。

Azureに、マネージドなKubernetesが加わるこのAKSは、目下プレビューだ。

AKSでMicrosoftは、そのフォーカスの中心にKubernetesを置く。Azureのコンテナ対応主席PM Gabe Monroyによると、コンテナサービスは至近の6か月で300%成長し、そしてその顧客は、同社の現在のKubernetesサポートを“とても気に入っている”、という。他の類似サービスと同様にAzureも、Kubernetes環境の管理と運用をできるかぎり容易にしているのだ。

なお、AKSそのものは無料だが、コンテナを動かすためには当然、AzureのVMを有料で使わなければならない。これに対しGoogle Container Engineは、そのサービスの使用時間とクラスター数に応じて課金される。

Microsoftが強調するのは、今でもDocker EnterpriseやMesosphereのDC/OSへの関心が存続していることと、既存のACSデプロイメントエンジンのサポートは今後も続けることだ。Monroyは今日の発表声明でこう述べている: “Azureの顧客でもあるこれらの顧客のニーズに対応するために、DockerMesosphereのエンタープライズ製品の統合は弊社のAzure Marketplaceにおいて、さらに強化していく。Azure MarketplaceはACSと同様の容易なデプロイメントを提供し、またエンタープライズエディションへの容易なインプレースアップグレード(稼働時アップグレード)を提供していく。それはまた、付加価値としての商用機能と24×7のサポートを提供する”。

この春Microsoftは、KubernetesにフォーカスするコンテナプラットホームDeisを買収した。また同社は最近、オープンソースソフトウェアとしてのKubernetesの‘実家’Cloud Native Computing Foundationに加盟した。Kubernetesの共同制作者の一人Brendan Burnsは、今ではAzureのコンテナ関連サービスのトップだ。こういった最近の動きはすべて、同社がますます強力に、このオープンソースのプロジェクトを支持するようになったことの現れ、と見なさざるをえない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

DockerもついにKubernetesをネイティブでサポート、Swarmの併用も可能

コンテナのオーケストレーションといえば、Googleが開発したオープンソースのツールKubernetesが今や事実上のデフォルトスタンダードになってしまったようだ。だから今日Dockerが、コペンハーゲンで行われたDockerCon EuropeでKubernetesのネイティブサポートを発表したことには、誰も驚かないだろう。

同社独自のオーケストレーションツールDocker Swarmを完全に放棄したわけではないが、今回初めてKubernetesのネイティブサポートを提供したということは、今やそのユーザー数がとても多いから、コンテナ企業である以上、サポートせざるをえないのだ。ただしDockerの場合は、ユーザーがランタイムにオーケストレーションエンジンを選択できる。DockerのプロダクトマネージャーBanjot Chananaによると、毎回SwarmかKubernetesかどちらかを選べるが、コードを替える必要はない。

これまでも、DockerでKubernetesを使うことはできたが、それは必ずしも容易ではなかった。今回発表されたKubernetesのサポートにより、Docker Enterprise EditionとDocker Developer Editionのどちらのユーザーにとっても、それがずっと単純になったはずだ。

Chananaによると、Dockerのアーキテクチャのおかげで、KubernetesとDocker Swarmの併用はそれほど難しくなく、違和感もない。Dockerは顧客に、プログラムのコンテナを作るための標準的な方法を提供している。それはDevOpsモデルでは通常、デベロッパーの担当になる。

一方オペレーションの方は、コンテナのライフサイクルの間にそのデプロイとセキュリティと管理を担当し、そのためにコンテナオーケストレーションツールを使用する。最近の2年間でAWS, Oracle, Microsoft, VMwareとPivotalなどのビッグネームがこぞってKubernetesを採用し、彼らはオープンソースのKubernetesプロジェクトの拠点であるCloud Native Computing Foundationにも参加した。それによりデフォルトスタンダードとしてのKubernetesの地位が、いよいよ確定した。

これだけの企業がKubernetesバスに乗り込んでしまったからには、Dockerも顧客の要望に従わざるをえない。Dockerはこれまで、自社のオーケストレーションツールを使いながらKubernetesをサポートすることもできていたが、でも今後は、大多数のコンテナワークロードでKubernetesが選ばれることが、確実になってきた。

なお、今週のThe Informationの記事によると、GoogleはKubernetesを開発していた2014年に、Dockerをコラボレーションに誘(さそ)っている。でも当時DockerはSwarmを選び、そしてGoogleはCloud Native Computing Foundationへと向かった。今日の発表は、まさに円が閉じたようであり、これからはDockerも、(コードはホストしないけれど)Kubernetesをサポートしていくことになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

新アカウントタイプDropbox Professionalはフリーランサーやクリエイティブに便利な機能を揃える

Dropboxには大きなストレージのPlusアカウントがあり、いろんな機能を揃えたBusinessアカウントがある。しかしこれまでなかったのは、一部の高度な機能はほしいけどBusinessにグレードアップする理由はないという個人事業主や小企業のためのサービスだ。今日(米国時間10/17)同社は、この宙ぶらりんのユーザーを対象とする新しい種類のアカウントDropbox Professionalを発表した。

この月額19ドル99セントのアカウントには、単なる多めのストレージ以上のおまけ機能がある。Dropbox Plusと同じくストレージは1テラバイトだが、それだけではない。Dropboxにストレージがあるのは当たり前だ、ストレージ屋さんだからね。問題は、それ以外の機能だ。

ずば抜けて最大の機能は、Dropboxがショーケース(showcase)と呼ぶ、コンテンツをパッケージする新しい方法だ。それはマーケティングのための一揃いのコンテンツ・セットだったり、金融サービスならカスタマイズされたアプリケーション、あるいは各クライアントとシェアする広告のポートフォリオだったりする。

たとえばそういうコンテンツをPDFでまとめておけば、クライアントにそれを渡して簡単にちょっとしたプレゼンができる。それはAdobeが何年も前から提供しているマルチドキュメントPDFとそれほど変わらないが、Dropboxがユーザーのコンテンツをパッケージされた形式で保存してくれるのは、今回が初めてなのだ。

Dropbox Showcaseの例。写真提供: Dropbox

ProfessionalアカウントにはSmart Syncもある。これは従来、Businessアカウントだけだったが、ユーザーはコンテンツ(ファイルまたはフォルダー)を、ローカルにのみ保存/Dropboxのクラウドに保存/その両方に保存、のどれかに決める。たとえばローカルなハードドライブを節約したいクリエイティブの人は、Dropboxにアーカイブしたコンテンツをまるでローカルみたいに利用するだろう。

さらに、OCRの機能もある。これによりPDFなどのドキュメントをスキャンしたテキストを読んで、ドキュメントの方は守秘性などの理由で廃棄してもよい。機密ドキュメントをクライアントとシェアしたり、知財がらみのRFPを送るときなどに便利だろう。

Dropbox Professionalには、Businessのようにアドミンのためのバックエンド的機能はない。でも、それほど高くない費用で高度な機能がいくつかある。Businessバージョンに投資するほどではないが、Plusでは物足りないという個人事業主や小企業には魅力的だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

年商50億ドルに向かって着実に進むRed Hat、豊富なLinux経験が未来への資産

Red HatのCEO Jim Whitehurstにこの前会ったのは2016年の6月だったが、そのときの彼は売上50億ドルを目指すという、かなりの大風呂敷を広げた。当時のそれは、実現不可能な目標と思えた。そのころの同社は、売上が20億ドルを超えた初めてのオープンソース企業にすぎなかった。50億が相当な難関と思われたのは、彼も指摘したように、企業は大きくなればなるほど成長カーブが徐々にゆるやかになるからだ。

でも同社はその後も元気旺盛で、このまま行けば次の二つの四半期内には売上30億ドルを超えそうな勢いだ。Red HatはLinuxのエンタープライズ向けバージョンを提供していることがいちばん有名だが、クラウドやコンテナなどで変化していく世界にも積極的に適応している。そして同社のRHEL(Red Hat Enterprise Linux)の顧客も徐々に変わりつつあるが、変化を支える新しい技術を得るためにもRed Hatを使い続ける。Whitehurstが言うには、しかもそれは決して偶然ではない。

クラウドやコンテナは主にLinux上の産物であり、Red Hatの得意技(わざ)は何かといえば、それはLinuxだ。Whitehurstによると、レガシーのRHELビジネスも依然14%の高率で成長しているが、新顔のクラウドとコンテナの事業はそれを大きく上回る40%の成長を維持している。そしてそれが、売上に強力なインパクトをもたらしている。

先月発表された最新の決算報告では、全体的な売上は四半期ベースで21%増の7億2300万ドル、年商換算では28億ドルになる。投資家たちもそれを好感し、株価は上昇を続けている。2016年の12月に$68.71だった株価は、今日(米国時間2017/10/13)見ると$121とほぼ倍増だ。どこをどう切っても、良好なリターンと言えよう。

Whitehurstによると、同社のさまざまな事業部門が互いにシナジー効果を上げている。同社は、Googleで開発されたオープンソースのコンテナオーケストレーションツールKubernetesに早くから賭けてきたが、それがのちには、Kubernetesを使うコンテナ化アプリケーションのデリバリ、という新しい事業形態に結実して稼いでいる。Red HatはLinuxをエンタープライズのITにおいてもっとも有能であるようにパッケージして提供しているが、それと同じことを、KubernetesとOpenShiftプロダクトとの組み合わせでもやっている。というかWhitehurstが冗談で言うのは、OpenShiftは名前の中にKubernetesがあればもっと認知度が上がっただろう、と。

この分野での成功は、技術の適時適材適所という正攻法だけでなく、Red Hat独自の特性にも負っている。Whitehurstは曰く、“うちには、エンタープライズにとってベストなアーキテクチャを見分けることのできる独自のスキルがある”。しかもそれは初期からコミュニティに還元され寄与貢献しているだけでなく、今や同社は、Kubernetesに対してもGoogleに次ぐ最大のコントリビューターだ。

しかし彼が言うのは、やはりLinuxとの結びつきだ。コンテナがもともとLinux上の技術であることが、Red Hatのコンテナ〜Kubernetesビジネスを強くしている最大の要因であり、Linuxに関する同社の長年の知識と技術の集積を、コンテナにもそのまま応用できることが、大きな強みだ。

Red Hatの収益を支える大企業は、彼らのアプリケーションの全在庫をコンテナ化するほど急いではいない。これらの企業はもっとゆっくり進もうとしており、そこでRed Hatとしては、顧客が今どの段階にいてもしっかりサポートできる体制が必要だ。クラウドで仮想マシンを使うべき段階か、オンプレミスで行くべきか、それともアプリケーションをコンテナ化して動かすべきか、などなど。

Whitehurstは、彼の会社がフリーソフトウェアを売ってることを理解している。だから、売るものはあくまでも、実装を容易にするサービスや、これらのツールを顧客に代わって管理してさし上げるサービスでなければならない。“フリーなソフトウェアを売るときには、IPは無料だから何が価値かを真剣に考えなければならない”、と彼は語る。数字を見るかぎり、顧客は価値を実感しているようだ。50億ドルへの道は、かなり平坦なのではないか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ソフトウェアのサプライチェーンを監視するためのAPI集合GrafeasをGoogleやIBMなど8社が共同開発

コンテナとマイクロサービスによって、ソフトウェアの作り方が急速に変わりつつある。しかし、どんな変化にも問題はつきものだ。コンテナが目の前にあるとき、それを誰が作ったのか、その中で何が動くのかを知りたいだろう。この基本的な問題を解決するために、Google, JFrog, Red Hat, IBM, Black Duck, Twistlock, Aqua Security, そしてCoreOSの計8社が今日(米国時間10/12)、共同のオープンソースプロジェクトGrafeas※を発表した(※: ギリシア語で“scribe, 書記官”の意味)。その目的は、ソフトウェアのサプライチェーンを検査し統轄するための標準的な方法を確立することだ。

併せてGoogleは、もうひとつの新しいプロジェクト、Kritis※を立ち上げた(※: ギリシア語で“judge, 鑑定人”の意味…Kubernetesの成功以来、Googleの新しいオープンソースプロジェクトにはほかの言葉を使えなくなったのだ!)。Kritisは、Kubernetesのクラスターをデプロイするとき、コンテナに一定のプロパティを強制する。

Grafeasは、コードのデプロイとビルドのパイプラインに関するすべてのメタデータを集めるための、APIの集合だ。そしてそのために、コードの原作者や出所、各コード片のデプロイ履歴〜デプロイ時の記録、どのようなセキュリティスキャンをパスしたか、どんなコンポーネントを使っているか(そして各コンポーネントの既知の脆弱性)、QAからの承認の有無、などの記録をキープする。そうすると、新しいコードをデプロイする前にGrafeasのAPIを使ってこれらの情報をすべてチェックでき、それが(得られた情報の範囲内で)脆弱性なしと認定されていたら、プロダクションに放り込める。

一見するとこれは、平凡すぎる感じがしないでもないが、でもこんなプロジェクトのニーズは確かにある。継続的インテグレーションや分散化、マイクロサービス、どんどん増えるツールセット、そして各種バズワードの奔流、といった動向の中でエンタープライズは、自分たちのデータセンターで実際に何が起きているのかを知ることに苦労している。今動かしているソフトウェアの本性を知らずに、セキュリティやガバナンスを云々しても空しい。そしてデベロッパーが使うツールは統一されていないから、そこから得られるデータもまちまちだ。そこでGrafeasは、どんなツールでも一定の標準化された、業界全員が合意しているデータ集合が得られるようにする。

Googleのオープンソースプロジェクトの多くがそうであるように、Grafeasも、この問題のGoogle自身の対処方法を模倣している。規模が大きくて、しかもコンテナやマイクロサービスを早くから採用しているGoogleは、業界全体の問題になる前にこれらの問題を数多く体験している。Googleによる本日の発表によると、Grafeasの基本的な内容は、Google自身がそのビルドシステムのために開発したベストプラクティスを反映している。

そのほかのパートナーたちも全員が、このプロジェクトにいろんなおみやげを持参している。しかしたとえばJFrogは、同社のXray APIにこのシステムを実装するつもりだ。Red Hatは、同社のコンテナプラットホームOpenShiftのセキュリティとオートメーションを強化するためにこれを導入し、CoreOSは同社のKubernetesプラットホームTectonicにこれを統合する。

Grafeasの初期のテスターの中には、Shopifyがいる。同社は現在、一日に約6000のコンテナをビルドし、それらが33万点の画像を同社のメインのコンテナレジストリに保存する。Grafeasがあると、たとえば、今どのコンテナがプロダクションで使われているか、それはいつレジストリからダウンロードされたか、その中ではどのパッケージが動いているのか、そして、コンテナの中のコンポーネントのどれかに既知の脆弱性はないか、などが分かる。

Shopifyは、今日の発表声明の中でこう言っている: “Grafeasによってコンテナの正確なメタデータが得られるので、セキュリティチームがこれらの質問に答えられるようになり、またShopifyでわれわれがユーザーに届けるソフトウェアの検査やライフサイクル管理に、適切な肉付けがなされるようになった〔形式だけではなくなった〕”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

デベロッパーによるパッケージングまで助けるChefのHabitatツールにSaaS版Habitat Builderが登場

Chefは、企業がオンプレミスやクラウドインフラの環境でデプロイを自動化しようとするときの、長年の定番的ツールだった。しかし一年前に同社がローンチしたHabitatは、もっとアプリケーション寄りのサービスで、多様なプラットホーム上へデプロイしなければならないコードを、そのためにパッケージしてくれる。今、多様なプラットホームといえば、典型的にはコンテナ、VM、Mesosphere、Cloud Foundryなどだ。

今日(米国時間10/9)同社は、アプリケーションの構築とデプロイをさらに容易にする新たなサービスHabitat Builderをローンチした。Habitatは無料のコマンドラインツールだが、Habitat BuilderはいわばHabitatのグラフィカルなSaaSバージョンだ。

Chefのチームによると、クラウドネイティブなプラットホームというデベロッパー中心型の世界へ移行するための橋を、エンタープライズに提供することがHabitatやHabitat Builderのねらいだ。彼らは既存のコードをそのまま、HabitatやHabitat Builderを使って、自分たちが選んだプラットホームへデプロイできる。アプリケーションを、オンプレミスからクラウドへ移行させたいと考えている企業にとっては、きわめて便利なサービスだ。クラウドやハイブリッドのデプロイが、とても容易にできるからだ。またデベロッパーは、Builderを使ってアプリケーションを自動的に直接、Docker Hubのレジストリへパブリッシュできる。

Habitat Builderはビルドサービスと関連部位(ライブラリなど)の保存サービスを提供し、パッケージされたアプリケーションと、それらに必要なデプロイアーキテクチャを保存するパブリックとプライベートのリポジトリーもそこに伴う。またランタイムのライフサイクルや構成のアップデートなどを管理するHabitat Supervisorがサポートされる。

Chefのマーケティング担当VC Marc Holmesはこう語る: “コンテナを始めるための優れたツールはすでにいろいろあるが、従来型やクラウドネイティブなど複数のアーキテクチャにわたってアプリケーションをパッケージしデプロイすることがが、往々にしてチームにとっては必要だ。Habitati Builderを使えばデベロッパーはアプリケーションを、整合性を損なわずにパッケージでき、またオペレーションは、適切なデプロイターゲットを選択できる。devもopsも、自分の領分をわきまえたうえで、緊密な協働ができるようになる”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineがCPU 96コア、メモリ624GBの巨大インスタンスを提供、プロセッサーもグレードアップ

どんなにリソース大食漢のアプリケーションでも、Google Compute Engine(GCE)なら満足するだろう。今度新たに、CPU 96基、メモリ624GBという怪物インスタンスが生まれたのだ。Bill Gatesは昔、誰が一体640KB以上ものメモリを必要とするんだい?と言ったらしい。彼には、今日のような日が来るとは想像もできなかったのだ。

これは、本当の話ですよ。しかも、ちょっと前の3月にはGCEは64コアのCPU + 416GBのメモリというインスタンスを発表している。今回は、それを上回る。

使用するチップは、たぶんご想像どおり、IntelのXeon Scalableプロセッサー(コードネームSkylake)だ。Googleによるとこの子は、前の世代のXeon系列に比べて計算性能が20%速く、high performance computing(HCP)では82%より高速、メモリ帯域はほぼ2倍だ。もちろん、これで十分という性能は永遠にないけどね。

それほどのパワーは要らない、というユーザーは、ご自分のワークロードに合わせてCPUとメモリの構成をカスタマイズできる。

Googleによると、今回の巨大インスタンスは、その性能をすでにSAP HANAで実証している。SAP HANAは、ドイツのソフトウェア大手によるインメモリデータベースで、ユーザーの必要に応じてメモリをいくらでも使える。

624GBでも足りない、というユーザーに対応するためGoogleは今、最大4TBまでメモリを搭載できる製品を開発中だ。お金をしっかり用意して、待っていよう。本日(米国時間10/5)紹介されたインスタンスは、一時間約4ドル95セントからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleがアプリデベロッパーのための新しいデータベースCloud Firestoreを立ち上げ

Googleが今日、アプリデベロッパーのためのプラットホームFirebase用に、新しいデータベースサービスを立ち上げた。そのCloud Firestoreと呼ばれるデータベースは既存のFirebase Realtime Databaseを補完するもので、両者の重複部分も多い。

Firebaseの協同ファウンダーJames Tamplinによると、Realtime Database(RTDB)はつねに、Firebaseプラットホームの旗艦的プロダクトであった。そのサービスは今や、数十万ものデベロッパーに利用されている。そしてTamplinの説では、デベロッパーにそれほど人気があるのは、データベースアクセスがリアルタイムであり、しかも管理やスケールアップ/ダウンはGoogleがやってくれるからだ。

彼によると、しかしそうやってサービスの規模が大きくなると、デベロッパーが不満を感じる部分も出てきたので、それを解決するためにCloud Firestoreを立ち上げた。不満はたとえば、RTDBでは複雑なクエリを扱いにくい。プラットホームのアーキテクチャのせいで、同時接続デバイス数が10万を超えるとシャーディングでデータベースを分割しなければならない。それでは、RTDBの本来の利点がなくなってしまう。

既存のデータベースサービスの改築工事はきわめて困難なので、チームは新築を選んだ。Cloud Firestoreはまったく新たに設計され、さまざまなユースケースをサポートする。たとえば、ローカルなデータベースを併用してオフラインのアプリを作るとか、複数のアプリやユーザー間でデータのリアルタイムのシンクができる、など。

すべてのデータが複数のリージョンにまたがって自動的に複製され、整合性も完璧だ。また、前と同様、スケーリングは自動的に行う。

さらに、Cloud Firestoreのクライアント側SDKにはアプリの認証やネットワーキングのコードもあり、またそのバックエンドは、いくつかのセキュリティルールによりデータへのアクセスを制御し、ユーザーの正当性を検証する。したがってアプリは、ユーザー確認のためのプロキシなどを使わずに、直接データベースにアクセスできる。

そしてもちろん、これらがすべてFirebaseのプラットホームに深く統合されている。したがってGoogleのサーバーレスプラットホームCloud Functionsも使える。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud、「カスタムの役割」で細かい権限設定を可能に

Google Cloudのように多様なプラットフォーム上のサービスを誰が利用できるかを決めることは、IT管理者にとって悩みの種だ。Googleは、数多くの設定済みの「役割」(roles)を提供するなど様々な努力をしてきたが、出来合いの役割では万人のニーズに合わないことを認識し、 custom roles[カスタムの役割]を今日発表した。

名前が示す通り、管理者は組織内の異なる仕事に応じて、役割を広くも狭くも定義することができる。プラットフォーム上には、オーナー、エディター、ビュワーという3種類の基本的役割がある。さらにサービスに特化した役割が100種類提供されるが、それでもニーズに合わないときはカスタムの役割の出番だ。

GCPの定義済み役割の例。出典:GCP

Googleのプロジェクトマネージャー、Rohit Khareが新機能を紹介するブログ記事にこう書いている:「カスタムの役割は基本的役割や定義済みの役割を補うことで、より詳細な分担が必要な場合に対応できる」。KhareはCloud SQLデータ監視者の事例を挙げた。収集されたデータを理解するためにデータベースをアクセスする必要はあるが、データの書き出しやデータに対するアクションは不可能にしたいケースだ。

Khareはブログ記事でこう説明している:「例えば『クラウドSQLインベントリー』というカスタムの役割を作って、監視者にデータベースの閲覧のみ可能で、コンテンツのエクスポートは不可能な権限を与えることができる」。

新しい役割を作る最善の方法は、既存の役割をコピーして、名前や権限を修正することだとGoogleは言っている。また、カスタムの役割を作る際は、それを追跡するシステムが必要だと注意している。それはGCPが常にプラットフォームをアップデートしているため、カスタム権限が最新バージョンに合致していることを確認する必要があるためだ。

Googleはこれまでも多くの利用場面に合わせた様々な権限を提供してきたが、例外は必ずあるものなので、管理者にカスタムの役割を作る機能を与えることは、定義済みの役割以上に綿密な管理を行いたい企業にとって魅力だろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

AWSがOracle Larry EllisonのRedshift批判に反論、“例によってLarry節だ”と

Oracle OpenWorlカンファレンスのキーノートでOracleのLarry Ellison会長が同社の新製品、全自動データベース(autonomous database, 自律的データベース)を発表したとき、彼は数分間にわたり、クラウド市場における同社の強敵AWSをけなした。マーケットリーダーであるAmazonをEllisonが標的にするのは当然だが、しかしAWSは今回、彼のコメントに公開の場で反論した。

AWSがとくにひっかかったのは、同社のビッグデータウェアハウスAmazon Redshiftがエラスティックでない、というEllisonの主張だ。Ellisonはこう語った: “Amazon Elastic Cloudと呼ばれているのは知っていますが、でもそれはエラスティックではありません。すなわちAmazonのデータベースRedshiftは、ワークロードが大きくなったとき自動的にプロセッサーの数を増やせません。逆にそれを、減らすこともできません。そんな能力が、そもそもないのです”。彼はさらに、Redshiftでは手作業でシステムを停止し、新しいインスタンスを立ち上げ、データベースを新しいストレージにコピーし、その後の稼働結果を古いデータベースへコピーバックしなければならない、と主張した。

これに対しAmazonのスポークスパーソンは応じた: ばかばかしい(もっと多くの言葉で)。

“まず、それは事実ではない。Amazon Redshiftでは、顧客は必要に応じてクラスターをリサイズできるし、コンピュートをストレージとは別にスケールできる。Amazon Simple Storage Serviceのデータに対してRedshift Spectrumを使えるし、顧客はストレージとは無関係に単純にクェリに対して支払うだけでよい”。

さらに彼らは、Ellison自身についても非難した: “でも多くの人は、Larryという人物をすでによく知っている。事実に基づかない乱暴な主張、そして、大量のこけ脅かしが、彼の常套手段だ”。

エラスティック(elastic, 伸縮自在)というのは、ジョブのサイズに応じて計算機資源が自動的に拡大縮小することだ。Ellisonの場合ジョブとは、データベースの運用、クェリの処理だ。

エラスティックであること、リソースの伸縮が自動的に行われることは、クラウドコンピューティングサービスの主な魅力のひとつだ。まるで、音量ボリュームのつまみを回すときのように簡単に、使用するリソースの増減ができる。自前のデータセンターだと、誰も自動的にリソースを増減してくれない。必要なキャパシティは新たに買わなければならないし、しかも今後の余裕を見て、今の必要量よりも多い買い方をしなければならない。資金の無駄遣いである。

それでもなお、ホリデーギフトシーズンのショッピングでデータ量が予想を超えてスパイクしたら、万事休すだ。リソースを、その日のうちに、しかもその日一日だけのために、買い増すことはできない。しかしクラウドなら、リソースの必要な伸縮が自動的に行われ、‘一日’という短期的なニーズにも対応できるから、リソースの無駄なアロケーションも発生しない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineではそのVMインスタンスの上で別の仮想マシンを動かせる、マトリョーシカのように

クラウドコンピューティングの、これからご紹介する機能は、ちょっと変わっているが、でも実用性は十分にある。GoogleのCompute Engineが今日(米国時間9/28)、“nested virtualization”(入れ子状の仮想マシン)と呼ばれる新たな機能を、ベータでローンチした。その名のとおり、VMの中でVMを動かせるのだ。

でも、なんでそんなことを? Compute EngineのプロダクトマネージャーScott Van Woudenbergが、今日の発表声明でこう説明している: “企業がオンプレミスで仮想マシンを動かし、その上にアプリケーションがあるとき、それらをクラウドへ移行するためにはnested virtualizationを便利に利用できる。VMのイメージをインポートして変換する必要がない。dev/test(開発/試験の繰り返し)やCI/CD(継続的インテグレーション/継続的デリバリー)などで、複数の環境でソフトウェアを検証する必要のあるワークロードでは、nested virtualizationが最適である。”

彼によると、これによりクラウドベースの災害復旧ソリューションをより安価に作れるし、教育訓練や資格認定のためにさまざまな仮想環境をセットアップしたい企業にとっても便利だ。被験者の全員に、確実に同じ環境を提供できるからだ。

この機能は、プリエンプティブVMを含め、Compute EngineのどのタイプのVMでも利用できる。唯一の要件は、その(ユーザーの)VMがIntelのHaswell以降のCPUで動くことだ。

実際にどうやるかというと、まず通常のVMをセットアップし、そのインスタンスの上にKVM互換のハイパーバイザーをインストールする。Googleによると、今のところKVM非互換のハイパーバイザー、Xen, ESX, それにMicrosoftのHyper-Vなどはサポートされない。使用するインスタンスも、Linuxインスタンスのみである。Windowsマシンではnested virtualizationを使えない。

なお、Microsoft Azureはすでにnested virtualizationをサポートしている(Hyper-Vハイパーバイザーを使用)。AWSでは、OracleのRavelloのようなツールを使って同様の機能を実現できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSにならってGoogleのCompute Engineも秒制課金を導入、Microsoftはまだか

一週間前にAWSは、同社のEC2サービスの秒単位の課金への移行を発表した。Googleが今日、ほぼ同じ移行を発表したのも、当然だろう。

Google Compute Engine, Container Engine, Cloud Dataproc, およびApp Engineが依拠する伸縮性仮想マシンは、今日からただちに毎秒課金が開始される(AWSの秒課金開始は10月2日からだ)。この新しい課金方式は、プリエンプティブマシンと、同社のプレミアム(特別優遇)オペレーティングシステム(Windows Server, Red Hat Enterprise Linux, SUSE Enterprise Linux Server)が動くVMにも適用される。AWSの秒制課金は標準のLinuxインスタンスのみで、Windows Serverや他のLinuxディストリビューションは従来どおり時間制の課金だ。

AWSの秒制と同じなのは、Googleも最小課金量が1分であること。(30秒しか使わなくても1分)

なおGoogleはすでに、Persistent Disks, GPU, そして特定の割引利用では秒課金を導入している。

毎秒課金になっても多くのユースケースにおいて課金額はほとんど変わらない、とGoogleは言っているが、頻繁かつ急速にスケールアップ/ダウンを繰り返すようなアプリケーションもたくさんあり、そんなアプリケーションでは有意な差がある、とも言っている。Webサイトやモバイルアプリ、データ処理のジョブなどが、そんなアプリケーションの典型だ。

Compute EngineのプロマネPaul Nashが今日の発表声明で述べている: “課金額に大きな違いが生じないことが、これまで秒課金の要望が少なかった理由だと思われるが、みなさんが時間を気にせずに朝のコーヒーをゆっくりお飲みいただけるために、そのVMsの課金方式を最小を1分とする秒制にできたことは、本当に喜ばしい”。

Google自身がそれを白状することはないが、でもこれは明らかにAmazonへの対抗だ。表向きには、両クラウドコンピューティングサービスの機能を比較するページの、チェックボックスがひとつ増えただけだけどね。

ではMicrosoftはどうなる?

今のところ、Microsoftは同じ動きを見せていない。MicrosoftのAzure Compute部門のプロダクト担当Corey Sandersは同社のIgniteカンファレンスの会場で、私の質問にこう答えた: “Azure Container Instancesでは、数秒でスピンアップし数秒でスピンダウンするようなサービスは実質的に秒課金だから、秒制課金の先鞭をつけたのはむしろ弊社である。われわれは顧客にこのような粒度を提供することがコストの面で重要であることを、前から理解していた。他のクラウドがわれわれに見習って、顧客の課金に最良の柔軟性を提供しようとしている光景を目にすることは、実に嬉しい”。

通常の仮想マシンに関してはSandersは明言を避け、Microsoftはコンテナにフォーカスしたい、秒制課金がもっとも有意なのはコンテナだから、と述べた。“弊社のプラットホーム全体にわたって、課金の構造はつねに改善に努めている。それによって顧客がもっと容易に、そしてもっとアジャイルにプラットホームを利用できるようにしたい”、と彼は語った。でもMicrosoftが近く、比較ページに毎秒課金のチェックボックスを含めなかったとしたら、その方がビッグサプライズだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Azureが費用節減のための予約インスタンスを導入、新たなコスト管理サービスもローンチ

ご存じない方もおられるかと思うが、Microsoftは今週、フロリダ州オーランドで例年のIgniteカンファレンスを行っている。その主役はあくまでも同社のおなじみのプロダクティビティアプリケーションだが、最近のMicrosoftはクラウドコンピューティングプラットホームAzureの話題も少なくない。今日(米国時間9/25)発表されたAzureのアップデートの中には、予約インスタンスのローンチや、数か月前にMicrosoftが買収したCloudynの統合による、新たなコスト管理ツールなどがある。

MicrosoftのScott Guthrieは今日の発表で、“クラウドの信頼性の核はそのコストだ。いきなり巨額な請求書が来ないことだ”、と言っているが、一般ユーザーが事前にクラウド利用の費用を正確に見積もることは難しい。そこで今回発表されたCloudynをベースとするAzure Cost Managementサービスは、Azureの顧客全員に無料で提供され、クラウドのROIの最大化を助け、クラウドコンピューティングのリソースの利用状況を把握できるようにし、そしてその費用の管理を支える。

予約インスタンス(reserved instances)はAmazonのAWSには前からあるので、新しいコンセプトではないが、むしろ、Microsoftの導入の遅さが意外でもある。予約インスタンスは、ユーザーが最初に1年から3年の長期利用契約を結び、通常のオンデマンドの利用の最大72%の費用節約を獲得する。Microsoft独自の仕様は、途中でキャンセルして払い戻しを受けられることだ。AWSでは、途中でキャンセルするためにはユーザーがサードパーティのバイヤーを見つけなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud Platformにさらに強力な(二機種めの)Nvidia GPUのサポートが加わる

Google Cloud Platform(GCP)が今日(米国時間9/21)、Google Compute Engineに、Nvidiaの強力なGPUのサポートを加える、と発表した。

同社はすでにNvidia K80 GPUをサポートしているが、今回はNvidia P100 GPUのインスタンスが新たな長期料金体系(sustained pricing model)によりベータで加わる。

機械学習のワークロードを抱える企業にとっては、クラウドでGPUを利用できれば、分単位の料金制でも柔軟な利用が可能だ。しかし長期料金制なら、一定の長時間、最大30%の割引料金で利用できる。言い換えると、(額が最初からわかっているので)月末になって巨額な請求にびっくり仰天することはない。

そしてGoogleの主張によれば、この方式によりベアメタルに近いパフォーマンスを享受できる。GPUサポートを発表するブログ記事で、Googleはこう言っている: “クラウドのGPUは、ベアメタルのパフォーマンスを得るために提供される便宜である。それは1 VMあたりP100が最大4、K80なら最大8となる(K80のボードは最大4で、一枚あたり2 GPUだ)”。

GPUのワークロードは仮想マシンで直接動かしてもよいし、コンテナに収めてもよい。下図のように、サービスは世界の4つの場所から提供される:

Screenshot 2017-09-21 12.28.20.png

地図提供: Google

Googleが想定しているこのサービスの主な用途は、遺伝子研究や金融工学、機械学習のモデルの訓練と推断など、さまざまな計算集約的なタスクだ。二種類のGPUが提供されるため、ワークロードの特性に応じて速度と料金の適正な均衡をユーザーは実現できる。このGPUクラウドの初期の顧客Shazamは、その音楽同定(音→曲名アーチスト名)サービスに利用している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetesがコンテナ時代のソフトウェア産業を全面的に支配、大企業もCloud Native Computing Foundationに参集する

駅を出て徐々にスピードを増す列車のように、Cloud Native Computing Foundationは急速に強くなり、テクノロジー業界の大物たちを吸引してきた。過去1か月半だけでも、AWS, Oracle, Microsoft, VMwareとPivotalなどがこぞって参加した。

これらの企業は必ずしも毎日仲が良いわけではないが、しかしそんな中でKubernetesは業界の必須のツールへと育ち、どの企業もCNCFに参加してそのミッションをサポートすることが必要だ、と考えている。これは部分的には顧客の要望によるものであり、そして残りの部分は、Kubernetesやそのほかのクラウドネイティブ技術に自分も口出しをしたいという欲求の表れだ。

この団体はLinux Foundationの傘下にあり、最初はGoogleが開発したオープンソースのプロジェクトKubernetesもこの親団体の管理下にある。Kubernetesはコンテナ化されたプログラムのオーケストレーション部分を担う。そしてコンテナは、ソフトウェアを、以前のように大きな一枚岩的なプログラムとしてではなく、マイクロサービスと呼ばれる離散的な小片の集まりとして配布するための形式ないし方法である

過去2年ほどはDockerがコンテナの普及に大きく貢献し、コンテナ化されたプログラムを作るための共通的な方法をデベロッパーに提供してきた。そして今では、企業はこれらのコンテナ化されたアプリケーションを“クラウドネイティブ*に”動かすことを欲している…CNCFの事務局長Dan Kohnはそう語る。〔*: cloud-native, ‘クラウド生まれ’、アプリケーションの作成も実稼働もクラウド上で行われること。〕

彼の説明によると、企業がAWS, Azure, GCPのようなパブリッククラウドへ行くにせよ、あるいはオンプレミスのプライベートクラウドでアプリケーションを動かすにせよ、どちらの場合も同じ技術がベースになる。アプリケーションがどっちにあっても、Kubernetesはそれらを整合性のある形で動かし管理するためのツールを提供する。

コンテナ化されたクラウドネイティブなアプリケーションをローンチする企業にとって、Kubernetesはオーケストレーションとオペレーションのレイヤを提供し、それを軸として驚異的なほど高い生産性が実現する。だから冒頭に挙げた巨大企業ですら、そのことを認識して、今やCNCFというバスに乗り込んでくるのだ。

というわけで、すべての中心にあるものはKubernetesだが、Kohnによるとそれは、見た目ほどシンプルではない。コンテナオーケストレーションツールを採用しCNCFに参加することには、企業目的が伴っている。“全員が輪になって手を握り合い、Kumbayaを歌う、という状況ではない。同じ顧客を奪い合う競合関係もある。しかし彼らは、コンテナオーケストレーションツールをめぐって争っても一文の得にもならないことを、十分に理解している”、とKohnは語る。

Kohnによると、Kubernetesは今やコンテナオーケストレーションのデファクトスタンダードだから、企業はもはやその部分では競合せず、コンテナの管理体験を向上させるそのほかの部分のサービスで優位に立とうとしている。業界の大物たちも、コンテナのオーケストレーションは今や解決済みの問題であり、今さら車輪の再発明に取り組むのは愚かである、という認識を共有している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))