AWS Fargateはインフラストラクチャー管理不要のコンテナ運用サービス

Amazonは、ラスベガスで開催中のAWS re:Invent会議で、新しいサービスAWS Fargateを発表した。このサービスを使うことで、実行インフラストラクチャについて考えることなくコンテナを運用できるようになる。

これは注目すべきアイデアだ。コンテナを起動して、Kubernetesや他のオーケストレーションエンジンをマネージャとして動作させ、AWSが必要となるハードウェアをすべて賄う。

新しいサービスを発表したRandall Huntのブログ記事では「簡単に説明するなら、FargateはEC2と似たようなものですが、仮想マシンを提供する代わりにコンテナを使うことができるものです。これは、基盤となるインスタンスを管理することなく、コンテナを基本的な計算プリミティブとして使用できるようにするテクノロジーです」と説明されている。

AWSのCEOであるAndy Jassyは、re:Inventのステージでこの新しいサービスを紹介し、とても簡単に利用できることを強調した。タスクを定義し、アカウントとアクセス管理要件と必要なメモリとCPUを指定すれば、Fargateが残りの作業を行う。サーバーやクラスタの調達について心配する必要はなく、自動スケール機能も備えている。

このサービスは、インフラストラクチャを管理する複雑な仕事を、簡素化してくれるものだ。もちろんインフラストラクチャーの管理を自分たちで行いたい企業もいるし、そうした企業のためにはEC2が用意されているが、インフラストラクチャー管理をやめてしまいたい企業はFargateを利用し、AWSに全てを任せることが可能だ。

さらに、特定のアプリケーションの要件に合わせてFargateを設定すれば、各コンテナに必要なリソースに対してのみ支払いが発生する。

本日発表されたこの出発点から、さらなる拡張計画もある。AmazonはAmazon EKSも発表した。これはAmazon版Kubernetesである。ブログの記事によれば、EKSと組み合わせてFargateを使ってコンテナを起動することができるということだが、理にかなったアイデアだ。

本日(11月29日)、Fargateは米国東部(バージニア州北部)リージョンでの提供が始まった。

[原文へ]
(翻訳:Sako)

AWSには当面、ブロックチェーンを利用するサービスを提供する意思がないようだ

Bitcoinがついに10000ドルの大台に乗せたが、そのベース技術であるブロックチェーンをAWSが何らかのサービスに利用することは、当分なさそうだ。ラスベガスで行われているAWSのデベロッパーカンファレンスre:InventでAWSのCEOAndy Jassyは、ブロックチェーンサービスの計画に関する記者たちの質問に、そう答えた。

Jassyは、今後の見通しについても、醒めた目で見ているようだ。彼によると、ブロックチェーンには、“分散台帳であること以上の”多様なユースケースがない。さらに彼は強調して、AWSは、特定の技術を、“それがクールだと思うから作ることはない”、と言う。

彼の見方では、ブロックチェーンが解決を目指してる問題は、ほかにも解決方法がたくさんある。それに、今使われている分散台帳の多くは、能力がきわめて限られている。

とは言え彼は、ブロックチェーンによるプロダクトの将来的な可能性を、まったく排除しているわけでもない。彼は曰く: “しかし今後の顧客の動向には、しっかり関心を持ち続けるだろう”。

AWSのコンペティターであるMicrosoftやIBMなどは、ブロックチェーンを用いるサービスや分散台帳に対して、かなり積極的だ。過去数か月の動きを見ても、彼らは既存の顧客を対象にさまざまなブロックチェーンサービスやパイロットプロジェクトを立ち上げている。しかし今のところAmazonに、その仲間に加わる気はないようだ。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、re:inventカンファレンスでグラフDB、Neptune発表

Amazonは開催中のAWS Re:INVENTカンファレンスで次々の新しいサービスを発表している。さきほど紹介された新しいデータベース、Amazon Neptuneは特にグラフ関係の処理を目的としたサービスだ。もしサービスにソーシャルネットワーク的要素を組み込もうとしているならこのデータベースは役に立つかもしれない。

伝統的なリレーショナルDBの問題点は、もともと複雑なソーシャルグラフを扱うようにデザインされていないことだ。RDBでは友達関係やフォロー関係のリストを扱うのが難しい。たとえばソーシャルグラフから共通の友達を抽出しようとすると、そのたびにきわめて複雑なクエリーを発行する必要があった。

これまでのやり方でこの問題を解決するにはコンピューティング能力をアップするしかなかったが、Amazon Neptuneはソーシャルグラフ処理に特化したデータベースの提供で応えようとするものだ。
Neptuneは数十億に上るソーシャル関係を処理するために最適化されており、一つのクエリーを処理するのに1000分の1秒単位の時間しかかからない。Neptuneは問題発生時の高速切替、過去の一定の時点へのリカバリー、異なるアベイラビリティー・ゾーンへのバックアップを作成などをサポートする。現在使用されていないデータの暗号化も可能だ。

Amazonでは既存のテクノロジーとNeptuneの互換性に配慮している。Neptune DBサービスはグラフモデルとしてProperty GraphとW3CのRDF(Resource Description Framework)、これに準拠したクエリー言語のApache TinkerPop GremlinとSPARQLをサポートする。

グラフデータベースがソーシャルネットワークやデートアプリで有用なのはもちろんだが、商品などを推薦するレコメンデーションエンジン、ロジスティクス、DNAのシークェンシングなどそれ以外にも多数の応用場面があるはずだ。この数か月、有力企業がNeptune採用に踏み切るか動向に注意する必要がある。さらに詳しい情報はこちら

〔日本版〕AWS は現在限定プレビュー中。上のリンク先から試用の申し込みができる。

Featured Image: Hoxton/Tom Merton/Getty Images


[原文へ]

(翻訳:滑川海彦@Facebook Google+

VMwareはAWSのパートナーシップを新しい移行ツールと災害復旧ツールで強化

VMwareはAWSによってダメージを受けると考えられていたことを覚えているだろうか?しかし、ある時点でスマートな舵取りに成功したようだ。有名なクラウドプラットフォームと戦うのではなく、IT部門がAWS上でVMware製品を使い易くする道を選んだのだ。本日(米国時間11月28日)、AWS re:invent顧客会議の冒頭で、同社は新しいマイグレーションならびに災害復旧サービスでのパートナーシップを拡大する計画を発表した。

VMwareのクラウドプラットフォーム部門を担当するMark Lohmeyer副社長が指摘したように、AWS上でVMwareクラウドを提供するオリジナルプロダクトを一般公開してから、まだ最初の四半期が過ぎたばかりである。新プロダクトは、クラウドへの移行を容易にするためにデザインされている。

VWwareの顧客たちが苦労している問題の1つは、彼らのミッションクリティカルなアプリケーションをただ単純にデータセンターからクラウドへ移行することだ。Lohmeyerによれば、この新しい移行プロダクトは、アプリケーションをダウンタイムなしかつ妥当なコストで、迅速に移行できるようにデザインされていると言う(もっともそれは見る人の捉え方によるだろう)。もしそれが宣伝されているように機能するなら、IT部門に対して、両方の世界(オンプレミスとクラウド)のベストの組み合わせを提供することができる。

そのプロダクトは、アプリケーション一切合切をデータセンターからAWSへ移行することが可能で、それまでと同じ方法で監視と管理を続けることができる。もし本当にダウンタイムがない場合には、たとえ手始めに1つまたは2つのアプリケーションを移行してみたい場合でも、あるいはデータセンターを閉鎖して全てを移行したい場合でも、クラウド移行は簡単に行える。

さらに、VMwareは従来の時間課金モデルではなく、割引固定価格を提供することで、プランをより魅力的なものにしている。すなわち、1年または3年間申し込んだ場合、金額は全体量やその他の要因によって異なるものの、割引を受けることができる。かれらはまたハイブリッドライセンスも導入している。これによって顧客たちは、オンプレミスのライセンスを、クラウドに移行しても引き続き利用することができる。これらの要素は全て、標準的な価格アプローチに比べて、クラウドへの全体移行コストを引き下げる可能性がある。

VMwareは、新しい災害復旧プロダクトも発表した。これによりIT部門は、AWSクラウド上にアプリケーションとデータのコピーを保持することができる。大規模ハリケーンや停電、その他の災害が発生した場合に、混乱を最小限に留めることが可能になる。「オンプレミスクラウドで障害が発生した場合には、AWS上で再起動をかけることが可能です」とLohmeyerは説明した。

災害復旧ツールは、クラウドの考えに馴染むために、時間の掛かる企業を助けるためにも役立つ。もし災害復旧バックアップをクラウドの中に保存することができるなら、実際のアプリケーションもある時点から移行してしまえる可能性が出てくる。

VMwareは仮想マシンのコンセプトを普及させた企業であり、今日ではデータセンターの主役となる製品を提供している。VMwareにとっての課題は、未来がデータセンターからクラウドに移行しつつあることだ。最初に試みたのは、独自のパプリッククラウドサービスを開発し、AWSと競合することだった。その構想が吹き飛んだとき、VMwareはプランBを発動し他のクラウドベンダーたちと提携することにした。それらのうちの最大のものは、もちろんAWSである。

Lohmeyerが語るように、このパートナーシップは皆にとって良いものである。「クラウドモデルをすぐに活用できるので、顧客の皆さまにとって良いことです。そしてVMwareにとっても良いことです、何故なら顧客の皆さまに私たちのプラットフォーム上に留まっていただきつつ、仕事量を増やして行くことができるからです。そしてもちろんAWSにとっても良いことです、そのプラットフォーム上で実行される仕事量が増えて行くのですから」。

もし説明どおりに機能するならば、理想的なパートナーシップのための求心力となるだろう。

[原文へ]
(翻訳:Sako)

AWSがベアメタルのEC2インスタンスを立ち上げ、しかもカスタムチップで

Amazonのクラウドコンピューティングサービス部門AWS(Amazon Web Services)が今日、待望のベアメタルインスタンスをそのEC2サービスで提供する、と発表した

ベアメタルは、ソフトウェアの働きで提供される仮想マシンと違って、コンピューターのハードウェア本体そのものなので、ユーザーはハードウェアに直接アクセスでき、とくに大きなオーバヘッドもなくハードウェアのリソースを100%利用できる。またユーザーはその上で独自の仮想化を構築できるので、クラウドサーバーの自主的コントロールが増す。さらにまた、これまでライセンスやサポートの事情などで仮想マシンの上では動かせなかったアプリケーションを、EC2で動かせるようになる。

このベアメタルインスタンスは当面AWSのi3インスタンス系列の一環として提供されるが、将来的にはそのほかの系列でも提供される予定だ。現在このインスタンスは公開プレビューの段階だが、公開といってもデベロッパーは登録してユーザーになる必要がある。

ベアメタルといってもとくに制約はなく、EC2の通常のサービスをすべて利用できる。AWSのグローバルインフラストラクチャ担当VP Peter Desantisが、今日の同社のre:Inventカンファレンスのキーノートで、そう述べた。

Desantisは、これと関連する話題として、Amazonにおけるカスタムチップの開発努力についても触れた。数年前にAWSは、EC2プラットホームのアーキテクチャの現代化を決意した。それはネットワークもストレージも一体化させた新たなプラットホームで、AWSはそれを“Nitro Architecture”と呼んでいる。そのためにAWSはAnnapurna Labsを買収してそのカスタムチップの製造に関する専門的能力を利用し、これまでもっぱらソフトウェアでやっていたことの多くを、高速な専用ハードウェアで行うことにした。同社はまた、同社独自のハイパーバイザーを、LinuxのKVMをベースに作った。

Desantisの説では、カスタムのシリコンを作る前には、“それだけの投資に見合う問題と、スケールが存在する必要がある”。具体的にそういうものがないのに、新規ハードウェアに投資することはありえない。この件に関してAWSが明らかに感じているのは、AWSというユースケースにとってはカスタムチップの方がFPGAよりも有利であることと、そして、スケールに関しては、AWSのスケールに疑問を差し挟む余地はない。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがAIを利用する企業顧客へのコンサルティング事業と高度な画像認識機能を発表

例年の大型カンファレンスre:Inventを来週に控えたAmazonのAWSが、人工知能関連の新たな展開を二つ発表した。まず、AWSは、機械学習のラボML Solutions Labを開き、機械学習のエキスパートと、AIによるソリューションを作ろうとしている顧客を結びつける。さらにAWSは、ディープラーニングによる画像認識APIベースAmazon Rekognitionの機能を拡充し、リアルタイムの顔認識と画像中のテキストを認識する機能を新たに加える。

新たなラボと画像認識プラットホームの拡充は、AmazonとAWSのAI推進努力の一環であり、社内利用とB2Bビジネスの成長材料の二面をねらっていると思われる。1か月前にAWSは、デベロッパーが自分のアプリケーションやサービスのために機械学習のモデルを構築し利用するためのディープラーニングライブラリGluonをMicrosoftと共同開発する、と発表した。

Amazonは昨年のre:InventでAWSのAIリソースのデベロッパー向け総合窓口Amazon AIを発表しているが、今年この時期(感謝祭の前日)にこれら二つの発表をしたということは、今年のre:Inventのための足固めか、それとも今年はAIにあまりハイライトを当てないことを意味するのか。

Solutions LabはAWSのBusiness Supportの顧客に提供されるが、これはAIだけでなく企業向けのコンサルティングサービスでもある点が興味深い。IBMのような企業ITの古顔企業では、コンサルティングサービスこそがつねに、ビジネス開拓の鍵を握っている。

Amazon AI担当のVP Swami Sivasubramanianはこう語る: “デベロッパーたちがAmazonのML Solutions Labで機械学習への取り組みを開始するのを、じっと待ってるわけにはいかない。Amazonが抱える機械学習の最良の科学者と実践者の専門的知識技能に、顧客の深いビジネス知識を組み合わせることによってのみ、AmazonのML Solutions Labは顧客元における機械学習の迅速な立ち上げを支援し、彼らの社内における機械学習の実用稼働をスタートできる”。

すでに、Washington Postや、Johnson & Johnsonの製薬部門Janssen、World Bank Groupなどが最初の顧客として確定している。

一方Rekognitionの新しい機能は、コンピュータービジョンにおけるAmazonの継続的進展を示すだけでなく、プロダクトとして外部の顧客が利用でき、Amazonの収益源にもなるという点が、強い姿勢として目立つ。

注目すべきは、Rekognitionの新機能のビッグな顧客のひとつがPinterestであることだ。画像による検索や分類はPinterestの最重要な機能だが、同社はそれを内製せずに外部のサービスやAPIを使おうとしている。

しかしPinterestはAWSにとって長年の顧客であり、AmazonのクラウドストレージS3の上には何百万もの‘Pin’が保存されている。だからAmazonがこのような大型顧客の便宜のために、画像中のテキスト認識機能を開発したとしても、おかしくはない。

PinterestのCTO Vanja Josifovskiがこう言っている: “Pinterestはビジュアル専門のプラットホームだから画像処理のスピードとクォリティーに大きく依存している。でも、画像中のテキストは、それらがコンテキストを提供し、Pinをアクションに誘うために、きわめて重要だ。画像中に興味深いテキストがあれば、われわれの2億あまりの‘Pinner’たちは、それへの何らかの反応を誘われるのだ。これからは、Amazon S3に保存されている数百万のPinsから、リッチなテキストを素早く取り出せることができるようになる。Pinterestのユーザーのユーザー体験とビジネスの高品質化と高速化のためにも、AWSとのパートナーシップをさらに発展させていきたい”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが政府諜報機関用の秘密のリージョンを立ち上げ、インターネット接続なし

Amazonが今日、同社のクラウドコンピューティングサービスAWSに、アメリカ政府の諜報部門のワークロード向けに特別に設計された新しいリージョンが加わる、と発表した。そのリージョンはAWS Secret Regionとずばり名付けられ、政府のセキュリティの分類で“secret”レベルまでのワークロードを動かすことができる。AWSはすでに6億ドルの契約でCIAなどの政府省庁のトップシークレットのワークロードを動かしているが、これはそれをさらに補完するものだ。

AWSのこの発表のほぼ1か月前には、Microsoftがやはり同様の発表を行った。MicrosoftのGovernment Cloud上のAzure Government Secretにより、政府省庁およびそのパートナーの“secret”と分類されたデータを扱うワークロードがサポートされる。

Amazon Web Services Worldwide Public SectorのVP Teresa Carlsonはこう述べている: “アメリカ政府の諜報部門は今後、共通のツールセットと、最新技術の定常的な導入、および迅速なスケーリングを可能とする柔軟性により、自らのミッションを遂行できる。AWSのTop Secret Regionは三年前に導入され、最初の密封された*商用クラウドとしてアメリカの諜報部門の顧客たちはそれをきわめて成功裡に利用している。今回の新しいリージョンにより、省庁間のコラボレーションがさらに拡大され、意思決定者に重要な情報をより迅速に届け、国の安全がさらに増強されるであろう”。〔*: air-gapped, まわりに空隙がある==インターネットに接続されていない〕

最初の密封型クラウドTop Secretは、利用が諜報機関に限られていた。今度の新しいSecret Regionは全省庁が利用でき、既存のAmazon GovCloudなど、これまでのAWSとCIA等との関係内容とは無関係だ。

Googleもかなり前からG Suiteを政府系の顧客に提供しているが、同社はエンタープライズ顧客の獲得に熱心で、政府省庁やそのクラウドコンピューティングニーズはあまり視野にないようだ。しかし今後Googleも、政府からお墨付きをもらうことに励んで、そのサーバー上で政府の機密データを扱うようになるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSは中国から撤退しない――「法規によりインフラ資産の一部売却を余儀なくされた」と発表

AmazonはAWSが中国から撤退するという報道を否定した。同時に、中国におけるハード資産の一部を現地パートナーに売却することを余儀なくされたと認めた。

中国におけるAWSのパートナーである北京光環新網科技(Beijing Sinnet)が株主に対し、「AWSの資産を20億元(3億ドル)で買収した」と発表したことをWall Street JournalReutersが報じたため、AWSは中国から撤退するという観測が広まっていた。

しかし新しい情報はこれと異なっていた。Amazonの広報担当者はTechCrunchの取材に対して「AWSは中国にコミットを続ける」と明確に述べた。ただし、現地の法規により一部の物理的インフラを売却する必要があったことを認めた。

Amazonのコメント全文は以下のとおり。

ノー。AWSは中国ビジネスそのものを売却したわけではない。AWSは今後とも中国のユーザーに対してクラウドのリーダーとしてサービスを提供していく。中国の法規が非中国企業がクラウド・サービスの提供に必要なある種のテクノロジーを所有ないし運用することを禁じているため、中国の法規を遵守する必要上、AWSは一部の物理的インフラ資産を長年の現地パートナー企業であるSinnetに売却した。AWSの中国リージョン(北京)サービスの法律上の提供者は従来どおりAWSであり、そのサービス提供に必要な知的財産権はAWSが全世界で所有する。われわれは中国で大規模なビジネスを展開しており、今後数年の間にさらに事業を拡大する展望を抱いている。

注・われわれのこの記事はAmazonの声明を反映して修正された。

Amazonはクラウドサービス、つまりAWSを2014年に中国に導入している。クラウド・コンピューティングの分野でAWSは世界のライバルに大きく先駆けているものの、中国では現地の法規により、現地企業をパートナーにする必要があった。一方、TencentやAlibabaもクラウドに野心的に参入してライバルとなっている。Amazonは2016年9月にSinnetと提携契約を結んでいる。

AWSの中国でのビジネスは北京と寧夏の自治体の事業を処理しており、私企業ではXiaomi〔小米〕やセキュリティー企業のQihoo〔奇虎〕、ソフトウェア・メーカーのKingsoftなどもユーザーだ。

Sinnetは法規で定められた公告で、この〔Amazon資産の〕買収は「現地の法規の要求を満たすためであると同時にサービスのセキュリティーと品質を改善するもの」と述べている。

この文はもちろん 6月に発効したデータ処理に関する新しい法規を指している。これによって中国政府は国内のインターネット企業をこれまでよりさらに直接に支配することができるようになった。

中国の法規がAWSのビジネスに影響を与えたのは今回が初めてではない。

この夏、Sinnetはユーザーに対してVPNソフトウェアを運用しないよう警告した。これは中国政府が検閲していないインターネット・サービスに中国のユーザーが自由にアクセスすることを取り締まるための措置の一環だった。同様に、西側企業ではAppleもこの措置に従い、中国のApp Storeから VPNサービスのアプリが姿を消した。中国におけるインターネットの自由に対する打撃としてこの取り締まりは近年最大のものとなった。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWS S3がデフォルトの暗号化オプションによりアドミンの苦労と負担を取り除く

顧客がデータを暗号化してないことによるAmazon S3のセキュリティ事故は、慢性的に多い。被害企業の中には、某国防総省納入企業や、本誌TechCrunchのオーナー企業Verizon、大手コンサルティング企業Accentureなどの著名企業もいる。というわけで今日AWSは、S3上のデータが(なるべく)確実に暗号化されるための、5種類のツールセットを発表した

まず、これからのS3には、デフォルトで暗号化する、というオプションがある。その名のとおり、このオプションを指定すると、S3に放り込むデータはデフォルトで暗号化される。アドミンが暗号化されてないファイルのバケットを作ると、それが拒絶される、ということもない…ただ黙って暗号化される。絶対安全とは言えないが、アドミンのうっかりミスで暗号化されなかった、という人的ミスはなくなる。

次に、さらに念を押すかのように、S3の管理コンソール上では、守秘設定のない、パブリックにオープンなバケットの横に、よく目立つ警戒標識が表示される。これによりアドミンは、エンドユーザーのうっかりミスに気づくことができる。

そしてアドミンは、Access Control Lists(ACLs)により、S3の各バケットやオブジェクトのアクセス許容者を指定できる。これまでのパーミッションはデータに付随して移動するが、このバケットレベルのパーミッションなら、別のアドミンが管理する別のリージョンにバケットが移っても大丈夫だ。パーミッションは、そのバケットのレプリカにも適用される。

さらにアドミンは、オブジェクトの複製をAWSのKey Management Service(KMS)が管理するキーで暗号化できる。つまり、アドミン自身が暗号化キーを管理しなくても、S3のデータを確実に暗号化することができる。

そして、万一事故が生じたときには、レポートが提供される。そこにはS3内の各オブジェクトの暗号化ステータスなどが載っている。それは、今後の人的エラー対策のための、基本資料ともなる。

絶対確実なセキュリティ対策はありえないにしても、今度発表されたS3のデータ保護対策により、アドミンが確実にそして容易に、暗号化されていない情報の混入を防ぐことができるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウドインフラストラクチャ市場ではAWSの支配が当分続きそう、後続との差は大きい

【抄訳】
AWSは今四半期でも、クラウドインフラストラクチャ市場の無敵のトップだ。いわゆる成長率ではMicrosoftやGoogle、Alibabaなどが高いが、彼らは分母が小さすぎるから、その成長はAWSから見れば痛くも痒くもない。

AWSの今四半期の売上は、45億7000ドルという巨額だ。この額はアナリストたちの予想45億1000万ドルを上回り、この成長率が続けば2017年の年商が180億ドルに達しそうなペースだ。

“でも、Microsoftのクラウド部門は年商200億ドルでしょ?”、と言うのは無意味な比較だ。なぜならそのクラウド部門なるものに大きく貢献しているのはAzureのようなインフラプラットホームではなくて、Office365などのSaaSビジネスだ。IaaSとかSaaSとか、クラウド方面の謎のような言葉は、この記事で勉強できるだろう。

クラウド市場を追い続けるアナリスト集団Synergy ResearchのJohn Dinsdaleによると、クラウド市場のマーケットシェアを云々するときはSaaSを別立てで計算すべきである。そしてIaaSとPaaSおよびプライベートクラウドを合わせた市場では、SynergyによるとAWSのシェアは35%だ(下図)。他社は、はるか後方に引き離されている。

【中略】

Synergyが作った上図を見ると、AWSはいわゆる“ダントツ”である。Microsoftも頑張ってはいるが、AWSには接近できない。同じくアナリスト企業のCanalysは、やや低い31%をAWSのシェアとしているが、市場の全体像としてはSynergyの結果とほぼ同じだ。

ちょっと意外なのは、これら競合サービスの成長率の高さかもしれない(上図および下図)。Canalysの数字では、AWSの成長率およそ40%に対してMicrosoftは90%、Googleはおよそ75%だ。でも、小額な売上増でも、分母が小さいと増加率は大きくなるのであり、いずれにしても当分は、AWSの牙城はびくともしない。

もちろんクラウド市場はまだ飽和にはほど遠くて、今後ますます大きくなると予想されるが、成長率の高いMicrosoftも含めて、AWSにとって‘脅威’と言えるほどのコンペティターはまだ存在しない。

CanalysのリサーチアナリストDaniel Liuは、こう言う: “AWSは多様なサービスとデベロッパーの大きな知名度により、先行馬としての優位を維持し続ける。しかし後続集団の中での先頭は、伝統的にエンタープライズに強く、Office互換性という有利性を持つMicrosoftだろう。Microsoftのもうひとつの強みは、強力なハイブリッドクラウドソリューションにおける技術と経験だ”。

一方AWSのCEO Andy Jassyは、自社の優位性についてそれほど楽観的ではない:

“これからの市場では、一人勝ちはありえない。この業界はコストが大きいし、サービスの品揃えの豊富さと最先端性が重要だから、30社が市場にひしめくということはありえないだろう。でも、成功者が複数社になることはほぼ確実で、それらの名を今挙げることはできない。でも長年のエンタープライズ顧客が多くて営業に大軍を抱える古顔たちが、きっとその中にはいるだろう”。

でも、少なくとも現状のクラウドコンピューティング市場では、各社間の売上規模の格差が大きく、またクラウドサービスの内容も多様なので、成長率等の数字を見るときは注意が必要だ。

〔訳注: 各社、発表している数字の部門分けなどがまちまちなので、成長率90%、75%のMicrosoftやGoogleが、成長率40%のAWSに追いつくのは何年後か、という単純計算も、一般に公表されている数字からはできない。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがOracle Larry EllisonのRedshift批判に反論、“例によってLarry節だ”と

Oracle OpenWorlカンファレンスのキーノートでOracleのLarry Ellison会長が同社の新製品、全自動データベース(autonomous database, 自律的データベース)を発表したとき、彼は数分間にわたり、クラウド市場における同社の強敵AWSをけなした。マーケットリーダーであるAmazonをEllisonが標的にするのは当然だが、しかしAWSは今回、彼のコメントに公開の場で反論した。

AWSがとくにひっかかったのは、同社のビッグデータウェアハウスAmazon Redshiftがエラスティックでない、というEllisonの主張だ。Ellisonはこう語った: “Amazon Elastic Cloudと呼ばれているのは知っていますが、でもそれはエラスティックではありません。すなわちAmazonのデータベースRedshiftは、ワークロードが大きくなったとき自動的にプロセッサーの数を増やせません。逆にそれを、減らすこともできません。そんな能力が、そもそもないのです”。彼はさらに、Redshiftでは手作業でシステムを停止し、新しいインスタンスを立ち上げ、データベースを新しいストレージにコピーし、その後の稼働結果を古いデータベースへコピーバックしなければならない、と主張した。

これに対しAmazonのスポークスパーソンは応じた: ばかばかしい(もっと多くの言葉で)。

“まず、それは事実ではない。Amazon Redshiftでは、顧客は必要に応じてクラスターをリサイズできるし、コンピュートをストレージとは別にスケールできる。Amazon Simple Storage Serviceのデータに対してRedshift Spectrumを使えるし、顧客はストレージとは無関係に単純にクェリに対して支払うだけでよい”。

さらに彼らは、Ellison自身についても非難した: “でも多くの人は、Larryという人物をすでによく知っている。事実に基づかない乱暴な主張、そして、大量のこけ脅かしが、彼の常套手段だ”。

エラスティック(elastic, 伸縮自在)というのは、ジョブのサイズに応じて計算機資源が自動的に拡大縮小することだ。Ellisonの場合ジョブとは、データベースの運用、クェリの処理だ。

エラスティックであること、リソースの伸縮が自動的に行われることは、クラウドコンピューティングサービスの主な魅力のひとつだ。まるで、音量ボリュームのつまみを回すときのように簡単に、使用するリソースの増減ができる。自前のデータセンターだと、誰も自動的にリソースを増減してくれない。必要なキャパシティは新たに買わなければならないし、しかも今後の余裕を見て、今の必要量よりも多い買い方をしなければならない。資金の無駄遣いである。

それでもなお、ホリデーギフトシーズンのショッピングでデータ量が予想を超えてスパイクしたら、万事休すだ。リソースを、その日のうちに、しかもその日一日だけのために、買い増すことはできない。しかしクラウドなら、リソースの必要な伸縮が自動的に行われ、‘一日’という短期的なニーズにも対応できるから、リソースの無駄なアロケーションも発生しない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSにならってGoogleのCompute Engineも秒制課金を導入、Microsoftはまだか

一週間前にAWSは、同社のEC2サービスの秒単位の課金への移行を発表した。Googleが今日、ほぼ同じ移行を発表したのも、当然だろう。

Google Compute Engine, Container Engine, Cloud Dataproc, およびApp Engineが依拠する伸縮性仮想マシンは、今日からただちに毎秒課金が開始される(AWSの秒課金開始は10月2日からだ)。この新しい課金方式は、プリエンプティブマシンと、同社のプレミアム(特別優遇)オペレーティングシステム(Windows Server, Red Hat Enterprise Linux, SUSE Enterprise Linux Server)が動くVMにも適用される。AWSの秒制課金は標準のLinuxインスタンスのみで、Windows Serverや他のLinuxディストリビューションは従来どおり時間制の課金だ。

AWSの秒制と同じなのは、Googleも最小課金量が1分であること。(30秒しか使わなくても1分)

なおGoogleはすでに、Persistent Disks, GPU, そして特定の割引利用では秒課金を導入している。

毎秒課金になっても多くのユースケースにおいて課金額はほとんど変わらない、とGoogleは言っているが、頻繁かつ急速にスケールアップ/ダウンを繰り返すようなアプリケーションもたくさんあり、そんなアプリケーションでは有意な差がある、とも言っている。Webサイトやモバイルアプリ、データ処理のジョブなどが、そんなアプリケーションの典型だ。

Compute EngineのプロマネPaul Nashが今日の発表声明で述べている: “課金額に大きな違いが生じないことが、これまで秒課金の要望が少なかった理由だと思われるが、みなさんが時間を気にせずに朝のコーヒーをゆっくりお飲みいただけるために、そのVMsの課金方式を最小を1分とする秒制にできたことは、本当に喜ばしい”。

Google自身がそれを白状することはないが、でもこれは明らかにAmazonへの対抗だ。表向きには、両クラウドコンピューティングサービスの機能を比較するページの、チェックボックスがひとつ増えただけだけどね。

ではMicrosoftはどうなる?

今のところ、Microsoftは同じ動きを見せていない。MicrosoftのAzure Compute部門のプロダクト担当Corey Sandersは同社のIgniteカンファレンスの会場で、私の質問にこう答えた: “Azure Container Instancesでは、数秒でスピンアップし数秒でスピンダウンするようなサービスは実質的に秒課金だから、秒制課金の先鞭をつけたのはむしろ弊社である。われわれは顧客にこのような粒度を提供することがコストの面で重要であることを、前から理解していた。他のクラウドがわれわれに見習って、顧客の課金に最良の柔軟性を提供しようとしている光景を目にすることは、実に嬉しい”。

通常の仮想マシンに関してはSandersは明言を避け、Microsoftはコンテナにフォーカスしたい、秒制課金がもっとも有意なのはコンテナだから、と述べた。“弊社のプラットホーム全体にわたって、課金の構造はつねに改善に努めている。それによって顧客がもっと容易に、そしてもっとアジャイルにプラットホームを利用できるようにしたい”、と彼は語った。でもMicrosoftが近く、比較ページに毎秒課金のチェックボックスを含めなかったとしたら、その方がビッグサプライズだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSのEC2が秒単位の課金制になった…GCPやAzureの分単位課金に対抗だ!

2006年にAmazonがAWSのクラウドコンピューティングサービスEC2立ち上げたときには、時間制の課金が画期的に感じられたが、でもそれは、端数がわずか数分でも1時間と数えられてしまうことを意味していた。しかしこのところAWSのコンペティターたちはより柔軟な課金形式を採るようになっている(分制が多い)ので、AWSも10月2日に彼らの上を行って、そのLinuxベースのEC2インスタンスには秒制の課金方式を導入することになった。

この秒制の課金形式は、オンデマンド、リザーブド、スポットの各インスタンスタイプに適用されるほか、EBSボリューム用に手配されたストレージにも及ぶ。Amazon EMRとAWS Batchもこの秒制に移行するが、各インスタンスの最低料金は1分ぶんであり、また、Windowsや、独自の時間制料金のLinuxディストリビューションを使うマシンには適用されない。

AWS Lambdaのようないわゆる“サーバーレス”のプラットホームが急伸し、これらが秒未満の課金制を導入している今となっては、古い時間制の課金形式は多くのデベロッパーにとってナンセンスと感じられる。しかし単純な事実としては、EC2はGoogleやMicrosoftなど分制の課金に移行したプラットホームに比べて割高である、という評判がこのところ広まっていたのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSがメモリが4TBを超える仮想マシンの提供を開始、インメモリデータベースがさっそく食らいつく

数か月前にAmazonのAWSグループは、メモリが4から16TBぐらいのインスタンスタイプを準備している、と述べた。そして今日(米国時間9/14)はついにその約束が実現して、メモリのサイズでは最大のEC2マシンを同社はローンチした。そのx1e.32xlargeインスタンスは、RAMがなんと4.19TBもある。EC2のこれまでで最大のインスタンスは、メモリが2TB強だった。

これらのマシンはクアッドソケットのIntel Xeonプロセッサー(2.3GHz)、最大25Gpsのネットワーク帯域、そして1920GBのSSDを装備する。もちろんこれだけのメモリを必要とするアプリケーションは多くないが、SAPのインメモリデータベースHANAとその各種のツールがこれらのインスタンスで動くことが公式に認定されていて、SAPはこれらのアプリケーションをこのインスタンス上で運用することに関し、直接のサポートを提供する。

これらの新しいインスタンスは目下、AWSの4つのリージョンで利用できる: それらは、US East(Northern Virginia), US West(Oregon), EU(Ireland), そしてAsia Pacific(Tokyo)だ。当然ながらこれらのインスタンスはお安くない。たとえばUS Eastのオンデマンド料金は1時間$26.688、Asia Pacificでは$38.688だ。つまり、AWSのもっとも高価なVMとなる。

ちなみにMicrosoft Azureの最大のメモリ最適化マシンは現在2TB強が最大で、GoogleはRAM 416GBが最大だ〔USのみ〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VMware CloudがAWSから提供される、ITのプロたちは喜びのダンスを踊る

VMwareは昨年の秋にAWSとのパートナーシップ発表して、エンタープライズ界隈を驚かせた。一方はオンプレミスの仮想マシンを支配している企業だし、他方はパブリッククラウドの雄だ。それは、強力な組み合わせになるだろう、と思われた。そしてVMwareは今日(米国時間8/28)のVMworldで、その組み合わせの正体、AWS上のVMware Cloudを公式に明らかにした。

AWSは同社独自のVMsを動かしているが、それはデータセンターでVMwareが動かしているものと同じではないので、両方を使おうとしている企業にとっては管理が頭痛の種だ。でも、AWS一本に絞って、その上でVMwareのVMsを引き続いて動かせるなら、管理の問題がなくて両者の良いとこ取りができる。

それはどちらにとっても都合が良くて、VMWareのCEO Pat GelsingerとAWSのCEO Andy Jassyの両方とも、失うものがない。Gelsingerは声明文で述べている: “AWS上のVMware Cloudは、顧客にシームレスに統合されたハイブリッドクラウドを与え、それはvSphereベースのオンプレミス環境とAWS両者にまたがる同じアーキテクチャと能力とオペレーション体験をもたらす”。

Jassyはこう付言する: “世界のエンタープライズの大多数が、データセンターをVMwareで仮想化している。そしてこれからは、これらの顧客が容易に、アプリケーションを彼らのオンプレミス環境とAWSのあいだで移動でき、しかもそのために新たなハードウェアを購入したり、アプリケーションを書き換えたり、オペレーションを変更したりする必要がない”。

これは、それまで二つのシステムを苦労しながら一緒に動かしていたITの連中にとって朗報だ。その苦労とは、新しいアプリケーションはクラウドに置けるけれども、一緒に使うレガシーのアプリケーションをVMwareからAWSのVMに移すのがたいへん、という点だ。その障害が、今回の提携で取り除かれる。

このパートナーシップは、企業としてのVMwareにも大きな揚力を与える。オンプレミスのデータセンターでは100%の浸透を誇っている同社も、顧客の多くがワークロードをクラウドへ移し始めた近年では居場所を失い始めていた。今回はパブリッククラウドの巨人AWSと統合し、二つの環境を横断してスムーズに仕事ができるようになったのだから、息苦しさもやっとなくなる。

AWSにとっては、これはお金持ちになれるのはお金持ちだけの好例だ。パブリッククラウドのビジネスで失うものは何もないだけでなく、VMwareという大きなユーザーがそのクラウドにやってくる。どこからどう見てもこれは、ウィン、ウィン、そしてウィンだ。二社が大きな得をして、VMwareのVMsとAWSのクラウドを容易に統合できるようになる顧客も得をする。全員がトロフィーを獲得する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

エンジェル投資家の有安氏、AWS、SmartHR、PAY.JPと連携した特典プログラムを出資先に提供

VCが企業と連携し、出資先のスタートアップに特典プログラムを提供する例はあるが、個人のエンジェル投資家が同様の取り組みをすることはあまりない。でも、それが日本で始まるみたいだ。

エンジェル投資家として知られる有安伸宏氏は8月28日、彼が出資するスタートアップに対してAWSと連携した特典プログラムを提供するとTwitter上で発表した。

さらに有安氏は、AWSとの連携に加えて、決済サービスのPAY.JPとクラウド労務サービスのSmartHRと提携することもTechCrunch Japanに明かした。

この3社との提携によって、有安氏が出資するスタートアップは以下の特典プログラムを利用することができる(SmartHRについては、現在支援内容を検討中で9月にリリース予定だという):

AWS

*AWSが定める要件を満たすスタートアップに限る

  • 最大 1 年間有効な 100,000 USD の AWS プロモーションクレジット、または、最大 2 年間有効な最大 15,000 USD の AWS プロモーションクレジット
  • 最大 2 年間有効な、最大 10,000 USD の AWS ビジネスサポートプランクレジット
  • AWS Business Essentials のオンラインまたは個人トレーニング (600 USD 相当)
  • AWS Technical Essentials のオンラインまたは個人トレーニング (600 USD 相当)
  • セルフペースラボに使用できる 80 コース分のクレジット (80 USD 相当)

PAY.JP

  • 2.59%の手数料で決済を組み込むことが可能(プログラム名は「PAY.JP Seed」)

エンジェル投資家、有安伸宏

念の為に説明しておくと、自身も起業家である有安氏は2007年にコーチ・ユナイテッドを創業。2013年に同社の全株式をクックパッドに売却する。のちに投資家に転身した。2015年に共同設立したTokyo Founders Fundを通してVC投資を行うとともに、個人としてエンジェル投資も行っている。

先週8月25日に上場承認がおりたばかりのマネーフォワードにも創業初期から出資しているし、その他にも決済サービスのAnyPayなど40社を超える企業に出資してきた。

有安氏はTechCrunch Japanの取材に対し、「経営現場にいない投資家が、起業家に対して本質的に貢献できることはそう多くはない。それはエンジェル投資家も同じ。その前提に立って、スタートアップに対して何か実質的で『リアル』なサポートはできないかな、と日々考えているなか、AWSの畑さん(畑浩史氏)からお声がけいただいた」と話す。

AWSとの提携の話が進むなか、サポートの幅を広げたいと考えた有安氏が、PAY.JPを運営するBASEの鶴岡裕太CEOとSmartHRの宮田昇始CEOに話を持ちかけ、これら3社との提携が実現したそうだ。

ジェフ・べソスやピーター・ティールなど、米国のエンジェル投資家がもつ影響力は大きい。でも、個人である有安氏を中心にした新しい取り組みの誕生は、日本でもエンジェル投資家の存在感が大きくなっていること表しているのかもしれない。

Amazon MacieはAWSのユーザー企業のクラウド上のデータ保護を機械学習で強化する

AmazonのクラウドコンピューティングサービスAWSが、今日(米国時間8/14)行われた今年のNY Summitの場で、Amazon Macieという新しいサービスを立ち上げた。Macieは、機械学習を利用してクラウド上の機密データをより強力に保護する。当面は、Macieを使って、AmazonのS3ストレージサービスにある個人を特定できる情報や知財を保護でき、年内にはAWSのそのほかのデータストアもサポートされる(たぶん11月のre:Inventカンファレンスで発表されるだろう)。

このサービスは完全に管理され、機械学習を使ってデータのアクセスをモニタし、異状を検出する。疑わしいアクションがあればユーザーに警告し、ユーザーがデータリークやその原因を(ヒトによる犯行以外のものも含め)見つけられるようにする。そのためにこのサービスは、S3に入ってくる新しいデータを継続的にモニタする。そして、通常のアクセスパターンを学習して理解し、またストレージバケット内のデータの正規の形を理解している機械学習を利用する。

このサービスはまた(アメリカの場合)、ヒトのフルネームや、住所、クレジットカード番号、IPアドレス、免許証番号、社会保障番号、誕生日などを自動的に検出するが、指定によりさらに、メールアドレスやSECのフォーム、データログ、データベースのバックアップ、ソースコードなども自動的に検出できる。

これらの高リスクデータはすべてダッシュボード上で高輝度表示され、またそれらにユーザーやそのほかのアプリケーションがどのようにアクセスしているかも示される。

AWSのサービスはどれも料金が複雑だが、このMacieサービスでは各月のイベントの数とデータ量が料金計算のベースになる。最初は、ユーザーのデータの特性や分類を機械学習におぼえさせるため、最初の月の料金は高くなる。

今Macieを利用できるのは、AWSのU.S. East(Northern Virginia)とU.S. West (Oregon)リージョンだけだが、今後徐々に拡張されるだろう。

このほかAmazonは今日、さまざまなデータベースやストレージサービスにロードするデータを準備するサービスGlue発表した。それはすでに、すべての顧客が利用できる。

さらに同社は今日のイベントを機に、ワークロードの一部をクラウドへ移したい企業のためのマイグレーションハブをローンチし、、またElastic File Systemのアップデートにより暗号化された状態での保存がサポートされ、それと並んでキー管理のためのAWS ConfigAWS CloudHSMもアップデートされた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コンテナ化という大きな趨勢にとってはスタンダードがきわめて重要、AWSは自らその意思を示す

AWSが今日(米国時間8/9)、コンテナの標準化団体Cloud Native Computing Foundation(CNCF)の正会員になったとき、同社の重要なマイルストーンが刻まれた。GoogleやIBM, Microsoft, Red Hatなど、この分野の有力企業の仲間入りをすることによって、コンテナの管理に関してはスタンダードを無視できないことを、認めたのだ。

なにしろ、これまでもっぱら我が道を行くだったAWSである。しかもAWSは今や、その強力な巨体で広大なマーケットシェアを支配しているから、さまざまな面で自分流を貫いても平気だ。しかし、コンテナは違った。今コンテナを支配しているのは、かつてGoogleで生まれたオープンソースのコンテナ管理ツールKubernetesだ。

聡明なAWSは、Kubernetesが業界標準になりつつあることと、作るか買うかオープンソースで行くかの三択に関しては、戦いがすでに終わっていること、とっくに結論が出ていることを悟った。

コンテナ管理におけるGoogleの優勢を認めたからには、次の論理的ステップはCNCFに加わり、業界全体が使っている同じコンテナの規格に従うことだ。人生には戦うよりも自分を変えた方が得策なこともあり、これがまさに、その典型的な例だ。

そしてAWSがCNCFに加わったことによって、業界全体としてのコンテナ化に向かう路程が明確になった。今それは、とくに大企業において大きなブームになっている技術だが、それには十分な理由がある。アプリケーションをいくつもの離散的な塊に分割して構築していくので、メンテナンスとアップデートがきわめて容易である。そしてDevOpsのモデルにおいて、デベロッパーのタスクとオペレーションのタスクを明確に分離できる。

いくつかのスタンダードが、コンテナを開発し管理するための共通基盤を提供している。その上で各人が、独自のツールを作ることもできる。GoogleのKubernetesも、最初はそのひとつだったし、Red HatのOpenShiftやMicrosoftのAzure Container Serviceなども、そんな独自ツールの例だ。

しかしスタンダードがあると、誰が何を作っても、その構造や動作の共通性をあてにできるし、したがってその利用も楽だ。どのベンダーもサービスのベースはほぼ同じであり、違いは上位的な機能や構造にのみ現れる。

業界の大半がスタンダードに合意すると、その技術は離陸していく。World Wide Webは、その偉大なる例だ。それは、Webサイトを作るスタンダードな方法だから、完全な共通技術へと離陸できた。ビルディングブロックに関して多くの企業が合意したら、そのあとはすべてがうまく行く。

スタンダードの欠如が、技術の足を引っ張った例も少なくない。全員が共通のビルディングブロック(構築部材)を持つことは、きわめて有意義なのだ。しかしときには、だんとつのマーケットリーダーが合意に参加しないこともある。今日のAWSは、そんなリーダーにとってもスタンダードが重要であるという認識を、示したのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSがKubernetesのホームCloud Native Computing Foundationに参加

噂では、AmazonのクラウドコンピューティングプラットホームAWSが近く、Kubernetesベースの独自のコンテナ管理サービスをローンチする、とされていた。その噂は、今日(米国時間8/9)AWSが、KubernetesプロジェクトのオープンソースのホームであるCloud Native Computing Foundation(CNCF)に、最上位メンバーのプラチナ会員として参加したことにより、かなり具体性を帯びてきた。AWSの参加によって、MicrosoftやGoogle、IBMなどを含むメジャーなパブリッククラウドプロバイダーの全員が、この、Linux Foundationを上位団体とする現代的なクラウド管理技術の推進団体に加わったことになる。

最近の調査によると、Amazon(==AWS)はすでに、Kubernetesを用いたデプロイの大半をホストしているので、Amazonが、ある意味ではKubernetesプロジェクトの本拠地であるCNCFに加わっても、それほど意外ではない。しかも重要なのは、AWSはほかにも大量のオープンソースプロジェクトを利用しているし、また自分のプロジェクトをGitHubで頻繁に公開していることだ。また同社は2013年以来、Linux Foundationのメンバーであり、そこのCore Infrastructure Initiativeの創設メンバーだ。同社が主なコンペティターたちと違うのは、Cloud Foundry Foundationに参加していないことだ〔関連記事〕。

CNCFに関しては、Amazonは同グループのコンテナランタイムcontainerdを提供している。CNCFは今日の声明で、こう言っている: “AWSはクラウドネイティブのコミュニティで積極的な役割を果たし、containerdなどでKubernetesなどのクラウドネイティブ技術に寄与貢献している”。AWSのクラウドアーキテクチャ戦略担当VP Adrian Cockcroftが、CNCFの理事会に加わる。

Cockcroftの発表声明は、Kubernetes関連のAmazonの短期的プランを述べていないが、すでに同プラットホームへの広範な支援を提供し、この急速に拡大している分野において、競合するGoogleやMicrosoftの利益にもなっているわけだから、今後はAWS上でKubernetesをよりダイレクトにサポートしていくことは、ほぼ確実だろう。これまでAWS上でKubernetesを使うためには、サードパーティ製のツールを使う必要があった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

もしAWSがなかったら、Amazonは大赤字

本日(米国時間7/27)Amazonは第2四半期の決算を発表した、その内容は期待外れだった ―― そしてJeff Bezosにとって残念なことに、彼はもはや太陽系で最も裕福な人間ではなくなり、2番目に裕福な人間という残念なポジションに追いやられた。

会社の損益はウォール街の期待に届かなかった。しかしAmazonのクラウドサーバー農場、AWSは、またしてもAmazonの利益を押し上げた。近代クラウドコンピューティングの基盤を築こうという同社の大きな賭けが、ここしばらく続いているAmazonの黒字四半期を生み出したと言えるだろう。

内訳を見てみよう:

Amazonは、AWSを年間100億ドル以上を稼ぎ出す一大ビジネスまでにした。しかもAWSはAmazonの全事業の中で最も利益率が高く、極めて順調に成長を続けている。第2四半期のAWSの売り上げは2016年の42%増だった。成長ペースはやや下がり気味で、2015年から2016年にかけての売上成長率は58%だった。

おそらくもっとも重要なのは、Amazonが次の四半期から赤字に戻るかもしれないと予告したことだ。Amazonは世界一の企業を目指して成長を続けるために、湯水のごとく金を使うことで長年知られてきた。そしてウォール街はこの戦略に対してかなり忍耐強かった。しかしAmazonは黒字の四半期を続け、その年株価は40%上がった。

Amazonが他の収入源を探り続ける中、サーバーの入ったビルを山ほど建設するという巨大な賭けは報われているようだ。Amazonは新規ビジネスへの強引な参入でよく知られている。巨大な食料品チェーンを137億ドルで買ったり、ビデオゲームをプレイする人たちにビデオストリーミングサービスを提供したり。AWSは成長が減速しているとはいえ、当分の間Amazonを支える柱の一つになることは間違いない。

[原文へ]

(翻訳:Nob Takahashi / facebook