Cloud Nextカンファレンス開幕、Googleはオープンソース提携でAWSに挑戦

米国時間4月9日、米国サンフランシスコのモスコーニ・センターでオープンしたCloud Next 19カンファレンスで、Google(グーグル)はオープンソースのデータマネジメントとアナリティクスのトップ企業多数と提携したことを発表した

これらの企業はプロダクトをGoogle Cloudプラットフォームに統合させ、マネージドサービスとして顧客に提供する。パートナー企業には、Confluent、DataStax、Elastic、InfluxData、MongoDB、Neo4j、Redis Labsが含まれる。

Googleによれば、 この試みはGoogle Cloudを通じてユーザーにオープンソースのテクノロジーをシームレスなクラウド体験として提供するものだという。しかしカンファレンスの内容を見ていくと、Googleは明言こそしていないが、意図するところははるかに大きい。今回、オープンソース・コンピューティングをめぐるGoogleの方向はAmazonとまったく異なることが鮮明になった。

AmazonのAWSクラウドは最良のオープンソースプロジェクトを取り上げ、独自のプロダクトにフォークさせてAWSブランドのパッケージとして提供していることが広く知られている。この際AWSはオリジナルのオープンソースプロジェクトに対してほとんど何も貢献しないのが普通だ。AWSのこの方式には変化の兆しが見えるものの、こうした姿勢に反発した有力なオープンソースプロジェクトのいくつはオープンソースライセンスの条項を改正してAWSのタダ乗りを防ごうとし始めている。

そしてここが興味ある点となる。このオープンソースコンピューティングのトップ企業というのがまさに、Confluent,、Elastic、MongoDB,Neo4j、Redis Labsなど今回Googleクラウドと提携した会社なのだ。ただし、今日の提携企業のうち、InfluxDataはライセンス条項の改正を行っておらず DataStaxはたしかにオープンソーステクノロジーにも力をいれているものの、独自のエンタープライズアプリケーションも提供している。

プレス発表でGoogle Cloudのインフラ提携担当の責任者、Manvinder Singh氏は次のように述べている。

オープンソーステクノロジーをクラウドサービスでどのように利用するのが最適か、多くの議論がおこなわれてきたことはよく知られている。Kubernetes、TensorFlow、Goなどのプロジェクトによって証明されてきたように、オープンソースモデルこそはGoogleのDNAであり信念だ。多大のリソースをオープンソーステクノロジーを進歩させるために投じてきた企業同志が密接に協力することが最も重要だとわれわれは確信している。

簡単にいえば、AWSはオープンソースプロジェクトを利用して独自のブランドのプロダクトを作っている。これに対してGoogleはオープンソースプロジェクトを開発してきた企業と提携し協力していく道を選んだ。Googleも提携企業も財務面の詳細に関してはコメントを避けたが、売上の共有、配分に関してなんらかの取り決めが行われたものと推定される。【略】

提供されるプロダクトの機能に関するGoogleの基本方針は、Cloud Consoleへの密接な統合の実現だ。これはMicrosoftのAzureクラウドにおけるDatabricksと比較できるかもしれない。提携各社のプロダクトはマネージドサービスとして提供される。つまりGoogle Cloudが料金の積算、請求、支払などの事務を一括して引き受ける。カスタマーサポートもGoogleが窓口となるため、ユーザーは多数のオープンソースサービスをあたかも単一のサービスのように利用することができる。

Redis Labsの共同ファウンダー、CEOのOfer Bengal氏はこの点についてこう述べた。

今回の提携でRedis LabsとGoogle Cloudはオープンソースによるイノベーションの成果をエンタープライズユーザーに提供できるようになった。ユーザーはクラウド上でどんなテクノロジーを利用してコンピューティングを行うか自由に選択できる。また必要に応じてRedis Enterpriseを利用して独自のアプリケーション開発を行い、GCP(Google Cloudプラットフォーム)上でマネージドサービスとして利用することもできる。例えば、Redis EnterpriseをGCPコンソールから実行することも可能だ。この場合、料金処理からプロビジョニング、サポートまですべての煩雑な業務をGCPが処理してくれる。

【日本版】GoogleはYouTubeでカンファレンスのキーノートを中継録画している。

原文へ

(翻訳:滑川海彦@Facebook

クラウドサービスの最適なメンテ時期を予測できるオープンソース・ソフトウェア登場

クラウドサービスはもはや、「市民権を獲得した」という表現を超えてメインストリームへとなりつつある。TechCrunch Japanでも、日々新しく生まれるクラウドサービスを紹介しているところだ。ただ、特にグローバルで利用されるクラウドサービスには1つの課題がある。世界中から昼夜問わず利用されるため、システム停止を伴う計画的なメンテナンスを行いにくいというものだ。

しかしながら、メンテナンスを怠ることで障害が発生してしまえば、顧客離れにつながり運営企業に多大なダメージを与えてしまう。

そんな中、東京都市大学の知識工学部経営システム工学科の田村慶信教授ら研究チームは、クラウドサービスの最適なメンテナンス時期を予測するソフトウェアを開発したと発表した。同ソフトウェアにすでに判明しているバグデータを入力することで、メンテナンスにかかるコスト(費用や時間)が最小限となる時期を予測することができる。

写真:https://www.tcu.ac.jp/news/newsrelease/20190320-21316/

上の図は、今回開発されたソフトウェアにバグデータを入力したときに表示されるグラフだ。縦軸がコスト、横軸が時間で、この図からはサービス稼働から300日目においてメンテナンスを行うことが最適だと読み取ることができる。

このソフトウェアは田村研究室のウェブサイトでソースが公開されているため、誰でも自由にダウンロードして無料で使用することができる。

東京都市大学はプレスリリースの中で、田村研究室では今後「クラウドサービスから得られたビッグデータを深層学習により解析することで、クラウドサービス全体を自動修復できる手法を開発していく予定。これにより、これまで多大な人件費や日数をかけて人海戦術で行われていたメンテナンス作業を自動化し、無人化を実現する」とコメントしている。

Google Stadiaを実機プレイ、多少の遅延が起きるが優秀なプラットフォーム

Googleの新しいゲーム・ストリーミングのプラットフォームであるStadiaだが、発表会場でレイテンシー、価格、サポート予定のデバイスなどについてうるさくスタッフに質問した後、新しいゲームコントローラを実際にテストしてみることができた。短時間だが大画面テレビでプレイしたのはクラウド版のDoom 2016だった。

最初のトライはさんざんだった。フレームレートが極端に遅くなり、まるでPowerPointのスライドの早送りみたいになった。4K映像が表示されたかと思うと何が映っているかわからないほどぼやけた。最長で0.5秒くらいのレイテンシーが感じられた。このありさまにGoogleの社員は不安げに顔を見合わせていたが、やがて私のコントローラをひったくって再起動をかけた。

再起動後は状況は大きく改善された。しかしひと言で要約するなら、ストリーミングゲームには「何が起きるか予想がつかない」不安定さが残っている。Googleの名誉のために付け加えておくと、Stadiaの実機テストは強力なネットワークが張り巡らされたマウンテンビューの本社キャンパスではなく、発表会場のホテルのWi-Fiで行われた。これは現実の使用条件にずっと近いはずだ。

StadiaはGoogleのクラウドゲームストリーミングサービスだ。テクノロジーの詳細についてはまだ不明な点が多々あるが、基本的な方向性ははっきりしている。ハイレベルの専用機ゲームをオンラインに移行させることだ。Chromeブラウザからアクセスできれば強力なゲーム用GPUを持たないスマートフォンなどのデバイスでハイレベルのゲームがプレイできるようになる。

最初のトライでつまづいたものの、その後Stadia体験は全体としてポジティブなものだった。Doom 2016の画像は鮮明な4Kで、プラットフォームを特に意識せずゲームに集中できた。新しいプラットフォームが導入された場合、「意識しないですむ」というのは大成功を意味する。

カジュアル・ゲームにはStadiaは素晴らしいプラットフォームになると思う。。ただし高度なマルチプレイヤーゲームを楽しむ筋金入りユーザーには最適ではないかもしれない。理論上は、YouTubeのフィードから直接にスポーツ系ゲームを起動できる。しかしこういう使い方には向いていない。インプットから画面上にその効果が出されるまでのレイテンシーがそれなりにあるからだ。しかし(私も含めて)多数のユーザーにとってStadiaの能力は十分だ。なんといってもこのレベルのユーザーがゲーム市場の大部分を占めるのだから、Stadiaは十分に価値があるテクノロジーだ。

Google Stadia担当のバイスプレジデントであるPhil Harrison氏は、レイテンシーがどれほどの範囲になるか正確な数字を挙げることは控えたが、「人間が何かを知覚してから反応するまでの時間よりも短い」と述べた。Googleのスタッフによれば、この時間は(個人差はあるものの)70ミリ秒から130ミリ秒程度だという。つまりStadiaのレイテンシーはネットワーク接続が最良であれば70ミリ秒未満ということになるのだろう。

レイテンシーはネットワークの状態だけでなく、ユーザーとデータセンターとの物理的な距離によっても変化する。つまり固定した数字はあまり意味がない。テスト時点で私はサンフランシスコにおり、およそ80キロ離れたサンノゼのデータセンターにアクセスできた。Googleは「Stadiaがサポートされている国のユーザーであっても、僻地に居住しているような場合、サービスの開始時点で必ずサインアップできるとは限らない」と認めたが、その理由がここで述べたような事情だ。

その他の興味ある点。

  • Googleはサポートされるデバイスについて「後日正確な情報を発表する」と述べたが、iOSデバイスをサポートするのかという質問に対して「スタート時点ではPixelデバイスに焦点を当てていく」と強調した。.
  • 別のプラットフォームで購入ずみのタイトルであってもStadiaではプレイできないようだ。当然だが、Stadiaのゲームはこのプラットフォーム上で改めて購入する必要がある。
  • ユーザーはYouTubeのストリームからゲームにアクセスすることができるが、すべてのコンテンツをまとめたハブとなるサイトも用意され、URLでゲームにアクセスすることもできる。
  • コントローラ(トップの写真)はよく出来ている。デザインはソニーのDualShockとよく似ている

Stadiaについては今年の夏のGoogle I/Oでさらに詳しい点が判明するはずだ。私の最初の実機テストではサービスがGoogleの主張どおりに作動し、専用機クラスのゲーム体験を与えることができると確認できた。そこで現在、最大の疑問は価格だ。ハードコアなゲーマーしか手が届かない価格になるのか、カジュアル・ゲーマーにも手頃な価格になるかがこのプラットフォームの性格を決める。ビジネスとしての成否もおそらくはこの価格設定にかかっているだろう

原文へ

(翻訳:Umihiko Namekawa、滑川海彦@Facebook

マイクロソフトがクラウド用データ圧縮アルゴリズムとハードウェアをオープンソース化

現在、大手のクラウドコンピューティングのプロバイダが保管しているデータ量は驚愕すべきレベルに達している。そのため、ほとんどの場合、情報はなんらかの方法によって圧縮された状態で保存されているはずだ。それはフロッピーやCD-ROM、低速通信の時代に、ユーザー自身がファイルをzip圧縮していたのと同じようなもの。通常、そのようなシステムは、厳重に秘密のベールで守られている。しかし米国時間3月14日、Microsoft(マイクロソフト)はAzureクラウドで実際に使われている圧縮アルゴリズム、ハードウェア仕様、そしてその回路図を記述するVerilogのソースコードをオープンソース化した。それらすべてをOpen Compute Project(OCP)に寄託したのだ。

Project ZiplineとMicrosoftが呼ぶこのプロジェクトでは、標準的なZlib-L4 64KBモデルと比較して、2倍もの高圧縮率を達成することができる。それを実現するため、Microsoftが実際にクラウド内で扱っている大きなデータセットの性質に合わせて、アルゴリズムと、そのハードウェア実装を念入りにチューンしてある。この仕組みは、システムレベルで動作するため、実質的なオーバーヘッドはない。Microsoftによれば、現在利用可能な他のアルゴリズムと比べても、実際に高いスループットと低いレイテンシを実現できているという。

Microsoftは、これらすべてを機能させるために必要な、レジスタ転送言語(RTL)用のVerilogソースコードも寄託している点を力説する。「これだけ詳細なレベルでRTLをオープンソースとしてOCPに寄託するのは、業界を先導するものです」と、Azureハードウェアインフラストラクチャのゼネラルマネージャ、Kushagra Vaid氏は述べる。「OCPのエコシステム内の新技術に関するスムーズなコラボレーションを推進し、シリコンレベルのハードウェア革新への扉を開く、新たな先例となるものです」。

Microsoftは現在、このシステムを自らのAzureクラウドで使用しているが、Open Compute Projectに参加する他社との提携も始めている。 そうしたパートナーとしては、Intel、AMD、Ampere、Arm、Marvell、SiFive、Broadcom、Fungible、Mellanox、NGD System、Pure Storage、Synopsys、それにCadenceが挙げられる。

「そのうちに、Project Ziplineの圧縮技術が、さまざまな市場セグメントに浸透するものと期待しています。ネットワークデータ処理、スマートSSD、アーカイブシステム、クラウドアプライアンス、汎用マイクロプロセッサ、IoT、エッジデバイスなど、幅広い用途が考えられます」と、Vaid氏は述べている。

画像クレジット:JLPH/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

クラウドサービスのScalewayがGPUインスタンスを1時間1ユーロで提供

フランスのクラウド・ホスティング会社Scalewayは、Nvidia Tesla P100 GPUを使用した新しいインスタンスを公開した。同社はシンプルな価格体系を採用し、料金は1時間あたり1ユーロとした。

今や多くの会社がGPUインスタンスを使って機械学習ベースのアプリやサービスのモデルを訓練している。こうしたインスタンスを活用して3Dモデルを作ったり、その他のGPU主導タスクを実行している会社もある。高価なGPUを山ほど買わなくても、気に入ったクラウドホスティング会社でGPUをオンデマンドで使うことができる。終わったらそのインスタンスを閉じる。

ScalewayのRENDER-SインスタンスはNvidia Tesla P100に16 GBのHBM2メモリーを付けて使っている。RAM 45 GBと400 GBのストレージ(ローカルNVMe SSDなのでビデオ処理は超高速のはず)を備え10コアのIntel Xeon Gold 6148をAVX-512命令セットで使用している。ある程度長い期間使う予定があれば、料金は1時間1ユーロまたは月間500ユーロ(567ドル)のどちらか安い方になる。

Google Cloudでは、Nvidia P100のオンデマンド・インスタンスを1時間あたりアジア・ヨーロッパでは1.60ドル、米国では1.46ドルで使える。MicrosoftもP100 GPUのクラウド・インスタンスを1時間2.07ドルで提供している。Scalewayは、これらのサービスを主なライバルと見ているのだろう。

AmazonものAmazon Web ServiceにもGPUインスタンスがある。Nvidia Tesla V100というもっと強力な GPUを使うインスタンスもある。価格も高く1時間当たり3ドルだ(価格はデータセンターによって異なる)。古いGPUを使うAWSインスタンスもあるが、性能は落ちる。

OVHもTesla V100 GPUを使った インスタンスを1時間当たり2.30ユーロ(2.61ドル)で提供している。DigitalOceanとLinodeではGPUインスタンスを見つけることができなかった。

おそらく殆どの人にとってGPUインスタンスは必要ない。しかし、次のクラウドプロバイダーを探している会社にとっては、重要な要素になりうる。支払先を一箇所にまとめたければ、幅広いオプションのある会社を選ぶ必要がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

今日でCEO就任満5年、サティヤ・ナデラがMicrosoftの企業文化を一変させた秘密

5年前の今日、サティヤ・ナデラがMicrosoftのCEOに就任し、以後ほとんどあらゆる面で成功を収めてきた。CEOのパフォーマンスを見るには株価の推移 を取り上げるのが一般的だ。ナデラは株価をアップさせた以上にMicrosoftを根本的に改革した。しかしこの成果となると測定は難しいものとなっている。ナデラが改革したのは企業文化というさらに微妙なものだからだ

Microsoftでのナデラの任期は、たまたたま私(Ron Miller)がTechCrunchに参加したのと同時期だ。私は2014年の4月にTechCrunchに加わった。最初期の記事の一つはMicrosoftという巨大企業における根本的改革の困難さについて書いたものだった。この頃、前任のスティーブ・バルマー、ビル・ゲイツのコンビの時代には見られなかったサービス事業へのシフトがMicrosoftに起こり始めていることに私は気付いた。

ナデラCEO就任以降、5年間の株価の推移。資料:Yahoo Finance

ナデラが就任したのは、IT分野がMicrosoft、Oracle、IBMなどの巨大ベンダーが事業分野ごとにすべてのサービスを提供する一枚岩から、分散化に向けてシフトする時期だった。ユーザーはクラウドサービスを利用して、必要に応じてもっとも適するサービスを選択するようになった。

これは、全社を一元的に管理するIT部門から個別のチーム、ユーザーに主導権が移り初めていた。このITのコンシューマライゼーションという背景を考える必要がある。ナデラはこうした変化を正しく理解していた。

もちろんMicrosoftの戦略シフトはナデラの就任以前に始まっていたのだろう。しかしMicrosoft Corporationという巨艦の方向転換にはナデラのような新しいリーダーが必要だった。大小を問わず、企業には社内政治や特有のバイアスが存在する。Microsoftにもあったことは間違いないが、ナデラはこうした障害を乗り越えて全面的な組織改革を成功させた。その過程ではレイオフなどの痛みも経験した。2017年には数千人がMicrosoftを離れることになった。長年Microsoftを指揮してきたCOOのKevin TurnerやWindows及びデバイス部門のトップTerry Myersonも辞めた。

しかしMicrosoftはなにからなにまで24時間自社製品をユーザーに強制する会社であることを止め、マルチ・プラットフォームで広い範囲のパートナーと協力するようになった。就任1年後にナデラがどれだけ真剣であったかを示す出来事があった。MicrosoftとSalesforceは長年競争関係にあったにもかかわらずナデラはそれを脇に置いて、Salesforceの大規模なユーザー・カンファレンスであるDreamforceに登壇した。両社が長年にわたって激しく法廷で戦っていたことを考えると、非常に象徴的なジェスチャーだった。これはMicrosoftの新しい日であり、ナデラはそれを実証した。

この数年私は何度も引用しているが、ナデラのビジョンは協調だった。もちろん競争すべき場面では容赦なく競争する。しかしナデラは協調することに意味がある場面を見逃さなかった。ナデラの場合、すべては顧客メリットの面から判断したからそのようなことが可能だった。ナデラは「プラットフォームのベンダーであるわれわれにとって、顧客が抱えている真の問題点を解決するために幅広くパートナーと協調することが義務だ」と述べた。シェアを他人に渡すこともライバルに遅れを取ることもなかったが、本当に重要なのは顧客をハッピーにすることだと認識していた。

ナデラ以前の時代にはプラットフォーマーとデベロッパーの間では協調の精神が乏しかった。そうすることが利益であってもリソースを共有したり共同で開発を行ったりすることはほとんどなかった。ナデラの大きな功績の一つはこうした敵対的な空気を一掃したことだろう。

この点は非常に重要だ。ナデラがDreamforceのキーノートで述べたように、クラウド化の時代ではベンダーが協調することがユーザーの利益になるからだ。ユーザーがクラウドを活用するためにはAPIが公開されていなければならない。またプラットフォームはデベロッパーの開発作業が容易なものでなければならない。ナデラのリーダーシップの下でMicrosoftはこうしたことを実現していった。

またMicrosoftはリアルタイム字幕機能や、足でも使えるようにカスタマイズ可能はXboxのアダプティブ・コントローラー などアクセシビリティ機能を重視するようになった。またアクセシビリティの強化のためにAIを利用する研究も進められた。今年のスーパーボウルCMでもMicrosoftはAIによるアクセシビリティ機能の充実を強調している。

ナデラのアグレッシブなM&A戦略も見逃せない。巨大な資金力を生かして、Microsoftは大小の企業の買収を進めた。特に目立ったのは 2016年にLinkedIn買収になんと262億ドルを投じたことだろう。また昨年、GitHubを75億ドルで買収したことも記憶に新しい。10億ドル以下の「小型」の買収も数えきれない。これらはセキュリティーやデベロッパー生産性、ゲーム、クラウド処理などでMicrosoftの既存プロダクトに欠けていたピースを埋めるものとなっている。

繰り返すが、こうした企業文化の根幹にかかわる改革をMicrosoftのような歴史ある巨大企業で実行することは非常に困難な事業だ。改革はまだ道半ばだろうが、これまでのところナデラは事前の予想を上回る成果を挙げている。株価の復調はこうした大規模な改革の成果を市場が認識し始めたことを意味する。しかし市場の反応はまた別に論じるべきだろう。ここではどんな巨大な企業だろうととリーダーシップが自己改革の要だということを指摘しておきたい。

画像:Stephen Brashear (Image has been modified)

原文へ

滑川海彦@Facebook Google+

SAP、決算好調もクラウド化で4000人のレイオフを計画

IBM、Oracle、SAPなど伝統的なスタイルのエンタープライズ向けソリューションを提供してきた企業は軒並みクラウドへの転換を迫られている。この移行は絶対に必要ではあるが、その間非常に困難な調整を必要とするようだ。今日(米国時間1/29)、SAPは大規模なリストラを発表し、7.5億ユーロから8億ユーロ(8.56億ドルから9.14億ドル)を節約する目標を掲げた。

SAPはこの発表をできるだけバラ色に塗ろうと試みたが、SAPが現代的クラウド企業に転換するにあたって4000人以上のレイオフが行われる可能性がある。 CEOのBill McDermottは、四半期決算発表後のプレスカンファレンスで「SAPはビジネスが現在最も必要としている分野、つまり人工知能、ディープマシンラーニング、IoT、ブロックチェーン、量子コンピューティングに人材と努力の焦点を集中する」と述べた。

どこかで聞いた文句と感じられただろうか? それは実際そのとおりだからだ。SAPが数え上げたのはここ数年、IBMが変革に集中してきたまさにその分野だ。IBMはこの変革の実行に苦闘を続けており、新しいスキルセットへの移行にともなって人員削減のプランも浮上している。ただしSAPの財務状況は、IBMよりもポジティブなものだということは注意すべきだろう。

CFOのLuca Mucicは、計画されているリストラは長期的な健全性を確保するたであり、単なるコスト削減ではないことを強調した。しかし計画には人員削減も含まれることを認めた。これにはインセンティブ付きの自発的退職、早期退職が含まれるという。Mucicは、「2015年のリストラでは約3000人の社員が退職しているが、今回のプログラムにおける退職者数はこれをやや上回る可能性がある」と述べた。

またMcDermottは、「こうした人員削減を実施しても、来年の今頃には現在よりSAPの社員数は増加していると確信する。ただし多くの人員が新しいテクノロジ分野に移行しているだろう。これは成長を続けている企業特有の動きであり、単に支出を削減する努力ではない。リストラによって節約された金額は1ドル残らず新しいテクノロジーに投資される」と述べた。同時にSAPのクラウド売上は2023年までに350億ドルに達するはずだと強調した。

Constellation Researchのアナリスト、Holger MuellerはSAPなどのエンタープライズ向け企業をウォッチしてきたが、「SAPは変革のために必要なことをやっているる」と述べた。TechCrunchの取材に対して、Muellerは「SAPは、プロダクト・ポートフォリオを21世紀の顧客の要求にふさわしくアップグレードする努力を行っている。ただしこれは簡単ではない。社員は新しいテクノロジーを販売するためにはまず自らがこれを習得し熟練しなければならない。全く新しいスキルセットが必要となるだろう」と答えた。

McDermottは、今日の発表で「SAPは離職する社員に十分な退職金パッケージを提供していく」と強調した。

今日の発表に先立って2018年に、SAPはクラウド化に備えるため数十億ドル級の大型買収を2件行っている。Qualtricsの買収は80億ドル$2.4 billion for CallidusCloudの買収は24億ドルだった。

画像:Bloomberg / Getty Images

原文へ

滑川海彦@Facebook Google+

サーバーレスコンピューティングの使いどころ

この著者による他の記事

サーバーレスが支持される理由は、一般的にはコストを削減し、必要に応じて大規模なスケールアップを行える手段だからである。しかしサーバーレス優先アプローチの採用には、そうした様々な理由よりもはるかに説得力の高い理由が伴っている:それは最終的に開発スピードの最大化を行うための最善の方法だということだ。それを正しく実装するのは容易ではなく、確かに万能薬でもないが、しかし正しく行われれば、開発スピードを最大化する道を切り開くことができる。そしてそれこそが、創業者や投資家たちの間で、サーバーレスが最もやかましく宣伝され、技術的な議論の的になっている理由なのだ。

サーバーレスの採用は単純な前提で始まる:もし特定のマーケットで最速のスタートアップが勝利を収めるのなら、最も重要なことは、開発スピードを維持したり向上させていく事だ。 そんなことは当たり前ではと思うかもしれない、だが開発スピードを維持したり向上させていくことを明確なゴールとして掲げるスタートアップはとてもとても少ないのだ。

「開発スピード」とはより具体的に言えば、顧客により多くの価値を届けることができるスピードを意味する。 もちろん、顧客にとってのより多くの価値は、既存の顧客により多くの価値を提供することでも、あるいは既存の価値を(つまり既存の機能を)新しい顧客に提供することでも、届けることができる。

多くの技術スタートアップにとって、特にB2Bの世界では、このどちらもが開発のスループットによって左右される(前者は明らかだし、後者に関しては新しい顧客の受け入れ速度は、しばしばエンジニアによって開発されなくてはならない受け入れの自動化の速度によって制限されるからだ)。サーバーレスとは一体何だろう?その名称は少々誤解を招きやすい。それは丁度、クラウドコンピューティングという言葉が、データセンターが空中に消えていってしまうという意味ではないということと同じことだ。クラウドコンピューティングという言葉が意味するのは、データセンターは誰か他者によって運営され、必要に応じて提供されることが可能で、時間単位で課金されるということである。サーバーレスという言葉が意味することは「サーバーがない」ということではない。

どこかに必ずサーバーは存在していなければならない。広い意味で言えば、サーバーレスとはユーザーがそうしたサーバーの設定や管理を自ら行う必要はないということだ。サーバレスの良い定義は、稼働時間を開発者が気にする必要がなくなる、利用回数課金型コンピューティングである。利用回数がゼロなら、コストもゼロになる。そしてサービスが停止した場合に、そのサービスを再び立ち上げる責任はユーザー側にはない。AWSは2014年に、AWS Lambdaと呼ばれる「サーバレスコンピューティング」プラットフォームと共に、サーバーレスへの取り組みを開始した。

AWSのEC2などの「通常の」クラウドサーバーは、事前に割り当てられなければならず、使用の有無にかかわらず時間単位で課金される。AWS Lambdaは要求に応じて簡単に割り当てることが可能で、呼び出された要求回数のみで課金される。Lambdaは驚異的に安価だ:1リクエスト毎に0.0000002ドルと、1Gのメモリを利用して1秒計算する毎に0.00001667ドルが課金される。またEC2の場合には、もし容量制限に達した場合には、ユーザー自身がサーバーのサイズを増やす必要があるが、Lambdaの場合には負荷に対応するために手作業を介することなく無制限に拡張される。また、EC2のインスタンスがダウンした場合、開発者は問題の解析と再起動に責任を負うが、あるLambda呼び出しが死んでも、別のLambdaが代わりに実行されるだけのことだ。

Lambdaや、それと同等の役割を果たすAzure FunctionsGoogle Cloud Functionsのようなサービスは、コストと能力の観点から見たときに、とてつもなく魅力的なものではあるが、お金の節約やスケールアップに対する準備という動機は、この技術を適用しようとするスタートアップにとっては、とても貧弱な理由である。サーバーに多くのお金を使い過ぎたとか、顧客の需要に応えるためにスケールすることができなかったという理由で失敗するスタートアップは少ない。実際には、そうしたことを最適化しようとする行為の方が時期尚早な取り組みの1形態となる、他にも(雇用、マーケティング、セールス、製品機能、そして組織や肩書といったものに対する)1つもしくは複数の次元の、時期尚早な取り組みが、大多数のスタートアップの死の主要因なのである。言い換えれば、コスト、規模、または稼働時間の最適化に、時期尚早に取り組む行為はアンチパターンなのだ。

人びとがサーバーレスアプローチについて語っているときには、単にサーバー上で現在実行されているコードを取り出してきて、それをLambda関数に分解し、より安いコストやスケールの容易さを実現しようとしているわけではない。適切なサーバーレスアーキテクチャは、モダンなソフトウェアアプリケーションを構築するための、根本的に異なるやり方だ。その手法は“serverless, service-full”アプローチと呼ばれている

それは、既成のプラットフォーム(すなわちマネージドサービス)であるAWS CognitoAuth0(サービスとしてのユーザー認証(サインアップやサインイン)サービス)、AWS Step Functions、あるいはAzure Logic Apps(サービスとしてのワークフローオーケストレーション)、AWS AppSync(サービスとしてのGraphQLバックエンド)、あるいはより馴染み深いStripeのようなサービスを積極的に採用するところから始まる。

Lambdaのようなサービスは、機能呼び出しをサービスとして提供するものだが、一方マネージドサービスたちは機能そのものをサービスとして提供する、この違いは、別の言葉で言えば、スタートアップ側のユーザーたちがサーバーレスコンピューティングのためのコード(例えばファンクション)を書いて保守する一方で、サービスプロバイダーたちが、マネージドサービスのコードを書いて保守するということだ。マネージドサービスを使えば、サービスプラットフォーム側が機能そのものと、その裏にある実行にまつわる複雑性を管理してくれる。

マネージドサービスを採用することで、アプリケーションの「コモディティ」機能の大部分(認証、ファイルストレージ、APIゲートウェイなど)は、クラウドプロバイダのさまざまな既成のプラットフォームによって処理される。そうしたプラットフォームたちの提供するサービスが、ユーザー自身の書く独自の薄いグルーコードレイヤーによって繋ぎ合わせられるのだ(グルーというのは「糊」という意味で、グルーコードというのは様々な機能同士を糊付けして連携させるコードということ)。ユーザアプリケーションの固有機能を実装するビジネスロジックと共に、このグルーコードは、非常に安価で無限にスケールアップ可能なLamda(もしくはその同等品の)インフラストラクチャ上で実行される。それによってサーバーの必要性も排除されるのだ。私たちのような小規模のエンジニアリングチームたちが、信じられないほどパワフルで簡単に保守できるアプリケーションを、アプリケーションがより複雑化して行く中でも、前例のないほど持続可能な開発スピードを保ち続けることができるアーキテクチャの下で開発している。

“serverless, service-full”哲学を採用する際にはトレードオフが存在する。徹底的にサーバーレスなアプリケーションを開発するためには、短期的には開発スピードに対する大きな影響を考慮する必要が出てくる。なぜならAWSの既成サービスの1つを使おうとすることよりも、自分で「サービス」を書いてしまった方がはるかに早いことも多いからだ。もちろん開発者がStripeのようなサービスを検討しているときには、「作るべきか、買うべきか」は問題にはならない。Stripeの支払いサービスを使うほうが、自分自身で支払いサービスを構築するよりもはるかに早いからだ。より正確に言えば、支払いのためのStripeのモデルを理解することの方が、支払いのための独自のモデルを理解して構築することよりも早いということだ。支払い業務の複雑さと、Stripeが開発した直感的なサービスの両方がそれを示している。

しかし、認証(CognitoやAuth0)や、ワークフローオーケストレーション(AWS Step FunctionsやAzure Logic Apps)のようなものを扱おうとする開発者たちにとっては、サービスプロバイダーの提供するサービスモデルを理解して実装することの方が、アプリケーション自身の中で(ゼロから書き上げるかオープンソースライブラリを使うかして)実装してしまうよりも一般的に時間がかかる。マネージドサービスの使用を選択することによって、開発者たちは短期的にみればわざわざ時間のかかる方法を選択することになる。これはスタートアップにとっては飲み込むのが辛い薬である。理解できることだが、多くは今この場を素早く進めて、自分たちで開発することを選ぶ。

だがこのアプローチの問題は、結局「コードは財産ではない。負債なのだ」というソフトウェア開発の古い公理に戻ってしまう点だ。コードは会計上2つの側面を見せる。それは企業が顧客に価値を提供することを可能にする財産だが、長期間にわたって面倒をみなければならない負債でもある。同じ機能が実現できるなら、スタートアップたちは可能な限り小さなコードベースにしたいと考えている(だがもちろん、開発者たちはこうしたことをあまり深刻にはとらえることなく、巧妙ではあるが読めないコードを書いている)。コードが少なければ、保守しなければならない部分はより少なくなり、新しいエンジニアたちにとっても把握しなければならない部分がより少なくなる。

こここそ、マネージドサービスを使用するという魔法が提供される場所だ。スタートアップたちはサービスプロバイダーのコードを、自分たちの「技術バランスシート」の負債に組み込むことなしに、財産として有益に活用する。その代わりに、そのコードはサービスプロバイダー側のバランスシートに置かれて、プロバイダーのエンジニアたちが、そのコードの保守、改善、文書化を担当する。言い換えれば、スタートアップたちは、自律的保守自律的改善、そして自律的文書化が行われるコードを手に入れることになる。これは、コードベースの非コア部分を担当する、専任の一流エンジニアリングチームを無料で雇用することに相当する。より正確には、1回あたり予測可能なコストで利用できるということだが。これをCognitoもしくはAuth0のようなマネージドサービスを利用する場合で考えてみよう。最初は、おそらくそれはスタートアップが望む全ての機能は持っていないだろう。違いは、プロバイダー側にはエンジニアとプロダクトマネージャーのチームがいて、彼らの唯一の仕事は、このサービスに対する改善を日々送り出すことだということだ。彼らのエキサイティングなコア製品は、別の会社で補助的な役割を果たす製品となる

もしスタートアップのエンジニアリングチーム向けに、ただ1つの統一原則があるとするならば、それは可能な限り少ないコードを書くべしということだ。そして非コアサービスに対しては、許される限り少ない負荷だけを負うようにする。この考え方を採用することで、スタートアップは、何十億ものトランザクションを高い精度で予測可能な変動コスト内で処理することが可能な、開発運用上の見落としのほぼないプラットフォームを構築することができる。

このように「怠惰」でいられるためには、大変な準備が必要とされる。サーバレスコードベースとサーバレスインフラストラクチャの管理に精通することは、簡単なことではない。これは、テストと自動化に関する広範なノウハウを構築することを意味していて、より大きな事前の時間がかかる投資を必要とする。マネージドサービスとの統合は信じられないほど苦痛を伴うことがある。全てのギャップ、内容、エッジケースを理解するために何日も費やすのだ。独自のソリューションを実装したくなる誘惑は、特に1つのストーリーを数日以上ではなく、数分または数時間で実装できそうに見えるときには、とても強いものとなる。

これは、あるサービスが開発者のニーズの80%にしか対応していないときに、一時しのぎの回避策を書くことを意味する。そして不足していた20%の機能が改めてリリースされた場合には、自分で書いた回避策を取り除くようにコードをリファクタリングすることになる(たとえその回避策が十分に動いていて、短期的にはリファクタリングするメリットがないとしても)。十分な早期投資が意味することは、サーバーレス/マネージドサービス優先アプローチは、必ずしも全てのスタートアップに向いているわけではないということだ。最も重要な問いは、どの位のスケールの時間の中で急がなければならないのか?というものだ。 多くの非常に初期段階のスタートアップたちにはよく見られることだが、その答が数日または数週間であるならな、おそらくサーバーレス/マネージド優先は正しいアプローチではない。

しかし、開発速度の最適化のタイムスケールが、日単位あるいは週単位から、月単位もしくは年単位に変化してきたならば、サーバーレスについて真剣に検討する価値がある。

素晴らしいエンジニアを募集することは非常に難しく、そして難しくなる一方だ。競合相手たちが、ありふれていて違いの際立たないサービスの構築を行い、そのサービスの保守に何年も手をとられている一方で、こちらが素晴らしいエンジニアたちを差別化のためのビジネス機能構築に割り当てることができれば、非常に競争力の高い利点となる。もちろん、サーバーレスが意味のない場合もあるが、そうしたものは急速に消え去りつつある(例えばLambdaの5分のタイムアウトは最近3倍の15分となった)。そして、ロックインだの遅延だのといった理由は、一般的に無意味であり過去のものとなっている

究極的には、ソフトウェアスタートアップの仕事、すなわち創業者の仕事は、競争相手の能力の、上を行き先を行く顧客価値を提供することだ。その仕事は開発スピードを最大限に引き出すことにつながり、その結果、可能な限り複雑さを減らすことにつながる。おそらく全てのコードベース、したがって全てのスタートアップが、「1つの大きな泥だんご」になることを運命付けられている。この用語はすべてのソフトウェアプロジェクトが最終的に向かう「無計画な構造をもち、不規則に拡大し、手抜きが多く、ガムテープと梱包紐で固定された、スパゲッティコードジャングル」を表現するために、1997年の論文で使われたものだ。

ある日、複雑さが限界を越えて、開発スピードが不可逆的に低下し始める。そのため創業者の究極の仕事は、その日の到来を、人間の力で可能な限り先延ばしにすることだ。これを行うための最良の方法は、泥だんごの大きさを必要最小限の大きさに保つことだ。サーバーレスはまさにその事を実現するために開発された、最もパワフルなツールなのだ。

[原文へ]
(翻訳:sako)

Salesforceが日本で$100Mのファンドを設立、パブリッククラウド市場の成長を確信

日本のスタートアップにとって、良い週だった(12/2-8)。Googleがこの国でまれな投資をしてAIのABEJAを支援したかと思ったら、そのすぐ次はSalesforce…同じくアメリカのテクノロジー巨大企業…が、日本のエンタープライズ系スタートアップのための1億ドルのファンドを発表した

そのJapan Trailblazer Fundは、Salesforce Ventureのアジアにおける初めての、ローカルファンドだ。S8eのこのVC部門は2011年以降、日本のスタートアップ40社を支援している。そのポートフォリを企業は275社だから40は小さいし、日本でのファンド1億ドルも、全世界で10億ドルを超える投資額のごく一部にすぎない。

しかしそれでも、日本への注力はこの国にとって嬉しいニュースだ。GDPベースでは世界第三位の経済大国でありながら、日本は海外からの投資を呼びこむのに苦労している。でもSalesforceの場合は、日本のパブリッククラウドサービスの市場を拱手傍観することは許されない。なにしろ2022年には今の倍の130億ドルの市場になる、とIDCは試算しているのだ。〔参考ページ(IDC原本は有料)〕

Salesforce Venturesのポートフォリオに今いる日本企業は、8月に6000万ドルを調達した会計サービス/人事労務サービスFreeeや、2650万ドルを得て東南アジアに進出しようとするコンタクト管理(名刺管理)のSansanなどだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

PivotalのサーバーレスパッケージPivotal Function Serviceはマルチクラウド+オンプレミスのハイブリッド対応

Pivotalはエンタープライズのデベロッパーのためにオープンソースのツールを作る企業だが、これまではなぜかサーバーレス方面の部位が欠けていた。しかし本日(米国時間12/7)からそれが変わり、Pivotal Function Serviceと呼ばれるプロダクトがアルファでローンチした。

Pivotal Function Service”は、Kubernetesベースの、マルチクラウドのファンクションサービスだ。この新しいサービスを発表するブログ記事によるとそれは、「あらゆるクラウド上のすべてのワークロードを単一のプラットホームで支える」というPivotalのビジョンの一翼を担うことになる。

Pivotalのサーバーレスで、オープンソースであること以外におもしろいのは、クラウドネイティブでオンプレミスでもクラウドでも使えることだ。そのためのKubernetesベースでもある。しかしそれは、控えめに言っても、ふつうではない。

これまでのやり方では、AmazonやGoogle、Microsoftなどの大手クラウドプロバイダーが、あなたが必要とするインフラストラクチャを尋ね、そしてその会話が終われば、あなたはその後インフラストラクチャのことをまったく考えなくてよい。計算とストレージとメモリに関することはクラウドプロバイダーが扱い、あなたはファンクションを動かすだけで、ほかにやることはない。

Pivotalはこれと同じことを、どのクラウドサービスでもできるようにする。またそれを、オンプレミスでもできるようにする。奇妙に感じる人もいるかもしれないが、PivotalのOnsi Fakhouriによれば、顧客はオンプレミスでもクラウドでも同じ能力を求めている。“サーバーレスの重要な価値として、インフラ(サーバーなど)の稼働状況を気にすることがゼロになる、とよく言われるが、でもオンプレミスでサーバーレスプログラミングをいろいろ探求してみたいという顧客も、ときどきいる”、と彼は言う。ただしもちろん、サーバーレスのプログラムでそんなことをやりたければ、十分なリソースを確保しなければならない。

この新しいパッケージには、ファンクションを作ってデプロイして管理するための重要な部位がいくつか揃っている。ネイティブなイベント機能により、リッチなイベントトリガーを構築でき、必要な機能を何でも呼び出せる。しかもそれらの機能が、Kubernetesベースの環境に収まっている。企業がハイブリッド方式を選んで、オンプレミスとクラウドの両方にまたがるイベントをシームレスに管理できるためには、このことがとりわけ重要だ。

Pivotalのやり方のアドバンテージは、それがどんなクラウドでもオープンなプロダクトとして動くことだ。これに対してAmazonやGoogle、Microsoftなどのサービスは、それぞれ彼らのクラウドでしか動かない。オープンソースのFunction as a ServiceをやるのはPivotalが初めてではないが、同社はそれを、もっと使いやすい形で提供しようとしている。

サーバーレスは、仕事をするサーバーがないという意味ではない。むしろそれは、デベロッパーがサーバーを特定しなくてもよい、必要なインフラを整えるのはクラウドプロバイダーがやる、という意味だ。しかしオンプレミスのシナリオでは、ITがそれらのリソースを揃えなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、Alexaの難しい質問への答えをクラウドソーシングで募集

Echoスピーカーを持っている人なら、Alexaに難しい質問をして、困惑した応答をさせようとする「Alexaいじめ」の経験があるに違いない。おそらく、AIを困らせるのがさほど難しないことがわかっただろう。つまるところAmazonはGoogleのように大がかりな知識グラフを持っているわけではない。

簡単な解決方法のひとつは、Wikipediaのように、ユーザーの知識を引き出し知識ベースを充実させることだ。Amazonはそのドアを開いた。ユーザーにAlexaの難しい質問への答えを投稿してもらう招待制プログラムを開始した。

Amazonは以前から Alexa Answersを社内でテストしており、先月だけで10万件以上の応答が集まった。今回このプログラムを、メールで招待した少人数のグループにも公開する。参加を依頼された人は、専用ウェブサイトでAlexaのさまざまな話題に関する質問に答えることができる。

たとえば、Amazonは次のような(あきらかに奇妙な)提示している。「バーバラ・ブッシュはどこに埋められているか?」「指輪物語の音楽を作ったのは誰?」「コルクは何からできているか?」「コウモリは冬どこにいるのか?」など。個人的には全部同じ変人が続けて聞いた質問だと思っている。

応答が追加されるとAlexaはそれを利用できるようになり、「Amazonユーザーから」と注記される。これでデジタルアシスタントへのプレッシャーが少し軽減されるはずだ。ただし、間違った方向に進む可能性もある

[原文へ]

(翻訳:Nob Takahashi / facebook

AWSはアグレッシブに世界制覇を目指す――エンタープライズ・コンピューティングで全方位路線

eコマース企業のちょっとしたサイドビジネスとして始まったAWSだったが、目をみはるような拡大を続け、今や通年換算270億ドルという怪物的存在となっている。しかもまだ前年比45%という成長率を維持している。先週ラスベガスで開催されたre:InventカンファレンスでAWSの経営トップの話を聞いたが、こうした大成功に安住しそうな気配は全くなかった。その逆に、AWSはエンタープライズ・コンピューティングのあらゆる分野に覇権を打ち立てようと全力を挙げているという強い印象を受けた。

急速な機能拡張は永遠に続けられるものではあるまい。しかし今のところAWSが拡張の手を緩めるようすはない。新機能の発表に次ぐ発表が続いている。これらはユーザーの要求に応えるものという建前だが、仔細に検討するとライバルに対する回答という面も見えてくる。

ライバルを叩き潰せ

去年までAWSはOracleに向けて多少嫌味を言うことはあったにせよ、競合他社への言及はできるだけ避けてきた。しかし今年のキーノートではライバルへの対抗心がアップしていた。AWSのCEO、アンディー・ジャシー 、AmazonのCTO、Werner Vogelsはデータベース市場で最大のライバルとなるOracleをはっきり批判した。もちろんクラウド市場ではOracleはさしたる脅威にはならない

しかしAWSはオンプレミスのコンピューティングというOracle自身の市場でシェアを奪おうとしている。Outpostsという新しいシステムが武器だ。ユーザーはAWSが用意する専用のラックマウントのサーバーを利用してオンプレミスでAWSの環境を利用できる。ユーザーはVMwareのサーバーを利用することもできる。これはむしろラリー・エリソンがOracleのために構想しそうなシステムだが、ジャシーは特にOracleその他のライバルを念頭に置いたものではないとした。「Outpostsは別にライバルへの警告射撃といったたぐいのものではない。われわれのすることはすべて顧客の要望によりよく答えようとするものだ」とジャシーは先週の記者会見で述べた。

先週のAWS re:Inventでの記者会見で質問に応えるAWSのCEO、Andy ジャシー

とはいえ、AWSはOracleに対する批判を手控えはしなかった。またMicrosoft SQL Serverを槍玉に挙げると同時に、 Amazon FSx for Windows File Serverを発表した。これはMicrosoftのファイルをAWSで処理する専用ツールだ。

InferentiaとElastic Inferenceの発表に際してGoogleについても言及した。AWSはAI市場をGoogleのTPUインフラに独占させないという決意のようだ。こうしたツールやシステムは単に「ユーザーの要望に答えた」というには大掛かり過ぎる。おそらくはライバル各社にAWSはエンタープライズ・コンピューティングのあらゆる分野に参入することを宣言する意図があったに違いない。

ますます成長するとの予測

クラウド・コンピューティング市場は劇的なスピードで成長中だ。AWSはそのマーケット・リーダーとして市場制覇のために絶好の位置につけている。Googleのダイアン・グリーンやOracleのラリー・エリソンも述べていたが、ジャシーは「クラウド化はまだ始まったばかりだ」と強調した。エンタープライズには今後クラウドに移行すべきプロセスがきわめて多く残っているとしてジャシーは次のように述べた。

アメリカ市場における私企業、公的セクターのいずれを見ても、エンタープライズ・コンピューティングのクラウド化はごく初期段階にある。しかもアメリカ以外の市場の現状はアメリカに1年から3年遅れている。つまりメインストリームの大企業は業務を本格的にクラウドに移行させる計画をようやく立て始めたところだ。

Moor Insights & Strategyのファウンダー、プリンシパル・アナリストのPatrick Moorheadは、AWSは市場における現在の強力な立場を活かして異なる分野に事業を拡張していくだろうという。MoorheadはTechCrunchの取材に対し、「Google Cloud PlatformやOracle Cloudを始め、他の企業では手に余るような事業に進出する規模がAWSには十分にある。.AWSは数千にもにも及ぶ新機能、新サービスを導入することでこれを実証している。これは十分なりソースを欠いているクラウドには逆風となり、中長期的には脱落する企業も出てくるだろう」と述べた。

ただしイノベーションは現在のような熱狂的なペースで永久に続くわけではないとMoorheadは考えている。「クラウド化にともなうユーザーの要求の95%が満足させられる状況になるのはいつだろうか? そうなれば現在のようにしゃにむにイノベーションが求められることはない。どんなマーケットであれ、かならずこの水準に達するときが来る。だから正しい質問は『もし』ではなく『いつ』だ」という。

しかしもちろん衛星通信の地上局サービス AWS Ground Stationのようなまったく新しいクラウド化の分野は今後も出てくるだろう。 従来のエンタープライズ・コンピューティングの枠を超えてクラウド化事業を構想できる能力は重要だ。AWSはこれまでわれわれが想像もしなかったようなクラウド事業の分野を創造してくるかもしれない。

今年のre:Inventはオンプレミスであろうがクラウドであろうが、AWSはエンタープライズ・コンピューティングのあらゆる分野に進出する意思も能力もあることを世界に示すものとなった。AWSはどの分野であれライバルに譲るつもりはまったくないようだ。

more AWS re:Invent 2018 coverage

原文へ

滑川海彦@Facebook Google+

AWSがマネージドKafkaサービスをローンチ、難しいセットアップや管理からデベロッパーを解放

Kafka(Apache Kafka)は、データストリームの入力を〔緩衝バッファ的に〕扱うオープンソースのツールだ。しかし強力なツールだけに、そのセットアップや管理は難しい。そこでAmazonのAWSは、Kafkaの難易度を下げるために、管理をAWSが担当するクラウドサービスとしてのKafka、Amazon Managed Streaming for Kafkaをローンチした。長い名前だけどこれは、AWS上で完全に管理される可用性の高いサービスだ。今それは、公開プレビューで提供されている。

AWSのCTO Werner VogelsはAWS re:Inventのキーノートで、従来のKafkaユーザーはクラスターをAWS上にセットアップするために重労働をし、またスケーラビリティもエラー処理も自分で面倒見なければならなかった、と述べた。“失敗するたびにクラスターとメインノードのすべてをリスタートするのは悪夢だった。そんな重労働を、AWSなら肩代わりできる”、と彼は言う。

AWSには、Kafkaと似たようなストリーミングデータの入力ツールKinesisがある。しかし現状では、Kafkaを使っているアプリケーションの方が圧倒的に多い。そういうデベロッパーをAWSがユーザーとして維持しあるいは取り込むためには、マネージドKafkaが絶好の誘導路だ。

例によってAWSのサービスは料金体系が複雑だが、Kafkaのベーシックなインスタンスは1時間21セントからスタートする。しかしインスタンスが一つだけという使い方はあまりないので、たとえばKafkaブローカーが三つで大きなストレージなどが付くと、月額500ドルはゆうに超えるだろう。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ユーザーが自分のクラウドの正しい使い方をチェックできるAWS Well Architectedツール

2015年からAWSは、システム設計のチームを顧客元へ派遣して、彼らのAWSの使い方の正否をチェックしてきた。今日(米国時間11/29)同社が発表したツールWell Architectedを使うと、顧客はそのチェックを、自動化された方法で自分でできるようになり、人間コンサルタントの助力が要らなくなる。

AmazonのCTO Werner Vogelsがラスベガスで行われたAWS re:Inventのキーノートで述べたように、同社社内の人間チームが何千もの顧客のニーズに対応して、彼らのAWSベストプラクティスをチェックすることは困難である。資格を与えた複数のパートナーの起用も試みたが、それでも需要の大きさには対応できなかった。

そこで、いかにもAWS的なやり方として同社は、顧客が自分で、オペレーションやセキュリティ、信頼性、費用の最適化、性能効率などを測定できるサービスを作ることにした。顧客はこのツールを自分が使っているAWSサービスに対して動かし、上記5つのチェック項目に関する完全な測定レポートを得ることができる。

AWSのチーフエヴァンジェリストJeff Barが、このサービスを紹介するブログ記事でこう言っている: “これは、あなたがクラウドを確実に正しく、そして上手に使うためのツールだ”。

人間がユーザーのシステムを分析するのではなく、ユーザーが一連の質問に答えていくと、その答に基づいてレポートが生成される。そのPDFのレポートには、ユーザーの現状に応じた勧奨事項がすべて書かれている。

画像提供: AWS

人間コンサルタントとの会話に比べるときめ細かさに欠けるのでは、という疑念もあるが、これをもっと詳細な問題解決に向けてのスタートラインと考えてもよい。サービスは無料だから、ユーザーが費用的に失うものはないはずだ。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

推論過程をGPUで加速するAmazon Elastic Inferenceはディープラーニングのコストを75%削減する

Amazon Web Servicesが今日、Amazon EC2のどんなインスタンスでもGPUによる推論の加速ができるサービスAmazon Elastic Inferenceを発表した。これにより、ディープラーニングのコストが最大75%削減できるという。

AWSのCEO Andy Jassyは、今朝のAWS re:Inventのステージでこう述べた: “従来のP3インスタンス(GPU常備のインスタンス)では通常、GPUの利用率がせいぜい10%から30%ぐらいで、エラスティックな推論用としては無駄が多い。それだけの費用やGPUを、無駄に使うべきではない。Amazon Elastic Inferenceでは、もっと費用効率の良い方法で推論エンジンを動かせるから、きわめて画期的なサービスだ”。

Amazon Elastic Inferenceは、モデルの作成/学習ツールAmazon SageMakerのノートブックインスタンスとエンドポイント用にも利用でき、“内蔵アルゴリズムとディープラーニングの環境を加速できる”、と同社はブログ記事で言っている。機械学習のフレームワークは、TensorFlow, Apache MXNet, そしてONNXをサポートしている。

[顧客の皆様には、仕事の性質に合った正しいツールを使っていただきたい。このたび発表するAmazon Elastic Inferenceを使うと、エラスティックな(伸縮性のある)GPUサポートを加えて、どんなEC2インスタンスの上でもスケーラブルな推論ができ、大幅な経費節約が可能だ。]

三つのサイズが提供されている:
(混合精度, mixed-precision, FP16とFP32の併用使い分け)

  • eia1.medium: 8 TeraFLOPsの混合精度パフォーマンス
  • eia1.large: 16 TeraFLOPsの混合精度パフォーマンス
  • eia1.xlarge: 32 TeraFLOPsの混合精度パフォーマンス

この新しいサービスを詳しく知りたい方は、こちらへ

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのクラウドをそのままオンプレミスのデータセンターに持ち込むAWS Outposts

AWSはつねに純粋なクラウドベンダーだったが、ときにはハイブリッドにも目を向け、そしてこれからはそれを全面的にサポートする気だ。今日同社はVMwareと共に、AWSをデータセンターに持ち込むためのオプションを発表した。

えっ?企業のデータセンターにAWS?…そう、そのとおり。これからは、あなたの会社のデータセンターにAWSを置ける。AWSのハードウェアを使用し、設計もAmazon本体のAWSとまったく同じになる。そのために、AWS Outpostsの二つのプロダクトを利用する。

二つとは、「VMware Cloud on AWS Outposts」と「AWS Outposts」だ。最初のは、VMwareのコントロールパネルを使う。そして後者は、AWSのクラウドで使われているのと同じAWS APIを使って計算処理やストレージをオンプレミスで動かす。

実際にre:InventのステージにはVMwareのCEO Pat GelsingerとAWSのCEO Andy Jassyが一緒に立って、共同発表を行った。両社はかなり前から協働して、AWSのクラウドへVMwareを持ち込む作業を続けていた。しかし今回の発表ではそれが逆になり、AWSのクラウドをオンプレミスに持ち込んでVMwareと併用する。どちらの場合も、AWSはそのハードウェアをユーザーに売り、お望みならインストールもするし、メンテナンスも担当する。

これは、クラウドのビジョンをひたすら追うAWSにとって、後れていた分野だ。データセンターに戻るなんて! でも近年の暗黙の了解としては、近未来の顧客は両方の場所での運用を望むのだ。

この発表は、同社のクラウドネイティブ的ビジョンを拡張するものでもある。月曜日(米国時間11/26)に同社は、Transit Gatewaysを発表したが、それは、クラウドやオンプレミスなど、いろんなところにあるネットワークリソースを一元的に管理する仕組みだ。

そして今回AWSは、そのクラウドをオンプレミスに持ち込む。それは、MicrosoftやCanonical、Oracleなどなどが前からやっていたことだ。

なお、今日の発表は公開プレビューであり、本番のリリースは来年後半になるようだ。

more AWS re:Invent 2018 coverage

〔outpost, 前進基地。Amazonにとっての前進基地だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS Transit Gatewayは多種多様なリソースを単一のネットワークトポロジーの下に収めてアクセスと管理を容易化

AWSのデベロッパーカンファレンスre:Inventで今夜(米国時間11/26)、AWS Transit Gatewayと呼ばれるツールが発表された。それはユーザーがAWSの中にネットワークトポロジーを構築して複数のアカウントのリソース共有し、オンプレミスとクラウドのリソースを単一のネットワークトポロジーの中へ一元化する。

Amazonにはすでに、Amazon Virtual Private Cloud(VPC)と呼ばれる人気のプロダクトがある。顧客はこれを使って、自分のアプリケーションのプライベートなインスタンスを作れる。一方Transit Gatewayでは、複数のVPCs間の接続を構築できる。それはこれまで、相当面倒な作業だった。

AWSのグローバルインフラストラクチャとカスタマーサポート担当VP Peter DeSantisの説明によると、ユーザーはAWS Transit Gatewayにより中央集権的に管理されるゲートウェイに接続でき、その単一のコントロール集合を駆使して、ネットワークを容易にそして迅速に成長させられる。

図表提供: AWS

DeSantisによると、このツールはAWSとオンプレミスの両ネットワークを横断する能力をユーザーに与える。“ゲートウェイはイノベーションの一つの方法であり、それにより顧客は、安全で管理しやすい単一のネットワーキングをオンプレミスとAWSクラウドの両方にまたがって持つことになる”、と彼は説明する。

さまざまなリソースが標準的な種類のネットワークトポロジー上にあるかぎり、それらのリソースがどこにあろうとも、AWS Transit Gatewayによりそれらに一つのネットワークとして接続できる。“AWS Transit Gatewayを使ってハブ-アンド-スポーク型(車輪の中心とそこから放射状に張り出されたスポーク)のネットワークを構築できる。そこには、既存のVPCsやデータセンター、リモートオフィスなど何でも接続できて、そのネットワークルーティングやセキュリティを完全にコントロールできる。そのVPCsやActive Directories、共有サービス、そのほかのリソースなどが、複数のAWSアカウントに広がっていてもよい”。AmazonのJeff Barrが、この機能を発表するブログ記事にこう書いている。

長年、AWSといえばクラウドであり、ユーザーのクラウドリソースを管理するサービスを提供してきた。それはAWSのようなクラウドだけの企業にとっては十分だが、顧客は多種多様であり、インフラストラクチャやソフトウェアがオンプレミスやクラウドなど、いろんなところに散在している企業も少なくない。それらを、仮想的に単一のネットワークトポロジーとして扱えるようにするのが、AWS Transit Gatewayだ。

more AWS re:Invent 2018 coverage

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Red Hatがハイブリッドクラウドのデータ管理サービスNooBaaを買収

Red Hatは今、340億ドルという巨額でIBMに買収されようとしているが、それが完了していない現時点でRed Hatは、独立企業としての買収を行っている。同社の今日(米国時間11/27)の発表によると、買収したのはテルアビブの初期段階のスタートアップNooBaaで、ここはエンタープライズのデータ管理を助け、単一のAPIによりさまざまなデータプロバイダーに容易にアクセスできるようにする。

最近のRed Hatは、エンタープライズによるハイブリッドクラウドおよびマルチクラウドの管理の支援を強調しているから、NooBaaの技術はその指向性によく合っていると言える。NooBaaの中核的なサービスはさまざまなデータサイロの一元化なので、Red Hatのポートフォリオの一員として適している。OpenShiftとOpenShift Container Platform、およびストレージサービスCeph Storageを抱えるRed Hatは、今すでに、幅広いハイブリッドクラウドツールを提供している。

Red Hatでストレージとハイパーコンバージドインフラストラクチャのゼネラルマネージャーを担当しているVP Ranga Rangachariが、今日の発表でこう述べている: “NooBaaの技術はわれわれのポートフォリオを拡張し、今日のハイブリッドおよびマルチクラウドの世界でデベロッパーのニーズを満たすわれわれの能力を強化する。同社の9名の技術チームをRed Hatにお迎えすることは大きな喜びであり、今後は共に、オープンなハイブリッドクラウド技術の指導的プロバイダーとしてのRed Hatを、より強固にすることに取り組んでいきたい”。

Red Hatの技術は、そのほとんどが実質的にオープンソースだが、NooBaaのコードは違う。しかしNoo Baaの計画では、しかるべきときに同社の技術をオープンソースにする予定だ。ただしその明確な日程等は、まだ未定だ。

NooBaaは、2013年に創業された。同社はこれまで、Jerusalem Venture PartnersやOurCrowdからある程度のベンチャー資金を調達しており、またAkamai Capitalからの戦略的投資も得ている。そのラウンドの規模は公表されていないし、また今回の買収の価額等も非公開だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがEC2向けARMベースのサーバを発表

ラスベガスで開催されているre:Inventカンファレンスで、AWSは本日(11月26日)、EC2クラウドコンピューティングサービス向けの、ARMベースのサーバーを立ち上げたことを発表した。しかし、使われているのはありふれたARMチップではない。AWSは標準のARM Coreを採用し、それをニーズに合わせてカスタマイズしたのだ。同社によれば、そのAWS Gravitonという名前のプロセッサは、多数の小さなインスタンにまたがって分散可能なワークロードの、スケールアウトに焦点を当てて、性能とコストが最適化されているということだ。

A1と呼ばれる最初のインスタンスセットは、米国とヨーロッパの多くのAWSリージョンで利用可能になった。オンデマンド、リザーブドインスタンス、スポットインスタンス、専用インスタンス、専用ホストといった、AWSのすべての標準インスタンス価格モデルをサポートしている。

現段階では、これらのマシンのOSとしては、Amazon Linux 2、RHEL、そしてUbuntuしか利用することができない。だがAWSは将来的には追加のオペレーティングシステムサポートが提供されることを約束している。

これらはARMサーバーなので、当然ながらアプリケーションを実行する前には、全てのネイティブコードを再コンパイルする必要がある。しかし、実質的にスクリプト言語で書かれたほとんどのアプリケーションは、おそらく何の変更も必要なく実行できるだろう。

これらのインスタンスの価格は、1 CPUと2 GiBのRAMを搭載したa1.mediumマシンの場合1時間あたり0.0255ドルから始まり、16 CPUと32 GiBのRAMを搭載するマシンでは0.4080ドル/時間に達する。 X86ベースのt3.nanoサーバーが0.0052ドル/時間から始まることを考えると、期待したほど安くはないかもしれないが、もちろんスポットインスタンスを使うことで、いつでもかなりの節約をすることが可能だ。とはいえ、ベンチマークを実際に見るまでは、こうした異なるタイプのマシンを比較することは難しい。

AmazonのJeff Barrが本日の発表で指摘したように、同社のいわゆるNitro Systemへの移行によって、より速いチップ上で新しいインスタンスタイプを起動することが可能になった。Nitroは基本的に、新しいインスタンスタイプを作成するためのビルディングブロックを提供し、必要に応じてチームがそれを混ぜ合わせたり組み合わせたりすることができる。

AWSが今月初めにAMD EPYCプロセッサのサポートを開始したことも注目に値する。

AWS re:Invent 2018カバレッジ

[原文へ]
(翻訳:sako)

AWSのGlobal Acceleratorはアプリケーショントラフィックのグローバルネットワーク上の最適ルートを見つける

AWSの顧客は、さまざまな理由で複数のゾーンでアプリケーションを動かさなければならない場合が多い。理由としては、パフォーマンスの要求もあるだろうし、各国の規制の問題や、フェイルオーバーの管理もあるだろう。その理由が何であれ、AWS今夜(米国時間11/26)、顧客が複数のリージョンにまたがってトラフィックを容易にルートできるためのツールGlobal Acceleratorを発表した。

AWSのグローバルインフラストラクチャとカスタマーサポート担当VP Peter DeSantisが月曜の夜AWS Re:Inventで説明したところによると、AWSの顧客のトラフィックはすでにAWSの大きなネットワーク上を流れており、顧客はAWSのDirect Connectを使ってアプリケーションのパフォーマンスを一定に保ち、AWSの複数のリージョン間で移動する場合もネットワークの変動がないようにしている。しかし彼によると、これまで欠けていたのは、AWSのグローバルなネットワークを使って彼らのアプリケーションを最適化する方法だ。

DeSantisはre:Inventの聴衆に向かってこう述べた: “今夜、AWS Global Acceleratorをみなさまに発表できることを嬉しく思っております。AWS Global Acceleratorによりみなさまは、AWSのグローバルなネットワークを利用してアプリケーションのパフォーマンスと可用性を容易に向上できます”。

説明図提供: AWS

DeSantisは曰く: “;みなさまの顧客のトラフィックはエンドユーザーから最寄りのAWSエッジロケーションへルートされ、そこから、渋滞のない、冗長性のある、可用性の高いAWSグローバルネットワークを渡っていきます。そのときAWS Global Acceleratorはパフォーマンスを上げるだけでなく、エラー隔離機能によりネットワークの健康状態やみなさまのアプリケーションの構成の異変に直ちに反応します”。

そのときネットワークのアドミニストレーターは、健康状態や地理的要件などのポリシーに基づいてトラフィックをルートでき、トラフィックはそれらのポリシーに基づいて行き先のゾーンへと自動的に移動していく。

AWSの計画では、課金は顧客が作るアクセラレータの数に基づいて行われる。“アクセラレータはAWSのグローバルネットワーク上でトラフィックを最適のエンドポイントへと差し向けるために作るリソースだ。通常は一つのアプリケーションにつき一つのアクセラレータをセットアップするが、複雑なアプリケーションが複数のアクセラレータを必要とする場合もある”、とAWSのShaun Rayが、この新しい機能を発表するブログ記事に書いている。

AWS Global Acceleratorは今日から、アメリカとヨーロッパとアジアのいくつかのリージョンで利用できる。

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa