Amazon Web Services(AWS)がNode.jsによるSDK/オブジェクトライブラリを提供

Node.jsは今や、アプリケーションを開発するとき誰もが使っている。それはサーバサイドのJavaScriptだ。比較的おぼえやすいので、とても人気がある。今回はAmazon Web Services(AWS)が、Node.jsによるSDKをリリースし一般公開した。

あるブログ記事によると、AWSは12月のプレビューリリース以降、さらに機能を増強した。新しい機能は、バウンドパラメータ、ストリーム、EC2インスタンスのIAM roles、バージョンロッキング、プロキシなどだ。AWSによると、このSDKはAWSのサービス(Amazon S3, Amazon EC2, DynamoDB, Amazon SWF)のJavaScriptオブジェクトを提供して、デベロッパのコーディングを単純化することが目的だ。

Node.jsはその、イベント駆動型のノンブロッキングI/Oにより、アプリケーションのスケーラビリティを支え、しかも、スレッドやタイムアウトのポーリング、イベントループなどをプログラマは扱わずにすむ。だからこそ、大きな人気を獲得した。とくにゲームデベロッパに愛好者が多く、AmazonのCTO Wener Vogelsは、3月にAWSがElastic BeanstalkでNode.jsを提供したときに書いた記事の中で、そのことを説明している。Vogelsによると、Elastic BeanstalkはElastic Load Balancing、Auto Scaling、EC2などのAWSリソースのプロビジョニングとモニタリングと構成を自動化する”。彼によると、デベロッパたちはNode.jsの機能を利用することによって、レイテンシ(ネットワーキング待ち時間)の低い複数の並列的接続を実現している。UberやVoxer、それにDataheroのようなエンタプライズ向けスタートアップはすべて、サーバの実装にNode.jsを使っている。

Node.jsのサポートを提供しているクラウドプロバイダはAWSだけではない。Joyentはこのプラットホームを企業向けサービスの一環として提供している。Windows Azureもビッグなサポーターだ。Rackspaceもサポートしている。3月にMicrosoftは、Windows Azure Service Busを使うオープンソースの寄与貢献物を提供した。それは、Node.jsによるリアルタイムアプリケーションのためのスケールアウトをサポートするライブラリだ。

AWSが今回Node.jsによるSDKを一般公開したことは、デベロッパ界隈における、Node.jsというプラットホームの実力を物語るエピソードの一つだ。つまり、デベロッパを相手にするビジネスでは、もはやNode.jsを無視できない。これで、AWSをベースに開発〜プログラミングをするデベロッパが今後増えることは、ほぼ確実だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazon S3は2兆のオブジェクトを保管―昨年6月の1兆から倍増、ピーク時には毎秒110万のリクエストを処理

今日(米国時間4/18)、ニューヨークで開催されたAWSサミットでAmazonは、S3ストレージには2兆以上のオブジェクトが保存されていると発表した昨年6月には1兆、11月には1.3兆だった。前回の数字はre:Inventカンファレンスで発表されたものだ。

Amazonの AWSチーフ・エバンジェリストJeff Barrは今日のブログ記事で、「AWSが保管するオブジェクトが1兆に達するのに6年かかったが、さらに1兆増加するのに1年もかからなかった。また日常的にピーク時には毎秒110万以上のリクエストを処理している」と書いている。

Amazonはこの数字を「われわれの銀河系には4000億の星がある。S3に保管されているオブジェクトの数は銀河系の星の数の5倍だ」と説明した。S3オブジェクトはひとかたまりのデータであり、サイズは1バイトから5テラバイトまでいろいろだ。残念ながらAmazonはS3オブジェクトのサイズの平均については明らかにしなかった。

Amazonは今月に入ってAPIリクエストの処理単価を引き下げるなど値下げ努力を続けている。しかし料金の安さはS3の成功の理由のひとつの要素にすぎない。たまにダウンすることがないわけではないが、AWSは企業が大量のデータをクラウドに保管しようとするとき真っ先に考慮するサービスとなっている。また新機能も次々に追加されており、小さなスタートアップからPinterestDropboxのような急成長サービスまで広くホスティングしている。AWSは2020年ままでに200億ドルのビジネスになると一部のアナリストは予測している

MicrosoftのAzureプラットフォームはじめライバルも挑戦を続けているが、この分野でのAmazonの圧倒的優位はゆらいでいない。Microsoftは最近、AWSの料金引き下げに対応して料金を引き下げると約束した。 Microsoftによれば、現在Azureには20万のユーザーがあり、毎日新たに1000ユーザーが加入しているという。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


AWS利用のリソースと費用とセキュリティを分析するCloudCheckrが$2Mを調達

Amazon Web Servicesの複雑さを克服することが、一つのビジネスになりつつある。その新人選手CloudCheckrは、AWSに欠けているリソース分析/費用分析/セキュリティ分析のためのツールを提供し、最近200万ドルの資金を調達するとともに、そのフリーミアムサービスの一般公開にこぎ着けた。200万ドルのシリーズAを仕切ったのはGarrison Capital、そこにGenesee Capitalが参加した。

顧客がAWSを使い始めたとすると、時がたつにつれて、自分が展開したものの全体的な健康診断が、そう簡単にはできないことに気づく。情報は得られるが、それらの構造も相当複雑だ。そこで、CloudCheckrがお助けに参上する。

ユーザが最初にすることは、CloudCheckrからでもアクセスできるように、AWSを構成することだ。

そして次に、報告形式を構成する。必要なモジュール、たとえばリソースの監視、などを指定する。複数のサービスのモニタもできるし、その展開のすべてのリージョンを監視できる。結果はダッシュボードにグラフィカルに表示される。

たとえば「EC2概要報告」は、リソースのサイズ、購入タイプ、リージョン、プラットホーム、AMI、費用などを教える。「詳細報告」は、さらに個々のインスタンスという粒度で、これらの項目プラス、ローンチタイム、利用状態レベル、付随しているEBSのボリューム、IPアドレスなどを教える。

CloudCheckrには費用とベストプラクティスのモジュールもあり、こいつがとりわけ便利なようだ。このモジュールではCloudCheckrが顧客の展開の様態を、AWSで行われているベストプラクティスと対比して評価する。また、例外的事象をチェックして顧客にアラートする。

CloudCheckrは、AWSのモニタリングというこの新しい急速成長市場で、 CloudabilityやNewvemなどと競合する。

Cloudabilityは、社員が利用しているオンラインサービスの状況を一望する。それを見てCFOは、会社のどの部署がどんなサービスのアカウントを持っているか(IaaS, PaaS, SaaSなど)を知ることができる。アカウントは、個々に、あるいは個人レベル〜部署レベルで組み合わせた状態で検分できる。そしてその報告がCFOに、サービスの詳細な費用分析を提供する(サービス別、アカウント別、ユーザ別など)。そして、費用が突出している部分などを教える。

Newvemはとくに、顧客のAWSのインスタンスをモニタする。たとえば昨年同社はAWS用のGoogle Analyticsのようなサービスの提供を開始した。そして顧客のAWSの契約全期間にわたる基準的な最適利用量を見つける。また、それを満たすマシンやインスタンスのタイプを判定する。インスタンスの最適な地理的配分も判定する。以上を要約するとNewvemは、AWSと長期契約を結ぶ前の、さまざまな量的質的判断を助ける。

Get Satisfactionのオペレーション担当VP Jonathan Clayによると、CloudCheckrはAWSの利用状況を総合的に見るためのポータルのようなサービスで、リソースの使われ方やその費用などを報告してくれる。また、インスタンスの混み具合や空き具合を見て、最適容量のリコメンデーションもする。予備インスタンス(reserved instances)の確保量に関するリコメンデーションも提供する。総じて、このサービスを利用すると企業は、費用やリソース利用の無駄をチェックでき、またセキュリティのためのベストプラクティスの遵守状態も知ることができる。

CloudCheckrを利用すると、AWSの内部をリソースと費用とセキュリティの側面から検分する作業が楽にできる。AWSを有効に利用しようと思ったら、それらのチェックが欠かせない。ただしAWSの点検管理サービスはほかにもいろいろあるから、ユーザはそれぞれの得意技を、まず調べるべきだ。

CloudChecklrの料金体系は無料から始まる。プロフェッショナルアカウントは月額会員制だ。そしてエンタプライズアカウントはオーダーメイドである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


AWS利用のリソースと費用とセキュリティを分析するCloudCheckrが$2Mを調達

Amazon Web Servicesの複雑さを克服することが、一つのビジネスになりつつある。その新人選手CloudCheckrは、AWSに欠けているリソース分析/費用分析/セキュリティ分析のためのツールを提供し、最近200万ドルの資金を調達するとともに、そのフリーミアムサービスの一般公開にこぎ着けた。200万ドルのシリーズAを仕切ったのはGarrison Capital、そこにGenesee Capitalが参加した。

顧客がAWSを使い始めたとすると、時がたつにつれて、自分が展開したものの全体的な健康診断が、そう簡単にはできないことに気づく。情報は得られるが、それらの構造も相当複雑だ。そこで、CloudCheckrがお助けに参上する。

ユーザが最初にすることは、CloudCheckrからでもアクセスできるように、AWSを構成することだ。

そして次に、報告形式を構成する。必要なモジュール、たとえばリソースの監視、などを指定する。複数のサービスのモニタもできるし、その展開のすべてのリージョンを監視できる。結果はダッシュボードにグラフィカルに表示される。

たとえば「EC2概要報告」は、リソースのサイズ、購入タイプ、リージョン、プラットホーム、AMI、費用などを教える。「詳細報告」は、さらに個々のインスタンスという粒度で、これらの項目プラス、ローンチタイム、利用状態レベル、付随しているEBSのボリューム、IPアドレスなどを教える。

CloudCheckrには費用とベストプラクティスのモジュールもあり、こいつがとりわけ便利なようだ。このモジュールではCloudCheckrが顧客の展開の様態を、AWSで行われているベストプラクティスと対比して評価する。また、例外的事象をチェックして顧客にアラートする。

CloudCheckrは、AWSのモニタリングというこの新しい急速成長市場で、 CloudabilityやNewvemなどと競合する。

Cloudabilityは、社員が利用しているオンラインサービスの状況を一望する。それを見てCFOは、会社のどの部署がどんなサービスのアカウントを持っているか(IaaS, PaaS, SaaSなど)を知ることができる。アカウントは、個々に、あるいは個人レベル〜部署レベルで組み合わせた状態で検分できる。そしてその報告がCFOに、サービスの詳細な費用分析を提供する(サービス別、アカウント別、ユーザ別など)。そして、費用が突出している部分などを教える。

Newvemはとくに、顧客のAWSのインスタンスをモニタする。たとえば昨年同社はAWS用のGoogle Analyticsのようなサービスの提供を開始した。そして顧客のAWSの契約全期間にわたる基準的な最適利用量を見つける。また、それを満たすマシンやインスタンスのタイプを判定する。インスタンスの最適な地理的配分も判定する。以上を要約するとNewvemは、AWSと長期契約を結ぶ前の、さまざまな量的質的判断を助ける。

Get Satisfactionのオペレーション担当VP Jonathan Clayによると、CloudCheckrはAWSの利用状況を総合的に見るためのポータルのようなサービスで、リソースの使われ方やその費用などを報告してくれる。また、インスタンスの混み具合や空き具合を見て、最適容量のリコメンデーションもする。予備インスタンス(reserved instances)の確保量に関するリコメンデーションも提供する。総じて、このサービスを利用すると企業は、費用やリソース利用の無駄をチェックでき、またセキュリティのためのベストプラクティスの遵守状態も知ることができる。

CloudCheckrを利用すると、AWSの内部をリソースと費用とセキュリティの側面から検分する作業が楽にできる。AWSを有効に利用しようと思ったら、それらのチェックが欠かせない。ただしAWSの点検管理サービスはほかにもいろいろあるから、ユーザはそれぞれの得意技を、まず調べるべきだ。

CloudChecklrの料金体系は無料から始まる。プロフェッショナルアカウントは月額会員制だ。そしてエンタプライズアカウントはオーダーメイドである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


日本のHapyrusがAmazon Redshiftへのデータロードを自動化するサービスFlyDataを立ち上げ

Hapyrusがこのほど立ち上げたFlyDataは、ペタバイトサイズにまでスケールできるデータウェアハウスサービスAmazon Redshiftへの、データのアップロードとマイグレーションを自動化してくれる。

Amazonの主張では、アナリストたちが今日使っているものと同じSQLベースのビジネスインテリジェンスツールを使って各種サイズのデータセットを分析するとき、Redshiftならクェリのパフォーマンスを高速化できる、という。Hapyrusの協同ファウンダKoichi Fujikawaによると、同社のサービスであるビッグデータルータを使用すると、Redshiftをさらに効果的に利用でき、HadoopとHiveを使うよりもお得である。HadoopとHiveの組み合わせは、データの処理分析環境として、これまで多くの人に高く評価されてきた。

FlyDataはバックグラウンドで動き、データをRedshiftに運ぶ。Fujikawaによると、HapyrusはAWS上に仮想プライベートクラウドをセットアップする。顧客は自分の仮想プライベートネットワークをそれに統合してデータを転送する。

Hapyrusは、InformaticaやTalendなどと競合する。現在はAWSとの統合がメインだが、今後はさまざまなソースのデータを統合できるようになる。Fujikawaの説明では、InformaticaやTalendは大企業の、主にオンプレミスのシステム向けに、複雑なデータ統合化ソリューションを提供している。しかし、“弊社は、Redshiftのようなクラウド成分に対するデータ統合化サービスを、企業のサイズを問わず提供する。スタートアップでもよいし、比較的大きな企業でもよい”、と彼は語った。

Fujikawaによると、RedshiftはHadoop+Hiveよりも10倍速くできる。H+Hの顧客たちは、毎日行う日常的なデータ処理をもっと高速に行える代替製品を求めている。H+Hを使っていると、クェリの時間と費用が大きな経営妨害要因として彼らの前に立ちはだかる。

しかし、Redshiftそのものにも複雑性はある。それについてルームレンタルのAirbnbは次のように語る:

まず、Redshiftにロードするデータは、すでにS3やDynamo DBの中にある必要がある。デフォルトのデータロードはシングルスレッドなので、相当長時間かかることもある。データを分割してパラレルでロードすると速いことをわれわれは見つけた。

Airbnbのナード的なブログには、Hadoopにある機能がRedshiftにない、と書かれている。しかしRedshiftはデータアナリストたちに好まれているため、もっぱらそれだけを使っている場合が多い。Airbnbのブログ記事は最後の方で、RedshiftとHadoopは意外と互換性が高いのではないか、とも書いている。

しかしDrawn to Scaleの協同ファウンダBradford Stephensは、“RedshiftはデータウェアハウスだからVerticaやGreenplum、AsterData、Impala、Hadapt、CitusDataなどと比較すべきだ”、と言っている。“Hadoopとは全然違うものだ”、と。

スタートアップたちの売上や利益は大企業に比べると微々たるものだが、しかしときにはHapyrusのような企業が出現して、Amazon Web Servicesの新しい使い方によって、独自の顧客ベースを堅実に築いていく。ビジネスの一件々々の額は小さくても、その技術力はユニークで高い。

Hapyrusは500 Startupsの育成企業で、DeNA(年商40億ドルのインターネット企業)の協同ファウンダShogo Kawadaなど高名な日本のエンジェル投資家たちから、エンジェル資金を獲得している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Amazon Web Services(AWS)が専用ハードウェアによるセキュリティサービスCloudHSMを開始

Amazonが今日(米国時間3/1)、CloudHSMのローンチを発表した。この新しいサービス はAmazon Web Services(AWS)のユーザに、専用のハードウェアモジュール(Hardware Security Module, CloudHSMの’HSM’)よるデータセキュリティを提供する。セキュリティに関して企業内的、契約条件的、あるいは法制的なコンプライアンス要件を抱えるユーザを、対象としている。Amazonの主張によると、これまで、クラウドサービスを利用する企業の唯一のオプションは、機密データやその暗号キーを自社所有のオンプレミスのデータセンターに保存することだった。当然これによって、アプリケーションをクラウドへ全面的に移行させることが困難になる。

Amazonの説明によると、今回の新しいサービスを利用することが適している分野は、“データベースの暗号化、DRM(Digital Rights Management)、認証や本人証明におけるPKI(Public Key Infrastructure)、署名入りドキュメント、支払などのトランザクション処理、などなどである。そのハードウェアの実体は、SafeNet, Inc.製のLuna SAモジュールだ。

CloudHSMサービスはAmazonのVirtual Private Cloud(VPC)を利用し*、ハードウェアはユーザのVPC内に配備され、ユーザが指定したIPアドレスを持つ。Amazonによるとこのサービスは企業にキーストレージを提供し、それらのキーを、“暗号モジュールの国際的規格(Common Criteria EAL4+)と合衆国規格(NIST FIPS 140-2)に準拠する、不正操作耐性のあるHSMアプライアンス”により、保護する。〔*: 関連記事。〕

HSMはユーザのEC2インスタンスの近くに置かれるので、ネットワーク起因のレイテンシはきわめて低いはずだ。

ただしこれは、お安いサービスではない。まず、配備費用(前払い)が5000ドル、そして使用料は1時間1ドル88セント(月額約1373ドル)だ。これぐらいの高度なセキュリティを必要とする企業にとってはたいした額ではないかもしれないが、暗号キーやデータを安全に保存したいと単純に願うスタートアップ向きではない。HSMのクライアントソフトウェアは複数のCloudHSMにまたがってリクエストのロードバランシング(負荷均衡化)を行うが、Amazonによると複数配備には“数週間を要する”そうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


もはや自前で仮想化は古い?, AWSがEC2の仮想プライベートクラウドをレディメイドで提供

amazon-web-services-copie

Amazon Web Services(AWS)がこれから提供するオプションにより、AWSのユーザなら誰でも、自分の仮想プライベートクラウド(virtual private cloud, VPC)を持てる。VPCは、ユーザが利用するEC2のインスタンスの一つのタイプになる。これまでVPCは、別サービスとして提供されていた。

VPCを使って顧客ができることは、AWSの言葉によると、“論理的に隔離されたEC2のインスタンス群の仮想ネットワークで、それに顧客自身のデータセンターからVPNで接続することも可能”、というものだ。これは、物理的なセンター群を仮想化して自前のエラスティックなインフラを作る、データセンター中心型の方式の再検討を顧客に迫る。自前主義は、ソフトウェアのライセンス、ハードウェアの費用、システムを管理するITスタッフ、といったコストの問題に帰着する。VMwareなどはこういう、‘仮想化はユーザ各社がやれ’という主義を広めてきた。仮想化技術が売りだから、当然だが。

AWSのやり方は、違う。顧客に、AWSの低コストと柔軟性というアドバンテージを与えつつ、今顧客が使っているインフラをそのまま使えるようにするのだ(下図)。

VPC_Diagram

顧客が使うEC2インスタンスは、”EC2-VPC”プラットホームと呼ぶものの中へローンチする。この機能はリージョンごとに展開され、最初はアジア太平洋(シドニー)と南アメリカ(サンパウロ)だ。展開は数週間後に始まる。

その処理は自動化されるので、顧客自身がVPCを前もって作るという作業はない。むしろAWSによれば、顧客はこれまで(EC2-Classic)と同じく、単純にEC2のインスタンスを立ち上げ、Elastic Load BalancersやRDSデータベース、ElastiCacheのクラスターなどを配備(プロビジョン)するだけだ。するとVPCが、特別の課金を伴わずに作られる。

ここから顧客は、一つのインスタンスに複数のIPアドレスを割り当てる、セキュリティグループの帰属関係を平常稼働を妨げずに行う、セキュリティグループに外部フィルタを加えるなど、仮想化特有の機能を利用できるようになる。

AWSによると、VPCでは既存のシェルスクリプトをそのまま使え、CloudFormationのテンプレート、AWSのElastic Beanstalkアプリケーション、Auto Scalingによる構成なども、従来どおりに使える。

VPC機能が使えるのは、AWSの新規顧客と、既存の顧客だがそのリージョンでインスタンスをローンチするのは初めて、という顧客だ。

“エンタプライズ市場は過去12〜18か月で様変わりし、CIOたちはクラウドコンピューティングを受容するようになった”、SXSWのステージでそう語るのは、NEA VenturesのゼネラルパートナーScott Sandellだ。それは何を意味するのか? 彼によると、データセンターに関するこれまでのエンタプライズ技術がすべて陳腐化する、というのだ。AWSの今回の動きも、このような市場のシフトに対応するものであり、それは、インフラに自前で高価な投資をすることに比べて、クラウドを有効利用するサービスのほうが価値が高い、と暗に示唆している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、 EC2のさらなる料金値下げでクラウド・コンピューティングのライバルに攻勢

AmazonはライバルのGoogle Compute EngineWindows Azureなどのエンタープライズ・クラウド・プラットフォームに対抗するためにさらに賭け金を競り上げてきた。

今日(米国時間3/5)、Amazon WebServicesはEC2の予約インスタンス(Linux/UNIX、Red Hat Enterprise Linux、SUSE Linux EnterpriseServer)の料金を最大で27%値下げすると発表した。これによりオンデマンドのインスタンスに比べると最高65%安くなる計算だ。この動きはAmazonがスケールにものを言わせてギリギリまで利益を削っていく姿勢をさらに強めたことを意味する。

われわれのAlex Williamsが最近書いたとおり、Amazonのエンタープライズ・サービスのビジネスモデルは(実はAmazonの消費者向けサービスも同様だが)、利益率を限界まで低くして、その代わりに規模の拡大を狙う。Amazonは2006年にエンタープライズ・サービスを開始して以来、2012年の12月までに23回も値下げをしている。

今回の値下げの内訳は以下のとおり。

Screen Shot 2013-03-05 at 14.29.41

AmazonのJeff Barrはブログ記事で、値下げは今日(3月5日)以降の購入について有効となる」と書いている。また購入のガイドラインとして「サーバの稼働率が15%以下のユーザーはオンデマンドのインスタンスを利用するほうがよい。15%から40%ならLight Utilization予約インスタンス、40%から80%ならMedium、それ以上の稼働率ならHeavyを契約すべきだ」と助言している。

今回の値下げはAmazonがAWSサービスを多様化させようとする努力の一環でもある。去年限定的に公開したRedshiftデータウェアハウス・サービスを最近、全世界に展開している。また今月に入ってから無料の(自動)コンサルティング・サービス、AWS Trusted Advisorをリリースした。これはAmazonが自社サービスのユーザーの利用状況をビッグデータとして分析し、特定のユーザーに対して料金節約やパフォーマンス向上のアドバイスを提供するというものだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+

AWS(Amazon Web Services)がメッセージングとノーティフィケーション(通知)APIを値下げ

aws-logo-640

Amazon Web Servicesがまた値下げをした。今回の値下げ対象は、二つのサービス: Simple Queue Service(SQS)と、Amazon Simple Notification Service(SNS)だ。

SQSは、複数のコンピュータ間を行き来するメッセージを保存するための、スケーラブルなキューを提供する。アプリケーションの各部位が分散しているとき、このようなメッセージングシステムによってお互いが正しく協調〜シンクしながら動くことができる。各部位そのものに、いちいち直接アクセスする必要がない。したがって、SQSを利用するとワークフローの自動化が容易にできる。デベロッパは、Amazon Elastic Compute Cloud(Amazon EC2)とAWSのそのほかのインフラ的Webサービスとの正しい連動を確保できる。

SNSは、クラウドからの通知をセットアップし、操作し、送り出す。この通知処理により、アプリケーションからのメッセージをパブリッシュする、サブスクライバーたちやほかのアプリケーションに配布する、などのことができる。それは、Web上のコンピューティングをより容易にするための便宜の一つだ。

値下げの概要は以下のとおり:

  • SQS APIは50%値下げ、100万リクエストあたり50セントとなる。
  • SNS APIは17%値下げ、100万リクエストあたり50セントとなる。
  • SQSとSNSの無料層が拡大され、各月リクエスト100万までとなる。これまでの10万を一挙に10倍。

値下げの発効は明日(米国時間3/1)から。GovCloud(US)を除くAWSの全リージョンに適用される。

値下げは、このところのAWSの基本戦略の一環だ。この前はS3ストレージが値下げされた。AWSのその戦略は、いわゆる薄利多売だ。サーバ(サービス)のスケールが大きくなれば 、提供単価を安くできる。またボリュームディスカウントと提供コンピューティングパワーの拡大により、顧客に最適能力を提供できる。同時にAWS側の余裕も拡大し、ふたたび値下げが可能になる。そんな“善循環”をAmazonはねらっている。

値下げは、競争の激化のたまものでもある。Google Compute Engine(GCE)と、デベロッパたちに好評なWindows Azureも、共に値下げを繰り返している。オープンソースのOpenStackも、今後ますます、そのインフラストラクチャの可利用性を高めるだろう。だから、競争の激化はこれから加速する一方だ。値下げは、サービスの価値を高める重要な要素の一つになる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWS、OpsWorksをリリース―Chefと連動してアプリ公開のライフサイクルをクラウド上で効率化する画期的サービス

amazon-web-services-copie

AWS(Amazon Web Services)はトラフィックの規模に応じて自由にスケールさせながらアプリの配信を管理するOpsWorksOpsWorksという新サービスをスタートさせた。

より興味が持たれるのは、新しく生まれつつ在るPasS(Platform as a Service)分野に破壊的革新をもたらす可能性があることだ。DevOps〔開発者が同時に運用者であるシステム〕の運用管理ツールの分野ではChefとPuppetが激しく競争しているが、そのインフラは次第に複雑さを増している。

プレスリリースによると、このサービスはリソース・プロビジョニング、コンフィグレーション管理、アプリケーション公開、ソフトウェアのアップデート、利用状況のモニタとアクセス管理などを含めたアプリの全ライフサイクルを管理するという。AmazonのCTO、Werner Vogelsによれば、AWS OpsWorksはベルリンのPeritor社(Scalariumの開発元で、AWSが2012年に買収)の開発によるものだという。

OpsWorksはデベロッパーに多層のレイヤーを提供する。レイヤーはデベロッパーが公開しようとする各種のAWSインスタンスの設計図の役割を果たす。レイヤーは特定のインスタンスのコンフィグレーションを設定したり、関連するAWSのリソース、たとえばElastic IPアドレスを取得したりするのに用いられる。デベロッパーはこれによってAWSのクラウド環境を容易に動的に管理できる。新サービスはRuby、PHP、HAProxy、Memcached、MySQLをサポートしている。さらにデベロッパーカスタム・レイヤーを開発して利用することができる。OpsWorksはChefと連動しており、必要に応じて特定のイベントに関連づけられたChefのレシピ〔運用自動化のスクリプト〕を呼び出すことが可能だという。

デベロッパーはOpsWorksは異なるレイヤーに自由にインスタンスを割り当てることができる。.

またOpsWorksではあらゆる面で処理の自動化が図られている。たとえばこのサービスはアプリの定義して公開する。デベロッパーはOpsWorksにソースコードの場所を教えておくだけで、後はこのサービスがデータベースのコンフィグレーションなどの作業を自動的に進めてくれる。

OpsWorksは非常に大きな影響を与える可能性がある。Hacker Newsのコメント欄にもあったが、Herokuを置き換える可能性もある。またOpsWorksがChefと連動する点については、Puppetに与える影響が注目される。

いずれにせよ、PaaS/DevOps市場は急速な拡大、進歩を続けており、OpsWorksの出現でアプリの公開管理の自動化とスピードアップはいっそう進むことになるだろう。

[原文へ]

(翻訳:滑川海彦 Facebook Google+

企業のローカルネットワーク(LAN)をクラウド上に作れるPertino–もうハードウェアは要らない

Pertino

Pertinoが今日立ち上げたサービスを利用すると、中小企業などが自社のローカルネットワークを、ハードウェアもケーブルもいっさい使わず、完全にクラウド上に構築できる。

PertinoはAmazon Web Service(AWS)を使ってそのサービスを提供し、ユーザである企業はその上にセキュアなネットワークを大小を問わず作ることができる。かつて、そのようなネットワークを作るためには、高価なネットワーク機器に一財産を投じなければならなかった。今ではPertinoが、世界中にあるAWSのデータセンターでソフトウェアを動かすことによって、それを提供する。

Pertinoのサービスにログインした顧客は、適正なネットワークを構成するデータプレーンに接続することになる。それにより顧客企業は、社内的なネットワークをセットアップしてもよいし、あるいは契約企業や契約技術者たちとの一時的なネットワークを作ってもよい。そのネットワークの上では、ファイルの共有やリモートデスクトップサービスなども提供できる。ネットワークの規模の拡大〜縮小や高速化などの維持管理業務は、“software defined networking (SDN)”(ソフトウェア定義ネットワーク)によって行われる。

pertinoexplanation

SDNはいわば、ハードウェア上に構築されるネットワークのもろもろの機能をラップして抽象化するソフトウェアの層だ。ユーザはもはやハードウェアを操作せず、そのソフトウェアをネットワーキング装置として利用し操作する。SDNは、エンタプライズ市場に今起きていることを象徴している。ソフトウェアがハードウェアをリプレースして、新しいサービスを、顧客がハードウェアを直接購入していたときよりも安価に、かつよりベターに提供するのだ。今はどの業界にも、この変化が起きつつある。たとえば消費者はもはや、自分で店へ行ってビデオを借りない。自分でDVR機器を持たない。ビデオはすべて、Netflixがストリーミングしてくれる。消費者のところでディスクが陳腐化するように、企業がCisco、Juniperといった企業から買っていた高価なネットワーキング機器も陳腐化する。

pertinoexaplanation2

Pertinoは今非公開ベータだが、すでにそのソフトウェアを世界中のデータセンターにインストールしている。まだデータセンターの世界的な遍在という状況がなかった3年前には、同社のようなサービスは不可能だっただろう。最近の2年間でAWSは、シドニー、東京、サンパウロ、北米北西部地域などにデータセンターを開いてきた。そのデータセンターネットワークは、今ではほとんどグローバルだ。アフリカが、まだ弱い。そこでPertinoは、AWSで間に合わない部分をほかのデータセンターで補うつもりだ。

Pertinoは、今雨後の筍し始めているSDN企業の一翼だ。Big Switch NetworksやVMwareが買収したNiciraなどは、それまでCitrixやCiscoなどのベンダが支配していたエンタプライズ市場を、徐々に横取りし始めている。しかし今現在は、SDN企業の多くが顧客企業のデータセンターを利用してSDNのインフラストラクチャを構築している。Pertinoは、それをすべてクラウドでやろうとする…主なターゲットはネットワーキングに大金を投じられない小企業だ。その料金は、人員3名/使用機器3台までが無料、その後利用者が一人増えるたびに10ドルが課金される。Aerohive や、Ciscoが買収したMerakiもクラウドネットワーキングを提供しているが、それらはWiFiのアクセスポイントとコントローラを使う。

ただし、今のPertinoには制約があって、対応ユーザ機器はWindows 7搭載機のみ、モバイルのサポートはない。今年の終わりごろまでには、互換機をもっと広げるそうだ。

Pertinoは、ソフトウェアがハードウェアをリプレースするというディスラプトの好例で、これからの中小企業は、Ciscoなどから高価な機械装置を買わなくても堅牢なネットワークを構築できるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))