Google CloudでMemcachedが使えるようになった

GoogleはこのほどMemorystore for Memcachedのベータ版を公開した。GoogleのMemorystoreサービスは高速性が必要とされる大規模データベースなどをクラウドのインメモリで作動させるのに適しているが、ここでMemcachedがフルマネージドで利用できるようになった。これは複数サーバのメモリを統合して利用するためのオープンソースのプロトコルで、2018年にGoogleがスタートさせたRedis向けインメモリデータストアサービスに含まれることになる。

米国時間4月3日の発表でMemorystoreのプロダクトマネージャー、Gopal Ashok(ゴパル・アショク)氏は「Redisは今後もセッションストア、ゲームのリーダーボード、ストリーミング分析、マルウェアの脅威検出、APIレート制限などのユースケースで引き続き人気ある選択肢だろう。現在、Memcachedはデータベースのキャッシュのレイヤーとして頻繁に利用されている。デベロッパーはMemcachedをセッションストアにもよく用いている。我々の新サービスを利用すれば、インスタンスごとにメモリのクラスターのサイズを最大を5TBまで拡張できる」と述べている。

このサービスは名称のとおり、オープンソースのMemcachedと完全に互換性がある。従ってデベロッパーはコードに手を加えることなくMemcachedプロトコルを利用した既存のアプリケーションをGoogle CloudのMemechacedプラットフォームで運用することができる。

フルマネージドサービスなので作動のモニタ、パッチの適用などの定型業務はすべてGoogleが処理する。最大キャッシュサイズを決める部分にはやや職人技が残るが、Google Cloudでは「詳細な統計を提供するのでデベロッパーはインスタンスの大きさを上下させ、実行するユースケースに対して最適なキャッシュサイズを容易に設定できる」としている。Googleが提供するモニタ情報は Cloud Monitoringによって測定される。これはGoogle Cloudの中心的ダッシュボードであると同時にAWSの動作も計測できるという。

現在、Memorystore for Memcachedは Compute Engine、Google Kubernetes Engine(GKE)、App Engine Flex、App Engine Standard、Cloud Functionsで実行されるアプリケーションに使用できる。

Memcachedの利用に関しては、AWSがElastiCache for Memcachedで同種のサービスを提供している。またMemCachierなどこのプラットフォームの利用を専門とするスタートアップがある。Redis Labsも、フルマネージドのMemcachedサービス、Memcached Cloudを提供している。このサービスはAWS、Azure、Google Cloudで実行できる。

画像クレジット:Krisztian Bocsi/Bloomberg/Getty Images(Googleのベルリンオフィス)

原文へ

(翻訳:滑川海彦@Facebook

ML/AIプラットホームのVizion.aiがマネージドElasticsearchサービスを立ち上げ

オープンソースの分散検索エンジンのElasticsearchは、今や大小さまざまな多くの企業が自社の分散検索とアナリティクスを実装するために利用している。そのセットアップはそれほど困難ではないが、難しいのはリソースの最適プロビジョニングだ。特にユーザーの要求にスパイクがあるアプリケーションでは無駄のないリソース確保が難しい。そこで、Elasticsearchを管理を伴うクラウドサービスElasticsearch Serviceとして提供するVizion.aiは、その心配を解消し、ユーザーが実際に使ったインフラストラクチャにのみ課金する。

Vizion.aiのサービスは、必要に応じて自動的にスケールアップ・ダウンする。そのマネージドサービスとして提供されるSaaSプラットホームはプライベートとパブリック両様のクラウドデプロイをサポートし、Elasticの標準的スタックとの完全なAPI互換性がある。また標準のツールとして、データ視覚化のKibanaや、データをサービスに送るBeats、入力データを変換してデータパイプラインをセットアップするLogstashなど、Elasticsearchの標準のツールも含まれている。例えばーザーは、テスト用や開発用に複数のスタックを容易に作ることができる。

Vizion.aiのGeoff Tudor氏

Vision.aiのバイスプレジデントでゼネラルマネージャーのGeoff Tudor氏は、次のように語る。「AWSのElacticsearchサービスを使おうとすると、選択肢の数が多すぎて途方に暮れてしまう。インスタンスのサイズはどれにするか?、インスタンスはいくつ必要か?、地理的冗長性は必要か?、どんなネットワーキングを使うのか?、セキュリティはどうか?、などなど。選択を間違えると全体的なパフォーマンスに影響が及ぶ。弊社では、インフラストラクチャのレイヤの背後でリソースの均衡化を動的に行う」。

そのためにこのサービスはユーザーの利用パターンを見て、そのユースケースに合った最適なリソース割り当てを行う。実はVizion.aiの親会社Panzuraはエンタープライズ向けのマルチクラウドストレージサービスで、データのキャッシングに関する多くのパテントを持っている。今度の新しいElasticsearchサービスは、それらの技術を利用してリソースの最適割り当てを行う。

Tudor氏も認めるように、Elasticsearchの商用サービスはほかにもある。それらと、Vizion.aiの新しいサービスとの差別化要因は、事前にメタデータ用のストレージのサイズを決めなくてもよいこと、そして高価なSSDを大量に使わないことだ。PanzuraのIPを利用できるVision.aiは、最近のデータだけをSSDにキャッシュし、そのほかは安価なオブジェクトストレージのプールに収める。

さらに彼によると、Vizion.aiはAIやMLのワークロードを動かす総合的なサービスであり、Elasticsearchサービスはその構成成分のひとつだ。TensorFlowやPredictionIOのサポートも、目下準備中だ。とくにPredictionIOは、Elasticsearchと併用しやすい。「今後これを、マルチクラウドによる使いやすいサーバーレスのML/AIサービスにしていきたい。しかもうちでは、提供するのはコンピュート(計算処理)だけではなく、レコードのストレージも非常に高いコスパで利用できる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

GoogleのCloud Memorystore for Redisが一般公開、ミリ秒以下のレスポンスを約束

Googleは今日(米国時間9/19)、5か月の公開ベータを経たCloud Memorystore for Redisを一般公開した。それは、完全な管理を伴うインメモリのデータストアだ。

このサービスはRedisプロトコルに完全に準拠していて、インメモリのキャッシングを必要とするアプリケーションにミリ秒以下のレスポンスを約束する。そしてRedis準拠なので、デベロッパーは自分のアプリケーションをコードをどこも変えずにこのサービスへマイグレートできる。

Cloud Memorystoreには二つのサービスティアがある。シンプルなキャッシング用のベーシックと、高可用性のRedisインスタンスを必要とするユーザーのためのスタンダードだ。スタンダードではGoogleは、99.9%可用性のSLAを提供している。

最初にベータでローンチして以来Googleは、このサービスにできることを徐々に増やしてきた。たとえば今ではさまざまな性能数値をStackdriverで見ることができる。また、カスタムのIAMロールや、改良されたログ機能も加わった。

課金は時間と容量の従量制で、サービスのレベルや使用するキャパシティによって異なる。完全な料金表がここにある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがEC2の新しい汎用インスタンスM4をローンチ…ネットワーキングを高性能化

dsc05989-1

Amazonは、同社のクラウドコンピューティングサービスEC2の新しいインスタンスタイプを発表するのは木曜日の午後遅くが良い、とどこかの占い師に言われたらしい。そこで同社は今日(米国時間6/11午後4時)、EC2の新しい汎用インスタンスタイプM4のローンチを発表した

この新しいインスタンスは、サイズがlargeから10x largeまで6種類あり(下表)、これまでの汎用インスタンスタイプM3と併用できる。前のM3インスタンスと同様に、新しいM4もデベロッパに、メモリの量と、ネットワーキングのスピードと、処理能力、この三者のバランスを提供することをねらっている。Amazonによると、この新しいインスタンスタイプは、とくに、“リレーショナルでインメモリのデータベースやゲームサーバ、大量キャッシング、バッチ処理、SAPやMicrosoft SharePointなどのビジネスアプリケーションに向いている”。
2015-06-11_1638
M4インスタンスはAmazonのストレージサービスEBS向けに最適化され、プロセッサは同社がEC2のためにチューンナップしたIntel Xeon Haswellが使われる。最大サイズの10x largeは40の仮想CPUと160 GiBのメモリがあり、その大きさは現在のAWSの汎用タイプの中でも群を抜いて最大だ。

またAmazonのJeff Barrによると、M4インスタンスは今後、Amazon独自の高性能ネットワークI/O enhanced networking(従来の4倍のスピード)を使用し、レイテンシの乱高下を抑える。

EC2担当VPのMatt Garmanはこう述べている: “M4インスタンスは当社がカスタム化したIntel Haswellプロセッサと、大型のインスタンスサイズにより、EC2の汎用タイプインスタンスの能力をさらにアップする。またAmazon EBSへの専用帯域とEnhanced Networkingにより、さらに高性能なネットワークパフォーマンスをご提供する。これらの、汎用タイプインスタンスへの適用は、今回が初めてである。これらによりM4は、弊社の最強のインスタンスタイプの一つであり、計算力とメモリとネットワークリソースの均衡を必要とするワークロードのためには最高の選択である”。

現時点でこの新しいインスタンスが可利用なリージョンは: US East(Northern Virginia)、US West(Northern California)、US West(Oregon)、Europe(Ireland)、Europe(Frankfurt)、Asia Pacific(Singapore)、Asia Pacific(Sydney)、Asia Pacific(Tokyo)である。

今日のアップデートに伴ってAmazonは、M3インスタンスと、より処理能力重視のC4インスタンスの料金をいくつかのリージョンでそれぞれ5%下げる。新料金は、オンデマンドインスタンスには6月1日にさかのぼって適用され、リザーヴド(予約)インスタンスには本日から適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa