AWSがメモリが4TBを超える仮想マシンの提供を開始、インメモリデータベースがさっそく食らいつく

数か月前にAmazonのAWSグループは、メモリが4から16TBぐらいのインスタンスタイプを準備している、と述べた。そして今日(米国時間9/14)はついにその約束が実現して、メモリのサイズでは最大のEC2マシンを同社はローンチした。そのx1e.32xlargeインスタンスは、RAMがなんと4.19TBもある。EC2のこれまでで最大のインスタンスは、メモリが2TB強だった。

これらのマシンはクアッドソケットのIntel Xeonプロセッサー(2.3GHz)、最大25Gpsのネットワーク帯域、そして1920GBのSSDを装備する。もちろんこれだけのメモリを必要とするアプリケーションは多くないが、SAPのインメモリデータベースHANAとその各種のツールがこれらのインスタンスで動くことが公式に認定されていて、SAPはこれらのアプリケーションをこのインスタンス上で運用することに関し、直接のサポートを提供する。

これらの新しいインスタンスは目下、AWSの4つのリージョンで利用できる: それらは、US East(Northern Virginia), US West(Oregon), EU(Ireland), そしてAsia Pacific(Tokyo)だ。当然ながらこれらのインスタンスはお安くない。たとえばUS Eastのオンデマンド料金は1時間$26.688、Asia Pacificでは$38.688だ。つまり、AWSのもっとも高価なVMとなる。

ちなみにMicrosoft Azureの最大のメモリ最適化マシンは現在2TB強が最大で、GoogleはRAM 416GBが最大だ〔USのみ〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft Azureにバースト的なワークロードのための新しいVMタイプが登場

Microsoftが今日(米国時間9/11)、同社のクラウドコンピューティングプラットホームAzureの、新しいタイプの仮想マシンをプレビューで発表した。この、バースト的なワークロードに適しているとされる、その名もBシリーズマシンは、今のところもっともローコストなAzureマシンで、CPUの利用度を目的に応じ選べる(下表)。Webサーバーや小規模なデータベース、開発/試験環境などのワークロードに向いているだろう。

このBシリーズのマシンは、バーストできるパフォーマンスを提供するという意味でAWSのT2インスタンスに似ており、仮想CPUのフルパワーを必要としないときは使わないぶんをクレジットとして築ける点でも同じだ。Googleのf1-microとg1-smallのインスタンスも、ほぼ同じだ。マシンがアイドルのときクレジットを蓄えられるから、通常のVMよりも費用を節約できる可能性があり、しかも必要なときには十分なパワーを利用できる。

Microsoftが提供するこのBシリーズマシンには6つのバージョンがあり、いちばん安いのはシングルコアのVMと1GBのメモリで1時間1.2セント、そして最高は8コア32GBのマシンで1時間37.6セントだ。これらはLinuxマシンの場合の料金だが、Windowsマシンの場合は例によってやや高くなる。プレビューの間は、料金はこれらの半額である。

これらの新しいマシンタイプが提供されるのは、最初はアメリカ(West 2, East)、ヨーロッパ(West)、アジア太平洋(Southeast)のゾーンのみだ。プレビュー期間に利用してみたいデベロッパーは、クォータをリクエストする必要がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute EngineはCPUの種類を自由に選べるようになった、メモリは455GBまで使える

GoogleのクラウドコンピューティングサービスCompute Engineが今日(米国時間5/31)アップデートされ、数々の新しい機能が導入されるが、それらはとくに、もっと高性能なプロセッサーを使いたいとか、大量のメモリがほしい、と願っていたユーザーにとって朗報だ。

今日のアップデートはその多くが、Intelの次世代プロセッサーSkylake Xeonの一般供用(最大64コアまで)がベースだ。Skylakeのサポートは2月にベータに入ったが、これからは、Google Cloud Platformの三つのリージョン(Western U.S., Western Europe, Eastern Asia Pacific)でサポートされ、そのほかのリージョンも近日中に対応される。

さらにGoogleは今日64コアのインスタンスとBroadwll CPUのサポートを、すべてのリージョンで可利用にした。

Compute Engineは今やとても多様なIntel系CPUをサポートしているから(Sandy Bridge, Ivy Bridge, Haswell, Broadwell, そしてSkylake)、その中のどれを選ぶかという選択肢をユーザーに与えている。指定は右図のように簡単にできるし、一度指定すると新型機への切り替えは通常のアップデートとして自動的に行われる。

今後60日間は、Skylakeを用いた仮想マシン(VMs)は、古い機種を使うVMと同じ料金となり、そのあとは、古いCPUを使うVMより6-10%高くなる。

このアップデートでCompute Engineのユーザーは、VMインスタンス一つあたり最大455GBのメモリを装着できる。そうするためには、自分だけのカスタムマシンタイプを指定し、その中で拡張メモリオプションを選ぶ。それまでは、メモリと仮想CPUの数のあいだに一定の比率があり、最大が6.5GBだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

大企業のあちこちに転がっている無駄なSaaS契約を掃除するMeta SaaSが$1.5Mを調達

Meta SaaSは、プロダクトの断捨離を手伝ってくれるプロダクトだ。CardlifeCleanshelfなどと同じく、Meta SaaSはユーザー(人や企業)のSaaS契約をすべて調べて、実際に使っているものと、さらに重要なこととして、使ってないものを教えてくれる。

Arlo GilbertとScott Hertelが作ったこのプロダクトは、Mark Cubanがリードし、Barracuda Networks, Capital Factory, Deep Space Ventures, BazaarvoiceのBrett Hurtらが参加したラウンドで150万ドルを調達した。Gilbertはかつて、iOS用の初めてのVoIPプラットホームを作り、HertelはDellのeコマース部門にいた。

同社は今、RetailMeNotをはじめ6社の顧客、計10000名の社員をサポートしている。そして同社が調べることのできるSaaSは、数百万にものぼる。

“うちの顧客は中から大ぐらいの企業が多い。そんな企業は、SaaSのライセンス管理が、大きな経費節減につながるからね。中には、毎年数百万ドルを溝(どぶ)に捨てている企業もある。最近の新しい競合他社は、小企業をターゲットにしてるところが多いけどね”、とHertelは語る。“ほかの競合他社はOktaなどのサードパーティからデータをもらってるところが多い。だからログインを調べるだけだし、ひとつのプラットホームに限定される”。

Gilbertが同社を創ったのは、自分自身がSaaSに無駄金を使いすぎていることに、気づいたからだ。

“2012年にiCallを売って、オフィスをたたもうとしたとき、Salesforce CRMのライセンスが40あることが分かった。社員が20人以上いたことは、ないのにね”、と彼は言う。

このプロダクトは“幽霊IT”を管理する。誰かが買って、忘れてしまったITツールのことだ。売って忘れられることは、SaaSのプロバイダーにとっては好都合だが、企業にとってはおそろしい。Meta SaaSは大企業にSaaSの断捨離サービスを提供する、初めてのプロバイダーのひとつだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

クラウド上で1000 TPUのクラスターをディープラーニングの訓練や推論に使える無料のプログラムをGoogleが外部研究者に提供

Google I/O初日(米国時間5/17)の最後を飾ったのは、研究者たちが無料で同社最先端の機械学習技術を利用できるプログラム、TensorFlow Research Cloudだ。研究者はその上で自分のアプリケーションを動かすことができ、利用にあたって、大学に籍があるなどの資格要件はない。

利用を認められた研究者は、クラウド上の1000 TPUのクラスターにアクセスして訓練や推論処理を実行できる。TPUは、1基の性能が180TFLOPSで、64GBのメモリを自分で持つ。使える時間は、承認されたプロジェクトによって異なる。

承認の条件のひとつは、その研究プロジェクトの詳細が他の研究者によるレビューの可能なメディア上に一般公開され、コードがオープンソースであることだ。公開はまずい、というプロジェクト用にGoogleは、民間企業が社内的に利用できるCloud TPU Alphaというプログラムを準備中だ。

申し込みはまだ完全オープンではないが、Googleに問い合わせれば、記入すべきフォームを指示される。そこに、訓練集合の大きさとか、モデルの訓練に要する時間、モデルの訓練に使用したいプラットホーム、使用するハードウェア、などを記入する。

審査は段階的に行われ、落ちた人はまた新しいプロジェクトで再挑戦するよう、Googleは奨励している。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の体験と学習を民主化・大衆化したいPaperspaceがY Combinatorらに支えられてGPU VMを導入

Amazon, Microsoft, Googleの三社とあえて同時にたたかう企業はめったにないが、でも弱冠3歳のPaperspaceは、データサイエンティストを優遇することによってクラウドコンピューティングのニッチを開拓できる、と考えている。今日(米国時間5/3)同社は、Nvidia Pascal GPUを使用する仮想マシンを立ち上げた。そこには機械学習のフレームワークがすでにインストールされており、Paperspaceはプロシューマーや熱心なデータサイエンティストたちから成る新興市場にも対応しようとしている。

“Amazon Web Services(AWS)は素晴らしいけど、気軽に手を出せない”、とPaperspaceの協同ファウンダーDillon Erbは言う。

クラウド上の機械学習を、もっと、とっつきやすいものにするために、PaperspaceはユーザーのWebブラウザー上に、彼らが日常使い慣れているLinuxのデスクトップを提供する。そこから誰もが、安全なシェルや端末を使ってコードを実装できる。インタフェイスはWeb、ハードウェアはGPU、そしてPaperspaceは、2560 CUDAコアのPascalチップと16GBのメモリを1時間65セントという低料金で提供する。

“この1年半ぐらいで、GPUを要望する人が急に増えてきたね”、とErbは述べる。

このような、民主化された機械学習の市場サイズが、どれぐらい大きいのか小さいのか。それはまだPaperspaceにも分からないが、同社のユーザーたちがローンチした仮想マシンは5万を超えている。かなりの需要があることは確かだが、まだ同社としてはきわめて初期的な段階だ。

クラウドから機械学習を提供する、いわゆる、サービスとしての機械学習(Machine learning as a service, MLaaS)のスタートアップは、このところあまり人気がない。理由はいろいろあるが、そのひとつは、高度な技術を持っているエンジニアたちの市場と、開発過程を初心者のために単純化するプロダクトとのあいだに、ミスマッチがあることだ。

PaperspaceをBonsaiH2O.aiなどと同列に扱うことはできないが、それでも上記のたとえは当てはまる。すでに大企業を顧客として抱えている既存のクラウドコンピューティングサービスも、今後ますます民主化へ向かうだろう。だから機械学習プラットホームの民主化は、必ずしも処女市場ではない。しかもデータセンターをスクラッチで(ゼロから)立ち上げアップグレードしていく費用は、膨大である。

Y Combinatorとニューヨーク大学、そしてInsight Data Scienceが、Paperspaceの初期からのパートナーだ。GPUを使う同社の新しい仮想マシンは、Insightが専門技術者の教育訓練に利用する。YCも同社のシンプルで使いやすいシステムを、今後のAIスタートアップの育成事業に利用するために、今実験を行っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AmazonがM4インスタンスと一部のリザーブドインスタンスの料金を値下げ、ますます分かりづらい料金体系に

Amazonのクラウドコンピューティング部門AWSが今日(米国時間5/3)、再び、一部のリザーブドインスタンス(予約インスタンス)とM4汎用インスタンスの料金を下げた。それらリザーブドインスタンスの料金は最大で17%下がり、3年予約のコンバーティブルリザーブドインスタンスは21%下がる。

AWSの料金体系は完全に透明だが、現時点では、分かりやすいとはとうてい言えない。

たとえば今回のアップデートでは、同社は単純に料金を下げるだけでなく、3年の標準リザーブドインスタンスに関しては、前払いなしという新しいオプションを導入する。これまでの唯一のオプションは1年予約だが、これからは3年予約でC4, M4, R4, P2, X1, およびT2のインスタンスが大幅値下げになる。ちなみに、これらのインスタンス名の意味をご存知の方は、きっとAWSで働いている方に違いない。

前払いなしの1年と3年のリザーブドインスタンスでは、最大17%の値下げになる。さらにややこしいことに、頭金制や契約時全額前払いのインスタンスでは、値下げ率が異なる。ただし値下げ率は、インスタンスを使うリージョンによって違う。17%の値下げは、シンガポールで使うLinuxインスタンスに適用される。そのほかのリージョンでは、11から16%のあいだだ。

コンバーティブルリザーブドインスタンス(契約期間中にインスタンスの種類を変えられるリザーブドインスタンス)では、最大21%という大きな値下げ幅になる(これもシンガポール・リージョン)。しかしそのほかは、インスタンスタイプによって5から19%の値下げ幅だ。

これらに加えて、AWSのもっとも現代的な汎用マシンであるM4インスタンスは、一律に7%値下げされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMが教育スタートアップGalvanizeと共同でWatson APIの機械学習アプリケーションへの応用を教える

IBMは同社の今年のInterConnectカンファレンスで、機械学習の学習コースを発表した。それは、スタートアップの卵たちにワークスペースと教育を提供しているGalvanizeとの提携事業で、主にWatsonのAPIの使い方を教えていく。それらのAPIを利用すれば、言葉や音声や視像(画像や映像)の認識に依存するアプリケーションの構築が、容易にできるようになる。

そのコースはIBM Cognitive Courseという、なんか冴えない名前だが、4週間で機械学習の基礎とWatsonで何ができるかを教える。生徒はそのクラスに、IBMのクラウドプラットホームBluemixからアクセスする。

IBMでWatsonとIBM Cloudを担当しているCTOのBryson Koehlerはこう言う: “WatsonのAPIで何ができるのか、知らない人もいる。Watsonのエキスパート、と呼べるほどの技術者は、まだとても少ない”。

コースを補助するリアルなワークショップ、題してBuilder Fairsが、Austin, Denver, New York, San Francisco, Seattle, Bostonの各都市で行われる。また、ハッカソンや個別面談(“オフィスアワー”)などのイベントBuilder Spacesも予定されている。

“ワークショップがあることは、この学習ではきわめて重要だ”、とは語る。“実用アプリケーションを作れるためには、実物体験が欠かせないからね”。

Galvanizeは過去にいろんなコースを展開した経験があり、そのために技術者たちのコミュニティができている。最初のBuilder Spaceは、今行われているInterConnectカンファレンスがその会場になる。

クラウドコンピューティングを提供している各社はこのところ、デベロッパーへの訴求に熱心だ。デベロッパーというより、これから人生で初めてプログラミングをする、という超初心者も対象にし始めている。IBMは、Galvanizeとのパートナーシップで、最初からいきなり技術者たちの大きなコミュニティに訴求できる。この前GoogleがKaggleを買収したのも、同じねらいだ。コミュニティの人数はもっと多い。

クラウド上のデベロッパー向け学習リソースは、AWSにも、AzureやGoogle Cloudにもある。たとえばGoogleはUdacityと組んで、ディープラーニングの3か月コースを提供している…こちらはもちろんWatsonではなくTensorFlowが中心だ。

IBMには前から、Galvanizeとの関係がある。GalvanizeのデータサイエンスのディレクターNir Kalderoは、2017年のIBM Analytics Championに指名された。昨年の秋に両社共同で、企業役員のためのデータサイエンス教育を催している。また昨年初めには、両社でエンタープライズ顧客のためのBluemix Academyを開催した。Galvanize単独では、IBMのクラウドプラットホームのプロモーションのために、サンフランシスコでBluemix “Garage”を行った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが多様なツールを用意してクラウド上のデータ操作/データ処理を助ける

今日(米国時間3/9)のCloud NextカンファレンスのステージでGoogleは、データの準備や統合化を助ける一連のツールを発表した。いずれも、Google Cloudの企業利用をより強力かつ敏速にするためのアップデートだ。

まず紹介されたのがGoogle Cloud Dataprepの非公開ベータ。その名のとおり、データ(data)を視覚化のために準備(preparation)する。このツールには、異状検出機能があり、機械学習を利用して通常と異なる形のデータをユーザーに告げてデータのクォリティーを改善する。

誰にも使いやすいツールにするために、すっきりとしたインタフェイスに留意している。多くのコントロールが、ドラッグ&ドロップでできる。DataprepはGCP(Google Cloud Platform)への統合化に向けて最適化されており、Google Cloud Dataflow中のパイプラインを作ることによって、容易にBigQueryへデータをフィードできるようにしている。

今日は、BigQueryも強調された。新たにBigQuery Data Transfer Serviceというサービスを立ち上げて、複数のデータソースからのデータのマージを単純化する。既存の商用データセット、Xignite, HouseCanary, Remind, AccuWeather, Dow Jonesなどを最初からサポートしている。

ユーザーがTableauのような視覚化サービスを利用するときは、データをシームレスに準備して分析結果を表示できる。BigQueryは大規模プロジェクトのためにCloud Bigtableを今後サポートするから、データをいちいちコピーして移送する手間もなくなる。

Googleのクラウドプラットホーム担当VC Brian Stevensはこう語る: “マーケティングのチームがマーケティングに関するデータ分析をGCP上できわめて容易にできるようにした”。

Cloud Dataflowには、PythonによるSDKが広く提供される。これまでのJavaを超えて、コミュニティがさらに拡大するだろう。

ワークフローツールCloud Datalabも、今度から一般提供される。デベロッパーは、ノートブック環境Jupyterと標準のSQLを使って、データ分析ができる。TensorFlowとScikit-learnもサポートされる。バッチとストリーム処理はCloud DataflowやApache Spark + Cloud Dataprocでできる。またCloud DataflowのためのStackdriver Monitoringはベータへ移行し、GCPやAWSがホストするアプリケーションのモニタリングや診断を行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

企業のクラウド環境をモニタしてリソース等の最適化を行うYotaScaleが$3.6Mを調達

Vector high tech internet data center. Network equipment that is used to organize the server room

エンタープライズ指向のアクセラレータAlchemistを卒業したYotaScaleが、360万ドルのベンチャー資金の調達を発表した。そのラウンドに参加した投資家は、Engineering Capital, Pelion Ventures, およびエンジェルのJocelyn Goldfein, Timothy Chou, そしてRobert Dykesだ。同社は機械学習を利用して、企業のクラウドコンピューティングの実行性能(パフォーマンス)や可用性、費用などの最適化を図る。同社と競合するCloudHealth TechnologiesCloudabilityも、この今や熱い市場で、合わせて8000万ドルの資金を獲得している。

クラウドコンピューティングは、今やどの産業でも事業の不可欠な要素になりつつあるが、しかしイノベーションが急速なので、インフラの進化に適切に付き合っていくのが難しい。その責任を人間に丸投げするのではなく、YotaScaleはクラウドインフラの実行性能管理そのものを自動化する。

同社は、きわめて多面的で複雑なクラウドデータを絶えず精査して、顧客企業のインフラストラクチャがその重要な事業的プライオリティに向けて確実に最適化されている状態を保つ。プライオリティは、費用の最小化などシンプルなものもあれば、目標の異なる複数のプロジェクトが関与する複雑な動的構造のこともある。

“機械の稼働率が低い、などの単純なことなら人間にも分かるし、一部の機械を止めればすむことだ”、とYotaScaleのCEO Asim Razzaqは語る。

Razzaqのシステムは、クラウドの利用データに課金とログのデータを結びつける。その複合データが、ベースラインと対照して異状を検出するための基盤になる。大量のデータではない、と思われるかもしれないが、リソースの消費やCPUの利用状態などの稼働状況を外挿するには十分なのだ。

むしろ、異状検出で難しいのは‘正常’の定義だ。何が正常かは、状況によって千差万別だからだ。分かりやすい例としては、CPUの利用がスパイクしても、それがブラックフライデーのeコマースなら全然異常ではない。そこでYotaScaleは履歴データにだけこだわるのではなく、今後の見通しも重視する。それによって、状況によるデータの浮動も理解できるようになる。変化が見られたら、それらにいちいちフラグをつけるのではなく、パフォーマンスの見通しと実態を突き合わせる。

クラウドインフラストラクチャのデータは、さまざまなタイプのデータがさまざまな時間間隔で生成される。毎時というものもあれば、毎日、というものもある。それらの違いを正確に見極めながら最適化を図る作業が、非常に難しい。アンサンブル学習という機械学習のテクニックを利用して分析の精度を上げ、捕捉したデータの多面的な特徴を管理している。基本は回帰分析だが、用途によってはそのほかの半教師ありモデルも使っている。

YotaScaleのユーザーであるApigeeやZenefitsなどは、機械学習に頼ってクラウドコンピューティングのニーズの理想的な管理ができている。その負担が、クラウドからもDevOpsからも消えている。また言うまでもなく、機械学習はリアルタイムの分析がとても得意だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがオープンソースのSaaS、Cloud Foundry Foundationのゴールド・スポンサーになる

MOUNTAIN VIEW, CA - SEPTEMBER 02:  The new Google logo is displayed on a sign outside of the Google headquarters on September 2, 2015 in Mountain View, California.  Google has made the most dramatic change to their logo since 1999 and have replaced their signature serif font with a new typeface called Product Sans.  (Photo by Justin Sullivan/Getty Images)

GoogleがCloud Foundry Foundationにゴールド会員として参加する。しかしGoogleは最近、この財団の元CEO Sam Ramjiを社員に迎えたぐらいだから、参加自体はそれほど大きなニュースでもない。

Cloud Foundryのゴールド会員にはほかに、Accenture, Allstate, CenturyLink, Huawai, Phillips, Verizonなどがいる。しかしGoogleはCisco, IBM, SAPなどのように、大型のスポンサーを意味する最高ランクのプラチナ会員にはならなかった。

Google CloudのVP Brian Stevensが発表声明の中で言っている: “Google Cloud Platformは最初からすべてのデベロッパーと企業にとって等しく一様にもっともオープンなクラウドサービスであることを目標としている。Google Cloud Platformは、彼らが立派なソフトウェアを容易に構築して動かすことのできるプラットホームでありたい。そのための努力の重要な部分のひとつが、オープンソースコミュニティの活発なメンバーとして、デベロッパーと直接的に協働していくことである…それが世界中のどこの、新興スタートアップであれ、あるいは大企業のデベロッパーであれ、分けへだてなく”。

多くの点でCloud Foundryは、OpenStackというInfrastructure-as-a-Service(IaaS)に対して、それらのインフラをベースとするPlatform-as-a-Service(PaaS)という性格を持つ(GoogleはOpenStackのスポンサーでもある)。StevensによるとGoogleは、加盟する前からCloud Foundryのコミュニティとはすでに密接に協働しており、Google Cloud Platformの上でCloud Foundryを利用できるようにしている。また同社のハイブリッドモニタリングソリューションStackdriverをはじめ、一部のクラウドサービスも、Cloud Foundryを統合している。

Cloud Foundryのユーザーが自分の好きなクラウドプラットホームを使うことを、もちろんGoogleは妨げるものではないが、でも彼らの多くが有力大企業なので、Googleの今後の営業努力の対象にはなる。Sam Ramjiを迎えたからには、近い将来きっと、Google/Cloud Foundry関連のニュースを私たちは見ることになるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSがパートナーをサポートする多彩な新事業をローンチ、とくにIoTと金融サービスを重視

img_20161129_121008

Amazonのクラウドコンピューティング部門であるAWSが今週、今年のre:Inventデベロッパーカンファレンスをラスベガスで行っている。そのメインイベントに先立って同社は今日(米国時間11/29)、AWSのツールやサービスを売っている同社のエコシステムパートナーのためのキーノートを開催した。そのキーノートで同社は、パートナー事業の大幅な拡張と、ソフトウェアやAPIやそのほかのサービスをAWSのマーケットプレース(AWS Marketplace)で売りたいベンダのための、新しい機能もいくつか発表した。

AWSが発表した新しいパートナー事業はいくつかあり、ひとつは公共部門へ売っていきたい企業向け、もうひとつはAWSのサービスを使おうとする顧客企業を支援する立場のパートナーだ。それらAWSのサービスとは、Redshift, Lambda, Kinesis, Machine Learningなどなどだ。さらに加えてAWSとVMwareは、2017年に統合パートナーシップ事業を発表し、またAlexaのスキルを作っている企業だけのためのパートナー事業も開始される。

これらのパートナー事業に参加した企業は、市場開発のための資金や、さまざまなマーケティング素材、自分のマーケティング素材をブランド化できるたものバッジなどにアクセスでき、場合によってはPartner Solutions Finderでフィーチャーされる(大きく扱われる)。これらの事業はテクノロジー系企業と、コンサルティング系企業の両方を対象とする。

さらにまた、AWS上でIoT金融アプリケーションを立ち上げるユーザー企業を支援する能力のあるパートナーのための事業もある。これらの新しい事業は、マイグレーションやストレージ、DevOps、セキュリティ、ビッグデータなどに注力していくそれらの企業のための既存の事業に加わる形になる。

今回Amazonは、中でもとくにIoTソリューションをAWS上で充実していくことに大きな関心があるようだ。今日のキーノートではAWSのJames Hamiltonが、わざわざ、インターネットに接続された自分のボートを、未来志向の企業にできることの例として挙げたほどだ。これら新しいパートナー事業に参加できる企業の要件を、Amazonは詳細なリストにまとめている。たとえばIoT企業に関しては、これがそのリストだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

デベロッパーのためのクラウドスキル体験学習プラットホームQwiklabsをGoogleが買収

google_cloud_1

Googleが今日(米国時間11/21)、Qwiklabsを買収したことを発表した。そこは、クラウド環境の運用に習熟したい、そしてクラウド上で動くアプリケーションを書きたい、という人たちのための体験学習プラットホームだ。

2012年にローンチしたQwiklabsこれまでもっぱら、Amazon AWS関連のスキルを教えてきた。AWSはいわばこの市場を支配している勢力だから、それも当然だ。Amazon自身も同プラットホーム上のデベロッパーたちに、自分のペースで勉強できるサイトとして、Qwiklabsを推奨している

Googleによると同社は今後Qwiklabsのプラットホームを利用して、“Google Cloud PlatformG Suiteを含む同社のすべてのクラウドプロダクトに関する、もっとも包括的で効率的で楽しい教育訓練を提供して、多くの人びとの定着を促進していきたい”、ということだ。

Qwiklabsはこれからも従来どおりの会員制学習サービスを提供していく、と言っているから、AWS向けのプログラムは継続するようだ。今後もまだAWSコースが増えていくのか、それはよく分からない。またGoogleのスポークスパーソンによると、この件に関して具体的に発表することはない、という。QwiklabのGoogle Cloudコースに関しても、いつから始めるなどの具体的な発表はまだできないそうだ。

Qwiklabsによると、これまで50万人あまりの人たちがそのプラットホームをのべ500万時間以上利用してAWSを勉強してきた。またCrunchBaseによれば、同社はこれまで外部資金を導入しておらず、今回の買収に関してはその価額などの詳細は公表されていない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUマシンを提供するのは2017年前半から、ただし機械学習SaaSとAPIはますます充実

google_data_center_2

Googleが今年前半に立ち上げたCloud Machine Learningサービスは、Google自身によれば、早くも“急成長プロダクト”の一つになっている。今日同社は、このサービスの新しい機能をいくつか発表し、機械学習のワークロードを動かしたいと思っているユーザーとデベロッパーの両方にとって、さらにサービスの利用価値を増そうとしている。

これまでGoogleは、競合するAWSやAzureのように、ハイエンドのGPUを使う仮想マシンをデベロッパーに提供してこなかった。しかし、機械学習など、科学の分野に多い特殊でヘビーなワークロード、とくにそれらのアルゴリズムは、GPUのパワーを借りないとうまく動かないことが多い。

デベロッパーたちが一般的にGoogle Cloud Platform上で機械学習のワークロードを動かせる、そのために仮想マシンのGPUインスタンスが提供されるのは、Googleの発表によると、2017年の前半だそうだ。料金は、そのときに発表される。

なぜGoogleは、もっと前からこのタイプのマシンを提供しなかったのだろうか? Google自身、機械学習に非常に熱心だし、競合相手のAzureやAWSはとっくに提供しているというのに(Azureは今日(米国時間11/15)、OpenAIとパートナーシップを結んだ)。

しかしデベロッパーは、Googleの既存のCloud Machine Learningサービスを使って自分の機械学習ワークロードを動かすことはできる。そのための構築部材TensorFlowも利用できる。でもCloud Machine Learningが提供しているような高い処理能力と柔軟性を、Google既存のプラットホームで利用することが、まだできない。

今のGoogleはデベロッパーに、カスタムの機械学習モデルを構築するためのサービスと、機械学習を利用した、すでに教育訓練済みのモデルをいくつか提供している(マシンビジョン(機械視覚)、音声→テキスト変換、翻訳、テキストの情報取り出しなど)。Google自身が機械学習で高度に進歩しているし、独自のチップまで作っている。そこで今日のGoogleの発表では、Cloud Vision APIの使用料が約80%値下げされた。またこのサービスは、企業のロゴや、ランドマークなどのオブジェクトも見分けられるようになった。

そしてテキストから情報を取り出すCloud Natural Language APIは、今日(米国時間11/15)、ベータを終えた。このサービスは、構文分析機能が改良され、数値、性、人称、時制なども見分けられる。Googleによると、Natural Language APIは前よりも多くのエンティティを高い精度で認識でき、また感情分析も改善されている。

消費者向けのGoogle翻訳サービスは、今ではカスタムチップを使っている。またデベロッパー向けにはCloud Translation APIのプレミアム版が提供され、8つの言語の16のペアがサポートされる(英語から中国語、フランス語、ドイツ語、日本語、韓国語、スペイン語、トルコ語、など)。サポート言語は、今後さらに増える。プレミアム版では、これらの言語に関しエラーが55から85%減少した。

この新しいAPIは主に長文の翻訳用で、100言語をサポートする“標準版”は、短い、リアルタイムな会話テキスト用だ。

さらに、まったく新しいプラットホームとしてCloud Jobs APIがある。この、あまりにも専門的で奇異とすら思えるAPIは、求職者と仕事の最良のマッチを見つける。つまり、仕事のタイトル、スキル、などのシグナルを求職者とマッチングして、正しいポジションに当てはめる。Dice やCareerBuilderなどのサイトはすでにこのAPIを実験的に使って、従来の、ほとんど検索だけに頼っていたサービスを改良している。このAPIは、現在、特定ユーザーを対象とするアルファだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftが次世代型クラウドハードウェアの設計をオープンソース化…コミュニティのコラボレーションに期待

80527689-6b4f-4ac8-bb93-25556376560c

Microsoftが今日、同社の次世代型ハイパースケール(hyperscale, 自動スケーリング)クラウドハードウェアの設計をオープンソースにし、それをOpen Compute Project(OCP)に寄贈した。Microsoftが2014年に参加したOCPには、Facebook, Google, Intel, IBM, Rackspaceなど、多くのクラウドベンダがいる。これまでの2年間で同社はすでに、サーバーやネットワーキング、データセンターなどの設計をいくつか寄贈している。

同社がProject Olympusと呼ぶこのオープンソース事業は、完成した設計をオープンソースにして寄贈する通常のやり方と違って、設計がまだ最終的な商用化のレベルに達していない。つまり、設計過程にコミュニティがコラボレーションしていくことを、前提しているのだ。

f07cb659-c3a7-41d0-83d4-e6d5b265a117

Azureでハードウェアインフラストラクチャを担当するゼネラルマネージャーKushagra Vaidが、今日の発表声明で述べている: “私たちは、これまでにも、OCP Foundationやオープンソースコミュニティとの密接な協働関係から、非常に多くのことを学んだ。しかしそこで理解した重要なことは、現在のオープンソースハードウェアの開発が、オープンソースソフトウェアほどアジャイルでもなく、頻繁な反復型でもないことである”。そこで、コミュニティに設計への初期的アクセスを与えることによって、Microsoftは“新製品の市場化までの時間を縮小し、投資費用を縮減する”ことを、期待するのだ。

Project Olympusの設計に含まれるのは、新しいマザーボードと、電池内蔵により高可用性の電源装置、高密度ストレージ拡張能力のあるサーバーシャシー、および、複数の(ときに多様な)マシンを載せるサーバーラック群に行き渡る電源配布ユニットだ。既存のデータセンターとその構成のもとで、すぐに使えるために、モジュール性を重視した設計になっている。

OCP servers at Facebook

FacebookのOCPサーバー

Open Compute Project FoundationのCTO Bill Carterは、今日の声明文でこう述べている: “Microsoftはオープンソースハードウェアの開発に、新しい時代を切り拓いた。コラボレーションと市場化の方法に新しい姿を持ち込んだProject Olympusは、OCPとオープンソースデータセンターハードウェアの、これまでの歴史になかったものである”。

Microsoftは、FacebookなどそのほかのOCPメンバーと同様、自己のデータセンターにおいてOCPのハードウェアを広範囲に利用している。Microsoftによると、同社が購入したサーバーの90%以上は、OCPに寄贈された仕様に基づいている。OCPを創始したFacebookでは、ほとんどすべてのサーバーがOCPマシンだ。Googleも今年初めにOCPに参加したが、クラウドプラットホームのマーケットリーダーであるAmazonは、まずそもそも、未だにオープンソースに向けての動きがなく、今後についても不明である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Platformにやっと本物のコールドストレージサービスが登場、ストレージ種別は計4種に

Toy Polar bears in freezer

今日(米国時間10/20)ロンドンで行われたイベントで、Googleは同社のクラウドストレージサービスの、二つのアップデートを発表した。中でもいちばん重要なのは、アーカイブ目的のコールドストレージColdlineのローンチだが、ほかにRegionalストレージというサービスも発表された。そして従来のStandardストレージは、“Multi-Region”と名前を変えた(下図)。

すでにGoogle Cloud Storageをお使いの方は、コールドストレージサービスの新たなローンチに驚かれたかもしれない。Googleはすでに、Nearlineという名前で、アーカイブ用ないし災害時復旧用のきわめて安価なサービスを提供しているではないか。ローンチしたときのNearlineは、AmazonのGlacier(氷河)とよく似ていて、きわめて安いストレージサービスだけど、ただしレイテンシ(遅れ)はかなりあるぞ、というサービスだった。でも今年ベータを終えたNearlineは、速度もまあまあになった。3秒から5秒程度のレイテンシはなくなり、データへのアクセスはリアルタイムだ。

今度新設されたColdlineは、これまでNearlineが担っていた、遅れはあるけど安い、という本来のコールドストレージを、あらためて提供する。Coldlineのストレージは月額料金が1ギガバイトあたり0.007ドル(0.7セント)、データの取り出しは1ギガバイトあたり0.05 ドル(5セント)だ。Nearlineの保存料金は月額0.01ドル(1セント)になる。あまり差はないように感じるかもしれないが、膨大な量のデータを保存する場合には、けっこう大きな違いになる。

Googleのスポークスパーソンによると、Coldlineのレイテンシは同社のそのほかのストレージ種別と同じく低い。“Nearlineの低レイテンシが好評だったので、Coldlineの設計でもその特性を重視せざるを得なかった”、そうだ。

Coldlineは、GoogleのSwitch and Save(乗り換えて節約しよう)プログラムに含まれている。企業がこの企画に乗ってデータをGoogle Cloudへ移行すると、100ペタバイトまでは月額のストレージ料金が無料になる。

今回のアップデートで、高速で可用性の高い“standard”ストレージサービスが“multi-regional”と名前を変え、その下に、やや低価格の“regional”サービスが新たに加わる(下図)。

multi-regionalはその名のとおり、冗長性が複数リージョンにまたがる可用性の高いストレージ種別で、あるリージョンがダウンしても、データへのリクエストは別のリージョンへルートされる。その点ではこれまでのStandardストレージサービスと同じだが、multi-regionではその拠点位置がアメリカ、アジア、ヨーロッパの三つになる。

storage-announcement-1-comparison-chart-02

画像提供: Google

つまり既存のStandardストレージで、上記三つの位置のどれかに該当するストレージは、黙っていてもMulti-Regionalに変換され、GoogleのSLAによるとデータの99.95%の可用性が約束される。

そして新たに設けられたRegionalストレージサービスでは、データが単一のリージョンに保存され、SLAによる可用性の約束は99.9%となり、Multi-Regionalよりもやや低い。しかし計算処理とそのためのデータがつねにお互いに至近にあるようなワークロードでは、このやや安いストレージサービスで十分だろう。

ちょっとややこしいのは、既存のDurable Reduced Availability(DRA)ストレージ種別がなくなることだ。それはRegionalにリプレースされるが、しかし既存のDRAユーザーにはサポートが継続する。同社としては、ユーザーのほとんどがRegionalに移行してくれることが望ましいのだ。

以上がGoogleのクラウドストレージの新しい顔ぶれだ。名前が変わっただけ、というものもあるが、総じて今度からは名が体を表しているから、ユーザーにとっても分かりやすいし選びやすいだろう。唯一の新顔のColdlineは、Google Cloud Platform上の初めての本物のコールドストレージサービスだ。それに対して従来からあるNearlineは主に、バックアップやロングテールのコンテンツ*用に使われるだろう。〔*: long-tail content, 種類が非常に多く、個々のアクセス頻度が低いコンテンツ。〕

〔訳注: コールドストレージの“コールド”の本来の意味は、電源が入ってなくて“冷たい”、と言う意味。すなわち、“非常設の”アーカイブ的ストレージ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

OpenStackが14回目のバージョンアップ、スケーラビリティと自己回復力、ベアメタル上のコンテナに注力

openstack_planet-1-of-1

OpenStackは、企業がこれを使って自分のデータセンターにAWSのようなクラウドプラットホームを構築運用できる大規模なオープンソースプロジェクトだ。それが今日(米国時間10/6)、その14度目のメジャーバージョンアップをリリースしたNewtonと呼ばれるニューバージョンは、ここ数年間における、OpenStackのさらなる成熟を示している。そして今回は、OpenStackのコア的サービスの一部の、スケーラビリティと自己回復力の強化に力が入れられている。またそれと同時に、重要な新しい機能が二つ加わった。そのひとつは、コンテナとベアメタルサーバーのサポートの改良だ。

Newtonに寄与貢献したデベロッパーとユーザーは2500名あまりに達する。その数からもそれがビッグプロジェクトであることが分かるが、コンピュート、ストレージ、ネットワーキングといったデータセンターの中核的サービスをサポートするだけでなく、多様な小規模サービスも各種提供している。

OpenStack FoundationのCOO Mark Collierによると、Newtonの力点は新しい機能よりもむしろ、新しい種類のワークロードをサポートするためのツールの充実に置かれている。

CollierとOpenStack Foundationの上級役員Jonathan Bryceが強調するのは、OpenStackの仕事はあくまでも、ユーザーが自分のワークロードを動かすために必要とするインフラストラクチャを提供することだ、という点だ。ワークロードの種類やタイプ、そのために求められるツールは、いっさい特定しない。“クラウドと仮想マシンが同一視されることは、最近ではなくなった”、とCollierは述べる。むしろ今多いのは、ベアメタルとコンテナの併用だ。OpenStackはそんなユーザーに、すべてを一元管理できるための、単一の制御インタフェイスを提供しなければならない。

しかし企業の変革の歩みは遅くて、OpenStackを使っているアーリーアダプター的企業でさえ、コンテナの採用はまだ始まったばかりだ。Bryceは曰く、“アーリーアダプターの中には、すでにコンテナをプロダクションで(本番運用で)使っているところもある。しかし私の考えでは、OpenStackである・なしを問わず、コンテナをプロダクションで使うのは時期尚早だ”。しかしそれでも、彼によると、最近ではOpenStackのさまざまなコンポーネントを活用して、コンテナの採用を早めたい、というユーザーが増えている。

networktopology

OpenStackのコア・フィーチャーであるNovaコンピュートサービスや、Horizonダッシュボード、Swiftオブジェクト/blobストアなどは、今回のアップデートでスケーラビリティが向上した。OpenStack上のコンテナ管理プロジェクトMagumuは、すでにDocker Swarm, Kubernetes, およびMesosをサポートし、オペレーターがKubernetesのクラスターをベアメタルサーバーの上で動かすこともできる。またそういうベアメタルサーバーのプロビジョニングフレームワークIronicは、Magnumとよりタイトに統合化され、マルチテナントのネットワーキングもサポートする。

今回のリリースには、そういった多様なアップデートや改善改良が含まれる。その圧倒的な全容と各プロジェクトの詳細は、ここで見られる。

OpenStackはすでに、6か月先の次のリリースにも取り組んでいる。それは、今月後半にバルセロナで行われるOpenStack Summitまでには準備段階を終えて、来年2月に一般公開されるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

営業を支援するデータアナリティクスSlackボットでブレークしそうなTroopsが$7Mを調達

screen-shot-2016-09-21-at-7-26-17-am

今の世界は営業(セールス、売ること)で成り立っている。ぼくの(そして同僚たちの)のまわりでは、ほぼ毎日、CRMがすべてを支配している。多忙な営業役員の人生を少し便利にするための融資やプロジェクトやアプリケーションが、そこらにあふれている。

そしてここでご紹介する最近登場したピンチヒッターは、大規模なCRMの最新のトレンドや、そのほかの“超ホットな”最新ビジネスツールが交差する場所にいる。

まだ知る人の少ないTroopsのプラットホームとボットは、無料で利用できる。同社のボットによるサービスは、Salesforceを統合して営業チームの情報ワークを助け、それらをSalesforceの難解なシステムに入力できるようにする。

それは、フロントエンドではSalesforceとGoogle AppsとSlackの統合、そしてバックエンドは同社自慢のデータ処理とアナリティクスの集まりだ。

投資家たちはすでに同社に、700万ドルをつぎ込んでいる。そのラウンドをリードした新しい投資家Felicis Venturesが、そのうちの300万ドルをコミットした。そのほかの新規投資家として、Aspect Ventures, Slack Fund, Susa Ventures, Flight.VCらがおり、これまでの投資家First Round Capital, Nextview Ventures, Chicago Ventures, Great Oaks Capital, Founder Collective, Vast Venturesらも参加した。

Troopsは営業のためのボットベースのサービスを、最初はSalesforce用として開始したが、ファウンダーのブログポストによると、今後はもっといろんなサービスにも対応していく、という。

今回得られた資金は、新製品開発とそのほかの新しい技術的な企画に充てられる。また、今後何千ものユーザーにサービス提供できるために、バックエンドの充実を図る。

“ぼくもVCをやるまでは、かばんを抱えて営業をしていた”、とFirst RoundのパートナーChris Fralicは語る。彼から見ると、Troopsの実力はすごい。“営業記録のシステムとしてはSalesforceと同じぐらい重要だ。それは、誰もが避けて通りがちな部分だけど”。

FralicがTroopsと付き合い始めたころは、同社は独自のメッセージングアプリやメールクライアントを作っていた。しかし、“彼らはすぐに、Slackの人気と将来性に気づいて、Slackのボット専門へと舵をきった”、とFralicは言う。

TroopsのSlackボットの最大の成功要因は、Fralicによると、見込み客に電話をするタイミングとその電話の内容(話題)を教えてくれる機能だ。その機能をSlackに統合したことが、より使いやすいサービスにつながっている。

“Troopsの特長は、AIをボット化したことにある。それがとても便利だから、今、人びとが集まり始めている”、とFralicは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Cloud FoundryがDocker互換のコンテナ管理システムDiegoを立ち上げ、DEAを廃棄へ

steel foundry in Redcar clouds billowing

PivotalとVMwareから孵化したオープンソースのPaaS企業Cloud Foundryが今、新製品のコンテナ管理システムDiegoに力を入れている。同社はこれまで、コンテナの管理にDroplet Execution Agents(DEA)と呼ばれるものを使ってきたが、しばらく両者を並行して使ってみた結果、これからはDiego一本に絞ることにした。この管理システムにより、一つのクラスターの中で最大25万までのコンテナを動かすことができる。

Cloud Foundryのユーザー企業でそれほど大規模にコンテナを使っているところは、まだ少ない。しかし最近のエンタープライズデベロッパーたちは口を揃えて、企業におけるコンテナの採用は多くの人が想像する以上に急成長している、と言う。Cloud Foundry自身の調査でも、今や多くの企業がコンテナを評価中だ。ここ数か月の動向を見ると、実装数はまだそれほど多くはないけれども。

unnamed

Cloud Foundryが目をつけているのは、良質なコンテナ管理サービスにより大規模な展開が容易になれば、企業ユーザーの今後のコンテナの需要とデプロイメントも増え、Cloud Foundry自身の顧客ベースも安定拡大することだ。

しかし、GoogleのKubernetesやDockerのツールなど、既存の(そして比較的よく使われている)コンテナ管理サービスがすでにいくつかある中で、なぜCloud Foundryは、自社製に踏み切ったのだろうか。

Cloud FoundryのCEO Sam Ramjiによると、重要なのは、Dockerによってコンテナが人気者になる以前から同社は、DEAによりコンテナを使ってきた。“しかしそれは標準技術が登場する以前のことなので、かなり癖の強いシステムだった”、とRamjiは語る。たとえば、DEAが前提するコンテナのフォーマットは、独自のものだ。しかしDiegoは、Docker互換だ。つまりそれは、既存のリッチなコンテナエコシステムに、そのまま入っていける。そしてCloud Foundryは、ここ3年ぐらいの間に急速に勃興してきた新しいコンテナ技術の数々を、利用できる。

同社は、DEAの寿命を2017年まで、としている。CloudFoundryの公認ベンダは、それ以降DEAを使ってはならない。しかしこのことは、デベロッパーにはほとんど無関係だろう。Cloud Foundry上でアプリケーションをデプロイするために使うコマンドは、すべて前と同じだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaの自動運転車用AIコンピューターPX 2がさらに小型化省エネ化

nvidia_drive_px2_autocruise_1

Nvidiaが、同社の自動運転コンピューティングのための車載プラットホームDRIVE PX 2の、新しい構成を今日(米国時間9/13)披露した。電力効率が大幅に改善され、サイズも今年初めのCESで紹介された最初の製品より小さい。この新しいシングルコアの構成を、Baiduが同社の自動運転車に使う。NvidiaとBaiduはこの前パートナーシップを発表し、完全な“クラウドから車への”自動運転車を作ることになっている。

AIコンピューターPX 2はDRIVE PXの第二世代で、こちらはNvidiaによるとすでに多くのOEMや研究機関などのパートナーが使っている。このコンピューターは、自動運転車のモニタリングシステムからの視覚データとセンサーデータを自分自身でリアルタイムに処理できる。強力なリモートサーバーに接続していない自動運転車では、このような計算の自律性がきわめて重要だ。

PX 2は、車のメーカーや研究者のニーズに応じて、手のひらサイズのシングルコアから、マルチコア/マルチGPUの構成までスケールでき、複数のPX 2が一台の車の上で協働することもできる。単体のPX 2が、車載のカメラとセンサーからの入力を使ってAutoCruiseやHDの地図表示などの機能を提供できる。

この新しいSoCは、クライアント間におけるPX 2に対する期待をさらに大きく拡大するだろう。物理サイズと電力消費量の削減は、電気自動車のメーカーにもアピールするものと思われる。エネルギー効率の高いゼロエミッションカーを作ることは、車重の削減や電力の低消費化と表裏一体だ。個々のパーツの節約量が微々たるものでも、一台の車におけるその累積効果は無視できない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))