Google Compute EngineがCPU 96コア、メモリ624GBの巨大インスタンスを提供、プロセッサーもグレードアップ

どんなにリソース大食漢のアプリケーションでも、Google Compute Engine(GCE)なら満足するだろう。今度新たに、CPU 96基、メモリ624GBという怪物インスタンスが生まれたのだ。Bill Gatesは昔、誰が一体640KB以上ものメモリを必要とするんだい?と言ったらしい。彼には、今日のような日が来るとは想像もできなかったのだ。

これは、本当の話ですよ。しかも、ちょっと前の3月にはGCEは64コアのCPU + 416GBのメモリというインスタンスを発表している。今回は、それを上回る。

使用するチップは、たぶんご想像どおり、IntelのXeon Scalableプロセッサー(コードネームSkylake)だ。Googleによるとこの子は、前の世代のXeon系列に比べて計算性能が20%速く、high performance computing(HCP)では82%より高速、メモリ帯域はほぼ2倍だ。もちろん、これで十分という性能は永遠にないけどね。

それほどのパワーは要らない、というユーザーは、ご自分のワークロードに合わせてCPUとメモリの構成をカスタマイズできる。

Googleによると、今回の巨大インスタンスは、その性能をすでにSAP HANAで実証している。SAP HANAは、ドイツのソフトウェア大手によるインメモリデータベースで、ユーザーの必要に応じてメモリをいくらでも使える。

624GBでも足りない、というユーザーに対応するためGoogleは今、最大4TBまでメモリを搭載できる製品を開発中だ。お金をしっかり用意して、待っていよう。本日(米国時間10/5)紹介されたインスタンスは、一時間約4ドル95セントからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud、「カスタムの役割」で細かい権限設定を可能に

Google Cloudのように多様なプラットフォーム上のサービスを誰が利用できるかを決めることは、IT管理者にとって悩みの種だ。Googleは、数多くの設定済みの「役割」(roles)を提供するなど様々な努力をしてきたが、出来合いの役割では万人のニーズに合わないことを認識し、 custom roles[カスタムの役割]を今日発表した。

名前が示す通り、管理者は組織内の異なる仕事に応じて、役割を広くも狭くも定義することができる。プラットフォーム上には、オーナー、エディター、ビュワーという3種類の基本的役割がある。さらにサービスに特化した役割が100種類提供されるが、それでもニーズに合わないときはカスタムの役割の出番だ。

GCPの定義済み役割の例。出典:GCP

Googleのプロジェクトマネージャー、Rohit Khareが新機能を紹介するブログ記事にこう書いている:「カスタムの役割は基本的役割や定義済みの役割を補うことで、より詳細な分担が必要な場合に対応できる」。KhareはCloud SQLデータ監視者の事例を挙げた。収集されたデータを理解するためにデータベースをアクセスする必要はあるが、データの書き出しやデータに対するアクションは不可能にしたいケースだ。

Khareはブログ記事でこう説明している:「例えば『クラウドSQLインベントリー』というカスタムの役割を作って、監視者にデータベースの閲覧のみ可能で、コンテンツのエクスポートは不可能な権限を与えることができる」。

新しい役割を作る最善の方法は、既存の役割をコピーして、名前や権限を修正することだとGoogleは言っている。また、カスタムの役割を作る際は、それを追跡するシステムが必要だと注意している。それはGCPが常にプラットフォームをアップデートしているため、カスタム権限が最新バージョンに合致していることを確認する必要があるためだ。

Googleはこれまでも多くの利用場面に合わせた様々な権限を提供してきたが、例外は必ずあるものなので、管理者にカスタムの役割を作る機能を与えることは、定義済みの役割以上に綿密な管理を行いたい企業にとって魅力だろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

AWSにならってGoogleのCompute Engineも秒制課金を導入、Microsoftはまだか

一週間前にAWSは、同社のEC2サービスの秒単位の課金への移行を発表した。Googleが今日、ほぼ同じ移行を発表したのも、当然だろう。

Google Compute Engine, Container Engine, Cloud Dataproc, およびApp Engineが依拠する伸縮性仮想マシンは、今日からただちに毎秒課金が開始される(AWSの秒課金開始は10月2日からだ)。この新しい課金方式は、プリエンプティブマシンと、同社のプレミアム(特別優遇)オペレーティングシステム(Windows Server, Red Hat Enterprise Linux, SUSE Enterprise Linux Server)が動くVMにも適用される。AWSの秒制課金は標準のLinuxインスタンスのみで、Windows Serverや他のLinuxディストリビューションは従来どおり時間制の課金だ。

AWSの秒制と同じなのは、Googleも最小課金量が1分であること。(30秒しか使わなくても1分)

なおGoogleはすでに、Persistent Disks, GPU, そして特定の割引利用では秒課金を導入している。

毎秒課金になっても多くのユースケースにおいて課金額はほとんど変わらない、とGoogleは言っているが、頻繁かつ急速にスケールアップ/ダウンを繰り返すようなアプリケーションもたくさんあり、そんなアプリケーションでは有意な差がある、とも言っている。Webサイトやモバイルアプリ、データ処理のジョブなどが、そんなアプリケーションの典型だ。

Compute EngineのプロマネPaul Nashが今日の発表声明で述べている: “課金額に大きな違いが生じないことが、これまで秒課金の要望が少なかった理由だと思われるが、みなさんが時間を気にせずに朝のコーヒーをゆっくりお飲みいただけるために、そのVMsの課金方式を最小を1分とする秒制にできたことは、本当に喜ばしい”。

Google自身がそれを白状することはないが、でもこれは明らかにAmazonへの対抗だ。表向きには、両クラウドコンピューティングサービスの機能を比較するページの、チェックボックスがひとつ増えただけだけどね。

ではMicrosoftはどうなる?

今のところ、Microsoftは同じ動きを見せていない。MicrosoftのAzure Compute部門のプロダクト担当Corey Sandersは同社のIgniteカンファレンスの会場で、私の質問にこう答えた: “Azure Container Instancesでは、数秒でスピンアップし数秒でスピンダウンするようなサービスは実質的に秒課金だから、秒制課金の先鞭をつけたのはむしろ弊社である。われわれは顧客にこのような粒度を提供することがコストの面で重要であることを、前から理解していた。他のクラウドがわれわれに見習って、顧客の課金に最良の柔軟性を提供しようとしている光景を目にすることは、実に嬉しい”。

通常の仮想マシンに関してはSandersは明言を避け、Microsoftはコンテナにフォーカスしたい、秒制課金がもっとも有意なのはコンテナだから、と述べた。“弊社のプラットホーム全体にわたって、課金の構造はつねに改善に努めている。それによって顧客がもっと容易に、そしてもっとアジャイルにプラットホームを利用できるようにしたい”、と彼は語った。でもMicrosoftが近く、比較ページに毎秒課金のチェックボックスを含めなかったとしたら、その方がビッグサプライズだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud Platformにさらに強力な(二機種めの)Nvidia GPUのサポートが加わる

Google Cloud Platform(GCP)が今日(米国時間9/21)、Google Compute Engineに、Nvidiaの強力なGPUのサポートを加える、と発表した。

同社はすでにNvidia K80 GPUをサポートしているが、今回はNvidia P100 GPUのインスタンスが新たな長期料金体系(sustained pricing model)によりベータで加わる。

機械学習のワークロードを抱える企業にとっては、クラウドでGPUを利用できれば、分単位の料金制でも柔軟な利用が可能だ。しかし長期料金制なら、一定の長時間、最大30%の割引料金で利用できる。言い換えると、(額が最初からわかっているので)月末になって巨額な請求にびっくり仰天することはない。

そしてGoogleの主張によれば、この方式によりベアメタルに近いパフォーマンスを享受できる。GPUサポートを発表するブログ記事で、Googleはこう言っている: “クラウドのGPUは、ベアメタルのパフォーマンスを得るために提供される便宜である。それは1 VMあたりP100が最大4、K80なら最大8となる(K80のボードは最大4で、一枚あたり2 GPUだ)”。

GPUのワークロードは仮想マシンで直接動かしてもよいし、コンテナに収めてもよい。下図のように、サービスは世界の4つの場所から提供される:

Screenshot 2017-09-21 12.28.20.png

地図提供: Google

Googleが想定しているこのサービスの主な用途は、遺伝子研究や金融工学、機械学習のモデルの訓練と推断など、さまざまな計算集約的なタスクだ。二種類のGPUが提供されるため、ワークロードの特性に応じて速度と料金の適正な均衡をユーザーは実現できる。このGPUクラウドの初期の顧客Shazamは、その音楽同定(音→曲名アーチスト名)サービスに利用している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleのモニタリング/ロギングサービスStackdriverがアップデートされカスタマイズと視覚化が充実

Google Cloud PlatformやAWSの上で動くアプリケーションの、モニタリングやロギング(ログ取り)、診断などのサービスを提供するGoogleのツールStackdriverが今日(米国時間8/31)アップデートされ、ロギングの機能が増えるとともに、無料のログサービスの大きさが拡張された。すなわち12月1日からは、Stackdriverのロギング機能は1プロジェクトあたり1か月に50GBまでのログを無料で提供する。50GBを超えるぶんは、1Gバイトにつき月額50セントが課金される。

このアップデートのスローガンは、ログの分析を早くし、管理を容易にし、そしてより強力にすることだ。そのためにGoogleのチームは、ログに何かが書き込まれたときと、それがStackdriverの分析結果に反映されるまでの時間を短縮した。これまでは、ログのアップデートがStackdriverのユーザーにとって可視になるまで5分以上を要していた。それが今や1分未満になったそうだ。

これまでも、5分では困るというユーザーはあまりいなかったと思うが、でも早くなって怒るユーザーはいないだろうね。

またこれからは、ログのどんな項目でもそれらの各欄をラベルにして、ログのデータを視覚化できる。しかしもっとおもしろいのは、ユーザーが排除フィルターをセットアップして、必要なデータだけをログに出力させられることだ。GoogleのプロダクトマネージャMary KoesとDeepak Tiwariが、今日の発表声明で書いている: “排除フィルターを利用してコストを下げ、無駄なログを減らしてS/N比を上げられる。特定のソースをブロックしたり、逆に特定のパターンにマッチする項目を拾うことによって、コンプライアンスにも貢献する”。

もうひとつの新機能一括エクスポート は、複数のプロジェクトのログをGCS, PubSub, BigQueryなどにエクスポートできる。これまではデベロッパーが、一つ々々手作業でエクスポートしていた。

[↓排除フィルターと排除を指定するエディター]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

PivotalとVMwareとGoogleがコンテナでパートナー、すでに提供プロダクトも具体化

PivotalとVMwareとGoogleがチームを作って、コンテナプロジェクトの開発とデプロイと管理を、十分なスケーラビリティを維持しつつ単純化する総合的サービスを提供していくことになった。

三社はオープンソースのプロダクトをベースとする商用サービスにより、このパートナーシップを構成するさまざまなパーティーと共にそのプロダクトを市場化していく。GoogleはそれをGoogle Cloud Platformの一環として売ることになり、PivotalとVMwareでは彼らの標準の営業品目として売り、両社の親会社であるDell-EMCはハードウェアを含めたパッケージとして売っていく。

彼らの役割分担を整理するとこうなる: GoogleはオープンソースのコンテナオーケストレーションツールKubernetesを提供する。PivotalはCloud FoundryによりPaaSの要素を提供、そしてVMwareは全体をまとめる管理層を加える。

プロダクトの名前にはPivotalが使われ、Pivotal Container Serviceとなる。省略形はPCSではなくPKSだが、たぶん彼らは頭字語という言葉の意味をよくわかっていないのだろう。いずれにしても、三社が肩を組んでやることは、VMwareのvSphereとGoogleのCloud Platform(GCP)をベースとする“プロダクションに即対応する(production-readyな)Kubernetes”を提供していくことだ。そしてそれは継続的に、Google Container Engineとの互換性が確約される。後者はご想像どおり、GCEではなくてGKEなのだ。¯_(ツ)_/¯

以上は説明だが、このプロダクトが実際にベースとするものはGoogleとPivotalが作ったコンテナ管理プロダクトKuboだ。そしてPKSは、PivotalのCloud Foundryによる、デベロッパーにとっておなじみのコンテナ開発環境を提供する。デベロッパーはKubernetesの経験者であることが前提だ。

VMwareは縁の下の力持ちのように管理層を提供し、その上でDevOpsのOpsの連中がコンテナをデプロイし、コンテナのライフサイクルの全体を管理する。以上を総合すると、エンタープライズ級のコンテナ開発〜デプロイ〜管理のシステムの、一丁あがり、となる。

Google Cloudのプロダクトマーケティング担当VP Sam Ramjiによると、昨年Googleに来る前、Cloud Foundry Foundationにいたときすでに、コンテナをプロダクションに持ち込むためのいちばん容易な方法がCloud Foundryだ、と直観していた。そして当時の彼らは、Kubernetesを統合するやり方を研究していた。

一方、PivotalのJames Watersはこれまで、PivotalのツールとともにGoogle Cloudのツールを使っている大企業顧客が多いことに気づいていて、そのツールキットに、人気急上昇中のKubernetesを含める必要性を痛感していた。

VMwareはどうか、というと、Sanjay PoonenらVMwareの連中はこれまで、コンテナの開発環境としてCloud Foundryを使う大企業顧客が多いことと、Kubernetesがコンテナオーケストレーションエンジンとしての勢いを増していること、この二つの支配的な状況を日々、目にしていた。

そして今回、そのような三者が交わったところに出現したコンテナ統合環境(開発/デプロイ/管理サービス)が、今回の三社パートナーシップの成果だ。その供用開始は、今年の第四四半期を予定している。

〔関連記事:
三社パートナーシップに導いた7つの動向(未訳)
VMware CloudがAWSからも提供(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Platformが自社の高速ネットワークを使わない低能力な廉価版ネットワーキングを提供

Googleのクラウドプラットホーム(Cloud Platform)に、廉価版が加わる。これまでの高級版(Premium Tier)は、できるかぎりGoogle自身の高速ネットワークへユーザーのトラフィックをルートして、中継と距離を最小化する。そして今度の安価な標準版(Standard Tier)では、トラフィックを一般の公共的なインターネットにルートし、起こりうる速度低下や中継の増加を我慢していただく。これからのデベロッパーは、そのどちらかを選べる。

Googleのインフラ担当SVP Urs Hölzleは曰く: “これまでの18年間で、Googleは世界最大のネットワークを築き、今ではそれがインターネットの全トラフィックの25-30%を配達していると推定される。Premium Tierではその同じインフラを享受できるが、しかしユースケースによっては、安価で低能力なネットワーキングを選んでもよい。両者を合わせたサービスをNetwork Service Tiersと呼んでいるが、アプリケーションごとに、もっとも適したネットワークをお選びいただける”。

北米およびヨーロッパでは、標準版は高級版より24-33%安い。また課金方式は、高級版ではトラフィックの起点から終点までの距離で計算されるが、標準版は距離は関係なく、起点がどこにあるかによって、料金が異なる。

今現在は、Google Cloudの全ユーザーがいわゆるPremium Tierを使っている。トラフィックはできるかぎりGoogle自身のネットワークを通り、そして同社のエッジネットワーク上に存在する100あまりのグローバルポイントのどれかで、よりワイドなインターネットへ渡される。ちなみに、このように、できるかぎり長く起点ネットワークがトラフィックを保持する方式をcold-potato routing(コールドポテトルーティング)と呼ぶ。この方式では遅延が最小化され、トラフィックはGoogle自身のケーブルを通るから、パケットロスも少ない。このことは、アプリケーションからユーザーへの往路だけでなく、ユーザーからアプリケーションへの帰路についても、同様に言える。帰路ではトラフィックはできるだけ早くGoogleのエッジネットワークに渡され、そして企業のデータセンターへと旅をする。

新たにできたStandard Tierでは、トラフィックはGoogleのネットワークではなく一般的な(公共的な)インターネットへ渡される。そしてトラフィックは、ネットワークからネットワークへ、ISPからISPへと中継されるから、当然、単一のネットワーク上より遅くなる。クラウドサービスでも、Googleのような大きな自前ネットワークを持ってないところを使うと、このStandard Tierと同じ結果になる、とGoogleは宣伝っぽく言っている。

この二種類のネットワーキングのパフォーマンスの測定と公共的なモニタリングを、GoogleはCedexisと協働して行っている。当然ながらStandard Tierではスループットが遅く、遅延(レイテンシー)は高い。より顕著なのは、レイテンシーの違いよりもむしろ、スループットの違いである。

なお、Standard TierではGoogleのグローバルロードバランサーとCloud CDNが使えない。代わりに、リージョン内のロードバランサーを使わなければならない。

アプリケーションの特性やニーズによって、どちらのネットワーキングを使うべきか迷ったときは、Googleが作った下図のフローチャートを使ってみよう:

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのContainer Engineがセキュリティ重視でアップデート、サービスメッシュへの拡張性も

Google Container Engineの最新のアップデートが今日(米国時間7/12)発表された。それはKubernetesを使用するコンテナアプリケーションをGoogleのクラウド上で運用するサービスだ。Google Container EngineをGoogleは、GCEとは呼ばずにKubernetesのKを取ってGKEと呼んでいるが、今回のアップデートも前と同様、Kubernetesプロジェクトからの最新アップデートが中心となる。

今やバージョン1.7となるKubernetesプロジェクトは、プライベートとパブリック両クラウドでコンテナ化ソフトウェアをオーケストレーションするためのデファクトスタンダードになりつつある。ここで一応Microsoftの顔も立てておくべきなら、同社の(顧客の)ワークロードをプライベートクラウドやハイブリッドクラウドで動かすならAzure Stack、そしてGoogleのやり方でハイブリッドクラウドをデプロイするならGoogle生まれのKubernetes、という棲み分けになるだろう。

今回のアップデートは、セキュリティを強調している。GKEを採用する企業が増えるにつれて、彼らのニーズも当然変わってきた。とりわけエンタープライズ(≒大企業)は、セキュリティ要件が厳しい。GKEのチームは、そのサービスが市場でもっとも安全なKubernetes実装だ、と主張するが、その理由として挙げるのは、コンテナのデプロイを構成するさまざまなノードの上で動くオペレーティングシステムをコントロールできるからだ。それはChromium OS(Chrome OSのベース)をベースとするオペレーティングシステムであり、しかもクラウドで動くバージョンは非常にミニマルな(==最小構成の)システムであり、攻撃の取っ掛かりとなる対外インタフェイスがほとんどない。しかもパッチ等はつねに、Google自身が先取り的に講じている。

今回のアップデートでは、Kubernetes自身の新しいセキュリティ機能(ポッド間の通信を制約できる新しいAPIなど)と、Googleのデータセンターの新しい機能の両方が、セキュリティに貢献する。たとえばデータがGoogle CloudのLoad Balancingサービスを通るとき再暗号化することによって、外の旅路だけでなくGoogleのネットワークに入ってからも暗号化状態を維持する。

またGoogleのチームによれば、エンタープライズはセキュリティと並んで拡張性も求めている。とくに、Kubernetesの能力をサードパーティのアプリケーション、たとえばIstioのようなサービスメッシュにも延伸できることだ。Kubernetes 1.7にはAPI集積機能があるから、ユーザーにそんな機能を提供することも可能だ。

もうひとつ光を浴びるべき新機能は、GPUベースのマシンのサポートだ。今はNvidiaのK80 GPUだが、今後はもっと強力なマシンもサポートされる。そのGPUマシンは現状でまだアルファだが、とくに機械学習のワークロードを動かしたいユーザーを顧客としてねらっている。

例によってアップデートはもっともっとたくさんあるが、その完全なリストはGoogleのブログ記事を見ていただきたい。とにかく今日のお話の最大の要点は、KubernetesのコミュニティとGoogleの両方がセキュリティを非常に重視していることだ。GKEをエンタープライズ向けに今以上に普及させたいなら、この姿勢を続けざるをえない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCompute EngineはCPUの種類を自由に選べるようになった、メモリは455GBまで使える

GoogleのクラウドコンピューティングサービスCompute Engineが今日(米国時間5/31)アップデートされ、数々の新しい機能が導入されるが、それらはとくに、もっと高性能なプロセッサーを使いたいとか、大量のメモリがほしい、と願っていたユーザーにとって朗報だ。

今日のアップデートはその多くが、Intelの次世代プロセッサーSkylake Xeonの一般供用(最大64コアまで)がベースだ。Skylakeのサポートは2月にベータに入ったが、これからは、Google Cloud Platformの三つのリージョン(Western U.S., Western Europe, Eastern Asia Pacific)でサポートされ、そのほかのリージョンも近日中に対応される。

さらにGoogleは今日64コアのインスタンスとBroadwll CPUのサポートを、すべてのリージョンで可利用にした。

Compute Engineは今やとても多様なIntel系CPUをサポートしているから(Sandy Bridge, Ivy Bridge, Haswell, Broadwell, そしてSkylake)、その中のどれを選ぶかという選択肢をユーザーに与えている。指定は右図のように簡単にできるし、一度指定すると新型機への切り替えは通常のアップデートとして自動的に行われる。

今後60日間は、Skylakeを用いた仮想マシン(VMs)は、古い機種を使うVMと同じ料金となり、そのあとは、古いCPUを使うVMより6-10%高くなる。

このアップデートでCompute Engineのユーザーは、VMインスタンス一つあたり最大455GBのメモリを装着できる。そうするためには、自分だけのカスタムマシンタイプを指定し、その中で拡張メモリオプションを選ぶ。それまでは、メモリと仮想CPUの数のあいだに一定の比率があり、最大が6.5GBだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

一歳を迎えたGoogleのTPUチップがアップグレード、機械学習/ディープラーニングのすそ野をさらに広げる

Googleが今日(米国時間5/17)のGoogle I/Oカンファレンスで、同社特製の機械学習チップTensor Processing Unit(TPU)の次世代バージョンを発表した。この、機械学習のタスクを高速化する専用チップは、従来のCPUやGPUよりも速いとされているが、昨年の同カンファレンスで発表されて以来、今回が初めてのアップグレードになる。

まず、スピードのアップだ。Googleによると、第二世代のTPUは1基が180TFLOPSの性能を有する。まだベンチマークは見ていないが、スピード以外でも進歩している。第一世代のTPUは既存のモデルを使って推論するだけだが、第二世代はモデルの訓練もできる。モデルの訓練は機械学習のワークフローの中でもとくに重要だが、その全過程をこの強力なチップがやってしまうのだ。

機械学習のモデルとは、たとえば写真に写っているものが木か車か猫かを正しく同定する能力のことだ。機械学習の推論とは、モデルを使って行う確率つきのオブジェクト同定処理だ。たとえば、“この写真に写っているのは85%の確率で木であってブロッコリの茎ではない”、などと推論する。

Googleの今日の声明文によると、同社の大規模な翻訳用のモデルを訓練するのに、市販の最良のGPU 32基を使用してまる一日、その1/8の台数の“TPUポッド”〔64TPUs, 11.5PFLOPS〕では午後の数時間で完了した、という。

GoogleのTenso Flowチップセット。写真提供: Google

このような比較はいつも、よく調べないと正しい意味が分からないが、とにかくGoogleは、GPUより速いと言っている。今日の機械学習の演算では多くの場合、もっとも強力なチップとしてGPUが使われているのだ。

さらにGoogleは、このチップの能力を同社のクラウドプラットホームからSaaSのサービスとして提供している。誰もが気軽に、この世界に入れるように。また、IntelのSkylakeとかNvidiaのVoltaなど、ほかのチップで作ったモデルを、TPUのクラウドへ移植して使うこともできる。

またコストをあまりかけられない試行や研究用には、無料のクラウドサービスTensorFlow Research Cloudがある。そこでは、研究者たちが、クラウド上の1000 TPUのクラスターを利用できる。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが、開発プラットフォームのFirebaseをCloud Platformへより深く統合

Googleが2014年に買収したモバイルアプリ開発プラットフォームFirebaseの大規模なアップデートが、 サンフランシスコで開催中のGoogle Cloud Nextで今日(米国時間3月9日)発表された。このアップデートの基調となるテーマは、Firebaseをより一層Google Cloud Platformと統合されたものにすることだ。例えば、AWS Lambdaに対抗する「サーバーレス」プラットフォーム機能であるGoogle Cloud Functions(現在公式ベータテスト中)へのサポートの追加などが挙げられる。Firebaseはまた、Google Cloud Platformが現在提供する全てのストレージオプションへのサポートを提供する。

Firebaseの共同創業者であるJames Tamplinが私に語ったように、Firebaseは常に、Googleのクラウドエコシステムへの簡単な入口としての役割を果たしてきた。基本的に、サービスの背後にあるアイデアは、開発者たちにシンプルなBaaS(backend-as-a-service)プラットフォームを提供し、開発者たちを独自のインフラの構築とサーバーの保守作業から解放するというものだ。しかしアプリのユーザーが増え、機能が成長するに従い、開発者たちは必然的により進んだユースケースをサポートするサーバーをセットアップしなければならなくなる。

Googleは、当然のことながら、そうした開発者たちにCloud Platformへの簡単な移行を提供したいと思っているが、Firebaseもまたこうした先進機能をサポートするように拡大している。このステップにおいてCloud Functionsのサポートは自然な流れだ、その利用により開発者たちはサーバーを保守することなく、より複雑なプログラムを運用することができるのだ。実際、Cloud Functionsのサポートが、Firebase開発者から1番要求の寄せられていた機能だと、Googleは言っている。Firebase SDK向けの新しいCloud Functionsは、Firebase Analytics、リアルタイムデータベース、そして認証並びにストレージサービスからのイベントを受け取ることが可能で、それに対応するCloud Functionsを起動することができる。

Firebase Storage(今回Cloud Storage for Firebaseと呼ばれるようになった)もアップデートされて、Googleの他のクラウドストレージソリューションと足並みが揃った。それが意味するのは、例えば、(あまり定期的にアクセスされないデータを保存するためのGoogleのソリューションである)NearlineとColdlineへのサポートが提供されるということだ。また開発者は、どのリージョンにデータを保管したいかを選べるようになった。これはデータの統治問題を気にしなければならない開発者たちにとって、特に重要である。

これに加えて、Googleは、Google Cloud Platformのサービス利用規約を拡張してFirebaseをカバーするようにしている。Tamplinが指摘したように、これは企業にとってとても関心が持たれる部分だ。何故ならこのことによって、彼らの弁護士たちが、Cloud PlatformとFirebaseの双方を1箇所でチェックすれば良いだけになるからだ。Google Cloud Platformのサービス利用規約はFirebaseのサービスを、認証、ホスティング、ストレージ、Functions、そしてFirebase Test Labに関するものとしてカバーする。Firebase Analyticsサービスは、近い将来に、Google Analyticsのサービス利用規約の下に移動する。

[ 原文へ ]
(翻訳:Sako)

GoogleのCompute Engineの最大仮想マシンが64コアRAM 417GBとなる…AWSの優位動かず

GoogleのCompute Engineが提供する仮想マシン‘一台’の最大コア数が32から64へ倍増した。このハイパワーマシンは今ベータだが、Googleの標準構成とユーザー指定のマシンタイプ(コア数とメモリ)で利用できる。

64コアを指定した場合は、最大メモリサイズがRAM 416GBになる。単一仮想マシンのメモリとしてはこちらも倍増になり、ハイエンドのインメモリデータベースのようなメモリ集約的なアプリケーションを十分に動かせるだろう。

料金は1時間3.7888ドルだが、長期ユーザーの値引きはもちろん適用される。

“ここが終点ではない”、とGoogleのUrs Hoelzleが今日のCloud Nextのキーノートで述べた。“今年後半にはコア数がさらに増え、メモリサイズはTB級になるだろう”、と彼は言った。

なお、AWSのEC2はすでに、コア数128、最大メモリ2095.944GB(2TB+)のマシンを提供している。これらの特注規格を選んだ場合は、料金は1時間13.388ドルになる。Microsoft Azureの仮想マシンは、現在の最大が32コアだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Platformが常時無料プランと無料トライアルの両方を拡大してクラウド新人たちがAWSへ傾くのを防ぐ

Googleが今日(米国時間3/9)ひそかに、常時無料プランと、同社のCloud Platformのトライアル(試用)プログラムの改良バージョンをローンチした。

常時無料プランは今や小さなアプリケーションをGoogleのクラウドで動かすに十分なパワーを持ち、拡張された無料トライアルプログラムとは別に提供される(このへんがちょっとややこしいが)。拡張された無料トライアルの方は、ユーザーに12か月300ドルのクレジットを与えるが、拡張される前は300ドルを60日以内に使うことになっていた。

一方無料プランの方は、Googleの広告の中にはなく、小さなインスタンス(f1-microインスタンス)をCompute Engine, Cloud Pub/Sub, Google Cloud Storage, およびCloud Functionsで使える。合計で常時無料プランに含まれるサービスは15となる。

中でもいちばん重要なアップデートは、Compute Engineのインスタンスと、無料のCloud Storage 5GBだろう。両者は、多くのクラウドアプリケーションの中核だから。この常時無料プランの詳細仕様はここにある

ただしこの無料プランが提供されるのは、us-east1, us-west1, us-central1の3リージョンのみだ。

これはもちろん、GoogleのAWS対抗策の強化だ。AWSの12か月トライアル以外の常時無料プランには仮想マシンが含まれない(仮想マシンは12か月のみ)。でもAWSも近いうちに、無料版に関してGoogleと横並びするだろう。

無料使用の拡大は、多くの人にGoogleのプラットホームに慣れ親しんでもらうためだが、とりわけデベロッパーは、自分のホビープロジェクトを動かしていたプラットホームを仕事用・会社用にも使いがち(あるいは推薦しがち)だ。また新人のデベロッパーは、クラウド初体験としてAWSを選びがちだ。Googleのこれまでの60日300ドルのクレジットは、彼らに十分な初体験期間を与えなかっただろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUをサポート

tesla-m40-header

3か月前にGoogleは、2017年の早い時期に、機械学習などの特殊なワークロードためにハイエンドのグラフィクスプロセシングユニット(graphics processing unit, GPU)のサポートを開始する、と発表した。2017年の早い時期とは今のことだから、Googleは言葉に違(たが)わず今日から、Google Cloud Platform上でGPUを使えるようにした。予想通りそれはNvidiaのTesla K80で、ユーザー(デベロッパー)はひとつのCompute Engineマシンで最大8つを動かすことができる。

GPUベースの仮想マシンを使えるのは当面、三つのデータセンター、us-east1, asia-east1, そしてeurope-west1だけだ。ひとつのK80コアに2496のストリームプロセッサーと12GBのGDDR5メモリがある(K80ボードには2つのコアと24GBのRAMがある)。

image02

複雑なシミュレーションを動かしたり、TensorFlow, Torch, MXNet, Caffeeなどのディープラーニングフレームワークを使っているときには、計算力はどれだけあっても過剰ではない。GoogleがこれらのGPUインスタンスでねらっているのも、ハイエンドマシンのクラスタを常時動かして機械学習のフレームワークを駆動しているようなデベロッパーだ。このGoogle Cloud GPUは、GoogleのCloud Machine Learningサービスおよび同社のさまざまなデータベースとストレージのプラットホームに統合される。

GPUの利用料金単価はアメリカでは1時間70セント、ヨーロッパとアジアのデータセンターでは77セントだ。時間単価としてはお安くないが、Tesla K80の2コア/24GB RAMのアクセラレータは、たちまち数千ドルの節約を稼ぎだしてくれるだろう。

この発表から数週間後にGoogleはサンフランシスコで、Cloud NEXTカンファレンスを開催する。そこではおそらく、同社の機械学習をもっと多くのデベロッパーに使ってもらうための企画が、発表されるだろう。

image00-1

〔参考記事: AWSのGPUインスタンス

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

パブリッククラウドプラットホームにおけるAWSの王座は今後も揺るがず

img_20161130_104056

Amazonは木曜日(米国時間2/2)の決算報告の中で、同社のクラウド事業部Amazon Web Servicesの収益についても発表したが、それらは意外性とはほど遠いものだった。AWSの成長率そのものは、そのライバルのように突出してはいないが、それでも47%の高率、142億ドルという驚異的な四半期売上で35億3000万ドルの利益を上げた。

Microsoft Azureなどの方が成長率が高い、とはいっても、彼らはそもそも、最初から分母が小さい。AWSは巨体になりすぎて、子どもの体の敏捷さを失っているだけだ。

MicrosoftやIBM, Google, そしてOracleやAlibabaまでも、クラウドの高い成長率を誇っているが、彼らを全部合わせてもマーケットシェアではAWSに及ばない。しかも彼らが今後どれだけ売上を稼いでも、市場そのものがものすごい高率で成長している。つまり長期的に見れば、彼らは一定のサイズのパイの分け前を争っているのではない。

今ではいろんな市場予測があって、どれが正しいのかよく分からないけど、IDCの数字では、昨年のパブリッククラウドの市場規模は950億ドルだ。同社は、3年後にはこの倍以上、すなわち2020年には1950億ドルと予想している。これが正しければ、どのクラウド企業にも巨大な市場機会があることになる。

同じくIDCが予測する2020年の全企業のIT支出の総計は、2兆7000億ドルだ。少なくとも当面は、全IT支出の中でクラウドサービスへの支出が、微々たる比率であることが分かる。

これよりも楽観的なForresterは、2020年のパブリッククラウドの市場サイズを2360億ドルと予測している。どんな数字になるにせよ、市場そのものが急成長していることは明らかである。

それはマーケットシェアを争う各社にとっては良いニュースだが、AWS自身も急成長していくわけだから、それに追いつくのは難しい。Amazonは10年以上も前に業界で初めて、パブリッククラウドをInfrastructure as a Service(サービスとしてのインフラストラクチャ)、すなわちIaaSとして市場化したが、その後数年間にわたり、この新しい業態に挑戦する競合他社は一社も出現しなかった。

今日では、Synergy Researchの数字によれば、マーケットリーダーであるAWSのマーケットシェアはとてつもなく大きい。変化の激しい市場だから一概に言えないとはいえ、Synergy ResearchのチーフアナリストJohn Dinsdaleの説では、AWSに追いつくことはMicrosoftにとってすら、非常に難しい。

screen-shot-2017-02-02-at-1-12-09-pm

Dinsdaleは語る: “単純に数字だけから言っても、AWSと二位以下との差があまりにも大きいから、短期的には首位争いと言えるほどの競争はありえない”。しかもAWSは、大きなマーケットシェアに安住することなく、次々と新しいイノベーションを打ち出している。

“AWSはインフラへの巨大な投資を継続しており、サービスの幅の拡大と実行性能の向上にも継続的に努めている。そのビジネスは顧客企業の成長と共に成長し、また今では重要な存在であるAWSを、母体であるAmazonが長期的に支えている。数字から言っても、ビジネスの論理から言っても、規模とマーケットシェアでAWSに匹敵するような競合他社は、近未来においては存在し得ない”、とDinsdaleは言葉を継ぐ。

だから今後しばらくは、すべてのパブリッククラウドベンダが、驚異的な業績をあげるにしても、それはAWSのシェアを奪ってのことではない。むしろ、今でもAWSのマーケットシェアは拡大を続けており、新しい機能やサービスを非常に頻繁に加え続けているから、資本力と企業力で負けていないMicrosoftやGoogleでも、AWSのマーケットシェアに食い込むことは、当分のあいだ難しいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloudは新作のWindows VMで長年のMicrosoft顧客を取り込む努力へ

disrupt_sf16_diane_greene-3758

Googleは今日発表したいくつかの新製品により、会社のデータセンターでWindowsを使っているITのプロフェッショナルたちをGoogle Cloud Platform(GCP)に誘いこもうとしている。

その魂胆でGoogleはまず、Microsoft SQL Server EnterpriseとWindows Server Coreを同社のCloud Platformでサポートする。同時に同社は、クラウド上で重要なオペレーションを動かしている顧客の可用性と事故復旧に関する懸念に応えて、SQL Server Alway-On Availability Groupのサポートも行う。

これによってITのプロたちは、これらのMicrosoftプロダクトが動いている構成済みの仮想マシンを、Google Cloud Platform上にローンチできるようになる。それらは、時間制で課金されるが、SQL Serverのライセンスは、彼らの既有のものをそのまま使える。

Google Cloud Developer Toolsの主席プロダクトマネージャーChris Sellsによるとこれは、Windows製品をGCP上でサポートする大きな戦略の一環だ。彼によると、最初はとにかく、これらのWindowsプロダクトを動かしているエンタープライズ顧客に、Googleが十分対応できることを見せつける。しかもそれは、昨年GoogleがSQL Server 2008と2012のサポートを開始したときに始まった、大局的な取り組みの一環でもある。今日の発表は、それの、さらなる拡張にすぎない。

おそらくもっと重要なのは、Microsoftの製品は使うけどMicrosoftに縛られたくはない、という企業に、Googleが格好の代替選択肢を提供することだ。“Microsoftにもこれらの能力はあるし彼らはWindowsとSQL Serverのオーナーでもある。しかし最近では、Microsoftに代わるものを求める企業がとても多くなっている”、とSellsは述べる。そこでGCPは、そんな人たちを自分のプラットホームへ誘惑したいのだ。

2015年の後半にGoogleは、Diane GreenをGoogle Cloudのトップとして招聘したが、大きな変革はその時点から始まった。Greeneはエンタープライズ経験のベテランであり、VMwareの協同ファウンダー/CEOでもあった。昨年の春Greeneは本誌に、“これからのエンタープライズはものすごくおもしろい”、と語った。つまりエンタープライズ指向はGoogle全体としての今および今後の方向性であり、彼女はGoogle Cloud Platformでその一翼を担いたいのだ。

Sellsによると、今回の発表もGreeneのエンタープライズビジョンの実現努力の一環だ。Google全体のエンタープライズ指向から見ればまだ小さな努力にすぎないが、伝統的なエンタープライズ市場のマーケットシェアをGoogleが少しでも削りとり、それを同社のクラウドへ連れ込もうとする、周到な取り組みの一環だ。

“彼らが自分のデータを置く場所として、GCPは最良の場所でありたい。そしてそれらのデータが、SQL Serverに載っていようが、何に載っていようが、何でもそのままサポートできることを、実感してもらいたい”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUマシンを提供するのは2017年前半から、ただし機械学習SaaSとAPIはますます充実

google_data_center_2

Googleが今年前半に立ち上げたCloud Machine Learningサービスは、Google自身によれば、早くも“急成長プロダクト”の一つになっている。今日同社は、このサービスの新しい機能をいくつか発表し、機械学習のワークロードを動かしたいと思っているユーザーとデベロッパーの両方にとって、さらにサービスの利用価値を増そうとしている。

これまでGoogleは、競合するAWSやAzureのように、ハイエンドのGPUを使う仮想マシンをデベロッパーに提供してこなかった。しかし、機械学習など、科学の分野に多い特殊でヘビーなワークロード、とくにそれらのアルゴリズムは、GPUのパワーを借りないとうまく動かないことが多い。

デベロッパーたちが一般的にGoogle Cloud Platform上で機械学習のワークロードを動かせる、そのために仮想マシンのGPUインスタンスが提供されるのは、Googleの発表によると、2017年の前半だそうだ。料金は、そのときに発表される。

なぜGoogleは、もっと前からこのタイプのマシンを提供しなかったのだろうか? Google自身、機械学習に非常に熱心だし、競合相手のAzureやAWSはとっくに提供しているというのに(Azureは今日(米国時間11/15)、OpenAIとパートナーシップを結んだ)。

しかしデベロッパーは、Googleの既存のCloud Machine Learningサービスを使って自分の機械学習ワークロードを動かすことはできる。そのための構築部材TensorFlowも利用できる。でもCloud Machine Learningが提供しているような高い処理能力と柔軟性を、Google既存のプラットホームで利用することが、まだできない。

今のGoogleはデベロッパーに、カスタムの機械学習モデルを構築するためのサービスと、機械学習を利用した、すでに教育訓練済みのモデルをいくつか提供している(マシンビジョン(機械視覚)、音声→テキスト変換、翻訳、テキストの情報取り出しなど)。Google自身が機械学習で高度に進歩しているし、独自のチップまで作っている。そこで今日のGoogleの発表では、Cloud Vision APIの使用料が約80%値下げされた。またこのサービスは、企業のロゴや、ランドマークなどのオブジェクトも見分けられるようになった。

そしてテキストから情報を取り出すCloud Natural Language APIは、今日(米国時間11/15)、ベータを終えた。このサービスは、構文分析機能が改良され、数値、性、人称、時制なども見分けられる。Googleによると、Natural Language APIは前よりも多くのエンティティを高い精度で認識でき、また感情分析も改善されている。

消費者向けのGoogle翻訳サービスは、今ではカスタムチップを使っている。またデベロッパー向けにはCloud Translation APIのプレミアム版が提供され、8つの言語の16のペアがサポートされる(英語から中国語、フランス語、ドイツ語、日本語、韓国語、スペイン語、トルコ語、など)。サポート言語は、今後さらに増える。プレミアム版では、これらの言語に関しエラーが55から85%減少した。

この新しいAPIは主に長文の翻訳用で、100言語をサポートする“標準版”は、短い、リアルタイムな会話テキスト用だ。

さらに、まったく新しいプラットホームとしてCloud Jobs APIがある。この、あまりにも専門的で奇異とすら思えるAPIは、求職者と仕事の最良のマッチを見つける。つまり、仕事のタイトル、スキル、などのシグナルを求職者とマッチングして、正しいポジションに当てはめる。Dice やCareerBuilderなどのサイトはすでにこのAPIを実験的に使って、従来の、ほとんど検索だけに頼っていたサービスを改良している。このAPIは、現在、特定ユーザーを対象とするアルファだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleのクラウドデータベースサービスのすべてがベータを終了、SLA完備、関連ストレージサービスも高速化

cbf_009

Googleが今日、同社のCloud Platformに関するいくつかの発表を行った。その多くは各種のクラウドデータベースに関するものだが、同時に、コールドデータのための安価なクラウドストレージサービスNearlineのアップデートや、ディスクボリュームの高速化、Cloud Storageでユーザー自身の暗号鍵が使えること、などに関する発表も行われた。

全体としてGoogleが訴えたいのは、同社のクラウドコンピューティングサービスが、プロダクション用途に十分使えるほど成熟している、ということだ。

データベースに関するビッグニュースは、Googleのクラウドデータベースサービスのすべてが今やベータを終えたことだ。たとえばクラウド上で容易に利用でき管理もできるMySQLデータベースCloud SQL第二世代バージョンも、9か月のベータを終了して一般公開される。

NoSQLデータベースのCloud Bigtableは、非常に大規模なデータ分析と実動負荷を誇っているが、これもやはり、今日から一般供用される。

datacenter_google

またWebアプリケーションやモバイルアプリから便利に使えるNoSQLデータベースGoogle Cloud DatastoreのAPIも、ベータを終えた。データベース本体はかなり前から一般供用されていたが、デベロッパーはそれを、Google App Engineの一部としてしか使えなかった。でもAPIが使えるようになると、App Engineの外のアプリケーションでもこのデータベースを使える。同社によると、今ではSnapchatなども使っているCloud Datastoreは、毎月1兆リクエストを処理している。

Googleによれば、これらのデータベースサービスにはベータの期間中にいろんな機能を加えてきたが、今現在でユーザーにとって一番重要なのはSLAが提供されたことだろう。たとえばCloud Datastoreは、SLAにより99.95%の月間アップタイムを保証している。

Microsoftの旗艦的データベースサーバーをGoogle Cloudで使いたい人のために、同社はライセンス込みのSQL Serverイメージを提供している(今ベータ中)。既存のライセンスを、そのまま使うこともできる。ただしSQL Serverのイメージを動かすとGoogleの通常のインスタンス使用以上の費用が発生する。それはSQL Server Standardでは1コア1時間あたり$0.1645、SQL Server Webでは$0.011だが、SQL Server Expressは無料だ。

SQL Serverをクラウドで使うならMicrosoftのクラウドを使うのがベスト、という話になりそうだが、しかしGoogleとしては、エンタープライズユーザーを既存のアプリケーションとワークロード込みで同陣営に鞍替えさせるために、このオプションが欠かせないのだ。しかも今や、エンタープライズ顧客のあいだでは、GoogleのクラウドよりもMicrosoftのクラウドサービスの方が人気がある。

なお、ストレージに関する今日の発表では、コールドデータ用の安価なストレージサービスNearlineが速くなった。NearlineはAmazonのGlacier〔氷河!〕ストレージなどと競合するが、低価格と引き換えに可利用性の保証が低い。これまでのNearlineユーザーは、データアクセスにおいて3〜5秒のレイテンシー(遅れ)を我慢しなければならなかったが、これからは、(Googleのスポークスパーソンによると)“ほとんどリアルタイムだ”そうだ。

GoogleのPersistent Diskボリュームも速くなり、最大リード/ライト(IOPS
)が15000から25000にアップした。データベースアプリケーションだけでなく、そのほかのデータの保存にも便利である。

Googleの今日の発表声明文によると、“Google Cloud Platformをみなさまのエンタープライズデータベースワークロードのための最良のパブリッククラウドにしていくための、従来からの弊社の一貫して多大なる献身の継続において、本日は特別に大きな里程標が刻まれたことになります”、だそうだ。Googleが同社のCloud Platformに関してきわめて真剣であることの、証拠はすでに出揃っていると思うが、それでもまだ不満な人は、今日の発表の内容を見るべきかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、エンタープライズ向けソフトのクラウドプラットフォーム、Orbiteraを1億ドル以上で買収

2016-08-09-industry-cloud

今日(米国時間8/8)、Googleは、クラウド・プラットフォーム・ブログOrbiteraを買収したことを発表した。Orbiteraはエンタープライズ向けクラウド・ソフトウェアのオンライン・ストアを開発したスタートアップだ。この買収によってGoogleはAmazon AWS、 Salesforce、Microsoftheなどに対抗してクラウド上でエンタープライズ向けサービスを提供する能力が強化される。

買収の詳細は明らかにされていないが、この取引に近い筋がわれわれに明かしたところによると、金額は1億ドル以上だという。

Orbiteraの既存顧客を含むビジネスとテクノロジーだけでなく人材の獲得も買収の目的とみられる。CEOのMarcin Kurcは元AWSという経歴であり、Googleの発表によればOrbiteraではすでに6万以上のエンタープライズ・けソフトに利用されているという。この中にはAdobe、Oracle、Metalogixなどサードパーティーのクラウド・サービスを購入して自社のエンタープライズ向けソフトに組み込み再販売するベンダーが含まれている。

Googleは「Orbiteraの買収はGoogle Cloud Platformを利用しているソフトウェア・ベンダーに対するサポートを大きく改善するだけでなく、現在普及しつつあるマルチ・プラットフォームのクラウド環境においてカスタマーに複数のクラウドを利用することを助ける」とTechCrunchに対してコメントを送ってきた。

プレスリリースでKurcは「当面Googleはビジネスのすべての面で現状を維持する」と述べている。

Orbiteraによれば、現在事業の柱としているのはクラウド上でエンド・ツー・エンドのサービス環境を構築するためのクラウドソフトのパッケージとプロビジョニング課金処理とコスト最適化マーケットプレイスとカタログ管理トライアルと顧客獲得のリード管理という4つののプロダクトだという。

Googleのグローバル・テクノロジー・パートナーの責任者Nan Bodenは「将来を考えるとGoogleがOrbiteraのマルチ・プラットフォーム環境におけるプラットフォーム中立性を維持することが重要だ」と書いている。

Googleが検索エンジンという当初の単純な枠を大きく超えて巨大化するにつれ、他社との関係も「ある側面でライバルであると同時に別の側面ではパートナーである」ような複雑なものになっている。

Googleにとってこうした複雑な利害関係にたつ多数の企業を顧客としてオンライン・プラットフォームを提供するOrbiteraの買収に踏み切ったことを興味深い展開だ。同時にGoogleが買収後のOrbiteraの運営にあたってきわめて慎重な態度を取っていることもこうした面から考える必要があるだろう。

Googleとしてはクラウド上でエンタープライズ向けサービスを売買するプラットフォームを提供するとしても、そうしたプロダクトの最終的所有者はGoogl本体とは独立した組織であるということを顧客に再確認する必要があると考えているようだ。

もっともこれがGoogleの長期的方針なのかどうかは別問題だ。広告など他の分野ではGoogleは当初買収企業の中立性の維持を強調したが、後に方針を変更した例がある。しかしクラウド・サービスは今後の市場規模が巨大になることが予測されるので、中立性を維持することがGoogleにとって有利になりそうな分野だ。【略】

OrbiteraはFiras BushnaqBrian Singerによって共同で創業された。2人の共同ファウンダーはこれ以前に複数のテクノロジー・スタートアップを創立、運営する際に直面した「ソフトウェアの販売、流通、運用をするうえで直面した数多くの困難」を解決したいと考えたのがOrbiteraの事業のアイディアを得たきっかけだったとしている。

同社はロサンゼルス郊外のウェスト・ハリウッドに本社を置き、Hiten Shah、Arjun Sethi、Double M Partners、Resolute.vcからこれまでに200万ドルのエンゼル資金を調達している

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、クラウド自然言語APIを公開―英語、日本語、スペイン語に対応

DUBLIN, IRELAND - APRIL 19:  (FRANCE OUT) A general view the Google European headquarters, on April 19, 2016 in Dublin, Ireland.  (Photo by Vincent Isore/IP3/Getty Images)

今日(米国時間7/20)、Googleはクラウド自然言語API(Cloud Natural Language API)の公開ベータ版をリリースしたことをブログで発表した。デベロッパーはこの新しいサービスにより、Googleが開発したセンチメント分析、 表現抽出、シンタックス解析などの利用が可能になる。

新しいAPIはこれも公開ベータ版であるGoogleの訓練ずみ機械学習API、 クラウド・スピーチAPI(Cloud Speech API)視覚API(Vision API)翻訳API(Translate API)と連携させることが可能だ。

現在、クラウド自然言語APIは英語、スペイン語、日本語のテキストに対応している。Googleによれば新APIは「業種を問わず、広い範囲の企業、デベロッパーに高効率でスケール可能なサービスを提供する」ことが目的だという。

センチメント分析や表現抽出の提供はもちろん新しいアイディアではない。表現抽出の例としてはたとえば10年近く前にスタートしたThomson ReuterのOpen Calaisがある。これはテキスト中の人名、組織名、地名、出来事名などを自動的に認識してラベル付けできるサービスだ。センチメント分析についても事情はほぼ同じだ。

それに反して、自然言語を品詞分解し、依存関係をツリー構造でパースできるシンタックス解析APIは、まだそれほど普及していない。デベロッパーが新APIをアプリにどう統合するか注目だ。当然ながら自然言語解析は チャット・ボットなどがユーザーから寄せられる自然言語によるリクエストを正しく認識する基礎となる。

自然言語APIの料金はどのAPIを利用するか、どれほどのデータを処理するかによって違ってくる。3つのAPIについての料金は以下のとおりだ。

image (3)

80種類以上の自然言語をサポートするクラウド・スピーチAPIの場合、料金は処理しようとする音声の長さに基づいて計算される。月額計算で最初の60分は無料、それを超える場合15秒ごとに0.006ドルが加算される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+