Google Cloudがマネージドcronサービスを提供、自分でcronするより楽?

Google Cloudに、バッチジョブを動かすためのマネージドcronサービスが登場する。そのサービスはCloud Schedulerと呼ばれ、たぶんあなたが悪戦苦闘することもあるコマンドラインの標準コマンドcronの、すべての機能を提供するが、クラウドで動かすマネージドサービスとしての信頼性と使いやすさも兼備している。

Cloud Schedulerのジョブのターゲットは、すべてのHTTP/SエンドポイントとGoogle自身のCloud Pub/Subトピック、そしてApp Engineのアプリケーションだ。デベロッパーはこれらのジョブを、Google Cloud ConsoleのUIやコマンドラインインタフェイス、あるいはAPIから管理できる。

GoogleのプロダクトマネージャーVinod Ramachandranが、今日(米国時間11/6)の発表声明でこう説明している: “cronのようなジョブスケジューラーはどんなデベロッパーの道具箱の中でも主役級の存在で、タスクのスケジューリングやシステムメンテナンスの自動化を助けている。しかしジョブスケジューラーにも、そのほかの従来的なITサービスと同じ課題がある。つまりインフラを自分で管理しなければならないし、失敗したジョブはいちいちマニュアル(手作業)でリスタートしなければならない、そして、ジョブのステータスを目で見ることができない”。

Ramachandranの説明によると、今まだベータのCloud Schedulerは、ジョブをターゲットに確実にデリバリすることを保証する。重要なジョブは確実に始動し、ジョブをAppEngineやPub/Subに送るとサクセスコードやエラーコードが返される。そして同社が強調するのは、何かがおかしくなったらCloud Schedulerに容易にリスタートさせられることだ。

もちろんこのコンセプトはGoogleが初めてではない。同様のサービスを提供しているスタートアップも数社あるし、またGoogleのコンペティターであるMicrosoftにも、同様のサービスがある。

料金は、1か月に3ジョブまでは無料、その先は1ジョブごとに月額10セントだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのサーバーレスプラットホームCloud Functionsが一般供用を開始

Cloud Functionsは、Googleのサーバーレスプラットホームで、AWS LambdaやMicrosoftのAzure Functionsと、もろに競合する。今日サンフランシスコで行われたCloud Nextカンファレンスで、このプラットホームの一般供用が発表された。

GoogleがCloud Functionsを発表したのは2016年だから、長いベータだ。感じとしては、Googleはサーバーレスに、AmazonやMicrosoftほどのリソースを投じていなかったのではないか、と思われる。AWSやAzureはそれに対し、サーバーレスに大きく賭けている。また、サーバーレスの導入や利用、管理、デバッグ、セキュリティなどを助けるスタートアップも、このところ増えている。

Googleのプロダクトはベータを抜けるとSLA(サービスの品質の保証)が付くが、Cloud Functionsもそうだ。ただし一般供用といっても、当面はアメリカとヨーロッパのリージョンのみだ。

Googleは今日、これまでのようにGoogleが単純にホストするクラウドプラットホームのほかに、エンタープライズ向けにハイブリッドクラウドを提供するGoogle Cloud Servicesを発表した。そこでユーザーがCloud Functionsをセルフホストすることはできないが、Googleは、サーバーレスアプリケーションを動かしたい企業にはKubernetesを自己のデータセンターで動かすことを勧めている。…実はぼくも、‘サーバーレス’という言葉が好きじゃないけどね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudのAutoMLサービスはFigure Eightとパートナーして訓練データの充実を目指す

機械学習のモデルの訓練やテスト、微調整などを支援するプラットホームFigure Eightが今日(米国時間7/24)、Googleとの重要なコラボレーションを発表した。それによると、今後Google CloudのAutoMLサービスでは、Figure Eightが機械学習のデータの作成やアノテーションを行なうときのデファクトスタンダードのパートナーになる。

Figure EightのCEO Robin Bordoliによると、Googleは前から顧客だったが、AutoMLがベータになり、そのプロダクトポートフォリオを拡大している現状では、両社がもっと密接に協働すべき、との結論に達した。Bordoliの主張では、デベロッパーが機械学習のモデルを構築するときの今だに最大の難関が、データの訓練だ。Googleも、そのことをよく認識している。“彼らの認識では、データ訓練の欠如がAutoMLの採用を阻む基本的な障害だ”、と彼は述べる。

AutoMLの最初のプロダクトは機械視覚がメインだったから、Figure EightとGoogleのパートナーシップも、ビジュアルデータによるモデルの訓練が多かった。Figure Eightのサービスを利用することによって、比較的経験の浅いデベロッパーでも、データの収集やAutoML向けの準備、それによる実験などができていた。

Figure Eightが類似のプラットホームと違うのは、その工程に人間が関与することだ。Bordoliの主張では、訓練データのアノテーションを完全にAIツールにまかせることなんて、できない。それは、人間にだけまかせるわけにはいかないのと、同じだ(世界中の人びとを集めてタグ付けをやらせないかぎり)。

GoogleのGoogle Cloud AutoMLのプロダクトマネージャーFrancisco Uribeはこう語る: “うちの顧客の重要なニーズが、人間によるラベル付けだ。Figure Eightとのパートナーシップによって、そのニーズのサポートが強化される”。

このパートナーシップに基づいてFigure EightはAutoML専用のテンプレートと、データをアップロードするプロセスをたくさん作った。同社はまた、顧客がデータを作って訓練する際の お手伝いも提供する(それにより、公平なAI(AI fairness)の担保を目指す)。Google CloudのユーザーはFigure Eightのプラットホームを使って最大1000までの画像にラベルを付け、また同社のアノテーターを利用することもできる(アノテーションを自分でやらない場合)。

今日の発表に至るまでにFigure Eightはすでに、100億以上のデータラベルを生成しており、Googleとの公式パートナーシップにより、それはさらに加速されるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

API管理のGoogle ApigeeがInformaticaとパートナーしてアプリケーションの統合を充実

GoogleはAPI管理サービスApigeeを2016年に買収したが、今日まで、その後の展開はあまり見られなかった。しかし今日(米国時間7/12)のApigeeの発表によると、いくつかの小さなアップデートによりGoogle Cloud Platformとの統合がより深まり、また、クラウドデータの管理統合サービスを提供するInformaticaとの大型パートナーシップにより、InformaticaがGoogle Apigeeの最優先の統合パートナーになった。

この分野のパートナーシップの多くがそうであるように、Informaticaとの契約には営業やマーケティングにおける協力も含まれるが、重要なのはその部分ではない。このパートナーシップで重要なのは、Informaticaのツールの一部をGoogleがApigeeのダッシュボードに載せてしまうことだ。それによってApigeeのユーザーは、Informaticaの幅広い各種サードパーティ製エンタープライズアプリケーションの統合を利用でき、またInformaticaのユーザーは自分たちのAPIをApigeeから公開でき、管理もしてもらえる。

Googleと競合するMicrosoftなどは、独自の統合サービスを作っている。Google Cloudのプロダクト管理担当Ed Anuffによると、Googleのロードマップにそれはなかった。彼は曰く、“コネクターの充実したカタログを作るためには、大量のノウハウを必要とする。統合化プラットホームを作るのは簡単でも、アプリケーションのコネクターがなければ何の役にも立たない”。そこでGoogleは、すでに大きなカタログを持ち、エンタープライズ界隈で信頼の厚いパートナーを、探すことにしたのだ。

同様に、Informaticaでビッグデータとクラウドとデータインテグレーションを担当しているVPでGMのRonen Schwartzは、彼の会社の顧客の多くがクラウドへの移行を志向するに伴い、自分たちのサービスをApigeeに持ち込んで、外部のアプリケーションに対してオープンにすることが、より容易になる、という。“今回のパートナーシップにより、両社の良いとこ取りを顧客に提供できる。しかも顧客はそれを、統合化され最適化されたやり方で利用できる”、と彼は語る。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudのCOO、わずか7ヶ月で離任――原因に関心集まる

昨年11月、Googleは Diane BryantがGoogle Cloud事業の新しいCOOに就任すると発表した。Bryantは当時Intelのデータセンター事業部の責任者で一時休職中だった。Bryantの採用はGoogleにとって大成功だと考えらたが、長続きしなかったようだ。Business Insiderのスクープによれば、Bryantは就任からわずか7ヶ月でGoogle Cloudを去った。

TechCrunchがGoogleに確認を取ったところ、広報担当者から、「BryantがGoogleを離れたことを確認する。われわれは在任中のBryantの貢献に感謝し、次の段階にも多幸を祈っている」というコメントが返ってきた。

Bryantの離任の原因は現在のところ明らかでない。IntelのCEO、Brian Krzanichが女性社員との不適切な関係が報じられて辞任した後、取締役会は後任探しを始めている。Bryantはその条件に適していると考えられている。IntelはCEOの選択で部内者を抜擢するのが例だった。ただし今の段階でIntelの取締役会がすでに後任を決定しているということは考えにくい。Intelに25年間勤務して実績を挙げてきたBryantのリクルートはGoogle Cloudにとってヒットだった。Googleはクラウド事業でAmazonとMicrosoftを追う立場にあり、Bryantはこうした事業のトップとして理想的と見られていた。

Bryantの採用にあたって、Google CloudのCEO、Diane Greeneは「Bryantの戦略における見識やテクノロジー上の知識、またクライアントを熟知していることなどは今後Google Cloudを新しい段階へとスケールさせるためにこの上なく価値あるものとなるだろう」と述べていた。最近のアナリストのレポートによればGoogle Cloudの市場シェアは漸増しており、売上もそれに比例してアップしている。それでもGoogleはこの分野でかなり離れた3位であり、この状態は当分変わりそうにない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Cloudが古典的ファイルシステムを必要とするアプリケーションのためのストレージオプションを用意

Google Cloud Platform(GCP)のストレージオプションが、新たにまた一つ増える。そのCloud Filestoreと名付けられたサービスは、来月ベータでローンチするが、それは要するに、クラウド上の完全な管理を伴うnetwork attached storage(NAS)だ。これにより、ストレージに対して従来的なファイルシステムのインタフェイスを必要とするアプリケーションを、GCP上で動かせるようになる。

従来のようにストレージの利用インタフェイスとしてオブジェクトストレージやデータベースしかないGCPのような環境で標準的なファイルシステムを使いたければ、それ専用に恒久的に使うハードディスクを使ってファイルサーバーを急ごしらえするしかない。Filestoreはそんな面倒を取り除き、ユーザーが必要に応じて簡単にストレージを確保できるようにする。

Filestoreは、高スループット、低レイテンシー、そして高IOPSを約束している。料金体系はプレミアムとスタンダードの2種、そしてプレミアムは、1GB/月が30セントで、ストレージの容量にかかわらず700MB/sのスループットと30000IOPSを約束する。スタンダードは1GB/月が20セントで、パフォーマンスは容量でスケールし、Filestoreに10TB以上を保存するまではピークパフォーマンスに達しない。

GoogleはFilestoreをロサンゼルスで行われたエンターテインメントとメディア関連のイベントでローンチした。その業界には、共有ファイルシステムを必要とする大量のエンタープライスアプリケーションがあり、またそのような種類のエンタープライスアプリケーションは、他のさまざまな業界にもたくさんある。

Filestoreベータは来月ローンチする。ベータ時点では、アップタイムの約束はなく、またベータを終えるETAもまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

より本格的な健康データデバイスを目指すFitbitがGoogle Cloud Health APIの利用へ

ヘルスデータ・ブレスレットのFitbitが今朝(米国時間4/30)、単なるエクササイズツールから本格的なヘルスケア製品へのステータス・アップをねらって、GoogleのCloud Healthcare APIを利用していく、と発表した。これはまるで、筋書き通りのようなパートナーシップだ。

アメリカの保健医療市場は2016年の支出額で3.3兆ドルと言われるが、GoogleはCloud Healthcareでこの巨大な市場へ食い込むことをねらっている。この市場の成長を止めるものは何もないから、数年後にはさらに額が肥大していると予想される。

Googleはこれまで、同社の既存のクラウド製品を利用して、ヘルスケアという巨大な世界のための情報共有基盤を提供してきた。その初期の段階では同社は、Stanford School of Medicine(スタンフォード大学医学部大学院)など医療専門機関とパートナーしてきたが、今回のFitbitとの契約は、さらにメジャーな路線への進出になる。

またFitbitにとっては逆に、より正統的なヘルスケアの世界への接近になる。最近のイベントでCEOのJames Parkは、ヘルスケアは消費者電子製品の企業がそこへ向かっていくべき大きな世界だ、と語った。それはもちろん、Jawboneのように消費者分野を切り捨てるという意味ではなく、正統的な医療保健データの収集を一般化大衆化することに大きな市場機会を見出している、ということだ。

正統的というのは、医師が患者の電子的医療データとまったく同格に、Fitbitによるモニタリングデータを利用する、できる、という意味だ。最近同社が買収したTwine Healthは、エクササイズデータに加えて糖尿病や高血圧などのデータを提供してくれるはずだ。

Google Cloud Healthcareからの新しいサービスについて、具体的な日程等の発表はまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、NvidiaのTesla V100 GPUをクラウドで提供開始

Google は今日(米国時間4/30)、Nvidiaの高性能GPU Tesla V100がCompute EngineおよびKubernetes Engineで利用可能になったことを発表した。現在はまだ公開ベータだが、GPU作業でGoogleの完全サポートを必要とする利用者には、やや性能の低いNvidia P100 GPUがベータを終え一般公開された。

V100 GPUは、今もNvidiaの高性能コンピューティングのラインアップの中で最も強力なチップだ。登場からしばらく時間がたっており、Googleはやや遅れた参入となった。AWSIBMはすでにV100を顧客に提供しており、Azureではプライベートプレビューを行っている。

GoogleはNvidiaのマルチGPUプロセッシングのための高速インターフェースであるNVLinkも使用していることを強調しているが、ライバル各社もすでにこれを使っていることは指摘しておくべきだろう。NVLinkはGPU-to-GPUのバンド幅を従来のPCIe接続より9倍速くすることで作業によっては40%性能が高くなるとGoogleは約束している。

もちろん性能のためにはお金が必要だ。V100の使用料は1時間につき2.48ドル、P100が1.46ドルだ(これは標準価格であり、Preemptible仮想マシンは半額で利用できる)。これ以外に通常の仮想マシンまたはコンテナを動かすための料金を払う必要がある。

現在V100マシンは、1 GPUまたは8 GPUの2種類の構成で利用可能で、将来は2または4 GPUの構成も加わる予定。P100には、1、2、または4GPUが用意されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google Cloudのマネージドデータベースサービスがクラウドサービスとしての機能を充実

Googleがクラウドから提供しているデータベースが今日(米国時間4/25)、アップデートされた。画期的な新製品に生まれ変わったわけではないけど、それらのアップデートはすべて、企業がクラウドへ移行するときに経験するさまざまな痛点に対処している。

Googleのプロダクト管理のディレクターDominic Preussによると、Googleは長年、データベースの世界における思想のリーダーを自負している。思想のリーダーとは言ってもこれまでは、Bigtableに関するペーパーなどが主で、実際の製品で示す思想ではなかった。しかし最近では、グローバル分散データベースCloud Spannerが示すように、市場でもその姿が目立つようになった。

Preussによると、Googleのエンタープライズユーザーは彼らの既存のワークロードをクラウドへ移すことから始めるところが多い。しかしそれが一巡したら、新しいアプリケーションをクラウドに載せようとする。そしてそのとき求めるのが、クラウドのプロバイダーがアプリケーションやインフラの管理を肩代わりしてくれる、いわゆるマネージドサービスだ。

今日の発表も、エンタープライズに、彼らが求めるある種のマネージドデータベースサービスを提供していくことがメインのテーマだ。

まずそれは、ベータでローンチされるCloud Memorystore for Redisだ。これは完全に管理されるインメモリのデータストアで、大きなバッファリングをインメモリのキャッシュでやりたい、などのニーズに応える。

ビッグデータワークロード用のNoSQLデータベースサービスCloud Bigtableに、新しい機能が加わった。その、いずれregional replication(リージョナルレプリケーション)という正式名で呼ばれることになる機能は、オンプレミスのワークロードにApache Cassandraを使っていたエンタープライズに、Google Cloudにおけるその代替系を与える。そして、この、異なるゾーンにまたがるレプリケーションにより、Google Cloudに保存するデータの可用性と耐久性が高くなる。

今回のアップデートには、Cloud SQL for PostgreSQLのSLAにおける可用性を99.95%にすることも含まれる。またCloud Spannerには、コミットのタイムスタンプがつく。

Googleのクラウドデータベース周辺には、今後どんな新メンバーが登場するのか。Preussはその答を言わないが、今同社はエンタープライズができるだけ多くのワークロードをクラウドへ移行できるようにしたい、と考えているそうだ。つまり、マネージドサービスが今後も増える、ということだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudがユーザーのネットワークを最適化できるための詳細分析情報を提供

Google Cloudが今日(米国時間4/5)ローンチする新しい機能でユーザーは、Google Cloud上のユーザーのサーバー群とGoogleのそのほかのサービスやオンプレミスのデプロイメント、そしてそのほかのありとあらゆるインターネットのエンドポイントとの間のデータフローをモニタし、最適化できる。名前が示すように、そのVPC Flow Logsと呼ばれる機能は、GoogleのVirtual Private Cloud機能(仮想プライベートクラウド, VPC)を使って自分たちのリソースを他のユーザーから隔離している企業が利用する。

VPC Flow Logsは、VPC内の仮想マシンが送受するすべてのネットワークフロー(UDPとTCPの両方)をモニタしログする。それには、Google Cloudの複数のリージョン間のトラフィックも含まれる。そのデータをGoogle Cloudに保存したければ、すべてのデータをStackdriver LoggingやBigQueryへエクスポートできる。後述のように、そのほかのリアルタイムアナリティクスやセキュリティプラットホームにエクスポートするには、Cloud Pub/Subを使える。データは5秒おきにアップデートされるが、このサービスの利用がユーザーがデプロイしているアプリケーションのパフォーマンスに影響を与えないことを、Googleは約束している。

今日の発表におけるGoogleの注記によると、これによりネットワークの運用者はGoogleのネットワークのパフォーマンスを詳細に知ることができ、ネットワークのトラブルシューティングも可能になる。またユーザーのグローバルなトラフィックに関するさまざまな情報が得られるので、ネットワークの使い方や費用を最適化できるようになる。

そのデータはすべて、不審者がユーザーのネットワークに入り込んでいたときなどの捜査にも役に立つ。ただしそのためには、データを、SplunkやArcSightのようなセキュリティ情報とイベント管理(security information and event management, SIEM)の専門企業へエクスポートした方がよいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleが三月の狂気(march madness)でリアルタイムの試合展開予想をCMで提供

Googleは、同社のデータサイエンスの技術をリアルタイムで試してみたいようだ。今週末(米国時間3/30〜)同社は、サンアントニオで行われるファイナルフォー(Final Four, 全米男子大学バスケ選手権)で、データ分析と機械学習の技術を駆使して、試合中にさまざまな予測を行う。そしてハーフタイムに放映されるテレビコマーシャルでは、そのゲームの後半戦について予言する。

その詳しい計画は同社の今朝(米国時間3/30)のブログ記事に載っていて、そこでは、Googleのクラウド技術を使ったスポーツデータの統計分析などで同社とNCAA(全米大学体育協会)はすでに関係があり、今回の企画もそのご縁から生まれた、と言っている。そしてGoogleはこの機会を、NCAAのデータのより高度な活用の機会と捉えている。

チームはデータサイエンティストと技術者とバスケットボールのファンたちで構成され、GoogleはGoogle Cloud PlatformとBigQuery、Cloud Datalabなどの技術を利用するデータ処理のワークフローを構築した。データは非常に細かくて、各人の毎分のショットブロック数、動物をマスコットにしているチームの逆転負け率、などもある。Googleはそれらのデータを総動員して、今行われているゲームの経過や結果を予想する。そのためには、ゲームの前半から得られたデータをリアルタイムで分析し、それに基づく予想を数分後にコマーシャルで発表する。

Google Cloudのチームが試合中の会場にいて、前半のデータをワークフローに放り込み、NCAAの過去のデータも利用して分析する。ハーフタイムになったら、データをさらに分析して予想を作りだす。その技術的な詳しい説明は、Google Cloud Big Data and Machine Learningのブログで共有されている。

ハーフタイムが終わる前にGoogleは、出来立てほやほやのテレビコマーシャルをCBSとTurnerに渡し、後半が始まる直前にそれが放映される。

“スポーツイベントの実況中に自社のリアルタイム予測分析技術を利用してコマーシャルを作る企業は、うちが世界で初めてだろう”、とGoogleは言っている。

この実験はGoogle Cloudなどの技術を宣伝する方法としても巧妙だが、ファイナルフォーの予想をするテクノロジー企業はGoogleだけではない。

すべてのバーチャルアシスタント(スマートアシスタント、音声アシスタント)が、独自の予想をしている。GoogleのGoogle Assistantだけでなく、AmazonのAlexaも、MicrosoftのCortanaも、AppleのSiriも。でもそれらの一部は、本物のデータサイエンスを利用した予測というより、人が書いた意見のようだ。

このGoogleとNCAAのデータサイエンス/機械学習の実験には、そのためのWebサイトもある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudがプリエンプティブなGPUをローンチ、料金は50%安

Google Cloudが今日(米国時間1/4)、プリエンプティブなGPUのローンチを発表した。GoogleのプリエンプティブVMやAWSのスポットインスタンスなどと同様に、これらのGPUも相当な低料金で利用でき、しかし preemptibleの名のとおり、Googleがそのリソースを必要とするときにはいつでもシャットダウンされる。ユーザーはそのとき、30秒の警告をもらうだけだ。またこのプリエンプティブGPUは、最大24時間しか利用できない。

使用できるGPUは、Google Cloudプラットホームが今提供しているNVIDIA K80とNVIDIA P100だ。料金は1GPUあたり、K80が1時間0.22ドル、P100が0.73ドルだ。それプラス、VMの料金もあるだろう。その場合の料金もプリエンプティブVMの料金になるが、こちらはGPUのワークロードが終わる(またはGPUシャットダウンの警告が出る)まではシャットダウンされない。

Googleによると、これらのプリエンプティブなGPUは、フォールトトレラントな機械学習など、バッチで処理される計算集約的なワークロードに適している。Googleのマネージドインスタンスグループ機能を併用すれば、ダウンしたあとでもプリエンプティブなインスタンスを自動的に再生成できる。

Googleは今日の発表のわずか数か月前に、通常のGPUを大幅値下げしている。

またGoogleのリリースノートによると、GPUは今ではGoogle Cloudのアメリカ中部リージョンでも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudが元Intelの役員Diane BryantをCOOに迎える、‘二人Diane’の演目に

今やGoogle Cloudのステージは、二人のDianeが演じている。同社は、この部門のCOOとしてDiane Bryantをスカウトした、と発表した。彼女は、2015年11月にGoogle CloudのSVPとして加わったDiane Greene〔今ではCEO〕と一緒になる。

Greeneは、彼女がチームに加わることを喜んでいるようだ。“彼女以上に適切な経験と才能のある人物は、思いつかない。彼女は、強力なビジネスフォーカスを持つエンジニアであり、テクノロジーの世界で30年に及ぶ傑出したキャリアを有している”、とその任命を発表する同社のブログ記事に書いている。

そのブログ記事は、Bryantの役割やGreeneとの上下関係には触れていない。[この記事が公開されたあとにGoogleが再度くれた情報によると、GreeneがBryantの上司になるようだ。]

United Technologiesの取締役でもあるBryantは、最近までIntelのData Center Groupを統轄していた。この部門は昨年、170億ドルという大きな売上をあげている。そのデータセンター技術の経験と、Intelの売上に大きく貢献した実績が、Googleが彼女を獲得した理由のひとつだろう。

Googleはそのクラウドビジネスを、まだ構築途上であり、IBMとMicrosoft、そしてマーケットリーダーAWSのずっと後方で、4位の座に甘んじている。エンタープライズからの信任を増すためにGreeneを加えて2年経つ今でも、Synergy Researchのデータによるとマーケットシェアは一(ひと)桁だ:

それでもGoogle Cloudは、2017年のQ3に75%という大きな成長を経験した。しかしAWSは依然として大きな差をキープしているし、Microsoftはさらに急速に成長しているから、マーケットシェアの数字はあまり変化しないのである:

画像提供: Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Compute EngineではそのVMインスタンスの上で別の仮想マシンを動かせる、マトリョーシカのように

クラウドコンピューティングの、これからご紹介する機能は、ちょっと変わっているが、でも実用性は十分にある。GoogleのCompute Engineが今日(米国時間9/28)、“nested virtualization”(入れ子状の仮想マシン)と呼ばれる新たな機能を、ベータでローンチした。その名のとおり、VMの中でVMを動かせるのだ。

でも、なんでそんなことを? Compute EngineのプロダクトマネージャーScott Van Woudenbergが、今日の発表声明でこう説明している: “企業がオンプレミスで仮想マシンを動かし、その上にアプリケーションがあるとき、それらをクラウドへ移行するためにはnested virtualizationを便利に利用できる。VMのイメージをインポートして変換する必要がない。dev/test(開発/試験の繰り返し)やCI/CD(継続的インテグレーション/継続的デリバリー)などで、複数の環境でソフトウェアを検証する必要のあるワークロードでは、nested virtualizationが最適である。”

彼によると、これによりクラウドベースの災害復旧ソリューションをより安価に作れるし、教育訓練や資格認定のためにさまざまな仮想環境をセットアップしたい企業にとっても便利だ。被験者の全員に、確実に同じ環境を提供できるからだ。

この機能は、プリエンプティブVMを含め、Compute EngineのどのタイプのVMでも利用できる。唯一の要件は、その(ユーザーの)VMがIntelのHaswell以降のCPUで動くことだ。

実際にどうやるかというと、まず通常のVMをセットアップし、そのインスタンスの上にKVM互換のハイパーバイザーをインストールする。Googleによると、今のところKVM非互換のハイパーバイザー、Xen, ESX, それにMicrosoftのHyper-Vなどはサポートされない。使用するインスタンスも、Linuxインスタンスのみである。Windowsマシンではnested virtualizationを使えない。

なお、Microsoft Azureはすでにnested virtualizationをサポートしている(Hyper-Vハイパーバイザーを使用)。AWSでは、OracleのRavelloのようなツールを使って同様の機能を実現できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleはCloud等の企業顧客のセキュリティの便宜のためアイデンティティ管理のBitiumを買収

Google Cloudが今日(米国時間9/26)、エンタープライズ向けにアイデンティティ管理と、クラウド上のアプリケーションへのシングルサインオンなどアクセスツールを提供するBitiumを買収したことを発表した。これによりGoogleは、クラウドのエンタープライズ顧客の企業全域にわたる実装を、より良く管理できるようになり、たとえば同社のCloudやG Suiteなどのアプリケーションをすべてカバーするセキュリティレベルやアクセスポリシーを設定できる。

Bitiumは2012年に創業され、中小企業と大企業の両方をターゲットにしていた。同社はいわば、Google AppsやOffice 365、ソーシャルネットワーク、CRM、コラボレーションやマーケティングのツールなどすべてを管理できるワンストップサービスで、それにより、企業のセキュリティスタンダードへのコンプライアンスをより確実なものにしていた。

Bitiumの目標は、多くの企業とその社員たちが使っている人気の高いクラウドアプリケーションの管理と利用のプロセスを単純化することで、それによりユーザーが“影のIT”(shadow IT)と呼ばれる劣悪な領域に足を踏み入れないようにしている。その劣悪な領域では、サービスへのエンタープライズとしてのアクセス環境が完備していないので、社員が自分個人のアカウントで勝手にアクセスし、セキュリティを破壊しているのだ。

今回の買収は、Googleの顧客企業がそうなってしまうのを防ぐことが目的だが、Bitiumの従来の業務はそのまま継続できるし、新たなアプリケーションとパートナーしてもよい。またGoogleのプラットホーム自身も、他のサードパーティのアイデンティティ管理プロバイダーの利用に対してオープンであり、エンタープライズ顧客がGoogle CloudやG Suiteの利用のためにそれらを統合してもよい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloud、新しいネットワーキングアルゴリズムでスループット向上へ

今日(米国時間7/20)Googleは、google.comやYouTubeなどのネットワークスループットを全世界で約4%改善した新しい輻輳制御アルゴリズム、TCP BBRを、Cloud Platformユーザーにも開放すると発表した

基本的な考えは、既存のインターネットトラフィック用輻輳制御アルゴリズムを改善することにある。現在使われているのは 1980年代からあるもので、パケットロスのことしか考慮していなかった(ネットワーキングバッファーがいっぱいになると、ルーターは新しいパケットを捨てる)。こうしたアルゴリズムは過負荷にならないためにはデバイスがどれだけ速くネットワークにデータを送ればよいかを決定する。最終目的地に到達しないデータパケットの存在にシステムが気づくと、データをゆっくり送る。理想的にはこれで輻輳を減らすことができる。これを実現する(そしていずれはまたスピードアップする)ためのアルゴリズムは数多く存在するが、核となる部分はみな同じパターンを踏襲している。

Bottleneck Bandwidth and Round-trip propagation time”[ボトルネック帯域幅往復伝搬時間]を意味するBBRは、異なるアプローチをとる。パケットロスだけでなく、ネットワークが実際にデータを届ける速さを考慮する。「あるネットワーク接続について、ネットワーク転送速度および往復時間の最新データを使って、この接続で利用できる直近の最大帯域幅と、最低往復遅延時間を含む明示的モデルを構築する」とGoogleは説明する。次にBBRがこのデータを利用してデータを送る速さを決める。

その結果、このアルゴリズムは与えられた時間内に(パケットロス無しに)より多くのデータを送ることができる。長距離のリンクでは特に顕著だ。Googleは、あるベンチマークでスループットが2700倍になったと言っているが、もちろんそれは人工的なベンチマークの極端なケースだ。

GoogleがBBRについて公の場で話したのは昨年の論文が最初で、その後プロトコルをオーブンソース化した。GoogleはLinuxのカーネルTCPスタックにも貢献している。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleがシンガポールとオーストラリアを結ぶ海底ケーブルに投資

Googleが今日(米国時間4/5)、シンガポールとオーストラリアのパースおよびシドニーを結ぶ新しい海底ケーブルへの投資を発表した。インドネシアのジャカルタを経由するこのいわゆるIndigoケーブルは全長約5600マイルで、これもやはりAARNet, Indosat Ooredoo, Singtel, SubPartners, Telstaなどから成るコンソーシアムが敷設する。

ケーブルは二つのファイバーペアを使用し、総容量が毎秒約18テラビットになる。将来、さらに拡張される予定もある。

Googleによると、この容量はGoogle Hangoutのビデオメッセージングを同時に800万件送受できる(今ならHangout Meetの、と言うべきか)。ただしもちろん、Google一社が総容量を独占するわけではないから、800万は現実的な数字ではない。しかも18テラビットは今日のスタンダードから見て極端に高速ではない。GoogleとFacebookが昨年投資した香港-ロサンゼルス間の海底ケーブルは、最高で毎秒120テラビットだ。

Googleの投資額は、公表されていない。しかし、今日発表されたIndigoコンソーシアムへとのちに進化したシンガポール-パース間のAPX-Westケーブルは、総工費が7500万ドル強だったようだ。そのAPXの延伸となるパース-シドニー間のプロジェクトは、オーストラリア南部にそのほかの上陸サイトを設けることになっていたが、どうやら今や立ち消えのようだ。

Googleはこれまで、7つの海底ケーブルに投資しており、内5つがアジアだ。

Googleの、とくにオーストラリアの顧客にとっては、シドニーやパースなど国内の都市、アジア、そしてさらには中東やヨーロッパをつなぐ帯域が拡大し、速い接続と、もっと重要なこととしてレイテンシーの低下が期待される。とりわけ、これまでは海底ケーブルで直接結ばれていなかったパース-シドニー間の接続性が大きく改良される。しかもオーストラリアと世界との接続は、2018年の完成が予定されているそのほかの海底ケーブルプロジェクトによっても、今後数年間で大きく改良されるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのG Suiteでアドミンのためのセキュリティ管理機能が拡充、企業ユーザーに安心感を持ってもらうため

securityicons

今や300万あまりの企業が有料で、Googleの生産性アプリケーションG Suiteを使っている。今日(米国時間1/31)同社は、これらの企業のデータが同社のプラットホーム上で安全であるために、いくつかのセキュリティ機能をローンチした。

たとえばこれからのアドミンは、ユーザーがYubicoなどの物理的なセキュリティキーを使うよう強制できる。さらにそんなキーの展開配布形式を管理できるし、利用報告書も入手できる。Googleによると、オンライン決済サービスのStripeはすでにこの機能を利用しており、Security Keyを新たなセキュリティレイヤ(層)として加えることによって、社員をフィッシングの被害から防いでいる。

また今回のアップデートでGoogleは、データ喪失防止サービス(data loss prevention, DLP)をGmail以外にも拡大した。言い換えるとこれからは、DLPがサポートされるのはGmailだけではない。アドミンはDLPをGoogleドライブで有効にできる。Gmailの場合と同じくDriveでも、社員が間違いや意図的に機密データを外部と共有できないようにする。ルールは文書の内容だけでなく、画像についても指定できる(OCRを使用)。

smart_2

メールのセキュリティの改良としては、今度からはS/MIMIの暗号化に企業が独自の証明を利用できる。また、Gmailの検索をBigQueryで容易にできるようになった。さらに、メールをGmailやGoogle Vaultの外にアーカイブしたい企業は、HP AutonomyやVeritasなどのサードパーティのサービスを、前よりも容易に統合できる。

最近のG Suiteの機能拡充は、今回のセキュリティ機能も含めて、企業が自分で独自のサービスをホストしたり、競合他社のサービスを利用する理由を、なくそうなくそうと努力している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google G Suiteの有料ユーザー企業が300万社を超えた

google-shop131

今日(米国時間1/26)の決算報告でGoogleのCEO Sundar Pichaiが、同社の生産性ツールG Suiteの採用数がまた新たな節目を迎えたことを発表した。彼によると、“G Suiteは前四半期に顧客数における大きな節目を達成し、今や300万あまりの有料企業ユーザーがG Suiteを使って、クラウド上でスマートでセキュアなコラボレーションを行っている”、ということだ。

この前Googleが同様のマイルストーンを発表したのは2015年11月で、そのときは、名前がまだGoogle Apps for Workだったこのサービスの有料ユーザー数は200万社とされた。

PichaiによるとG Suiteが企業ユーザーに人気があるのは、同プラットホームのセキュリティがきわめて厳格であるためだ、という。またG Suiteの(そしてGoogle Cloud Platformの)パートナー事業も、継続的に拡張されている。“弊社の顧客とパートナーは、Google Cloudのプロダクト展開が迅速なことと、ニーズや要望に対する応答性の良さを高く評価している”、と彼は付言した。

今のGoogleは公然と、企業顧客拡大努力を繰り広げている。対象は生産性ツールG Suiteとクラウドコンピューティングプラットホームの両方だ。昨年9月のHorizonイベントで同社は、同社のクラウドインフラストラクチャと生産性ツールを一体的にみなして、その全体をGoogle Cloudと呼んでいた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、クラウドサービスをすべてGoogle Cloudブランドに統一

2016-09-30-google-cloud

Google for Workや Googleのクラウド・プラットフォーム、その他同社のすべてのクラウド・ベースのサービスはGoogle Cloudというブランド名に統一された。これは今朝(米国時間9/29)、サンフランシスコで開催された招待オンリーの小規模なプレスイベントでGoogleの上級副社長、Diane Greeneによって発表された

事情に詳しい読者にはこのニュースは必ずしも驚きではないだろう。The Informationはすでにこの情報をつかんでおりGoogleは改編を準備中だと報じていた

紛らわしい話だが、 Googleは同時にGoogle Apps for Workの名称も変更した。これはまずすべてGoogle Cloud傘下に入る。同時にGoogle Apps for WorkはG Suite〔Gスイート〕という名称になる(微妙な名前だが、やがて慣れれば気にならなくなるのだろう)。

google_cloud_1

Google for Work/Google Cloudのブランドがカバーする範囲は広い。Googleの生産性プロダクトの中心であるGmail、Googleドキュメント、スプレッドシート、スライド、ビジネス用のMaps for WorkからSearch for Workなどのハードウェア製品まで非常に多様だ。さらにクラウド・コンピューティング・プラットフォーム、 Chromebook、エンタープライズ・モバイル・サービスなどが加わる。

今朝のキーノートでGreene上級副社長は「Googleは当初、Google Enterpriseという名称を考えていた」と述べた。実際Googleではこの名称を会社の内外でしばらく使っていた。今年初めにGreeneがGoogleに加わった頃は〔GreeneはVMWareの共同ファウンダー〕、Googleがクラウド事業に本腰を入れるつもりなのかどうか懸念を抱いている企業ユーザーもあったという。そのため当時はエンタープライズという名称が適切と思われた。しかし、その後、潜在的顧客もGoogleがクラウド事業に真剣であることを理解したので今回Google Cloudというブランドに変更したのだという。

「エンタープライズ、というのは6月の話」とグリーンは言う。「クラウド事業にはGoogleのフルパワーが注がれる。そういうわけでGoogle Cloudとなった。これはいかにもGoogleらしい―きわめて広い範囲にわたるテクノロジー、ソリューション、プロダクトを統合したものになる」ということだ。

dsc06882

[原文へ]

(翻訳:滑川海彦@Facebook Google+