Google、スプレッドシートにピボットテーブル自動作成ツールを追加

読者の会社にもピボットテーブルの奥義をマスターした表計算ソフトの達人がいて、一見わけがわからない数字の山から重要な洞察を導き出していることだろう。この能力がわれわれ凡人とエリートの間を隔てていたわけだが、Googleはこの問題の民主化に動いた。今日(米国時間12/6)の発表によれば、最新版のGoogleスプレッドシートはピボットテーブルの自動作成機能を備える。

Googleはこの問題の解決にあたって人工知能を利用している。 新機能はスプレッドシートに昨年Googleが追加したデータ探索(Explore)機能から利用できる。今回の新機能の目的はデータから有用な情報を抽出するプロセスの自動化だ。

機械学習の適用により、ピボットテーブルの使い勝手にいくつかのブレークスルーがもたらされた。まず第一にピボットテーブルの対象となる行、列を手動で選択する必要がなくなった。Googleスプレッドシートはユーザーのデータを解析し、適当と思われるピボットテーブルを自動的に作成する。ピボットテーブルが必要になるたびに達人の助力を乞う必要がなくなった。誰でもクリックするだけでピボットテーブルを得ることができる。

Gif: Google

また「データ探索」に自然言語でクエリーを行うインターフェースが追加された。この機能は現在は英語のみだが、やがてすべての言語がサポートされるはずだ。スプレッドシートのシステムはピボットテーブルから必要なデータを探して出してくれる。ユーザーが自分で複雑な式を書いたりソートしたりする必要はない。質問せよ、さらば答えが与えられるだろう(もちろんソースデータが適切な答えとなるデータを含んでいる場合だが)。

ピボットテーブルに詳しいユーザーはもちろん従来どおり手動で作成できるが、その場合もGoogleは機械学習による分析をサジェスチョンとして提供してくれる。

また新しいピボットテーブルはデータ抽出に便利だというだけでなく、デザインも改良されている。GoogleはUIをアップデートし、見出し、行、列をカスタマイズできるようになった。

Googleはピボットテーブルに限らず、スプレッドシートに全体に人工知能の適用を開始したので、たとえばユーザーがデータを入力したときに、役立ちそうな関数が「おすすめ」としてポップアップ表示される。もっとも役立つときは便利だが、見当外れな場合はわずらわしいだろう。

Googleでは、これらの機能に加えて向こう数か月でさらに多くの機能を追加していく計画だという。

Featured Image: Jon Russell/Flickr UNDER A CC BY 2.0 LICENSE (IMAGE HAS BEEN MODIFIED)

〔日本版〕Googleスプレッドシートの機能は設定が英語と日本語の場合で大きく異なる。上記新機能は「自然言語で質問するとスプレッドシートがピボットテーブルを作成して答えてくれる」というものだが、現在は英語版でのみ利用できる(Googleドキュメントホームのトップ右端の歯車アイコンから言語を変更できる)。なおこの記事の翻訳時点では原文の最初リンク(Googleブログ)のリンクはURLにタイプミスがあるため作動しなかった(ピリオドがURL末尾に含まれているため)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

テレビ放送に高価な衛星は要らない、Amagiはクラウド利用の放送プラットホームを提供

テレビ局の放送の仕方を変えようとするスタートアップAmagiが、アメリカでローンチした。

テレビの視聴者は現在の放送の物理的なインフラストラクチャに大きな問題があると思わないかもしれないが、しかしAmagiによると、人工衛星による番組供給は、費用が高く、時間を浪費し、またコンテンツの各国向けローカライゼーションも難しい。

しかし、同社のCloudportプラットホームを使えば、コンテンツをクラウドから配布できる。グローバルな拡張のためにも衛星は要らないし、そのための地上局設備も不要だ。ローカライゼーションもソフトウェアでできるから、各国向けのフィードをひとつのダッシュボードでモニタできる。

そういうプロセスの自動化を、Cloudportは人工知能を使って行う。それにより、画面の異状の自動検出などもできる。そして局は、独自のオンデマンドのストリーミングチャネル(“チャンネル”)を作れる。

協同ファウンダーのK.A. Srinivasanは、ローンチを発表する声明文の中で、人工衛星を使うやり方には“持続可能性がない(unsustainable)”、と言っている。

Srinivasanは曰く、“衛星が必須の放送インフラなら、中小規模の放送局やコンテンツのオーナーなどなどの人たちは何もできなくなる。そんな状態を打破するためには、放送をしたい多くの人びとがクラウド技術を利用して“放送能力”を持つ必要がある”。〔AbemaTVのようにそれ自身が局ではなく、Amigaはあくまでも放送をしたい者のためのプラットホームサービスを提供する。〕

ただしAmagiも、衛星や光ファイバーによる配布を行うが、あくまでもメインはクラウドだ。また広東語放送Dim Sum TVのように、衛星とクラウドを併用して東南アジア全域を可視聴域にする例もある。

というわけで、今日ローンチとは言っても、すでに一部の放送者にはサービスを提供している。バンガロールで生まれたAmagiは、今ではニューヨークに本社を置き、ロサンゼルスにもオフィスがある。今は、Vice MediaやTurner Broadcastingにも営業を仕掛けている。Viceはすでにこのプラットホームを使って、アフリカやニュージーランドなど向けの新たなチャネルVicelandを作った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudが元Intelの役員Diane BryantをCOOに迎える、‘二人Diane’の演目に

今やGoogle Cloudのステージは、二人のDianeが演じている。同社は、この部門のCOOとしてDiane Bryantをスカウトした、と発表した。彼女は、2015年11月にGoogle CloudのSVPとして加わったDiane Greene〔今ではCEO〕と一緒になる。

Greeneは、彼女がチームに加わることを喜んでいるようだ。“彼女以上に適切な経験と才能のある人物は、思いつかない。彼女は、強力なビジネスフォーカスを持つエンジニアであり、テクノロジーの世界で30年に及ぶ傑出したキャリアを有している”、とその任命を発表する同社のブログ記事に書いている。

そのブログ記事は、Bryantの役割やGreeneとの上下関係には触れていない。[この記事が公開されたあとにGoogleが再度くれた情報によると、GreeneがBryantの上司になるようだ。]

United Technologiesの取締役でもあるBryantは、最近までIntelのData Center Groupを統轄していた。この部門は昨年、170億ドルという大きな売上をあげている。そのデータセンター技術の経験と、Intelの売上に大きく貢献した実績が、Googleが彼女を獲得した理由のひとつだろう。

Googleはそのクラウドビジネスを、まだ構築途上であり、IBMとMicrosoft、そしてマーケットリーダーAWSのずっと後方で、4位の座に甘んじている。エンタープライズからの信任を増すためにGreeneを加えて2年経つ今でも、Synergy Researchのデータによるとマーケットシェアは一(ひと)桁だ:

それでもGoogle Cloudは、2017年のQ3に75%という大きな成長を経験した。しかしAWSは依然として大きな差をキープしているし、Microsoftはさらに急速に成長しているから、マーケットシェアの数字はあまり変化しないのである:

画像提供: Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、AWS Cloud9をリリース――デベロッパーはブラウザからクラウドソフトの開発ができる

今日(米国時間11/30)、ラスベガスで開催されている恒例のre:Inventカンファレンスで、ブラウザ版のIDE、AWS Cloud9をリリースしたと発表した。Cloud9はAmazonが去年買収した IDEで、Ace Editorをベースとしている。Cloud9での作業はc9.io IDEを使う。

TechCrunchがAWSによるCloud9の買収を最初に報じたとき、Amazonは確認を避けた。しかし今や確認できたといっていいだろう。

Cloud9そのものは、Sublime Textなどこの種の他のIDEと根本的に異なるわけではない。しかし今日のイベントのキーノートでAWSは複数のデベロッパーによる共同作業に適していること、AWSのエコシステムに深いレベルで統合されていることをCloud9のメリットとして強調した。このツールには JavaScript、Python、PHPを始めとする言語のサポートがビルトインされている。またデバッグ・ツールもプレインストールされている。

AWSはこのツールは「最初のクラウド・ネーティブのIDEだ」と主張したが、この点についてはやや疑念が残る。既存のライバルにもクラウド対応機能を持つものはある。しかしCloud9がAWS環境に統合されていることは事実だろう。「デベロッパーはCloud9を用いてクラウドベースのソフトウェアを開発できるだけでなく、そのソフトをCloud9内からAWSのインスタンスとして動かすことができる」とAWSのCTO、ヴァーナー・ヴォーゲルズは強調した。Cloud9はラムダ関数のデバッグをサポートしているので全面的にサーバーレスを目指すデベロッパーにとっては好都合だろう。

いずれにせよCloud9の最大のセールスポイントはAWS自身の製品であることだろう。MicrosoftやGoogleなどAWSのライバルがやはりクラウドやモバイルのデベロッパー向けにそれぞれ自社のIDEを提供しているのも全く同じ理由だ(ただし、たとえばMicrosoftのVisual Studioには多数のサードパーティーのサービスが統合されている)。

〔日本版〕Cloud9は現在US West (Oregon)、US East (Ohio)、US East (N.Virginia)、EU (Ireland)、Asia Pacific (Singapore)の各リージョンで利用できるという。AWSにアカウントがある場合、サイインインしてこちらからダウンロードできる。



[原文へ]

(翻訳:滑川海彦@Facebook Google+

AWSのSageMakerを使えばふつうのデベロッパーが機械学習のモデルを作れる

クラウドサービスは、ソフトウェアやインフラストラクチャの‘管理’という面倒な部分を取り除いてくれる。今日では、機械学習が多くのデベロッパーたちのあいだで急速に関心を集めつつあるが、AWSはそれのいちばん面倒な部分、すなわち機械学習のモデルの構築とデプロイの過程を、同社のクラウドサービスにより、単純化しようとしている。

そのサービスが、今日(米国時間11/29)のre:Inventカンファレンスで発表されたAmazon SageMakerだ。それは、デベロッパーやデータサイエンティストに、機械学習のモデル制作プロセスを管理するためのフレームワークを提供し、そのプロセスに通常含まれる複雑面倒な部分を取り去る。

AWSのシニア・テクニカル・エヴァンジェリストRandall Huntが、このサービスを発表するブログ記事〔上記リンク〕で、デベロッパーが新しいアプリケーションで機械学習を利用するときのプロセスを加速化するフレームワークを提供することが、サービスの基本コンセプトだ、と言っている: “Amazon SageMakerは、完全な管理を伴う。エンドツーエンドの機械学習サービスであり、データサイエンティストやデベロッパー、それに機械学習のエキスパートが、大規模な機械学習モデルを迅速に構築・訓練・ホストできるようにする”。

またAWSのCEO Andy Jassyは、このサービスを紹介するとき、こう述べた: “Amazon SageMakerを使えば、ふつうのデベロッパーが機械学習のモデルを容易に訓練しデプロイできます”。

この新しいツールには、三つの主要部分がある。

まずNotebook。これはオープンソースの標準的なツールJupyter Notebooksを使って、モデルのベースとなるデータを概観し整理する。この最初のステップは、EC2の標準的なインスタンスを使ってもよいし、もっと厳しい処理要求があるならGPUインスタンスを使う。

データが用意できたら、モデルの訓練を始める。これには、モデルのためのベースアルゴリズムも含まれる。モデルのフレームワークは、TensorFlowなどを自分で持ち込んでもよいし、あるいはAWSが事前に構成したものを使ってもよい。

re:Inventのステージで、JassyはSageMakerの柔軟性を強調した。すぐに簡単に使えるツールとして使ってもよいし、自分のフレームワークを持ち込んでもよい。どちらの場合でも、そしてソースが何であっても、サービスはもっともポピュラーなアルゴリズム向けに調整されている。

Constellation ResearchのVPで主席アナリストのHolger Muellerによると、この柔軟性は両刃の剣だ: “SageMakerはアプリケーションを作るときの作業努力を大幅に減らしてくれるが、そのためにAWSは多くのモデルを無理やり多面的に(polyglot)サポートしようとしている。AWS/Amazonが本当に欲しいのは、多くのユーザーをつなぎとめることと、計算とデータの負荷が大きいことだから”。

彼は、AWSがTensorFlowのような独自のニューラルネットワークフレームワークを提供すべきだ、と主張する。しかしまだ、そんな話はどこにもない。

今のところAmazonは、モデルを動かすために必要なインフラストラクチャのすべてを自前で整え、ノードのエラーやオートスケーリング、セキュリティパッチなどの問題を…フレームワークが何であれ…自分で処理する。まさに、多面的だ。

Jassyによると、モデルが出来上がったらそれをSageMakerから動かしてもよいし、ほかのお好きなサービスを使ってもよい。彼曰く: “これはデータサイエンティストやデベロッパーにとってすばらしいツールだ”。

このサービスは、AWSの無料ユーザーなら無料で利用できる。しかし処理量が一定のレベルを超えたら、使い方やリージョンに応じて課金される。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSには当面、ブロックチェーンを利用するサービスを提供する意思がないようだ

Bitcoinがついに10000ドルの大台に乗せたが、そのベース技術であるブロックチェーンをAWSが何らかのサービスに利用することは、当分なさそうだ。ラスベガスで行われているAWSのデベロッパーカンファレンスre:InventでAWSのCEOAndy Jassyは、ブロックチェーンサービスの計画に関する記者たちの質問に、そう答えた。

Jassyは、今後の見通しについても、醒めた目で見ているようだ。彼によると、ブロックチェーンには、“分散台帳であること以上の”多様なユースケースがない。さらに彼は強調して、AWSは、特定の技術を、“それがクールだと思うから作ることはない”、と言う。

彼の見方では、ブロックチェーンが解決を目指してる問題は、ほかにも解決方法がたくさんある。それに、今使われている分散台帳の多くは、能力がきわめて限られている。

とは言え彼は、ブロックチェーンによるプロダクトの将来的な可能性を、まったく排除しているわけでもない。彼は曰く: “しかし今後の顧客の動向には、しっかり関心を持ち続けるだろう”。

AWSのコンペティターであるMicrosoftやIBMなどは、ブロックチェーンを用いるサービスや分散台帳に対して、かなり積極的だ。過去数か月の動きを見ても、彼らは既存の顧客を対象にさまざまなブロックチェーンサービスやパイロットプロジェクトを立ち上げている。しかし今のところAmazonに、その仲間に加わる気はないようだ。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

VMwareはAWSのパートナーシップを新しい移行ツールと災害復旧ツールで強化

VMwareはAWSによってダメージを受けると考えられていたことを覚えているだろうか?しかし、ある時点でスマートな舵取りに成功したようだ。有名なクラウドプラットフォームと戦うのではなく、IT部門がAWS上でVMware製品を使い易くする道を選んだのだ。本日(米国時間11月28日)、AWS re:invent顧客会議の冒頭で、同社は新しいマイグレーションならびに災害復旧サービスでのパートナーシップを拡大する計画を発表した。

VMwareのクラウドプラットフォーム部門を担当するMark Lohmeyer副社長が指摘したように、AWS上でVMwareクラウドを提供するオリジナルプロダクトを一般公開してから、まだ最初の四半期が過ぎたばかりである。新プロダクトは、クラウドへの移行を容易にするためにデザインされている。

VWwareの顧客たちが苦労している問題の1つは、彼らのミッションクリティカルなアプリケーションをただ単純にデータセンターからクラウドへ移行することだ。Lohmeyerによれば、この新しい移行プロダクトは、アプリケーションをダウンタイムなしかつ妥当なコストで、迅速に移行できるようにデザインされていると言う(もっともそれは見る人の捉え方によるだろう)。もしそれが宣伝されているように機能するなら、IT部門に対して、両方の世界(オンプレミスとクラウド)のベストの組み合わせを提供することができる。

そのプロダクトは、アプリケーション一切合切をデータセンターからAWSへ移行することが可能で、それまでと同じ方法で監視と管理を続けることができる。もし本当にダウンタイムがない場合には、たとえ手始めに1つまたは2つのアプリケーションを移行してみたい場合でも、あるいはデータセンターを閉鎖して全てを移行したい場合でも、クラウド移行は簡単に行える。

さらに、VMwareは従来の時間課金モデルではなく、割引固定価格を提供することで、プランをより魅力的なものにしている。すなわち、1年または3年間申し込んだ場合、金額は全体量やその他の要因によって異なるものの、割引を受けることができる。かれらはまたハイブリッドライセンスも導入している。これによって顧客たちは、オンプレミスのライセンスを、クラウドに移行しても引き続き利用することができる。これらの要素は全て、標準的な価格アプローチに比べて、クラウドへの全体移行コストを引き下げる可能性がある。

VMwareは、新しい災害復旧プロダクトも発表した。これによりIT部門は、AWSクラウド上にアプリケーションとデータのコピーを保持することができる。大規模ハリケーンや停電、その他の災害が発生した場合に、混乱を最小限に留めることが可能になる。「オンプレミスクラウドで障害が発生した場合には、AWS上で再起動をかけることが可能です」とLohmeyerは説明した。

災害復旧ツールは、クラウドの考えに馴染むために、時間の掛かる企業を助けるためにも役立つ。もし災害復旧バックアップをクラウドの中に保存することができるなら、実際のアプリケーションもある時点から移行してしまえる可能性が出てくる。

VMwareは仮想マシンのコンセプトを普及させた企業であり、今日ではデータセンターの主役となる製品を提供している。VMwareにとっての課題は、未来がデータセンターからクラウドに移行しつつあることだ。最初に試みたのは、独自のパプリッククラウドサービスを開発し、AWSと競合することだった。その構想が吹き飛んだとき、VMwareはプランBを発動し他のクラウドベンダーたちと提携することにした。それらのうちの最大のものは、もちろんAWSである。

Lohmeyerが語るように、このパートナーシップは皆にとって良いものである。「クラウドモデルをすぐに活用できるので、顧客の皆さまにとって良いことです。そしてVMwareにとっても良いことです、何故なら顧客の皆さまに私たちのプラットフォーム上に留まっていただきつつ、仕事量を増やして行くことができるからです。そしてもちろんAWSにとっても良いことです、そのプラットフォーム上で実行される仕事量が増えて行くのですから」。

もし説明どおりに機能するならば、理想的なパートナーシップのための求心力となるだろう。

[原文へ]
(翻訳:Sako)

AWSがベアメタルのEC2インスタンスを立ち上げ、しかもカスタムチップで

Amazonのクラウドコンピューティングサービス部門AWS(Amazon Web Services)が今日、待望のベアメタルインスタンスをそのEC2サービスで提供する、と発表した

ベアメタルは、ソフトウェアの働きで提供される仮想マシンと違って、コンピューターのハードウェア本体そのものなので、ユーザーはハードウェアに直接アクセスでき、とくに大きなオーバヘッドもなくハードウェアのリソースを100%利用できる。またユーザーはその上で独自の仮想化を構築できるので、クラウドサーバーの自主的コントロールが増す。さらにまた、これまでライセンスやサポートの事情などで仮想マシンの上では動かせなかったアプリケーションを、EC2で動かせるようになる。

このベアメタルインスタンスは当面AWSのi3インスタンス系列の一環として提供されるが、将来的にはそのほかの系列でも提供される予定だ。現在このインスタンスは公開プレビューの段階だが、公開といってもデベロッパーは登録してユーザーになる必要がある。

ベアメタルといってもとくに制約はなく、EC2の通常のサービスをすべて利用できる。AWSのグローバルインフラストラクチャ担当VP Peter Desantisが、今日の同社のre:Inventカンファレンスのキーノートで、そう述べた。

Desantisは、これと関連する話題として、Amazonにおけるカスタムチップの開発努力についても触れた。数年前にAWSは、EC2プラットホームのアーキテクチャの現代化を決意した。それはネットワークもストレージも一体化させた新たなプラットホームで、AWSはそれを“Nitro Architecture”と呼んでいる。そのためにAWSはAnnapurna Labsを買収してそのカスタムチップの製造に関する専門的能力を利用し、これまでもっぱらソフトウェアでやっていたことの多くを、高速な専用ハードウェアで行うことにした。同社はまた、同社独自のハイパーバイザーを、LinuxのKVMをベースに作った。

Desantisの説では、カスタムのシリコンを作る前には、“それだけの投資に見合う問題と、スケールが存在する必要がある”。具体的にそういうものがないのに、新規ハードウェアに投資することはありえない。この件に関してAWSが明らかに感じているのは、AWSというユースケースにとってはカスタムチップの方がFPGAよりも有利であることと、そして、スケールに関しては、AWSのスケールに疑問を差し挟む余地はない。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのAppSyncでアプリケーションのオフライン利用が可能に

【抄訳】
Webホスティングサービスの王者の勝利を誇示するような大集会が、今年もラスベガスで行われている。そのAmazon Web Servicesのデベロッパーカンファレンスre:Inventでは今日(米国時間11/28)、このサービスがホストしているアプリケーションをオフラインでも使える新しい機能、AppSyncが発表された。

今朝発表された同社のブログ記事が、この新しいサービスの概要を説明している。

その記事によると、AWS AppSyncは、完全に管理されたサーバーレスのGraphQLサービスで、デバイスがオフラインでもリアルタイムのデータクェリを可能にする。そして接続が可利用になればローカルデータをシンクする。

Amazon技術のエヴァンジェリストのようなTara Walkerの、少々分かりづらいブログ記事によると、GraphQLはデータクェリ言語で、リアルタイムのデータ取り出しとクェリの動的実行を行うサーバーサイドのランタイムだ。

クライアントアプリケーションを作るときにはGraphQLはアプリケーションレイヤで動き、スキーマを定義するためのタイプシステムを提供する、と上記のWalkerは言っている。

そしてこれらのスキーマが、データに対する操作の仕方とデータの構造をコントロールするスペックになる。GraphQLはまた、多くのプログラミング言語やライブラリがサポートしている宣言的プログラミングモデルで動作する(これもWalkerより)。

以上でよく理解できた方は、ぼくよりも優秀だ。でもなにしろ、Walkerは、AppSyncについてこのように書いているのだ。

デベロッパーはスキーマを作って、GraphQLで開発するAPIのタイプと能力を定義し、“Resolver”ファンクションに結びつける。スキーマは既存のデータソースに基づいていてもよいし、あるいはAppSyncがスキーマの定義に基づいて自動的にテーブルを作ることもできる。

デベロッパーは、バックエンドのデータソースに関する知識がなくても、GraphQLの機能を利用してデータの発見(データディスカバリ)ができる(これは便利だ)。

Walkerは、さらにこう説明している:

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

複数クラウドにまたがるアプリケーションの管理をコンテナとKubernetesで自動化するOverclock Labs

Overclock Labsは、アプリケーションの複数のクラウドにまたがるデプロイと管理を自動化により容易にするためのサービスを提供している。そのために同社が作った、分散クラウドインフラストラクチャを自動化するツールは、今どき当然ながらコンテナを使用する。そしてそれらのツールの主役は、コンテナオーケストレーションツールKubernetesだ。

今日(米国時間11/21)、2年前に創業されたOverclock Labsはステルス状態を脱し、130万ドルの資金調達を発表した。投資家はシリコンバレーの複数のエンジェルとCrunchFund、こちらは本誌TechCrunchと名前や経歴を多少共有しているが、本誌と特別の関係はない。

同社は、今回初めて一般に公表される資金を使って、DISCOというものを開発していた。DISCOは Decentralized Infrastructure for Serverless Computing Operations(サーバーレスコンピューティングオペレーションのための分散インフラストラクチャ)の頭字語だ。サーバーレスとあるからにはそれは、AWSのLambdaやAzure Functionsのようなイベントドリブンのサービスか? そう考えたくなるのも無理もないが、しかしOverclock Labsの協同ファウンダーGreg Osuri(CEO)とGreg Gopman(COO)によると、彼らの言う“サーバーレス”とは、完全な自動化のことだ。Lambdaは、イベントドリブンなアプリケーションのためにリアルタイムの自動化をやってくれるが、オープンソースにする予定のDISCOの場合は、もっといろんなアプリケーションのサポートを目指している。なお、同社の三人目の協同ファウンダーは、Adam Bozanichである。

Osuriが説明するその基本的な考え方は、ユーザーがどんなクラウドサービスのプロバイダーでも使えて、それら複数のクラウド間を容易に行き来できるようにすることだ。そのようなデベロッパー体験は、クラウドアプリケーションプラットホームのHerokuにやや似ており、ユーザーインタフェイスはGUIとコマンドラインの両方を提供している。

目下このツールがサポートしているのはAWSとGoogle Cloud Platform、そしてベアメタルのスペシャリストPacketだが、今後徐々にそのほかのクラウドもサポートしていく。DISCOはオープンソースだから、ほかの人たちが自分のものを統合するのも容易だ。

DISCOを使ってアプリケーションをデプロイするやり方は、二(ふた)とおりある。12-factor appのありがたい教えに従ってアプリケーションを作っている場合は、DISCOは単純にソースコードを取り込んでアプリケーションをデプロイする。あるいは独自のコンテナでアプリケーションを作ってる場合は、それらのコンテナをDISCOに渡してデプロイさせる。するとDISCOがコンテナレジストリを扱い、コンテナをデベロッパーに代わって管理する。

DISCOの約束は、アプリケーションのデプロイをHerokuを使う場合のように容易にすること、ただしその1/3のコストで。前にAngelHackを一緒に作ったOsuriとGopmanには、オープンソースのツールを作った経験が豊富にあり、今でもオープンソースのエコシステムの一員だ。だからDISCOをオープンソースにするのも自然な流れで、その上に有料サービスを乗っけていく気だ。

その有料サービスは現段階ではまだ具体化していないが、とにかく同社が真っ先にやることは数か月後にDISCOをリリースし、そのまわりにエコシステムを築いていくことだ。

今では高度なオープンソースのプロジェクトが毎日のようにローンチしているから、DISCOのエコシステムづくりも容易ではないだろう。でも同社のファウンダーたちは、その過程について現実的な見方をしている。それに、コンテナとKubernetesによるアプリケーションのマルチクラウドデプロイと管理の自動化は、誰にでもできることだから、そのうち競合他社があふれてくるだろう。近くAWSのre:Inventカンファレンスがあるから、そのへんの情況を確認してみたい。でもOverclock Labsの連中は、早くスタートした者にはそれなりの優位性があり、ビッグプレイヤーになれる、と信じている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが政府諜報機関用の秘密のリージョンを立ち上げ、インターネット接続なし

Amazonが今日、同社のクラウドコンピューティングサービスAWSに、アメリカ政府の諜報部門のワークロード向けに特別に設計された新しいリージョンが加わる、と発表した。そのリージョンはAWS Secret Regionとずばり名付けられ、政府のセキュリティの分類で“secret”レベルまでのワークロードを動かすことができる。AWSはすでに6億ドルの契約でCIAなどの政府省庁のトップシークレットのワークロードを動かしているが、これはそれをさらに補完するものだ。

AWSのこの発表のほぼ1か月前には、Microsoftがやはり同様の発表を行った。MicrosoftのGovernment Cloud上のAzure Government Secretにより、政府省庁およびそのパートナーの“secret”と分類されたデータを扱うワークロードがサポートされる。

Amazon Web Services Worldwide Public SectorのVP Teresa Carlsonはこう述べている: “アメリカ政府の諜報部門は今後、共通のツールセットと、最新技術の定常的な導入、および迅速なスケーリングを可能とする柔軟性により、自らのミッションを遂行できる。AWSのTop Secret Regionは三年前に導入され、最初の密封された*商用クラウドとしてアメリカの諜報部門の顧客たちはそれをきわめて成功裡に利用している。今回の新しいリージョンにより、省庁間のコラボレーションがさらに拡大され、意思決定者に重要な情報をより迅速に届け、国の安全がさらに増強されるであろう”。〔*: air-gapped, まわりに空隙がある==インターネットに接続されていない〕

最初の密封型クラウドTop Secretは、利用が諜報機関に限られていた。今度の新しいSecret Regionは全省庁が利用でき、既存のAmazon GovCloudなど、これまでのAWSとCIA等との関係内容とは無関係だ。

Googleもかなり前からG Suiteを政府系の顧客に提供しているが、同社はエンタープライズ顧客の獲得に熱心で、政府省庁やそのクラウドコンピューティングニーズはあまり視野にないようだ。しかし今後Googleも、政府からお墨付きをもらうことに励んで、そのサーバー上で政府の機密データを扱うようになるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloud PlatformがGPU使用のVMインスタンスを最大36%値下げ、AWSを意識か

Googleが今日(米国時間11/20)、Google Compute Engineの、Nvidia’s Tesla GPUを使用するインスタンスを最大36%値下げする、と発表した。アメリカのリージョンでは、やや古いK80 GPUを使うと1時間0.45ドル、新しくて強力なP100マシンは1.46ドルになる(いずれも秒課金による)。

またプリエンプティブルVM用のローカルSSDは、40%値下げされる〔参考: 8月の値下げ〕。GPUは、プリエンプティブルVMでは使えない。だから値下げは朗報でも、GPUのユーザーには関係ない。

今回のGPUインスタンスの値下げは明らかに、クラウド上で機械学習のワークロードを動かすユーザーのためだが、そのほかにも物理シミュレーションや分子モデリングなど、数百のコアを持つGPUを有利に使えるアプリケーションはいろいろある。たとえばGoogle Cloud Platform上ではまだベータであるP100は、コア数が3594 だ。

インスタンス一つにつき、P100は最大4基、K80なら8基を使える。通常のVMと同じくGPUユーザーにも継続利用割引はあるが、実際にはGPUを1か月動かしっぱなし、というユーザーはあまりいない。

AWSの今年のデベロッパーカンファレンスが来週からラスベガスで行われるが、Googleの今回の発表は明らかにそれを意識していると思われる。AWSも今年はAIや機械学習関連の発表が多いだろうし、値下げも当然ありうるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftがMariaDB Foundationに参加してAzure Database for MariaDBをローンチ

Microsoftが今日(米国時間11/15)、同社がMariaDB Foundationに参加することを発表した。この非営利団体は、MySQLを作ったデベロッパーたちによる人気の高いリレーショナルデータベースMariaDBの非商用化バージョンを支えている。そのプラチナスポンサーになったMicrosoftは、Booking.comやAlibaba Cloud、Tencent Cloudなどと横並びすることになる。

さらに今日Microsoftは、Azure Database for MariaDBというサービスを立ち上げた。これは、Azureの一員としてのマネージドデータベースサービスという意味で、ほかにもAzure Database for MySQL, 〜〜〜PostgreSQLなどの類似サービスがある。

MySQLは最初Sun Microsysytemsが買収し、今ではOracleがそのオーナーであるため、その私企業臭を嫌う多くのデベロッパーのためにMariaDBが開発された。いわばそれは、MySQLの身代わりリプレースだ。

MariaDB(とMySQL)のファウンダーMonty Wideniusが、今日の発表声明でこう書いている: “MariaDB Foundationの理事会は、MicrosoftをFoundationのプラチナメンバーとして歓迎する。私がMariaDBを作ったのは、MySQLをオープンソースのコミュニティに戻すためであり、その強力でオープンな未来を確実なものとするためだった。私はMicrosoftがそのビジネスをオープンなやり方で変えていく様相を間近で見てきたし、Microsoft Azureも確かにオープンであり、フレキシブルである。今のMicrosoftはGitHubの主要なコントリビューターの一員であるが、私たちは、Microsoftの技術者たちとそのデベロッパーのエコシステムが、それと同じようにMariaDBを支えていくことを、期待している”。

Wideniusのオープンソース観は、つねにきわめて実践的だ。数年前に彼はMariaDB Foundationを始めるためにSkySQLを去ったが、今ではそれはMariaDB Corpとなり、MariaDBデータベースの商用化をビジネスとしている。そしてその後彼は、MariaDB Corp.にCTOとして戻った

一方Microsoftは、このところ確実にオープンソース擁護派だ。今や同社は、Linux Foundationとその一部プロジェクトのスポンサーであり、またOpen Source InitiativeやCloud Foundry Foundationなどにも加盟している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

DropboxがAutodeskを統合、大きな設計ファイルのコラボレーションがクラウドを意識せずにできる

Dropboxが今日(米国時間11/14)、Autodeskのユーザーが大きな設計ファイルに、より容易にアクセスし共有できるための、二つのプロダクトを発表した。ひとつはDropboxに保存しているAutodeskのファイルをAutodeskのソフトウェアからオープンしセーブするためのデスクトップアプリケーション、もうひとつはAutodeskがなくても設計ファイルを見ることができるアプリケーションだ。

Dropboxでデベロッパーユーザーのお世話を担当しているRoss Piperによると。今DropboxにはAutodeskのファイルが15億あり、毎月8500万ずつ増えている。数も驚異的だが、設計ファイルはファイルサイズが大きい。大きくて複雑なファイルが毎日たくさん生成されるからこそ、クラウドストレージが何よりもありがたい。だからAutodeskの統合はDropboxにとって、とっくにやっているべき課題だった。

両社は互いにパートナーになることによって、これらのファイルをもっと扱いやすくしよう、と決心した。

Dropboxのデスクトップアプリケーションは今日から可利用になり、ユーザーはAutoCadアプリケーションから直接に、クラウド上(==Dropbox上)の.dwg設計ファイルをオープン/セーブできる。ユーザーはAutoCadの中で直接これらのファイルを開ける。その感覚は通常のファイルと同じで、Dropboxから取り出していることを意識しない。作業を終えたファイルの保存も、自動的にDropbox上へ行われる。

DropboxがAutoDeskを直接統合。写真提供: Dropbox

もうすぐ提供される単独のビューワーアプリケーションは、設計ファイルをAutodeskのないユーザーとも共有できる。しかも、それらの人びとがファイルにコメントできるので、役員や顧客、協力企業などが変更を要望するなど、設計に容易に‘参加共有’できる。

たとえば、設計者が描いた図面を見て、その中のひとつの部屋や領域をセレクトすれば、その部分に関するコメントを見たり書いたりできる。

写真提供: Dropbox

Dropboxが提供するこれらのツールは、AutodeskのAutoCad App Storeからダウンロードできる。そして、インストールすればすぐに使える。

今回の発表は、Autodeskのような有力なサードパーティパートナーとDropboxの深い統合が、今後もいろいろありえることを示している。各種ビジネスアプリケーションのユーザーは、いちいちDropboxからファイルをダウンロード/アップロードしなくても、仕事用のメインのソフトウェアを使いながら、その中で、必要なファイルのオープン/セーブがごく自然に、できるようになるのだ。

実はBoxも、Autodeskとのこのようなパートナーシップを、2年前から結んでいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのCloud Spannerデータベースがマルチリージョンをサポート、年間ダウンタイム累計5分未満を約束

Googleのグローバルな分散データベースCloud Spannerが今日(米国時間11/14)アップデートされ、マルチリージョン(複数リージョン)がサポートされた。データベースを複数のリージョンにまたがって複製しても、レイテンシーは増えず、良好なパフォーマンスが保証されるという。また、サービス水準合意(Service Level Agreement, SLA, サービス品質保証)も、顧客が満足すると思われる方向へ改定された。

上記後者(新SLA)によると、Cloud Spannerデータベースは99.999%(five nines)の可用性が保証される。Cloud SpannerのプロダクトマネージャーDeepti Srivastavaによると、これは年間のダウンタイムに換算すると5分未満となる。

“システムの可用性と効率を高める改造を行ったので、サービスにそのことが反映されると期待される”、と彼女は述べる。なお、Cloud Spannerは、このようにサービスとして提供される前には、AdWordsなどGoogle内部のプロダクトで使われていた。今でもそうだから、GoogleにとってAdWordsがダウンしたら直接、売上に響く。だからまずGoogleにとって、それはダウンタイムがあってはならない。今では同社の人気サービスの多くが、Cloud Spannerを使っている。

“それは、Googleが動かしているミッションクリティカルなアプリケーションの最前線でテストされている”、とSrivastavaは説明する。

しかしこれまでは、複数リージョンにまたがるサポートが欠けていたので、Cloud Spannerを一箇所に置くことしかできなかった。それが、今日のマルチリージョンサポートの発表で変わった。ユーザー企業は、データベースをエンドユーザーに近いところに置けるようになる。それにより当然、レイテンシーが減り、応答性が良くなるだろう。

Cloud Spannerは今年の初めにベータで提供されたが、それはまるでマジックのように思えた。それは、SQLデータベースのようなトランザクションの一貫性と、NoSQLデータベースのスケーラビリティを兼備している。この両者が揃うことは稀であり、今日ではEvernoteやMarketoなどもCloud Spannerを利用している。

Googleは、Cloud Spannerの導入はわずか4クリックで完了、と謳っているが、既存のデータベースを移行する場合はそう簡単ではないだろう。Srivastavaによると、それはシステムのタイプ次第だ、という。まったく新しいアプリケーションのために新たに導入するのは簡単だが、Cloud Spannerを使うために既存のデータベースシステムのアーキテクチャを変えなければならない場合は、それなりの時間がかかるだろう、と彼女は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSは中国から撤退しない――「法規によりインフラ資産の一部売却を余儀なくされた」と発表

AmazonはAWSが中国から撤退するという報道を否定した。同時に、中国におけるハード資産の一部を現地パートナーに売却することを余儀なくされたと認めた。

中国におけるAWSのパートナーである北京光環新網科技(Beijing Sinnet)が株主に対し、「AWSの資産を20億元(3億ドル)で買収した」と発表したことをWall Street JournalReutersが報じたため、AWSは中国から撤退するという観測が広まっていた。

しかし新しい情報はこれと異なっていた。Amazonの広報担当者はTechCrunchの取材に対して「AWSは中国にコミットを続ける」と明確に述べた。ただし、現地の法規により一部の物理的インフラを売却する必要があったことを認めた。

Amazonのコメント全文は以下のとおり。

ノー。AWSは中国ビジネスそのものを売却したわけではない。AWSは今後とも中国のユーザーに対してクラウドのリーダーとしてサービスを提供していく。中国の法規が非中国企業がクラウド・サービスの提供に必要なある種のテクノロジーを所有ないし運用することを禁じているため、中国の法規を遵守する必要上、AWSは一部の物理的インフラ資産を長年の現地パートナー企業であるSinnetに売却した。AWSの中国リージョン(北京)サービスの法律上の提供者は従来どおりAWSであり、そのサービス提供に必要な知的財産権はAWSが全世界で所有する。われわれは中国で大規模なビジネスを展開しており、今後数年の間にさらに事業を拡大する展望を抱いている。

注・われわれのこの記事はAmazonの声明を反映して修正された。

Amazonはクラウドサービス、つまりAWSを2014年に中国に導入している。クラウド・コンピューティングの分野でAWSは世界のライバルに大きく先駆けているものの、中国では現地の法規により、現地企業をパートナーにする必要があった。一方、TencentやAlibabaもクラウドに野心的に参入してライバルとなっている。Amazonは2016年9月にSinnetと提携契約を結んでいる。

AWSの中国でのビジネスは北京と寧夏の自治体の事業を処理しており、私企業ではXiaomi〔小米〕やセキュリティー企業のQihoo〔奇虎〕、ソフトウェア・メーカーのKingsoftなどもユーザーだ。

Sinnetは法規で定められた公告で、この〔Amazon資産の〕買収は「現地の法規の要求を満たすためであると同時にサービスのセキュリティーと品質を改善するもの」と述べている。

この文はもちろん 6月に発効したデータ処理に関する新しい法規を指している。これによって中国政府は国内のインターネット企業をこれまでよりさらに直接に支配することができるようになった。

中国の法規がAWSのビジネスに影響を与えたのは今回が初めてではない。

この夏、Sinnetはユーザーに対してVPNソフトウェアを運用しないよう警告した。これは中国政府が検閲していないインターネット・サービスに中国のユーザーが自由にアクセスすることを取り締まるための措置の一環だった。同様に、西側企業ではAppleもこの措置に従い、中国のApp Storeから VPNサービスのアプリが姿を消した。中国におけるインターネットの自由に対する打撃としてこの取り締まりは近年最大のものとなった。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Kubernetesの認証基準に36の企業が合意

Cloud Native Computing Foundation(CNCF)は本日(米国時間11月13日)、そのメンバーの中の36組織が、広く普及しているオープンソースコンテナオーケストレーションツールKubernetesの、認証基準に対して合意したことを発表した。これにより、ユーザーたちは、Kubernetes管理下のコンテナを想定範囲内で動作させながら、不安なくあるバージョンから別のバージョンへと移動させることが簡単になる。

今回36組織のグループは、メンバーたちが作成するKubernetesの各バージョンの全バージョンが、移植性を担保するために保証しなければならない、APIの基本セットに関して合意したのだ。CNCFのエグゼクティブディレクターDan Kohnは、参加しているメンバーたちが互換性テストとして扱い、サポートを保証している、既存のKubernetesプロジェクトAPIのサブセットを取り出したと語っている。実際上これが意味することは、新しいコンテナを立ち上げたときに、誰が作成したバージョンのKubernetesかに関わらず、一貫した動作を期待することができるということだ、と彼は続ける。

Kohnは、この組織が業界で最も有名な多くの企業たちを、結集することができたと言う。「私たちは素晴らしいメンバーたちを得ました。こうすることで、製品がフォークすることなく、単一のものとして発展していくと確信しています」と彼は語る。

フォークとは、オープンソースプロジェクトの中で、独自のバージョンを作る企業が現れ、互換性のない可能性のある新しいバージョンのソフトウェアを作り出すことを意味する。CNCFはこれを防ぎたいと願っており、そのためにMicrosoft、Red Hat、Alibaba、Oracle、Google、そしてIBMを含む多くの強力なメンバーを結集た。

パブリック・クラウド・コンピューティング世界での最大勢力であるAWSは、今回署名したメンバーには加わっていないが、CNSFによれば、これは単に同社がまだ、独自バージョンのKubernetesを作成していないからということだ(とはいえ、AWS上ではKubernetesクラスターは動作している)。AWSが8月にCNCFに加わったことで、CNCFとKubernetesが本格的に立ち上がったことが示された。

これだけ多様な多くのテクノロジー企業たちが、何かについて合意するのは、間違いなく素晴らしく奇跡的な出来事だ。しかしKohnによれば、大部分の企業はフォークへの懸念から極めて迅速に集まったのだという。

「Kubernetesは急激に普及していて、誰もがそれを採用しています。もし取り組みと適用のレベルが高い場合には、プロジェクトがフォークするかどうかには懸念を抱くことになります。あるバージョンで動作するアプリを持っているときに、はたして別のバージョンで動作するだろうかと心配することになりますから」とKohnはTechCrunchに語った。

Kubernetesは実際、CNCFに参加したテクノロジー企業のほぼすべての中で、昨年の段階で既にデファクトスタンダードになっていた。今日の発表は成長するプロジェクトに対してあるレベルでの規律を持ち込むものだ、そしてオープンソースプロジェクトプロジェクトとしてのKubernetesが、成熟に向かう重要な一歩なのだ。

[原文へ]
(翻訳:Sako)

FEATURED IMAGE: STAN OLSZEWSKI/SOSKIPHOTO/FLICKR UNDER A COPYRIGHT LICENSE

OpenStack FoundationがOpenStack以外のオープンソースプロジェクトもホストする方向へ

【抄訳】
最近の数年間で、Cloud Native Compute FoundationやCloud Foundry Foundationなど、オープンソース関連の団体がいくつか立ち上げられた。これらの多くはLinux Foundationの一員になっているが、その仲間に加わっていない大きなオープンソース団体のひとつが、OpenStack Foundationだ。ここは、少なくともこれまでは、クラウドコンピューティングプラットホームOpenStackの開発にフォーカスしてきた。

しかし、時代は変わりつつある。隔年で開催されるOpenStack Summitの最後の数日につき合ってみて明らかに感じたのは、OpenStack FoundationがOpenStackプラットホーム以外のものにも目を向け始めていて、将来この組織はLinux Foundationに似たものになるのではないか、という感触だ。ただしそのビジョンはもっとシンプルで、現在の関心に沿ったオープンなインフラストラクチャにフォーカスするだろうが、それらは必ずしもOpenStackプラットホームの一部である必要はなく、プロジェクトも今のガイドラインに縛られないものになるだろう。

OSFのこの多様化路線がうまくいけば、Linux FoundationやApache Foundationなどと並ぶ、大きくて総合的なオープンソース団体がもう一つでき、彼らのOpenStack関連の知識と経験がコミュニティをサポートしていくことになって、オープンソースのコミュニティに変動をもたらすだろう。またOpenStack Foundationが従来ならLinux Foundationに行ったようなプロジェクトもホストするようになると、二者間に興味深い競合関係が生ずるかもしれない。

その初期からOpenStackを採用しているMirantisの協同ファウンダーでCMOのBoris Renskiによると、OSFのこの新しい動きを引っ張るにふさわしい人物は、CTOのMark Collierと事務局長のJonathan Bryce、そしてマーケティングとコミュニティサービス担当のVP Lauren Sellだ。Renskiの見解では、OSFが多様なプロジェクトを手がけていくのは良いことであり、OpenStackが安定期に入りつつある現在は、新しいことに取り組む時期としても適している、と。

では、OSFが今後新たにフォーカスしていくべきテーマは、なんだろうか? Bryceによると、今計画に上(のぼ)っているのは、データセンターのクラウドインフラストラクチャ、コンテナのためのインフラストラクチャ、エッジコンピューティング(Collierがとくに関心を持っている)、継続的インテグレーション/継続的デリバリ、そして可能性としては機械学習とAIの分野だ。

Linux Foundationが主にLinuxユーザーの便宜のためにさまざまなプロジェクトを傘下に収めてきたのと同様、OSFも主にOpenStackでメインのシステムを構築しているユーザーの便宜を図っていく。だから団体の名称はOpenStack Foundationのままでよい、とBryceらは考えている。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SalesforceとGoogleが提携を発表

SalesforceとGoogleは本日(米国時間11月6日)、Salesforceのツールと、GoogleのG SuiteおよびGoogle Analyticsとのクラウド連携を容易にするための契約に署名した 。またこの契約の中で、Salesforceは国際インフラ拡張の一環として、Googleをコアサービスのための推奨クラウドプロバイダー(a preferred cloud provider for its core services)と呼んでいる。

「推奨プロバイダー」(preferred provider)という部分に聞き覚えがあるかもしれない、そう2016年5月にSalesforceはAWSと似たような契約を結んでいるのだ、確かそこではSalesforceはAWSを…(ああやっぱり)…「推奨クラウドプロバイダー」と呼んでいて、同様に国際インフラ拡張にも注意を向けていたのだ。

Salesforceが、2つの国際的な推奨プロバイダを持っても何の問題もないし、AWSは引き続きSalesforceのパートナーなのだが、その外からの見え方にはちょっとした変化が加わったかもしれない。Microsoftも同様にそれを感じているだろう、なぜなら今回のGoogleとの契約の一部では、G SuiteがSalesforceの推奨電子メールならびにプロダクティビティプロバイダーとして挙げられているのだ。もちろん、SalesforceはOutlookならびにOffice 365との統合を続けて行くが、ここで同社は、Microsoftに対して1つのメッセージを送ったことになるのかもしれない。

おそらくMicrosoftとSalesforceが、2014年に同様の大規模統合プランを発表したときのことを覚えている読者も居ることだろう。サタヤ・ナディラとマーク・ベニオフの微笑みと嬉しそうな様子から、それは記念すべき日だったことがわかる。

写真提供:マーク・ベニオフ

ナディラは翌年、Salesforceの豪華なユーザー会であるDreamForceにも登壇したが、2016年7月に統合クラウドプラットフォームであるにDynamics 365をリリースしてSalesforceの領土に侵攻を始めて以来、両者の関係は厳しいものになり始めた。その後の9月には、MicrosoftはSalesforceから、HP向けのCRMビジネスを奪い去って行った (そしてそれについて声高に宣伝もした)。Salesforceは、LinkedInを買おうとするMicrosoftの260億ドルの取引を、規制当局に対して許可しないように働きかけたが失敗した。両社はまだ協力しているものの、その関係は少し冷えているようだ。

そしておそらく、こうしたこと全てに対するしっぺ返しとして、昨年Salesforceは、Quipを7億5000万ドルで買収した。自社のコラボレーションツールをSalesforce上に持つためだ――そして同時に、AWSならびにGoogleとより良い関係を結ぶことに決めたのだ。

幾つかのツールが既に利用可能になっている、例えばGMailやGoogle Sheetsに対するSalesforce Lightingコネクターが、Google DriveとGoogle Calendar向けのQuip Live Appsと同時に提供されている。今朝発表されたばかりのLive Appsは、アプリとQuipの間で、双方向の更新が可能なライブコネクターを提供する。また同社は、Google Hangouts Meetsスペースに、SalesforceのCRMデータを統合したSalesforce Hangout Meetsも発表した。

Analyticsの部分に関しては、Constellation Researchの創業者で主席アナリストのRay Wangによれば、これは分析ビジネス領域における、SalesforceからAdobeへの挑戦だということだ。Adobe AnalyticsとAdobe Experience Cloudは、ともにSalesforceのマーケティングと分析ツールに匹敵するものだが、今回Googleと提携することで、Salesforceはビジネスの分析機能を強化したいと考えている。

現在Googleは、推奨パートナーになることで何がもたらされるかの論争を乗り越えて、企業の利益を求めようとしている。また大企業の中核へGoogle Cloud Platformを浸透させたいGoogleは、実績ある企業向けソフトウェアベンダーであるSalesforceとの関係を活かすことで、同社が熱望している企業からの信頼性を増すことが可能になる。

今回の契約は明らかにSalesforceそしてGoogleの双方に対して良いものである。関わるその他の企業たちもSalesforceのパートナーのままなので、正確には負けたというわけでもないが、少なくとも今日はGoogleが舞踏会の華である。

(訳注:トップの画像が「雲を眺める2人の子供」の写真なのは、記事の原題が ”Salesforce and Google are the latest pals in the cloud” (SalesforceとGoogleはクラウド世界の新しいお友達)というものだから)。

[原文へ]
(翻訳:Sako)

FEATURED IMAGE: GETTY IMAGES

Google Clond Platformはエンタープライズに専用オンランプとしてのインターコネクトを提供

Googleは9月に、Google Cloudのエンタープライズユーザーのための専用インターコネクトローンチした。Google Cloud Platformへのこのような直接接続は、企業にGoogle Cloudへのプライベートなオンランプを与え、それは自社のデータセンターと、Googleのデータセンターで動くアプリケーションを組み合わせるときとくに重要だ。今日(米国時間10/31)その専用インターコネクトがベータを脱して、いくつかの新しい機能を獲得した。

企業はGoogleのクラウドに接続するために、GoogleがサポートしているコロケーションファシリティからGoogleのネットワークにつながる。Googleが先月ベータを発表したときは、そういうロケーションが35あった。今日のアップデートで、さらに4箇所(アトランタ、ムンバイ、ミュンヘン、モントリオール)が加わった。〔参考

並行して重要なのは、GoogleがグローバルなデータセンタープロバイダーEquinixとパートナーしたことだろう。それは、“専用インターコネクト(Dedicated Interconnect)へのアクセスをグローバルな複数のマーケットに提供するため”、とされている。このパートナーシップの詳細は不明だが、これによりGoogleのインターコネクトのリーチが現在のロケーションを超えて拡大するだろう。ただしこのサービスはすでに、Equinixのデータセンターの相当多数をサポートしている。

このDedicated Interconnectには、新たなロケーションに加えてCloud Router Global Routing(専用ルーティング)のサポートがある。これにより企業は、自分のデータセンターをGoogle Cloud Platformにつないで、その世界中のさまざまなリージョンにある自社のサブネットのすべてに、このインターコネクトから容易にアクセスできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa