AWSにならってGoogleのCompute Engineも秒制課金を導入、Microsoftはまだか

一週間前にAWSは、同社のEC2サービスの秒単位の課金への移行を発表した。Googleが今日、ほぼ同じ移行を発表したのも、当然だろう。

Google Compute Engine, Container Engine, Cloud Dataproc, およびApp Engineが依拠する伸縮性仮想マシンは、今日からただちに毎秒課金が開始される(AWSの秒課金開始は10月2日からだ)。この新しい課金方式は、プリエンプティブマシンと、同社のプレミアム(特別優遇)オペレーティングシステム(Windows Server, Red Hat Enterprise Linux, SUSE Enterprise Linux Server)が動くVMにも適用される。AWSの秒制課金は標準のLinuxインスタンスのみで、Windows Serverや他のLinuxディストリビューションは従来どおり時間制の課金だ。

AWSの秒制と同じなのは、Googleも最小課金量が1分であること。(30秒しか使わなくても1分)

なおGoogleはすでに、Persistent Disks, GPU, そして特定の割引利用では秒課金を導入している。

毎秒課金になっても多くのユースケースにおいて課金額はほとんど変わらない、とGoogleは言っているが、頻繁かつ急速にスケールアップ/ダウンを繰り返すようなアプリケーションもたくさんあり、そんなアプリケーションでは有意な差がある、とも言っている。Webサイトやモバイルアプリ、データ処理のジョブなどが、そんなアプリケーションの典型だ。

Compute EngineのプロマネPaul Nashが今日の発表声明で述べている: “課金額に大きな違いが生じないことが、これまで秒課金の要望が少なかった理由だと思われるが、みなさんが時間を気にせずに朝のコーヒーをゆっくりお飲みいただけるために、そのVMsの課金方式を最小を1分とする秒制にできたことは、本当に喜ばしい”。

Google自身がそれを白状することはないが、でもこれは明らかにAmazonへの対抗だ。表向きには、両クラウドコンピューティングサービスの機能を比較するページの、チェックボックスがひとつ増えただけだけどね。

ではMicrosoftはどうなる?

今のところ、Microsoftは同じ動きを見せていない。MicrosoftのAzure Compute部門のプロダクト担当Corey Sandersは同社のIgniteカンファレンスの会場で、私の質問にこう答えた: “Azure Container Instancesでは、数秒でスピンアップし数秒でスピンダウンするようなサービスは実質的に秒課金だから、秒制課金の先鞭をつけたのはむしろ弊社である。われわれは顧客にこのような粒度を提供することがコストの面で重要であることを、前から理解していた。他のクラウドがわれわれに見習って、顧客の課金に最良の柔軟性を提供しようとしている光景を目にすることは、実に嬉しい”。

通常の仮想マシンに関してはSandersは明言を避け、Microsoftはコンテナにフォーカスしたい、秒制課金がもっとも有意なのはコンテナだから、と述べた。“弊社のプラットホーム全体にわたって、課金の構造はつねに改善に努めている。それによって顧客がもっと容易に、そしてもっとアジャイルにプラットホームを利用できるようにしたい”、と彼は語った。でもMicrosoftが近く、比較ページに毎秒課金のチェックボックスを含めなかったとしたら、その方がビッグサプライズだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Azureが費用節減のための予約インスタンスを導入、新たなコスト管理サービスもローンチ

ご存じない方もおられるかと思うが、Microsoftは今週、フロリダ州オーランドで例年のIgniteカンファレンスを行っている。その主役はあくまでも同社のおなじみのプロダクティビティアプリケーションだが、最近のMicrosoftはクラウドコンピューティングプラットホームAzureの話題も少なくない。今日(米国時間9/25)発表されたAzureのアップデートの中には、予約インスタンスのローンチや、数か月前にMicrosoftが買収したCloudynの統合による、新たなコスト管理ツールなどがある。

MicrosoftのScott Guthrieは今日の発表で、“クラウドの信頼性の核はそのコストだ。いきなり巨額な請求書が来ないことだ”、と言っているが、一般ユーザーが事前にクラウド利用の費用を正確に見積もることは難しい。そこで今回発表されたCloudynをベースとするAzure Cost Managementサービスは、Azureの顧客全員に無料で提供され、クラウドのROIの最大化を助け、クラウドコンピューティングのリソースの利用状況を把握できるようにし、そしてその費用の管理を支える。

予約インスタンス(reserved instances)はAmazonのAWSには前からあるので、新しいコンセプトではないが、むしろ、Microsoftの導入の遅さが意外でもある。予約インスタンスは、ユーザーが最初に1年から3年の長期利用契約を結び、通常のオンデマンドの利用の最大72%の費用節約を獲得する。Microsoft独自の仕様は、途中でキャンセルして払い戻しを受けられることだ。AWSでは、途中でキャンセルするためにはユーザーがサードパーティのバイヤーを見つけなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MicrosoftはOffice 365のチャットでTeamsに全力――Skype for Businessはやがて消え行く

Microsoftは今日(米国時間9/25)、エンタープライズ向けコミュニケーション・サービスのプラットフォームとしてMicrosoft Teamsを選択し、全面的に普及を推進していく方針を明らかにした。

Microsoft TeamsはOffice 365アプリと深いレベルで統合されていることがSlackなどのライバルに対する大きな強みとなっている。このチャットサービスは最近数箇月、アップデートを繰り返して多くの機能を追加し、12万5000社がなんらかの形でTeamsを利用するまでに成長した。

実はこれまでMicrosoftのエンタープライズ向けコミュニケーション・プラットフォームはSkype for Businessだった。この数年、MicrosoftはSkypeのインフラを大幅に強化し、テキストによるチャットの改善、音声・ビデオ通話での会議サポートなどを実現している(もっとも一部のSkypeユーザーは機能の改善に品質の改善が追いついていないと不満を漏らしている)。

しかしOffice 365担当のコーポレーション・バイス・プレジデントのRon Markezichは今日の声明で「Office 365を通じてクラウド・サービスを利用するMicrosoftのユーザーに対し、Microsoft Teamsはコミュニケーションのコアとなるプロダクトへと成長するだろう」と述べた。Teamsは音声、ビデオを利用した通話、会議のいずれにおいてもそのヒーローであり中心的体験となるだろう」という。将来、Teamsは現在のSkype for Businessを置き換えるクライアントになるようだ。

もちろんMicrosoftはエンタープライズはなにかにつけて動きが遅いことを熟知している。既存のPBX機器やクラウド接続を簡単に置き換えられない企業のために2018年にもSkype for Businessサーバーのアップデートは続けられる。

ただしTeamsとSkype for Businessは同一のインフラを用いるので相互に排除関係にはなく、併存することが可能だ。もちろん通話などにおける相互運用性にも問題はない。

しかしTeamsに移行するならチャット、通話、会議において多数の新機能がサポートされるとMicrosoftは約束している。外線との発信、着信においてボイスメール、保留、転送、その他エンタープライズ向け電話システムに標準的に備わる機能はすべて用意されているという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Cloud Platformにさらに強力な(二機種めの)Nvidia GPUのサポートが加わる

Google Cloud Platform(GCP)が今日(米国時間9/21)、Google Compute Engineに、Nvidiaの強力なGPUのサポートを加える、と発表した。

同社はすでにNvidia K80 GPUをサポートしているが、今回はNvidia P100 GPUのインスタンスが新たな長期料金体系(sustained pricing model)によりベータで加わる。

機械学習のワークロードを抱える企業にとっては、クラウドでGPUを利用できれば、分単位の料金制でも柔軟な利用が可能だ。しかし長期料金制なら、一定の長時間、最大30%の割引料金で利用できる。言い換えると、(額が最初からわかっているので)月末になって巨額な請求にびっくり仰天することはない。

そしてGoogleの主張によれば、この方式によりベアメタルに近いパフォーマンスを享受できる。GPUサポートを発表するブログ記事で、Googleはこう言っている: “クラウドのGPUは、ベアメタルのパフォーマンスを得るために提供される便宜である。それは1 VMあたりP100が最大4、K80なら最大8となる(K80のボードは最大4で、一枚あたり2 GPUだ)”。

GPUのワークロードは仮想マシンで直接動かしてもよいし、コンテナに収めてもよい。下図のように、サービスは世界の4つの場所から提供される:

Screenshot 2017-09-21 12.28.20.png

地図提供: Google

Googleが想定しているこのサービスの主な用途は、遺伝子研究や金融工学、機械学習のモデルの訓練と推断など、さまざまな計算集約的なタスクだ。二種類のGPUが提供されるため、ワークロードの特性に応じて速度と料金の適正な均衡をユーザーは実現できる。このGPUクラウドの初期の顧客Shazamは、その音楽同定(音→曲名アーチスト名)サービスに利用している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Kubernetesがコンテナ時代のソフトウェア産業を全面的に支配、大企業もCloud Native Computing Foundationに参集する

駅を出て徐々にスピードを増す列車のように、Cloud Native Computing Foundationは急速に強くなり、テクノロジー業界の大物たちを吸引してきた。過去1か月半だけでも、AWS, Oracle, Microsoft, VMwareとPivotalなどがこぞって参加した。

これらの企業は必ずしも毎日仲が良いわけではないが、しかしそんな中でKubernetesは業界の必須のツールへと育ち、どの企業もCNCFに参加してそのミッションをサポートすることが必要だ、と考えている。これは部分的には顧客の要望によるものであり、そして残りの部分は、Kubernetesやそのほかのクラウドネイティブ技術に自分も口出しをしたいという欲求の表れだ。

この団体はLinux Foundationの傘下にあり、最初はGoogleが開発したオープンソースのプロジェクトKubernetesもこの親団体の管理下にある。Kubernetesはコンテナ化されたプログラムのオーケストレーション部分を担う。そしてコンテナは、ソフトウェアを、以前のように大きな一枚岩的なプログラムとしてではなく、マイクロサービスと呼ばれる離散的な小片の集まりとして配布するための形式ないし方法である

過去2年ほどはDockerがコンテナの普及に大きく貢献し、コンテナ化されたプログラムを作るための共通的な方法をデベロッパーに提供してきた。そして今では、企業はこれらのコンテナ化されたアプリケーションを“クラウドネイティブ*に”動かすことを欲している…CNCFの事務局長Dan Kohnはそう語る。〔*: cloud-native, ‘クラウド生まれ’、アプリケーションの作成も実稼働もクラウド上で行われること。〕

彼の説明によると、企業がAWS, Azure, GCPのようなパブリッククラウドへ行くにせよ、あるいはオンプレミスのプライベートクラウドでアプリケーションを動かすにせよ、どちらの場合も同じ技術がベースになる。アプリケーションがどっちにあっても、Kubernetesはそれらを整合性のある形で動かし管理するためのツールを提供する。

コンテナ化されたクラウドネイティブなアプリケーションをローンチする企業にとって、Kubernetesはオーケストレーションとオペレーションのレイヤを提供し、それを軸として驚異的なほど高い生産性が実現する。だから冒頭に挙げた巨大企業ですら、そのことを認識して、今やCNCFというバスに乗り込んでくるのだ。

というわけで、すべての中心にあるものはKubernetesだが、Kohnによるとそれは、見た目ほどシンプルではない。コンテナオーケストレーションツールを採用しCNCFに参加することには、企業目的が伴っている。“全員が輪になって手を握り合い、Kumbayaを歌う、という状況ではない。同じ顧客を奪い合う競合関係もある。しかし彼らは、コンテナオーケストレーションツールをめぐって争っても一文の得にもならないことを、十分に理解している”、とKohnは語る。

Kohnによると、Kubernetesは今やコンテナオーケストレーションのデファクトスタンダードだから、企業はもはやその部分では競合せず、コンテナの管理体験を向上させるそのほかの部分のサービスで優位に立とうとしている。業界の大物たちも、コンテナのオーケストレーションは今や解決済みの問題であり、今さら車輪の再発明に取り組むのは愚かである、という認識を共有している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Digital OceanがオブジェクトストレージサービスSpacesを立ち上げ、スケールアップ無制限

人気のクラウドホスティングサービスDigital Oceanが今日、オブジェクトストレージサービスSpacesを発表した。同社の既存のブロックストレージサービスを補完するサービスだが、16TBという上限のあるブロックストレージサービスと違ってSpacesにはスケールアップの制限がなく、その物理的な量やストレージの仮想マシンへの接続は問題にされない。

Digital Oceanにとってこれは、同社の核となるクラウドコンピューティングサービスを拡張する試みのひとつであり、AmazonやGoogle、Microsoftなどの大手と同格に戦おうとする意欲の表れでもある。もちろん大手はすでに、Digital Oceanの現状よりもずっと幅広いサービスを提供している。

同社のクラウドストレージのプロダクトマネージャーJohn Gannonが、発表声明でこう述べている: “オブジェクトストレージはもっとも要望の多いプロダクトだった。コンピューターのリソースを抽象化したスケーラブルなストレージプロダクトの開発に着手したとき、ここには今日(こんにち)のデベロッパーが行っている問題解決のやり方をリファクターし改良する機会があることに気づいた”。

同社によるとこのサービスはAWS S3の既存のツールの多くと互換性があり、またすべてのデータは256ビットAES-XTSで暗号化されてディスクに書き込まれる。デベロッパーが独自の暗号化方式で暗号化することも、もちろん可能だ。

料金体系は単純明快だ。250GBのストレージが月額5ドル、アウトバウンドの帯域1TBが含まれる。それを超えると、1GBあたり0.02ドル、転送量1GBあたり0.01ドルとなる。試用希望者のための2か月の無料プランもある。

Spacesは現在、同社のNYC3リージョンで可利用であり、年内にAMS3リージョンでも提供される。そのほかのリージョンは2018年以降だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSのEC2が秒単位の課金制になった…GCPやAzureの分単位課金に対抗だ!

2006年にAmazonがAWSのクラウドコンピューティングサービスEC2立ち上げたときには、時間制の課金が画期的に感じられたが、でもそれは、端数がわずか数分でも1時間と数えられてしまうことを意味していた。しかしこのところAWSのコンペティターたちはより柔軟な課金形式を採るようになっている(分制が多い)ので、AWSも10月2日に彼らの上を行って、そのLinuxベースのEC2インスタンスには秒制の課金方式を導入することになった。

この秒制の課金形式は、オンデマンド、リザーブド、スポットの各インスタンスタイプに適用されるほか、EBSボリューム用に手配されたストレージにも及ぶ。Amazon EMRとAWS Batchもこの秒制に移行するが、各インスタンスの最低料金は1分ぶんであり、また、Windowsや、独自の時間制料金のLinuxディストリビューションを使うマシンには適用されない。

AWS Lambdaのようないわゆる“サーバーレス”のプラットホームが急伸し、これらが秒未満の課金制を導入している今となっては、古い時間制の課金形式は多くのデベロッパーにとってナンセンスと感じられる。しかし単純な事実としては、EC2はGoogleやMicrosoftなど分制の課金に移行したプラットホームに比べて割高である、という評判がこのところ広まっていたのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

DropboxがAWSを捨てて独自のインフラとネットワークを構築した理由

企業内には、必要なものは何でも、自社で作るかあるいは購入するかについての緊張が常にある。数年前Dropboxは、必要とするインフラストラクチャの大部分をAWSから自社のデータセンターに移行することを決定した。想像できるように、それには大変な努力を要したが、自らの運命をコントロールできることの利点は、そこに到達するまでに直面する、すべての困難に見合う価値があると彼らは信じていたのだ。

まず第一に、Dropboxのような会社は、莫大な量のデータを保存している多数の顧客を扱っている。最新の数字によれば、5億人のユーザーと20万のビジネス顧客がいる。彼らが移行を行ったときには、AWSサーバーに置かれていた500ペタ(5のあとに0が17個続く)バイトという真に膨大な量のデータを移動させる必要があった(AWSはまだ一部のワークロードで使用されている)。

最初のステップは、それを置き換えるインフラを構築することだった。ここで話題にしているのは、わずか数十人のインフラチームを抱える、総勢1500人の会社のことだ。これは超大規模な作業ではなかったが、彼らがやろうとしていたのは、それまでは遥かに大きなチームを抱えたわずかな会社だけが成し遂げていたことを、自力で行なうということだった。

それには米国内の3つのデータセンターの建築と運用が含まれていた。またそれは、米国のデータセンターと世界中に散らばる他の施設の間をつなぐネットワークバックボーンの構築も意味していた。Dropboxを開いてファイルをリクエストしたなら、利用者はファイルが待ち時間なくほぼ即座にダウンロードされることを期待するだろう。古いシステムから新しいシステムへの移行が行われている最中も、それが確実に行われるかどうかはチームの腕次第だった。

「バックボーンについて見られる素晴らしい点は、おそらくGoogleやFacebookの中でも見つけることができるでしょう。しかし私たちはそれを彼らよりも小さなチームで成し遂げたのです」とTechCrunchに語るのは、Dropboxのプロダクションエンジニアリング責任者のDan Williamsだ。そしてその小さなチームは、すべてのサービスを継続的に運用しながら、バックボーンを構築して、すべてのコンテンツを移動しなければならなかった。

とはいえ同社は、インフラストラクチャーのコントロールを切望していたので、この大規模な作業を喜んで行ったのだ。Williamsは、このような決定を下す際には常に譲歩が必要なことは認めていたが、最終的にそれらのトレードオフは意味のあるものだった。「私たちの場合、それは品質とコントロールと管理に関するものでした。高い品質と性能を備えたしっかりした第三者がいることは分かっていますが、私たち自身のシステムも同じか、あるいは更に良いものだと感じています。なぜなら自分たちのシステムなのでその中身を良く知ることができるからです」。

Williamsによれば、Dropboxにとって、ネットワークを構築することはビジネス上の決定であり、全体的なビジネスにプラスの影響を与えたと語った。「このようなかなり規模のネットワークを実際に構築した者は、ビジネス上によい影響があると考えています。本当にユーザーの信頼を獲得することができますし、この高い品質のサービスに基く、更なるプロダクトやサービスへユーザーを迎えることができるからです」とWIlliamsは説明した。

新しいシステムは、確かに企業ITにおけるDropboxの評判にプラスの影響を与えた。過去を振り返ると、Dropboxは大規模な組織内での未許諾利用によって、しばしばIT部門から悪評を招いていた。今日では、Dropbox Businessの製品ラインが、企業のインフラストラクチャとネットワークを組み合わせて、これまでにないレベルの信頼性を実現している。Williamsは、Dropboxがネットワーク運用の詳細な洞察を得ていること、そして今回の変更でユーザーに新たな負担は求めなかったものの、その運用データはセールスに活用できていると語った。

「私たちの信念の1つは、高性能で低コストの製品を提供することです」彼はこれによって、この移行を通じて古い顧客を維持しつつ、ユーザーベースを増やすこともできたのだと信じている。

所有コストが実質的に下がったかどうかにはかかわらず、同社はそれを自ら構築することによって目標を達成できた考えている。「コストは常に考慮していますが、私たちのネットワーク拡張の目標は、ユーザーのためにパフォーマンス、信頼性、柔軟性およびコントロールを向上させることでした。これには成功することができたのです」と同社広報担当者はTechCrunchに語った。

自作するか購入するかの意思決定は決して簡単ではない。特に移行中に2つのシステムの間でバランスをとらなければならなかったDropbox程度の規模の会社にとっては。しかし現在振り返ってみれば、彼らにとっては十分に価値があったようである。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: KYNNY/GETTY IMAGES

AWSがメモリが4TBを超える仮想マシンの提供を開始、インメモリデータベースがさっそく食らいつく

数か月前にAmazonのAWSグループは、メモリが4から16TBぐらいのインスタンスタイプを準備している、と述べた。そして今日(米国時間9/14)はついにその約束が実現して、メモリのサイズでは最大のEC2マシンを同社はローンチした。そのx1e.32xlargeインスタンスは、RAMがなんと4.19TBもある。EC2のこれまでで最大のインスタンスは、メモリが2TB強だった。

これらのマシンはクアッドソケットのIntel Xeonプロセッサー(2.3GHz)、最大25Gpsのネットワーク帯域、そして1920GBのSSDを装備する。もちろんこれだけのメモリを必要とするアプリケーションは多くないが、SAPのインメモリデータベースHANAとその各種のツールがこれらのインスタンスで動くことが公式に認定されていて、SAPはこれらのアプリケーションをこのインスタンス上で運用することに関し、直接のサポートを提供する。

これらの新しいインスタンスは目下、AWSの4つのリージョンで利用できる: それらは、US East(Northern Virginia), US West(Oregon), EU(Ireland), そしてAsia Pacific(Tokyo)だ。当然ながらこれらのインスタンスはお安くない。たとえばUS Eastのオンデマンド料金は1時間$26.688、Asia Pacificでは$38.688だ。つまり、AWSのもっとも高価なVMとなる。

ちなみにMicrosoft Azureの最大のメモリ最適化マシンは現在2TB強が最大で、GoogleはRAM 416GBが最大だ〔USのみ〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

営業の最終過程を管理するサービスApttusが$55Mを調達、次はIPOか

Salesforce上の見積請求管理サービスApttus日本)は今やユニコーン企業だが、このほど5500万ドルの資金調達ラウンドを発表した。これは同社の、IPO前の最後のプライベート投資になるものと思われる。

CEOのKirk Krappeは上場についてまだ明言しないが、今日(米国時間9/13)のラウンドは今後の投資家の信任を獲得するだろう、と述べた。“バランスシート上に一定量の流動性が必要である、と判断した。企業が上場や買収に臨むときは、投資家たちがその企業の確実な流動性を求める。流動性は、企業を良い位置につける”、と彼は説明する。“弊社の成長は今でも大きいが、最後の手早いプライベートラウンドをやるのが賢明かつ慎重と言えるだろう”。

5500万ドルのラウンドをリードしたのは、インドのシステムインテグレーターWiproのプライベート投資部門Premjiだ。これまでの投資家Salesforce, K1, Iconiqも参加した。

今や13億ドル(2016/9現在)というユニコーン評価額の同社は、これで累計調達額が3億2900万ドルになる。最近では、投資家を国際的に求めることにも果敢だ。たとえばシリーズCの1億800万ドルには、Kuwait Investment Authorityが投資家として参加した。シリーズDの8800万ドルには、サウジアラビアからの投資も含まれる。

バックにSalesforceがいることは大きい。2015年の終わりには、SalesforceがApttusのライバルSteelBrickを買収して割りを食った形になったが、Apttusはその後Microsoft Dynamics用のバージョンを作るなどして独立を模索した。しかし今ではその傷もすべて癒え、今度のラウンドではSalesforceが投資家として戻ってきた。

Krappeによると、Steelbrickの買収によってSalesforceとの仲がこじれたわけではない、という。“彼らは小さなコンペティターを買ったけれども、弊社の同社との関係は一貫して良好であり、今でもうちの仕事の大半はSalesforceの上でやっている”、と彼は語る。

見積〜請求〜回収の全過程を管理するApttusのサービスは、営業過程の重要な部分を担う。営業が顧客企業との関係を築くと、その対話過程をSalesforceに記録するが、実際に最終的な売買契約の過程(本番の見積提出以降)に入ると、企業はApttusなどのソフトウェアを利用して、見積書の作成や、契約書の生成、そして最後の代金回収までの流れを管理していくことになる。〔quote-to-cash, 見積から現金までのサービス、と言う。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

OracleがCloud Native Computing Foundationにプラチナ会員として参加、Java EEをオープンソースに

Oracleが今日(米国時間9/13)、Cloud Native Computing Foundation(CNCF)にプラチナ会員として加わることを発表した。これによって同社は、Amazon, Cisco, Google, IBM, Intel, Microsoft, RedHatらとともに、このLinux Foundation傘下の団体に参加し、コンテナオーケストレーションプロジェクトKubernetesとその関連ツールを支えていくことになる。

CNCFへの入会はお安くない。プラチナ会員は、年会費が37万ドルだ(Linux Foundationの既存の会員には割引がある)。したがってこの団体に加わることは、その企業がKubernetesのエコシステムを支援していく意思表明になる。

Oracleは単に同団体に参加するだけでなく、Oracle LinuxにKubernetesを加え、Oracle Cloud InfrastructureのためのKubernetesインストーラーTerraformをオープンソースにする。このほかすでにOracleは、Kubernetesに多くのコントリビューションをしており、関連するコンテナツールも提供しているから、今日の正式加入は、エコシステムへのこれまでの投資を、公式化する動きにすぎない。

CNCFのCOO Chris Aniszczykは、今日の声明文でこう述べている: “Oracleには、世界クラスのエンタープライズのニーズに対応してきた数十年に及ぶ経験がある。そんなOracleをCNCFのプラチナ会員として迎えることは大きな喜びであり、同社はエンタープライズクラウドの未来を定義していくことに重要な役割を果たすと思われる”。

現時点ではKubernetesがコンテナオーケストレーションツールのデフォルトスタンダードであることに、もはや疑いの余地はなく、今やほとんどすべての企業が、お金の面やコードの寄与貢献の面でこのプロジェクトを支えている。

Oracleの加入の発表と並行してCNCFは今日、同団体が資格認定したKubernetesサービスプロバイダーの最初の一群を発表した。この分野の深い知識と同団体の公式の資格をもって企業のコンテナオーケストレーションを助けていくサービスプロバイダーは、Accenture, Booz Allen Hamilton, Canonical, CoreOS, Giant Swarm, そしてSamsung SDSである。

また今日は、二つの新たなプロジェクトが同団体のオープンソースツールの仲間に加わった。それらは、分散トレーシングシステムJaegerと、Lyftの開発チームが提供したエッジとサービスのプロキシEnvoyだ。

Oracleも今日、オープンソースの発表を行った。同社は、これまでクローズドソースだったJava Enterprise Edition(Java EE)をEclipse Foundationへ移し、そのコードをGitHubに置いた

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft Azureにバースト的なワークロードのための新しいVMタイプが登場

Microsoftが今日(米国時間9/11)、同社のクラウドコンピューティングプラットホームAzureの、新しいタイプの仮想マシンをプレビューで発表した。この、バースト的なワークロードに適しているとされる、その名もBシリーズマシンは、今のところもっともローコストなAzureマシンで、CPUの利用度を目的に応じ選べる(下表)。Webサーバーや小規模なデータベース、開発/試験環境などのワークロードに向いているだろう。

このBシリーズのマシンは、バーストできるパフォーマンスを提供するという意味でAWSのT2インスタンスに似ており、仮想CPUのフルパワーを必要としないときは使わないぶんをクレジットとして築ける点でも同じだ。Googleのf1-microとg1-smallのインスタンスも、ほぼ同じだ。マシンがアイドルのときクレジットを蓄えられるから、通常のVMよりも費用を節約できる可能性があり、しかも必要なときには十分なパワーを利用できる。

Microsoftが提供するこのBシリーズマシンには6つのバージョンがあり、いちばん安いのはシングルコアのVMと1GBのメモリで1時間1.2セント、そして最高は8コア32GBのマシンで1時間37.6セントだ。これらはLinuxマシンの場合の料金だが、Windowsマシンの場合は例によってやや高くなる。プレビューの間は、料金はこれらの半額である。

これらの新しいマシンタイプが提供されるのは、最初はアメリカ(West 2, East)、ヨーロッパ(West)、アジア太平洋(Southeast)のゾーンのみだ。プレビュー期間に利用してみたいデベロッパーは、クォータをリクエストする必要がある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが今日ローンチしたDrive File StreamはG SuiteユーザーのGoogle Driveデスクトップアプリケーションをリプレースする

Googleが今日(米国時間9/7)、Google Driveのユーザーのための新しいデスクトップアプリケーションDrive File Streamを発表した。G Suiteの顧客は、今すでにそれを使える。このアプリケーションはGoogle Driveのデスクトップアプリケーションに置き換わるもので、こちらは来年、最終的に閉鎖される。エンタープライズの顧客にとっても、十分に長い移行期間と言えるだろう。

この移行についてGoogleは前に、詳細を報じていた

7月のGoogleの発表では、消費者向けのGoogle DriveとGoogle Photosのデスクトップファイルシンクアプリケーションを“Backup and Sync”と呼ばれる新しい単一のアプリケーションに一本化する、とされた。そしてそのあと、Google PhotosとGoogle DriveのMac用およびPC用のクライアントアプリケーションのサポートは終了することになった。

それと関連して、Drive File Streamと呼ばれるエンタープライズ向けソリューションがローンチされることになり、それは後日G Suiteの顧客全員に展開される、と言われた。そのときは、Drive File StreamのEarly Adopter Program(初心者入門事業)も開始された。

消費者アプリケーションとエンタープライズバージョンの主な違いは、その管理機能(アドミン機能)だ。

G SuiteのAdmin Consoleには今日から、Drive File Streamのセッティングが表示される。そこでアドミンは、シンクのon/offや、ソフトウェアのインストールの仕方、手作業でアップデートする場合のGoogle Updateの無効化など、さまざまな構成項目を指定できる。

Drive File Streamの設定は今日からできるが、実際にそれらが有効になるのは9月26日の火曜日からだそうだ。

ただしDrive File StreamがリプレースするMac, PC用のGoogle Driveは、今日から公式に非推奨になる。

そしてGoogle Driveのデスクトップソフトウェアのサポート終了は12月11日、完全閉鎖は2018年3月12日とされている。

さらにGoogleは曰く、消費者向けツールBackup and Syncは、エンタープライズソフトウェアのDrive File Streamの代わりに使ってもよいし、併用してもよい。

Backup and Syncはコラボレーション用のTeam Drivesをサポートしていないが、Drive File Streamとともに、DocumentsやDesktopなどDriveのフォルダーをシンクできる。その機能の一部はDrive File Streamと重複している。ついでに両者を一本化/単純化してほしいけどね、Googleさん。

この記事の文章だけではよく分からない人は、このページの表(上図)をご覧いただきたい。

このローンチのニュースと並行して今日は、Google Driveクラウドサービスの不具合が報じられた。今朝はDriveとGoogle Classroomがダウンしたのだが、後者はアタッチメントの保存にDriveを使用している。この問題は、二時間後に解決した。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Amazon、5万人規模の第2本社建設計画を発表――自治体の立候補受付け開始

Amazonはすでにeコマース、ロジスティクス、クラウドサービスの各分野で世界的な巨人だ。そのAmazonが企業としての存在をさらに一段と拡大する動きを見せている。今日(米国時間9/7)、同社は北米地区に第2の本社を建設するために適切な都市を選ぶための調査を開始したことを発表した

Amazonによればこの第2本社はワシントン州シアトルの既存の本社(上の画像)と「あらゆる点で同等の施設となる」といいう。

新本社はそのサイズもシアトル本社と同等かそれ以上となるもようだ。Amazon本社はシアトルのビジネス地区の中心的施設の一つだ。4万人の社員が75ヘクタールの土地に建てられた33棟のビルで働いており、レストランだけでも24箇所ある。Amazonによれば、HQ2と呼ばれる第2本社では5万人が働くことになり、投資額は50億ドルに上るという。

Amazonのファウンダー、CEOのジェフ・ベゾスは声明で「Amazn HQ2はあらゆる面でシアトル本社と同等のものとなる。HQ2は当初でも数十億ドルの投資先となる。この投資はその後も継続され、数万人の給与の高い職が創出される。われわれは第2の家〔に適切な場所〕を見つけようと張り切っているところだ」と述べた。

TechCrunchではHQ2建設のスケジュールについてAmazonに問い合わせ中だ。

Amazonの新本社建設の発表は興味深いタイミングで行われた。Appleはクパチーノの新キャンパスの建設をほぼ完了したところだ。来週にはメイン・ビルディングに隣接する新しいスティーブ・ジョブズ・シアターで最初のイベントを開催する。ここでは最新版のiPhoneが発表されるものとみられている。リング状の巨大建築はAppleのパワーを象徴するものとして長いあいだ話題になってきた。Appleが新キャンパスでiPhoneイベントを開催する直前にHQ2建設計画が発表されたことは、こうしたビッグプロジェクトを実施できるのはiPhone/Macの巨人だけではないと知らせるAmazon一流のやり方かもしれない。

面白いことに、Amazonは社員がどちらの本社ないしどの都市で働くことを希望するか各種調査を行う計画も明らかにしている。ここでAmazonは適切な候補地となるべき条件をいくつか挙げている。候補都市は人口が100万人以上であること、ビジネスフレンドリーな安定した都市環境であること、テクノロジーに関して才能ある人材を引き寄せる魅力がある都市ないし都市近郊であること、などだ。また都市、地域の選定にあたっては「ものごとを大きなスケールで考える創造的なコミュニティーを持つこと」も条件としている。

またAmazonは新本社は現在のシアトル本社同様、都市型の施設となり、都市中心部に建設されること、すでにデベロッパーによって開発が進められていてもよいことなどを明らかにしている。

AmazonではHQ2建設の第一歩として都市ないし州による提案の受付(RFP=Request for Proposal)を開始しており、Amazonは自治体に対し同社へのコンタクトを呼びかけている。一度HQ2の建設予定地に選定されれば都市側のメリットは巨大だ。Amazonの推計によれば、同社は2010年から2016までの期間にシアトル市の経済に寄与した額は380億ドルになるという。Amazonの投資1ドルについてシアトル市は1.40ドルの経済効果を生み出してきた。

社員38万人というのは、Amazonをテクノロジー分野における世界最大の雇用者の一つとしている。テクノロジーは現在アメリカの主要産業とみられいるものの、以前の主要産業と比較すると直接雇用者の数が目立って少ない。Amazonは例外的に巨大な雇用者だが、ロジスティクスの分野における雇用が大きいのもひとつの理由だ。事実、Amazonはアメリカでもその他の世界でもフルフィルメント・センターを開設するつど、地域の雇用と収入の増大に貢献することになると発表してきた。

Amazonはまたアメリカ国外でも急ピッチで拡大を続けている。

今年夏、AmazonはEU離脱で揺れるイギリスの首都、ロンドンの金融地区に新しい本社を開設している。

下の画像はAmazonのシアトル本社に関する詳細だ。

画像:Amazon

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MesosphereがデータセンターオペレーティングシステムDC/OSにKubernetesのサポートを導入

Kubernetesは確実に、コンテナオーケストレーションサービスのデファクトスタンダードになっている。Mesosphereはわりと初期からコンテナを採用し、企業顧客の、分散システムによるクラウド上のビッグデータ分析を支えているが、今日(米国時間9/6)は、大規模な分散アプリケーションを動かすためのOSのような同社のプラットホームDC/OSがKubernetesをサポートする、と発表した。Mesospereはいわば、Apache Mesosの実装系であるが、MesosとDC/OSのためのコンテナオーケストレーションツールとしては長年、同社独自のMarathonを提供してきただけに、今回の動きは意外である。〔*: DC/OS == Data Center Operating System〕

KubernetesのサポートはDC/OS 1.10のベータから提供され、それは9月11日にローンチされる。

今朝この情報をもたらしたThe Informationの記事は、MesosphereがKubernetesに“屈した”、という見方をしている。同じく今朝、ぼくがMesosphereの協同ファウンダーでCEO Florian LeibertやMesosphereのCMO Peter Guagentiに取材したら、両人は屈服説を断固否定した。両人が強調するのは、大企業が多い同社の顧客に選択肢を提供する、という考え方だ。“うちの顧客は大企業のインフラやオペレーションを担当しているプロであり、一つの組織内で何十万ものデベロッパーに奉仕している”、とGuagentiは語る。“そんな彼らにとっていちばん重要なのは、選択の自由だ”。

Leibertの見解では、Kubernetesをオーケストレーションエンジンの一つとして提供することは、これまで同社が、複数のデータサービスや継続的インテグレーションのプラットホーム、あるいは複数のネットワーキングツールをサポートしてきたことの延長にすぎない。さらにGuagentiが強調して曰く、顧客にとってMesosphereは、コンテナを利用するためのプラットホームではなく、あくまでも、データ集約的なアプリケーションをデプロイし管理していくためのインフラなのである。

Leibertによると、MarathonとKubernetesではユースケースが異なる。Marathonは、コンテナ技術を使っていないレガシーのアプリケーションを動かすためにも使えるが、Kubernetesは当然ながらコンテナのためのツールだ。“だから両方をサポートするのが自然であり当然だ”、と彼は言う。“これらの技術の多くはレヤーケーキにとてもよく似ていて、たとえばKubernetesとMesosはとても相性が良い。コンテナのワークフローをKubernetesが担当するが、Hadoopのようにコンテナを使わないアプリケーションもある”。

Guagentiに言わせると、コンテナの分野でもMesosphereはリーダーだ。ユーザーがプロダクションで動かしているコンテナの数でもたぶんトップだし、コンテナサービス企業の中で売上でもトップだろう、という。売上の金額は、教えてくれなかったけど。

LeibertとGuagentiは、これまでと変わらずMarathonへの投資は続ける、と断言した。

今後ユーザー企業のデベロッパーたちは、Kubernetesを使うコンテナのデプロイを、DC/OSを使ってセットアップおよび管理できるようになる。もちろん同じインフラストラクチャの上でDC/OSはそのほかのコンテナデプロイメントも動かすし、Kubernetesも各デプロイによってバージョンがさまざまに異なったりするだろう。このプロジェクトでMesosphereはGoogleと協働し、Mesosphereがユーザーに、ベンダー固有の変更がなく、互換性の問題も起きない、源流的(最上流的)なバージョンのKubernetesを提供できるようにしている。

GoogleでKubernetesとGoogle Cloud Platformを担当しているプロダクトマネージャーAllan Naimはこう語る: “KubernetesをDC/OSに導入することによってMesosphereは顧客に、データリッチなコンテナ化アプリケーションを、彼らのデータセンターやクラウド上で構築、デプロイ、そしてオペレートできる堅牢なプラットホームを提供することになる。コンテナにはKubernetes、そしてマシンインテリジェンスにはTensorFlowを使うプロジェクトを、MesosphereのDC/OSとGoogle Cloud Platformの両プラットホームで動かせば、企業は強力な、そしてオープンなハイブリッドクラウドプラットホームを確保することになる。その意味でMesosphereとの協働、およびコミュニティの前進に継続的に貢献できることが、これからも楽しみである”。

Mesosphere側の結論としては、単純に顧客の選択肢を増やすことに帰結するが、Kubernetesのエコシステムがまた一勝を挙げたことも確実だ。そのエコシステムは、これまで独自のニッチを築いてきたMesosphereにとっては脅威ではないが、これまでコンテナの普及推進の主役だったDockerにとっては、主役を奪われる危険性があるかもしれない。たしかに今回のMesosphereの動きによって、Dockerの独自性の確立と維持が、やや難しくなったようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

VMware CloudがAWSから提供される、ITのプロたちは喜びのダンスを踊る

VMwareは昨年の秋にAWSとのパートナーシップ発表して、エンタープライズ界隈を驚かせた。一方はオンプレミスの仮想マシンを支配している企業だし、他方はパブリッククラウドの雄だ。それは、強力な組み合わせになるだろう、と思われた。そしてVMwareは今日(米国時間8/28)のVMworldで、その組み合わせの正体、AWS上のVMware Cloudを公式に明らかにした。

AWSは同社独自のVMsを動かしているが、それはデータセンターでVMwareが動かしているものと同じではないので、両方を使おうとしている企業にとっては管理が頭痛の種だ。でも、AWS一本に絞って、その上でVMwareのVMsを引き続いて動かせるなら、管理の問題がなくて両者の良いとこ取りができる。

それはどちらにとっても都合が良くて、VMWareのCEO Pat GelsingerとAWSのCEO Andy Jassyの両方とも、失うものがない。Gelsingerは声明文で述べている: “AWS上のVMware Cloudは、顧客にシームレスに統合されたハイブリッドクラウドを与え、それはvSphereベースのオンプレミス環境とAWS両者にまたがる同じアーキテクチャと能力とオペレーション体験をもたらす”。

Jassyはこう付言する: “世界のエンタープライズの大多数が、データセンターをVMwareで仮想化している。そしてこれからは、これらの顧客が容易に、アプリケーションを彼らのオンプレミス環境とAWSのあいだで移動でき、しかもそのために新たなハードウェアを購入したり、アプリケーションを書き換えたり、オペレーションを変更したりする必要がない”。

これは、それまで二つのシステムを苦労しながら一緒に動かしていたITの連中にとって朗報だ。その苦労とは、新しいアプリケーションはクラウドに置けるけれども、一緒に使うレガシーのアプリケーションをVMwareからAWSのVMに移すのがたいへん、という点だ。その障害が、今回の提携で取り除かれる。

このパートナーシップは、企業としてのVMwareにも大きな揚力を与える。オンプレミスのデータセンターでは100%の浸透を誇っている同社も、顧客の多くがワークロードをクラウドへ移し始めた近年では居場所を失い始めていた。今回はパブリッククラウドの巨人AWSと統合し、二つの環境を横断してスムーズに仕事ができるようになったのだから、息苦しさもやっとなくなる。

AWSにとっては、これはお金持ちになれるのはお金持ちだけの好例だ。パブリッククラウドのビジネスで失うものは何もないだけでなく、VMwareという大きなユーザーがそのクラウドにやってくる。どこからどう見てもこれは、ウィン、ウィン、そしてウィンだ。二社が大きな得をして、VMwareのVMsとAWSのクラウドを容易に統合できるようになる顧客も得をする。全員がトロフィーを獲得する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleのモニタリング/ロギングサービスStackdriverがアップデートされカスタマイズと視覚化が充実

Google Cloud PlatformやAWSの上で動くアプリケーションの、モニタリングやロギング(ログ取り)、診断などのサービスを提供するGoogleのツールStackdriverが今日(米国時間8/31)アップデートされ、ロギングの機能が増えるとともに、無料のログサービスの大きさが拡張された。すなわち12月1日からは、Stackdriverのロギング機能は1プロジェクトあたり1か月に50GBまでのログを無料で提供する。50GBを超えるぶんは、1Gバイトにつき月額50セントが課金される。

このアップデートのスローガンは、ログの分析を早くし、管理を容易にし、そしてより強力にすることだ。そのためにGoogleのチームは、ログに何かが書き込まれたときと、それがStackdriverの分析結果に反映されるまでの時間を短縮した。これまでは、ログのアップデートがStackdriverのユーザーにとって可視になるまで5分以上を要していた。それが今や1分未満になったそうだ。

これまでも、5分では困るというユーザーはあまりいなかったと思うが、でも早くなって怒るユーザーはいないだろうね。

またこれからは、ログのどんな項目でもそれらの各欄をラベルにして、ログのデータを視覚化できる。しかしもっとおもしろいのは、ユーザーが排除フィルターをセットアップして、必要なデータだけをログに出力させられることだ。GoogleのプロダクトマネージャMary KoesとDeepak Tiwariが、今日の発表声明で書いている: “排除フィルターを利用してコストを下げ、無駄なログを減らしてS/N比を上げられる。特定のソースをブロックしたり、逆に特定のパターンにマッチする項目を拾うことによって、コンプライアンスにも貢献する”。

もうひとつの新機能一括エクスポート は、複数のプロジェクトのログをGCS, PubSub, BigQueryなどにエクスポートできる。これまではデベロッパーが、一つ々々手作業でエクスポートしていた。

[↓排除フィルターと排除を指定するエディター]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのApp Engineがファイヤーウォールを提供、デベロッパーパラダイムの変化で人気を盛り返すか

Googleの最長寿命のクラウドコンピューティングプラットホームのひとつであるApp Engineにやっと、完全な機能を持つファイヤーウォール備わる

これまでデベロッパーは、このサービスの上で、自分のアプリケーションへのアクセスを簡単に制限することができなかった。たとえばテストのために一定の範囲のIPアドレスだけにアクセスを許すとか、そんなことが。そこでデベロッパーは制限をアプリケーションのコードとして書いていたが、そうするとどんなリクエストも一応はアプリケーションにやってくるわけだから、拒否するアドレスでもリクエスト処理のコストが生じる。

しかしこれからは、App EngineのAdmin APIやGoogle Cloud Console、さらにコマンドラインツールのgcloudなどを使って、特定のIPアドレスをブロック、または受け入れるアクセス制限をセットアップできる。ファイヤーウォールはアプリケーションの前へ陣取るから、拒否されたリクエストはアプリケーションにやってこないし、そんなリクエストのためにApp Engineのリソースが使われることもない。

App Engineのファイヤーウォールは、その機能や使い方に特殊なところはない。ユーザーはルールをセットアップし、それらのプライオリティ順を決めれば、それだけでOKだ。

App Engineにはすでに、DoS攻撃保護サービスがある。デベロッパーはそれを利用して、良からぬIPアドレスやサブネットを指定できるが、今日(米国時間8/24)のGoogleの発表では、保護のためには今日ベータでローンチしたファイヤーウォールの方をなるべく使ってくれ、ということだ。

App Engineは登場時には最先端のサービスだった。でもそれはデベロッパーを完全に新しいモデルに強制するから、AWSのEC2のような従来的な仮想マシンベースのサービスにはかなわなかった。しかし今では、コンテナやマイクロサービスやサーバーレスプラットホームなどの人気に伴い、App Engineモデルもそれほど珍奇とは感じられなくなり、このファイヤーウォールの例に見られるように、Googleとしても本格的な投資をこれから行っていこうとしているのだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud Platformが自社の高速ネットワークを使わない低能力な廉価版ネットワーキングを提供

Googleのクラウドプラットホーム(Cloud Platform)に、廉価版が加わる。これまでの高級版(Premium Tier)は、できるかぎりGoogle自身の高速ネットワークへユーザーのトラフィックをルートして、中継と距離を最小化する。そして今度の安価な標準版(Standard Tier)では、トラフィックを一般の公共的なインターネットにルートし、起こりうる速度低下や中継の増加を我慢していただく。これからのデベロッパーは、そのどちらかを選べる。

Googleのインフラ担当SVP Urs Hölzleは曰く: “これまでの18年間で、Googleは世界最大のネットワークを築き、今ではそれがインターネットの全トラフィックの25-30%を配達していると推定される。Premium Tierではその同じインフラを享受できるが、しかしユースケースによっては、安価で低能力なネットワーキングを選んでもよい。両者を合わせたサービスをNetwork Service Tiersと呼んでいるが、アプリケーションごとに、もっとも適したネットワークをお選びいただける”。

北米およびヨーロッパでは、標準版は高級版より24-33%安い。また課金方式は、高級版ではトラフィックの起点から終点までの距離で計算されるが、標準版は距離は関係なく、起点がどこにあるかによって、料金が異なる。

今現在は、Google Cloudの全ユーザーがいわゆるPremium Tierを使っている。トラフィックはできるかぎりGoogle自身のネットワークを通り、そして同社のエッジネットワーク上に存在する100あまりのグローバルポイントのどれかで、よりワイドなインターネットへ渡される。ちなみに、このように、できるかぎり長く起点ネットワークがトラフィックを保持する方式をcold-potato routing(コールドポテトルーティング)と呼ぶ。この方式では遅延が最小化され、トラフィックはGoogle自身のケーブルを通るから、パケットロスも少ない。このことは、アプリケーションからユーザーへの往路だけでなく、ユーザーからアプリケーションへの帰路についても、同様に言える。帰路ではトラフィックはできるだけ早くGoogleのエッジネットワークに渡され、そして企業のデータセンターへと旅をする。

新たにできたStandard Tierでは、トラフィックはGoogleのネットワークではなく一般的な(公共的な)インターネットへ渡される。そしてトラフィックは、ネットワークからネットワークへ、ISPからISPへと中継されるから、当然、単一のネットワーク上より遅くなる。クラウドサービスでも、Googleのような大きな自前ネットワークを持ってないところを使うと、このStandard Tierと同じ結果になる、とGoogleは宣伝っぽく言っている。

この二種類のネットワーキングのパフォーマンスの測定と公共的なモニタリングを、GoogleはCedexisと協働して行っている。当然ながらStandard Tierではスループットが遅く、遅延(レイテンシー)は高い。より顕著なのは、レイテンシーの違いよりもむしろ、スループットの違いである。

なお、Standard TierではGoogleのグローバルロードバランサーとCloud CDNが使えない。代わりに、リージョン内のロードバランサーを使わなければならない。

アプリケーションの特性やニーズによって、どちらのネットワーキングを使うべきか迷ったときは、Googleが作った下図のフローチャートを使ってみよう:

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、G suiteをメジャー・アップデート――共同作業、クラウド検索、モバイル機能など強化

今日(米国時間8/16)、Googleの企業向けオンライン生産性ツールG suiteメジャー・アップデートを受けた。これによってGmail、ドキュメント、ドライブ、カレンダーなどに新機能が加わった。

今回のアップデートは主として共同作業の改良が中心となっているが、 Googleのクラウド検索の強化、LegalZoom、DocuSign、LucidChartといったパートナーからの新しいテンプレートやアドオンも追加された。

かつての暗黒時代では、人々はドキュメントをメールに添付して共有し、誰もが同じバージョンを受け取っていることを確認するためにバージョンごとに WordやExcelのファイル名を変えたりしたものだ。共有がオンライン化された現在ではもはやこういう作業の大部分は必要ない。しかし今回のアップデートでGoogleドキュメント、スプレッドシート、スライドではファイル名を変えた複数のバージョンを保存、検索することができるようになった。これはユーザーがある文書を正規のものと認め、他のバリエーションをまとめて保管したい場合には便利だろう(ただしG suiteに対する要望としてトップの地位を占めていたかどうかはよくわからない)。

Googleクラウド検索の統合強化により、G Suiteを利用中の企業ユーザーは各アプリの内部から自社がクラウドに保管しているデータを横断検索できるようになった。これまでは内部文書を検索するために明示的にCloud Searchを立ち上る必要があった。今後はドキュメントやスライドを編集しながら直接検索ができるようになる。

もうひとつ今回のアップデートで追加された機能は、ワンタッチでドキュメントの「クリーン・バージョン」を表示することができるというものだ。これはコメントや編集をすべて隠し、ドキュメントの本体だけを見ることができる。またワンタッチで他のユーザーからの編集提案などすべて反映(ないし拒否)させることもできる。またLitera Change-ProやWorkshare アドオンなどのおかげでドキュメント、シートなどの比較がさらに簡単になった。

モバイル・ユーザーの場合、Android版、iOS版から編集提案ができるようになった。これは長年必要性が指摘されていた機能だ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+