クラウドインフラストラクチャ市場ではAWSの支配が当分続きそう、後続との差は大きい

【抄訳】
AWSは今四半期でも、クラウドインフラストラクチャ市場の無敵のトップだ。いわゆる成長率ではMicrosoftやGoogle、Alibabaなどが高いが、彼らは分母が小さすぎるから、その成長はAWSから見れば痛くも痒くもない。

AWSの今四半期の売上は、45億7000ドルという巨額だ。この額はアナリストたちの予想45億1000万ドルを上回り、この成長率が続けば2017年の年商が180億ドルに達しそうなペースだ。

“でも、Microsoftのクラウド部門は年商200億ドルでしょ?”、と言うのは無意味な比較だ。なぜならそのクラウド部門なるものに大きく貢献しているのはAzureのようなインフラプラットホームではなくて、Office365などのSaaSビジネスだ。IaaSとかSaaSとか、クラウド方面の謎のような言葉は、この記事で勉強できるだろう。

クラウド市場を追い続けるアナリスト集団Synergy ResearchのJohn Dinsdaleによると、クラウド市場のマーケットシェアを云々するときはSaaSを別立てで計算すべきである。そしてIaaSとPaaSおよびプライベートクラウドを合わせた市場では、SynergyによるとAWSのシェアは35%だ(下図)。他社は、はるか後方に引き離されている。

【中略】

Synergyが作った上図を見ると、AWSはいわゆる“ダントツ”である。Microsoftも頑張ってはいるが、AWSには接近できない。同じくアナリスト企業のCanalysは、やや低い31%をAWSのシェアとしているが、市場の全体像としてはSynergyの結果とほぼ同じだ。

ちょっと意外なのは、これら競合サービスの成長率の高さかもしれない(上図および下図)。Canalysの数字では、AWSの成長率およそ40%に対してMicrosoftは90%、Googleはおよそ75%だ。でも、小額な売上増でも、分母が小さいと増加率は大きくなるのであり、いずれにしても当分は、AWSの牙城はびくともしない。

もちろんクラウド市場はまだ飽和にはほど遠くて、今後ますます大きくなると予想されるが、成長率の高いMicrosoftも含めて、AWSにとって‘脅威’と言えるほどのコンペティターはまだ存在しない。

CanalysのリサーチアナリストDaniel Liuは、こう言う: “AWSは多様なサービスとデベロッパーの大きな知名度により、先行馬としての優位を維持し続ける。しかし後続集団の中での先頭は、伝統的にエンタープライズに強く、Office互換性という有利性を持つMicrosoftだろう。Microsoftのもうひとつの強みは、強力なハイブリッドクラウドソリューションにおける技術と経験だ”。

一方AWSのCEO Andy Jassyは、自社の優位性についてそれほど楽観的ではない:

“これからの市場では、一人勝ちはありえない。この業界はコストが大きいし、サービスの品揃えの豊富さと最先端性が重要だから、30社が市場にひしめくということはありえないだろう。でも、成功者が複数社になることはほぼ確実で、それらの名を今挙げることはできない。でも長年のエンタープライズ顧客が多くて営業に大軍を抱える古顔たちが、きっとその中にはいるだろう”。

でも、少なくとも現状のクラウドコンピューティング市場では、各社間の売上規模の格差が大きく、またクラウドサービスの内容も多様なので、成長率等の数字を見るときは注意が必要だ。

〔訳注: 各社、発表している数字の部門分けなどがまちまちなので、成長率90%、75%のMicrosoftやGoogleが、成長率40%のAWSに追いつくのは何年後か、という単純計算も、一般に公表されている数字からはできない。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SECがユニコーン、Zenefitsに厳しい措置――「投資家の判断を誤らせた」として元CEOらに罰金100万ドル

アメリカ証券取引委員会(SEC)はシリコンバレーのスタートアップの悪行の取締に乗り出した。まずターゲットとなったのはユニコーン〔10億ドル企業〕のZenefitsと元取締役のParker Conradだ。

BuzzFeedが最初に報じたが、このヒューマン・リソースのスタートアップとConradは総額で100万ドル近い罰金を支払うことでSECと和解し、訴追を受けないこととなった。SECは同社が「州の保険に関する法規に反し、判断を誤らせるような文言および省略により、投資家に実質的な損害を与えた」としていた。

昨年、当時のCEO、Conradが解雇された後、Zenfitsのトップは目まぐるしく入れ替わった。元COOのDavid SacksがConradの空席を埋めたが、その後Jay FulcherにCEOの席を譲った。

これより先、Conradのコンプライアンスに問題が発覚してZenfitsのトラブルが始まった。また保険チームの社員が州の法規で定められた保険販売員の資格を持っていなかったことも判明した。

SECが発表したプレスリリースによると、こういうことだ。

Zenefitsは〔保険業という〕高度に規制された業種にあったにもかかわらず、同社の成長にともなって急増した保険販売員に保険販売のための適切な資格を取得させることを怠った。投資家にその事実を知らせないまま同社はConradが作成したコンピューター・スクリプトを用いて保険の販売を行い、これによりカリフォルニア州法で定められた資格取得を省略し、資格取得準備のための研修時間の節約を図った。【略】 

Zenefitsは多数の中小企業にヒューマン・リソース・サービスを提供しているものの、売上の90%は保険販売からきていた。無資格販売の発見から生じた法律的問題を整理するために2年もかかることとなった。Conradは自分に割り当てられた罰金を支払うことに同意したが、連邦証券取引法に違反したとのSECの見解に同意したわけではない。

SECによれば、Zenefitsは45万ドルを、Conradは35万ドルを不当利得分として返還する。またConradはこれに加えて利子分2万3692.39ドル、罰金16万ドル、あわせて53万3692ドルを支払うという。【略】

SECがシリコンバレーのユニコーン企業にメスを入れたのはこれが最初だが、最後になるわけではなさそうだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Cloud Native Computing Foundationに署名方式の強力なセキュリティプロジェクトNotaryとTUFが加わる

Cloud Native Computing Foundation(CNCF)は、コンテナオーケストレーションツールKubernetesのホームとして知られているが、そのほかにもさまざまなオープンソースプロジェクトが身を寄せている。どれも、現代的なクラウドネイティブ関連のツールで、GoogleやMicrosoft、Facebookなどをはじめ、各社において、今ではそれらの利用が日常化している。

今日(米国時間10/23)はCNCFの厩(うまや)に、Docker生まれの2頭、NotaryThe Update Framework(TUF)が入った。その最初の開発者はニューヨーク州立大学のJustin Cappos教授と、そのTandonエンジニアリングスクールのチームだ。二つは互いに関連していて、どんなコンテンツにも保護と安心の層を加えるNotaryは、TUFの実装なのだ。

これらの背後にある基本的な考え方は、単純にTLSプロトコルを使ってWebサーバーとクライアント間のコミュニケーションを保護するのでは不十分、サーバー自身がハックされることもある、という認識だ。たとえば、Dockerのコンテナを配布して、それらが安全であると保証したいなら、Notary/TUFのクライアント/サーバアプリケーションがメタデータの署名を扱うことによって、さらなる安心の層を加えるのだ。

“デベロッパーのワークフローの中で、セキュリティは後知恵になりがちだ。しかしそれでも、
デプロイされるコードはOSからアプリケーションに至るまですべての部分が署名されていなければならない。Notaryは強力な安心保証を確立して、ワークフローの過程中に悪質なコンテンツが注入されることを防ぐ”、とDockerのシニアソフトウェアエンジニアDavid Lawrenceは語る。“Notaryはコンテナの分野で広く使われている実装だ。それがCNCFに加わることによって、さらに広く採用され、さまざまな新しいユースケースが登場してきてほしい”。

たとえばDockerはこれを使って、そのDocker Content Trustシステムを実装しているし、LinuxKitはカーネルとシステムパッケージの配布に利用している。自動車業界も、TUFの別の実装であるUptane使って、車載コードの安全を図っている。

Notary/TUFについて詳しく知りたい方には、Dockerのドキュメンテーションが勉強の入り口として最適だろう。

“NotaryとTUFの仕様は、コンテンツのデリバリに関する、信頼性の高いクロスプラットホームなソリューションを提供することによって、コンテナを利用するエンタープライズの重要な課題に対応している”、とCNCFのCOO Chris Aniszczykが今日の発表声明に書いている。“これらのプロジェクトが一体的なコントリビューションとしてCNCFに加わることは、とても嬉しい。今後、これらを軸としてさまざまなコミュニティが育っていくことを、期待したい”。

Docker Platform(EnterpriseとCommunityの両エディション)や、Moby Project, Huawei, Motorola Solutions, VMWare, LinuxKit, Quay, KubernetesなどはすべてすでにNotary/TUFを統合しているから、CNCFのそのほかのツールとの相性の良いプロジェクトであることも確実だ。

NotaryとTUFが加わったことによって、CNCFを実家とするプロジェクトは計14になる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftのAzure Container Serviceの頭字語がACSからAKSに変わった、そのココロは?

コンテナのオーケストレーションに関してはKubernetesが急速にデファクトスタンダードになりつつあり、Docker SwarmやデータセンターOS(DC/OS)を自称するMesos/Mesosphereなどは今や、なんとか自分なりのニッチを見つけようと努力している。そんな中でMicrosoftは長きにわたって、同社のマネージドAzure Container Service(ACS)のアドバンテージのひとつは複数のオーケストレーションツールをサポートすることだ、と主張してきた。しかし今日(米国時間10/24)からは、それがすこし変わるようだ。Azure Container Serviceの頭字語が、なんと、“AKS”になるのだ。

お察しのとおり、この唐突な“K”はKubernetesであり、Microsoftは明らかにそのサービスをこのオーケストレーションツールに向かわせようとしている。サービスの正式名は変わらないのに。

Azureに、マネージドなKubernetesが加わるこのAKSは、目下プレビューだ。

AKSでMicrosoftは、そのフォーカスの中心にKubernetesを置く。Azureのコンテナ対応主席PM Gabe Monroyによると、コンテナサービスは至近の6か月で300%成長し、そしてその顧客は、同社の現在のKubernetesサポートを“とても気に入っている”、という。他の類似サービスと同様にAzureも、Kubernetes環境の管理と運用をできるかぎり容易にしているのだ。

なお、AKSそのものは無料だが、コンテナを動かすためには当然、AzureのVMを有料で使わなければならない。これに対しGoogle Container Engineは、そのサービスの使用時間とクラスター数に応じて課金される。

Microsoftが強調するのは、今でもDocker EnterpriseやMesosphereのDC/OSへの関心が存続していることと、既存のACSデプロイメントエンジンのサポートは今後も続けることだ。Monroyは今日の発表声明でこう述べている: “Azureの顧客でもあるこれらの顧客のニーズに対応するために、DockerMesosphereのエンタープライズ製品の統合は弊社のAzure Marketplaceにおいて、さらに強化していく。Azure MarketplaceはACSと同様の容易なデプロイメントを提供し、またエンタープライズエディションへの容易なインプレースアップグレード(稼働時アップグレード)を提供していく。それはまた、付加価値としての商用機能と24×7のサポートを提供する”。

この春Microsoftは、KubernetesにフォーカスするコンテナプラットホームDeisを買収した。また同社は最近、オープンソースソフトウェアとしてのKubernetesの‘実家’Cloud Native Computing Foundationに加盟した。Kubernetesの共同制作者の一人Brendan Burnsは、今ではAzureのコンテナ関連サービスのトップだ。こういった最近の動きはすべて、同社がますます強力に、このオープンソースのプロジェクトを支持するようになったことの現れ、と見なさざるをえない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CrayのスパコンがMicrosoft Azureにやってくる

クラウド・コンピューティングに意外なニュースが飛び込んできた。MicrosoftはCray提携し、同社のスーパーコンピューターとストレージをAzure から利用できるようにする。

Crayと聞けば、多くの読者は70年代から80年代にデザイン過剰のスーパーコンピューターを作っていた会社を思い浮かべるかもしれない(あの円筒形のタワー状本体の周囲にベンチが設置されたモデルだ)。

Crayは90年代には何度か浮沈を繰り返し、所有者も変わったが、その後、XCCSシリーズの成功で地位を取り戻した。最新モデルはNvidia GPUとIntelのCPUを採用し標準規格のスーパーコンピューターとなっている(一部のマシンはFPGAも採用している)。単一キャビネットのピークパフォーマンスがペタフロップ級のマシンに仕上がっている。

当然ながら、こうしたマシンは非常に高価だ。Crayのターゲットは現在もハイパフォーマンスを必要とする大学や研究機関だ。最近Crayのマシンは機械学習関連の作業で使われることが多い。

そうはいっても、数分で完了するようなバッチ・ジョブ1本のためにCrayをレンタルすることはできない。そこでMicrosoftとCrayはスーパーコンピューター・システムをMicrosoftのデータセンターに設置し、ユーザーがAzureクラウドサービスを通じてCrayのマシンに容易にアクセスできるようにしようと準備中だ。同様に、今後スーパーコンピューターを必要とするかもしれないユーザーも、Azureを利用すればCrayシステムを利用できる。Microsoftの広報担当者が私に語ったところでは、「Crayマシンはそれぞれが顧客のニーズに合わせて設定をカスタマイズできるようにする」ということだ。

今日(米国時間10/23)、Azure担当のMicrosoftコーポレート・バイスプレジデント、Jason Zanderはブログに 「Microsoft Azureは数多くのエンタープライズで採用され、その能力を十分に証明してきた。ユーザー各社はわれわれのクラウド環境で戦略的にもっとも重要度の高いタスクを実行している。今回は新たにCrayと共同することにより、Azureには専用のスーパーコンピューター能力が与えられる【略】」と書いている。

実はCrayがデータセンターにマシンを設置するのはこれが2度目だ。1991年ごろからCrayはMarkleyというあまり有名でないデータセンターに設置されている。Markleyはアメリカとヨーロッパでトータルで27万平方メートルにもなるデータセンターを運用している。

画像: Yiming Chen/Getty Images

〔日本版〕トップ画像はCrayfish(ザリガニ)とCrayをかけたもの。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Adobe、新しいクラウド型Lightroom CCを発表――モバイル写真激増に対応、UIを大きくシンプル化

AdobeのフラグシップといえばPhotoshopを思い浮かべるが、写真家やジャーナリストのユーザーがいちばん多いアプリケーションはLightroomだろう。このツールはRAWファイルを現像するだけでなく、露光、ホワイトバランス、色彩など写真のあらゆる要素を補正・編集する機能を備えている。

今日(米国時間10/18)、AdobeはMAXカンファレンスでまったく新しいバージョンのLightroom CCを発表した。現行のLightroomユーザーにはかなりショッキングな変更となる。

新しいLightroomでは使い方が大きく簡素化された。またクラウド接続を容易にすることにも重点が置かれている。現行版のLightroomはハードディスクに写真を保存し、ローカルで現像・修正を完了することを前提としているためきわめてインターフェイスが複雑だ。このためYouTubeにはLightroomの使用法を解説するビデオが大量にアップされている。

今回の新アプリの登場は写真コミュニティーに大きな衝撃を与えるものであることは間違いない。しかし新ツールについて考える前に、現行Lightroomがなくなるわけではないということを確認しておこう。われわれのお気に入りの(あるいは嫌っている)ソフトはLightroom CC Classicと改名される。AdobeはClassicの改良も続けていくと約束した。実際、AdobeはMAXカンファレンスでLR Classicの新しいバージョンを発表した。これにはプレビュー生成が高速化されるなど数々のパフォーマンスの改良が含まれているという。

Adobeのプロダクト・マネジメントの責任者、Tom Hogartyにインタビューしたところでは、今回の動きは写真をとりまく環境の変化にLightroomを適合させるのが主たる目的だったという。ユーザーは以前に比べてはるかに大量の写真を撮影するようになり、しかもその撮影にスマートフォンが用いられる場合も多い。「新しい状況というのは、誰もが高品質なカメラをポケットに入れて持ちあるくようになったことだ。現在のユーザーは写真の公開にあたってコミュニケーションを重視するが、ツールの利用方法を学ぶために長い時間を割くことは望んでいない」とHoggartyは述べた。

その結果、新しいLightroomは(契約するプランによって異なる―この点は後述)テラバイト級のサイズの写真をクラウドに保管できるようになった。ユーザーはすべてのデバイスからこのクラウド・ライブラリーに自由にアクセスできる。Adobeは以前からこの方向に向かっていたが、今後は全社を挙げてクラウドに注力する。写真をクラウドに保存することでAdobeは同社が開発していたSensei AIプラットフォームを活用して写真を自動的にスキャンし、適切なタグづけを行う。これにより、たとえば、キーワードで正確な検索ができるようになるという。

読者が現行Lightroom CCを使っている場合、新Lightroomに移行すると戸惑いを感じるかもしれない(ライブラリーは自動的にインポートされる)。Adobeは新LRのインターフェイスを最小限の要素に簡素化した。たとえば、旧版で写真を編集する場合、「ライブラリー」から「現像」へモジュールを切り替える必要があったが、新アプリではこのこの区別は消えた。消えたのは「ライブラリー」と「現像」ばかりでなく「ブック」、「スライドショー」、「プリント」、「Web」モジュールも消えた(誰も使っていなかったから影響は少ないが)。 新バージョンではビューを切り替えるだけになった(グリッド、正方形グリッド、詳細)。どのビューにいても、右サイドバーから編集ツールを選択すると自動的にフルスクリーン表示の「詳細」ビューに切り替わる。

さらに面倒な「読み込み」プロセスも大部分が消えた。このタブでは写真をどこに保管するか、何とタグづけするかなどさまざまな入力が必要だったので、この部分を解説するだけでYouTubeビデオにちょっとした産業が成立していた。新バージョンでは保存はクラウドになるので写真を選択して「写真を追加」ボタンをクリックするだけで済んでしまう。1枚の写真であればアルバムであれ簡単に共有ができる。

ユーザーはもちろん「設定」でデフォールトの保存場所を指定できるが、これはローカルにどれだけの空き容量があるかによって決まる。

Adobeはユーザーが一部の写真をローカルに保存したいはずだと知っており、いつでもそのようにできる。【略】

新しい料金プラン

上で述べたように、新しいツールの使い勝手はすべてユーザーのクラウド・ストレージの容量で変わってくる。【略】〔日本サイトの場合〕Adobe CCの新しいフォトプランはLightroom、Lightroom Classic、Photoshopのバンドルに20GBのオンライン・ストレージが付属して月額980円。これに1TBのクラウド・ストレージが付属するプランは.月額1980円となる。

AdobeではLightroomだけが欲しいユーザーのためにLightroom CCに1TBのクラウド・ストレージがが付属したプランを月額9.99ドルで提供する。これにはPortfolioとSparkへのアクセスが含まれる。〔日本サイトにはLightroom単体1TBプランについてはまだ情報がない〕。

なおCreative Cloudに加入する必要なく購入できるスタンドアローンの買い切り製パッケージソフトは、残念ながら Lightroom 6が最後のバージョンとなる。つまりLightroom 7がリリースされる見込みはない。またLightroom 6についても2017年以降はバグフィックスもアップデートも行われないという。

  1. adobe_lightroomcc_web.png

  2. adobe_lightroomcc_intuitive.jpg

  3. adobe_lightroomcc_iphone.png

理由は?

世の中にはまだまだまだソニーのミラーレスやキヤノンのDSLRを肌身離さず持ち歩くエンシュージアストがいる。しかしこのマーケットは明らかに縮小しており、逆にモバイル写真が劇的に増加中だ。Adobeはこの写真を取り巻く環境のシフトに対応しようとしているのだろう。一方でGoogleは写真の保存、検索、編集に関してきわめて魅力的なツールとプランを提供しており、競争の激化が予想される。

Lightroom Classicが依然として提供されるので誰もドラスティックな変化を強制されるわけではない。しかし使い勝手のいいクラウド型のLightroomは従来のバージョンの複雑さを敬遠していた新しいユーザー層を大規模に獲得する可能性がある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

新アカウントタイプDropbox Professionalはフリーランサーやクリエイティブに便利な機能を揃える

Dropboxには大きなストレージのPlusアカウントがあり、いろんな機能を揃えたBusinessアカウントがある。しかしこれまでなかったのは、一部の高度な機能はほしいけどBusinessにグレードアップする理由はないという個人事業主や小企業のためのサービスだ。今日(米国時間10/17)同社は、この宙ぶらりんのユーザーを対象とする新しい種類のアカウントDropbox Professionalを発表した。

この月額19ドル99セントのアカウントには、単なる多めのストレージ以上のおまけ機能がある。Dropbox Plusと同じくストレージは1テラバイトだが、それだけではない。Dropboxにストレージがあるのは当たり前だ、ストレージ屋さんだからね。問題は、それ以外の機能だ。

ずば抜けて最大の機能は、Dropboxがショーケース(showcase)と呼ぶ、コンテンツをパッケージする新しい方法だ。それはマーケティングのための一揃いのコンテンツ・セットだったり、金融サービスならカスタマイズされたアプリケーション、あるいは各クライアントとシェアする広告のポートフォリオだったりする。

たとえばそういうコンテンツをPDFでまとめておけば、クライアントにそれを渡して簡単にちょっとしたプレゼンができる。それはAdobeが何年も前から提供しているマルチドキュメントPDFとそれほど変わらないが、Dropboxがユーザーのコンテンツをパッケージされた形式で保存してくれるのは、今回が初めてなのだ。

Dropbox Showcaseの例。写真提供: Dropbox

ProfessionalアカウントにはSmart Syncもある。これは従来、Businessアカウントだけだったが、ユーザーはコンテンツ(ファイルまたはフォルダー)を、ローカルにのみ保存/Dropboxのクラウドに保存/その両方に保存、のどれかに決める。たとえばローカルなハードドライブを節約したいクリエイティブの人は、Dropboxにアーカイブしたコンテンツをまるでローカルみたいに利用するだろう。

さらに、OCRの機能もある。これによりPDFなどのドキュメントをスキャンしたテキストを読んで、ドキュメントの方は守秘性などの理由で廃棄してもよい。機密ドキュメントをクライアントとシェアしたり、知財がらみのRFPを送るときなどに便利だろう。

Dropbox Professionalには、Businessのようにアドミンのためのバックエンド的機能はない。でも、それほど高くない費用で高度な機能がいくつかある。Businessバージョンに投資するほどではないが、Plusでは物足りないという個人事業主や小企業には魅力的だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

年商50億ドルに向かって着実に進むRed Hat、豊富なLinux経験が未来への資産

Red HatのCEO Jim Whitehurstにこの前会ったのは2016年の6月だったが、そのときの彼は売上50億ドルを目指すという、かなりの大風呂敷を広げた。当時のそれは、実現不可能な目標と思えた。そのころの同社は、売上が20億ドルを超えた初めてのオープンソース企業にすぎなかった。50億が相当な難関と思われたのは、彼も指摘したように、企業は大きくなればなるほど成長カーブが徐々にゆるやかになるからだ。

でも同社はその後も元気旺盛で、このまま行けば次の二つの四半期内には売上30億ドルを超えそうな勢いだ。Red HatはLinuxのエンタープライズ向けバージョンを提供していることがいちばん有名だが、クラウドやコンテナなどで変化していく世界にも積極的に適応している。そして同社のRHEL(Red Hat Enterprise Linux)の顧客も徐々に変わりつつあるが、変化を支える新しい技術を得るためにもRed Hatを使い続ける。Whitehurstが言うには、しかもそれは決して偶然ではない。

クラウドやコンテナは主にLinux上の産物であり、Red Hatの得意技(わざ)は何かといえば、それはLinuxだ。Whitehurstによると、レガシーのRHELビジネスも依然14%の高率で成長しているが、新顔のクラウドとコンテナの事業はそれを大きく上回る40%の成長を維持している。そしてそれが、売上に強力なインパクトをもたらしている。

先月発表された最新の決算報告では、全体的な売上は四半期ベースで21%増の7億2300万ドル、年商換算では28億ドルになる。投資家たちもそれを好感し、株価は上昇を続けている。2016年の12月に$68.71だった株価は、今日(米国時間2017/10/13)見ると$121とほぼ倍増だ。どこをどう切っても、良好なリターンと言えよう。

Whitehurstによると、同社のさまざまな事業部門が互いにシナジー効果を上げている。同社は、Googleで開発されたオープンソースのコンテナオーケストレーションツールKubernetesに早くから賭けてきたが、それがのちには、Kubernetesを使うコンテナ化アプリケーションのデリバリ、という新しい事業形態に結実して稼いでいる。Red HatはLinuxをエンタープライズのITにおいてもっとも有能であるようにパッケージして提供しているが、それと同じことを、KubernetesとOpenShiftプロダクトとの組み合わせでもやっている。というかWhitehurstが冗談で言うのは、OpenShiftは名前の中にKubernetesがあればもっと認知度が上がっただろう、と。

この分野での成功は、技術の適時適材適所という正攻法だけでなく、Red Hat独自の特性にも負っている。Whitehurstは曰く、“うちには、エンタープライズにとってベストなアーキテクチャを見分けることのできる独自のスキルがある”。しかもそれは初期からコミュニティに還元され寄与貢献しているだけでなく、今や同社は、Kubernetesに対してもGoogleに次ぐ最大のコントリビューターだ。

しかし彼が言うのは、やはりLinuxとの結びつきだ。コンテナがもともとLinux上の技術であることが、Red Hatのコンテナ〜Kubernetesビジネスを強くしている最大の要因であり、Linuxに関する同社の長年の知識と技術の集積を、コンテナにもそのまま応用できることが、大きな強みだ。

Red Hatの収益を支える大企業は、彼らのアプリケーションの全在庫をコンテナ化するほど急いではいない。これらの企業はもっとゆっくり進もうとしており、そこでRed Hatとしては、顧客が今どの段階にいてもしっかりサポートできる体制が必要だ。クラウドで仮想マシンを使うべき段階か、オンプレミスで行くべきか、それともアプリケーションをコンテナ化して動かすべきか、などなど。

Whitehurstは、彼の会社がフリーソフトウェアを売ってることを理解している。だから、売るものはあくまでも、実装を容易にするサービスや、これらのツールを顧客に代わって管理してさし上げるサービスでなければならない。“フリーなソフトウェアを売るときには、IPは無料だから何が価値かを真剣に考えなければならない”、と彼は語る。数字を見るかぎり、顧客は価値を実感しているようだ。50億ドルへの道は、かなり平坦なのではないか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Salesforceが新しいIoTの枠組みであるIoT Explorer Editionを発表

誰もがIoTを求めている、そうしない理由もない。もし予測通りに進むなら、2020年までには何十億ものデバイスとセンサーが情報をブロードキャストし、誰かがそれを理解し、重要なデータを私たちに指摘しなければならないSalesforceはそうした会社(少なくともその中の1社)になりたいと考えている。

Salesforceは、これまでも流行りの最新技術に飛びつくことにためらいを見せたことはない。ビッグデータ、人工知能、そしてIoTでもおかまい無しだ。実際Salesforceは、2015年にはSalesforce IoT CloudをDreamforce Conferenceで発表し、IoTについて語っている。これは多くの企業よりも遥かに早い動きだった。

本日(米国時間10月10日)Salesforceは、新しいIoTイニシアチブであるIoT Explorer Editionを発表した。顧客がIoTデータを収集し活用するための仕掛けである。CEOのMarc Benioffが、IoT Cloudを立ち上げた2015年の段階では、同社が大いに将来性があると判断したテクノロジーに関して、とにかく先行することが目的だった。

IoT Explorer Editionは、そのビジョンをより多くのビジネスに広げるためにデザインされている。それはまず最初に、Salesforceが「ローコード(low code)」と呼ぶIoTビジネスワークフロー生成手段を提供する。非技術者は、何らかの自動化ワークフローを作成するために、プロセスの一覧から選択して、複数のデバイスやセンサー同士を接続することができる。

たとえば、風力タービン会社を所有していたとしよう(あり得るシナリオだ)、そしてタービンが保守を必要としている時に、通知を受けられるようにしたいとする。この場合、能力が一定レベルを下回ったときに、通知をトリガするワークフローを作成することができる。

Salesforceらしいところは、こうした情報をただかき集めて配信するだけには止まらないということだ。例えばSalesforce Service Cloudのような、他のSalesforceプロダクトにその情報を結びつけたいと考えている。もしワークフローがサービスコールをトリガーした時には、サービス担当者がこれまでのサービス履歴と、顧客が風力タービンの問題について、今週初めに電話をかけてきた事実にアクセスできることが有益だ。

そして、Salesforceは顧客のサービスコールについて、積極的に手助けをしたいと考えている。もしこのツールを使用して将来を予測し、デバイスがサービスを必要とすることを、ある程度の確実性で知ることができるなら、顧客から電話がかかってくることをただ待っている必要はない。こちらから顧客に連絡して、彼らの設備が故障しようとしていると告げ、新しい設備を売ることもできる。そんなことができるならどんなに素晴らしいことだろう。

新しいIoT Explorer Editionは、Salesforceのさまざまなクラウドへのアドオンとして、10月17日から一般的利用が可能となる。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: CHOMBOSAN/GETTY IMAGES

デベロッパーによるパッケージングまで助けるChefのHabitatツールにSaaS版Habitat Builderが登場

Chefは、企業がオンプレミスやクラウドインフラの環境でデプロイを自動化しようとするときの、長年の定番的ツールだった。しかし一年前に同社がローンチしたHabitatは、もっとアプリケーション寄りのサービスで、多様なプラットホーム上へデプロイしなければならないコードを、そのためにパッケージしてくれる。今、多様なプラットホームといえば、典型的にはコンテナ、VM、Mesosphere、Cloud Foundryなどだ。

今日(米国時間10/9)同社は、アプリケーションの構築とデプロイをさらに容易にする新たなサービスHabitat Builderをローンチした。Habitatは無料のコマンドラインツールだが、Habitat BuilderはいわばHabitatのグラフィカルなSaaSバージョンだ。

Chefのチームによると、クラウドネイティブなプラットホームというデベロッパー中心型の世界へ移行するための橋を、エンタープライズに提供することがHabitatやHabitat Builderのねらいだ。彼らは既存のコードをそのまま、HabitatやHabitat Builderを使って、自分たちが選んだプラットホームへデプロイできる。アプリケーションを、オンプレミスからクラウドへ移行させたいと考えている企業にとっては、きわめて便利なサービスだ。クラウドやハイブリッドのデプロイが、とても容易にできるからだ。またデベロッパーは、Builderを使ってアプリケーションを自動的に直接、Docker Hubのレジストリへパブリッシュできる。

Habitat Builderはビルドサービスと関連部位(ライブラリなど)の保存サービスを提供し、パッケージされたアプリケーションと、それらに必要なデプロイアーキテクチャを保存するパブリックとプライベートのリポジトリーもそこに伴う。またランタイムのライフサイクルや構成のアップデートなどを管理するHabitat Supervisorがサポートされる。

Chefのマーケティング担当VC Marc Holmesはこう語る: “コンテナを始めるための優れたツールはすでにいろいろあるが、従来型やクラウドネイティブなど複数のアーキテクチャにわたってアプリケーションをパッケージしデプロイすることがが、往々にしてチームにとっては必要だ。Habitati Builderを使えばデベロッパーはアプリケーションを、整合性を損なわずにパッケージでき、またオペレーションは、適切なデプロイターゲットを選択できる。devもopsも、自分の領分をわきまえたうえで、緊密な協働ができるようになる”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineがCPU 96コア、メモリ624GBの巨大インスタンスを提供、プロセッサーもグレードアップ

どんなにリソース大食漢のアプリケーションでも、Google Compute Engine(GCE)なら満足するだろう。今度新たに、CPU 96基、メモリ624GBという怪物インスタンスが生まれたのだ。Bill Gatesは昔、誰が一体640KB以上ものメモリを必要とするんだい?と言ったらしい。彼には、今日のような日が来るとは想像もできなかったのだ。

これは、本当の話ですよ。しかも、ちょっと前の3月にはGCEは64コアのCPU + 416GBのメモリというインスタンスを発表している。今回は、それを上回る。

使用するチップは、たぶんご想像どおり、IntelのXeon Scalableプロセッサー(コードネームSkylake)だ。Googleによるとこの子は、前の世代のXeon系列に比べて計算性能が20%速く、high performance computing(HCP)では82%より高速、メモリ帯域はほぼ2倍だ。もちろん、これで十分という性能は永遠にないけどね。

それほどのパワーは要らない、というユーザーは、ご自分のワークロードに合わせてCPUとメモリの構成をカスタマイズできる。

Googleによると、今回の巨大インスタンスは、その性能をすでにSAP HANAで実証している。SAP HANAは、ドイツのソフトウェア大手によるインメモリデータベースで、ユーザーの必要に応じてメモリをいくらでも使える。

624GBでも足りない、というユーザーに対応するためGoogleは今、最大4TBまでメモリを搭載できる製品を開発中だ。お金をしっかり用意して、待っていよう。本日(米国時間10/5)紹介されたインスタンスは、一時間約4ドル95セントからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

サーバーレスで複雑なコンテナアプリケーションを開発デプロイできるPlatform9のFission Workflowsサービス

企業ITのクラウド化をいろんな面からサポートするPlatform9の新製品Fission Workflowsには、あなたのお好きなバズワードがすべて揃っている。Kubernetes、Dockerのコンテナ、そしてサーバーレスコンピューティング。しかもそれは、これらの技術の、必然的な次のステップのようだ。

Platform9のプロダクトとしてのFission自体は、コンテナオーケストレーションサービスKubernetesの上で動くオープンソースのサーバーレスコンピューティングプラットホームだ。サーバーレスアプリケーションは、その初期のころはもっぱら、何かのイベント(“ファイルがアップロードされた”など)にトリガされる小さなファンクションを作ることだった。しかしFission Workflowsの提供意図は、もっと複雑なサーバーレスアプリケーションの開発を支援することだ。

Workflowsは、サーバーレスのファンクション〔複数形〕のオーケストレーションを助ける。サーバーレスアプリケーションが複雑になればなるほど、使用するファンクションも多くなり、それらお互いに依存関係のあるファンクションの管理やアップデートが難しくなる。同時にまた、アプリケーションのモニタリングやトラブルシューティングも難しい。

Platform9のソフトウェアエンジニアでFissionを作ったSoam Vasaniによると、Fissionは、デベロッパーがKubernetesをもっと楽に使えるようにしたい、という願いから生まれた。 “Fissionがないころは、うちの顧客たちはKubernetesを使いこなせるまでに数週間もかかることが多かった”、と彼は語る。しかし今では、彼らは一時間ぐらいで彼らの最初のFissionのファンクションを動かせるようになる。そして、Fission Workflowは次の問題に取り組む: サーバーレスのアプリケーションがシンプルなファンクションから本格的なアプリケーションに成長するとき、何が起きるのか。

Fission WorkflowsはKubernetesの上で動くので、どんなクラウドでも、プライベートなデータセンターでも、あるいはデベロッパーのラップトップ上でローカルにも、動かせる。デベロッパーは自分のアプリケーションをPython, NodeJs, Go, C#, PHPなどで書く。

しかしFission Workflowsには、Microsoft Flowのようなドラッグ&ドロップのインタフェイスがない。今のところデベロッパーは自分たちのワークフローを手書きしなければならないが、Platform9のCEOで協同ファウンダーのSirish Raghuramによると、そのうちWorkflows用のビジュアルエディターを作るそうだ。ただし、現在すでに、ワークフローを視覚化するツールはある。

Fission本体と同様に、Workflowsも完全なオープンソースにする予定だ。Raghuramによると、同社のビジネスプランは、そのオープンソースのフレームワークを顧客にサービスとして提供するときに課金することだ。今すでにKubernetesとOpenStackに関してはその方式だが、Fissionもいずれそのポートフォリオに加わるだろう。ソフトウェアそのものは今後もずっとオープンソースで、オープンコアやフリーミアムモデルに移行するつもりは、まったくない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleがアプリデベロッパーのための新しいデータベースCloud Firestoreを立ち上げ

Googleが今日、アプリデベロッパーのためのプラットホームFirebase用に、新しいデータベースサービスを立ち上げた。そのCloud Firestoreと呼ばれるデータベースは既存のFirebase Realtime Databaseを補完するもので、両者の重複部分も多い。

Firebaseの協同ファウンダーJames Tamplinによると、Realtime Database(RTDB)はつねに、Firebaseプラットホームの旗艦的プロダクトであった。そのサービスは今や、数十万ものデベロッパーに利用されている。そしてTamplinの説では、デベロッパーにそれほど人気があるのは、データベースアクセスがリアルタイムであり、しかも管理やスケールアップ/ダウンはGoogleがやってくれるからだ。

彼によると、しかしそうやってサービスの規模が大きくなると、デベロッパーが不満を感じる部分も出てきたので、それを解決するためにCloud Firestoreを立ち上げた。不満はたとえば、RTDBでは複雑なクエリを扱いにくい。プラットホームのアーキテクチャのせいで、同時接続デバイス数が10万を超えるとシャーディングでデータベースを分割しなければならない。それでは、RTDBの本来の利点がなくなってしまう。

既存のデータベースサービスの改築工事はきわめて困難なので、チームは新築を選んだ。Cloud Firestoreはまったく新たに設計され、さまざまなユースケースをサポートする。たとえば、ローカルなデータベースを併用してオフラインのアプリを作るとか、複数のアプリやユーザー間でデータのリアルタイムのシンクができる、など。

すべてのデータが複数のリージョンにまたがって自動的に複製され、整合性も完璧だ。また、前と同様、スケーリングは自動的に行う。

さらに、Cloud Firestoreのクライアント側SDKにはアプリの認証やネットワーキングのコードもあり、またそのバックエンドは、いくつかのセキュリティルールによりデータへのアクセスを制御し、ユーザーの正当性を検証する。したがってアプリは、ユーザー確認のためのプロキシなどを使わずに、直接データベースにアクセスできる。

そしてもちろん、これらがすべてFirebaseのプラットホームに深く統合されている。したがってGoogleのサーバーレスプラットホームCloud Functionsも使える。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

OracleがそのプラットフォームにAIアプリ開発サービスを追加

Oracleはクラウドへの参入が遅れ、ここ数年はそのキャッチアップに躍起になっていた。そのために、顧客たちがクラウドベンダーに要求する幅広いサービスに対応しようと努力を重ねてきたのだ。こうした流れの中で、同社は本日(米国時間10月2日)Oracle OpenWorldにて、サービスとしての人工知能を、その提供品目に追加した。

本日のOracleは、新しい自律型データベースぴかぴかの新しいブロックチェーンサービスといった一連の大型発表で大忙しだった。この人工知能サービスは、これらの発表の延長線上に位置付けられる。

人工知能は開発者にとって大きな賭けとなっている。いま開発者たちは、人工知能の深い知識は必要とせずに、AI機能の活用を比較的容易にしてくれる一連のツールとテクノロジを必要としているのだ。

興味深いことに、本日発表されたAIサービスは、Oracle自身が顧客向けのAI活用アプリケーションを構築するために、社内で利用してきたツールの拡張なのだ。このサービスは、顧客が独自のAIアプリケーションを構築しようとする際に、同様のツールセットを提供できるようにデザインされている。

Oracle適応型インテリジェンス向けの製品およびデータサイエンス担当副社長であるJack Berkowitzは、社内のサービスチームは、社内の開発者たちと一種の共生関係で協力していると述べ、以下のようにTechCrunchに語った「可能な限りユースケースを押し広げようとしています。(社内開発チームが)私たちに技術を提供し、私たちはその技術を活用しています。私たちは社内最大の顧客なのです。そうした部分をまとめて、(インテリジェントな)アプリケーションを構築することができるようにしたのです」。

Oracle Cloudの上級副社長であるAmit Zaveryは、これはブロックチェーンのように、顧客に対して一連のサービスを提供し、それらのサービスの上にアプリケーションを構築するためのツールを提供するものだと述べている。このために、共通のフレームワーク、ライブラリ、開発ツールを提供し、プラットフォームサービスとして利用できるようにすると彼は語った。このサービスを使うことで、開発者たちは、Google Tensorflow、Caffe、あるいはNeo4jなどの一般的なツールを利用して、しばしば高負荷を要求する機械学習をNVidia GPUの上で実行することができる。

Zaveryによれば、Oracleは顧客がAIアプリケーションをより簡単に構築できるように、努力を重ねているという。「これらのフレームワークとツールに関して私たちがわかったことは、統合されたものとしてのセットアップは容易ではなく、進化の速度が速いため、APIという観点で何を利用すべきかに追従することは難しいということなのです」。今回のサービスは、開発者に対するそれらの問題を軽減するようにデザインされている。

一般的なAI開発プラットフォームに加えて、同社はチャットボット、IoT、そして適応型インテリジェンスアプリなどの特定のサービス提供を、今後数週間で利用可能とする予定だ。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BLOOMBERG/GETTY IMAGES

AWSがOracle Larry EllisonのRedshift批判に反論、“例によってLarry節だ”と

Oracle OpenWorlカンファレンスのキーノートでOracleのLarry Ellison会長が同社の新製品、全自動データベース(autonomous database, 自律的データベース)を発表したとき、彼は数分間にわたり、クラウド市場における同社の強敵AWSをけなした。マーケットリーダーであるAmazonをEllisonが標的にするのは当然だが、しかしAWSは今回、彼のコメントに公開の場で反論した。

AWSがとくにひっかかったのは、同社のビッグデータウェアハウスAmazon Redshiftがエラスティックでない、というEllisonの主張だ。Ellisonはこう語った: “Amazon Elastic Cloudと呼ばれているのは知っていますが、でもそれはエラスティックではありません。すなわちAmazonのデータベースRedshiftは、ワークロードが大きくなったとき自動的にプロセッサーの数を増やせません。逆にそれを、減らすこともできません。そんな能力が、そもそもないのです”。彼はさらに、Redshiftでは手作業でシステムを停止し、新しいインスタンスを立ち上げ、データベースを新しいストレージにコピーし、その後の稼働結果を古いデータベースへコピーバックしなければならない、と主張した。

これに対しAmazonのスポークスパーソンは応じた: ばかばかしい(もっと多くの言葉で)。

“まず、それは事実ではない。Amazon Redshiftでは、顧客は必要に応じてクラスターをリサイズできるし、コンピュートをストレージとは別にスケールできる。Amazon Simple Storage Serviceのデータに対してRedshift Spectrumを使えるし、顧客はストレージとは無関係に単純にクェリに対して支払うだけでよい”。

さらに彼らは、Ellison自身についても非難した: “でも多くの人は、Larryという人物をすでによく知っている。事実に基づかない乱暴な主張、そして、大量のこけ脅かしが、彼の常套手段だ”。

エラスティック(elastic, 伸縮自在)というのは、ジョブのサイズに応じて計算機資源が自動的に拡大縮小することだ。Ellisonの場合ジョブとは、データベースの運用、クェリの処理だ。

エラスティックであること、リソースの伸縮が自動的に行われることは、クラウドコンピューティングサービスの主な魅力のひとつだ。まるで、音量ボリュームのつまみを回すときのように簡単に、使用するリソースの増減ができる。自前のデータセンターだと、誰も自動的にリソースを増減してくれない。必要なキャパシティは新たに買わなければならないし、しかも今後の余裕を見て、今の必要量よりも多い買い方をしなければならない。資金の無駄遣いである。

それでもなお、ホリデーギフトシーズンのショッピングでデータ量が予想を超えてスパイクしたら、万事休すだ。リソースを、その日のうちに、しかもその日一日だけのために、買い増すことはできない。しかしクラウドなら、リソースの必要な伸縮が自動的に行われ、‘一日’という短期的なニーズにも対応できるから、リソースの無駄なアロケーションも発生しない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Oracleのイベントでラリー・エリソンが自律DB発表――AWSをからかう

Oracleはクラウド化の波に大きく取り残されており、ラリー・エリソン会長はそのことをよく知っている。そこでエリソンはあらゆる機会をとらえて最大のライバル、AWSに嫌味を言うことにしている。昨夜のOracle OpenWorldイベントのキーノートに登場したときも例外ではなかった。エリソンは自律的にチューニングを行う新しいデータベース・システムを紹介したが、同時にAWSを批判するという誘惑に勝てなかった。

今回発表されたスマート・データベースはテクノロジー的にみてクールなプロダクトに思える。エリソンとしては数分も割いてライバルについて論ずるより、自分たちの新しいデータベースの説明に集中したほうが効果的だったのではないか? このデータベースは、完全に自律的に作動するという。つまりチューニング、プロビジョニングを自ら実行できる。エリソンはこれを自分の自家用ジェット機の自動パイロットにたとえた(イベントの聴衆に自家用ジェットの所有者がどのくらいいたか知らないが)。つまり「今後はパイロットのエラーという事態は起きない。パイロットは乗っていないからだ。このデータベースではアドミニストレーションは完全に自動化されている」とエリソンはキーノートで述べた。

それに加えて、このデータベースには自己修復能力がある。なんらかの理由でデータベースの一部が壊れた場合、データベースは自らその部分を修復して運用を続ける。この能力があるため、Oracleは稼働率として99.995%を保証するという。エリソンはこれを「1年の作動あたり、計画的、突発的合わせて30分のダウンタイム」にすぎないと大胆に宣言した。

またエリソンは契約書にうたわれる4ナイン(99.99%)、5ナイン(99.999%)といった数字は「実質的にウソだ」と述べた。なぜならこの数字は通例ソフトウェアのバグ、セキュリティー・パッチのインストール、構成の変更などにともなうダウンタイムを除外してしているからだという。しかしOracleの新しいデータベースがいかにしてこうしたダウンタイムを一切排除できるのかについてエリソンは詳しく述べなかった。大規模なDDoS攻撃、最近アメリカを襲ったような猛烈なハリケーン、雷、それどころか単なるヒューマン・エラーも大規模なシステム障害を起こすことが知られている(昨年AWSに起きた障害がよい例だ)。

ともあれ、エリソンは何分か使ってAmazonのRedShiftを批判した。クラウドコンピューティングは非常に複雑なビジネスだが、赤丸付き急上昇でチャートのトップに立ったのはもちろAWSだ。一部の推定によればAWSのシェアはクラウドコンピューティング市場の40%を占めているという。2位のMicrosoft Azureは10%で、他はOracleも含めてこのトップ2社に遠く及ばない。

新しい自律的データベース・サービスは(18cというおよそ想像力を欠いた名称だが)、現在のOracleの強みを生かしながらクラウドでAmazonと戦おうとする試みだ。AWSはクラウド・ビジネスで何年も早くスタートを切り、巨大なシェアを誇っている。しかしOracleはデータベースを隅々まで知っており、これはクラウドに移行してもAWSより優位に立てる点のはずだ。

今回のイベントでのエリソンの発表は注目すべきものだったが、「プディングの良し悪しは食べてみるまでわからない」ということわざもある。このデータベースの能力も実際に運用されてみて初めて判明するだろう。Oracleによれば、新データベースは今年中に利用可能となるという。

画像:: Bloomberg/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AlibabaがMySQL代替系MariaDBへの2700万ドルの投資をリード、クラウド事業に本腰

【抄訳】
Alibabaは2017年をクラウドコンピューティング事業への注力に費やし、そして今度はその分野の西側のスタートアップに、初めての大きな投資をしようとしている。

この中国のeコマース巨人は、MariaDBへの2290万ユーロ(2700万ドル)の投資をリードすることに合意した。西側すなわちヨーロッパの企業であるMariaDBは、Webでいちばん多く使われているオープンソースのデータベース(社名と同じMariaDB)を作っている。今回の投資案件に詳しい情報筋によると。投資はまだ完了していないが、MariaDBの株主たちが今週OKを出したので、完了も至近だそうだ。

AlibabaとMariaDBの両社は、本誌からのコメントのリクエストに応じていない。

TechCrunchが聞いた話によると、Alibabaが2000万ユーロを出し、残りは既存の投資家 たちが出すらしい。投資に際してのMariaDBの評価額は約3億ユーロ(3億5400万ドル)で、Alibabaのクラウド事業の主席技術者Feng Yuが、MariaDBの取締役会に加わるようだ。

5月にEuropean Investment Bankから2500万ユーロ(当時で2700万ドル)を調達したときは2億から2億500万ドルの評価額だったから、かなりの増加だ。情報筋によると、今後のAlibabaとの事業関係への期待がMariaDBの評価額を押し上げた、といわれる。

MariaDBは、もっとも人気のあるMySQL代替DBMSでよく知られている。MySQLもオープンソースだが、Sun Microsystems次いでOracleと、企業がオーナーだったために、最初の頃と違って完全なフリーではない。そこで、MariaDBのような代替系が求められるのだ。

そしてAlibabaのクラウドコンピューティング事業は、同社の最速成長部門だ。ここ数年、毎年、3桁の売上増加額を記録している。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Compute EngineではそのVMインスタンスの上で別の仮想マシンを動かせる、マトリョーシカのように

クラウドコンピューティングの、これからご紹介する機能は、ちょっと変わっているが、でも実用性は十分にある。GoogleのCompute Engineが今日(米国時間9/28)、“nested virtualization”(入れ子状の仮想マシン)と呼ばれる新たな機能を、ベータでローンチした。その名のとおり、VMの中でVMを動かせるのだ。

でも、なんでそんなことを? Compute EngineのプロダクトマネージャーScott Van Woudenbergが、今日の発表声明でこう説明している: “企業がオンプレミスで仮想マシンを動かし、その上にアプリケーションがあるとき、それらをクラウドへ移行するためにはnested virtualizationを便利に利用できる。VMのイメージをインポートして変換する必要がない。dev/test(開発/試験の繰り返し)やCI/CD(継続的インテグレーション/継続的デリバリー)などで、複数の環境でソフトウェアを検証する必要のあるワークロードでは、nested virtualizationが最適である。”

彼によると、これによりクラウドベースの災害復旧ソリューションをより安価に作れるし、教育訓練や資格認定のためにさまざまな仮想環境をセットアップしたい企業にとっても便利だ。被験者の全員に、確実に同じ環境を提供できるからだ。

この機能は、プリエンプティブVMを含め、Compute EngineのどのタイプのVMでも利用できる。唯一の要件は、その(ユーザーの)VMがIntelのHaswell以降のCPUで動くことだ。

実際にどうやるかというと、まず通常のVMをセットアップし、そのインスタンスの上にKVM互換のハイパーバイザーをインストールする。Googleによると、今のところKVM非互換のハイパーバイザー、Xen, ESX, それにMicrosoftのHyper-Vなどはサポートされない。使用するインスタンスも、Linuxインスタンスのみである。Windowsマシンではnested virtualizationを使えない。

なお、Microsoft Azureはすでにnested virtualizationをサポートしている(Hyper-Vハイパーバイザーを使用)。AWSでは、OracleのRavelloのようなツールを使って同様の機能を実現できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのG Suiteに貼りつくことで使いやすいCRMを実現するProsperWorksがシリーズCで$53Mを調達

G Suiteとの統合化など、Google製品を軸とするCRMツール集合ProsperWorksが、Norwest Venture Partners率いるシリーズCのラウンドにより、5300万ドルを調達した。このラウンドには、GV(元Google Ventures)も参加した。これで同社の総調達額は8700万ドルになり、ProsperWorks自身の言葉によると、ここ10年間のCRM企業の中では資金調達額が最大だそうだ。

ちょうど1年前にProsperWorksは2400万ドルのシリーズBを発表しているから、確かに投資家たちに人気のある企業だ。CEOのJon Leeによると、彼はProsperWorksをSalesforceにとって最強の挑戦者にしたい、という。彼はこう言っている: “われわれは、グローバルな生産性向上のために重大な意味のある大きな問題を解決している。CRMは1兆ドルあまりの売上実現に貢献し、アメリカのGDPの5.5%に寄与しており、CRM自身の市場は400億ドルに達する。しかしながら、Forresterによると、それを使おうとしない人が多いために、CRMの47%は業績が低迷している”。

ProsperWorksは長年、CRMのシステムを使いやすくして、そのサービスの採用企業が十分な価値を得られるようにすることを、ミッションとしている。GoogleのG Suiteとの深い統合によりGoogleのプロダクトみたいなルック&フィールにしてしまうのも、‘使いやすくする’の一環だ。またそうすることによってユーザーは、自分のさまざまなプロダクティビティアプリケーションとCRMとのあいだで、しょっちゅうコンテキストを切り替える面倒な手間からも解放される。

今度の新たな資金の充当先は、チームの人員を倍増して製品開発を加速し、またいくつかの特定業種向けの新たなソリューションでサービスを充実強化することだ。そのほかに、国際展開も考えている。

現在のユーザーに対していちばん重要と考えているのは、デザインの刷新だ。Leeは今日の発表声明でこう述べている: “Appleがモバイルに対してやったことを、われわれはCRMに対してやりたい。ユーザーインタフェイスを完全に新しくして直感性を高め、その意味や価値が即座にわかるようにしたい”。またCRMの標準的なワークフローのさらに多くを自動化し、そこから集めたユーザーデータを機械学習のアルゴリズムにフィードして、より使いやすいツールにしていきたい、ということだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleはCloud等の企業顧客のセキュリティの便宜のためアイデンティティ管理のBitiumを買収

Google Cloudが今日(米国時間9/26)、エンタープライズ向けにアイデンティティ管理と、クラウド上のアプリケーションへのシングルサインオンなどアクセスツールを提供するBitiumを買収したことを発表した。これによりGoogleは、クラウドのエンタープライズ顧客の企業全域にわたる実装を、より良く管理できるようになり、たとえば同社のCloudやG Suiteなどのアプリケーションをすべてカバーするセキュリティレベルやアクセスポリシーを設定できる。

Bitiumは2012年に創業され、中小企業と大企業の両方をターゲットにしていた。同社はいわば、Google AppsやOffice 365、ソーシャルネットワーク、CRM、コラボレーションやマーケティングのツールなどすべてを管理できるワンストップサービスで、それにより、企業のセキュリティスタンダードへのコンプライアンスをより確実なものにしていた。

Bitiumの目標は、多くの企業とその社員たちが使っている人気の高いクラウドアプリケーションの管理と利用のプロセスを単純化することで、それによりユーザーが“影のIT”(shadow IT)と呼ばれる劣悪な領域に足を踏み入れないようにしている。その劣悪な領域では、サービスへのエンタープライズとしてのアクセス環境が完備していないので、社員が自分個人のアカウントで勝手にアクセスし、セキュリティを破壊しているのだ。

今回の買収は、Googleの顧客企業がそうなってしまうのを防ぐことが目的だが、Bitiumの従来の業務はそのまま継続できるし、新たなアプリケーションとパートナーしてもよい。またGoogleのプラットホーム自身も、他のサードパーティのアイデンティティ管理プロバイダーの利用に対してオープンであり、エンタープライズ顧客がGoogle CloudやG Suiteの利用のためにそれらを統合してもよい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))