クラウドアプリケーションのセキュリティとコンプライアンスチェックを自動化するChefのInSpec 2.0

データのリポジトリをAmazonでロックすることを忘れて、機密データを露出した、なんて話を何度聞いたことか。それは、稀(まれ)ではなく、びっくりするほど多い。そこでChefは、devやopsの人びとがそんな事件を防ごうとするときの、お手伝いをしたいと考えた。今日同社がリリースしたInSpec 2.0は、クラウド上でアプリケーションのセキュリティとコンプライアンスを自動化する作業を助ける。

InSpecは無料のオープンソースツールで、開発チームはこれを使ってセキュリティとコンプライアンスのルールをコードで表現できる。前の1.0は、アプリケーションの正しいセットアップに主眼を置いた。今度のバージョンは、その能力を企業がアプリケーションを動かしているクラウドに拡張し、クラウドのセキュリティポリシーに合ったコンプライアンスのルールを書いてテストできるようにした。AWSとAzureをサポートし、Docker, IIS, NGINX, PostgreSQLなどなど30種のよく使われる構成が最初からある。

今日の継続的開発の環境では、複数のアプリケーションを複数のクラウドで動かすことが容易ではない。コンプライアンスを人間が継続的にモニタするためには、データベースを露出したままにしておく方が楽だ。

Chefはこの問題の解決を、コンプライアンスを自動化するツールで助ける。何をロックするかなどについて最初に開発とオペレーションが協議しなければならないが、合意に達したらInSpecを使って、クラウドの構成の正しさをチェックするためのルールを書ける。それには、InSpecのスクリプト言語を使う。

Chefのマーケティング部長Julian Dunnによると、スクリプト言語を使い慣れている人ならとっつきやすいだろう、と言う。“InSpecの言語はクラウドに特有のルールをカスタマイズして書くのに適している。クラウドのデプロイのチェックもね”、と彼は語る。

スクリプト言語の例。コードサンプル提供: Chef

“この言語は、読みやすくて書きやすいことを心がけて設計した。プログラミングの経験はないがスクリプトは書いているセキュリティの技術者が、想定ユーザーだ”、とDunnは言う。スクリプトを書いたら、それを自分のコードに対してテストする。そしてコンプライアンス違反が見つかったら、直す。

InSpecは、VulcanoSecを買収した結果として作れた。このドイツのコンプライアンスとセキュリティ企業をChefが買収したのは、2015年だ。InSpec 2.0はオープンソースで、Githubからダウンロードできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがクラウドサービスのIoT基盤強化のためXivelyをLogMeInから買収

Googleが今日(米国時間2/15)、LogMeInからXivelyを買収することを発表した。これによりGoogle Cloudが既成のIoTプラットホームを持つことになり、それはGoogleの正式のプロダクトポートフォリオの一員にもなる。価額など、買収の条件は公表されていない。

買収を発表するブログ記事でGoogleは、それが成長著しいIoT市場への参入の契機であることを示唆している。同社によるその市場規模は、2020年におけるインターネットに接続された‘物’の数が200億に到達するという。XivelyによりGoogleは、デバイスの設計者がその設計プロセスの中へ直接、インターネットへの接続性を構築できるためのツールを入手することになり、またエンドユーザーアプリとインターネットに接続された物との間のクラウド-モバイル接続性も得られる…それがどんな接続であれ。

“この買収は、条件をまだ詰めている段階だが、Google Cloudのこれまでの能力を補完して完全に管理されたIoTサービスを提供し、それにより、世界中に分布しているデバイスからのデータに安全に接続して、その管理と取り入れができるようになる”、とGoogleのAntony Passemardがブログに書いている。

2014年にXivelyを1200万ドルで買ったLogMeInは、Googleによる買収を同社のブログ記事で認め、同社自身はIoTから撤退する、と発表している:

“そこで、当然の疑問として、これはLogMeInがIoTを去ることを意味するのか? それが、IoTの接続性プラットホームのことなら、そのとおり、われわれはそこから去る。Xivelyのチームを手に入れたGoogle Cloudには優れた技術があり、それを支えるプラットホームも厚く、またデベロッパーとの関係性も深くて親密なため、将来のプラットホームのリーダーとして、はるかに適している”。

おそらく、同社の考え方は正しいだろう。

先週Jive Communicationsを買収したばかりのLogMeInは今後、ユニファイド・コミュニケーションに集中するものと思われる。同じブログ記事に、こう書いている: “先週、Jive Communicationsの買収を発表したが、それにより弊社の、GoToMeetingやjoin.meなどから成るコラボレーションアプリの好評なポートフォリオに、今の市場で最良のクラウドテレフォニーサービスが加わることになる”。

一方Googleにとっては、Xivelyの完成されたプラットホームと優秀な技術者たちにより、そのクラウド事業がIoTの分野により強力な足場を築き、将来的に、クラウドビジネスのさらなる構築を助けるだろう。今月初めにGoogleは、全体としてのクラウド事業が10億ドルの四半期売上を達成した、と発表した。しかし今後のさらなる成長のためには、AWSやMicrosoftなどの、クラウド市場のリーダーたちに負けないだけの、将来性の大きい商材を必要とする。今回の買収は、それを得る努力の一環だ。物のインターネットのデバイスは、その構築と運用と、それらが吐き出す膨大な量のデータの管理のために、きわめて多様なクラウドリソースを必要とする。

同社は、XivelyのプラットホームをGoogleのセキュリティやアナリティクス、機械学習、スケールの能力などと組み合わせれば、IoTアプリケーションを同社のプラットホーム上に構築するためのツールを顧客に提供できる、と考えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Kubernetes Engineのコンテナ用GPUが公開ベータへ

GoogleのKubernetes Engine旧: ‘Google Container Engine and GKE’)では、これからすべてのデベロッパーが自分のコンテナにNvidiaのGPUをアタッチできる。

そのGPUs on GKE(←これはGoogleがよく使っていた頭字語だが、今はあまり使われていない)は、これまで半年あまり、非公開アルファで提供されていた。しかし今度からそのサービスは公開ベータになり、機械学習アプリケーションなどのワークロードを動かしたいデベロッパーが誰でも、GPUの力を利用できる。Googleによるとこのサービスは、Tesla P100とK80 GPUs の両方へのアクセスを提供する。それらはどちらも現在、Google Cloud Platformで利用できるGPUだ。

コンテナとGPUという組み合わせのアドバンテージは、必要に応じてワークロードの増減に、容易に対応できることだ。GPUのワークロードのすべてにスパイクがあるわけではなくても、万一のときには便利なオプションとして評価できるだろう。

Googleでは、GPUジョブのモニタリングを、そのAPIStackdriver、ロギングサービスなどから容易に行える。

全体としてKubernetes Engine(←GoogleがGKEの正式名として使うことにしたらしい名前)は、そのコアアワー(core数×時間)が2017年に9倍になった。コンテナのブームと、(当時の)GKEが2016年にローンチしたばかりであることを考えると、9倍も意外ではないが、しかしそれは、Googleがコンテナの世界で勝馬を獲得したことを、意味しているのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速

GoogleのTPU(Tensor Processing Units)は、TensorFlowフレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、クラウド利用できるようになった

Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTPUの消費電力が少ないことはGoogle側にとって重要なポイントだろう。デベロッパー側は消費電力などあまり気にかけないだろうが、Googleにとってデータセンターへの電力供給は大きな課題だ。また利用料金の引き下げにもつながる。

Googleは9ヶ月前のI/Oデベロッパー・カンファレンスでクラウド上でTPUを利用できるようにすると発表していた(このとき一部のデベロッパーに限定してアクセスを許可)。 それぞれのCloud TPUは4基のASICと64GBの広帯域メモリーを備える。Googleによれば、1つのTPUボードのピーク能力180TFLOPSだという。

すでにTensorFlowを利用して機械学習を実行しているユーザーは、新しいサービスを利用するためにコードを大きく書き換える必要はない。ただし当面、Cloud TPUを利用するのはワンクリックというわけにはいかない。アクセスを管理するため、「利用希望者はCloud TPUの利用割当を申請する必要がある」ということだ。割当を受けた後は、1TPU1時間あたり6.50ドルの料金となる。標準的なTesla P100 GPUがアメリカでは1時間1.46ドルで利用できる。ただしFP16によるピーク能力は 21TFLOPS程度だ。

機械学習で大きな実績を挙げてきたGoogleだけに、新しいクラウドTPUサービスにはユーザーが殺到するだろう。長期的にみれば、Googleにとって重要なのはGoogle CloudにAWSやAzureに対する差別化の要因を与えるところにある。クラウド・サービスも基本的な部分ではどれもほぼ横並びだ。コンテナ・テクノロジーのおかげで、プラットフォームを移し替えるのも非常に簡単になった。その点、TensorFlowとカスタムTPUはGoogle独自のものだ。少なくとも当面、機械学習の分野ではライバルは歯が立たないだろう。

〔日本版〕Cloud TPUはGoogleの日本サイト経由で登録できる

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Intel、Xeon D-2100を発表――新CPUでエッジ・コンピューティングに対応

自動運転や産業用IoTセンサーなどの高度なテクノロジーが普及するにつれ、 エッジ・コンピューティングの強化がますます必要とされるようになった。つまりデータをクラウドに送って処理させるのが不適当なコンピューティング領域が増えてきた。データは収集されたその場でただちに処理される必要がある。わずかなレイテンシーであっても重大な問題を引き起こす可能性があるからだ。

今日(米国時間2/7)、Intelは新しいCPU、Intel Xeon D-2100を発表した。このチップは顧客のエッジ・コンピューティング能力を強化することを目的としている。またライバルの追い上げに対抗してエッジ・コンピューティングやIoTといった先端分野で先頭を走ろうとするIntelの戦略の一環でもある。

ネットワークの端、エッジにおけるコンピューティングには省電力と省スペースという特有の能力が必要とされる。新しいチップはこの要請に答えようとするものだ。たとえば、Xeon
DはSoC(System-on-a-Chip)というスタンド・アローン・システムだ。演算処理だけでなく、ネットワーク接続やストレージといったシステムを構築するために必要な能力がすべてチップ上に組み込まれている。また省電力性能も高い。これはデータセンターのサーバーとくらべて電力供給が制限されるエッジ・デバイスに用いるために必須の条件だ。

Intelのデータセンター・グループのバイス・プレジデント兼データセンター・プロダクト・マネジメント・グループのジェネラル・マネージャー、Jennifer Huffstetlerは新チップを紹介するブログ投稿で、この種のアーキテクチャーのニーズが高まっていることを指摘した。「データセンターの能力をエッジに向かって拡張するにあたって、サービスのプロバイダーはデータをネットワークのエンドポイント、つまりエッジ・デバイスそのもので処理するソリューションを提供しなければならない。これによりアプリケーションの処理におけるレイテンシーを減少させることができ、数多くのまったく新しいコンピューティング体験と応用分野を提供できる」と書いている。

またHuffstetlerはSoCについて、「単一パッケージに必要な要素がすべて組み込まれていることにより、セキュリティーが強化されたハードウェア・ベースのネットワークを構築することが可能となる」としている。Xeon Dは小さいパッケージだが、Skylake-server世代の Xeonコアを18個備え、 100Gbpsの暗号化、復号化、暗号化加速テクノロジーを内蔵している。IntelではこれをQuickAssist Technologyと呼んでいる。

Intelでは新しい5GネットワークでVR、AR体験が可能となるスマートフォンや自動運転車を設計する上でこのテクノロジーは決定的に重要なものになるとしている。VPNやソフトウェア・ベースのWANを作動させるにも役立つ。またCDNのようにネットワークのエッジに近い部分での性能が重要なクラウド処理の負荷分散にも効果があるという。

Intelでは新しいチップを利用するパートナーとしてDell、EMC、Ericsson、NEC、NetApp、Palo Alto Networksなど多様なサードパーティーと協力していく。

またSpectreとMeltdown脆弱性について、IntelではXeon Dチップには新たに開発したパッチを組み込んでいるという(Intelが発表した当初のパッチには不必要なリブートを起こすなどの問題があった)。

画像:Intel

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Intelの元社長が新しいチップ企業を立ち上げ、クラウド時代の高効率サーバープロセッサーを目指す

元Intelの社長Renee Jamesが作った新しいチップ企業Ampereが今日(米国時間2/5)、ステルス状態を脱して、その最初の製品、ARMベースの高効率なサーバー用チップを発表した。その想定ユーザーは、今日の肥大化したインターネットを支えるハイパースケールなデータセンターだ。

同社のその最初のチップは、カスタムコアのArmv8-A 64-bit serverで、運用速度は最大3.3 GHz、対応メモリー1TB、パワーエンベロープは125ワットだ。まだ価格は発表されていないが、Jamesによると、このチップの価格/性能比は、既存のいかなる高性能コンピューティングチップをも凌ぐ、ということだ。

今すでに、ほかに二つの製品を準備中だが、それらの発表はまだ先だ。

チップ企業を立ち上げるためには、大量のお金と相当なガッツを必要とするが、Intelに28年いたJamesには、この世界のもっとも有能な人材を集められるだけのコネクションがある。また資金的にはプライベート・エクイティ企業のThe Carlyle Groupが支えており、JamesはIntel退社後しばらく同社にいた。今日までの資金量は公表されていないが、なにしろ必要十分な資金は手元にある、という。

Ampereのマイクロプロセッサー。写真提供: Ampere

彼女が新しい企業を始めた動機は、プロセッサーの世界にはまだ誰もやってないことがある、と新たな機会とチャレンジを、一見成熟し飽和しているかのような市場に見抜いていたからだ。“新しい課題に挑戦してそれを実現しなくては、人間として何かをやったとは言えない”、と彼女は語る。

Jamesの目に映っているその新しい機会とは、多くのワークロードがクラウドへ移行するに伴い、これまでに作られたものよりもずっと効率の高い新世代のチップ技術が求められている、という底流的ニーズだ。そこで彼女は、高密度なチップを完全に新規に設計することにより、これまで得られなかった高いコストパフォーマンスと効率を低価格で実現しようとした。

2017年の前半に創業された同社はサンタクララに拠を構え、300〜400名の社員がいる。つまり彼女が言うように、それは“ガレージスタートアップではない”。チップは今、一部の顧客やパートナーたちがサンプリングしており、本格生産は今年後半に始まる。顧客企業の名はまだ明かされないが、パートナーにはMicrosoft, Lenovo, Oracleなどがいる。

そのチップの発表を行う予定だった1月に、Spectre/Meltdownバグが露呈した。Jamesも言うように、投機的実行を用いる現代的なチップは、どれもこのバグを免れることはできないが、しかしARMの被害は最小限であり、同社のチップを今年後半に発売するときにはパッチが組み込まれている、という。

チップの巨人たちに対抗するにはガッツが必要、と彼女も認めるが、しかしチャレンジから逃げる気はない。“画期的で新しいことをやろうとすると、‘そんなこと、どうやってやるんだい?’と言われる。これまでずっと、お前なんかにはできないよ、と言われたことばかり私はやってきた”、と彼女は述べる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleがサードパーティ製のクラウドソフトウェアをショッピングできるストアを開店

Googleが、企業などの顧客にクラウド上のサードパーティ製ソフトウェアを売るためのデジタルストアを立ち上げる。このニュースを最初に報じたBloombergは、この動きはAmazon Web Servicesなどクラウドの先頭企業集団に、この検索大手が後れを取らないための最近の努力の一環だ、と言っている。

Googleが単独でストアを立ち上げるのではなく、MobileIronとパートナーする。後者は2014年に上場したモバイルのデバイス管理企業だ。この新しいストアに関するGoogleのブログ記事によると、このコラボレーションによって、Google Cloud上のコマースプラットホームOrbiteraに、MobileIronのアプリ配布やセキュリティ、アナリティクスなどの能力が統合される。

Googleによると、このホワイトレーベル方式のサービスには、複数のサービスを顧客の層別に同梱(バンドル)したり、独自のブランドを作ったり、顧客のデバイスやデータやサードパーティのクラウドサービスにアクセスできたり、ユーザーやアプリを限定するセキュリティ、利用状況のアナリティクスなど、いくつかの機能が最初から提供されている。

GoogleがOrbiteraを買収したのは2016年で、そのときは買収価額が1億ドルあまりと言われた。Orbiteraはクラウドベースのソフトウェアを売買するプラットホームを開発したが、Googleによる買収によって、AmazonのAWSやSalesforce, Microsoftなどと競合してクラウド上でエンタープライスサービスを売っていけるように改良された。

Googleのこの新しいイニシアチブにはコンペティターがいる。Bloombergの指摘によると、AT&Tは、ユーザーがVPNで安全に接続できるクラウドサービスを提供している。しかしそれでも、一回のアクセスで容易かつ簡単に多くのクラウドサービス〜クラウドソフトウェアの中から気に入ったものを選べるこのような‘ストア’は、ユーザーにとって便利だろう。あちこちアクセスして探すよりは。

うまく行けば、これはGoogleの新しい強みになるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

クラウド上の超ハイエンドゲームPC Shadowがイギリスでもローンチ、Shadowボックスは最初の500名無料

クラウド上のゲームPC Shadowを作っているフランスのBladeが、アメリカに続いてイギリスでも、そのクラウドゲームサービスを開始した。今は一般の顧客を受け付ける前の、特定の顧客向けのキャンペーンをやっている。

一定の月額料金で、近くのBladeのデータセンターからその仮想ゲームPCをレンタルする。そして自分のデスクトップやモバイルのアプリ、あるいは同社の小さなボックス(Shadowボックス)から、その強力な仮想コンピューターにアクセスする。それは、完全で何も省略されていないWindows 10のインスタンスだ。そこにあなたは、SteamでもBattle.netでも、何でもインストールできる。

イギリスのお客さんも、その仮想ゲームPCのスペックは同じだ。今使われているGPUは、Nvidiaのハイエンド機、GeForce GTX 1080とQuadro P5000。そしてRAMは12GB、ストレージは256GB、Intel Xeon 2620プロセッサーの上で8つのスレッドが動く。そのハイエンドゲームマシンは、実際に買えば2000ドル以上はする、と同社は言っている。

さて、クラウド上のShadowのインスタンスは、1年契約では月額26.95ポンド、3か月契約なら月額32.95ポンド、1か月のみなら39.95ポンドだ。長期契約でも前払いはなくて、毎月の課金のみ。これらの料金は、フランスやアメリカとほぼ同じだ。

同社が作って売っているShadow専用のボックスは、テレビやモニタにつなげられる。これをレンタルするなら、月額7.95ポンド、買うなら109.95ポンドだ。なお、最初の500名のイギリスのお客さんには、無料でくれる。

この、クラウド上のハイエンドゲームPCを使うためには、インターネット接続が速くて安定していることも重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがローコードプラットホームMendixをIBM Cloudに統合、新しいタイプのユーザー獲得をねらう

IBMが今日(米国時間1/25)、ローコード開発プラットホームMendixとのパートナーシップを発表した。これによりMendixは、IBMのWatsonなど多くのIoT/AIサービスとともに、IBM Cloudにネイティブで統合されることになる。IBM CloudはそれまでIBM Bluemixと呼ばれていたが、すでにそのころから同社とMendixとのパートナーシップは存在している。

この、新たに進化したパートナーシップによって、IBMはMendixをIBM Cloudに持ち込み、同社自身のツールとのより深い統合を行う。IBM Cloud PlatformのゼネラルマネージャーDon Bouliaによると、IBMのプラットホーム上の既存のデベロッパーたちは必ずしもMendixのようなローコード/ノーコード方式に積極的なタイプではないが、しかし今回のパートナーシップによってIBMは、これまで同社のクラウドサービスを活用できなかったデベロッパーや、なるべく早くプロトタイプを作りたいと願っている高度なデベロッパーなど、新しいデベロッパー集団に訴求できるようになる。

Mendixを同社のクラウドに加えることによってIBMは明らかに、その多様なサービスにさらに多くのユーザーを惹きつけたいと願っている。まず挙げられるのが、WatsonのAIサービスとのディープな統合であり、それはたとえば、Conversationサービスによるチャットボットの構築や、翻訳サービス、テキストの音声変換など、またWatson Tone Analyzerによるテキスト中の感情理解、そしてWatson Visual Recognitionサービスなどだ。Mendixのコネクターキットを使えば、IBMのIoTやブロックチェーンサービスにもアクセスできる。

IBMのIoTやブロックチェーンのAPIを扱うようになれば、Mendixのビジュアル開発ツールの枠を超えて、これらのツールをフル活用することになるだろう。

Mendixは、他のすべてのローコードプラットホームと同様に、アプリケーション開発を10倍スピードアップすると約束している。またIBMは、同社のサービスによってデベロッパーが自分たちのアプリケーションを、コンテナやCloud FoundryのようなプラットホームからIBM Cloudへ容易にデプロイできる、と訴えている。

〔参考記事: Mendix日本語解説

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのAutoMLで誰もが機械学習を利用できる――プログラミング不要、ビジネス利用へも

今日(米国時間1/17)、Googleはいくつかの重要な発表をしたが、 AutoML Visionα版公開もその一つだ。このサービスはML(機械学習)についてまったく経験のない層も含めたデベロッパーに対して、カスタマイズされた画像認識モデルの構築を可能にする。Googleではカスタム機械学習モデルをAutoMLと名付け、画像認識以外の分野に応用を拡大していく計画だ。

現在AutoMLがサポートするのはコンピューター・ビジョン関連だけだが、近い将来Googleは機械学習が用いられる各種の分野(音声認識、翻訳などの自然言語処理、ビデオ処理等)でAutoMLのビルディング・ブロックが使えるようにしていくはずだ。

Googleによれば、AutoMLの基本的なコンセプトは、高度なプログラミングの能力を必要とせず、誰でも画像をアップロードするとGoogleのシステムが自動的に機械学習モデルを作成してくれるというものだ。

Googlによれば、すでにディズニーがこのシステムを利用してオンラインストアにおける検索機能の強化に成功している。ストアの訪問者がたとえば『カーズ』に登場するキャラクター、ライトニング・マックイーンを検索した場合、実際にその名前でタグづけされている商品だけでなく、ストア内のおしゃべりなレーシングカーの画像を横断的にピックアップできる。

このプロセスはデータのアップロードからタグづけ、MLモデルのトレーニングまですべてドラッグアンドドロップのインターフェイスで実行できる。MicrosoftもAzure ML Studioを提供しているが、Googleのサービスはこれとは全く性格が異なる。Azure MLはいまは亡きYahoo Pipesに似たインターフェイスを利用してユーザー自身がモデルを構築、訓練、評価するものだが、Googleの場合はシステム側が面倒な作業をすべて実行する。

最近の機械学習ブームで一般企業が機械学習やデータサイエンスのエキスパートを採用することはほとんど不可能になっている。需要の大きさに人材供給がまったく追いついていないのが実情だ。

GoogleのAI/ML担当チーフ・サイエンティスト、 Fei-Fei Liは今週開かれたプレスイベントで「人工知能、機械学習は依然として参入障壁が高い分野です。企業は専門的能力と大量のリソースを社内に用意する必要があり、これを実現できる企業はほんの一握りです。人工知能を活用できるデータサイエンティストが100万人いたらどんなに役立つでしょう。AIが素晴らしく役立つのに対して、カスタマイズされたモデルを作れる能力を持つ人々の数はあまりに少なく、必要とするリソースは大きいのです」と述べた。

  1. cloud-automl-screenshot-1.png

  2. cloud-automl-screenshot-2.png

  3. cloud-automl-screenshot-3.png

  4. cloud-automl-screenshot-4.png

  5. cloud-automl-screenshot-6.png

  6. cloud-automl-screenshot-7.png

  7. cloud-automl-screenshot-8.png

  8. cloud-automl-screenshot-10.png

  9. cloud-automl-screenshot-11.png

  10. cloud-automl-screenshot-12.png

  11. cloud-automl-screenshot-13.png

  12. cloud-automl-screenshot-14.png

  13. cloud-automl-screenshot-15.png

  14. cloud-automl-screenshot-16.png

GoogleによればAutoMLは市場に公開されたこの種のサービスとして唯一のものだという。正確にいえば Clarif.aiなどのシステムが同様のアプローチを用いているし、MicrosoftのCognitive Servicesもあらかじめ用意されたコンピューター・ビジョン・モデル音声認識意思決定プロセスなどをユーザーがカスタマイズすることができる(ただし現在これらのサービスはプレビュー段階)。

AutoML Visionsの利用にあたっては、デベロッパーはGoogleに申し込みをして招待を待つ必要がある。料金については明らかにされていないが、おそらくモデルのカスタマイズとトレーニングに関する料金とそのモデルにAPIを通じてアクセスする場合の料金に分かれるのだろう。

画像: Getty Images

〔日本版〕コンピューター・ビジョンに関するFei-Fei Li(李飛飛)のTED講演(2015年、日本語字幕つき)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ComcastがAWSとパートナーして‘勝てないなら仲間になる’道を選ぶ

クラウドのプロバイダーは大物顧客の獲得を自慢したがるが、今日(米国時間1/16)のAmazonがまさにそれで、ケーブルテレビの最大手Comcastが同社のクラウドプロダクツを提供ないし自社利用していくためのサーバーとしてAWSを選んだことを発表した。

つまりComcastは、同社のクラウドワークロードの多くをAWSに置く。ケーブルテレビは長年アメリカの消費者のテレビの見方の定番だったが、最近ではケーブル離れが進んでいる。そんなときComcastがクラウドサービスやクラウドアプリケーションを作って、純粋なコンテンツプロバイダーではない方向へ自分を差別化していくのは、見過ごせない動きだ。

そんなクラウドサービスの例が、リモコンを使う音声検索だ。音声の命令で、番組情報が分かり、番組を選んで録画予約もできる(録画は消費者自身のDVR上)。またXFiというアプリケーションは、ユーザーがComcastのWi-Fiネットワークをコントロールできる。

Comcastはこれまでも、AWSのコンピューティングやストレージ、アナリティクスなどを利用してそんなアプリケーションを動かしてきたが、今回もっと深い関係を築くことによって、クラウドが提供しうる身軽さ(アジリティ)により、ケーブル離れに歯止めをかけたいのだ。

今では、Comcastなどのケーブルプロバイダーを単なるISPとして利用しているユーザーがほとんどだ。テレビを見るためには、ほかのもっと安い方法がいろいろある。Apple TV, Roku, Amazon Fire TV, Google Chromecastなどなど。ケーブル独特のワンセット契約も、今や消費者にとってはかったるい重荷だ。見たい番組だけを見たい!

ケーブル離れ*は予想外に急速に進みつつある。調査会社eMarketerによると、昨年は2200万人がケーブル企業との契約を断(た)った。2016年に比べて33%の増だ。もちろん2200万の全員がComcastのお客ではないが、同社としても、もはや平気な顔はできない。〔ケーブル離れ, 英語ではcord cutting(コードを切る), cable cutting(ケーブルを切る)と言う。〕

Comcastはケーブルを持ってるだけでなく、NBC Universalのオーナーでもあるが、コンテンツのオプションが非常に増えている今は、そっち方面でも展望は厳しい。で、結局、同社が選んだ道は、NetflixやHuluなどと戦うという勝ち目のない方向ではなくて、自分もコンテンツを提供しながら、それに乗っかるサービスで差別化していくことだ。今やHulu Live TV, Playstation Vue, YouTube TVなどなどが、テレビの領域すら侵しつつある。〔Netflixもテレビ的に‘自主番組’がある。〕

AWSは今のところ、クラウドインフラストラクチャのプロバイダーとしては最大だ。Comcastはケーブルテレビの最大手として2250万のユーザーを抱えている。しかし同じ昨年春の数字でAT&Tの契約ユーザー〔≒iPhone〜スマートフォンのユーザー〕は、2500万を超えている。大型キャリアは、ほかにもいる。この現状の中で、Comcastにほかの選択肢はない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

中小スタートアップに人気のクラウドサービスDigitalOceanが料金体系を改定

クラウドホスティング企業DigitalOceanが今日、一部の料金改定を発表した。また同社は数年ぶりに、最低料金月額5ドルのドロップレット*のインスタンスのスペックをアップグレードした。〔*: droplet, 滴(しずく), DigitalOcean独自の愛称で、同社が提供する仮想マシンのこと。〕

5年前にDigitalOceanは、革命的なサービスの提供を開始した。それは月額料金5ドルでSSDが20GB、RAM 512MB、CPUコア1を利用できるサーバーだ。しかしその後、Linuxの仮想サーバーは参入企業がどんどん増えて、低料金が珍しくなくなってきた。

たとえばLinodeは、月額5ドルでRAM 1GB、SSD 20GB、CPUコア1だ。Scalewayでは、RAM 2GB、SSD 50GB、2CPUコアで3ドル65セント(2.99ユーロ)だ。というわけでDigitalOceanは、競争に生き残るために、製品構成および料金体系のオーバーホールをせざるを得なくなった。

新料金は、月額5ドルでRAM 1GB、SSD 25GB、CPUの性能は前と同じだ。標準のドロップレットはすべて、前と同じ料金でRAMが倍になり、ストレージも増える。もちろん料金の高いプランではストレージも大きい。

月額40ドル以上になると、同料金のまま仮想CPUコアの数が前より多くなる。ただし160ドルのプランは、前と変わらない。高額な料金プランが新たに二種類増え、最高の月額960ドルのモデルではRAM 192GB、ストレージ3840GB、コア数32になる。

おもしろいのは、月額15ドルの新しいプランでは構成が三種類あることだ。すなわち、(1)RAM 3GBで1コア、(2)RAM 2GBで2コア、(3)RAM 1GBで3コアだ(下表)。さらにまた、RAM容量33%アップでストレージも多めという、“最適化ドロップレット”もある。ここまで読んで頭が混乱してきた読者は、DigitalOceanの新料金表へ行ってみよう。

なお、同社によると、秒課金をもうすぐ始める。Amazon Web ServicesGoogle Compute Engineがすでにやってるように。

例によってプランを変えるのは簡単で、DigitalOceaのアドミンパネルへ行けばよい。DigitalOceanの人気の源泉は、こんな気軽さ、柔軟性にある。すでにユーザーである方は、さっそく今度の新しい料金体系の“良いとこ取り”をトライしよう。

標準のフレキシブルドロップレット

最適化ドロップレット

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon AWSのサーバーレス・サービス、LambdaがGo言語のサポート開始

Amazo AWSのサーバーレス・プラットフォーム、LambdaGoのプログラムのサポートを開始した。GoはGoogleが開発したプログラミング言語で、最近人気を高めつつある。

AWSがGoをサポートすること自体は大きな驚きではない。AWSは昨年のre:InventカンファレンスでGoをサポートする予定だと明らかにしていた。しかしデベロッパーがGoで書いた関数を実際にLambdaで実行できるのは今日(米国時間1/16)からだ。

これでAWS LambdaはJavaScript、Node.js、Java、C#、Pythonに加えてGoをサポートすることになった。Lambdaのライバルを目指すGoogleのサーバーレス・プラットフォーム、Cloud Functionsは依然としてベータで、言語としてはまだNode.jsしか使えない。一方MicrosoftのAzure FunctionsはC#、JavaScript、F#、Javaをサポートし、Python、PHP、TypeScript、Batch、Bash、Powershellをそれぞれ実験的にサポートしている。

サーバーレス・プラットフォームの価値はサポートする言語の種類だけで測れるものではないが、 Lambdaのように多数の言語がサポートされればそれだけ広い範囲のデベロッパーが利用できるようになる。スタートしたばかりのサーバーレス・サービスという分野にとって、これは大きな意味を持つだろう。

LambdaにアップされたGoのコードは標準的なgo1.xランタイムで実行される。デベロッパーはGoプログラムをZIPファイルとしてAWSにアップし、コマンドライン・ツールまたはLambdaコンソールから実行する。またAWSの分散型アプリ向けデバッグとモニターのツール、AWS X-RayもLambda上のGo をサポートする。AWS CodeStarもGo関数によるデリバリー・ツールチェインの設定を助ける。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Dropbox、非公開で上場申請書を提出

Dropboxは密かに株式上場を準備しているとBloombergが報じた。

TechCrunchもこのクラウド・サービスの有力企業が2018年に株式を上場する計画だという情報は得ていた。Dropboxにコメントを求めているがまだ回答がない。

Dropboxは2007年にサンフランシスコで創立されて以後速いペースで規模を拡大してきた。何年も前から株式の上場に近づいているという噂が出ていた。しかし会社評価額が100億ドルにアップしたことで、上場へのハードルも上がった。同社はこの評価額に見合う実質を得るまで上場を見合わせていた。

Dropboxは年間売上で10億ドルを達成しキャッシュ・フローも黒字だと述べている。

Bloombergによれば、Goldman SachsとJPMorganが上場業務を扱っているという。

ライバルのBoxは2015年に上場し、それ以後株価は50%上昇している。

JOBS法の成立で上場申請を非公開で行うことができるようになった。つまり証券取引委員会に上場申請書を提出してもそれが一般公開されずにすむ。多くのテクノロジー企業はこの新しい条項を利用して秘密に上場申請を行っている。この申請書に公開義務が生じるのはロードショー(投資家に対する上場説明会)の15日前となる。

Dropboxから上場申請書が公開されれば、上場まで数週間というわけだ。

Spotifyも最近、非公開で上場申請をしている

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google CloudがプリエンプティブなGPUをローンチ、料金は50%安

Google Cloudが今日(米国時間1/4)、プリエンプティブなGPUのローンチを発表した。GoogleのプリエンプティブVMやAWSのスポットインスタンスなどと同様に、これらのGPUも相当な低料金で利用でき、しかし preemptibleの名のとおり、Googleがそのリソースを必要とするときにはいつでもシャットダウンされる。ユーザーはそのとき、30秒の警告をもらうだけだ。またこのプリエンプティブGPUは、最大24時間しか利用できない。

使用できるGPUは、Google Cloudプラットホームが今提供しているNVIDIA K80とNVIDIA P100だ。料金は1GPUあたり、K80が1時間0.22ドル、P100が0.73ドルだ。それプラス、VMの料金もあるだろう。その場合の料金もプリエンプティブVMの料金になるが、こちらはGPUのワークロードが終わる(またはGPUシャットダウンの警告が出る)まではシャットダウンされない。

Googleによると、これらのプリエンプティブなGPUは、フォールトトレラントな機械学習など、バッチで処理される計算集約的なワークロードに適している。Googleのマネージドインスタンスグループ機能を併用すれば、ダウンしたあとでもプリエンプティブなインスタンスを自動的に再生成できる。

Googleは今日の発表のわずか数か月前に、通常のGPUを大幅値下げしている。

またGoogleのリリースノートによると、GPUは今ではGoogle Cloudのアメリカ中部リージョンでも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ハイパースケールなデータセンターは2017年に世界中で390、その44%はアメリカに集中

“スーパー”を超えた“ハイパー”なスケールの事業者といえば、AmazonやApple、Facebook、Googleなど、大規模なコンピューティング能力を備える必要のある巨大な企業のことで、彼らが使っている高度な専用データセンターは、数も限られている、と一般的には思われているだろう。しかしSynergy Researchの最近の調査によると、2017年は世界中でハイパースケールなデータセンターが一挙にどっと増えた年だった。そして2018年にはそれが沈静化する、という兆しもない。

Synergyの報告によると、この年は世界中に390あまりのWebスケールの*データセンターを抱えた状態で終わる。その稼働がとくに活発なのはGoogleである。中国のTencentやBaiduも、今年ハイパースケールなデータセンターを建設した。しかしその大半はまだアメリカにあり、全体の44%を占める。二位の中国が8%、日本とイギリスが6%、オーストラリアとドイツが各5%だ。〔*: Webスケール, web-scale, Web全域を到達対象とする〕

Synergyの調査報告では、1位から24位までの上位24社のハイパースケールな企業が、一社平均で16のデータセンターを保有している〔16×24=384、384/390=98.5%〕。最上位集団に属するAmazon/AWS, Microsoft, IBM, そしてGoogleは各社がそれぞれ、世界中に45以上のデータセンターを持っている。

ハイパースケールの明確な定義はないが、たとえばIDCの説では、サーバーが5000台以上、床面積10000平方フィート(約900平方メートル)以上、となる。しかしSynergyの定義では、サーバーの台数が数十万台、ときには数百万台の事業者だ。

これらの事業者は大量のコンピューティングニーズを賄(まかな)うために、装備を自作ないし特注することが多い。彼らはハードウェアもソフトウェアもカスタムデザインにして、コンピューティングのあらゆる側面を自分で完全にコントロールしようとする。すべては、効率を最大化するためだ。大規模で高効率、それが彼らの目指すところだ。

それを実現するためには、往々にして細部に亙る構成の自由のない既成品のハードウェアは使えない。そして、そういう自作ないし特注のサーバーおよびネットワーキングハードウェアを大量に使って巨大なデータセンターを運用できる企業は、当然ながら最上位の数社に限られてくる。

この、われわれが簡単に会員にはなれないクラブの成長が続くかぎり、世界中でハイパースケールなプレゼンスがさらに大きくなり、Synergyによると今すでに、彼らの69の新たな大規模データセンターが建設ないし計画されている。今年390と報告されたハイパースケールなデータセンターは、2019年の終わりには500を超えている、とSynegyは予測している。

〔訳注: この記事ではハイパースケール(hyperscale)という形容詞がデータセンターを形容したり、事業者を形容したりと、二股的に使用されている。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

今年Kubernetesは急速に立ち上がり、活き活きとしたエコシステムを生み出した

普通の人はおそらく聞いたこともない技術だろうが、Kubernetesは今年2017年に、コンテナテクノロジーを使うITプロたちの間で、急速に人気を獲得した。Kubernetesは、運用スタッフがコンテナ群を大規模に展開および管理するための基盤を提供するオーケストレーションエンジンである。(コンテナの基礎については、 この記事を参照のこと )。

もっと分かりやすい言い方をするなら、コンテナの数が増加するにつれて、それらの起動や状態を管理するツールが必要になるということだ。コンテナというアイデア自身や、それが可能にするいわゆる「マイクロサービス」モデルが、複雑なモノリシックなアプリケーションを、はるかに小さく管理しやすいものに分解するので、必然的にコンテナの数は時間とともに増加する傾向がある。Kubernetesはこうした際の運用/管理用途に使われる事実上の標準ツールとなっている。

Kubernetesは、元々はGoogleで開発されたオープンソースプロジェクトで、現在はCloud Native Computing Foundation(CNCF)によって管理されている。昨年、AWS、オラクル、マイクロソフトなどを含むテクノロジー界の大企業たちがCNCFに名前を連ねた。もちろんKubernetesの開発に何らかの影響を与えたいという思いが、その動機の大半を占めている。

急速な成長

Kubernetesが勢いを増すにつれ、それはイノベーションとビジネスアイデアのプラットフォームになってきた(人気のあるオープンソースプロジェクトではよく見られることだ)。早期に採用を行った企業たちは、いまや新技術に移行したいものの内部に専門家がいない顧客たちを支援できるチャンスを得ている。支援企業は、このようなツールを使用することに伴う基本的な複雑さを隠すことによって、商業的な機会を創出することができる。

私たちは、Kubernetesでもこの大きな流れを見ることができている。支援企業たちはオープンソースに基づいたブロダクトの開発を始めており、それによってツールの細かな癖に精通せずとも、利用と実装が容易になるパッケージアプローチが可能になる。

利用実績がどれほど急速に伸びているかを知ってもらうために、451 Researchが行ったサーベイを紹介しよう。2015年に行われた調査では、回答企業の10%が何らかのコンテナオーケストレーションツールを使用していた(Kubernetesもしくは他の競合を含む)。ちょうど2年後に行われたフォローアップ調査では、451は、回答企業の71%がコンテナ管理のためにKubernetesを使用していることを報告している。

Googleのプロダクトマネジメント担当副社長であるSam Ramji(以前はCloud Foundry FoundationのCEOだった)は、こうしたことが一夜にして起きたような感じを受けているかもしれないが、他の多くのことと同様に、作成には長い時間を要したのだと語っている。Kubernetesの直接の前身はBorgと呼ばれるGoogleのプロジェクトである。Ramjiは、2014年にオープンソースプロジェクトとしてKubernetesをリリースする10年前から、Googleはコンテナを実運用していたのだと指摘する。

「10年近いコンテナの大規模運用の歴史をGoogleは持っていました。実験ではありません。Borgの上でGoogleのビジネスが大規模に運用されていたのです。Kubernetesはそれらのレッスンに基づいて、ゼロから構築されたものです」とRamjiは語った。

クラウドネイティブコンピューティング

Kubernetesやクラウドネイティブツールを使用する背景にある大きな要因の1つは、企業がリソースの一部をクラウドに置き、一部をオンプレミスのデータセンターに置くハイブリッド環境での運用が増えていることだ。Kubernetesのようなツールは、どこにデプロイされても一貫した方法でアプリケーションを管理できるフレームワークを提供する。

その一貫性が、人気の大きな理由の1つなのだ。IT部門が2つの異なるツール(またはツールセット)を使用して、2つの異なる場所でアプリケーションを管理することを余儀なくされた場合、やがてどのリソースが利用され、データがある瞬間にどこにあるかを把握することが難しくなるような混乱に陥る可能性がある(実際にそのようなことは起こっている)。

クラウドネイティブコンピューティングファウンデーション(CNCF)が、KubernetesファウンデーションではなくCNCFと呼ばれる理由は、Googleやその他の運営メンバーたちが、Kubernetedはクラウドネイティブストーリーの一部に過ぎないと考えているからだ。もちろんそれは「大きな一部」かもしれないが、彼らはより豊かなツールシステムを目指したいと考えている。より広範な名前を付けることで、オープンソースコミュニティ対して、クラウドネイティブのやりかたで、インフラストラクチャ管理機能を拡張するためのツールを構築するように奨励しているのだ。

採用に向かう大企業たち

このプロジェクトへの貢献者のトップ10を見ると、OpenStack、Linux、その他のオープンソースプロジェクトにまたがった、主要なテクノロジープレイヤーたちの名前を見ることができる。それらはGoogle、Red Hat、CoreOS、FathomDB、ZTE Corporation、Huawei、IBM、Microsoft、Fujitsu、そしてMirantisなどだ。

CNCFのエグゼクティブディレクター、Dan Kohnは、これらの企業は、基盤技術では協力を行いながら、高レベルのツールで競争することが、より効果的であると認識しているのだと言う。「Linuxに関するアナロジーを使うことができます。人びとはKubernetesを『クラウドのLinux』と表現しています。企業のすべてが手を携えたり、同じ顧客に対して競合しないことにしたというわけではありません。ただ、コンテナオーケストレーションそのもので競争することには、あまり価値がないと認識しているのです」。

そして、これらの企業の多くは、過去12-18ヶ月間の間に、Kubernetesや、コンテナ、そしてクラウドネイティブ関連企業を買収している。

会社名 買収企業 目的 買収日付 金額
Red Hat Codenvy コンテナ開発チームワークスペース

5/25/2017

非公開
Oracle Wercker 大規模クラウドネイティブアプリの運用と展開

4/17/2017

非公開
Microsoft Deis Kubernetes用ワークフローツール

4/10/2017

非公開
Mirantis TCP Cloud 連続更新

9/15/2016

3000万ドル
Centurylink ElasticBox マルチクラウドのアプリケーション管理

6/14/2016

2000万ドル
Apprenda Kismatic Kubernetesのサポートとツール

5/19/2016

非公開

これらのすべてが、2015年7月までにはバージョン1.0に達していなかったツールを中心に構築されたビジネスとなった(その前にもいくつかの 0.x リリースが行われている)。それ以降、採用は順調に増加している。

今年の初め、CNCFは、36社がKubernetes認定基準に合意したことを発表した。以前36社ものハイテク企業が何かに合意したのは一体何時だったろうか?彼らがこれを行った理由は、個々のメンバーは互換性がなかったり一貫していないバージョンを作成することを防ぐためだ。もしこれが満たされないならば、期待に反した振舞が起きたり、あるバージョンから他のバージョンへの移植ができなくなったりするだろう。これは一般的にはフォーク(枝分かれ)という名で知られている現象だ。組織はKubernetesの人気の高まりを認識し、可能な限り不都合が起きないようにしたいと考えている。

エコシステムの構築

Kubernetesを商用化している企業には、Google Kubernetes Engine(以前のGoogle Container Engine)を提供しているGoogle自身、Red Hat OpenShift、Pivotal Container System(正しくない略称のPKSとして知られている)、そしてCoreOS Tectonicが含まれている。AWSは、そのコンテナサービスにKubernetesサポートを追加して流れに飛び乗ったばかりだ。今年の初めには、コンテナのブームを生み出したDockerも同じ動きをみせた

写真:Googleより(クリックして拡大)

Kubernetesのコアなオープンソース版を商用化する方法を探る以外にも、ホスト管理から、セキュアなログ管理と監視に至るまで、少なくないツールが開発されている。

これらがすべて、生まれてわずか2歳のオープンソースプロジェクトの周りに、豊富なツール群を構成している。これがオープンシステムを作成したときに起きることだ。皆がそれを運用するツールアプリケーションを必要とするので、イノベーションが起こる傾向があるのだ。私たちはそれをLinuxで目撃した。同じようにHadoopとOpenStackでも目撃した。そして今やそれがKubernetesでも起きている。今年それは大きな飛躍を果たしたのだ。

[原文へ]
(翻訳:sako)

AWSがパリに新リージョンを開設、フランスのデータプライバシー法への準拠が容易に

Amazon Web ServicesがEUの顧客のために、フランスのパリに新しいリージョンを立ち上げた。これはドイツ(フランクフルト)、アイルランド、イギリス(ロンドン)に次ぐヨーロッパ第四のリージョンだ。パリ・リージョンのアドバンテージは、フランスのテクノロジー企業にとってデータプライバシーの規制に準拠しやすいことだ。

このリージョンにはアベイラビリティーゾーンが三つあり、それぞれが自分のインフラストラクチャを持って地理的に分かれている。電力などのインフラを独自化しているのは、災害時などにサービスが全滅しないためだ。パリ・リージョンではさらに、顧客がフランスに保存したユーザーデータが、顧客自身が移動させないかぎり、AWS自身の都合などでは移動されない。フランスのデータ独立法は厳しくて、テクノロジー企業はフランス国民からのデータを国内に保存しなければならない。AWSはすでにフランスに三つのエッジネットワークロケーションを持ち、顧客がそこからWebサイトなどのサービスをエンドユーザーに届けられるようにしている。

声明文の中でAWSのCEO Andy Jassyが言っている: “すでに数万ものフランスの顧客がフランスの外のリージョンからAWSを使っているが、彼らはフランスの国内にリージョンができることを熱烈に要望していた。それはレイテンシーに敏感なワークロードの多くを容易に運用できるためであり、またフランスの国土の上に在住すべきデータをすべてそこに格納できるためだ”。

AWSのすべてのリージョンに共通する同一のセキュリティ準拠規格もあるほか、AWSのインフラストラクチャは、さまざまな国のプライバシー関連法を守りつつ大西洋にまたがって情報交換を行うためのフレームワークEU-U.S. Privacy Shieldを認定されている。またEUが2018年5月25日に実装する予定のGeneral Data Protection Regulation(GDPR)にも、準拠している。

AWS EU(Paris)と呼ばれるパリのリージョンの開設により、AWSのリージョンは全世界で18になり、アベイラビリティーゾーンは49になる。AWSのフランスの顧客には、Canal+, Decathlon, Les Echoes, Schneider Electric, Societe Generaleなどがいる。

〔参考記事: AWSのリージョンとアベイラビリティーゾーン

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

建設プロジェクトのコラボレーションプラットホームAconexをOracleが$1.2Bで買収

Oracleが今日(米国時間12/17)、建設工事におけるコラボレーションを支える、建設プロジェクト管理クラウドプラットホームAconexを12億ドルで買収することを発表した。メルボルンに本社を置くAconexは、クラウドベースのソフトウェアによって、建築工事に関わるチームのコラボレーションと文書管理を支える。買収価額は一株あたりオーストラリアドルで7ドル80セント(USドルで5ドル97セント)となり、トータルで12億ドルになる。この価額はAconesの金曜日(米国時間12/15)の終値AUD$5.29(USD約$4.05)の47%プレミアムとなる。

Oracleがクラウドベースの建設業ソフトウェアを買収するのは、これで二度目だ。昨年同社は、建設業における契約と決済を管理するプラットホームTexturaを6億6300万ドルで買収し、同社自身の建設管理ソフトウェアPrimaveraと組み合わせてOracle Construction and Engineering Global Business Unit(建設エンジニアリンググローバルビジネスユニット)と呼ばれる事業体を作った。

建設のプロジェクトは、可動部品が多い。下請けもサプライヤーも複数おり、建設関連の法規は複雑、そして山のように大量の紙の文書が作られる。それらすべてを正しく管理しようとすると、その金額費用と時間費用は膨大なものになる。しかしそのことは、テクノロジー企業にとっては機会でもある。過去数年間でも、建築産業を現代化しようとするスタートアップがFieldwire, PlanGrid, Net30, UpCodesなど続出した。

2000年に創業されたAconexは現在30か国にオフィスがあり、これまでに総額1兆ドルあまりの建設プロジェクトの管理に利用されてきた、という。これまで同プラットホームを利用して管理された建設プロジェクトはおよそ550万件、建設の進捗やさまざまな文書、安全性チェックリスト、などなどの管理がデスクトップとモバイル上で行われてきた。OracleによるとAconexは同社のクラウドベースの建設ソフトウェアの足りなかった部分を補うことになり、とくにプロジェクトの企画、管理、そして支払い決済の面でエンドツーエンドのソリューションを提供していく。買収の完了は2018年の前半を予定しているが、それ以降Acoenxは、Oracleの上述、建設エンジニアリングユニットの一部となる。

Aconexの顧客への書簡で協同ファウンダーでCEOのLeigh Jasperは、“AconexへのOracleの継続的投資により、機能性と能力容量の迅速な増強が期待される。また、Oracleのそのほかのプロダクトとのより有意義な統合や連携が可能になる”、と述べている。

世界最大のソフトウェア企業のひとつであるOracleは、1年に何度か買収を行う。Crunchbaseによると、Oracleは2017年にほかにも3社の買収の合意に達している: (1)API設計プラットホームのApiary、(2,3)デベロッパーツールのWerckerMoatだ。後者は広告のエンゲージメントを測定する。しかし昨年は93億ドルのNetSuiteやTextura(前述)など、計9社を買収しているから、もっとすごい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがre:Invent後のサプライズ、シングルサインオンの市場に参入

Steve Jobsはキーノートの終わりに必ず、“there is one more thing…”と言うことで有名だった。しかしAWSは、そのre:Inventカンファレンスが終わってから、彼らのmore thingを発表することにしたらしく、昨日(米国時間12/7)になってAWSのクラウドのシングルサインオンプロダクトを鳴り物抜きでリリースした。

詳しい情報はまだ乏しいが、それはAWSの一連のプロダクトにシングルサインオン(single sign on, SSO)を提供するもののようだ。AWSの発表声明はこう説明している: “AWSのSSOにより、SSOへのアクセスと、AWSという組織体のすべてのアカウントへのユーザーのパーミッションを容易に管理できる”。それは、OktaOneLoginなど、そのほかのシングルサインオンプロダクトのやり方とは、きわめて異なっている。

これらの企業はシングルサインオンへのもっと総合的なアプローチを提供し、すべてのクラウドサービスへの(ときにはオンプレミスも)ログインを一点で管理できるようにする。それにより、各アカウントごとにユーザー名とパスワードが違う、という苦痛をなくす。一度ログインすれば、そのサイトのすべてのクラウドサービスに単純にアクセスできるようになる。

しかしAWSも、それができないわけではない。発表声明は続けてこう言っている: “AWSのSSOには、Salesforce, Box, Office 365など多くのビジネスアプリケーションへのSAML認証が含まれている”。それこそがまさに、OktaやOneLoginがやってることだ。

Oktaは実は目下、この市場の中心的なプレーヤーで、2009年にクラウドのシングルサインオンを導入した。これまでに2億2900万ドルの資金を調達して、今年の4月に上場した最近の決算報告では売上が6820万ドルで、アナリストの予想6284万ドルを上回った。3000あまりの顧客がいて、Oktaのプラットホーム上のユーザーは4000万人いる。

OktaのCEO Todd McKinnonによると、大企業がアイデンティティの分野に手を出すのは、AWSが初めてではない。“Salesforce Identityの例もあるし、MicrosoftやGoogleもやっている。でもうちは独立のアイデンティティプロバイダーであり、そのマーケットリーダーとしてのイノベーションでは、今後も負けないつもりだ”、と語る。

AWSのSSOが専業のOktaほどに使いやすいか、それはまだなんとも言えない。でも、AWS全域にわたるより総合的なシングルサインオンを目指して、今回その基礎を提供しようとしているのだ。

大企業が新たな市場に参入したからといって、成功が保証されてるわけではないが、でも今朝OktaやOneLoginらは、ややうろたえたのではないか。AWSがクラウドで新しい何かをやらかすとなれば、そのニュースはJobsのone more thingに似た重みを持ってしまうのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa