Red HatがCoreOSを$250Mで買収してKubernetes路線を強化

エンタープライズLinuxの代表的企業であるRed Hatは近年、同社のOpenShiftプロダクトで、Kubernetesを軸とするコンテナ技術に積極的に注力してきた。そして今日(米国時間1/30)同社は、その路線のさらなる拡張のために、コンテナ管理のスタートアップ*CoreOSを2億5000万ドルで買収すると決定した。〔*: 元々はCoreOSはDockerコンテナの使用を前提とするエンタープライズLinuxディストリビューションである。〕

CoreOSのメインのプロダクトは、LinuxディストリビューションCoreOSと、Googleが開発したオープンソースのコンテナオーケストレーションプラットホームKubernetesをベースとするコンテナ管理ソリューションTectonicだ。本誌TechCrunchのコンテナ入門記事が、ここにある。

CoreOsとRed Hatは、Google, FathomDB, ZTE Corporation, Huawei, IBM, Microsoft, Fujitsu, Mirantisなどと並んでKubernetesの最大のコントリビューターの一員だ。

おそらくKubernetesをめぐる密接な協働関係が契機となって、CoreOSとRed Hatの仲が深まり、この際一つになった方が顧客の共有や人材の有効活用の点で有利、という結論に達したのだろう。両者はコンテナを前提とするLinuxディストリビューションでも、CoreOS vs. Red Hat Atomicで競合してきたが、これについてもやはり、デベロッパー環境を統一すべき、という結論になったのだろう。

次世代の中心的なソフトウェア環境が、自社データセンター上のオンプレミスとパブリッククラウドを併用するハイブリッドクラウドになるのなら、クラウドネイティブな枠組みにより、統一的な方法でアプリケーションをデリバリしていくことがとても重要になる。Red Hatでプロダクトとテクノロジーを担当するPaul Cormierによると、両社の合体はそのようなハイブリッド環境や複数のクラウド環境を 統一的に扱える力を与える。

Cormierは声明文の中でこう述べている: “次世代のテクノロジーは、複数の、そしてハイブリッドなクラウド環境にまたがるコンテナベースのアプリケーションが駆動する。それらは、物理環境、仮想環境、プライベートクラウド、パブリッククラウドなど多様な要素から成る環境だ。KubernetesとコンテナとLinuxが、この変化の核であり、Red Hat同様CoreOSも、これらのイノベーションを推進する上流のオープンソースコミュニティと、エンタープライズ級のKubernetesを顧客に提供していく能力の両方において、リーダー的存在だった”。

昨年CoreOSのCEO Alex Polviもインタビューでこう語った:“うちはGoogleやDocker、Red Hatなどと共に、コンテナという新しい技術カテゴリーを作ってきた、という自負を持っている。うちはこれまで、まったく新しいカテゴリーのインフラストラクチャを作ってきた”。

彼の企業は、エンタープライスKubernetesプロダクトを作って早くからゲームに参戦し、そのことを有利に生かしてきた。“Kubernetesについては、その初期から、すごい大物になる、と感じていた。そして当時からすでに、TicketmasterやStarbucksなどのシステムにKubernetesを導入してきた”、と彼は語る。

彼によると、同社のコンテナ管理システムTectonicには4つのメイン成分がある: ガバナンス、モニタリング・ツール、課金、そしてワンクリック・アップグレードだ。

Red HatのCEO Jim Whitehurstも昨年のインタビューで、うちもコンテナとKubernetesに関しては早かった、と述べた。彼によると、同社はオペレーティングシステムのカーネル(すなわちLinux)もコンテナに入れられることを理解していた。同社は本来Linux企業なのでKubernetesと(Linux上の技術である)コンテナ化技術に早期から専念して、OpenShiftを作った。

CoreOSは2013年の創業以来5000万ドルを調達している。主な投資家であるGV(元Google Ventures)とKleiner Perkinsは、おいしいリターンを得たようだ。いちばん最近のラウンドは、GVがリードするシリーズBの2800万ドルだった。Kubernetesの作者で最大のコントリビューターでもあり、CoreOSの主要投資家であるGVを同系とするGoogleが、Red HatというトンビにCoreOSという油揚げをさらわれた形になったのはおもしろい。

買収は今月中に完了するものと思われる。ただし1月はあと1日だけなので、すでに完了しているのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IBMがローコードプラットホームMendixをIBM Cloudに統合、新しいタイプのユーザー獲得をねらう

IBMが今日(米国時間1/25)、ローコード開発プラットホームMendixとのパートナーシップを発表した。これによりMendixは、IBMのWatsonなど多くのIoT/AIサービスとともに、IBM Cloudにネイティブで統合されることになる。IBM CloudはそれまでIBM Bluemixと呼ばれていたが、すでにそのころから同社とMendixとのパートナーシップは存在している。

この、新たに進化したパートナーシップによって、IBMはMendixをIBM Cloudに持ち込み、同社自身のツールとのより深い統合を行う。IBM Cloud PlatformのゼネラルマネージャーDon Bouliaによると、IBMのプラットホーム上の既存のデベロッパーたちは必ずしもMendixのようなローコード/ノーコード方式に積極的なタイプではないが、しかし今回のパートナーシップによってIBMは、これまで同社のクラウドサービスを活用できなかったデベロッパーや、なるべく早くプロトタイプを作りたいと願っている高度なデベロッパーなど、新しいデベロッパー集団に訴求できるようになる。

Mendixを同社のクラウドに加えることによってIBMは明らかに、その多様なサービスにさらに多くのユーザーを惹きつけたいと願っている。まず挙げられるのが、WatsonのAIサービスとのディープな統合であり、それはたとえば、Conversationサービスによるチャットボットの構築や、翻訳サービス、テキストの音声変換など、またWatson Tone Analyzerによるテキスト中の感情理解、そしてWatson Visual Recognitionサービスなどだ。Mendixのコネクターキットを使えば、IBMのIoTやブロックチェーンサービスにもアクセスできる。

IBMのIoTやブロックチェーンのAPIを扱うようになれば、Mendixのビジュアル開発ツールの枠を超えて、これらのツールをフル活用することになるだろう。

Mendixは、他のすべてのローコードプラットホームと同様に、アプリケーション開発を10倍スピードアップすると約束している。またIBMは、同社のサービスによってデベロッパーが自分たちのアプリケーションを、コンテナやCloud FoundryのようなプラットホームからIBM Cloudへ容易にデプロイできる、と訴えている。

〔参考記事: Mendix日本語解説

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon AWSがSqrrlを買収してセキュリティの脅威検出能力を強化

AWSが、NSAにルーツを持つセキュリティ企業、マサチューセッツ州ケンブリッジのSqrrlを買収した。同社は、機械学習を利用してさまざまなソースを分析し、セキュリティの脅威を企業ユーザーが迅速に追跡および理解できるようにする。

発表はSqrrlのホームページで同社のCEO Mark Terenzoniが行っている。“SqrrlがAmazonに買収されたことを共有できて嬉しい。私たちはAmazon Web Servicesの家族の一員になり、共に顧客の未来に貢献していきたい”、と彼は書いている。

では、この買収によって顧客は何を得るのか? 上記の声明を読むと、Sqrrlは少なくとも既存の顧客へのサービスを継続するようだ。

2016年のComputerworldのレビューによると、Sqrrlのソリューションはさまざまなソースからデータを集め、見つけた脅威をセキュリティ担当者のためのダッシュボードに表示する。担当者は、今後ありうる脆弱性の、視覚化された表現を見ることができる。

最近では大規模な侵害事故が増えているので、誰の心にも、その最上部にはセキュリティの懸念があるようになった。昨年はEquifaxの大規模ハックがあったし、年頭早々、チップの脆弱性SpectreとMeltdownが見つかった。セキュリティの脅威は、確かに増大している。最先端のクラウドプラットホームを誇るAmazonのAWSも、その点は同じだ。

Sqrrlは2012年に、NSAやホワイトハウスでセキュリティを担当していた政府職員たちが創業した。同社はこれまで、2600万ドルを調達している。至近の2017年6月には、Spring Lake Equity Partnersがリードするラウンドで1230万ドルを調達した。

その発表は、12月のAxiosの記事が確認している。その記事によると、買収価額の交渉は、4000万ドル周辺で行われている、ということだ。確定額は、本誌もまだ確認していない。

今Amazonにコメントを求めているので、何か得られ次第この記事をアップデートしたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ComcastがAWSとパートナーして‘勝てないなら仲間になる’道を選ぶ

クラウドのプロバイダーは大物顧客の獲得を自慢したがるが、今日(米国時間1/16)のAmazonがまさにそれで、ケーブルテレビの最大手Comcastが同社のクラウドプロダクツを提供ないし自社利用していくためのサーバーとしてAWSを選んだことを発表した。

つまりComcastは、同社のクラウドワークロードの多くをAWSに置く。ケーブルテレビは長年アメリカの消費者のテレビの見方の定番だったが、最近ではケーブル離れが進んでいる。そんなときComcastがクラウドサービスやクラウドアプリケーションを作って、純粋なコンテンツプロバイダーではない方向へ自分を差別化していくのは、見過ごせない動きだ。

そんなクラウドサービスの例が、リモコンを使う音声検索だ。音声の命令で、番組情報が分かり、番組を選んで録画予約もできる(録画は消費者自身のDVR上)。またXFiというアプリケーションは、ユーザーがComcastのWi-Fiネットワークをコントロールできる。

Comcastはこれまでも、AWSのコンピューティングやストレージ、アナリティクスなどを利用してそんなアプリケーションを動かしてきたが、今回もっと深い関係を築くことによって、クラウドが提供しうる身軽さ(アジリティ)により、ケーブル離れに歯止めをかけたいのだ。

今では、Comcastなどのケーブルプロバイダーを単なるISPとして利用しているユーザーがほとんどだ。テレビを見るためには、ほかのもっと安い方法がいろいろある。Apple TV, Roku, Amazon Fire TV, Google Chromecastなどなど。ケーブル独特のワンセット契約も、今や消費者にとってはかったるい重荷だ。見たい番組だけを見たい!

ケーブル離れ*は予想外に急速に進みつつある。調査会社eMarketerによると、昨年は2200万人がケーブル企業との契約を断(た)った。2016年に比べて33%の増だ。もちろん2200万の全員がComcastのお客ではないが、同社としても、もはや平気な顔はできない。〔ケーブル離れ, 英語ではcord cutting(コードを切る), cable cutting(ケーブルを切る)と言う。〕

Comcastはケーブルを持ってるだけでなく、NBC Universalのオーナーでもあるが、コンテンツのオプションが非常に増えている今は、そっち方面でも展望は厳しい。で、結局、同社が選んだ道は、NetflixやHuluなどと戦うという勝ち目のない方向ではなくて、自分もコンテンツを提供しながら、それに乗っかるサービスで差別化していくことだ。今やHulu Live TV, Playstation Vue, YouTube TVなどなどが、テレビの領域すら侵しつつある。〔Netflixもテレビ的に‘自主番組’がある。〕

AWSは今のところ、クラウドインフラストラクチャのプロバイダーとしては最大だ。Comcastはケーブルテレビの最大手として2250万のユーザーを抱えている。しかし同じ昨年春の数字でAT&Tの契約ユーザー〔≒iPhone〜スマートフォンのユーザー〕は、2500万を超えている。大型キャリアは、ほかにもいる。この現状の中で、Comcastにほかの選択肢はない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

中小スタートアップに人気のクラウドサービスDigitalOceanが料金体系を改定

クラウドホスティング企業DigitalOceanが今日、一部の料金改定を発表した。また同社は数年ぶりに、最低料金月額5ドルのドロップレット*のインスタンスのスペックをアップグレードした。〔*: droplet, 滴(しずく), DigitalOcean独自の愛称で、同社が提供する仮想マシンのこと。〕

5年前にDigitalOceanは、革命的なサービスの提供を開始した。それは月額料金5ドルでSSDが20GB、RAM 512MB、CPUコア1を利用できるサーバーだ。しかしその後、Linuxの仮想サーバーは参入企業がどんどん増えて、低料金が珍しくなくなってきた。

たとえばLinodeは、月額5ドルでRAM 1GB、SSD 20GB、CPUコア1だ。Scalewayでは、RAM 2GB、SSD 50GB、2CPUコアで3ドル65セント(2.99ユーロ)だ。というわけでDigitalOceanは、競争に生き残るために、製品構成および料金体系のオーバーホールをせざるを得なくなった。

新料金は、月額5ドルでRAM 1GB、SSD 25GB、CPUの性能は前と同じだ。標準のドロップレットはすべて、前と同じ料金でRAMが倍になり、ストレージも増える。もちろん料金の高いプランではストレージも大きい。

月額40ドル以上になると、同料金のまま仮想CPUコアの数が前より多くなる。ただし160ドルのプランは、前と変わらない。高額な料金プランが新たに二種類増え、最高の月額960ドルのモデルではRAM 192GB、ストレージ3840GB、コア数32になる。

おもしろいのは、月額15ドルの新しいプランでは構成が三種類あることだ。すなわち、(1)RAM 3GBで1コア、(2)RAM 2GBで2コア、(3)RAM 1GBで3コアだ(下表)。さらにまた、RAM容量33%アップでストレージも多めという、“最適化ドロップレット”もある。ここまで読んで頭が混乱してきた読者は、DigitalOceanの新料金表へ行ってみよう。

なお、同社によると、秒課金をもうすぐ始める。Amazon Web ServicesGoogle Compute Engineがすでにやってるように。

例によってプランを変えるのは簡単で、DigitalOceaのアドミンパネルへ行けばよい。DigitalOceanの人気の源泉は、こんな気軽さ、柔軟性にある。すでにユーザーである方は、さっそく今度の新しい料金体系の“良いとこ取り”をトライしよう。

標準のフレキシブルドロップレット

最適化ドロップレット

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudがプリエンプティブなGPUをローンチ、料金は50%安

Google Cloudが今日(米国時間1/4)、プリエンプティブなGPUのローンチを発表した。GoogleのプリエンプティブVMやAWSのスポットインスタンスなどと同様に、これらのGPUも相当な低料金で利用でき、しかし preemptibleの名のとおり、Googleがそのリソースを必要とするときにはいつでもシャットダウンされる。ユーザーはそのとき、30秒の警告をもらうだけだ。またこのプリエンプティブGPUは、最大24時間しか利用できない。

使用できるGPUは、Google Cloudプラットホームが今提供しているNVIDIA K80とNVIDIA P100だ。料金は1GPUあたり、K80が1時間0.22ドル、P100が0.73ドルだ。それプラス、VMの料金もあるだろう。その場合の料金もプリエンプティブVMの料金になるが、こちらはGPUのワークロードが終わる(またはGPUシャットダウンの警告が出る)まではシャットダウンされない。

Googleによると、これらのプリエンプティブなGPUは、フォールトトレラントな機械学習など、バッチで処理される計算集約的なワークロードに適している。Googleのマネージドインスタンスグループ機能を併用すれば、ダウンしたあとでもプリエンプティブなインスタンスを自動的に再生成できる。

Googleは今日の発表のわずか数か月前に、通常のGPUを大幅値下げしている。

またGoogleのリリースノートによると、GPUは今ではGoogle Cloudのアメリカ中部リージョンでも利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのProject ZeroチームはCPUの重要な欠陥を昨年発見していた

数分前(米国時間1/3)に公開されたブログ記事でGoogleのセキュリティチームが、今朝発表されたチップの脆弱性からGoogle Cloudの顧客を守るために彼らがやったことを述べている。その記事によると、この脆弱性は同社のProject Zeroのチームが昨年…時期不詳…発見していた。

発表によると、同社はその問題をチップのメーカーに報告した。それは、“投機的実行”と呼ばれているプロセスによって起きる。それは、CPUが次にやるべき命令を論理的に推測して実行し、処理速度を上げる、という高度なテクニックだ。そしてその機能に隙(すき)があり、悪者はそれを利用して、暗号の鍵やパスワードなどメモリ上の重要な情報にアクセスできる。

Googleによるとこれは、AMD, ARM, Intelなどすべてのチップメーカーに見られる現象である(AMDは否定)。Intelは、一部で報道された、脆弱性はIntelのチップのみという説を、同社のブログ記事で否定している。

Googleのセキュリティチームは、この問題を知った直後からGoogleのサービスを護るための措置を開始した、と書いている。早期に一般に発表しなかった理由は、調整版のリリース予定が来週(1月9日)だったため、という。そしてこのニュースがリークしたために、GoogleやIntelなどの関係企業は、情報を公開して憶測を終わらせることを選んだ。

なお、Google Apps/G Suiteには、被害が及んでいないので、ユーザーは何もしなくてもよい。そのほかのGoogle Cloudのユーザーは、何らかのリスク対策が必要かもしれない。ユーザーのアクションを必要とするプロダクトやサービスは、このページに詳細が載っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ハイパースケールなデータセンターは2017年に世界中で390、その44%はアメリカに集中

“スーパー”を超えた“ハイパー”なスケールの事業者といえば、AmazonやApple、Facebook、Googleなど、大規模なコンピューティング能力を備える必要のある巨大な企業のことで、彼らが使っている高度な専用データセンターは、数も限られている、と一般的には思われているだろう。しかしSynergy Researchの最近の調査によると、2017年は世界中でハイパースケールなデータセンターが一挙にどっと増えた年だった。そして2018年にはそれが沈静化する、という兆しもない。

Synergyの報告によると、この年は世界中に390あまりのWebスケールの*データセンターを抱えた状態で終わる。その稼働がとくに活発なのはGoogleである。中国のTencentやBaiduも、今年ハイパースケールなデータセンターを建設した。しかしその大半はまだアメリカにあり、全体の44%を占める。二位の中国が8%、日本とイギリスが6%、オーストラリアとドイツが各5%だ。〔*: Webスケール, web-scale, Web全域を到達対象とする〕

Synergyの調査報告では、1位から24位までの上位24社のハイパースケールな企業が、一社平均で16のデータセンターを保有している〔16×24=384、384/390=98.5%〕。最上位集団に属するAmazon/AWS, Microsoft, IBM, そしてGoogleは各社がそれぞれ、世界中に45以上のデータセンターを持っている。

ハイパースケールの明確な定義はないが、たとえばIDCの説では、サーバーが5000台以上、床面積10000平方フィート(約900平方メートル)以上、となる。しかしSynergyの定義では、サーバーの台数が数十万台、ときには数百万台の事業者だ。

これらの事業者は大量のコンピューティングニーズを賄(まかな)うために、装備を自作ないし特注することが多い。彼らはハードウェアもソフトウェアもカスタムデザインにして、コンピューティングのあらゆる側面を自分で完全にコントロールしようとする。すべては、効率を最大化するためだ。大規模で高効率、それが彼らの目指すところだ。

それを実現するためには、往々にして細部に亙る構成の自由のない既成品のハードウェアは使えない。そして、そういう自作ないし特注のサーバーおよびネットワーキングハードウェアを大量に使って巨大なデータセンターを運用できる企業は、当然ながら最上位の数社に限られてくる。

この、われわれが簡単に会員にはなれないクラブの成長が続くかぎり、世界中でハイパースケールなプレゼンスがさらに大きくなり、Synergyによると今すでに、彼らの69の新たな大規模データセンターが建設ないし計画されている。今年390と報告されたハイパースケールなデータセンターは、2019年の終わりには500を超えている、とSynegyは予測している。

〔訳注: この記事ではハイパースケール(hyperscale)という形容詞がデータセンターを形容したり、事業者を形容したりと、二股的に使用されている。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがre:Invent後のサプライズ、シングルサインオンの市場に参入

Steve Jobsはキーノートの終わりに必ず、“there is one more thing…”と言うことで有名だった。しかしAWSは、そのre:Inventカンファレンスが終わってから、彼らのmore thingを発表することにしたらしく、昨日(米国時間12/7)になってAWSのクラウドのシングルサインオンプロダクトを鳴り物抜きでリリースした。

詳しい情報はまだ乏しいが、それはAWSの一連のプロダクトにシングルサインオン(single sign on, SSO)を提供するもののようだ。AWSの発表声明はこう説明している: “AWSのSSOにより、SSOへのアクセスと、AWSという組織体のすべてのアカウントへのユーザーのパーミッションを容易に管理できる”。それは、OktaOneLoginなど、そのほかのシングルサインオンプロダクトのやり方とは、きわめて異なっている。

これらの企業はシングルサインオンへのもっと総合的なアプローチを提供し、すべてのクラウドサービスへの(ときにはオンプレミスも)ログインを一点で管理できるようにする。それにより、各アカウントごとにユーザー名とパスワードが違う、という苦痛をなくす。一度ログインすれば、そのサイトのすべてのクラウドサービスに単純にアクセスできるようになる。

しかしAWSも、それができないわけではない。発表声明は続けてこう言っている: “AWSのSSOには、Salesforce, Box, Office 365など多くのビジネスアプリケーションへのSAML認証が含まれている”。それこそがまさに、OktaやOneLoginがやってることだ。

Oktaは実は目下、この市場の中心的なプレーヤーで、2009年にクラウドのシングルサインオンを導入した。これまでに2億2900万ドルの資金を調達して、今年の4月に上場した最近の決算報告では売上が6820万ドルで、アナリストの予想6284万ドルを上回った。3000あまりの顧客がいて、Oktaのプラットホーム上のユーザーは4000万人いる。

OktaのCEO Todd McKinnonによると、大企業がアイデンティティの分野に手を出すのは、AWSが初めてではない。“Salesforce Identityの例もあるし、MicrosoftやGoogleもやっている。でもうちは独立のアイデンティティプロバイダーであり、そのマーケットリーダーとしてのイノベーションでは、今後も負けないつもりだ”、と語る。

AWSのSSOが専業のOktaほどに使いやすいか、それはまだなんとも言えない。でも、AWS全域にわたるより総合的なシングルサインオンを目指して、今回その基礎を提供しようとしているのだ。

大企業が新たな市場に参入したからといって、成功が保証されてるわけではないが、でも今朝OktaやOneLoginらは、ややうろたえたのではないか。AWSがクラウドで新しい何かをやらかすとなれば、そのニュースはJobsのone more thingに似た重みを持ってしまうのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

HeptioとMicrosoftが共同でKubernetesのバックアップ/災害復旧ソリューションに取り組む

オープンソースのツールKubernetesがコンテナオーケストレーションのデファクトスタンダードになるにつれて、当然ながらそのまわりには、さまざまな新進企業からなるエコシステムが形成されてきた。Heptioもそういう企業のひとつだが、創業者がKubernetesの協同ファウンダー(Joe BedaとCraig McLuckie)であることがとくに関心を招(よ)んでいる。そのHeptioが今日(米国時間12/7)、この夏ローンチした同社のHeptio ArkプロジェクトでMicrosoftと協働する、と発表した。

Heptio Arkはバックアップと災害復旧を管理するユーティリティで、データセンターで大きな問題が起きたときに、Kubernetesのクラスターとボリュームをバックアップする。

計画では、Arkの能力の強化で両社は協働するが、並行してKubernetesを使っているアプリケーションをオンプレミスや、当然ながらMicrosoft AzureとAzure Container Serviceへ移すためのツールも作る(Microsoftはまだ後者を、‘Azure Kubernetes Service’に改名していない)。

HeptioのCEO Craig McLuckieはこう言う: “パブリッククラウドだけで生きてるような企業は、実はほどんどいない。だからワークロードをパブリッククラウドとオンプレミスに正しく振り分けるためのツールと方法がきわめて重要だ。Microsoftが今回のようにオープンソースのコミュニティと本気で協働することは、Azureの顧客の利益になるだけでなく、Kubernetesのコミュニティも強くする”。

さらにおもしろいのは、この共同事業が、Kubernetesの協同ファウンダーたちの同窓会になることだ。HeptioのBedaとMcLuckie、そしてMicrosoftのBrendan Burnsは、共にGoogleでKubernetesプロジェクトをオープンソースで立ち上げ、その後もしばらくGoogleで、その開発とメンテを担当した。

そのBurnsは曰く、“HeptioとMicrosoftが一緒になって、Kubernetesのエコシステムが抱える未対応のニーズを満たす強力なソリューションを作っていくことは、すごくワクワクする。Heptioと共同でArkとAzureを統合すればそれは、オンプレミスのKubernetesクラスターをクラウドへバックアップするための由緒正しいソリューションに、確実になるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CoreOSの商用化KubernetesツールTectonicがv.1.8にアップデート、外部サービスの利用が容易に

CoreOSが、ポピュラーなコンテナオーケストレーションツールKubernetesを企業向けに使いやすく商用化して提供するTectonicのマイナーアップデート、v.1.8をリリースする。その新しい機能Open Cloud Services Catalogにより、ユーザー企業のDevOpsは、外部サービスを容易にKuberneesにプラグインできる。

CoreOSでTectonicのプロダクトマネージャーをやっているRob Szumskiが、ニューバージョンを発表する同社のブログ記事で言ってるように、パブリッククラウドは使いやすくて便利ではあるけれども、そこにロックインされてしまって、プロプライエタリなツールしか使えないこともある。

CoreOSのOpen Cloud Services Catalogは、その問題を解決する。‘カタログ’の名のとおりここには、特定のプロプライエタリなツールに代わる多様な選択肢があり、クラウドやハイブリッド環境など、複数の実行環境間の移動や行き来が容易にできる。

“Tectonic 1.8では、CoreOSのOpen Cloud Servicesで、マネージドクラウド(管理サービスを伴うクラウド)が提供すると期待されている苦労のないオペレーションに、さらに一味加えたものを体験できる。通常のプロプライエタリなクラウドサービスと違ってOpen Cloud Servicesは、CoreOSのTectonicプラットホームの上で走る第一級の、完全に自動化された、Kubernetesリソースの集合だ”、とSzumskiはそのブログ記事で述べている。

CoreOSは、提供物のすべてをできるかぎりオープンでポータブルにして、顧客のあらゆる特殊条件や要求にも柔軟に対応したい、と考えている。それだけでなく今度のOpen Cloud Services CatalogはTectonicsのコンソール本体上にあるので、外部サービスの導入も、またその無効化も、きわめて簡単容易である。

Open Cloud Servicesの初期のリソースとしては、etcd, Prometheus, Vaultなどが挙げられる。

Open Cloud Service CatalogはあくまでもTectonic 1.8のリリースの一部であり、基本的には9月の終わりにリリースしたオープンソースバージョンの路線は維持されている。とくにCoreOSが強調するのは、それがあくまでもKubernetesのオリジナルバージョンであり、フォークではないことだ。Kubernetesの管理団体であるCloud Native Computing Foundationも、それがピュアなオープンソースバージョンとして維持されることを期待し奨励している

なお、このバージョンにより、コンテナエンジンDockerも自動的にアップデートされる。デベロッパー(Dev)は、このエンジンを使って、コンテナに収めたアプリケーションを作る。そしてオペレーション(Ops)はKubernetesを使ってコンテナの管理とデプロイを行う。というわけでこのツールは、コンテナのDevOpsの両サイドの面倒を見てくれる。

この最新バージョンは年内にダウンロード可能になるが、既存のTectonic 1.7からのアップデートは自動的に行われる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudが元Intelの役員Diane BryantをCOOに迎える、‘二人Diane’の演目に

今やGoogle Cloudのステージは、二人のDianeが演じている。同社は、この部門のCOOとしてDiane Bryantをスカウトした、と発表した。彼女は、2015年11月にGoogle CloudのSVPとして加わったDiane Greene〔今ではCEO〕と一緒になる。

Greeneは、彼女がチームに加わることを喜んでいるようだ。“彼女以上に適切な経験と才能のある人物は、思いつかない。彼女は、強力なビジネスフォーカスを持つエンジニアであり、テクノロジーの世界で30年に及ぶ傑出したキャリアを有している”、とその任命を発表する同社のブログ記事に書いている。

そのブログ記事は、Bryantの役割やGreeneとの上下関係には触れていない。[この記事が公開されたあとにGoogleが再度くれた情報によると、GreeneがBryantの上司になるようだ。]

United Technologiesの取締役でもあるBryantは、最近までIntelのData Center Groupを統轄していた。この部門は昨年、170億ドルという大きな売上をあげている。そのデータセンター技術の経験と、Intelの売上に大きく貢献した実績が、Googleが彼女を獲得した理由のひとつだろう。

Googleはそのクラウドビジネスを、まだ構築途上であり、IBMとMicrosoft、そしてマーケットリーダーAWSのずっと後方で、4位の座に甘んじている。エンタープライズからの信任を増すためにGreeneを加えて2年経つ今でも、Synergy Researchのデータによるとマーケットシェアは一(ひと)桁だ:

それでもGoogle Cloudは、2017年のQ3に75%という大きな成長を経験した。しかしAWSは依然として大きな差をキープしているし、Microsoftはさらに急速に成長しているから、マーケットシェアの数字はあまり変化しないのである:

画像提供: Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがサーバーレスのデータベースサービスAurora Serverlessをプレビューで立ち上げ

Amazonのクラウドコンピューティング部門AWSが今日(米国時間11/29)、連続的なデータ処理を必要としないようなリレーショナル・データベースを、容易に、安く、そして手早く立ち上げるサービスを発表した。そのAurora Serverlessと名付けられたサービスは、その名のとおりAWSの既存のデータベースシステムAuroraを利用しており、いわばサーバーレスでイベントドリブンなコンピュートプラットホームのデータベース版だ。

そのもっとも巧妙な仕組みは、データのストレージと処理が分離していることだ。Aurora Serverlessのユーザーは処理に対してのみ支払うが、もちろんそのときはストレージも仕事をしている。ただしその費用は比較的安い。

このサービスは、計画では来年のどこかの時点でプレビューを脱し、そのときにより詳しい情報を共有する、という。

目下Aurora Serverlessはプレビューのみだが、一般公開されたらデベロッパーはサーバーレスのリレーショナル・データベースにオンデマンドでアクセスでき、データベースのプロビジョニングを自分でやる必要がない。しかもスケールアップ/ダウンが、必要に応じて簡単にできる。ユーザーは、データベースを実際に使用した秒数に対してのみ支払う。これまでは、データベースを使おうと思ったら、データベースサーバーと称するマシンを動かす必要があった。Aurora Serverlessでは、そこらのことをすべて、AWS自身が楽屋裏でやってしまう。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのSageMakerを使えばふつうのデベロッパーが機械学習のモデルを作れる

クラウドサービスは、ソフトウェアやインフラストラクチャの‘管理’という面倒な部分を取り除いてくれる。今日では、機械学習が多くのデベロッパーたちのあいだで急速に関心を集めつつあるが、AWSはそれのいちばん面倒な部分、すなわち機械学習のモデルの構築とデプロイの過程を、同社のクラウドサービスにより、単純化しようとしている。

そのサービスが、今日(米国時間11/29)のre:Inventカンファレンスで発表されたAmazon SageMakerだ。それは、デベロッパーやデータサイエンティストに、機械学習のモデル制作プロセスを管理するためのフレームワークを提供し、そのプロセスに通常含まれる複雑面倒な部分を取り去る。

AWSのシニア・テクニカル・エヴァンジェリストRandall Huntが、このサービスを発表するブログ記事〔上記リンク〕で、デベロッパーが新しいアプリケーションで機械学習を利用するときのプロセスを加速化するフレームワークを提供することが、サービスの基本コンセプトだ、と言っている: “Amazon SageMakerは、完全な管理を伴う。エンドツーエンドの機械学習サービスであり、データサイエンティストやデベロッパー、それに機械学習のエキスパートが、大規模な機械学習モデルを迅速に構築・訓練・ホストできるようにする”。

またAWSのCEO Andy Jassyは、このサービスを紹介するとき、こう述べた: “Amazon SageMakerを使えば、ふつうのデベロッパーが機械学習のモデルを容易に訓練しデプロイできます”。

この新しいツールには、三つの主要部分がある。

まずNotebook。これはオープンソースの標準的なツールJupyter Notebooksを使って、モデルのベースとなるデータを概観し整理する。この最初のステップは、EC2の標準的なインスタンスを使ってもよいし、もっと厳しい処理要求があるならGPUインスタンスを使う。

データが用意できたら、モデルの訓練を始める。これには、モデルのためのベースアルゴリズムも含まれる。モデルのフレームワークは、TensorFlowなどを自分で持ち込んでもよいし、あるいはAWSが事前に構成したものを使ってもよい。

re:Inventのステージで、JassyはSageMakerの柔軟性を強調した。すぐに簡単に使えるツールとして使ってもよいし、自分のフレームワークを持ち込んでもよい。どちらの場合でも、そしてソースが何であっても、サービスはもっともポピュラーなアルゴリズム向けに調整されている。

Constellation ResearchのVPで主席アナリストのHolger Muellerによると、この柔軟性は両刃の剣だ: “SageMakerはアプリケーションを作るときの作業努力を大幅に減らしてくれるが、そのためにAWSは多くのモデルを無理やり多面的に(polyglot)サポートしようとしている。AWS/Amazonが本当に欲しいのは、多くのユーザーをつなぎとめることと、計算とデータの負荷が大きいことだから”。

彼は、AWSがTensorFlowのような独自のニューラルネットワークフレームワークを提供すべきだ、と主張する。しかしまだ、そんな話はどこにもない。

今のところAmazonは、モデルを動かすために必要なインフラストラクチャのすべてを自前で整え、ノードのエラーやオートスケーリング、セキュリティパッチなどの問題を…フレームワークが何であれ…自分で処理する。まさに、多面的だ。

Jassyによると、モデルが出来上がったらそれをSageMakerから動かしてもよいし、ほかのお好きなサービスを使ってもよい。彼曰く: “これはデータサイエンティストやデベロッパーにとってすばらしいツールだ”。

このサービスは、AWSの無料ユーザーなら無料で利用できる。しかし処理量が一定のレベルを超えたら、使い方やリージョンに応じて課金される。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがIoT専用のデータ分析ツールAWS IoT Analyticsをローンチ、機械学習にも対応

物のインターネット(Internet of Things, IOT)は、近未来のもっともホットなテクノロジー、今やどこのカンファレンスへ行っても主役級の扱いだ。IoTという技術の突出した特徴のひとつが、多くのデバイスが常時大量のデータを吐きつづけること。そしてそれらのデータの意味を知ることが、システムの重要な課題になる。そこでAmazon AWSは、独自のIoTアナリティクスサービスAWS IoT Analyticsを、今日(米国時間11/29)のre:Inventカンファレンスで立ち上げた。

AWSのテクニカル・エヴァンジェリストTara Walkerブログ記事によると、このサービスの究極の目的はIoTが吐き出すデータをすべて管理することだ: “AWS IoT Analyticsを利用して、メッセージを処理したり、大量のデバイスデータを収集保存したり、データをクェリしたりできる。このサービスはデータ視覚化サービスAmazon Quicksightや、オープンソースのデータサイエンスツールJupyter Notebooksを統合している。後者によって、データを機械学習で処理することも可能だ”。〔参考記事

上記の最後の部分は、センサーやデバイスからやってくるデータをベースに機械学習のモデルを作るときに便利だ。AWSが今日発表した、機械学習のモデル制作支援ツールSageMakerも、やはりJupyter Notebooksをサポートしている。

IoTから出てくる膨大な量のデータをユーザーが直接、QuickSightのような汎用ツールで処理するのは酷である、と考えたAmazonは、このAWS IoT Analyticsという専用ツールを作ったのだ。しかもQuickSightでは、何が起きたのかを見ることはできても、これまでのデータの傾向に基づく予測ができない。

たとえば、このIoT Analyticsを使えば、工場などの機械が実際に故障する前に、メンテナンスが必要である状態を知ることができる。本番稼働時に急に停止するのではなく、ユーザーが自分の意思で余暇時間などにメンテできる。

このIoT専用のアナリティクスツールは、IoTのセンサーからのデータを収集、保存、そしてクェリでき、特定のデータ集合を一定の時間間隔で取り出すことができる。

Amazonが汎用のBI(ビジネスインテリジェンス)サービスAmazon QuickSightを立ち上げたのは、2015年だ。

画像提供: Bloomberg/Getty Images


[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSには当面、ブロックチェーンを利用するサービスを提供する意思がないようだ

Bitcoinがついに10000ドルの大台に乗せたが、そのベース技術であるブロックチェーンをAWSが何らかのサービスに利用することは、当分なさそうだ。ラスベガスで行われているAWSのデベロッパーカンファレンスre:InventでAWSのCEOAndy Jassyは、ブロックチェーンサービスの計画に関する記者たちの質問に、そう答えた。

Jassyは、今後の見通しについても、醒めた目で見ているようだ。彼によると、ブロックチェーンには、“分散台帳であること以上の”多様なユースケースがない。さらに彼は強調して、AWSは、特定の技術を、“それがクールだと思うから作ることはない”、と言う。

彼の見方では、ブロックチェーンが解決を目指してる問題は、ほかにも解決方法がたくさんある。それに、今使われている分散台帳の多くは、能力がきわめて限られている。

とは言え彼は、ブロックチェーンによるプロダクトの将来的な可能性を、まったく排除しているわけでもない。彼は曰く: “しかし今後の顧客の動向には、しっかり関心を持ち続けるだろう”。

AWSのコンペティターであるMicrosoftやIBMなどは、ブロックチェーンを用いるサービスや分散台帳に対して、かなり積極的だ。過去数か月の動きを見ても、彼らは既存の顧客を対象にさまざまなブロックチェーンサービスやパイロットプロジェクトを立ち上げている。しかし今のところAmazonに、その仲間に加わる気はないようだ。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSがベアメタルのEC2インスタンスを立ち上げ、しかもカスタムチップで

Amazonのクラウドコンピューティングサービス部門AWS(Amazon Web Services)が今日、待望のベアメタルインスタンスをそのEC2サービスで提供する、と発表した

ベアメタルは、ソフトウェアの働きで提供される仮想マシンと違って、コンピューターのハードウェア本体そのものなので、ユーザーはハードウェアに直接アクセスでき、とくに大きなオーバヘッドもなくハードウェアのリソースを100%利用できる。またユーザーはその上で独自の仮想化を構築できるので、クラウドサーバーの自主的コントロールが増す。さらにまた、これまでライセンスやサポートの事情などで仮想マシンの上では動かせなかったアプリケーションを、EC2で動かせるようになる。

このベアメタルインスタンスは当面AWSのi3インスタンス系列の一環として提供されるが、将来的にはそのほかの系列でも提供される予定だ。現在このインスタンスは公開プレビューの段階だが、公開といってもデベロッパーは登録してユーザーになる必要がある。

ベアメタルといってもとくに制約はなく、EC2の通常のサービスをすべて利用できる。AWSのグローバルインフラストラクチャ担当VP Peter Desantisが、今日の同社のre:Inventカンファレンスのキーノートで、そう述べた。

Desantisは、これと関連する話題として、Amazonにおけるカスタムチップの開発努力についても触れた。数年前にAWSは、EC2プラットホームのアーキテクチャの現代化を決意した。それはネットワークもストレージも一体化させた新たなプラットホームで、AWSはそれを“Nitro Architecture”と呼んでいる。そのためにAWSはAnnapurna Labsを買収してそのカスタムチップの製造に関する専門的能力を利用し、これまでもっぱらソフトウェアでやっていたことの多くを、高速な専用ハードウェアで行うことにした。同社はまた、同社独自のハイパーバイザーを、LinuxのKVMをベースに作った。

Desantisの説では、カスタムのシリコンを作る前には、“それだけの投資に見合う問題と、スケールが存在する必要がある”。具体的にそういうものがないのに、新規ハードウェアに投資することはありえない。この件に関してAWSが明らかに感じているのは、AWSというユースケースにとってはカスタムチップの方がFPGAよりも有利であることと、そして、スケールに関しては、AWSのスケールに疑問を差し挟む余地はない。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

複数クラウドにまたがるアプリケーションの管理をコンテナとKubernetesで自動化するOverclock Labs

Overclock Labsは、アプリケーションの複数のクラウドにまたがるデプロイと管理を自動化により容易にするためのサービスを提供している。そのために同社が作った、分散クラウドインフラストラクチャを自動化するツールは、今どき当然ながらコンテナを使用する。そしてそれらのツールの主役は、コンテナオーケストレーションツールKubernetesだ。

今日(米国時間11/21)、2年前に創業されたOverclock Labsはステルス状態を脱し、130万ドルの資金調達を発表した。投資家はシリコンバレーの複数のエンジェルとCrunchFund、こちらは本誌TechCrunchと名前や経歴を多少共有しているが、本誌と特別の関係はない。

同社は、今回初めて一般に公表される資金を使って、DISCOというものを開発していた。DISCOは Decentralized Infrastructure for Serverless Computing Operations(サーバーレスコンピューティングオペレーションのための分散インフラストラクチャ)の頭字語だ。サーバーレスとあるからにはそれは、AWSのLambdaやAzure Functionsのようなイベントドリブンのサービスか? そう考えたくなるのも無理もないが、しかしOverclock Labsの協同ファウンダーGreg Osuri(CEO)とGreg Gopman(COO)によると、彼らの言う“サーバーレス”とは、完全な自動化のことだ。Lambdaは、イベントドリブンなアプリケーションのためにリアルタイムの自動化をやってくれるが、オープンソースにする予定のDISCOの場合は、もっといろんなアプリケーションのサポートを目指している。なお、同社の三人目の協同ファウンダーは、Adam Bozanichである。

Osuriが説明するその基本的な考え方は、ユーザーがどんなクラウドサービスのプロバイダーでも使えて、それら複数のクラウド間を容易に行き来できるようにすることだ。そのようなデベロッパー体験は、クラウドアプリケーションプラットホームのHerokuにやや似ており、ユーザーインタフェイスはGUIとコマンドラインの両方を提供している。

目下このツールがサポートしているのはAWSとGoogle Cloud Platform、そしてベアメタルのスペシャリストPacketだが、今後徐々にそのほかのクラウドもサポートしていく。DISCOはオープンソースだから、ほかの人たちが自分のものを統合するのも容易だ。

DISCOを使ってアプリケーションをデプロイするやり方は、二(ふた)とおりある。12-factor appのありがたい教えに従ってアプリケーションを作っている場合は、DISCOは単純にソースコードを取り込んでアプリケーションをデプロイする。あるいは独自のコンテナでアプリケーションを作ってる場合は、それらのコンテナをDISCOに渡してデプロイさせる。するとDISCOがコンテナレジストリを扱い、コンテナをデベロッパーに代わって管理する。

DISCOの約束は、アプリケーションのデプロイをHerokuを使う場合のように容易にすること、ただしその1/3のコストで。前にAngelHackを一緒に作ったOsuriとGopmanには、オープンソースのツールを作った経験が豊富にあり、今でもオープンソースのエコシステムの一員だ。だからDISCOをオープンソースにするのも自然な流れで、その上に有料サービスを乗っけていく気だ。

その有料サービスは現段階ではまだ具体化していないが、とにかく同社が真っ先にやることは数か月後にDISCOをリリースし、そのまわりにエコシステムを築いていくことだ。

今では高度なオープンソースのプロジェクトが毎日のようにローンチしているから、DISCOのエコシステムづくりも容易ではないだろう。でも同社のファウンダーたちは、その過程について現実的な見方をしている。それに、コンテナとKubernetesによるアプリケーションのマルチクラウドデプロイと管理の自動化は、誰にでもできることだから、そのうち競合他社があふれてくるだろう。近くAWSのre:Inventカンファレンスがあるから、そのへんの情況を確認してみたい。でもOverclock Labsの連中は、早くスタートした者にはそれなりの優位性があり、ビッグプレイヤーになれる、と信じている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSが政府諜報機関用の秘密のリージョンを立ち上げ、インターネット接続なし

Amazonが今日、同社のクラウドコンピューティングサービスAWSに、アメリカ政府の諜報部門のワークロード向けに特別に設計された新しいリージョンが加わる、と発表した。そのリージョンはAWS Secret Regionとずばり名付けられ、政府のセキュリティの分類で“secret”レベルまでのワークロードを動かすことができる。AWSはすでに6億ドルの契約でCIAなどの政府省庁のトップシークレットのワークロードを動かしているが、これはそれをさらに補完するものだ。

AWSのこの発表のほぼ1か月前には、Microsoftがやはり同様の発表を行った。MicrosoftのGovernment Cloud上のAzure Government Secretにより、政府省庁およびそのパートナーの“secret”と分類されたデータを扱うワークロードがサポートされる。

Amazon Web Services Worldwide Public SectorのVP Teresa Carlsonはこう述べている: “アメリカ政府の諜報部門は今後、共通のツールセットと、最新技術の定常的な導入、および迅速なスケーリングを可能とする柔軟性により、自らのミッションを遂行できる。AWSのTop Secret Regionは三年前に導入され、最初の密封された*商用クラウドとしてアメリカの諜報部門の顧客たちはそれをきわめて成功裡に利用している。今回の新しいリージョンにより、省庁間のコラボレーションがさらに拡大され、意思決定者に重要な情報をより迅速に届け、国の安全がさらに増強されるであろう”。〔*: air-gapped, まわりに空隙がある==インターネットに接続されていない〕

最初の密封型クラウドTop Secretは、利用が諜報機関に限られていた。今度の新しいSecret Regionは全省庁が利用でき、既存のAmazon GovCloudなど、これまでのAWSとCIA等との関係内容とは無関係だ。

Googleもかなり前からG Suiteを政府系の顧客に提供しているが、同社はエンタープライズ顧客の獲得に熱心で、政府省庁やそのクラウドコンピューティングニーズはあまり視野にないようだ。しかし今後Googleも、政府からお墨付きをもらうことに励んで、そのサーバー上で政府の機密データを扱うようになるかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloud PlatformがGPU使用のVMインスタンスを最大36%値下げ、AWSを意識か

Googleが今日(米国時間11/20)、Google Compute Engineの、Nvidia’s Tesla GPUを使用するインスタンスを最大36%値下げする、と発表した。アメリカのリージョンでは、やや古いK80 GPUを使うと1時間0.45ドル、新しくて強力なP100マシンは1.46ドルになる(いずれも秒課金による)。

またプリエンプティブルVM用のローカルSSDは、40%値下げされる〔参考: 8月の値下げ〕。GPUは、プリエンプティブルVMでは使えない。だから値下げは朗報でも、GPUのユーザーには関係ない。

今回のGPUインスタンスの値下げは明らかに、クラウド上で機械学習のワークロードを動かすユーザーのためだが、そのほかにも物理シミュレーションや分子モデリングなど、数百のコアを持つGPUを有利に使えるアプリケーションはいろいろある。たとえばGoogle Cloud Platform上ではまだベータであるP100は、コア数が3594 だ。

インスタンス一つにつき、P100は最大4基、K80なら8基を使える。通常のVMと同じくGPUユーザーにも継続利用割引はあるが、実際にはGPUを1か月動かしっぱなし、というユーザーはあまりいない。

AWSの今年のデベロッパーカンファレンスが来週からラスベガスで行われるが、Googleの今回の発表は明らかにそれを意識していると思われる。AWSも今年はAIや機械学習関連の発表が多いだろうし、値下げも当然ありうるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa