Datadogが立ち上げたWatchdogは機械学習でクラウドアプリケーションの健康をチェックし続ける

あなたが今使っている典型的なクラウドモニタリングサービスは、数ダースのサービスを統合し、きれいなダッシュボードを表示し、何らかの自動化により、アプリケーションの現況を監視する手助けをするだろう。Datadogも長年そんなことをやっていたがしかし今日(米国時間7/12)、Watchdogという新しいサービスを導入した。それは、機械学習を使って自動的に異状を見つけるのだ。

同社によると従来のモニタリングのセットアップでは、アプリケーションの動きをチェックするためのパラメータをユーザーが定義して、それらをモニタするためのダッシュボードやアラートをセットアップしていた。しかし今日の複雑なクラウドアプリケーションでは、そのやり方には限界がある。そこで、オートメーションの層がもうひとつ必要になる。

そしてそれが、Watchdogの役目だ。このサービスは、捉えられるかぎりのパフォーマンスデータをすべて観察し、それらの正常値を学習し、そして何か異状が起きたらアラートを発して、できるかぎり、何が起きたのかのインサイトをユーザーに与える。

Datadogのデータサイエンスの長、Homin Leeが、Watchdogの発表声明で述べている: “私たちの顧客の長年にわたるデータセットを使って、アルゴリズムの研究と訓練を行った。プログラムが問題を見つける点ではこの技術はユニークだが、それだけではなく、ユーザーが調査を始めるために必要な、おおよそのルートコーズ(根本原因)を指摘できる”。

このサービスは、DatadogのEnterprise APMプランの顧客が今日から利用できる。

関連記事: デベロッパーとオペレーションの文化を融合するDatadog(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが全国全世界に複数の事業所のある企業向けにAzureをハブとする仮想WANサービスを提供

Microsoftが今日(米国時間7/12)新たにローンチするいくつかのネットワーキング機能により、同社のAzureクラウドを使っている企業が、自分たちのオフィスやインフラストラクチャをより容易に、かつ、より安全にAzureのグローバルネットワークに接続できるようになる。

まず、Azure Virtual WAN(Azure仮想WAN)サービスは、企業の各事業所をAzureを介して接続する。その構造はエアラインのハブとスポークの構造に似ていて、Azureが中央のハブになり、各事業所間のデータはすべてそこを通る。

Microsoftが主張するこのネットワーキング構造のアドバンテージは、アドミンが会社のワイド・エリア・ネットワーク(WAN)を中央のダッシュボードから管理でき、そしてもちろん、今後Azureのさまざまなサービスやアプライアンスをバインドするのも容易である。それにユーザーは、Azureが提供するセキュリティサービスのすべてにアクセスできる。

それらの中で今日Microsoftがローンチした新しいセキュリティサービスがAzure Firewallだ。このクラウドネイティブなセキュリティサービスは、企業の仮想ネットワークのリソースを保護する。

これら、Azure上に作られる仮想WANなどの新しいネットワーキング機能に加えてMicrosoftは、そのAzure Data Boxサービスの新しいリージョンを二つ発表した。このBoxはAWSのSnowbollアプライアンスのMicrosoftバージョンで、アプライアンスを物理的に送ることによってデータをクラウドにロードする。その二つのリージョンはヨーロッパとイギリスだが、イギリスはまだヨーロッパの一部だ、という議論はここではやめよう。なお、数ペタバイトのデータを移動する必要のないユーザー向けには、Data Box Diskというオプションがある。最大5つまでのディスクをオーダーすると40テラバイトのデータを載せられるが、現在これはまだプレビューだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

API管理のGoogle ApigeeがInformaticaとパートナーしてアプリケーションの統合を充実

GoogleはAPI管理サービスApigeeを2016年に買収したが、今日まで、その後の展開はあまり見られなかった。しかし今日(米国時間7/12)のApigeeの発表によると、いくつかの小さなアップデートによりGoogle Cloud Platformとの統合がより深まり、また、クラウドデータの管理統合サービスを提供するInformaticaとの大型パートナーシップにより、InformaticaがGoogle Apigeeの最優先の統合パートナーになった。

この分野のパートナーシップの多くがそうであるように、Informaticaとの契約には営業やマーケティングにおける協力も含まれるが、重要なのはその部分ではない。このパートナーシップで重要なのは、Informaticaのツールの一部をGoogleがApigeeのダッシュボードに載せてしまうことだ。それによってApigeeのユーザーは、Informaticaの幅広い各種サードパーティ製エンタープライズアプリケーションの統合を利用でき、またInformaticaのユーザーは自分たちのAPIをApigeeから公開でき、管理もしてもらえる。

Googleと競合するMicrosoftなどは、独自の統合サービスを作っている。Google Cloudのプロダクト管理担当Ed Anuffによると、Googleのロードマップにそれはなかった。彼は曰く、“コネクターの充実したカタログを作るためには、大量のノウハウを必要とする。統合化プラットホームを作るのは簡単でも、アプリケーションのコネクターがなければ何の役にも立たない”。そこでGoogleは、すでに大きなカタログを持ち、エンタープライズ界隈で信頼の厚いパートナーを、探すことにしたのだ。

同様に、Informaticaでビッグデータとクラウドとデータインテグレーションを担当しているVPでGMのRonen Schwartzは、彼の会社の顧客の多くがクラウドへの移行を志向するに伴い、自分たちのサービスをApigeeに持ち込んで、外部のアプリケーションに対してオープンにすることが、より容易になる、という。“今回のパートナーシップにより、両社の良いとこ取りを顧客に提供できる。しかも顧客はそれを、統合化され最適化されたやり方で利用できる”、と彼は語る。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

2017年誕生のKubernetesに特化したCI/CDプラットホームCodefreshが早くもシリーズBで$8Mを調達

Kubernetesのコンテナエコシステムのための継続的インテグレーションとデリバリーのプラットホームCodefreshが今日(米国時間6/27)、MicrosoftのベンチャーファンドM12がリードするシリーズBのラウンドで800万ドルを調達したことを発表した。Viola Ventures, Hillsven, そしてCEIFがこのラウンドに参加し、これで同社の調達総額は1510万ドルになった。

このところ、CI/CDプラットホームは毎日どこかで生まれているようだが、CodefreshはKubernetesへの特化で自己を差別化している。Kubernetesは今や必須かつデファクトスタンダードのコンテナオーケストレーションサービスで、その採用は急速に増えている。Codefreshがやることは、Kubernetesへのアプリケーションのデプロイを助けることによって、“開発時間を最大で24倍はやくする”ことだ。それはあまりにも楽観的な数字だが、Kubernetesを使うアプリケーションの開発にCI/CDが加われば、開発とデプロイの工程がスピードアップすることは確かだろう。

Codefreshの協同ファウンダーでCEOのRaziel Tabibは語る: “Kubernetesの採用が急激に増えているから、ツールチェーンがそれに対応していない。M12は、そのことをよく知っている。今回得られた資金により、弊社のロードマップを加速し、顧客ベースを拡大したい”。

Codefreshのプラットホームがデビューしたのは2017年で、同社によると現在のユーザーは約2万社だ。その中には、Giphyなどもいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MongoDBのGlobal Clustersを利用するとデータの地理的配置が楽にできる

MongoDBAtlasは、クラウド上のマネージドデータベースサービスだ。マネージド(managed, 管理つき)というのは、データベースのセットアップやメンテナンスは全部Mongoが面倒見るので、デベロッパーがそのレベルで苦労する必要はない、という意味だ。今日(米国時間6/27)同社は、このやり方をさらに一歩前進させて、顧客がデータの所在(地理的配置)を細粒度でコントロールできる、Global Clustersと呼ばれる機能を発表した。

これによりユーザー企業はクラウドプロバイダーを自由に選び、そしてAtlasが動くMongoDBのデータベースからは世界のデータのどの位置にも移動できるようになる〔後述〕。MongoDBのCTOで協同ファウンダーのEliot Horowitzの説明によると、クラウドプロバイダーはどこの誰であってもよい。データの位置ポリシーを設定し、クラウドベンダーとデータセンターの場所を選び、その結果をグラフィカルな世界地図(下図)の上で見ることができる。それでOKなら、Mongoがバックグラウンドで自動的にデータを移動し、そのときシャットダウンは不要だ。

Global Clustersのインタフェイス。スクリーンショット提供: MongoDB

今月発効したEUのGDPRに見られるように、多くの国がデータ主権(data sovereignty)の証拠を求める。でも企業がそのような規則に自力でコンプライアンスすることは、難題である。Horowitzによると、彼はAtlasのための地理的パーティションを作ったが、それは技術的にものすごい苦労だった。しかしそれをこのようなサービスとして提供することによって、データのマイグレーションを小企業でもできるようになり、彼らは最初から(データに関し)地理的な粒度を持てることになる。

彼曰く: “圧倒的に数が多いのは小企業だが、彼らも今では、大型のWebサイトと互角に競争できると感じているし、最初からレベルの高いサービスを提供できる。しかもそのために、エンジニアのチームを雇う必要もない”。

Mongoから見てこのやり方が優れているのは、ユーザー企業自身が全世界的なデータセンターを構築しなくてもよいことだ。AWS, Microsoft, Googleなどメジャーなパブリッククラウドプロバイダーがグローバルなロケーションを持っているから、それに乗っかるだけでよい。

“データセンターはクラウドプロバイダーが持ってる、というところがクールだね。ユーザーが必要とするリージョンを持ってるクラウドプロバイダーを、選べばよいのだ”、と彼は言う。

Atlasのユーザーは今日からこの機能を利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google Cloudが古典的ファイルシステムを必要とするアプリケーションのためのストレージオプションを用意

Google Cloud Platform(GCP)のストレージオプションが、新たにまた一つ増える。そのCloud Filestoreと名付けられたサービスは、来月ベータでローンチするが、それは要するに、クラウド上の完全な管理を伴うnetwork attached storage(NAS)だ。これにより、ストレージに対して従来的なファイルシステムのインタフェイスを必要とするアプリケーションを、GCP上で動かせるようになる。

従来のようにストレージの利用インタフェイスとしてオブジェクトストレージやデータベースしかないGCPのような環境で標準的なファイルシステムを使いたければ、それ専用に恒久的に使うハードディスクを使ってファイルサーバーを急ごしらえするしかない。Filestoreはそんな面倒を取り除き、ユーザーが必要に応じて簡単にストレージを確保できるようにする。

Filestoreは、高スループット、低レイテンシー、そして高IOPSを約束している。料金体系はプレミアムとスタンダードの2種、そしてプレミアムは、1GB/月が30セントで、ストレージの容量にかかわらず700MB/sのスループットと30000IOPSを約束する。スタンダードは1GB/月が20セントで、パフォーマンスは容量でスケールし、Filestoreに10TB以上を保存するまではピークパフォーマンスに達しない。

GoogleはFilestoreをロサンゼルスで行われたエンターテインメントとメディア関連のイベントでローンチした。その業界には、共有ファイルシステムを必要とする大量のエンタープライスアプリケーションがあり、またそのような種類のエンタープライスアプリケーションは、他のさまざまな業界にもたくさんある。

Filestoreベータは来月ローンチする。ベータ時点では、アップタイムの約束はなく、またベータを終えるETAもまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、開発者向けAIカメラ “DeepLens” を249ドルで販売開始

昨年11月のre:Inventカンファレンスで、Amazon AWSはDeepLensを発表した。これは開発者向けに作られたもので、視覚に特化した機会学習モデルの開発とプロトタイピングに利用される。同社は数ヶ月前にDeepLensの予約を開始し、今デベロッパーに向けて出荷が始まった。

今日の発売に先駆け、私はシアトルのワークショップでDeepLensのシニアプロダクトマネージャー、Jyothi Nookula、および AmazonのAI担当VP、Swami Sivasubramaniaとともにハードウェアとソフトウェアサービスを体験する機会を得た。

DeepLensは実質的にはUbuntu-/Intel Atomベースのカメラ付き小型コンピューターで、単体でビジュアル機械学習を実行できる能力をもっている。DeepLensは総合性能は約106 GFLPSだ。

ハードウェアは一般的な入出力ポート(Micro HDMI、USB 2.0、オーディオ出力など)を備え、カメラが裏庭でクマを見つけたら警告を送るおもちゃアプリから、工場のベルトコンベアーを監視する産業アプリまでさまざまなアプリのプロトタイプを作ることができる。4 Mピクセルのカメラは何か注目を浴びるものではないがほとんどの用途に十分適している。当然ながらDeepLensは他のAWSサービスと深く統合されている。AWSのIoTサービスであるGreengrassはDeepLensにモデルを配信する際に利用し、Amazonの機械学習モデル構築用最新ツールであるSageMakerとも連携する。

こうした連携は、非常に簡単にカメラを使い始められるのにも役立っている。あらかじめ用意されているモデルを使えば、10分足らずでDeepLensを設定しモデルを組み込んで利用できる。プロジェクトテンプレートの中には、20種類の物体を識別する別体検出モデルや、カメラ画像をゴッホ風に変換するスタイル変換モデルや顔認識モデル、猫と犬を区別するモデル、約30種類の動作(ギターを弾く、など)を認識できるモデルなどがある。DeepLensチームは、頭部の姿勢を追跡するモデルも開発中だ。そうそう、ホットドッグ検出モードもある。

それだけではない。開発チームはワークショップの中で、機械学習の経験がまったくないデベロッパーでも既存のテンプレートを簡単に拡張できることを強調していた。ひとつには、DeepLensプロジェクトが2つの部分からなっているためだろう。モデルおよびモデルの出力に基づいてモデルのインスタンスをアクションを実行するLambda機能だ。AWSは、ベースにあるインフラストラクチャーを管理することなくモデルを簡単に作るためのツールとしてSageMakerを提供している。

DeepLensのハードウェアは実質的に小さなコンピューターなので、それ自身でさまざまな開発が可能だが、おそらくもっと強力なマシンで開発してからAWSコンソールを使ってDeepLensに転送する方がいいだろう。それでもDeepLensを低性能デスクトップマシンとして使いたいという人のために、Ubuntu 16.04がプレインストールされている。

機械学習のフレームワークに慣れているデベロッパーなら、DeepLensを使うとCaffe、TensorFlow、MxNetなどほぼすべての人気ツールから簡単にモデルをインポートできる。またAWSチームはMXNetモデルをDeepLensデバイスでより効率よく動作するための最適化ツールも作ったことも報告しておく。

ではなぜAWSはDeepLensを開発したのだろうか? 「DeepLensカメラを作った理由は、われわれが自身に問いかけたある単純な疑問にあった:機械学習もデベロッパー全員の手に届けるにはどうすればよいか?」とSivasubramanianは言う。「ブレーンストーミングを重ねた結果、最も有望な発見は、デベロッパーは実際にデバイスに手を触れて開発するのが大好きだというアイデアだった」。しかしなぜAWSはパートナーと協力するのではなく独自にハードウェアを作ったのか?「われわれには具体的な顧客体験のアイデアがあり、すべての体験が本当に簡単であることを確かめたかったからだ」と彼は言った。「このハードウェアを買って、Amazonからこのツールをダウンロードして、などと言っていると環境が揃うの2~3日かかってしまう。それでは、ディープラーニングを学んで何か楽しいものを作ろうとワクワクしている人にとっては長すぎる」

そういうわけで、、これから機械学習を使ったプロジェクトを始めたい人は、DeepLensをAmazonから購入できる。249ドルは安くはないが、すでにAWSを使っていて——しかもすでにLambdaも使っていれば——おそらく簡単に機械学習アプリケーションを作り始めることができるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、ビジネスアプリ開発ツール “App Maker”を正式提供

GoogleがApp Makerを発表してから1年半がすぎた。ウェブ上でビジネスアプリを開発・配信するためのオンラインツールだ。以来同社はApp Makerについてほぼ沈黙を守り、プライベート・プレビュ状態が続いていたが、今日(米国時間6/14)、同サービスの試用を希望するデベロッパー全員に公開することを発表した。

App Makerを利用できるのは、G Suite BusinessまたはEnterprise、およびG Suites for Educationの定期契約ユーザーだ。基本的な考えは組織内のあらゆる人——プログラミング経験のほとんどあるいは全くない人を含む——が、G Suite、GoogleのCloud SQLデータベース、 その他JDBCに対応するあらゆるデータベース、あるいはREST API(これは少々高度な技術を要するが)を提供するデータベースに基づく業務アプリを開発できるようにすることだ。

  1. App-Maker-Image-3

  2. App-Maker-Image-1

  3. App-Maker-Image-2

これを実現するために、App Makerはユーザーにコードをほとんど書かなくてすむローコードアプリケーション開発環境を提供し、ドラッグアンドドロップで直感的にアプリケーションを作れるようにした。データベース接続の環境設定には多少作業が必要だが、それができればデザイン部分はかなり簡単だ——そして、レスポンシブテンプレートのおかげで最終的なアプリはスマートフォンでもデスクトップでも動作する。

多くのアプリケーションはデータベースを利用することになるだろうが、Gmail、Google Calendar、Sheetsなどのデータソースも利用できることは注目に値する。App Makerは全部で40種類のGoogleサービスをアクセスできる。他社のローコードサービスであるMendix、K2やMicrosoftのPowerAppsなどと異なり、GoogleのApp MakerはGoogle自身のサービスにほぼ特化しており、Salesforceなどのサードパーティーサービスとの接続機能は提供されていない。もちろんApp Makerがプレビューを終えた今、Googleがさらに多くの機能を追加していく可能性はある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Dockerは複数のクラウドにまたがるコンテナの連合的管理をDocker EEで提供

2013年に急に頭角を現したDockerは、その後のコンテナの普及の中心的な勢力になった。さらにその後Kubernetesが、コンテナ化されたアプリケーションのデリバリーを制御する(オーケストレーションする)ツールとして登場したが、Dockerは、同社が追究する純粋なコンテナのデプロイと、それらツールとの間にギャップを感じていた。今サンフランシスコで行われているDockerConで同社はDocker Enterprise Editionの次のリリースを発表し、そのギャップを埋めようとしている。

Dockerのチーフプロダクトオフィサー(CPO) Scott JohnstonによるとDocker Enterprise Editionに新たに導入された連合的(federated)アプリケーション管理機能により、オペレーションは複数のクラスターを管理でき、それらのクラスターはオンプレミスでも、クラウド上でも、そして複数のクラウドプロバイダーに散在していてもよい。この連合的アプリケーション管理は、アプリケーションがどこにあってもよく、そして三大クラウドプロバイダーのマネージドKubernetesツール、Azure AKS, AWS EKS, Google GKEをサポートする。

Johnstonによると、コンテナのデプロイは問題の最初の部分にすぎない。アプリケーションをデプロイするときには、Kubernetesなどオーケストレーションツールの外にも多くの問題が存在する。“そこで、DockerフォーマットのコンテナとKubernetesやComposeのデスクリプションファイルでコンテナのポータビリティは得られるが、いったんそれらがひとつの環境へ上陸すると、その環境独自のデプロイスクリプトやセキュリティモデル、ユーザー管理などがある。だからアプリケーションがポータブルでも、それらのアプリケーションのアプリケーション管理はそうではない”、と彼は説明する。

彼によると、これによって、さまざまなデプロイメントツールが新たなレベルの複雑性を持ち込む。それらは、コンテナの使用によって排除されるはずだった複雑性だ。この問題は、複数のクラウドにデプロイするときにとくに顕著だ(ときにはオンプレミスでも)。オペレーションチームが自分たちの仕事であるロードバランシングやセキュリティ、テストなどの仕事に取り組むときは、環境によって異なることのない、一貫したやりかたで行いたい。そこでJohnstonによれば、複数の環境を一箇所で管理できる場所をDocker EEが作り出し、すべてのアプリケーションとデータとインフラストラクチャを統一的に管理するという、クラウドネイティブの目標を達成する。

この連合的アプリケーション管理に加えてDockerは、Kubernetes for Docker Enterprise Edition上のWindows Serverコンテナを発表した。Linuxコンテナのサポートは、昨年発表している

そして同社は、技術系でない社員でも、コマンドラインでなくグラフィカルな画面のガイドに従って容易にデプロイができるよう、Dockerのデプロイメントにテンプレートベースの方式を導入した。

連合的アプリケーション管理は、今年後半にベータが始まる。Windows Server Containersは、Docker Enterprise Editionの次のリリース(今年の終わりごろ)に含まれ、Templatesは、今年の終わりごろのDocker Desktop Betaで提供される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Sumo Logicのアプリケーションモニタリングとリアルタイムデータ分析がコンテナをサポート

アプリケーションの状態をリアルタイムで分析するSumo Logicの長年の目標は、顧客企業のデータの理解を助けることだ。そのデータが、どこに潜んでいても。しかしコンテナの時代になると、コンテナは本質的に短命だから、その目標がさらに難しい。そこで同社は、にもかかわらず、コンテナ化されたアプリケーションでも扱えるように、プロダクトの強化を発表した。

その新しい機能は、DockerのユーザーカンファレンスDockerConで披露された。このイベントは今週、サンフランシスコで行われている。

SumoのCEO Ramin Sayerによると、コンテナの定着は、DockerとKubernetesがメインのツールとして使われるようになった12〜18か月前から始まった。その人気を見て、Sumoは自分たちもコンテナに対応したい、と考えた。“DockerとKubernetesは圧倒的にスタンダードなツールとして新旧大小あらゆるショップで、新しいアプリケーション開発や既存のオンプレミスアプリケーションのクラウドへの移行、あるいはワークロードをベンダーAからBへ容易に移行できるようにするために、利用されている”、と彼は語る。

もちろん彼は間違っていない。コンテナとKubernetesは1年半前ぐらいから大々的な離陸が始まり、デベロッパーもオペレーションもどちらも、それらの理解と採用に奮励努力してきた。

“しかしそれらの利用が標準化してきたために、その扱い方もわかりやすくなってきた。そしてコンテナの扱い方が分かってくると、コンテナ化アプリケーションのベンチマークも提供できるようになった”、とSayerは説明する。

同社はそれを、エージェントを使わずにやろうとする。アプリケーションがVMで動こうが、コンテナで動こうが、どこで動いても、Sumoはデータを捕捉して、ユーザー自身には困難だったフィードバックを届ける。

スクリーンショット提供: Sumo Logic(トリミングした)

同社はKubernetesとAmazonのElastic Container Service for Kubernetes(Amazon EKS)をネイティブでサポートする。Kubernetesのユーザーお気に入りのオープンソースのモニタリングツールPrometheusもサポートする。Sumoの目標は、顧客が問題を早く修復し、ダウンタイムを減らすことだ。

こういう新しいテクノロジーを揃える中で重要になってくるのが、顧客への周知と教育だ。“顧客にはガイドを提供し、ベストプラクティスや使い方のコツを教える。彼らがやってることだけでなく、Sumoのほかの顧客との比較も提供している”、と彼は語る。

Sumo Logicは2010年に創業され、これまでに2億3000万ドルを調達してきた(Crunchbaseによる)。最近のラウンドは、昨年6月にSapphire Venturesがリードした7000万ドルのシリーズFだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ソフトウェア定義WANの最適ルーティングを自動的に行う新技術を提供するModeがステルスを脱し$24Mを調達

今日(米国時間6/7)、GVとNEAからの総額2400万ドルの資金調達を発表してステルス状態を脱したサンフランシスコのModeは、彼ら独自のソフトウェア定義コアネットワーク(software-defined core network, SD-CORE)と呼ばれる新しいやり方で、ソフトウェア定義ワイド・エリア・ネットワーク(SD-WAN)を構築する。彼らによると、それによってこれらのネットワークの運用費用が従来方式に比べ大幅に削減される。

同社のビジョンは、CEOのPaul Dawesによると、プライベートネットワークを従来の方法に比べてきわめて迅速に、そして相当な低料金で立ち上げることだ。

“MPLSのような、従来のハードウェアによるプライベートネットワークは、信頼性を保証するが伸縮性がなく、管理が困難で、費用も高い。ModeのCoreはSD-WANを強化するために作られ、ルーティングの効率に関する弊社の画期的な技術を利用して、MPLSのようなパフォーマンスと信頼性の高いネットワークを、柔軟性と伸縮性とクラウドサービスのお手頃なお値段で提供する”、とDawesは声明で述べている。

同社によると、そのネットワーク技術を有利に利用できるユースケースとしては、対話的ストリーミングやマルチプレーヤーゲーム、リアルタイム機械学習、リモートのコマンドとコントロールなどが挙げられる。

同社は、コーネル大学の二人の研究者Kevin TangとNithin Michaelの画期的な研究をベースに創業された。彼らは、これまで不可能とされていた、ネットワークのトラフィックを数学的に表す方法を見つけた。“Michaelは、パケット交換ネットワークの動作を数学的に記述する方法を初めて考えついた”、とDawesは説明する。

そしてそれによって、ネットワークの各ノードの上のトラフィックを自動的にルーティングする方法を、ソフトウェアで定義できるようになった。“パケットのルーティングの仕方を人間がいちいち介入していじる必要がなくなった”、と彼は述べる。そしてそれができるようになると、従来の複雑で高価なソリューションも不要になる。

それは、ネットワーキングの理論家たちの注意を集めただけでなく、投資家たちもそこに大きなビジネス機会を見出した。“ネットワーキングの問題に詳しい数社のVCがやってきて、その技術の製品化を勧めた”、と彼は語る。NEAが830万ドルのシリーズAのリード投資家になり、米国科学財団(NSF)の助成金も下りた。最近では1600万ドルのシリーズBを調達し、計2430万ドルの調達総額になった。

通信企業ではない彼らはMode Coreを作ってEricsson UDNなどおよそ100社とパートナーし、同社のネットワーキングパワーを提供した。いわば同社のプロダクトは、ワイド・エリア・ネットワーク(WAN)のためのクラウドサービスのようなもので、ユーザー企業は同社の高度なネットワーキング技術に、プライベートなWANよりもむしろ企業のインターネット利用のような低料金でアクセスできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS Lambdaのサーバーレスのコードをライブ(実動時)でデバッグできるRookoutのデバッグツール

AWS Lambdaのようなサーバーレスコンピューティングサービスの良いところは、サーバーそのものを抽象化してしまうことだ。それによってデベロッパーは、下層にあるインフラストラクチャのことを気にせずにアプリケーションを作れるが、しかしいくつかの問題も生じている。静的なサーバーが目の前になければ、プログラムをどうやって実動状態でデバッグするのか? イスラエルのRookoutは、その最新のリリースでこの問題を解決した。

同社はこれを、サーバーレスのコードに“ブレークポイント”をマークすることによって実現した。それによりRookoutは、サーバーレスのコードに関するデベロッパーが定義した情報を集めることができ、アプリケーションがサーバーレスの環境で実際に動いているときでも、問題を調べることができる。

こういう‘トレース’と呼ばれる機能は、従来のアプリケーションのデバッグでよく使われるが、サーバーレスのアプリケーションではかなり難しい。それは、アプリケーションがその上で動いている恒久的なマシンがそこにないからだ、とRookoutのCEO Or Weisは語る。

Rookoutのサーバーレスデバッガー。画面下部の情報がAWS Lambdaの上で動くデバッグコードのインサイトをデベロッパーに与える。写真提供: Rookout

“すなわちサーバーレスでは、ソフトウェアが新しい環境ではどう動くかを予測するのがきわめて難しい。そもそも、ソフトウェアが実際にどこで動いているのかわからないし、だからプロダクションの段階でどう動くかも、ほとんど予測できない”、とWeisは述べる。

彼によると、これまでの唯一の方法は、コード中にログライン(ログ出力行)とSDKの呼び出しをたくさん書くことだったが、そうするとそれらの管理がまた難作業になるので、Rookoutとしては最初からそれは避けたかった。むしろ同社は、コード中で起きていることが分かる/見られるためのインタフェイスを提供することによって、デベロッパーがサーバーレスの環境で動いているライブのコードを、従来のアプリケーションのデバッグと同じやり方でデバッグできるようにした。

そのインタフェイスから得られる情報は、既存のアプリケーションパフォーマンス管理ツール(New Relicなど)や、Splunkのようなログ管理ツール、PageDutyのようなアラートツールなどと共有できる。あるいはそれらの情報から直接、コードの問題を発見してフィックスすることが、できる場合もある。

サーバーレスコンピューティングはサーバーがないという意味ではないが、アプリケーションを動かす専用のサーバーはない。ベンダーが提供するのはサーバーではなく、アプリケーションが発するイベントトリガーに対応する、必要なだけのサーバーリソースだ。イベントが起きるとそのコードが動き、それに対し顧客は課金される。サーバー本体を割り当ててその上でアプリケーションを動かし(動かさなくても!)料金を払う、という従来の開発方式とは、極端に対照的だ。サーバーレスでもコードを動かすのはサーバーだが、それはベンダーのものなのでユーザーは課金されない。ユーザー(デベロッパー)が課金されるのは、起きたイベントに対して実際にコードを動かしたぶんだけだ。

__

Rookout Lambdaデバッガーのデモビデオ:

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS Lambdaのサーバーレスのコードをライブ(実動時)でデバッグできるRookoutのデバッグツール

AWS Lambdaのようなサーバーレスコンピューティングサービスの良いところは、サーバーそのものを抽象化してしまうことだ。それによってデベロッパーは、下層にあるインフラストラクチャのことを気にせずにアプリケーションを作れるが、しかしいくつかの問題も生じている。静的なサーバーが目の前になければ、プログラムをどうやって実動状態でデバッグするのか? イスラエルのRookoutは、その最新のリリースでこの問題を解決した。

同社はこれを、サーバーレスのコードに“ブレークポイント”をマークすることによって実現した。それによりRookoutは、サーバーレスのコードに関するデベロッパーが定義した情報を集めることができ、アプリケーションがサーバーレスの環境で実際に動いているときでも、問題を調べることができる。

こういう‘トレース’と呼ばれる機能は、従来のアプリケーションのデバッグでよく使われるが、サーバーレスのアプリケーションではかなり難しい。それは、アプリケーションがその上で動いている恒久的なマシンがそこにないからだ、とRookoutのCEO Or Weisは語る。

Rookoutのサーバーレスデバッガー。画面下部の情報がAWS Lambdaの上で動くデバッグコードのインサイトをデベロッパーに与える。写真提供: Rookout

“すなわちサーバーレスでは、ソフトウェアが新しい環境ではどう動くかを予測するのがきわめて難しい。そもそも、ソフトウェアが実際にどこで動いているのかわからないし、だからプロダクションの段階でどう動くかも、ほとんど予測できない”、とWeisは述べる。

彼によると、これまでの唯一の方法は、コード中にログライン(ログ出力行)とSDKの呼び出しをたくさん書くことだったが、そうするとそれらの管理がまた難作業になるので、Rookoutとしては最初からそれは避けたかった。むしろ同社は、コード中で起きていることが分かる/見られるためのインタフェイスを提供することによって、デベロッパーがサーバーレスの環境で動いているライブのコードを、従来のアプリケーションのデバッグと同じやり方でデバッグできるようにした。

そのインタフェイスから得られる情報は、既存のアプリケーションパフォーマンス管理ツール(New Relicなど)や、Splunkのようなログ管理ツール、PageDutyのようなアラートツールなどと共有できる。あるいはそれらの情報から直接、コードの問題を発見してフィックスすることが、できる場合もある。

サーバーレスコンピューティングはサーバーがないという意味ではないが、アプリケーションを動かす専用のサーバーはない。ベンダーが提供するのはサーバーではなく、アプリケーションが発するイベントトリガーに対応する、必要なだけのサーバーリソースだ。イベントが起きるとそのコードが動き、それに対し顧客は課金される。サーバー本体を割り当ててその上でアプリケーションを動かし(動かさなくても!)料金を払う、という従来の開発方式とは、極端に対照的だ。サーバーレスでもコードを動かすのはサーバーだが、それはベンダーのものなのでユーザーは課金されない。ユーザー(デベロッパー)が課金されるのは、起きたイベントに対して実際にコードを動かしたぶんだけだ。

__

Rookout Lambdaデバッガーのデモビデオ:

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのBIツールQuickSightがセッション課金制を導入して気軽な利用を促進

Amazon AWS上のビジネスインテリジェンスツールQuickSightは2015年にローンチしたが、しかし競争の激しいBI市場にこのサービスが与えたインパクトを量るのは難しい。でも同社にこのプロジェクトをギブアップする気配はなく、今日はQuickSightのダッシュボードのセッションあたりの課金という、新しい料金プランを導入した。それは明らかに、TableauやMicrosoftのPower BIが大きなマインドシェアを握っている市場に、食い込む努力の一環だ。

この新しい料金プランでも、ダッシュボードの作成と発行に関しては一人あたり月額18ドルのままだ。しかしダッシュボードの内容を読んで利用する者は、1セッションあたり30セントを払い、最大月額が一人あたり5ドルになる。1セッションの定義は、ログインしてから最初の30分のことだ。

それまでのQuickSightの料金プランは、一人あたり月額9ドルのスタンダードプランと、Active Directoryと保存時の暗号化がサポートされる24ドルのエンタープライズプランの二種類だった。

月額9ドルのプランは今後も残り、ダッシュボードを作る人と利用する人が同一人物であることの多い小企業にはこれで十分だろう。今回の新しい料金プランは、既存のエンタープライズプランと併存せず、それを置換する。

QuickSightはすでに、Tableauなどに比べるとかなり低料金だったが、しかしその機能の揃いぐあいについては、評価が低かった。今度のセッションあたりの料金制は、安売りをさらに強調するだけだ。

AWSでQuickSightを担当するVP Dorothy Nichollsは、今日のコメントでこう述べている:

“Amazon Simple Storage Service(Amazon S3)が提供するスケーラビリティの優れたオブジェクトストレージや、従来のソリューションの1/10の費用で利用できるデータウェアハウジングサービスAmazon Redshift、そしてAmazon Athenaが提供するサーバーレスのアナリティクスにより、AWSは、かつてなかったほどのペースで、顧客がデータを保存し利用する場所になりつつある。そしてそれにより、知識労働者たちのほぼ全員が、それらのデータと、そこから得られるインサイトへの、容易なアクセスを求めるようになっている。それは、ほとんどの企業における近年の大きな変化だ。企業が全社にわたってそのような要求を満たすことは、かつては費用的に不可能だったが、Amazon QuickSightのこのたびのセッション課金制により、情報とアナリティクスへのアクセスが、新しい時代を迎えようとしている”。

QuickSightの現在のユーザーの中には、NFL, Siemens, Volvo, AutoTraderなどがいる。

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSのグラフデータベースNeptuneが一般公開、既存の主要なグラフAPIもサポート

AWSが昨年のre:Inventカンファレンスで紹介したグラフデータベースNeptuneが、今日(米国時間5/30)から一般公開された。それはあのとき発表された数十ものプロジェクトのひとつだから、思い出せない人がいても不思議ではない。

NeptuneはTinkerPop GremlinSPARQLのグラフAPIをサポートしているので、いろいろなアプリケーションと互換性がある。AWSによるとこのサービスはエラーから30秒以内に復旧し、99.99%の可利用性を約束する。

AWSでデータベースとアナリティクスと機械学習を担当しているVP Raju Gulabaniは次のように語る: “世界がますます接続された世界になるに伴い、互いに接続された大きなデータセットをナビゲートするアプリケーションが顧客にとってますます重要になる。そういう時期に、スタンダードなAPIを使って何十億もの関係性を数ミリ秒でクェリできる高性能なグラフデータベースサービスを提供できることは、たいへん喜ばしい。これにより多くのデベロッパーが、高度に接続されたデータセットを扱うアプリケーションを容易に作って動かせるようになるだろう”。

Neptuneに好適なアプリケーションといえば、ソーシャルネットワーク、リコメンデーションエンジン、不正行為検出ツール、エンタープライズのインフラストラクチャの複雑なトポロジーを表現しなければならないネットワーキングアプリケーションなどだ。

Neptuneにはすでに、有名企業のユーザーがいる。それらは、Samsung, AstraZeneca, Intuit, Siemens, Person, Thomson Reuters, そしてAmazon自身のAlexaチームなどだ。AlexaのディレクターDavid Hardcastleが、Neptuneの発表声明の中でこう述べている: “Amazon Neptuneは、Alexaの数千万の顧客のためにAlexaの知識グラフを継続的に拡張していくための欠かせないツールキットだ。今日はその正式スタートの日だが、これからもAWSのチームと協力してさらに良いユーザー体験を顧客に提供していきたい”。

今このサービスは、AWSのU.S. East(N. Virginia), U.S. East(Ohio), U.S. West(Oregon), EU(Ireland)の各リージョンで利用できる。そのほかのリージョンでも、今後随時提供されていく予定だ。

・関連記事: Amazon、re:inventカンファレンスでグラフDB、Neptune発表

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ベアメタルでプライベートクラウドを提供するPacketがPlatform 9やDateraとパートナーして構成を充実

ベアメタルのクラウドプロバイダーPacketが今日(米国時間5/22)、オープンソースのハイブリッドクラウドスペシャリストPlatform9およびストレージとデータ管理サービスDateraとパートナーして、新しいプライベートクラウドソリューションをローンチした。それは、自分のプラットホームをもっと強力かつ広範にコントロールしたいと願う企業をターゲットとする。しかもPacketによると、この新しいソリューションはパブリッククラウドのソリューションを使う場合に比べて50%の費用節約を実現する。

PacketのCEO Zac Smithはこう述べる: “パブリッククラウドのような洗練されたユーザー体験を提供するとともに、それらよりもずっと多い選択肢と大きなパフォーマンスを提供したい。Packetのマネージドベアメタルに、DateraやPlatform9のような強力なマーケットリーダーが組み合わされば、これまでのパブリックやプライベートのクラウドソリューションの数分の一のコストでサービスを提供できる”。

Packetがとくに注目してほしいと言うのは、Platform9自身が最近AWSからマイグレートしたことだ。同社によると、パブリッククラウドというモデルには制約が多く、またその課金とデリバリのモデルも複雑なため、Platform9はもっと緑の多い草原を求めたのだ、という。

ここ数か月で二件の例があったが、小さなクラウドプロバイダーたちがチームを組んで独自のソリューションを提供し、AWSやAzure、Google Cloudなどと互角に競合しようとしている。先月PacketはBackblazeおよびServer Centralとパートナーして、BackblazeのクラウドストレージサービスB2〔低コストなバックアップストレージが売り〕をそのメニューに加えた。

Packetによると、この新しいソリューションは全世界18箇所で可利用となる。同社のOpenStackおよびKubernetesプロダクトも、同様である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dropboxの最新アップデートでモバイル上のコラボレーションがとてもスムーズに

Dropboxが今日(米国時間5/22)発表したアップデートで、モバイルからの利用機能が強化され、外回りの社員がDropboxに保存されているファイルの変更に追従しやすくなった。

典型的なユースケースを挙げると、チームで共有しているファイルについて、AさんがBさんの意見や承認を求めている、とする。Bさんがそれをちゃんとやってくれたか知りたいときには、メールやテキストメッセージを使う。これでは、なめらかなワークフローとは言えない。

そこでDropboxの最新のモバイルアプリでは、メールなどほかのアプリを使わなくても、Dropboxアプリの中で、誰がそのファイルを見たか、誰が何をやったか、などが分かる。

またファイルのレビューを求めるときも、通知が相手のホーム画面に出るから、メールなどを見る必要がない。

写真提供: Dropbox

DropboxのプロダクトマネージャーJoey Loiによると、チームメンバーのいろんなアクティビティがDropboxの中ですべて分かるから、すっきりとしたワークフローになる。“今回のアップデートでは、コラボレーションのループがDropbox内で完全に閉じることを考えた。コラボレーションとは要するにフィードバックのフローだから、Dropboxの外へ出なくても最後まですべてのフィードバックができる、ということだ。ぼくがファイルのどこかを変えたら、同僚はすぐにその変更が分かる”、とLoiは説明する。つまり、フィードバックループが閉じるのが早い。ループの形もシンプル。

また今度からは、頻繁に開いているファイルはホーム画面の上部に、Google DriveのRecentsのように出るから、仕事の流れがワンステップ早い。また、頻繁にアクセスするファイルをDropboxのリストの上部に集めることもできる。今の仕事で使っているファイルを、いちいち探さなくてもよい。

そして、メールで送ってきたファイルをドラッグ&ドロップでDropboxに入れることが、モバイルでもできるようになった。

ひとつひとつはどれも些細な変化だけど、これでモバイルのDropboxでファイルを扱うことが、ずいぶん楽になる。Loiはこう言う: “モバイル上でチームのコラボレーションを円滑にすることに、とくに配慮した”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コンテナを軽量VMで隔離するKata Containersがついにv1.0をリリース

OpenStack Foundationがホストする初めてのOpenStack以外のプロジェクトKata Containersの、バージョン1.0が今日(米国時間5/22)ローンチされた。それはコンテナのワークロードを隔離して動かすためのシステムで、元々IntelとHyperにそれぞれあった類似のプロジェクトをマージしたプロダクトだ。デベロッパーはKata Containersを使って、DockerやKubernetesをベースとするコンテナに、従来の仮想マシンのようなセキュリティと隔離機能を持たせることができる。

そのためにKata Containersは、各コンテナにきわめて軽量な仮想マシン(VM)を実装し、ハードウェアレベルの隔離を与えるが、ただしそれによる大きなオーバヘッドは生じない。そしてコンテナの標準的な定義に合わないように見えるKata Containersは、実はOpen Container Initiativeの仕様やKubernetesのコンテナランタイムインタフェイスと互換性がある。これをサービスとしてホストするのはOpenStack Foundationだが、Kata Containersは使用するプラットホームやアーキテクチャを特定しない。

IntelとCanonicalとRed Hatが、このプロジェクトの財政的サポートを表明しており、また99cloud, Google, Huawei, Mirantis, NetApp, SUSEなど多くのクラウドベンダーたちも支援を発表している。

このたびv1.0がリリースされたことにより、Kataのコミュニティは、このIntelとHyperの合作技術がついにプロダクション用途にまで成熟したことをシグナルしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OpenStackがオープンソースのCI/CDプラットホームZuulを切り離して独立化

OpenStackほど複雑なオープンソースプロジェクトはほかにないと思われるが、これは要するに、AmazonのAWSのような総合的なクラウドコンピューティング環境を、企業が自分のデータセンターの(主としてプライベートな)インフラストラクチャとして装備するためのシステムだ。それを構成するさまざまなサブシステムを作るためにチームは、独自のDevOpsツールを作らざるをえなかった。2012年には、その一環として、オープンソースの継続的インテグレーションとデリバリ(CI/CD)プラットホームZuulを作った。そしてこのほど、Zulu v3のリリースを契機に、ZuluをOpenStackから切り離して独立のプロジェクトにした。でもOpenStackのエコシステムを去るわけではなく、依然としてそれは、OpenStack Foundationがホストするツールだ。

構造をざっと展望すると、OpenStack Foundationは一種の母体的組織であり、その傘下のメインプロジェクトとしてOpenStack本体のほかに、昨年おそく登場したKata Containersと、今回のZuulがある、という構造になる。すなわちOSFは近年、本体OpenStackのほかに、関連のインフラストラクチャプロジェクトも揃えよう、としているのだ。

Zuulはデベロッパーたちに、プロジェクトに新たな変更を加えようとするときの、コードのマージ、ビルド、そしてテストの工程を自動化するシステムを提供する。サポートする開発プラットホームはかなり幅広くて、GitHubや、コードレビューとプロジェクト管理のツールGerritなどもサポートしている。

Zuulの現在のコントリビューターは、BMW, GitHub, GoDaddy, Huawei, Red Hat, そしてSUSEだ。BMWのソフトウェアエンジニアTobias Henkelは語る: “ソフトウェアプロジェクトがCD/CIを幅広く採用することは、高品質なソフトウェアをタイムリーにデリバリするための基盤だ。それにより、個々のコミットチェックからフルリリースに至るまでの、開発サイクルの重要な部分を、すべて自動化できる。弊社BMWのCI/CDチームは、Zuulコミュニティの一員であることを誇りとし、オープンソースのZuulプロジェクトの積極的なコントリビューターであり続けたい”。

Zuulがスピンオフして独立した今の時期は、CI/CDに関して選択肢がとても多くなっている。GoogleとNetflixはオープンソースのSpinnakerで、Zuulと同様の機能を提供しようとしているし、またJenkinsとその類似プロジェクトたちも依然として強い。これらに対してZuulは、大規模で複雑な開発プロジェクトをうまく扱えるmulti-repo gatingマルチリポジトリ・ゲーティング)機能の有利性を強調している。

今カナダのバンクーバーで、これらのオープンソースプロジェクトの代表者たちによるOpenDevカンファレンスが行われており、そこでOpenStack Summitも併催されているので、数日〜数週間後にはこれらのプロジェクトすべてに関するより詳しい情報が出てくることだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWSの仮想マシンサービスEC2にローカルなNVMeストレージが付随するインスタンスが登場

AWSの仮想サーバーEC2は、そのオプションが日に日に増えている。今日(米国時間5/18)加わった新しい仮想マシンは、ローカルなNVMeストレージによって、標準的なSSDよりも相当速いスループットを提供する。

このC5dと呼ばれる新しいインスタンスは、このサービスがすでに提供している、コンピュート(処理能力)優先で最適化されているC5インスタンス群の仲間に加わる。AWSはC5について、ハイパフォーマンスコンピューティングのワークロードやリアルタイムのアナリティクス、マルチプレーヤーゲーム、ビデオエンコーディングなどのユースケースに適する、としているが、今回高速ストレージのオプションが加わったことによって、さらなるパフォーマンスの向上が望めるだろう。

そのローカルストレージは仮想マシンに付随するので、インスタンスが停止したらそれも終了する。だから長期的なストレージではなくて、一時的なファイルの保存に向いている。

C5とC5dのインスタンスは共に、同じプラットホーム、3.0GHz Intel Xeon Platinum 8000プロセッサーを共有する。

この新しいインスタンスは今、アメリカとカナダのリージョンで利用できる。料金は通常のC5インスタンスよりやや高くて、オレゴン州のリージョンではもっともベーシックなRAM 4GBのマシンで1時間$0.096からだ。通常のC5マシンは、1時間$0.085からだ。

なお、FPGAを使用できるF1インスタンスも、NVMeストレージを提供している。それらは非常に高度な専用マシンで、C5のような一般的なデベロッパー向けではない。

AWSは今日のNVMeインスタンスの発表と並行してEC2のベアメタルインスタンスの一般公開についても言及した。これらの仮想マシンはその下の物理マシンへのダイレクトアクセスを提供し、仮想マシンだけでは要求を満たせないアプリケーションに理想的な運用環境を提供する〔関連記事〕。またコンテナのクラスターの安全な稼働にも適している。これらベアメタルインスタンスも、NVMeストレージをサポートしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa