CircleCIの継続的インテグレーションをMicrosoftのプログラマーが初めて採用

CircleCIはかなり前からLinuxやMacのプログラマー向けに継続的インテグレーションのサービスを提供しているが、しかしこれまで、Microsoftのデベロッパーは蚊帳の外だった。しかし米国時間8月7日から同社は、Windows Server 2019を使っているMicrosoftのデベロッパーをサポートすることになった。

先月5600万ドル(約59億4500万円)のシリーズDを発表したCircleCIは当然、そのマーケットリーチを拡張する道を常時探しているはずだが、Microsoftのプログラマーをサポートすることになったのは、背後の市場が大きいという意味で同社にとって幸先がいい。

CircleCIのWindows担当プロダクトマネージャーであるAlexey Klochay(アレクセイ・クロチャイ)氏は「Windowsのサポートを発表できることは、とても嬉しい。顧客も、それを求めていた。Stack Overflowの今年初めの調査によると、ソフトウェア開発市場の40%をWindowsが占めているんだ」と述べている。

Microsoftのプログラマーたちは、これまでもCircleCIのような専門サービスに頼らずに継続的インテグレーションをやっていたが、それは相当困難だった。同氏によると、CircleCIならもっと総合的なソリューションを提供できる。まず、デベロッパーはエンジニアの助けを借りずに自力でCI/CDの流れを運用できる。「デベロッパーが自力で、自分たちのペースで、やりたいことができる。何かに縛られることもない。うちのサービスはとても使いやすいし、メンテナンスも楽だ」と彼は説明する。

CircleCIは、開発チームの全体に大きな可視性を提供する。「誰が今何をやっているのか、各人がシステムと今どんな対話をしているのか、それを一望にできる」とクロチャイ氏は語る。

その使いやすさには、昨年リリースされたWindows Server 2019のさまざまな改良も大きく貢献している。「最新のWindows Serverに導入された変化によって、1年前だったらありえなかったほど、円滑な仕事ができるようになった」とクロチャイ氏。

CircleCIのNathan Dintenfass(ネイサン・ディンテンファス)氏によると、一般的にMicrosoftの最近のエコシステムは、CircleCIがデベロッパーに提供しているアプローチを歓迎するような方向性に変わってきた。「我々はWindowsのエコシステムの成熟を目撃し、ソフトウェアのデリバリの自動化とスループットの向上に投資している彼らのチームに、前よりも引かれている。またそれと同時に、Windowsを提供している彼らのクラウドインフラストラクチャも成熟してきたから、我々のオペレーションも相当楽になっている」と同氏は語る。

関連記事
CircleCI closes $56M Series D investment as market for continuous delivery expands(継続的デリバリのCircleCIがシリーズDで5600万ドルを調達、未訳)
デベロッパーがデプロイの面倒から解放されるソフトウェア開発モデル(CircleCIのデベロッパーが関与)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

サーバーレスやコンテナなど多様な実行環境でライブデバッグを提供するRookout

サーバーレスコンテナなど、さまざまな環境のためにデバッグサービスを提供しているRookoutは米国時間8月7日、シリーズAで800万ドル(約8億5000万円)の資金を獲得したと発表した。その資金は、デバッグ以外の新しい分野の開拓に当てられる予定だ。

このラウンドはCisco Investmentsがリードし、従来の投資家TLV PartnersとEmergeが参加した。またGitHubのCEOであるNat Friedman(ナット・フリードマン)氏やLaunchDarklyのCTOで共同創業者のJohn Kodumal(ジョン・コデュマル)氏、Codecovの収益担当副社長であるRaymond Colletti(レイモンド・コレッティー)氏らも参加した。

Rookoutの共同創業者でCEOのOr Weis(オー・ウェイス)氏は「Rookoutは創業の時点から、すべてのプラットホームにプロダクションレベルのデバッグサービスを提供している」と語る。そして彼の言うすべてのプラットホームとは、AWS Lambdaのようなサーバーレスの環境やコンテナとKubernetesの環境、Google App EngineやAWSのElastic BeanstalkのようなPaaS環境などのことだ。

同社は単純にデバッグサービスを提供するだけでなく、バグが起きているプラットホーム内部への可視性も提供する。バグは基本的に短命な現象だから、その可視化はかなり難しい技術だ。声明でウェイス氏は「昨年我々は、顧客がRookoutのコードレベルのデータ収集機能のまったく新しい利用方法を見つけていることを発見した。そこで我々は、弊社のコードレベルの観察機能とパイプラインの多様な使われ方に対応し、それらをサポートし、強化する必要性に迫られた」とコメントしている。

ここで特に印象的なのは、Ciscoのような古参のベテラン企業がRookoutへの投資に積極的に関わっていることだ。Ciscoのグローバル企業開発担当副社長であるRob Salvagno(ロブ・サルヴァグノ)氏はRookoutのデベロッパーフォーカスを賞賛して声明中で「デベロッパーはエンタープライズのIT関連支出の鍵を握っている。Rookoutを利用すると再デプロイせずにオンデマンドでデータを収集できるから、同社のそのようなデベロッパー中心型のソフトウェアはプロダクションレベルの面倒なデバッグを単純化し、デベロッパーの効率性を増し、そしてITのOpsとDevの間に存在する軋轢を軽減する」と述べている。

2017年にローンチしたRookoutはサンフランシスコとテルアビブにオフィスがあり、社員数は20名だ。これまでに1200万ドルあまりを調達している。

関連記事:AWS LambdaのサーバーレスのコードをライブでデバッグできるRookoutのデバッグツール

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

クラウド上のデザインツールFigmaがプラグインとそのAPIをローンチ

デザインツールをクラウドに置くFigmaは米国時間8月1日、ユーザーが自分のワークフローをリセットして掃除できるプラグインを発表した。

Figmaの共同創業者でCEOのDylan Field(ディラン・フィールド)氏によると、このプラグインは同社の立ち上げ以来、最も要望の多かった機能だ。そこでチームは昨年、2018年3月にローンチしたFigmaのAPIにプラグインの機能性を構築することに注力した。その際、3つのプライオリティを掲げた: 安定性、スピード、そしてセキュリティだ。

同社がプラグインのテストを始めてからかなり経つ今日、40個のプラグインがローンチOKとなった。それらの中で、とくに目立つのを以下にご紹介しよう。

ユーティリティとしては、まずRename Itは、デザイナーが今自分がやっているレイヤーを自動的にリネームして編成できる。一方Content Buddyは、適当なプレースホルダーとしてのテキストを置く(電話番号、名前など)。それらはあとで自動的に見つけて内容を入れ替えられる。StarkColorBlindはどちらもアクセシビリティのためのプラグインで、自分の仕事がWCAG 2.0のコントラストの指針に合ってるか確認できる。そのために、8段階の色弱を疑似体験できるレンズが提供されている。

そのほかに、アニメーションを加えるFigmotion、テーマを変えるThemer、デザインに地図を加えるMap Makerなどのプラグインがある。

だれでもFigmaのプラグインを作って一般公開できるが、企業など用にプライベートなプラグインも作れる。例えばMicrosoft(マイクロソフト)のある社員は、WordやOutlookなどMicrosoft製品をベースとするテーマに変えられるプラグインを作った。

microsoft themes final

今のところ、プラグインで収益を得る計画はない。むしろプラグインを加えたのは顧客の幸福と満足に寄与するため、とField氏は言う。しかもFigmaのウェブサイトへ行くと、そこにはこのプロダクトが顧客と共に急速に進化する仕組みがある。個々の機能をそれぞれ別に作るのではなくて、今のFigmaはプラットホームをパワーユーザーに開放して、好きなものでウェブページを作れるようにしている。

Crunchbaseによると、Figmaはこれまで8300万ドル近くの資金を調達している。半年前のSequoiaがリードする4000万ドルのラウンドでは、調達後の評価額が4億4000万ドルだった。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

巨額買収を完了したIBMはRed Hatの翼で飛翔する

IBMの340億ドル(約3.6兆円)という巨額なRed Hatの買収は数週間前に完了し、米国時間8月1日に両社はその最初の成果を発表した。今日の発表の大部分は、あらゆるパブリックおよびプライベートクラウドにプロダクトを持ち込みたいとするIBMの野心の拡大の表れだ。そもそもIBMがRed Hatを買った理由がそれだから何も意外ではないが、多くの業界ウォッチャーにとって意外だったのはその実現の早さだ。

具体的には、IBMはそのソフトウェアポートフォリオをRed Hat OpenShiftに持ち込む。それはRed HatのKubernetesをベースとするコンテナプラットホームで、顧客がRed Hat Enterprise Linuxを使用するかぎりどんなクラウドでもそれを使える。

IBMはすでに100製品を超えるプロダクトをOpenShift向けに最適化し、それらを同社がCloud Paksと呼んでいるものにバンドルした。そのPaksなるものは現在5つあり、それらはCloud Pak for Data、Cloud Pak for Application、Cloud Pak for Integration、Cloud Pak for Automation、そしてCloud Pak for Multicloud Managerだ。これらの技術をIBMの顧客は、AWS、Azure、Google Cloud Platform、そしてほかでもないIBM自身のクラウドで利用でき、そこにはDB2やWebSphere、API Connect、Watson Studio、 Cognos Analyticsなどが含まれている。

今日の発表声明でRed HatのCEO Jim Whitehurst(ジム・ホワイトハースト)氏は「Red HatはコンテナやKubernetesなども含むLinuxベースの技術でイノベーションを駆動しており、それはハイブリッドクラウド環境の基盤的ビルディングブロックになっている。ハイブリッドクラウドのためのこのオープンな基盤により、「any app, anywhere, anytime」(どのアプリケーションもどこでもいつでも動く)というビジョンが実現可能になる。それがIBMの強力な専門的能力と結びつき、意欲的なデベロッパーやパートナーから成る巨大なエコシステムにサポートされれば、顧客は自ら選んだ技術で現代的なアプリケーションを作り、オンプレミスでも複数のパブリッククラウドにまたがるものでも、そのアプリケーションにとって最良の環境でデプロイする柔軟性を持つことができる」と述べている。

IBMは、クラウド上の初期のイノベーションの多くは現代的で顧客志向のアプリケーションを市場化することにあり、主にベーシックなクラウドインフラストラクチャにフォーカスしていた、と主張している。しかしながら今日では、エンタープライズは自分たちのミッションクリティカルなアプリケーションをクラウドで動かすことにも関心がある。そのために彼らは、複数のクラウドにまたがって使えるオープンなスタックを求めているのだ。

さらにIBMは今日、完全な管理を伴うマネージドなRed Hat OpenShiftサービスを自身のパブリッククラウド上でローンチする、と発表した。そのほかに同時に、IBM ZやLinuxONEメインフレームなどIBM Systems上のOpenShiftと、Red Hatに関するコンサルティングおよび技術的サービスの立ち上げも発表された。

関連記事: With $34B Red Hat deal closed, IBM needs to execute now(IBMが340億ドルのRed Hat買収を完了し次は執行だ、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ローコードクラウドの成功には効果的なアドミンツールが必要

ローコード(low-code)プログラミングで会社の仕事は楽になる、と思われているのか? ローコードは、高価なソフトウェアエンジニアがいなくても、よく訓練されたアドミニストレーターがいればいろんなタスクを処理できる、という意味だが、テクノロジーによる問題解決には必ず、予期しなかった結果がつきまとう。自分の会社Steelbrickを2015年に3億6000万ドルでSalesforceに売ったMax Rudman(マックス・ルドマン)氏は、ローコードのデプロイメントにつきものの、ある問題に気づいていた。彼はそれをオートメーションとテストでフィックスできると確信して、Prodlyを立ち上げた。

同社は米国時間7月31日に350万ドルのシード資金を獲得したが、お金より重要なのは顧客の動勢だ。きわめて初期段階のスタートアップでありながら、同社にはこのプロダクトを使う顧客がすでに100社いる。ルドマン氏が気づいていたとおり、同じ問題を抱える企業がとても多いのだ。そして彼らは、Prodlyのアイデアの市場でもある。

彼が前の会社で学んだのは、データを有効に生かせる経営を志向して企業がSalesforceのようなプラットホームの顧客になったとしても、それは単に旅の始まりにすぎないことだ。サービスの構成や料金体系がよくアップデートされる企業では、その情報に結びついているすべてのテーブルをアップデートしなければならない。たしかにローコードではクリック一発ですむ約束だったはずだったが、48ものデーブルをアップデートしなければならないとなると、楽な仕事とは言えない。

Prodlyの基本的な考え方は、まず、構成のほとんどを自動化する。得られる情報が正しいかをテストする。そして最後は、デプロイの自動化だ。目下同社は構成の自動化に開発努力を集中しているが、資金が得られたのでテストやデプロイにも手を付けられる。

ルドマン氏は、同社のソリューションがSalesforce専用ではない、と念を押す。最初はSalesforceのアドミンをねらうけど、そのほかのクラウドサービスのユーザーでも、訓練されたアドミンを酷使してあちこちいじっているところがとても多い。

ルドマン氏は「Salesforceは取っかかりだけど、同じ問題がほとんどのクラウドプラットホームにある。ServiceNowでもWorkdayでもどこでも、うちがアドミン用に作ろうとしているようなツールがない。アドミンの生産性を上げるためには、彼らが複雑なアプリケーションを効率的に管理できるためのツールを提供しなければならない」とも語る。

今の顧客の中には、Nutanix、Johnson & Johnson、Splunk、Tableau、それにTechCrunchのオーナーであるVerizonなどがいる。350万ドルのシードラウンドはShasta Venturesがリードし、Norwest Venture Partnersが参加した。

関連記事: Salesforce”Quote-to-Cash” SteelBrick3.6億ドルで買収

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

Amazonがフラッシュメモリーを使用するクラウドストレージ企業E8 Storageを買収

AmazonがイスラエルのストレージスタートアップE8 Storageを買収した。このニュースは最初ReutersCNBCGlobes が報じ、TechCrunchが確認した。これらの記事によるとE8のチームと技術は、テルアビブにあるAmazon Web Servicesセンターへ引っ越しする。

E8 Storage自身の言葉によると、同社はフラッシュメモリーを使ったストレージハードウェアの製造にフォーカスし、競合製品よりも高速なパフォーマンスを提供する。同社の人材と知財等をAWSがどのように利用する気か、それはまだ分からないが、同社のメインの事業の一環になることはほぼ確実だ。

AWSが今年行った買収には、データセンターのワークロードを最適化してそのオペレーションを効率化するバンクーバーのTSO Logicと、災害時にデータのリカバリを助けるイスラエルのCloudEndureが含まれる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google CloudがVMwareのレガシーアプリケーションをクラウド上に共存させるツールを発表

Googleが米国時間7月29日に発表したVMwareとの新たなパートナーシップにより、VMwareのワークロードをGoogle Cloud上で容易に動かせるようになる。具体的には、ハイブリッドクラウドをデプロイし動かすためのシステムVMware Cloud FoundationをGoogle Cloudがサポートする。Googleはこのソリューションを開発したCloudSimpleと組んで、高品質なサービスを提供していく。

Googleにとっては、すべてのエンタープライズがコンテナに移行し、同社のAnthosハイブリッドクラウドサービスを使ってくれると好都合だが、多くの大企業は現在VMwareを使っている。そういうワークロードをパブリッククラウドに移したい意思はあっても、長年使い慣れたツールを手放す気はない。今度VMwareと提携したことによって、Googleは新しいものや革新的なものを何も提供しないが、Googleとしてはこれによって企業顧客が他のクラウドに移る理由がなくなれば万々歳だ。

Googleは発表声明で「顧客はVMwareの広範なサポートをかねてから求めていたが、今回CloudSimpleのGoogle Cloud VMware Solutionを使って、顧客はVMwareのvSphereベースのワークロードをGCPで動かせるようになった。これにより顧客には、VMwareのワークロードをハイブリッドのデプロイメントで動かすための選択肢が広がり、Anthosによる現代的なコンテナ化アプリケーションとVMwareによるVMベースアプリケーションのどちらでも、GCPで動かせるようになる」とコメントしている。

この新しいソリューションは、vCenter、vSAN、NSX-Tなどを含むVMwareのスタックのすべてをサポートする。VMwareのCOOでカスタマーオペレーション担当のSanjay Poonen(サンジェイ・プーネン)氏は、次のように語っている。「弊社とGoogle Cloudのパートナーシップは常に顧客のニーズに応えることが目的であり、今回はそのパートナーシップをさらに拡張して、お互いの顧客がVMwareのワークロードをVMware Cloud Foundationを使ってGoogle Cloud Platformで動かせるようになる。Google Cloud PlatformでVMwareが使えれば、顧客はクラウドに移行しても従来から使い慣れているVMwareのツールや教育訓練の結果をそのまま生かせるので、これまでの投資を無駄にすることがない。新しいサービスを市場に出す場合にも、それらをハイブリッドクラウド環境でシームレスに、より安全に運用できるようになる」。

Googleの発表はVMwareとの長い縁を強調しているが、今回の技術的な主人公はむしろCloudSimpleだ。しかもVMwareとの長いご縁といえば、GCPのコンペティターAWSやMicrosoft Azure負けてはいない。どちらも、VMwareのワークロードをそのクラウドで動かすためのツールを提供している。

関連記事:Googleクラウドの年間予測売上が80億ドルを突破

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

データでなくアクティビティから企業を分析するHeapが約60億円を調達

HeapのCEOを務めるMatin Movassate(マタン・モヴァサト)氏は、同社を創ったときから、アナリティクスの既存勢力に挑戦すると言っていた。米国時間7月23日に同社はシリーズCで5500万ドル(約60億円)の調達を発表し、彼の挑戦にはさらなる資金が投入されたことになる。

モヴァサト氏は以前Facebookのプロダクトマネージャーだったが、HeapのシリーズBのときのインタビューでは、その頃を思い出して、あの回りくどいやり方ではもっぱらユーザーデータを集めて分析するんだとコメントしていた。それとは対照的にHeapは、ユーザーのアクティビティに関するデータを自動的に集める。目標は、文字通り何もかもを捉えて、それをセルフサービス方式で利用できるようにすることだ。自動的なデータ収集なので、ユーザーに質問をしたりするコードはまったくない。

すでに顧客は6000社以上いて、その中にはTwilioやAppNexus、Harry’s、WeWork、Microsoftなどもいる。今回のシリーズCを含めて、Heapの調達総額は9520万ドル(約103兆円)になる。資金は国際的な成長に投ずる計画であり、プロダクトとエンジニアリングと営業も拡張したい。

シリーズCをリードしたのはNewView Capitalだ。同社への投資に新たに参加したのが、DTCP、Maverick Ventures、Triangle Peak Partners、Alliance Bernstein Private Credit Investors、Sharespost、既存の投資家がNEA、Menlo Ventures、Initialized Capital、そしてPear VCとなっている。NewViewのファウンダーでマネージングパートナーのRavi Viswanathan(ラヴィ・ヴィスワナータン)氏が、Heapの取締役会に加わる。

そのヴィスワナータン氏は声明文で「Heapは企業の経営分析の自動化に革新的なやり方で取り組み、それにより組織内のさまざまなチームが、学習し、よりスマートな意思決定ができるためのデータを取得できる。最先端のソフトウェアを開発し続けているHeapと組めることは大変喜ばしく、そのアナリティクスのオートメーションは今後さらに成長して、ますます多くの顧客に奉仕していくことだろう」とコメントしている。

画像クレジット: Heap

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

グーグルがコンタクトセンターの音声技術をアップデート

昨年6月にGoogle(グーグル)は、企業が自社のコンタクトセンターをもっと有効利用できるためのAI製品「Contact Center AI」を発表した。Contact Center AIはGoogleのさまざまな機械学習ツールを使って仮想エージェントを作り、エージェントの仕事を助ける。米国時間7月24日に、同社はこのツールのアップデートをいくつかローンチし、その中には特に音声認識機能の改良がある。

Googleによると、同社の自動化音声認識サポートは精度がとても高く、市販製品を導入した顧客がよく不平を言うノイズの多い電話でも正しく解釈する。その精度をさらに上げるために今回のアップデートで、「Auto Speech Adaptation in Dialogflow」(Dialogflowにおける自動音声適応)という機能をローンチした。Dialogflowは、ユーザーが顧客との会話型製品を作るための機械学習を利用したツールだ。今回のこのアップデートで、音声認識ツールは会話のコンテキストを捉えることができ、精度は40%向上したとGoogleはコメントしている。

Speech Recognition Accuracy

また、電話用の新しい機械学習モデルにより、米国英語の場合、短い発言の理解度が従来より15%向上した。またそのほかのアップデートとして、書き起こしの精度向上、訓練プロセスを容易化、エンドレスのオーディオストリーミングに「Cloud Speech-to-Text API」が対応、などがある。後者はこれまで、5分という制限があった。

Googleは、これらのオーディオのMP3を提供しているから、ダウンロードしてCDに焼くといいかも。

dialogflow virtual agent.max 1100x1100[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Cloudが継続的デリバリサービスSpinnakerを正式にサポート

Google Cloudは米国時間7月21日、Spinnaker for Google Cloud Platform発表した。その名のとおり、継続的デリバリ(Continuous Delivery、CD)サービスSpinnakerをGoogleのクラウド上で容易に使えるようになる。

Spinnakerは最初Netflixが社内用に作り、それを今ではNetflixとGoogleが共同開発している。Netflixはそれを2015年にオープンソースにし、その後はオープンソースのCDプラットホームとしていちばん多く使われるようになった。今では、AdobeやBox、Cisco、Daimler、Samsung(サムスン)などもSpinnakeを使って開発工程を高速化している。

Spinnaker for Google Cloud Platformは、GoogleのKubernetes Engine上で動き、サービスのインストールはほんの数クリックで済む。インストールされたSpinnakerには、必要なツールすべてと、サービスのユーザーインタフェイスDeckが含まれている。ユーザーはGoogle Kubernetes EngineやCloud Memorystore for Redis、Google Cloud Load BalancingなどがGoogle Cloud上で使用するリソースの料金を払うことになる。

could spinnker.max 1100x1100

同社はGoogle Kubernetes EngineやCompute Engine、App EngineなどでコードのテストやデプロイができるようSpinnakerを事前に構成しているが、そのほかのどんなパブリッククラウドやオンプレミスクラウド上でも使用できる。Googleが最近ローンチした継続的インテグレーション(CI)サービスCloud Buildを統合し、バックアップの自動化や監査の統合、GoogleのStackdriverによるモニタリングなどもサポートしている。

GoogleでSpinnakerの開発を指揮しているMatt Duftler(マット・ダフトラー)氏が本日の発表声明で「このソリューションはデベロッパーだけでなくDevOpsやSREの人たちにも役に立つようにしたい。デベロッパーは最小のオーバヘッドで速く仕事がしたいと願っている。プラットホームのチームは、彼らが推奨するやり方をSpinnakernの中へエンコードして、それらを安全に使用できるようにする。Spinnaker for Google Cloud Platformを最初から使っていくと、社内の開発チームによるプロジェクトの着手と進行がより速くなるだろう」と述べている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

物質の検査にダイヤモンドダストを利用するDust Identityにエアバスやロッキードも投資

Dust Identityのアイデアは、同社の創業者たちがいたMITの研究室で生まれた。そこで彼らは、ダイヤモンドの塵、ダイヤモンドダストを使って物質を認識する技術を開発した。それ以降同社は、この高度な技術の商用化を目指していた。そして米国時間7月17日に同社は、昨年230万ドルのシードラウンドをリードしたKleiner PerkinsによるシリーズAのラウンドで1000万ドルを調達した。

このラウンドには、Airbus VenturesやLockheed Martin Ventures、New Science Ventures、Angular Ventures、そしてCastle Island Venturesが参加した。同社の調達総額はこれで1230万ドルになる。

同社の特異なアイデアは、物をダイヤモンドダストの薄い層で包むことにより、それが変造されていないことを証明する。ダイヤモンドダストは一見高価なようだが、同社によるとシード資金のころには安い工業用ダイヤモンドの廃棄物を使っていた。宝石店で売ってるような、高価なダイヤモンドではない。

同社のCEOで共同創業者の1人であるOphir Gaathon(オフィール・ガッソン)氏は、こう言っている。「ダイヤモンドダストをポリマーエポキシの表面に落とすと、そのポリマーが硬化するとき、ダイヤモンドは一定の位置と方向に凝固する。実はそのときのダイヤモンドの方向角度を非常に迅速に読む技術を、われわれは開発したのだ」。

Kleinerで今回の投資を担当したIlya Fushmanによると、同社は物の認識とセキュリティのためのユニークなアプローチを提供する。彼は声明でこう言っている。「メーカーとサプライヤーの間に不信が育っているようなときには、Dust Identityのダイヤモンド粒子のタグが、製品の証明とサプライチェーンのセキュリティに従来の技術よりも優れたソリューションを提供する」。

この投資が戦略的投資であるAirbusとLockheed Martinがいることは、大手工業企業のサプライチェーンにおいて、このような高度な技術が必要であることを示している。また、昨年同社がエンタープライズコンピューティングの大手SAPとパートナーして、物理的オブジェクトへのブロックチェーンインタフェイスを提供していることも特記に値する。つまりDust Identityの識別子をブロックチェーンに保存するのだ。SAPとの関係があってもそれはブロックチェーンの実装を特定しない、と企業のスポークスパーソンは言っている。

同社はまだ生まれて間もない企業だが、すでにさまざまな投資家の関心を集めており、今回得た資金は来年の製品開発に充てたいという。これまで同社は、さまざまな業種のためのパイロット事業や初期的デプロイメントを実装してきた。それらは、自動車、ラグジュアリーグッズ、化粧品、石油、ガス、電力などの業種だ。

関連記事:This startup got $2.3M to identify physical objects using diamond dust(Dust Identityの230万ドルのシード資金、未訳)

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AmazonのAlexaスキル開発キットがヒンズー語をサポート

Amazonの音声アシスタントのユーザーは、もうすぐヒンズー語でAlexaに話できるようになる。Amazonの米国時間7月16日の発表によると、デベロッパーのためのAlexa Skills Kitにヒンズー語の音声モデルを加えた。またAlexaのデベロッパーはこれまでインドで発表した自分のスキルを、ヒンズー語対応にアップデートできる。

Amazonは先月の機械学習と人工知能のカンファレンス「re: MARS」で、「流暢なヒンズー語をAlexaに加える」と発表した。それまでAlexaが理解できたのは、ヒンズー語混じりの英語、ヒングリッシュのコマンド少々だけだった。Alexa担当のヴァイスプレジデントでトップのサイエンティストであるRohit Prasad(ロヒャット・プラサド)氏はインドの通信社IANSに、Alexaにヒンズー語を加えることは「コンテキスト的にも文化的にもそしてコンテンツの面でも難題だった」と言っている。なぜなら、インドで使われている方言やアクセントやスラングがあまりにも多様だからだ。

英語とともに、ヒンズー語はインドの公用語のひとつだ。Googleの音声アシスタントもヒンズー語をサポートしている。Citi Researchによると、Amazonのマーケットシェアは約30%で、メインのコンペティターであるウォルマート支援のFlipkartと同じぐらいだ。

画像クレジット: Amazon

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Slack上場初日の株価急騰、終値は48.5%アップの38.50ドル

米国時間6月20日はSlackにとって歴史的な日となった。ビジネスコミュニケーションに革命を起したスタートアップはWORKのティッカーシンボルでNYSE(ニューヨーク証券取引所)に上場を果たしたが、初日の取引で株価は大きくアップし38.50ドルの終値を記録した。これは売出価格の26ドルを48.5%も上回る価格だ。

2009年にTiny SpeckとしてスタートしたSlackの取引は上場初日からホットなものとなり、場内取引で一時42ドルが付いた。Slackの時価総額は200億ドル(約2兆1470億円)を楽に超えるものとなっている。最近の資金調達ラウンドの会社評価額が70億ドル(約7510億円)だったから3倍に跳ね上がったことになる。

Slackの木曜日の上場はベンチャーキャピタルが支援するテクノロジー・スタートアップの大型直接上場として2件目の例だ。これまでの上場では投資銀行が新株を一括して引受け、証券取引所で売りさばくのが普通だった。これに対して新株を発行せず、投資銀行も介さず、発行済み株式を証券取引所で売買できるようするのが直接上場だ。これによって上場企業は投資銀行が株価差益や高額の手数料を得ることを避けられる。またロードショーと呼ばれる投資家向け説明会を各地で開催する必要もない。売り出された株式はこれまでベンチャーキャピタル、ファウンダー、社員などの関係者が保有していたものだ。

Slackの共同ファウンダーでCEOのスチュワート・バタフィールド氏はビリオネアの仲間入りを果たした。バタフィールド氏はSlackの8.6%を所有しており、これは売出価格で計算しても16億ドル(約1717億円)だった。最大の株主はベンチャーキャピタルのAccel Partnersで所有する株式の価値は46億ドルだという。以下大、Andreessen Horowitz が26億ドル、Social Capitalが20億ドル、 ソフトバンクが14億ドル、Slackの共同ファウンダーであるカル・ヘンダーソン氏が6.46億ドルとなっている。

Slackの上場成功は予期されたものだった。今年の上場では企業向けSaaS(Zoom、PagerDuty,など)のパフォーマンスが最良だった。SharesPostによれば、エンタープライズSaaSの上場では売出し価格から平均して100%以上の値上がりがあったという。

直接上場は新しい手法であるためリスクも大きいが、Slackの場合は世界的な知名度に加えてウォールストリートでは誰もがSlackに一口乗りたがっていたことが追い風となった。

Spotifyも直接上場を選んだが、それなりの好結果を残している。ただし売出し参考価格132ドルに対して初日の終値は10%ダウンだった。

Slackはこれまでに12億ドルを調達しており、投資家にはAccel、Andreessen Horowitz、Social Capital、ソフトバンク、Google Ventures、Kleiner Perkinsといったメンバーが含まれている。4億ドルを調達した2018年後半のラウンドの会社評価額は71億ドルだった。

上場企業となった以上、今後は当然ながらSlackの財務状態に注目が集まる。直接上場の数週間前にSlackはSEC(証券取引委員会)に提出したS-1申請書を修正し、損失率が半減しているなど収益化への展望を説明した。

Slacの発表によれば、4月30日を末日とする四半期の収入は1億348万ドル、赤字は318万ドルだった。 このSlackの収入は対前年比で67%アップしている(809万ドルの収入に対して赤字248万ドル)

今年の1月31日を終期とする会計年度では、収入は4億60万ドルの収入に対して赤字は1億3890万ドル(35%)だった。その前年度には2億2050万ドルの収入に対して赤字は1億4010万ドル(64%)が計上されていた。

画像: Drew Angerer / Getty Images

原文へ

(翻訳:滑川海彦@Facebook

VMwareがマルチクラウドロードバランシングのAvi Networksを買収

VMwareは、ユーザーのデータセンターの仮想マシンの構築と管理を助ける企業から、オンプレミスでもパブリッククラウドでも仮想マシンがどこにあってもそれらの管理を助ける企業へと変わる努力を続けてきた。米国時間6月13日に同社が買収を発表した設立6年のスタートアップであるAvi Networksは、クラウドとオンプレミスの全域にわたってアプリケーションのデリバリを均衡化するサービスで、まさに今のそんなVMwareに合ってる企業と言える。なお、買収の価額は公表されていない。

Aviは、うちは昔のロードバランサーの現代版だ、と主張する。彼らが昔と呼ぶ時代には、アプリケーションは頻繁に変わることもなく、企業のデータセンターにオンプレミスで棲息していた。しかし、企業がますます多くのワークロードをAWS、Azure、Google Cloud Platformなどのパブリッククラウドに移行させている今日では、Aviのような企業がもっと現代的なロードバランシングツールを提供しなければならない。それらのツールは、ロケーションやニーズに応じてソフトウェアのリソース要求を均衡化するだけでなく、要求の背後にあるデータを調べる必要がある。

図表提供: Avi Networks

VMwareもユーザー企業のインフラストラクチャを、それらがクラウドやオンプレミスのどこにあっても顧客企業が一貫したやり方で管理できるよう努めてきた。Aviの買収もその努力の一環であり、今回は主にモニタリングとロードバランシングのツールを手に入れたことになる。VMwareのネットワーキングとセキュリティ事業担当上級副社長を務めるTom Gillis氏は、この買収が同社のそういうビジョンによくフィットしている、と言う。「この買収は弊社のVirtual Cloud Network(仮想クラウドネットワーク)ビジョンをさらに前進させる。そこでは、ソフトウェア定義の分散ネットワークアーキテクチャがすべてのインフラストラクチャに行き渡り、そのすべてのパーツを、パブリッククラウドにあるオートメーションとプログラマビリティで統合する。Avi NetworksとVMware NSXが結びつけば、企業は新たな機会への対応力を増し、脅威に対して強く、新しいビジネスモデルを作ってすべてのアプリケーションとデータにサービスを届けられるようになる。それらがどこにあっても」。

Aviの共同創設者たちはブログ記事でこれと同様の気持ちを表明し、さらに強力に前進できる企業になる、と期待している。彼らは曰く、「VMwareとの合体を決意したのは、両者のビジョンとプロダクトと技術と強力なマーケティングと企業文化の相性がきわめて良いと判断したからだ。私たちはこれからも継続して弊社のミッション遂行に努め、マルチクラウドのデプロイメントをオートメーションとセルフサービスで加速化して、顧客のアプリケーションサービスの現代化を助けていきたい」。というわけなので今後に期待しよう。

今後はVMwareの一部になるAviの顧客の中には、Deutsche Bank、Telegraph Media Group、Hulu、Ciscoなどがいる。Aviは2012年に創業され、Crunchbaseによればこれまでに1億1500万ドルを調達している。主な投資家は、Greylock、Lightspeed Venture Partners、Menlo Venturesなどだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIや機械学習の企業導入を助けるスタートアップがエリック・シュミットなどから5.7億円調達

RealityEngines.AIは、525万ドル(約5.7億円)のシードラウンドを発表した。同社は、不完全なデータしかなくても、企業がAIをうまく使えるように手助けするスタートアップ。

このラウンドをリードしたのは、Googleの元CEOで会長だったEric Schmidt(エリック・シュミット)氏と、Googleの創設メンバーの一人であるRam Shriram(ラム・シュリラム)氏だ。ほかにKhosla Ventures、Paul Buchheit(ポール・ブックハイト)氏、Deepchand Nishar(ディープチャンド・ニシャー)氏、Elad Gil(エラッド・ギル)氏、Keval Desai(ケヴァル・デサイ)氏、Don Burnette(ドン・ブレネット)氏などがこのラウンドに参加した。

これだけ多くの著名な人々やVC企業がシードに参加したのは、彼らが同社のコンセプトに強く惹かれたからだ。サービスなどのプロダクトがまだ1つもない同社はその特技を、小さくてノイズの多いデータでも有効に利用して、顧客企業がすぐにでも製造に持ち込める、高度な機械学習とAIを提供することと定義している。そのシステムが行う予測にはさまざまなバイアスがなく、しかもその予測に至った理由や背景を顧客に説明できる。ブラックボックスであるAIやMLでは、内部動作の説明はとても難しいことだ。

RealityEnginesのCEOであるBindu Reddy氏は、それまでGoogle Appsのプロダクトマネージメントのトップで、今回の資金は研究開発チームの育成にあてると言った。結局のところ同社は、現在の機械学習の最も基本的で難しい問題に取り組んでいる。例えば、データセットが小さい場合には、Generative Adversarial Networksのような、既存のデータセットを拡張するソリューションがあるが、RealityEnginesそれらをさらに強力にすることを狙っている。

またReddy氏によれば、Reinforcement Learningも同社の中核的機械学習技術のひとつとして重視している。

プロダクトが完成したら、同社はそれを即時払いで従量制のマネージドサービスとして提供していく。ユーザー企業はそれにより、機械学習をより容易に実用化できる。大企業だけでなく中小企業も、このやり方で念願のAI/MLを導入し、競争力を強化できるだろう。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

さまざまな個人化用機械学習モデル構築APIがAWSから提供開始

Amazon Personalize」は、昨年11月のAWS re:Inventで発表されたが、それをいよいよAWSの顧客が利用できる。そのAPIを使ってデベロッパーは、機械学習のカスタムモデルを自分のアプリケーションに加えられる。それにより、製品のリコメンデーション(おすすめ)や検索結果、ダイレクトマーケティングなどを個人化(パーソナライズ)できるようになる。そのために機械学習の開発経験は、要らない。

そのAPIはデータを、元々はAmazon自身のリテールビジネスのために作られたアルゴリズムで処理する。ただし同社によると、すべてのデータは完全にプライベートに保たれ、顧客がその完全なオーナーになる。このサービスが今すでに使えるAWSユーザーは、以下のリージョンのユーザーだ:アメリカの3つのリージョン(東(オハイオ)、東(ノースバージニア)、西(オレゴン))、2つのアジア太平洋リージョン(東京とシンガポール)、EUのアイルランド。他のリージョンも、まもなくローンチする。

すでにAmazon Personalizeを使っているAWSの顧客は、Yamaha Corporation of America、Subway、Zola、そしてSegmentだ。Amazonのプレスリリースによると、Yamaha Corporation of AmericaのIT部長Ishwar Bharbhari氏はAmazon Personalizeについて、「機械学習モデルのセットアップと、インフラストラクチャやアルゴリズムのチューニングに要する時間が、自力でそのための環境を構築構成する場合に比べて最大60%は節約できる」、と言っている。

Amazon Personalizeの料金モデルは、Amazon Personalizeにモデルの訓練時間1時間あたりの訓練用データをアップロードする量1GBにつき24セントだ。リアルタイムのリコメンデーションリクエストはアップロードした数に応じた料金になり、大量のオーダーならディスカウントがある。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Google Cloudでリソースの容量能力を予約でき確約利用割引の対象を拡大

Google Cloudが2つの重要な料金改定を行った。ただし残念ながらそれは、よくあるコンピュートとストレージの値下げではなくて、最初のは確約利用割引の拡大だ。GPUsや、Cloud TPU Pods、ローカルSSDなどを一定量、1〜3年契約で利用しているユーザーは、その長期的ロックインの代償として料金がオンデマンド料金の55%引きになる。

もうひとつはCompute Engineの(VMの)容量予約システムで、ユーザーが特定のゾーンにリソースを予約しておくと、あとで本当に必要になったときに確実にそれを使える。

一見すると、容量予約はクラウドらしくないコンセプトだ。なぜならリソースの縮小拡大はランタイムに必要に応じて自動的に為されるはずであり、その可用性をユーザーがいちいち気にするするべきものではない。

では一体、予約システムは何のためにあるのか?Googleの上級プロダクトマネージャーであるManish Dalwadi氏はこう語る。「想定ユースケースは災害復旧やそんなときのための安心感だが、ブラックフライデーやサイバーマンデーのような一時的で特殊な特売イベントのサポートも対象になる」。

つまり、その日には絶対的に必要なリソースが確実に利用できる、ということ。Googleのようなクラウドサービスの大手なら仮想マシンはいくらでもある、と思いがちだが、しかし一部のマシンタイプは特定の可用性ゾーンでないと使えないこともある。仮想マシンというリソースは、その点がその他のリソースとは異なる。

ユーザーは予約をいつでも作ったり取り消したりできるし、既存の割引が自動的に適用される(継続利用割引と確約利用割引)。

確約利用割引に関しては、かなりの柔軟性がある。たとえばユーザーは特定のマシンタイプを3年確約するのではなくて、CPUコアやメモリーなどの数量を確約すればいい。

GoogleのプロダクトディレクターPaul Nash氏は「顧客たちからよく聞くのは、他社の確約モデルには柔軟性がないことと、利用率が60%、70%ととても低いことだ。だからうちの確約割引の設計目標は、自分たちの容量計画を参考にして、ユーザーに十分なお得感があるような割引率にした。気楽に利用できて厳密な管理が要らないことも、目標とした」と説明する。

確約利用割引の拡大と、新たなCompute Engineの容量予約システムは、どちらもGoogle Cloud上ですでに利用できる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

6月発売の12コアRyzen 9 3900XはCore i9 9920Xの半額ながら省エネで勝る

米国時間5月27日、台北で行われたComputexカンファレンスのキーノートでAMDのCEOであるLisa Su氏が、価格と性能の両面でIntel(インテル)やNvidia(エヌビディア)の強敵になると思われるチップとグラフィクスプロセッサーを発表した。なお、このカンファレンスでAMDがキーノートに招待されたのはこれが初めてで、イベントの実際の開会は5月28日だ。

チップ

同社の新製品となる第3世代Ryzen CPUの中で最初に登場する7nmのデスクトップチップは、6月7日に発売される。Su氏のキーノートのハイライトはAMDの12コア24スレッドRyzen 9 3900xチップの発表で、それは同社の第3世代Ryzen系列の旗艦機だ。499ドルの最低価格は対抗機であるCore i9 9920Xチップセットの1189ドルの半額だ。

Ryzen 9 3900xはブーストスピードが4.6Ghz、キャッシュ総量70MB、熱設計電力(TDP)はCore i9 9920Xの165Wに対し105Wとその効率性を誇る。AMDによると、Blender DemoではCore i9-9920Xより18%短時間で終了した。

この系列の他のチップの最低価格は、6コア12スレッドの3600が199ドル、8コア16スレッドのRyzen 3700xが329ドル(ブースト4.4Ghz、総キャッシュ36MB、TDP65ワット)、そして8コア16スレッドのRyzen 3800X(4.5Ghz、32MB、105ワット)が399ドルだ。

GPU

AMDによると、同社のゲーム用GPU新製品NaviグラフィクスプロセッサーはRadeon RX 5700シリーズになる(下図ツイート参照)。Nvidiaが対抗機を値下げすることもありうるので、価格は慎重に検討している。発表ではAMDのGPUの発売は6月だが、価格や性能、新たな機能等の詳細は来月ロサンゼルスで行われるE3(Electronic Entertainment Expo、6/12-14)までおあずけだ。

データプロセッサ

AMDは1月のCESで、データプロセッサーのEPYC Romeを発表・デモを行った。そのローンチは予想より1四半期早く次の四半期となり、インテルのCascade Lakeと競合する。AMDが主張するベンチマーク結果によると、EPYC Romeの処理速度はCascade Lakeの倍である(下図ツイート参照)。

画像クレジット: David Paul Morris/Bloomberg (opens in a new window) / Getty Images

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Atlassianがデータセンターアプリケーションをコンテナに入れて管理を容易に

5月20日〜23日、Linux Foundation主催で行われたKubeCon + CloudNativeConカンファレンスの大量の発表の中で、特に目立ったのがAtlassianだ。

同社はデベロッパーの効率的な仕事を支える開発ツールでよく知られている企業だが、最近ではクラウドインフラストラクチャのプロバイダーとしても台頭してきた。でも、このコンテナ化の時代においては、AtlassianといえどもKubernetesの栄光の輝きをその肩に浴びざるをえない。そこで同社はカンファレンス初日の5月20日に、チャネルパートナーのPraqmaがAtlassian Software in Kubernetes(ASK)をローンチしたことを発表した。それは、エンタープライズがJira Data Centerなどのオンプレミスアプリケーションを、Kubernetesを利用してコンテナとして動かし管理できる、という新しいソリューションだ。

Praqmaは現在、ASKをオープンソースで提供している。

同社は今日の発表の中で言っているが、データセンターアプリケーションを動かして高い可用性を確保することは、今日までの方法では膨大な作業になる。AKSを使ってアプリケーションをコンテナ化すれば、スケーリングと管理は容易になるはずだ。ダウンタイムも避けやすくなる。

Praqmaのチームはこう説明する。「ASKでは可用性が鍵だ。自動化によって、ミッションクリティカルなアプリケーションは何が起きても動き続けるようになる。もしもJiraサーバーが落ちたら、Data Centerアプリケーションは自動的にトラフィックを健康なサーバーへリダイレクトする。アプリケーションやサーバーがクラッシュしたら、Kubernetesが新しいアプリケーションを起動して自動的に解決する。Jiraのゼロダウンタイムアップグレード、というものもある(正常稼働を続けながらのアップグレード)」。

AKSはスケーリングと多くのアドミンタスクを担当し、オープンソースのGrafanaとPrometheusをベースとするモニタリングも提供する。

さまざまなベンダーが、今ではコンテナを最良のディストリビューションメデイアとして使っている。エンタープライズが既存のアプリケーションをコンテナに移行させていくと、同じシステムにある、サードパーティベンダーからの既存のオンプレミスアプリケーションも同様に管理できると思うようになる。一部のベンダーにとっては、これによってサーバーごとのライセンスからユーザーの人数割りのライセンスへの移行を意味するかもしれない。その意味ではこれはビジネス上の含意もあるけど、でも一般的には、多くのベンダーにとって論理的な動きだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

サーバーレスとコンテナは両者を一緒に使うのがベストプラクティスだ

コンテナに収めたソフトウェアを継続的デリバリ方式で使用するクラウドネイティブモデルは、ランタイムにクラウドベンダーがワークロードを動かすために必要なだけの量のリソースを生成するサーバーレスコンピューティングを利用すると、なお一層有利だ。大手のクラウドベンダーはこのことを知っていて、すでにそのインフラストラクチャを抽象化して隠すプロダクトを作っているが、利点はあるにもかかわらず、どんな状況でも有効とは言えないようだ。

クラウドネイティブは、簡単に言うと、コンテナ化したアプリケーションとKubernetesを使って、ソフトウェアをマイクロサービスと呼ばれる小さなパッケージで配布する。これによってデベロッパーは、継続的デリバリ方式により、ソフトウェアを迅速かつ効率的に配布できる。クラウドネイティブの世界では、コードを開発するのは一度だけ、そしてそれを、オンプレミスでも、どんなパブリッククラウドでもそのまま動かせることが理想だ。

一方サーバーレスは、やや間違った名前だ。このモデルでもコードはサーバーが動かすが、しかしそれは専用の仮想マシンではなく、クラウドのベンダーがワークロードを動かすためにつねに適正な量と時間だけ提供するコンピューティングリソースだ。

万能の完全解はない

このような方式は継続的デリバリモデルによく合ってるようだし、ベンダーもそのことを知っているが、しかしあるエンジニアの言葉を借りれば、そのプロセスは相当複雑であり、また、すべての状況に通用する1つの完全なソリューションはない。

Googleでプロダクト管理を担当しているArpana Sinha氏によれば、Kubernetesのコミュニティはサーバーレスという考え方を本当は歓迎しているのだが、その現在の実装形式に制約がある。つまりAWS LambdaやGoogle Cloud Functions、MicrosoftのAzure Functionsなど現在のの実装形式はいずれも、ファンクションという形式だ。

「ファンクションというコンセプトは制約のあるコンセプトだ。サーバーレスといえばファンクションしか連想しない今の状況は、不幸だ」、と彼女は言う。

彼女によると、Googleはその定義の拡張をトライした。「デベロッパーにとってサーバーレスとは、コーディングからデプロイまでを彼らがシームレスに行い、それ以降のことはすべてインフラストラクチャが面倒見てくれること。黙っていても自分のコードが、インフラストラクチャの適切でもっとも自己回復力のある部分へ確実にデプロイされることだ。必要なリソースは自動的に確保されるからスケーリングも自動化され、スケールダウンも必要に応じて自動的に行われるから無駄な出費がない」と彼女は説明した。

しかしAtlassianのKubernetesチームの上級エンジニアであるMatt Whittington氏に言わせると、理論的にはそれで良くても、実際には完全に自動化されたインフラストラクチャでは現実に合わない場合がある。「デベロッパーがコーディングだけに集中できるからサーバーレスはある種のワークロードにとっては理想的だが、でも完全なソリューションではない。インフラを自分でチューニングしなければならない場合もある」、と彼は言う。

彼によると、ベンダーに完全に任せっきりにできるのは、各コンテナの要求をベンダーに対して指定する方法があるときのみだ。たとえば、コンテナのロードタイムの上限下限をベンダーに指定できるだろうか。ある種のコンテナは時間を食うし、また特定の位置へのデリバリが必要かもしれない。彼によると、実際には完全な自動化はできないし、とくにデベロッパーが設定をいじくって過不足のないリソースが得られるようにしたいときは、自動ではなく手作業になる。

ベンダーも新たな解を提供

これらの問題ではベンダーもツールの提供を始めている。例えばGoogleが先月のGoogle Cloud Nextで発表したサービスGoogle Cloud Runは、オープンソースのKnativeプロジェクトをベースとし、コンテナを動かしているデベロッパーにサーバーレスの長所を結びつける。これと同様のサービスに、AWS FargateAzure Container Instancesがあり、どちらもやはり2つの技術を1つのパッケージにまとめようとしている。

というかMicrosoftのパートナー事業マネージャーのGabe Monroy氏によると、Azure Container Instancesは、この問題をファンクション型のプログラミング方式に依存せずに解決することが狙いだ。「Azure Container Instancesを使うと、コンテナをAzureのコンピュートファブリックの上で直接動かせる。仮想マシンや、ハイパーバイザーによる隔離、秒単位の課金などはない。私たちはそれをサーバーレスコンテナと呼んでいる」と彼は語る。

サーバーレスとコンテナは相性がとても良いように思えるが、でもMonroy氏が指摘するのは、クラウドネイティブの技術には、すべてに通用する唯一の方式はない、ということだ。AWS LambdaやAzure Functionsのようなファンクション型のサーバーレスを今後も使い続けたい人もいれば、コンテナに移行して二つの技術を一体化したい者もいる。しかしいずれにしても、デベロッパーのニーズが変わっていくにつれて、オープンソースのコミュニティとベンダーの両方が、それらのニーズを助けるツールを提供していかなければならない。サーバーレスとコンテナの一体化も、そんな例のひとつだ。

関連記事: いまさら聞けないコンテナ入門

画像クレジット: Ron Miller/TechCrunch

[原文へ]
(翻訳:iwatani、a.k.a. hiwa