インターネットにも標準ライブラリが必要だ: PolybitのStandard Library(stdlib)は多様なJSビルディングブロックの集積・共有・再利用の場を目指す

keith_horwood_polybit

アクセラレータAngelPadを巣立ったPolybitが、同社のプロダクトStandard Library of the Internet(インターネットの標準ライブラリ)の公開ベータを開始した。それは、デベロッパーはもちろん、初心者にとっても、バックエンドのコーディングを楽にする、というリソース集だ。

Standard Library、略して“stdlib”と同社が呼ぶクラウドサービスに、デベロッパーは自分が書いたファンクションをアップロードしてもよいし、またマイクロサービスやロジックをこの上でポータブルにし、再利用可能にする。ユーザーがサーバーの管理をする必要はない。

PolybitのファウンダーでCEOのKeith Horwoodは、かつて、オープンソースのNode.jsフレームワークNodalを作ったことがある。彼曰く、“ぼくは、バックエンドやAPIの世界が長いね。そんなぼくの今の目標は、ソフトウェアのデベロッパーが、インフラストラクチャに関していっさい悩まなくなることだ”。

コードを書いて、それに何百万もの人たちがオンラインでアクセスできるようにするのは、とても複雑な工程だ、とHorwoodは言う。構想しているロジックを、実際に書いて実装しなければならない。さらに、それをネットでどのようにホストするのかを、考えないといけない。そのコードをサーバーに載せなきゃならないし、そしたら今度は、サーバーのことを毎日心配しなければならない。コードを自分で書かずに外注したら、かなりの時間と手間とお金がかかる。そしてしかも、自分が作るWebサービスは、確実に人びとに注目されるものでなければならない。

PolybitのStandard Libraryは、ファンクションと、いろんなアプリケーションのためのビルディングブロック(構築部材)のリポジトリだ。デベロッパーは、自分が書いたファンクションをここで、即座にオンラインでアクセス可能にできる。

Horwoodがstdlibで共有されるファンクションの例として見せてくれたのは、リオデジャネイロ・オリンピックの、国別の金メダル取得者のリストを作るコードの一部だ*。〔*: ここのAPIを利用する。〕

デベロッパーはこの“マイクロサービス”を拾い上げ、国名をCanadaから別の国に書き換えたり、あるいはメダル獲得数のトップ5を作るように書き換えたりできる。ライブラリの共有と再利用の、一例だ。

彼がstdlibで共有できるようにしたいと考えているファンクションの例は、ハードウェアをクラウドに接続するための一連のコードだ。またサードパーティに情報をリレーしたり、データを操作するファンクションも必要だ。

stdlibのデモビデオが、これだ:

Horwoodの考えでは、いろんなファンクションがオンラインで入手できるようになると、企業のITチームにとっても便利なはずである。彼らは企業の中で常時、プライオリティリストに正規に載せることもできない、雑多なリクエストを抱えているからだ。それらに、ライブラリ上の出来合いのファンクションで対応できたら、ありがたいだろう。

たとえば営業はITに、雑多な顧客情報を見込み客の“有望度”順にソートしてくれ、それをスプレッドシートに落としてくれ、とリクエストしているかもしれない。でもそれは、企業にとって重要なメールの処理や福利厚生の問題などと違って、ITのプライオリティリストにはなかなか載らない。しかしStandard Libraryへ行けば、そんなリクエストにぴったりの既製品のソフトウェアパッケージがあって、営業のニーズに対応できるかもしれない。

PolybitのStandard Library(stdlib)は公開ベータに入ってまだ1週間だが、すでに500のファンクションがデプロイされ、登録ユーザーはほぼ1500名いる。さらにstdlibからは、NPMの30万あまりのNode.jsのソフトウェアパッケージのすべてに、アクセスできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MirantisとSUSEがパートナーしてOpenStackユーザーの広範なサポートを開始

img_20160809_103941

OpenStackを使っている企業に、ソフトウェアやサポートや教育訓練を提供しているMirantisが今日(米国時間8/9)、LinuxディストリビューションSUSEで知られるドイツのSUSE社とパートナーし、SUSEのエンタープライズLinux製品のカスタマサポートを提供していく、と発表した。また今後両社は、SUSE Linux Enterprise Serverを、Mirantis Openstackで用いる開発プラットホームにしていく。しかもさらに両社は、共同で、Red Hat Enterprise LinuxとCentOSもサポートする。

OpenStackに関してはSUSEとRed Hatの両社にそれぞれ独自のソリューションがあるので、Mirantisがこの競合する二社をサポートするのは一見奇妙に思えるが、しかし実は、末端のユーザー企業が、たった一種類のLinuxディストリビューションだけを使っていることはめったにないのだ。

Mirantisの協同ファウンダーでCMOのBoris Renskiは今日の声明文で、次のように述べている: “弊社の大企業顧客の多くが、2〜3種類のLinuxフレーバーを使っている。これからは、OpenStackのユーザーであれば、それらすべてのLinuxディストリビューションに関して、Mirantis一社からサポートを受けられるようになる。世界中の主要な業界で、何千社もがSUSEをメインに使っている。なぜならSUSEは、エンタープライズ級の信頼性の高い、企業が社運を賭けるに足る、高いレベルのサービス約定を提供しているからだ。SUSEとのパートナーシップはMirantisの顧客に、彼らが自社のプライベートクラウドを構築しようとするとき、そのような高いレベルのサポートを提供する”。

一方、SUSEで戦略と企業連合とマーケティングを担当するMichael Millerプレジデントによると、SUSEには元々、ユーザーを単一のディストリビューションに封じ込める趣味はない。そして彼は、“とくにOpenStackと関わるときには、〔企業間の〕政治のことは忘れるべきだ”、と述べる。彼によると、OpenStackはまだアーリーアダプターの時期にあり、そのデプロイも管理もきわめて難しい。しかしまた、それと同時に、OpenStackは、コンテナやネットワーク仮想化など、自分よりも後から登場した最新技術とのすり合わせに努力している段階だ。〔互いに争っている場合ではない。〕

MirantisのOpenStackディストリビューションは現在、CentOS向けに最適化されている(OpenStackのデプロイと管理サービスFuelのデフォルトOSとして)。またOpenStackのノードを動かす環境としては、Ubuntuが使われている。しかしMirantisの最新バージョンでは、OpenStackのコンピューティングノードとしてRed Hat Enterprise Linuxを使えるし、オープンソースのFuelツールもRHELを使っている。ただし、これらの公式サポートはまだだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

政府全体のオープンソース化をねらうホワイトハウス(大統領府)が、ソースコード公開のための一般ポリシーを提案

white_house_dc

ホワイトハウスはかねてから、テクノロジーを利用して政府の機能を改善することに熱心だった(現在のその方面のリーダーはCIO(Chief Information Officer)のTony Scottだ)。彼らは、コード(コンピューターのプログラム)が政府諸機関の役に立ち、害をもたらさないことと、合衆国政府が民間企業と同じように効率的にテクノロジーを利用できることを、望んでいる。

3月に公開したブログ記事でホワイトハウスは、オープンソースソフトウェアの利点を政府も利用したい、という意思を表明し、そして今日は(米国時間8/8)、政府諸機関が自分たちでより効率的にコードを書けるための、一連のルールを定めたFederal Source Codeポリシーをリリースした。

そのポリシーの主な要件は、“連邦政府によって、または、〜のために独自に開発される”ソースコードはいずれも、すべての政府諸機関による共有と再利用が可能でなければならない、というものだ。たとえば、TSA(運輸保安局)は、FBIが独自に作らせたソフトウェアのソースコードに、アクセスできなければならない。

連邦政府の諸機関とそれらの部課などが必要とするアプリケーションは、重複している場合が非常に多いはずだから、このオープンソースポリシーがうまく機能すれば、相当大きな節約が実現するだろう。このポリシーにも、“国の資金を使って独自に開発されたコードの、政府全域にわたる再利用の権利を保証することは、アメリカの納税者に多くの利益をもたらす”、と書かれている。

しかしこれまでは、連邦政府の諸機関は情報を一般に公開しないことが建前だったから、ソースコードも通常のオープンソースの場合のように一般公開されないのではないか?

この問題に関しては、現時点では単純で一律的な答を出しにくいが、だからといって、政府がオープンソースへ向かわない、ということではない。このポリシーに基づいて行われるパイロット事業は、ある種の妥協点を模索しているようだ。連邦諸機関はカスタム開発したコードの少なくとも20%を、オープンソースとしてリリースしなければならない。これはあくまでも、このパイロット事業のルールだが、これにより実際に、費用削減と効率向上の効果が目に見え、実感できるようになることが、期待されている。

ポリシーの全文はここにある。これは Tony Scottが合衆国政府内の全省庁のトップに宛てて書いた長い々々メモだ。メモは、おもしろい読み物であると同時に、この新しいポリシーの技術的な側面についても検討している(たとえば、ある政府機関で、コードの20%を公開すると国のセキュリティにリスクを招くような場合は、どうすべきか?)。

またそれには、ホワイトハウスが数か月後にCode.govを立ち上げる、と書かれている。それは、政府諸機関が公開するコードのための、全域的なホームサイトだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSのElastic MapReduce 5.0.0は16種のHadoop関連プロジェクトをサポートしてビッグデータ処理の実用性を増強

15558382212_a81f9f4a3a_k

Amazon Web Services(AWS)が今日(米国時間8/2)リリースを発表したElastic MapReduce(EMR) 5.0.0は、16種のHadoop関連プロジェクト(派生プロジェクト)をサポートする。

AWSはつねに、顧客がクラウド上の多様なエンタープライズ機能を管理するための、さまざまなツールのアップグレードに努めているが、今回のものは、Hadoopでビッグデータプロジェクトを管理しているデータサイエンティストやその関連部署に向けられている。

この分野に強いForresterのアナリストMike Gualtieriの言葉を借りると、Hadoopとは基本的に、“大きなデータ集合を保存し処理するためのインフラストラクチャ的ソフトウェア”だ。

従来のデータ処理ソフトウェアと違ってHadoopは、データの保存と処理を複数のノード(数千に及ぶこともある)に分散して行い、それにより大量のデータ処理を効率化する。

しかもそれは、Apacheのオープンソースプロジェクトとして、きわめて人気が高い。かわいいマスコットまである(上図)。Hadoopを軸に大きなエコシステムができていて、プロジェクトの改良充実にたえず貢献している。また、そこから生まれる派生プロジェクト(“Hadoop関連プロジェクト”)も多い。

今のHadoopはそれらの派生プロジェクトを積極的に取り入れて、ユーザーによる大量のデータ集合の管理を助けている。たとえばHiveはHadoopのためのデータウェアハウスであり、HBaseはスケーラビリティの高い分散データベースだ。AWSは、どちらもサポートしている。

Hadoopによるシステムの実装やデータ処理を助ける企業も続々生まれていて、有名なところとしてはCloudera, Hortonworks, MapRなどが、Hadoopの独自の商用化バージョンを提供している。

AWSは昨年の7月以来、AWS本体ツールの継続的アップデートとともにHadoop関連プロジェクトのサポートのピッチを上げ、顧客の選択の幅を広げようとしている(下図)。

[EMRの更新履歴(4.7.0まで)とHadoop関連プロジェクトのサポート]

Chart showing updates to EMR tool since January, 2016.

図表提供: AWS.

AWSは、もうひとつのApacheオープンソースプロジェクトBigtopも使ってきた。これは、プロジェクトのページによると、“Hadoopのビッグデータコンポーネントの、インフラストラクチャのエンジニアやデータサイエンティストによるパッケージングとテストと構成を助ける”、という。AWSのブログ記事によると、AmazonはBigtopの開発のペースアップに協力し尽力してきた。

以上は、データサイエンティストと、クラウド上の大型データ集合を扱う社員たちにとって、良いニュースだ。今回のリリースではオプションの数がぐっと増え、AWS上で有用なHadoop関連プロジェクトを、より見つけやすくなったと言えるだろう。

ビッグデータは今やAWS上の重要なユースケースだから、Hadoop本体はもちろんのこと、ストレージやコンピューティングを効率化するためのさまざまなツールを必要とする。〔そしてそのニーズの多くをさまざまなHadoop関連プロジェクトがサポートする〕。ユーザーから見ると、AWSのようなクラウドベースのインフラストラクチャは文字通りエラスティック(elastic, 伸縮自在)であり、オンプレミスの場合のように、扱いデータの増加とともに新たなリソースの手配をいちいち心配する必要がない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのOmnitoneは、サラウンドサウンドでウェブベースVRに一歩近づく

British television presenter Rachel Riley shows a virtual-reality headset called Gear VR during an unpacked event of Samsung ahead of the consumer electronic fair IFA in Berlin, Wednesday, Sept. 3, 2014. (AP Photo/Markus Schreiber)

多くの分野でそうだったように、VRの振り子もいずれ専用アプリからウェブベースシステム側へと揺り戻されるだろう ― そしてそれが起きる時、Googleは準備万端整っているはずだ。同社はウェブで本格的サラウンドサウンドを配信する新しい方法の詳細を公開した ― システムの名前はOmnitone

昔ながらのマルチチャネルサラウンドは、平らな画面で映画を見るには十分かもしれないが、全空間を支配するバーチャル環境を行き来するためには少々物足りない。アンビソニックが必要だ。アンビソニックはユーザーを包む完全な球体をシミュレートして3D空間に音の座標を与え、その座標をレンダラーが適切な音波へと変換する。

GoogleのChrome WebAudioチームが直面した問題は、既存のツールだけを使っていかにブラウザーでこれを実現するかだった ― 新たな標準でこれ以上ウェブを散らかさないために。たどりついた答は、巧妙だが実に単純だった。

image00アンビソニックのサウンドストリームでは、音そのものと同じくらい音の位置が重要だ。Omnitoneは、その位置情報をVRヘッドセットのセンサーから得た方向データと組み合わせる。つまり、あなたの頭が右X度上Y度を向けば、そのデータがアンビソニックのサウンドストリームに直ちに反映され、ユーザーに合わせてオーディオ球体全体が移動する。

サウンドストリームはスピーカー8台から成るバーチャルスピーカー群に渡り、バイノーラル・レンダラーによってステレオにミックスダウンされる ― するとほら! 既存のウエブツールだけで、まずまずの全空間サラウンドサウンドストリーミングと出来あがりだ。

このデモで試してみることができる ― 但しロードできればの話で、私はできなかった。でも近いうちに、YouTubeによるVR体験等と共にもっと本格的に展開されるだろうから心配はしていない。もちろん全部がオープンソースで、GitHubのここで見られる

[原文へ]

(翻訳:Nob Takahashi / facebook

CanonicalとPivotalのパートナーシップでUbuntu LinuxがCloud Foundryの推奨オペレーティングシステムになる

24497179980_9a4f7b4dde_k

オープンソースのクラウド開発プラットホームCloud Foundryを開発しているPivotalと、人気の高いLinuxディストリビューションUbuntuを作っているCanonicalが今日(米国時間7/6)発表したパートナーシップにより、UbuntuがCloud Foundryの推奨オペレーティングシステムになる。

両社はCloud FoundryがVMwareで開発されたオープンソースのプロジェクトだったころから仲が良い。2013年にVMwareとEMCとGEがPivotalを別会社としてスピンアウトしたときも、Cloud Foundryはその大きな部分であり、したがってUbuntuとの関係は今日まで続いている。CanonicalのUbuntuプロダクト担当マネージャーDustin Kirklandによると、むしろ両社の仲がこうしてオフィシャルになるまで時間がかかりすぎたことが、意外だという。しかしとにかく、今日の発表で公式なパートナーシップが確定したのだ。

これにより、Ubuntu Linuxを使っているCloud Foundryの顧客は、いろんなことが容易になる。まず第一に、Ubuntu Linuxのアップグレードが容易になり、セキュリティパッチの管理も自動化されるため、Cloud Foundryのユーザーは早く確実に重要なアップデートにアクセスできる。

また、Ubuntのサポート・レベルが自動的にLevel 3になる。これによりたとえば、Ubuntuの問題をCloud Foundryのサポートチームに解決できないときは、その問題がUbuntuの担当部署に回される。また、よくある、どっちの問題かはっきりしない状況では、両社が共同でサポートにあたる。どちらのチームも、サポート経験がきわめて豊富だ。

また、両社はセキュリティの証明でも協力し、スタンダードを起草する組織にも両社が一緒に関与することになるので、その結果Ubuntuはセキュリティの面で最先端のオペレーティングシステムになるだろう。しかもそれらのスタンダードは、両社のニーズを取り入れた規格になっていく。

“ベンチマークにも積極的に協力しているし、セキュリティガイドの策定においても、今後はより積極的な役割を担っていける”、とKirklandは説明する。

Crunchbaseによると、Pivotalは創業以来17億ドルという驚異的な額を調達している。今年5月のシリーズCでは、Ford Motor Company率いるラウンドにより、評価額28億ドルで6億5000万ドルを調達した

2004年に生まれたCanonicalは、これまで、一度のクラウドファンディングで1000万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Red Hatはクラウドへの移行で50億ドル企業をねらうが、Linuxだけでは無理かもしれない

7047941495_7e934b62fa_k

長年(20+)、企業顧客にLinuxを売ってきたRed Hatが、オープンソース企業としては初めて、20億ドル企業になった。次の目標は(売上)50億ドルだが、そこまで到達するためには、Linux以外のものも必要だろう。

2年前にRed HatのCEO Jim Whitehurstは、売り上げが伸びているにもかかわらず、Red Hat Enterprise Linux(RHEL)だけでいつまでも成長を続けることはできない、と自認した。RHELは好調だが、世界は変わりつつあり、彼の会社もそのほかの企業相手の企業と同じく、変わらなければならない。変わらないことは、大きなリスクを抱えることだ。彼は当時、そう語った。

その変化とは、Microsoftのコマーシャルが言っている“To the cloud!”(クラウドへ)だ。

Whitehurstが2014年に、同社はOpenStackを軸とするクラウド企業になると宣言したとき、かなりの人が驚いただろう。同社の長年の社員の中にも、びっくりした人はいたと思う。でもWhitehurstは、大きな変化のように思えるかもしれないが、実際にはそれほどでもない、とそのとき言った。

Linuxとオープンソースの未来

クラウド企業に変わることが同社にとってささやかな変化にすぎない理由は、クラウドがLinuxとそのほかのオープンソースソフトウェアで構成されるシステムだからだ。この二つ、すなわちLinuxとオープンソースソフトウェアは、Red Hatが長年、何にも増していちばんよく知っているものである。Red Hatでプロダクトとテクノロジーを担当している上級役員Paul Cormierは、そう語る。

CEOのWhitehurstもこう言う: “クラウドを軸に今起きつつあるイノベーションが、オープンソースの中で起きていることは、弊社にとって本当にすばらしいことだ。Linux, Kubernetes, Docker, OpenStack, …主要部位はすべてオープンソースだ。弊社のユニークな立場は、オープンソースソフトウェアに取り組んで10年以上自分たちがやってきたことをそのまま、企業のサポート、企業の消費物、そして企業のためのライフサイクル管理に応用できることだ”。

弊社の事業計画の前提は、既存のポートフォリオだけで無理なく50億ドルに到達できる、という感触だ。
— Jim Whitehurst, Red Hat CEO

ただしそれは、移行は簡単、という意味ではない。営業のやり方が違うし、R&Dから営業からマーケティングに至るまでの、全社的な機構を考えなおす必要がある。これまでは費用低減と選択の自由を軸とする価値提案を売っていけばよかったが、クラウドの場合は、顧客が購入する理由がそれほど単純明快ではない。

“それは、それまであった何かを別のものに代えることではなくて、プラットホームを作ってその上で何かを開発することだ。だから価値提案が事業価値の理解に基づくものになる”、とWhitehurstは説明する。だから企業だけでなく、その市場もよく知らなければならない。新しい課題が山積みになる。

“うちも、ぐーんと背伸びをして、顧客に接近し、彼らのニーズを深く理解しなければならない。彼らがどうやって価値を作り出しているのか、それのどこをどうやってうちが助けるのか、それを理解することだ”。

そこで問題は?

Crumpled cap with Red Hat logo on it.

Photo by Paul Hudson on Flickr。 CC by 2.0のライセンスによる。

Forresterでエンタープライズを追っているアナリストDave Bartolettiによると、それがRed Hatの難関だ。

“これまでのように、高価でプロプライエタリなもの〔Windowsなど〕に代わる安いものを売るのではなくて、誰もがどこででも使えてソフトウェアをより迅速に作れるための、一連のツールを売らなければならないのだ”、と彼は語る。

またIDCのアナリストAl Gillenは、それだけではなく、Red Hatはパブリッククラウドのベンダたちと直接、競合することになる、と言う。

“顧客がパブリッククラウドのインフラストラクチャへ移行していくことに関して、Red Hatにはコントロールがあまりない。それは、コアとなるインフラストラクチャレイヤとしてノンブランドのプロダクトに大々的に依存している。たとえばオペレーティングシステムも、実質的にはノーブランドだ。これが、Red Hatの成長にとって向かい風になる。なぜなら同社は、低コストで汎用的なインフラストラクチャのソリューションに、勝たなければならないからだ”、とGillenは説明する。〔*: たとえばAWSでは、ユーザーからの‘見かけ上は’、オペレーティングシステムとして何を使っているかは、知る必要のないこと。つまりノーブランド。〕

彼の考えでは、従来どおり企業のために分散アプリケーションを作っていくコアビジネスで当面は快調でも、顧客をクラウドに移行させて次世代のアプリケーションを作っていくことになると、Red Hatは上記のような低コストのコンペティターたちとの競合対策、その必勝対策が必要になる。

厳しい目標

しかしそれでもなおWhitehurstとCormierは、この変化を乗り切ることに自信満々であり、それまでの単なるRHELの企業だったときよりも大きく伸びる、と考えている。Whitehurstによるとその目標は、5年後に50億ドル企業になることだ。

“弊社の事業計画の前提は、既存のポートフォリオだけで無理なく50億ドルに到達できる、という感触だ。”、と彼は述べる。

彼によると、クラウドとRHELをそれぞれ個別のサイロと見なすことはできない。お互いがお互いに供給しあっているし、ミドルウェアのレイヤもある…これも別の収益源だ。

オープンソースだけではなくもっと一般的に、エンタープライズソフトウェア企業で50億ドルの売り上げを達成したところはひと握りしかいない、とWhitehurstは指摘する。MicrosoftとOracleとSAPとSalesforceとVMwareだ。Ciscoもソフトウェアの売り上げだけならそれぐらいになるし、Adobeも今年は$5Bを超えそうだ。

彼自身も認める。今20億ドルで5年後に50億ドルなら、年率約58%で成長しなければならない(ぼくの暗算が正しければ!)。相当厳しい目標だ。もっと多様なプロダクトをテーブルに並べれば、それは不可能ではないかもしれないが、それもかなり厳しい。

いずれにせよWhitehurstによれば、この目標は同社のパートナーカンファレンスで発表したものであり、今の同社はそれが実現できるだけの、良い立ち位置にいる。さてしかし、彼が正しいかは、時だけが知っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CoreOSが古典的ビッグサーバーではなく分散コンテナクラスタ向けに最適化されたストレージシステムTorusをオープンソースでローンチ

shutterstock_127403000

CoreOSが今日(米国時間6/1)、同社の最新のオープンソースプロジェクトTorusをローンチした。Torusは、スタートアップやエンタープライズに、GoogleなどのWebスケールの企業が内部的に使っているものと同種の技術にアクセスさせよう、とする取り組みの一環だ。Torusの場合それは、分散ストレージである。

アプリケーションがコンテナでデプロイされ、それらがGoogle育ちのコンテナ管理サービスKubernetesを使っている場合、Torusはデベロッパーに、信頼性が高くてスケーラブルなストレージシステムを提供する。

CoreOSのBarak Michenerが今日の発表声明でこう述べている: “コンテナクラスタというインフラストラクチャにおけるパーシステントなストレージは、コンピューティングにおける今もっとも興味深い問題の一つだ。マイクロサービスが作り出し消費するデータの、膨大な量のストリームを、どこに保存すべきなのか。とりわけ、イミュータブルで離散的にコンテナ化された実行コードが、これほどまでに強力なデザインパターンになっているときには?”

つまりCoreOSのチームが主張するのは、既存のストレージソリューションはコンテナのクラスタが使うために設計されていない、という点だ。それらは大きなマシンの小さなクラスタを想定しており、一方今日のコンテナベースのやり方では、比較的小さなマシンで動く大規模なクラスタが主力だ。またコンテナのデプロイメントは、必要に応じてコンテナを迅速に始動しまたシャットダウンもする、というやり方だが、多くのデベロッパーは、これらのコンテナの上で動くアプリケーションにデータを供給できるパーシステントなストレージシステムを求める。

“クラスタの中で始動、停止、アップグレード、ノード間のマイグレーションを頻繁に繰り返すこれらのコンテナマイクロサービスのためにパーシステントなストレージを確保することは、モノリシックなアプリケーションのグループや、まして複数の仮想マシンが動く単一のサーバーを支えるストレージを提供することのように単純ではない”、とMichenerは書いている。

Torusは、ファイルの保存と取り出しにキー-ヴァリュー方式のデータベースを用いる。それならノード数数百までスケールできる、とCoreOSは主張する。今の、初期的バージョンのTorusは、ファイルをNetwork Block Deviceによるブロック指向のストレージとして露出する。しかしそのシステムは拡張性を前提としているから、今後誰かが必要なツールを作って、Torusの上でオブジェクト指向のストレージシステムがサポートされることを、CoreOSは期待している。

Torusは、CoreOSのLinuxディストリビューションCoreOSや、コンテナエンジンrkt、ネットワーキングツールflannelなどと共に、同社のオープンソースプロジェクトの一員になる。これらと、さらにそのほかの多様なツールが相まって、同社の商用製品であるコンテナ管理システムTectonicや、ソフトウェアコンテナの構築、保存、および配布を行うQuayなどを動かしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コンテナ管理のWeaveworksにGV(元Google Ventures)がシリーズBで$15Mを投資、オープンソースと商用サービスの併立へ

shutterstock_127403000

コンテナ管理ツールのWeaveworksが今日(米国時間5/11)、GV(元Google Ventures)がリードするシリーズBのラウンドで1500万ドルを調達したことを発表した。同社へのシリーズAで500万ドルを投資したAccelが、このラウンドにも参加した。同社の調達総額は、これで2000万ドルになる。

Weaveworksは、デベロッパー(dev)とエンタープライズのオペレーション(ops)の両方にとって最新のホットな技術であるコンテナを、管理しモニタしセキュリティを図るための一連のオープンソースのツールを作っている。しかし今回得られた資金は、オープンソースのプロダクトよりも構造性の明確なシステムを求める企業のために、商用製品を作っていくことに充てられる。

CEOのAlexis Richardsonは、今回の資金調達を発表するブログ記事で、“次のステップは統合化された商用製品の提供だ”、と述べている。同社にはクラウドサービスを提供していく計画もあり、それはまだベータの段階だ。

データセンターの進化史における最初の原生動物は、モノリシックな(一枚岩的な)アプリケーションだ。単一の巨大なアプリケーションを作り、それをセットアップしていく。アップグレードは大作業になるので、本当に必要になってからでないと、できなかった。

しかし今日では、デベロッパーはもっと迅速にアップデートしたいし、ユーザーは、変化の激しい市場の中でもっとも最新のツールを使って企業競争に勝ちたい。コンテナはアプリケーションを、複数のマイクロサービスの集まりへと分割する方法を提供する。それらは迅速にデリバリでき、自分の仕事が終わったらメモリから消えていく。

今の企業は、何百何千という大量のコンテナをデリバリし、そのそれぞれが、特定の時間にローンチしてディスクリートなタスクを実行しなければならない。大量のコンテナに関して、それらがすべて正しく行われるためには、ソフトウェアのコーディネーション努力がたいへんな仕事になるが、でも今日までは、デベロッパーとオペレーション(合わせてDevOps)たちは、自作のツールを適当に寄せ集めてそのプロセスを管理していた。

まだコンテナがアーリーアダプターのものだった時代には、そんな大変な仕事を誰もがやっていたが、でも技術がメインストリームに乗って市場の大きな部分を捕まえていくためには、企業が簡単に買えて簡単に使える出来合いのツールセットがあって、それらを既存のシステム管理体制に容易に組み込めないといけない。

そういう仕事をやってくれるのが、Weaveworksだ。同社はコンテナとそのまわりに存在する大量の可動部品のすべてを管理する方法を提供し、ユーザーが作ったコンテナのエコシステムを視覚化する。そしてそのエコシステムのライフサイクルに付き合いながら、複雑な仕事を単純化するためのお手伝いを提供する。

Weaveworks以外にもコンテナ管理を代行するサービスはあるが、同社はその業界のリーダーになれる、とGVは賭けている。今回の投資は、そのための賭け金である。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWS Lambdaをフル活用した無駄のないリソース管理ツールCloud CustodianをCapital Oneがオープンソース化

shutterstock_242413879

Capital Oneは巨大な組織で、金融サービス企業であることに関連したコンプライアンスの問題も多い。同社はたまたまAmazon Web Servicesの顧客でもあり、AWSの使い方に関するルールやポリシーを効率的に設定するためのツールを必要としていた。

昨年の7月に同社が開発を始めたツールが最終的にCloud Custodianとなり、今日(米国時間4/19)同社はシカゴで行われたAWSのイベントで、そのツールをオープンソースとしてGitHub上で提供する、と発表した。

Cloud Custodianプロジェクトの主席デベロッパーKapil Thangaveluは、こう語る: “Cloud Custodianはルールエンジンであり、AWSをより良く管理していくためのポリシーを、これを使って定義する。企業にはインフラ関連のリソースが数多くあり、どの企業にもそれらのリソースに関して達成すべきポリシーの集合がある”。

ポリシーの定義を整然と組織的なやり方で行うようになってから、同社のAWSリソースの使用量がそれまでの25%減り、Capital Oneのような巨大企業ともなると、その経費節減額はとてつもなく大きい。Cloud Custodianを開発する前は個々の要件ごとにスクリプトを書き、その全体を監督する者はいなかった。Cloud CustodianはCapital Oneに、中央集権的にポリシーを作ってモニタし管理するための手足を与えた。それまではポリシー政策に中央的管理というものがなく、複数のツールを適当に使っていた。

Cloud Custodian dashboard from Capital One.

Cloud Custodianのダッシュボード。写真提供: Capital One

このツールは、AWSの二つの新しいサービスによって可能になった。まず、何よりも便利だったのがCloudWatch Events(CWE)だった。これは1月にリリースされ、イベントのモニタリングが前よりもずっと効率的にできるようになった。アクションの有無を知るためにしょっちゅうAPIをポーリングするのではなく、ユーザーが関心を示しているイベントが生起したらCWEがリアルタイムで通知をくれるのだ。

もうひとつの突破口がLambda サービスで、昨年のAWS re:inventで発表されたこのサービスは、CWEのイベントトリガに対応して、一連のリソースを一定のルールに基づいてローンチする。“それを何秒間動かせ”といった、時間も指定できる。CloudWatch EventsとLambdaを組み合わせてCapital Oneは、超効率的なルールエンジンを作ることができ、それがCloud Custodianになった。

Lambdaが使えるとAWSのユーザー企業は、それほど頻繁ではないイベントのためにわざわざサーバーをセットアップしなくてよい。イベントがあれば、CWEがそのイベントに対応するLambdaのプロセスをトリガする、それだけだ。しかもそのプロセスが終われば、あとには何もない。それが、このシステムの独特の美学だ。必要がないときでもサーバーをしょっちゅう動かしていることに比べれば、リソースのオーバヘッドが相当大きく減る。

アドミニストレーターは、何のためにどんなルールがあるか、よく分かるようになり、ひいてはAWSのクラウドインフラストラクチャの全体がよく分かるようになり、詳細で確実なコントロールができる。そうするとすべてのインスタンスのコンプライアンスが確保され、使ってないリソースに金を払っている、という状態がなくなる。

同社がCloud Custodianをオープンソースにすることに決めたのは、これまでずっとオープンソースソフトウェアのお世話になってきたので、そのお返しをしたい、と考えたからだ。第二の、もっと実践的な動機はたぶん、ツールをオープンソースにすれば、自分たちだけでなくコミュニティがコードを見たりいじくったりするようになる。コメントも寄せられる。ソフトウェアのメンテナンスという肩の荷が、より多くの人の肩で担(かつ)がれるようになり、社内チームの負担がそのぶん軽くなる。

Capital Oneは、Cloud Custodianがオープンソースのプロジェクトとして離陸し、熱心なファンができることを期待している。今日の発表はそのための第一歩であり、ツールを軸とするコミュニティ作りの努力の始まりだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apache Cassandraデータベースを商用提供してきたDataStaxが昨年のAurelius買収の成果によりグラフデータベースをメニューに加える

shutterstock_222839971

DataStaxが昨年、グラフデータベースのAureliusを買収したときは、それは同社のDataStax Enterpriseプロダクトにグラフデータベースの機能を加えたいからだと思われたが、今日(米国時間4/12)同社はその目標を実現し、DataStax Enterprise Graphのリリースを発表した。

このエンタープライズグラフプロダクトはDataStax Enterpriseプロダクトセットに完全に統合され、これまでのキー・バリュー(key-value)、表形式、およびJSONドキュメントモデルに加え、初めてグラフオプションが顧客に提供される。

Kaiser PermanenteやCambridge Intelligence、Linkuriousなど10社による2か月の綿密なベータを経て同社は、このプロダクトをついに一般公開できることになった。この新しいグラフデータベースは、Aureliusが開発したオープンソースのグラフデータベースTitanがそのベースだ。

DataStax Enterprise Graphは複数のプロダクトで構成され、それらにはグラフデータベースを動かすDataStax Enterprise Server、管理部位DataStax OpsCenter、グラフを視覚化するDataStax Studio、多様な言語をサポートするDataStax Driver(s)などがある。

Graph visualization in DataStax studio.

グラフを視覚化するDataStax Studio(写真クレジット: DataStax

 

グラフデータベースはいくつかの点で、関係データベース(リレーショナルデータベース)と異なる。関係データベースでは複数の表のあいだの関係を定義し操作できるが、あまりにも複雑なデータや大量のデータになると、それらを十分な実用レベルで扱うことはできない。データ集合が大きくなり、さまざまなデータ間の関係が複雑になると、企業はそれらを無理なく表現し操作できる方法を求めるようになり、そこにグラフデータベースの出番がある。

いちばんよく知られているグラフデータベースは、FacebookのSocial Graphだろう。それは、あなた自身とあなたの友だちとの結びつきを表現する。このほか、たとえばAmazonのようなeコマースのサイトでは、ある製品とその関連製品の結びつきを表すために、この技術を利用している。Amazonで買い物をした人は、誰もがその機能を気に入るだろう。また医学の分野では、たとえば患者の症状とさまざまな疾病との結びつきを調べたり、クレジットカード会社は異常事と多様な犯罪的行為との関連を調べたりする。グラフ構造で表現するのがふさわしいデータ間の複雑な関係は、まだまだ、いろいろありえる。

DataStaxは社員が400名あまりいて、その実態はオープンソースのApache Cassandraデータベースのいわば商用部門だ。Cassandraへのコントリビューションも強力に行っており、また多様なサポートとより高度な機能を求める企業顧客向けには、そのエンタープライズバージョンをサポートしている。〔Cassandraのドキュメンテーションの多くがDataStax上にある。〕

同社は2010年にローンチし、これまでにおよそ1億9000万ドルを調達している。最近の資金調達は、2014年の1億600万ドルのラウンドだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MirantisがRed Hatとの入札競争に勝ちVW全社のプライベートクラウドをOpenStackで構築へ

shutterstock_322316804

わずかに残ったOpenStack専業スタートアップのひとつMirantisが今日(米国時間4/5)、大きな勝利を発表した。VWが、Red Hatよりも同社を選んで、OpenStackの大規模な実装を採用することに決めたのだ。

それは、MirantisとオープンソースのOpenStackプロジェクト、両方にとって大きな意味がある。VWは元々、OpenStackでプライベートクラウドを実装する気だった。しかし、どのベンダにやらせるのか? 各社の提案書を検討した結果、二つに絞られた: MirantisとRed Hatだ。

そのプロジェクトは、数十箇所のデータセンターと数万のノードから成る大規模な計画だ。Mirantisの協同ファウンダーでCMOのBoris Renskiが、そう述べている。

Volkswagen Groupの法人IT運用部長Mario Muellerによると、VWがプライベートクラウドを選んだのは、今市場で提供されているパブリッククラウドのプロダクトには、同社がサポートしたいユースケースに必要な機能が、欠けているからだ。

“ユースケースといっても、うちの場合はスケールが大きいから、ある時点でプライベートクラウドが必要になると考えていた。プライベートクラウドは、こっちのやることが多くなることも分かっていた。しかしVWグループ全体のデジタル化を推進していくためには、難しい問題から手を付けていくべきだ。今日のパブリッククラウドは多様なインフラストラクチャサービスを提供して、すべての産業を水平的にカバーしようとしているから、話がうちの場合のような大規模な垂直のユースケースになると、十分な経済的合理性がない”、とMuellerは説明する。

VWは、ファイナリストのRed HatとMirantisを、63の小さなパイロット事業とユースケースで比較した。どちらも、VWの本社にそのための部屋を与えられた。

Mirantisのグローバル営業担当VP Marque Teegardinは語る: “ものすごく厳しいテストだった。すべてのタスクを2週間で完了し、1週間でVWのチームのためのプレゼンを作らなければならない”。VWは両社を純粋に技術的なメリットに基づいて比較し、それぞれのタスクの結果がVWの技術的要求をどれだけ完全に満たしているかが、比べられた。

そして、その評価点の高かったMirantisが、プロジェクトを勝ち取った。それは、小さなスタートアップにとって相当な重圧だったのでは、という問に対してRenskiは、たしかに大きな仕事だったけれども、大規模な客先実装で入札に勝ったのは今回が初めてではない、と述べた。同社はこれまでにも、AT&TやEricssonn、GAPなどの大企業を扱った経験がある(AT&Tの74のデータセンターをMirantisが動かしている)。

一方、Red Hatのクラウド部門のグローバルマーケティングを担当しているMargaret Dawsonは、今回の件について、“弊社は個別の取引について直接のコメントはしない”、と一蹴した。王道を歩むRed Hat、というところだ。

彼女は曰く: “全般的に弊社は、通信企業や一般的大企業や政府諸機関で、OpenStackがプライベートクラウドのインフラストラクチャとしても採用されてほしい、と願っている。それは巨大な市場であり、451 Researchの予測によると、2017年にはOpenStackのビジネス機会の総額が25億ドルにもなる。したがって弊社は、OpenStackのマーケットのエコシステム全体が活況を呈することを歓迎するし、また必要とする”。

OpenStackは2010年に、オープンソースのプライベートクラウドプロジェクトとしてNASAとRackspaceなどが、主に成長著しいAWSの対抗勢力として開発した〔今でもNASAのプライベートクラウドのベース〕。その後、数多くのOpenStack関連スタートアップが生まれ、またRed Hat、IBM、HP、Oracleなどの世界的大企業も注目するようになった。しかし初期のスタートアップの多くがその後買収されたり、あるいは、高名な企業が廃業に追い込まれたりしたが、Mirantisはしぶとく生き残り、従来型の大手ITベンダとの競争にも、勝ちを収めつつある。

Mirantisは、2011年の創業以来2億2000万ドルを調達した。最近のラウンドは、昨年8月の1億ドルだった

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ホワイトハウスのソフトウェア政策(草案)は連邦諸機関へのオープンソース思想の普及を目指す

shutterstock_381577765

今やオープンソースのアドバンテージは、誰の目にも明白だ。コードを一般公開すれば、いいことが起きる。バグやセキュリティホールを、人びとが見つけてくれる。多くの目や声により、ソフトウェアがどんどん良くなる。さまざまなニーズに適応できる。それどころか、スタートアップのエコシステムはその全体が、オープンソースの主要プロジェクトがベースだ。

オープンソースが民間部門でこれほどまでに遍在的になってきたので、最近では政府も注目するようになった。今日(米国時間3/11)は合衆国政府のCIO Tony Scottが、ホワイトハウスのブログで、オープンソースを政府にも持ち込もうとするオバマ政権の計画の概要を述べている。

その草案によるとホワイトハウスのビジョンは、政府諸機関がコードを共有し、その後の時間の中で効率を改善していけるようにする、それにより、すでにどこかで作られているものを、別の省庁が再発明しないようにする、というものだ。

それはまだ決定された政策ではなく、議論のたたき台だ。Scottはそのブログ記事で、“われわれは広く意見を求めるために、政府のカスタムソフトウェアのコードへの幅広いアクセスをサポートする「連邦ソースコード(Federal Source Code)」政策の草案を、公開していく”、と述べている。言い換えるとそれは、政府全域のオープンソースポリシーを策定していくための、出発点だ。

政府の各種プロジェクトで使われるコードをオープンソースにすることは、必ずしも、すべてのコードを公開すべしという政策ではない。しかし一部のコードの公開にすぎなくても、そこには今後の興味深いユースケースが生まれ育ち、新しいビジネスすら生まれるだろう。Scottのブログ記事は述べている:

“この政策は、連邦政府のために、あるいは連邦政府によって、新たに開発されるソフトウェアが、連邦政府の全機関に可利用となり共有されることを要求する。それには、連邦政府の資金によって作られるカスタムコードを一般に公開していくパイロット事業も含まれる。

しかしコードの共有だけがこの政策のすべてではない。Scottによれば、それはまた、政府諸機関ができるかぎりオープンソースのコードを利用して自らソフトウェアを作るよう彼らを教育し、今すでに一部のプロジェクトで行われていることを拡大普及していくことも含まれる。

ホワイトハウスがこの変革に成功し、それが今後の政権にも受け継がれていくなら、コードの共有は目に見える日常の慣行となり、それは究極的にはイノベーションを喚起するとともに、税金を使って政府が作った技術を利用する新しいビジネスすら産み育てるだろう。それは、所属・支援する政党や政策の違いを超えて、多くの人びとが賛同するアプローチだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、オープンコンピュートプロジェクトに参加

google_data_center_2

Googleは今日(米国時間3/9)、オープンコンピュートプロジェクト (OCP)に参加したことを発表した。OCPはFacebookを始めとする複数の企業が5年前に設立したプロジェクトで、オープンソースハードウェアを通じてIT基盤開発を推進することを目的としている。例えばFacebookは、同社のサーバーやデータセンターのハードウェアの作り方をオープンソース化する。

過去数年間、Googleも自社のデータセンターの作りについて一部の情報を公開してきたが、 今回さらにFacebookらと共に、OCPオープンラックプロジェクトに参加する。このプロジェクトの目的は、48V電源をデータセンターのラックに供給することだ。Googleは、48Vのラック電源に2010年から取り組んでおり、その過程で前世代の12Vシステムより30%エネルギー効率が良くなったと言っている。

「業界がこれらの同じ問題の解決に取り組み、機械学習用GPUのような高負荷を扱うようになってきた今、OCPで協力して新たな設計を標準化することが理にかなっている」とGoogleの技術プログラムマネージャー、John Zipfelが今日の発表に書いている。「われわれはこれが次世代電源アーキテクチャーを採用する人全員に役立ち、Googleと同じ節電と費用削減を実現するものと信じている」。

Googleはこれを、OCPへの取り組みの第一歩にすぎないと言う。Google広報担当者は本誌に、Googleは今後も「管理ソフトウェアやハイパースケールコンピューティング向けストレージディスクドライブ等の新しい分野のOCPプロジェクト」についても探究を続ける予定だと話した。Googleは先月発表したように、データセンターのディスクドライブ環境の改善には特に関心が高い。

ちなみに、今日OCP関連の行動を起こした会社はGoogleだけではない。Microsoftは2014年からプロジェクトに参加しており、本日同社も、Arista、Broadcom、DellおよびMellanoxと共に、様々なネットワークコンポーネントをプロジェクトに提供することを発表した

[原文へ]

(翻訳:Nob Takahashi / facebook

ますますオープンソースづくMicrosoft、今度はEclipse Foundationに参加

microsoft-eclipse

Microsoftが今日(米国時間3/8)、オープンソースの団体Eclipse Foundationに加わる、と発表した。同団体はEclipse IDEでいちばんよく知られていると思うが、ほかにもいろいろなデベロッパーツールを提供している。

これによりMicrosoftは、GoogleやNovell, IBM, Debeka, Oracleなどと並んでEclipseのスポンサーになる。

しかしMicrosoftにはVisual Studioという独自のIDEがあるのだから、今日の発表はやや驚きかもしれない。しかしMicrosoftはすでに、Eclipseのエコシステムでかなり活動しているのだ。たとえば同社はAzure toolkit for Eclipseを提供しているし、また同社のJava SDK for AzureをEclipseから使ってクラウドアプリケーションを作ることもできる。

Microsoftのデベロッパー事業部ゼネラルマネージャーShanku Niyogiが声明文で書いている: “Eclipse Foundationとは長年協働して、わが社のアプリケーションプラットホームと開発サービス(Visual Studio Team ServicesやMicrosoft Azureなど)のポートフォリオを横断するJava体験の改良に努めてきた。このたびEclipse Foundationに参加することにより、Eclipseのコミュニティとより密接にコラボレーションし、すべての開発チームのためのツールとサービスのすばらしい集まりを配布でき、そしてわが社のクラウドサービスとSDKsとツール類を継続的に改良していける”。

今日の発表でMicrosoftは明らかに、オープンソースのエコシステムにおける役割を強化しようとしている。今回EFに加わることに加え、今日はまた、同社のEclipseプラグインTeam Explorer Everywhere plugin for Eclipseをオープンソースにする、と発表した。このほか、AzureのIoTサポートをEFのKura IoTフレームワークに加え、AzureにおけるJavaデベロッパーサポートを改良して、それをあらためてローンチした。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データを発見しそれらの起源・出自を調べるLinkedInの社内ツールWhereHowsがオープンソース化

linkedin-chocs

LinkedInが今日(米国時間3/3)、WhereHowsをオープンソース化した。WhereHowsは主に同社の社員が、同社が生成するデータを見つけ、また同社のさまざまな内部的ツールやサービスで使われているデータ集合の出自を調べるために使っている、メタデータツールだ。

今では多くの企業が毎日のように大量のデータを作り出しているから、それらの情報のフローを全社的に管理することがほとんど不可能になっている。データウエアハウスに保存するのはいいけれども、結局のところ、同じようなデータ集合が大量に集積したり、元のデータ集合のいろんなバージョンが散乱したり、いろんなツールで使うためにデータ集合がさまざまに変形されていたりする。まったく同じデータが、名前やバージョンを変えて複数のシステムにあることもある。だからたとえば新製品開発をこれから始める、というとき、あるいは単純に役員が見るためのレポートを作ろうとするとき、どのデータ集合を使えばよいのか、よく分からないことが多い。

2016-03-03_0839

LinkedInのShirshanka DasとEric Sunによると、同社もまさしく、この問題に直面していた。そこで彼らは、WhereHowsを開発した。それは、LinkedInのような大きな企業で、データに何が起こっているかを常時追跡するための、中央的リポジトリ兼Webベースのポータルだ。今では中小企業ですら、大量かつ雑多なデータの整理や管理に悩まされているだろう。LinkedInでは、WhereHowsが現在、約5万のデータ集合と14000のコメントと3500万のジョブ実行の、ステータスに関するデータを保存している。それらのステータスデータは、約15ペタバイトもの情報に対応している。

LinkedInはHadoopの大ユーザーだが、このツールはほかのシステムのデータも追跡できる(Oracleデータベース、Informatica、などなど)。

WhereHowsはAPIとWebの両方でアクセスできるから、社員たちはデータ集合の出自や由来を視覚化したり、注釈を加えたり、いろんなことができる。

DasとSunによると、LinkedInは、そのサービス本体に属していないプロダクトをこれまでも長年、オープンソース化してきた。その基本的なねらいは、会話を喚起することだ。ビッグデータの大きなエコシステムがあれこれのツールを採用すると、同社もそのことで結果的に得をする。これまでぼくが取材してきた多くの企業と同様に、LinkedInでも、オープンソースが同社の技術のブランドイメージを高め、すぐれた人材の獲得を容易にするのだ。

2016-03-03_0844

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

オープンソースコードのセキュリティアップデートを代行するLexumoが$4.89Mを調達、巨大な未開拓市場に挑む

shutterstock_104783210

マサチューセッツ州ケンブリッジのLexumoは、オープンソースコードのセキュリティアップデートを継続的にチェックしてくれるクラウドサービスだ。同社は今日(米国時間2/1)、489万ドルという、しっかりした額のシードラウンドを発表した。

このラウンドをリードしたのはAccomplice, .406 Ventures, そしてDraperだ。

投資家たちがLexumoに注目する理由ななんだろう? 同社は世界中のすべてのオープンソースコードをインデクシングして、その結果をもとに、オープンソースコードを組み込みシステムやエンタープライズソフトウェアで利用している企業に、セキュリティサービスをクラウドから提供している。ユーザー企業がLexumoにコードを提出すると、同社はその中に既知のセキュリティ脆弱性をチェックする。またLexumoはそのコードを継続的にモニタして、アップデートがあればそのことをデベロッパーに知らせる。

オープンソースソフトウェアのコードの継続的なセキュリティアップデートのチェックは、ユーザーの自己責任になることが多いが、それはユーザー企業にとって、往々にして負担が大きすぎる。自力でできない場合もある。それをいわば自動化してくれるのが、Lexumoのサービスだ。LexumoのCEO Brad Gaynorはそう説明する。

デベロッパーはオープンソースのライブラリを使ってなるべく早くソフトウェアを作り、配布したいと願っているが、アップデートをタイミングよくチェックして、その内容(既存コードに与える影響など)を理解できる人材が、いない場合が多い。

“オープンソースのコミュニティは、セキュリティの脆弱性を見つけてその対策を施し、新しいコードを作っているが、そのアップデートのペースに追随できないユーザー企業がほとんどだ”、とGaynorは語る。

コードのアップデートはセキュリティ対策だけでなく、APIやインタフェイスの変更を含むこともある。しかしデベロッパーによっては、API等はいじりたくないが、セキュリティだけはアップデートしたい、パッチを当てたい、ということがある。そういう場合もLexumoはカスタムのパッチを提供してそのニーズに応える。“フル・アップグレードがいつでも正解とはかぎらない”、とGaynorは説明する。

Gaynorらは5年前には、MITの非営利の研究団体Draper Labsにいた。その団体が昨年、独立の企業としてスピンオフし、サイバーセキュリティに着目して世界のすべてのオープンソースコードをインデクシングし、検索できるようにした。Gaynorらはその価値を認めたが、実用化の方法がまだよく分からなかった。

“当時のわれわれには、世界中のオープンソースソフトウェアを分析する能力があったし、その改良と拡充にも努めていた。それはまるで、手に金槌を持っているのに、釘がどこにも見当たらない状態だった”、と彼は語る。

そして最終的に彼らは、オープンソースコードの脆弱性を見つけ出すことをサービスとして企業化しよう、という方針に落ち着いた。今は、資金環境が厳しくなってきたと言われているから、その中での500万ドル獲得は、なかなかのものだ。

“大きな市場なのに、まだ誰も手を付けていないんだ。われわれの技術とビジネスモデルは、とくに組み込みシステムにおける未対応のニーズに応えようとしている”、とGaynorは語っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleがロードバランサーSeesawをオープンソース化(Go言語で書かれている)

14068599850_c589927a7b_o

Googleが今日(米国時間1/29)、ロードバランサーSeesawをオープンソースにする、と発表した。このLinuxアプリケーションはGoogleのGo言語で書かれていて、これからはApacheライセンスによりGitHubで入手できる。

Googleのインフラの日常的メンテナンスを担当しているSite Reliability Engineer(SRE)の一人Joel Singが、今日の発表声明で述べているところによると、Googleは2012年までは二種類のロードバランシングシステムを使っていたが、しかしどちらも、“管理と安定性に問題があった”。そこで、彼と彼のチームは新しいソリューションを探したが、Googleのニーズを満たすものがなかったので、自作することになった。

“要求はそれほど複雑ではなかった。必要なのは、ユニキャストとエニーキャスト仮想IPを扱えること、NATDSR(またの名DR)でロードバランシングができること、そしてバックエンドに対する健康診断ができることだ”、とSingは書いている。“何よりも必要なのは、管理のしやすいプラットホームだった。構成を変えたときのデプロイの自動化、とかね”。

一部ではすでにネットワークレベルのロードバランシングにLinux Visual Server(LVS)を使っていたから、Singのチームもそうすることにした。ただしそれに加えて彼らは、 モジュール構造のマルチプロセスアーキテクチャと、フェイルオーバーやリカバリのサービスも実装した。

“開発は短期間で集中的に行い、完成しデプロイにも成功したSeesaw v2で二つの既存のプラットホームをリプレースした”、とSingは書いている。“これにより、全体的に、サービスの可利用性が向上し、管理のオーバヘッドが減った”。

なお、このプロジェクトの提供者はGoogleだが、オープンソースのバージョンはGoogleの公式のプロダクトではない。だから、サポートをGoogleに求めることはできない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Walmartがオープンソースのクラウド&アプリケーション管理プラットホームOneOpsをローンチ

walmartlabs_concept25

Walmart(そう、あのWalmart)が、クラウドとアプリケーションのライフサイクル管理のためのDevOpsプラットホームOneOpsを、オープンソースでローンチする。Walmart Labsが開発したそれは、アプリケーションをよりはやく書いてローンチし、それらのメンテナンスをより容易にすることがねらいだ。

そのサービスをオープンソースにすることは、昨年発表されていた。

“われわれのミッションは、顧客に、もっともアジャイルでコスト効果が高く柔軟性に富むアプリケーションライフサイクル管理のソリューションを、クラウド上のエンタープライズクラスのワークロードに対して提供することだ”、とチームは語っている。

walmart-truckclose-up-side-view_129821854433586541

Walmartのような企業がこんなツールをローンチするのは奇妙とも思えるが、しかしむしろ、レガシーのリテイラー(小売企業)においては、テクノロジの有効利用が今のWalmartほどには進んでいない、と言えるのかもしれない。ただし同社が今日(米国時間1/26)述べたように、同社はクラウドのユーザであり、クラウドのプロバイダではない。

今日の発表声明の中でWalmartのCTO Jeremy KingとWalmartLabsのプラットホーム担当VP Tim Kimmetはこう述べている; “WalmartがOneOpsをオープンソースでリリースすることは、理にかなっている。オープンソースにすれば、コミュニティがそれを改良したり、既存のテクノロジに適応させるための方法を築いたりできるからだ。われわれはオープンソースの門外漢ではない。これまでもずっと、積極的なコントリビューターであり、Mupd8やhapiのような技術をコミュニティにリリースしてきた”。

実際にはOneOpsは2011年に企業として創業され、Walmartが2013年に買収した。今日では同社の約3000名のエンジニアが、新しいプロダクトの構築や管理に利用している。walmart.comやSam’s Clubなどの、同社のeコマースサイトは、OneOpsで管理されている。同社によると、同社のエンジニアたちは、このプラットホームを使って毎月3万あまりの変更をコミットしている。

それでは、OneOpsは一体何をするのか? Walmartによると、このプラットホームの重要な利点のひとつは、そのままで複数のパブリックおよびプライベートなクラウドプラットホームに使えることだ。それらのクラウドプラットホームは、Microsoft Azure, Rackspace, AWSおよびCenturyLink Cloud, そしてOpenStackのクラウドだ。OpenStackはWalmartがそのアーリーアダプターであり、今でも最大のユーザの一つだ。

“クラウド環境はコントロール性が優れているから、クラウドのプロバイダがプロプライエタリなツールや技術の使用をユーザに指定したり、使える帯域を制限したりするのではなくて、OneOpsを使えば、デベロッパがコントロールを自分の手中に取り戻すことができる”、とチームは書いている。

Walmartのチームによると、NoSQLデータベースのCouchbaseとも協働して、自分たちのプロダクトを統合してもらっている。OneOpsはそのほか、Node.jsやDocker, ElasticSearchなどなどさまざまな技術と一緒に使えるようセットアップされている。

OneOpsにはさらに、モニタリングツールや、不具合時の自動治癒/自動リプレース機能、クラスタのサイズを管理する自動スケーリングツールなどが含まれている。アドミン向けには、企業向けのアイデンティティサービスやクォータ管理、構成管理などとの統合もできる。

プロジェクトのコードはGitHubにある。GitHubのプロダクト管理担当VP Kakul Srivastavaは、こう言っている: “Walmartはオープンソースへの重要な貢献を続けている。これからGitHubのコミュニティがOneOpsとどうエンゲージしていくか、楽しみに見守りたい。小売企業の大物がソフトウェアの大物にもなるところを目撃するなんて、すごいことだよ”。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

MariaDBがさらに$9Mを調達、‘アメリカ化’をねらってMichael HowardをCEO、Monty WideniusがCTOに

seal

オープンソースの世界にビッグニュースがまたひとつ。MariaDB Corporation(元SkySQL)が、新たに900万ドルの資金を調達し、新CEO Michael Howardの就任を発表した。MariaDB Corporationは、MariaDB Foundationが管理しているMySQLフォークの商用バージョンを作っている企業で、Howardはエンタプライズ畑のベテラン経営者だ。これでMariaDBの調達総額は4000万ドルをわずかに超え、今回のラウンドはこれまでの投資家Intel CapitalとCalifornia Technology Venturesがリードした。

さらに同社は、もうひとつの重要な役員人事を発表した。MySQLを作り、後年MariaDBを作ったMichael “Monty” Wideniusが、CTOとして加わったのだ。彼は、MariaDB Foundationのファウンダでオープンソースの運動家でもある。

Howardは、前にGreenPlumやC9などを手がけ、今回はPatrik Sallnerに代わってMariaDBのCEOになる。フィンランド人のSallnerは、2012年からMariaDBのCEOを務めた。Howardによると、新たな資金は主にマーケティングと、新製品開発、そして事業の比重を故国フィンランドから合衆国へシフトしていくことに充てられる。

“今、パロアルトかメンロパークにいい場所を探している”、と彼は語る。“徐々に合衆国の企業にしていきたいし、だからこそアメリカ人を新CEOに選んだのだ。主なパートナーシップはみなシリコンバレーにいるから、その意味でも合衆国を活動拠点にしていきたい”。…マスコットも、フィンランドふう(上図)から、ウェストコーストふうに変わるのかな?

MariaDBは評価額を公表しないが、しかしHowardによると、今回の投資は今後12か月以内に予想されるより大きな投資への“踏み台”だそうだ。

Howardによると、同社の現在のユーザ数はおよそ900万、ソフトウェアのダウンロード数は1200万で、収益性はきわめて快調、という。“Webサイトのビジター数は数百万に達する。Linuxに載って配布されているから、今やオープンソースの定番だと思う。ITのインフラストラクチャにMariaDBがあり、そのコミュニティの一員であることは、単なるビジネスモデルではなくて戦略的意思決定だ”、と彼は語る。

たしかに、それまでプロプライエタリだったソフトウェアがオープンソースになる例が最近多い。それに今では大企業もオープンソース本格的な投資をして自分たちもその需要を確実に掴まえようとしている。

MariaDBの新製品についてHowardはあえて言葉を濁すが、データベースとセキュリティ、時間的な処理、そしてIoTだ、と言った。IoTも、同社が将来、買収をしそうな分野のひとつだそうだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。