AWS Lambdaのイベントトリガを使いやすくしてWebサイトの開発方法を改革するNetlify

Webプロジェクトの継続的なデプロイメントを支援するサービスNetlifyのビジョンは、Webサイトの作り方を変えることだ。とくに、フロントエンドのデザインとバックエンドで実行されるサービスとの結合を、もっとシンプルにしたい。今日同社は、そのビジョンの実現に向かう次の一歩として、NetlifyのサービスにAWS Lambdaのファンクションを導入した。

同社のねらいは、Web開発に伴う多くの複雑性を、できるだけ減らすことだ。たとえば、ユーザーがHTMLとJavaScriptでフロントエンドをデザインすると、Netlifyはそれをさまざまなサービスに結びつける。決済ならStripe、メールによるニューズレターの管理ならMailChimp、というように。このやり方でNetlifyは、Webサーバーという概念を抽象化(実体のないものに)してしまう。デプロイが遅くてセキュリティもスケーリングも困難なあのあれが、消えてなくなる。そして、一枚岩的なWebサイトから、スタティックなフロントエンドとバックエンドのマイクロサービスという組み合わせへ移行し、それによりセキュリティとスケーリングの問題を解決、そしてサイトを従来よりも相当早くユーザーに渡せるようになる(デリバリが早い)、と同社は信じている。

ユーザーは、サイトの構築に何を使ってもよい。ユーザーが作った設計/デザインを渡されたNetlifyは、バックエンドのコーディングのすべてをエッジに置き、コードはエッジで実行される。その意味で同社のサービスは、半分はContent Delivery Network(CDN)、残る半分はデベロッパーの自動化エンジンだ。

この、より動的なWebサイトをより早く作るというNetlifyの能力がAndreessen HorowitzのパートナーPeter Levineの目に留まり、昨年8月に同社の1200万ドルのシリーズを彼がリードした。Levineは曰く、“彼らの、マイクロサービスとAPIsを活用して柔軟性に富む動的な(ダイナミックな)Webサイトを作る、という考え方はすばらしいアイデアだ。しかも、エッジへデプロイすることによって、さらにハイパフォーマンスなユーザー体験を作れるし、GitHubを統合することによってアプリケーションを容易に作成し管理できる”。

今日の発表は、同社のサービスのそんなアプローチをさらに一歩前進させる。Lambdは、AWSのいわゆるサーバーレス・ツールだ。デベロッパーはファンクションを作り、それが特定のイベントにトリガされて実行される。デベロッパー側には、サーバーを24/7動かし管理しメンテナンスする苦労がない。これは、NetlifyのWeb開発アプローチとぴったり相性が良い。つまりそれは、AWS Lambdaと同じく、WebのパブリシングプロセスからWebサーバーを取り除くから。

そしてNetlifyは、Lambdaのファンクションを、もっと容易に実行できるようにした。同社によると、Webデベロッパーは確かにイベントトリガーという考え方を気に入っているけど、AWSのワークフローは複雑すぎる。イベントトリガーをデベロッパーのアイデンティティで容易に作れるようになれば、Lambdaをもっと気軽に利用できるだろう。

同社の協同ファウンダーChristian Bachは、こう説明する: “Lambdaが良いことは自明だが、それを軸とするワークフローがないために、使いづらい。われわれにはフロントエンドをパブリシングするワークフローがあるので、サーバーレスもそれと同じようにしたい、と考えた”。

“Lambdaのトリガのひとつひとつが小さなマイクロサービスになり、ブラウザーからそれらにアクセスできる”、と彼は述べる。たとえばStripeを使って決済をする場合なら、Stripeの秘密の認証情報のコードで決済のゲートウェイに入る。“従来なら、この小さな呼び出しのために、どこかでサーバーを動かす必要がある。この小さな機能だけのために、Railsのアプリケーションを作るだろう”、Bachはそう述べる。

しかしNetlifyのやり方では、認証情報を数行のコードでタイプし、それからLambdaのトリガとNetlifyの糊的なコードを少々使うだけだ。これにより、そのコードをどこに置くか、それをどうやって管理するか、という問題が解決する、とBachは言う。

かねてからエッジコンピューティングをテクノロジーの大きな駆動因として見ているLevineがNetlifyのシリーズAをリードし、同社の取締役会に加わったたのは、たぶん偶然ではない。

Levineは曰く、“かなり前からエッジコンピューティングには注目しているし、Netlifyは、エッジにおけるサービスという大きなトレンドの一部だ。同社は、現代的なWebサイトを構築しデプロイする方法を開発した”。

同社は、2015年に創業され、これまでに1410万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebook、ゲームのライブ中継機能を一般公開、視聴者への報酬も可能に

Facebookは、TwitchやYouTubeに対抗してビデオゲームのライブストリーミング機能を強化すべくPC向けの新しいGames SDKを公開した。Facebookは、デベロッパーのBlizzardが作ったOverwatchなどのゲームで2016年からライブストリーミングをテストしてきたが、このたび全デベロッパーがPCゲームのライブストリーミングをニュースフィードに流せるようになった。さらにFacebookは、ストリーミングを見たファンにゲーム内アイテムやボーナスを報酬として渡せるしくみも提供する。たとえば、コメント欄の下に「Paladinsのストリーム中継を見てゲーム内で使えるコインをもらおう」などの広告がでてくる。

バイラルな成長と売上増加が見込めることから、多くのゲームデベロッパーがFacebookの新SDKを採用する可能性がある。一方プレーヤーはシンプルな公開機能を使って多くの視聴者を得ることができる。視聴者はFacebookで見れば賞品をもらえるので選ぶ理由がある。Facebookにとってはゲームストリーミングはニッチだが魅力的なコンテンツなので長時間の視聴セッションが期待できる。つまり、広告を載せたコンテンツで収益化するとともに、ユーザーを長期的に囲い込むことができる。

Facebookは、カスタム「アプリイベント」で高度な分析機能をデベロッパーに提供しており、今回Webとモバイルに続きPCでも利用できるようになった。ゲームデベロッパーがFacebookの拡張Friend Finderを統合すれば、ユーザーは友達とプレーしたり、ほかのプレーヤーのデータを見て一緒にプレーする仲間を見つけることもできる。SDKを利用したいデベロッパーはここで登録できる。

Facebookはゲームストリーミングの世界では遅いスタートだったが、急速に新機能を開発し、提携を結ぶことで視聴者ベースやコンテンツカタログを拡大してきた。昨年Eスポーツ分野のトップであるESLと提携し、つい最近Counter-StrikeとDOTAといったトップゲームのトーナメントをストリーム中継した。FacebookはMessngerゲームにもライブストリーミングを導入している。現在視聴者がスタープレーヤーに投げ銭するしくみをテストしているほか、ゲーム開発チームのメンバーとして何人かのプレーヤーも雇った

あらゆるものに手を出す巨大ソーシャルネットワークが、このニッチなコンテンツ部門で果たして成功するのか? 毎月8億人がFacebookとつながったゲームをプレイしているが、ゲーマーのリアル世界の友達がビデオゲームに興味があるとは限らないし、友達がプレイしているところを見たいかどうかもわからないの。ゲーム愛好者の特別な集団を見つけられなければライブ中継は失敗に終わるだろう。 Twitch のようなネットワークやYouTubeの片隅には、ゲームストリームを見るために集まっている人たちがいる。Facebookがゲームストリーマーや視聴者やデベロッパーを引きつけるためには、新機能を早く開発し、ユーザーの規模を生かして視聴者を拡大する必要がある。そうでなければゲーマは居心地のよい今の場所を離れないだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

GoogleがUbisoftと協働でオープンソースのゲームサーバーホスティングシステムAgonesをローンチ

クラウドコンピューティングといえば、ドキュメントをクラウドで編集したり、CRMシステムをアップデートしたりするための大規模なサーバーファームを連想する人が多いだろう。でも嬉しいことにクラウドには、遊びの側面もある。マルチプレーヤーゲームも、すべてどこかのクラウドで動いている。ゲーム企業は、これらのサーバーを動かすためのシステムを自分で作ることが多いが、しかしGoogleとUbisoftは今日(米国時間3/13)、マルチプレーヤーゲームのサーバーを管理しホスティングするためのオープンソースのシステムを提供する新しいプロジェクトを発表した。

そのプロジェクトの名前Agonesは、ギリシア語で“コンテスト”という意味だ。それはGoogleが育てたコンテナプロジェクトKubernetesを、マルチプレーヤーゲームサーバーの艦隊をオーケストレーションしスケーリングするための中核的なツールとして使用する。ユーザーが自分が好きなマルチプレーヤーゲームをプレイするときには、そんな大軍のゲームサーバーがあるおかげで、島にいる自分以外の99名のマニア的プレーヤーと互いに相手を見つけたり対戦したりできる。サーバーはゲームだけでなく、いかさまを見抜くためのソフトウェアを動かすこともある。コンテナがこの種のシナリオにとって理想的なのは、ゲームの個々のセッションは短時間で終わるものが多く、ひとつのコンテナでひとつのセッションを表せば、デプロイもシャットダウンも迅速にできるからだ。

Ubisoftの開発部長Carl Dionneは、こう書いている: “プレーヤーがゲームに集中できるためには、クォリティの高い、最高にシームレスなサービスを提供しなければならないし、そのための方法をたえず改良していく必要がある。Agonesが備えている柔軟性により、専用のゲームサーバー群を最適なデータセンターで動かすことができ、われわれのチームに、彼らが必要とするリソースのより強力かつ詳細なコントロールを与える。両社のコラボレーションによって、Kubernetesの大規模デプロイに関するGoogleの専門的能力と、われわれのゲーム開発パイプラインと技術に関する深い知識を、結びつけることができる”。

Agonesは要するに、ゲームサーバーを動かすために必要なツールでKubernetesを拡張したものだ。そのツールには、ゲームサーバーのためにカスタム化されたKubernetes Controllerと、同じくカスタムのリソース定義が含まれる。Agonesのチームによると、デベロッパーは、ペアのゲーマーを互いに引き合わせるデベロッパー独自のマッチメイキングサービスと標準のKubernetes APIsを容易に統合して、ゲームサーバーを始動できる。

Googleとしてはデベロッパーが自分のゲームをGoogle Kubernetes Engineでホストしてくれると嬉しいところだが、しかしAgones自身はクラウドを特定せず、どんなクラウドでも、あるいはオンプレミスでも、使用できる。

今日のリリースは、あくまでも初期的な形だ。しかしv2に向けてのロードマップはすでに作成中であり、チームによると、そこではゲームサーバーの集合体(Fleets)のような新しい機能や、ゲームサーバーのパフォーマンス分析、ノードの自動スケーリングなどが導入される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cloudflareが自分のグローバルネットワークへのアクセスを提供して真のエッジコンピューティングを可能に

ますます多くのコンピューティングがエッジへ移行して行くに伴い、プログラマーはレイテンシーを減らしパフォーマンスを上げるために、ユーザーになるべく近いコンピューティングパワーにアクセスしたい、と願っている。今日(米国時間3/13)Cloudflareが発表したCloudflare Workersは、そんなデベロッパーたちがCloudflareのネットワークのエッジで直接実行されるコードを、書けるようにする。

同社の協同ファウンダーでCEOのMatthew Princeによると、これまでそんなアクセスができるのはCloudflareの社員だけだった。“今日からはそれを、自分のアプリケーションをエッジで動かしたい人なら誰でも使える。これによってCloudflareの可能性も広がり、アプリケーションのこれまではできなかったような構成やプログラミングが可能になる”、と彼は説明する。

今の、IoTやゲーム、ビデオなどのアプリケーションは大量の帯域を使用するから、処理をなるべくエッジに持ってこれればパフォーマンスも改善され、またコードの実行に対する細かい粒度のコントロールも可能になる。

Princeによると、プログラマーは、ユーザーがそのアプリケーションにアクセスする場であるフロントエンドをいじったり、あるいはバックエンドではデータベースをいじくってパフォーマンスをアップしようとする場合が多い。しかしこれまでの彼らは、Cloudflareのネットワーク上のどこで自分のコードが実行されるかを、コントロールできなかった。

“本質的にローカルなプロダクトを開発する場合は、大多数のユーザーが至近距離にいるわけだから、コードがエッジで実行されるようプログラミングすればよい”、と彼は語る。至近距離という言い方は、誇張でなない。Cloudflareはデータセンターが世界中127箇所にあり、しかもその数はコンスタントに増え続けている。

この新しいサービスによりプログラマーは、コードが実行される場所をJavaScriptのコードで指定できる。しかも、そのコードをアップデートすると、エンドユーザーのところでアプリケーションのアップデートをする必要なく、ほとんどすぐに実装される。変更を、今使っているクラウドプロバイダーへアップロードする必要もない。

Cloudflareは、企業のWebサイトのパフォーマンスとセキュリティを向上することがメインの仕事だが、今回は自分のネットワークのパワーを顧客に利用させようとしている。コードの実行場所をプログラミングできることによって、ユーザーは自分のアプリケーションを動かすために必要なさまざまなレベルのリソースにアクセスでき、そしてロードバランシングやリソースアロケーションなどの面倒な仕事はCloudflare自身がやってくれる。AWsなどの、クラウドインフラストラクチャプロバイダーが、まさにそうやっているように。

2009年に創業された同社は、これまでに1億8200万ドルを調達し、これからの数か月ないし数年で同社のネットワークへのアクセスを拡大したい、という大きなビジョンを持っている。Princeによると、同社は昨年売上1億ドルのラインを超え、社員は600名を抱えている。今回のCloudflare Workersのようなサービスが加わると、売上はさらに拡大し、同社が作った全世界的なネットワークを、さらに有利に利用していけるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Firefoxであの迷惑な通知リクエストをブロックできるようになった

最近はどのサイトも、プッシュ通知の受信を迫る。それはオープンなWeb上のちょっとした迷惑だが、でも嬉しいことに、Firefoxのユーザーならあのポップアップを出ないようにできる。デスクトップ向けのFirefox 59では、Webサイトに、通知の送信を求めることを、やめさせることができる。

この同じ設定ダイアログ(下図)で、Webサイトがユーザーのデバイスのカメラやマイクロフォンや位置情報へのアクセスを求めることも、やめさせられる。ただし、ブラウザーを使用するビデオ会議にように、カメラやマイクが必要なWebアプリケーションもある。また、一部の地図アプリは、ユーザーの位置を知る必要があるだろう。しかしプッシュ通知だけは、たいていの人が、どこからの通知でもいいから欲しい、とは思わない。

今のところ、この新しい設定は設定メニューの中にやや埋もれている。見つけるためには、FirefoxのOptionsメニューからPermissions > Notification Settings > Blockへ行き、通知許可を求める今後のリクエストをブロックする。〔v58でも、個々のサイトごとに通知(やカメラなど)を不許可にすることはできる。〕

多くのサイトは、Webのスタンダードを利用してプッシュ通知を送り、これらの通知リクエストをポップアップしている。しかし一部のサイトはHTML5のオーバレイ機能を利用して通知をリクエストするから、いろんな用途のあるオーバレイを一律にブロックすることはできない。ただしMozillaは今、この問題の対策にも取り組んでいるそうだ。

最近の数か月でFirefoxはメジャーなアップデートがいくつかあったが、今回のv59は相対的にマイナーだ。そのほかの新しい機能としては、Macにおけるグラフィクスのレンダリング(描画)の高速化、FirefoxのHomeページの改良、アノテーションやスクリーンショット、ペンやタッチによる入力機能の改良などがある。Private Browsing Modeにもやや改良があり、リファラ(リンク元)のパス情報が削除される。これにより、ユーザーを追跡することがやや難しくなる。

Firefoxは遅くて面倒、と思ってこのところ使ってなかった人も、今なら試してみる価値がある。今のFirefoxは、あなたが知っていたFirefoxとは違う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dart言語によるモバイルアプリ(iOS/Android)開発フレームワークFlutterがベータを開始

Flutterは、iOSやAndroidのアプリ開発を助けるGoogleのオープンソースのツールだ。まだ生まれて1年にもならないから、知らない人も多いが、ある面ではFacebookのReact Nativなど人気のフレームワークに対抗する製品だ。GoogleのDartプログラミング言語*を使用するこのツールは、昨年のデベロッパーカンファレンスGoogle I/Oで発表された。〔*: Dart言語, 本誌記事。〕

同社の今日(米国時間2/27)の発表では。Flutterは現在ベータでだが、すでに多くのデベロッパーがこれを使ってアプリを作り、Google PlayやApple App Storeで人気上位になっているアプリもある。

GoogleでFlutterを担当しているプロダクトマネージャーSeth Laddによると、MWCでFlutterの発表をしたのには理由がある。それはモバイルデベロッパーに関心を持ってもらいたいからであり、また、昨年から今日までにかけて達成された進歩を強調したいからだ。とくに大きいのは、Android StudioやVisual Studio Codeがサポートされて、Flutterのアプリをそこで書けるようになったことだ。

アルファでローンチしてから以降、FlutterのチームはiPhone Xなど新しいスマートフォンのサポートを加え、アクセシビリティ機能や、右から左へ書いていくテキストのサポート、ローカライゼーション、国際化、Flutterのコードをバックグラウンドで動かす機能、などを加えていった。

デベロッパーにとって、もっとおもしろいのは、ステートフルなホットリロードがサポートされたことだろう。ソースコードを書き換えると一瞬後には、その変化がデベロッパーのスマートフォン上のアプリに反映される。Laddによると、これによってえ開発工程が早くなるだけでなく、いちいちプロトタイピングツールを使う機会が減る。

Dartというニッチなプログラミング言語に依存していることについてLaddは、Flutterにとって正しい言語はDartだ、と主張する。“ほかの言語では、1)早い開発サイクル、2)デベロッパーが期待する標準的機能の充実、3)オブジェクト指向、4)リッチなライブラリ、5)使い慣れるのが早くて容易であること、この5拍子が揃ってる言語はあまりない”、という。このベータでFlutterは、Dart 2のプレリリースバージョンをサポートし、クライアントサイドの開発がより強力にサポートされる。

Laddによると、React Nativeのようなライバルのフレームワークに比べるとFlutterは独自のGPU加速グラフィクスとレンダリングエンジンを使い、Webビューを使わない。“これによって、デザイナーがデザインしたものと、デベロッパーが目にするものとが、正確に同じピクセルになり、ユーザーが実際に体験するデザインにもなる”、という。“独自のグラフィクスエンジンがあることによって、デザイナーが構想した一貫性のあるデザインを提供できる”。

Flutterのチームは、既存のアプリとの統合が容易なことも強調する。Flutterでは、既存のアプリをFlutterの画面から利用する、といったことができる。完全に新規にFlutterで作られた、最も人気のあるアプリとしてGoogleは、Hamiltonを挙げている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MozillaがIoT技術の標準化を目指してオープンなゲートウェイを発表、AlexaとSiriが仲良しに?

AppleもGoogleもAmazonも、それにSamsungも、みんな、家庭などのインターネットに接続されたデバイス(“コネクテッドデバイス”)をコントロールする独自のスタンダードを作ろうと競っている。そしてMozillaは今日(米国時間2/6)、物のインターネット(internet of things, IoT)をコントロールするためのオープンなゲートウェイを、これからは誰もが作れる、と発表した。同団体はまた、IoTが大きなテクノロジー企業が牛耳るものにならないための、フレームワークとオープンなスタンダードを作成中である、と確認した。

コネクテッドデバイスは、うちのサーモスタットはAmazon Echoの言うことしか聞いてくれない、こっちの電球はSiri、あっちの電球はGoogle Homeでしかコントロールできない、という支離滅裂な状況さえなければ、すばらしいだろう。

いろんなアクセサリのメーカーも、ごく少数の巨大テク企業がIoTの規格を支配している状態を必ずしも歓迎しない。彼ら巨人たちは、いちいち彼らから、高価なライセンス料を取るかもしれない。そしてお客には、どれかひとつを選ばなければならないという面倒が生じる。

Mozillaは、オープンなWebの熱心な支持者だ。このような非営利団体がコネクテッドデバイスの規格を考えるのは、良いことのように思える。同団体が提案するProject Thingsは、複数のプロジェクトをカバーする。ではそれは、どんな規格だろうか。

まずMozillaは、W3Cと共同でWeb of Things(物のWeb)のオープンスタンダードを作りたい、と考えている。それにより、アクセサリのメーカーとサービスのプロバイダーが、同じ標準規格でデバイス同士が対話できるようにする。その規格は、JSONとRESTとWebSockets APIで構成される。それはWeb上のデータとAPIのスタンダードであり、すべてのコネクテッドデバイスがこれを実装することによって、任意の機器やサービス間の対話を可能にする。

次は、同じくMozillaが提案するWeb of Things Gatewayによって、プロプライエタリなAmazon Echo, Philips Hue, Apple TV, Google Homeなどなどがオープンなデバイスに置き換えられる。そのゲートウェイは、Raspberry Pi 3やZigBee、USBドングルZ-Waveなどを使って、今すでに作れる

メーカー企業も、共通の規格に基づいて独自のゲートウェイを作れる。たとえばNetgear社は、今後のルーター製品にWeb of Thingsのゲートウェイを内蔵できるだろう。そしてそのルーターは365日無休で働き、物のインターネットにも奉仕する。また適当なブリッジを作れば、APIの相互通訳が可能になるから、Amazon、Google、Appleなどのスマートスピーカーが互いに会話できるようになる。つまりWeb of ThingsはこれらプロプライエタリなAPI(HomeKit API, Smart Home Skill APIなど)のための共通言語になる。

そしてさらにMozillaは、コネクテッドデバイスをコントロールするためのインタフェイスも作っている。そのためのWebアプリケーションをスマートフォンの画面に出せば、そこから家の機器をコントロールできる。たとえば声で照明をつけたり、IFTTTふうのルールで家の中を自動化したり、デバイスをレイアウトするフロアプランを加えたり、いろいろできる。

またMozillaが設計したアドオン(プラグイン)をインストールすれば、新しいデバイスやプロトコルもサポートできる。重要なのは、これらすべてが、あなたの家にあるあなたのゲートウェイで行われることだ。声で灯(あか)りを点けても、もうGoogleやAmazonにはそれが分からない。

そしてWeb of Thingsのプロトコルをデベロッパーが利用すれば、家全体をコントロールするネイティブのアプリを作れる。Mozillaはこの問題をいろんな角度から見ているので、そんな日が来るのも遠くはない。そして、今からすでにProject Thingsをいじり始めて、その開発に寄与貢献するデベロッパーがいても、かまわない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

LinuxのリーダーLinus TorvaldsがIntelのMeltdown/Spectre対策を“完全なごみ”と酷評

つねに歯に衣(きぬ)着せぬLinus Torvaldsは、今でもLinuxオペレーティングシステムの最深奥部分のコードを書き続けているが、今回はIntelに対して、率直な非難の言葉を投じた。彼によると、Meltdown/Spectre問題に対するIntelによる最新の対応(パッチ)は: “完全なごみだ”。そしてこんな疑問文も: “彼らに、お前らは頭がおかしい、と言ってやれる人は一人もいなかったのか?”。

これら一連の悪口は、公開メール〔Linuxカーネル・メイリングリスト〕上で、イギリスに住むAmazonの技術者David Woodhouseとの対話の中で吐露された。その問題自体が(少なくともぼくのような門外漢にとっては)相当ややこしいが、Torvaldsの主張では、それに対するIntelのフィックスは、“基本的に何もしない、しかし要らないことをたくさんしているフィックスの、イカれた実装”だ、という。

そのフィックスは、主にIntelのチップの問題であるMeltdownの対策であるはずだが、しかし単純にそれだけをやるのではなくて、もっといろんなフィックスがあって、それらをユーザーまたはアドミニストレータがブート時にいちいちオプトインしなければならない。そもそもそんなに重大な脆弱性なら、なんで(ユーザーやアドミンに、ブート時に)尋ねたりするのか?  しかも将来のCPUが必要としないと思われる機能に関して、なぜそこまで低レベルの作業をやらせるのか? その選択(オプトイン/アウト)は、良くって不必要、悪ければユーザーの誤誘導ないしパフォーマンスの劣化に帰結するのではないか?

また、同一のパッチにいろんなものを詰め込んでいることに関してTorvaldsは、これまでのソリューションと重複を指摘している。たとえば脆弱性の悪用に対する保護は、GoogleのProject Zeroの“retpoline”テクニックが対応済みだ。

では、なぜやるのか? Torvaldsの推測では、Intelのテクニックの大部分、この場合はIndirect Branch Restricted Speculation, IBRS(間接分岐の予測を制限する)は効率が非常に悪いので、全面展開すると性能劣化が広範に及ぶからだ。そこで、そうする代わりに、メインのMeltdownフィックスをオプションにして、冗長な部分を加え、パッチをいかにもそれらしく見せている。〔IBRSと名付けられたIntelのフィックスについては: 参考文献。〕

Intel本気でこのクソをアーキテクチャにするつもりか? 誰も彼らに、お前らはバカだと言ってやれなかったのか?

彼らは文字通り、イカれたことをしている。まったく、意味のないことをしている。そのために、きみ[Woodhouse]の主張に疑問符がついてしまう。このパッチは、まともではないことを、している。

…彼らの中に、‘王様は裸だ’と言える人がいなかった。意味もなく完全なごみを詰め込む人たちしか、いなかった。こんなことを書くこと自体が、悲しいよ。

Torvaldsの毒舌を諌(いさ)めようとしていたWoodhouseも、最後の方ではTorvaldsの批判を認め、IBRSは“下品で恥ずべきハック”だ、と言っている。“それをオプトインにする正当な理由はない”、とも。

【後略】
〔Intelからの儀礼的形式的なリプライなど〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

エンタープライズバージョンコントロールのAssemblaがMacOS用のSubversionクライアントCornerstoneを買収

今や、バージョンコントロールシステムといえばgitだけ、と思われるぐらいその人気は高いが、しかし主にエンタープライズ界隈では、gitと競合するSubversionやMercurialもかなりの数のユーザーを抱えている。そこでSubversionを使って企業にバージョンコントロールサービスを提供しているAssemblaが今日(米国時間1/18)、MacOS用のSubversionクライアントとして人気の高いCornerstoneの買収を発表したのも意外ではない。

Assemblaは、Cornerstoneとそれを作ったZennawareを買収した。Zennawareが最初にCornerstoneをローンチしたのは2008年で、今後はAssemblaがこのクライアントの販売と開発を継続する。数か月後にはバージョン4.0をリリースする予定だ。買収の財務的詳細は、公表されていない。

AssemblaのCEO Paul Lynchはこう声明している: “われわれはCornerstoneの未来に投資している。現状維持を願うのではなく、われわれがこれまでSubversionとAssemblaのWebアプリケーションに対して行ってきた重要な改良を、今すでに優れたソフトウェアであるCornerstoneのデスクトップアプリケーションに適用したい。それにより、ユーザーのリポジトリとデータまわりの対話とワークフローを、さらに良くしていきたい”。

Assembla自身は、2016年にScaleworksに買収されたScaleworksはVCとプライベート・エクイティのハイブリッドのような企業で、それ自身では成長の限界に達しているような企業に投資、ないし買収をして、その能力と価値を次のレベルへと高め、それにより投資企業としてのリターンを得ている。Scaleworksに買収される前のAssemblaも、成長が横ばい状態になっていた。そして買収後は、エンタープライズへの新たなフォーカスによって売上が倍増し、今回Cornerstoneを買収したのも、さらにその成長カーブを先へ伸ばしていくためだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

中小スタートアップに人気のクラウドサービスDigitalOceanが料金体系を改定

クラウドホスティング企業DigitalOceanが今日、一部の料金改定を発表した。また同社は数年ぶりに、最低料金月額5ドルのドロップレット*のインスタンスのスペックをアップグレードした。〔*: droplet, 滴(しずく), DigitalOcean独自の愛称で、同社が提供する仮想マシンのこと。〕

5年前にDigitalOceanは、革命的なサービスの提供を開始した。それは月額料金5ドルでSSDが20GB、RAM 512MB、CPUコア1を利用できるサーバーだ。しかしその後、Linuxの仮想サーバーは参入企業がどんどん増えて、低料金が珍しくなくなってきた。

たとえばLinodeは、月額5ドルでRAM 1GB、SSD 20GB、CPUコア1だ。Scalewayでは、RAM 2GB、SSD 50GB、2CPUコアで3ドル65セント(2.99ユーロ)だ。というわけでDigitalOceanは、競争に生き残るために、製品構成および料金体系のオーバーホールをせざるを得なくなった。

新料金は、月額5ドルでRAM 1GB、SSD 25GB、CPUの性能は前と同じだ。標準のドロップレットはすべて、前と同じ料金でRAMが倍になり、ストレージも増える。もちろん料金の高いプランではストレージも大きい。

月額40ドル以上になると、同料金のまま仮想CPUコアの数が前より多くなる。ただし160ドルのプランは、前と変わらない。高額な料金プランが新たに二種類増え、最高の月額960ドルのモデルではRAM 192GB、ストレージ3840GB、コア数32になる。

おもしろいのは、月額15ドルの新しいプランでは構成が三種類あることだ。すなわち、(1)RAM 3GBで1コア、(2)RAM 2GBで2コア、(3)RAM 1GBで3コアだ(下表)。さらにまた、RAM容量33%アップでストレージも多めという、“最適化ドロップレット”もある。ここまで読んで頭が混乱してきた読者は、DigitalOceanの新料金表へ行ってみよう。

なお、同社によると、秒課金をもうすぐ始める。Amazon Web ServicesGoogle Compute Engineがすでにやってるように。

例によってプランを変えるのは簡単で、DigitalOceaのアドミンパネルへ行けばよい。DigitalOceanの人気の源泉は、こんな気軽さ、柔軟性にある。すでにユーザーである方は、さっそく今度の新しい料金体系の“良いとこ取り”をトライしよう。

標準のフレキシブルドロップレット

最適化ドロップレット

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アナリティクスダッシュボード作成プラットホームKeen IOがScaleworksの傘下に

非上場企業に主に買収という形で投資をしている、テキサス州サンアントニオのプライベート・エクイティ企業Scaleworksが、休日明けを待ちかねたかのように、同社の最新の買収のニュースを共有した。同社は昨日(米国時間12/22)のMediumのブログ記事で発表したのはKeen IOの買収だ。

買収価額などはは公表されていないし、両社からコメントも得られていないが、Keenは2011年に創業されてからこれまでに3000万ドル近くを調達している。

Keen IOは、デベロッパーがカスタムなアナリティクスダッシュボードを(自分のアプリケーションのために)作るためのツールを作っている。ScaleworksのゼネラルパートナーEd Byrneは、買収の発表声明でもあるブログ記事の中で、Keen IOについて次のように説明している:

“Keen.ioは2011年に創業され、デベロッパーがカスタムなアナリティクスバックエンドを作るための便宜を提供している。同社を利用して企業は、チームや顧客のためのあらゆる種類のアナリティクスを容易に構築して自分のアプリケーションに埋め込むことができ、またお気に入りのSaaSツールにアナリティクスダッシュボードをつけることもできる”。

Byrneはさらに、これまで同社が扱ってきた企業の多くがKeen IOを使ってダッシュボードを作っていることを、長年見てきたので、かねてから同社に着目していた、と述べている。しかしもちろん、Scaleworks傘下の企業ばかりではない。Keen IOのWebサイトによると、今、3500社、約50000名のデベロッパーが、Keen IOのツールを使ってダッシュボードを作っている。その中には、EMC, Adobe, Kik, Pandora, Ticketmaster, Freshdeskなどの著名企業もいる。

同社は2015年に、その中心的なツールData Explorerをオープンソース化し、ユーザーがこのデータ探究ツールを自由に改良できるようにした。同社の最新の資金調達は、2016年の、Pelion Venture Partners率いる1470万ドルだった(CrunchBaseによる)。

ScaleworksはB2BやSaaS企業に的を絞ったプライベート・エクイティ企業¶で、これまでChargify, Earth Class Mail, Assembla*, Filestack, Followup, Qualarooなどに投資/買収してきた。〔*: Assembla日本語記事

〔¶: private equity firm: 非上場企業を対象とする投資会社、主に買収という形が多い。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

外出先などでモバイルからVCSのリポジトリを管理できるAssemblaのiOSアプリ

ソフトウェア開発は必ずしも、モバイルに向いている仕事とは言えない。仮想キーボードと小さな画面で誰が一体、コードを書きたいだろうか。でも、コードを管理したり、出先でファイルの更新履歴を確認したいとき、デスクトップやラップトップがなければだめ、では困る。そこで、クラウドベースのエンタープライズ向けバージョンコントロールサービスで、GitHubのコンペティターでもあるAssemblaが今日(米国時間12/14)、iOS用のモバイルアプリ発表した

Assemblaのユーザーはこのアプリを使って、GitやSubversion、PerforceなどのリポジトリをiPhoneやiPadから容易に管理できる。いろんなファイルのリビジョンを比較したり、コード中のテキスト文字列でファイルを検索したり、ファイルの詳細なリビジョン履歴(誰が何をしたか)を調べたりできる。

とくに便利なのは、ファイルがリポジトリに加わったり削除されたり変更されたとき、プッシュ通知が来る設定ができることだろう。SVN(Subversion)のロック操作もモニタできる。

このアプリを利用してコードを書きたいとは誰も思わないだろうが、ざっとコードレビューをしたり、簡単なコミットぐらいなら十分できるだろう。ただしこのアプリは現状ではAssemblaのリポジトリしか管理できないよう、ロックされている。しかし自分のGitHubアカウントをモバイルから管理したければ、そのためのモバイルアプリはいくつかすでにある。でも、Assemblaのプロダクト担当VP Laith Dahiyatが、“ユーザーの要望が多ければ、それを無視することはない”、と言っているから脈はあるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが量子コンピューティング開発キットのプレビューをリリース

Microsoftは9月のIgniteカンファレンスで、量子コンピューティングへの進出の意思を明らかにした。そして今日同社はその歩みの一歩として、量子コンピューティング開発キットのプレビューをリリースした。

このキットには、Q#言語とそのコンパイラーやライブラリ、量子コンピューティングのローカルなシミュレーター、量子トレースシミュレーター、Visual Studioのエクステンションなど、デベロッパーが手始めに必要とするものがすべて含まれている。

これはプレビューなので、量子コンピューティングのプログラミングの過程がどんなものかを知りたいと思っているアーリーアダプターたちが主な対象だ。それは、従来のプログラミングとはまったく違う。簡単に言うと、従来のコンピューターでは、ビットはonかoffかのどちらかの状態でしか存在しないが、量子のプログラムではキュービット(qubit, 量子のビット)は同時に複数の状態で存在できる。そのため、これまでありえなかったようなプログラムも可能になる。

MicrosoftがIgniteで発表した量子コンピューティングのビジョンはもっと大きくて、9月に同社のKrysta Svoreが本誌の取材に対して語ったところによると、量子コンピューターをコントロールし、そのアプリケーションを書くための完全で総合的なソリューションを提供することが、最終的な目標だ。

そのとき彼女はこう語った: “量子コンピューティングに関する弊社の姿勢は、ハードウェアとソフトウェアの両方を同時並行的に研究開発していくことによる、お互いからのフィードバックの吸収をねらっている。この方法によって、高度に最適化されたソリューションが得られると期待している”。

Microsoftは明らかに、量子コンピューティングで実績を積んでいくことをねらっているが、それは同社だけではない。IBMは昨年からプログラマーたちに量子コンピューティングサービスを提供しており、先月は画期的な20qubitの量子コンピューターをリリースした。同社は50qubitのプロトタイプも発表している。

そのほか、GoogleやIntelをはじめ、さまざまな既存企業やスタートアップたちが量子コンピューティングの研究開発に取り組んでいる。

これはまだまだ初期的な技術であり、先は長いが、重要な技術であることは間違いないので、Microsoftなどは今のうちから、さまざまな提供物を通じてデベロッパーたちのマインドシェアを獲得したいのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

IntelとHyperがOpenStack Foundationとパートナーしてコンテナのセキュリティで独自技術

【抄訳】
すでに周知のように、OpenStack Foundationは今後、その名前が示すような単一のビッグプロジェクトだけでなく、もっと多様なオープンソースプロジェクトのホームになる、と宣言している。そこで今日、同Foundationが発表したのが、Kata Containersプロジェクトのローンチだ。

Kata Containersは、実行環境の仮想化/隔離化に関してコンテナと仮想マシンの良いとこ取りをするようなオープンソースプロジェクト(GitHub上)だ。コンテナからはそのスピードと柔軟性と管理性を、そして仮想マシンからはとくにそのセキュリティをいただく。この技術のベースは、IntelのClear Containersと、Hyperのハイパーバイザーランタイム(仮想マシン環境)runVだ。

OpenStack Foundationの事務局長Jonathan Bryceによると、彼のこの組織は、クラウド上の本格的なワークロードの実行を容易にするような、別のプロジェクトを求めていた。“OpenStack Foundationではユーザーコミュニティにフォーカスし、そのニーズに応えるものを作っている。それが、OpenStackの本来のサービスより大きいことも、ありえる”、と彼は語る。

では一体、Kata Containersプロジェクトとは何なのか? その基本的な着眼は、確かに優れた技術であるコンテナにも、長年手付かずのセキュリティの問題がいくつかあることだ。とくに複数のコンテナが仮想マシンを共有して動いていくときには、それぞれを完全に隔離孤立することが難しい。Kata Containersはこの問題を、それぞれのコンテナにきわめて軽量な仮想マシンとカーネルを与え、各コンテナないしコンテナポッドが自分だけの隔離された環境で動き、ネットワーキングもI/Oもメモリそれぞれ独自に割り当てられるようにすることで、解決しようとする。またIntelがプロセッサーに組み込んでいる仮想化技術により、ハードウェアレベルでの隔離孤立も利用する。

Kata Containersは現在、Kubernetes, Docker, およびOpenStackを統合し、x86アーキテクチャのプロセッサーでのみ動く。サポートしているハイパーバイザーは、KVMのみである。今後、他のアーキテクチャやハイパーバイザーにも拡張していくプランはある。

HyperとIntelとの技術融合には約1年を要しているが、この技術は多方面から期待されていて、すでにCanonical, China Mobile, CoreOS, Dell/EMC, Google, Huawei, JD.com, Mirantis, Suse, Tencent, ZTEなどがこれをサポートしている。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon Transcribeは、AWS向けの高度な書き起こしサービス

今日(米国時間11/29)Amazonは、AWS専門のデベロッパー会議、AWS Re:INVENTを主催している。同社はそこで期待の新サービス、Amazon Transcribeを発表した。このサービスは現在プレビュー版が公開されており、数ある自動書き起こしサービスとは一線を画している。

ビデオやオーディオがウェブの多くを占めるようになった今、メディア内の情報を解析することは益々困難になっている。一つの方法はオーディオ部分を書き起こしてテキストに変換することだ。テキストはインデックス化や検索が可能なので新たな可能性が開かれる。

Amazon Transcribeのために、同社は音声認識エンジンを開発した。Amazon S3アカウントに保存されているオーディオファイルを文法的に正しいテキストに変換する。

Amazon Transcribeは、現在英語とスペイン語で利用できる。同社は数週間のうちにもっと多くの言語を追加すると約束した。

Amazon Transcribeの隠し味ともいえるのが、賢い書式設定と句読点の追加だ。複数の話者も識別し、タイムスタンプを付加するので会話の区別がしやすくなる。

Amazonはいくつかの利用場面を紹介した。たとえば、オンラインビデオに自動で字幕をつけることができる。カスタマーサポートへの電話を記録して分析するのにも適している。

同サービスは通話録音などビットレートの低いオーディオファイルでも利用できるほか、システムが製品名を理解しやすくするために、独自の語彙を追加することもできる。

Amazon Transcribeは、 本日発表されたAmazon TranslateとAmazon Comprehendという2つの新サービスと合わせて使うのにも便利だ。こうしてオーディオ録音を意味のあるデータに変えられるようになる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleのチャットボット・ビルダーDialogflowに企業ユーザー向け有料バージョン登場

Googleが今日(米国時間11/16)、チャットボットやそのほかの会話的アプリケーションを作るツールDialogflowの、エンタープライズエディションの、ベータローンチを発表した

そして無料版も含めてDialogflowには、今や音声認識機能が内蔵されている。これまでデベロッパーは、その機能が欲しければGoogle CloudのSpeech APIや同様のサービスを使わざるをえなかった。当然ながら、内蔵化によって、一つのAPIを呼び出すだけになったので、スピードも(Google説では30%)向上した。

今のDialogflowにはさらに、GoogleのChatbaseサービスを呼び出すことによる、ベーシックなアナリティクスとモニタリングの能力もある。

Dialogflowは、Googleが昨年買収したときAPI.AIという名前だったけど、その後名前を変えた。でも変わったのは名前だけで、その基本的な考え方はなにしろ、会話的なエージェント(自律プログラム)やそのほかの、テキストや音声による対話を、使いやすい形で作りたい、と思ったときに使えるビルディングブロックを提供することだ。

このサービスはこれまでずっと、ユーザー獲得のために無料(ただし量制限あり)だったが、企業ユーザーは有料でもいいから24/7のサポートやSLA、企業向けのサービス規約、データ保護の約束、などがほしい。

そこで今度のDialogflow Enterprise Editionでは、これらすべてが得られる。Google Cloud AIのプロダクトマネージャーDan Aharonによると、このバージョンのDialogflowはGoogle Cloudの一員なので、前からGoogle Cloudを使っているユーザー企業なら、契約も使用開始も簡単だ。“もしもあなたがSpotifyなら、Google Cloudのプロダクトであるための要件をすべて、すでに満たしているから、Dialogflowをかなり容易に使える”、とAharonは語る。たとえばDialogflow Enterprise Editionのサインアップは、Google Cloud Platform Consoleのコンソールからできる。

有料とはいえ、テキストの対話一回につきわずか0.2セント、音声の対話リクエストは一回につき0.65セントだ。1セントにも満たない(量制限なし)。

これまでの無料バージョンのDialogflowは、どこにも行かない。エンタープライズエディションと同様、新たに音声認識も統合されており、14の言語をサポート、MicrosoftやAmazonなど、主なチャットや音声アシスタントのほとんどを統合している。その量制限は、1日に最大1000対話、1か月累計では15000対話までだ。

GoogleがAPI.AIを買収したとき、それはすでに、チャットボット作成ツールとして相当人気が高かった。そしてGoogleによると、その勢いは今だに衰えていない。GoogleのPRはAharonに、人気第一位のツールとは言うな、と釘をさしたらしいが、実際に人気一位であっても意外ではない。彼によると、無料バージョンだけの現状で登録ユーザー数(デベロッパー数)は“数十万”、今年のCloud Nextイベントを共有したデベロッパー数が15万だから、それよりずっと多いのは確実だ。

“顧客から何度も何度も聞く言葉によると、自然言語理解のクォリティーが高いので、Dialogflowはそのほかのチャットボットツールに大きく差をつけているそうだ”、とAharonは言う。“最良のツールでなければ、本番用(プロダクション用)には使えないからね”。(そうでない企業もあるみたいだが…。)

自然言語の理解以外にも、Cloud Functionsを利用してサーバーレスのスクリプトを簡単に書けるなど、Dialogflowはデベロッパーの自由度が大きい。ほかのアプリケーションへの接続も容易だ…それらがどこでホストされていても。だからたとえば、既存の受発注システムや発送システムと、これから作る会話的アプリケーションを統合することも可能だ。

Aharonによると、API.AIの機能をGoogle Cloudにポートするのに約1年かかった。そしてそれが完了した今では、このサービスはGoogleのAIや機械学習の機能をフルに利用できる。一方、今のGoogleはエンタープライズの顧客獲得が最重要の課題だから、Dialogflowをそのためのメニューの一員にするのも、当然なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Algorithmiaのプラットホームにより企業が自分たちの機械学習モデルを管理しデプロイできる

Algorithmiaという名前のスタートアップが、オンラインのマーケットプレースを開始しました。何のマーケットプレースでしょう? そう、正解です。アルゴリズム屋だからアルゴリズムに決まっています。そして、デベロッパーたちがここに出品するアルゴリズムは、顔認識や感情分析などなど、機械学習関連のものがとても多かった。

そこで、ML/AIがブームであることに気づいた同社は今日(米国時間11/15)、その方向への次の一歩を踏み出し、データサイエンティストが自分で機械学習のモデルを管理/デプロイできて、社内でモデルの共有もできる、というサービスを立ち上げた。

それは基本的に、MLのモデルを動かすために同社が作ったインフラストラクチャやサービスの一部を利用する、新しいプロダクトだ。Algorithmiaの協同ファウンダーでCTOのKenny Danielが、今日の発表声明で述べている: “Tensorflowがオープンソースでも、そのスケーリングは違う。今ではほとんどすべての研究開発事業に、データの収集とデータの整理、そしてそれによるモデルの構築が伴っている。Algorithmiaはこれまでの5年間を費やして、それらのモデルをユーザーが実際に動かしてみるためのインフラストラクチャを構築してきた”。

この新しいサービスでは、データサイエンティストが自分の好きな言語とフレームワークでモデルを作り、それをAlgorithmiaのクラウド(CODEXプラットホーム)またはオンプレミスのアーキテクチャを使ってホストする。そのために同社は、そのサービスの二つのバージョンを提供している: モデルを同社のクラウドでホストするためのServerless AI Layerと、サービスを任意のパブリックまたはプライベートなクラウドでホストするためのEnterprise AI Layerだ。

クラウドとオンプレミスどちらも、gitを使ってモデルを加えたり、モデルを社内で他と共有したり、パーミッションや認可を扱ったりできる。また、モデルのデプロイに必要なDevOpsのすべても扱う。

ここ数か月同社は、登録したエンタープライズ顧客たちによりこのサービスのベータを行っている。それには、同社のサービスを使って自分たちのモデルをホストしたいと考えている政府省庁もいくつか含まれる。

“Algorithmiaがアメリカの政府省庁に力を与えることによって、そのAI層に新しい能力を迅速にデプロイしている”、とCIAの投資部門In-Q-TelのKatie Grayは語る。“そのプラットホームがセキュリティとスケーラビリティとリソースの見つけやすさを担保するので、データサイエンティストは問題解決に専念できる”。

今年半ばにAlgorithmiaはシリーズAで1050万ドルを調達したが、そのラウンドをリードしたのはGoogleが新たに作った、AIに特化したベンチャーファンドだった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftがMariaDB Foundationに参加してAzure Database for MariaDBをローンチ

Microsoftが今日(米国時間11/15)、同社がMariaDB Foundationに参加することを発表した。この非営利団体は、MySQLを作ったデベロッパーたちによる人気の高いリレーショナルデータベースMariaDBの非商用化バージョンを支えている。そのプラチナスポンサーになったMicrosoftは、Booking.comやAlibaba Cloud、Tencent Cloudなどと横並びすることになる。

さらに今日Microsoftは、Azure Database for MariaDBというサービスを立ち上げた。これは、Azureの一員としてのマネージドデータベースサービスという意味で、ほかにもAzure Database for MySQL, 〜〜〜PostgreSQLなどの類似サービスがある。

MySQLは最初Sun Microsysytemsが買収し、今ではOracleがそのオーナーであるため、その私企業臭を嫌う多くのデベロッパーのためにMariaDBが開発された。いわばそれは、MySQLの身代わりリプレースだ。

MariaDB(とMySQL)のファウンダーMonty Wideniusが、今日の発表声明でこう書いている: “MariaDB Foundationの理事会は、MicrosoftをFoundationのプラチナメンバーとして歓迎する。私がMariaDBを作ったのは、MySQLをオープンソースのコミュニティに戻すためであり、その強力でオープンな未来を確実なものとするためだった。私はMicrosoftがそのビジネスをオープンなやり方で変えていく様相を間近で見てきたし、Microsoft Azureも確かにオープンであり、フレキシブルである。今のMicrosoftはGitHubの主要なコントリビューターの一員であるが、私たちは、Microsoftの技術者たちとそのデベロッパーのエコシステムが、それと同じようにMariaDBを支えていくことを、期待している”。

Wideniusのオープンソース観は、つねにきわめて実践的だ。数年前に彼はMariaDB Foundationを始めるためにSkySQLを去ったが、今ではそれはMariaDB Corpとなり、MariaDBデータベースの商用化をビジネスとしている。そしてその後彼は、MariaDB Corp.にCTOとして戻った

一方Microsoftは、このところ確実にオープンソース擁護派だ。今や同社は、Linux Foundationとその一部プロジェクトのスポンサーであり、またOpen Source InitiativeやCloud Foundry Foundationなどにも加盟している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

OpenStack FoundationがOpenStack以外のオープンソースプロジェクトもホストする方向へ

【抄訳】
最近の数年間で、Cloud Native Compute FoundationやCloud Foundry Foundationなど、オープンソース関連の団体がいくつか立ち上げられた。これらの多くはLinux Foundationの一員になっているが、その仲間に加わっていない大きなオープンソース団体のひとつが、OpenStack Foundationだ。ここは、少なくともこれまでは、クラウドコンピューティングプラットホームOpenStackの開発にフォーカスしてきた。

しかし、時代は変わりつつある。隔年で開催されるOpenStack Summitの最後の数日につき合ってみて明らかに感じたのは、OpenStack FoundationがOpenStackプラットホーム以外のものにも目を向け始めていて、将来この組織はLinux Foundationに似たものになるのではないか、という感触だ。ただしそのビジョンはもっとシンプルで、現在の関心に沿ったオープンなインフラストラクチャにフォーカスするだろうが、それらは必ずしもOpenStackプラットホームの一部である必要はなく、プロジェクトも今のガイドラインに縛られないものになるだろう。

OSFのこの多様化路線がうまくいけば、Linux FoundationやApache Foundationなどと並ぶ、大きくて総合的なオープンソース団体がもう一つでき、彼らのOpenStack関連の知識と経験がコミュニティをサポートしていくことになって、オープンソースのコミュニティに変動をもたらすだろう。またOpenStack Foundationが従来ならLinux Foundationに行ったようなプロジェクトもホストするようになると、二者間に興味深い競合関係が生ずるかもしれない。

その初期からOpenStackを採用しているMirantisの協同ファウンダーでCMOのBoris Renskiによると、OSFのこの新しい動きを引っ張るにふさわしい人物は、CTOのMark Collierと事務局長のJonathan Bryce、そしてマーケティングとコミュニティサービス担当のVP Lauren Sellだ。Renskiの見解では、OSFが多様なプロジェクトを手がけていくのは良いことであり、OpenStackが安定期に入りつつある現在は、新しいことに取り組む時期としても適している、と。

では、OSFが今後新たにフォーカスしていくべきテーマは、なんだろうか? Bryceによると、今計画に上(のぼ)っているのは、データセンターのクラウドインフラストラクチャ、コンテナのためのインフラストラクチャ、エッジコンピューティング(Collierがとくに関心を持っている)、継続的インテグレーション/継続的デリバリ、そして可能性としては機械学習とAIの分野だ。

Linux Foundationが主にLinuxユーザーの便宜のためにさまざまなプロジェクトを傘下に収めてきたのと同様、OSFも主にOpenStackでメインのシステムを構築しているユーザーの便宜を図っていく。だから団体の名称はOpenStack Foundationのままでよい、とBryceらは考えている。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

交通騒音も路上と室内では違う…3D空間内の複雑な音響編集を助けるResonance AudioをGoogleが発表

拡張現実(augumented reality, AR)は、コンピューターとの対話を三次元化するという展望により、徐々に伸びつつあるが、すでにいろんなプラットホームを提供しているGoogleは、その三次元空間に視覚だけでなく五感のすべてを持たせたいようだ。

今日(米国時間11/6)Googleは、同社のVR Audio SDKをベースとして、より総合的な空間オーディオプロダクトResonance Audioをモバイルとデスクトップ両用に作っていることを発表した。

Googleの説明によるこのSDKの用途は、“本物の音が人間の耳や環境と対話する”様相を再現することだ。たとえば、現実の音が物や環境によって歪むという現象も、ARの仮想的シナリオにおいて再現する。

たとえばあなたが大型ラジカセを持って歩いている仮想キャラクターだとすると、何かの曲を鳴らしながら開放的な空間を歩いているときと、吹き抜け階段を降りているときとでは、音はどう違うのか? Resonance Audioが対応しているこのような多様な状況により、ユーザー(デベロッパー)もそんな状況を三次元の奥行きの中で音で再現できるようになる。

またResonanceはデベロッパーがシーン中の音源を指定できるだけでなく、音源が動く方向も音質の変化で表すので、たとえばあなたがデジタルのキャラクターのうしろを通るときと、顔の前を通るときでは、反響音を変えられる。

上で例を述べたようなさまざまな状況の変化は、ゲームのデベロッパーにとってはおなじみのものだが、しかし複数の(数十の)音源が同時にいろんな状況で対話的に鳴るといった複雑な設定では、その対応も難しい。CPUはビジュアルにかかりっきりで忙しいことが多いから、音の表現のこのような複雑性は予想外の困難性をもたらし、結局ベーシックなオーディオだけで発売してしまうこともありえる。Resonanceはたとえば、一部の音のリバーブを、いろんな環境ごとに事前に作っておくといったトリックにより、音のリアルであるべき対話性が時間的にずれる、といった問題を解消する。

ResonanceはUnityやUnrealのようなゲームエンジンとも併用でき、またいろんな音響編集作業のためのプラグインも用意しているから、既存のワークフローとの相性も良いだろう。

GoogleはVRやARの基盤的技術への関心をベースとして、さらにそれらをゲームの開発に応用しようとしているようだ。先週Googleが見せたPolyは、3Dのアセットや環境のためのホームだ。そしてResonance Audioが空間的オーディオを提供し、よりリアルな音の開発を容易にする。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa