GoogleとNetflixがオープンソースのカナリア分析ツールを共同開発、プロダクションレベルの問題発掘を目指す

【抄訳】
GoogleとNetflixが今日(米国時間4/10)、Netflixが内製したカナリア分析ツールを一般公開することになるオープンソースのプロジェクトKayentaのローンチを発表した。Kayentaは、Netflixで育った継続的デリバリのプラットホームSpinnakerに統合されており、それはパブリックかプライベートかを問わずほとんどすべてのクラウドで使える。今回のリリースはSpinnakerにフォーカスがあるが、しかしKayentaはそのほかの環境にも適応させられる。

カナリア分析は、概念としては単純明快である。その名前が示しているように、サービスやインフラストラクチャを展開またはアップデートしたときの大きな問題を防ぐための早期警戒システムだ。展開やアップデートの対象をユーザーやサーバーやネットワークの一部に絞って行うテスト的実施で、カナリア分析は新しいシステムの振る舞いが正しいこと、あるいは前と変わらないことをチェックする。各ステップでシステムはチェックを実行し、その展開やアップデートが、通常のテストでは問題ないが、もっと複雑なプロダクションシステムに投じられたときにも問題が生じないことを、それら各ステップで確証していく。

GoogleのプロダクトマネージャーAndrew Phillipsによると、すでにそれをやっているデベロッパーは多いけれども、しかしそれはしばしば、非公式に行われている。チームがアプリケーションをビルドすると、いくつかのサーバーにデプロイしてみて数分動かし、ダッシュボードに異状が出ていないかチェックする。そんなやり方は人的エラーにつながりやすいし、偏りもありうる。それに対してカナリア分析ツールは、いくつかの測度の値を求めて、そのコードの完成度を客観的に判定する。コードのテストは多くの企業が自動化しているが、その種のテストではコードをプロダクションに投じたときに起きる問題を捉えられないことが多い。とくにそのプロダクション環境がマイクロサービスの集合から成り、それらが予期せざる対話をし始めたような場合には、お手上げとなる。

【後略】
〔以下、技術的な話題よりも、G社N社共同開発の経緯が中心。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleのテキスト音声変換APIにメジャー・アップデート――音声認識も改善

今日(米国時間4/9)、Googleは数週間前に公開したクラウド・テキスト音声変換サービスのAPIにメジャーアップデートを行ったことをを発表した。Googleは同時に逆方向のサービスである音声テキスト変換のクラウド音声認識APIにも大きな改善を行った。Googleのテストによれば、新しいAPIは認識エラーを全体で54%減らしたという。ただし一部のケースでは改善はこれをはるかに上回った。

アップデートされた音声テキスト変換APIを利用するとデベロッパーは 複数のユースケースをベースにした機械学習モデルから適したものを選ぶことができる。新APIは現在4つのモデルを提供している。そのひとつは検索と命令のための短い発話だ。また電話の音声認識、ビデオファイルの音声認識も提供されており、Googleがすべてのデベロッパーにデフォールトとして推薦するのが4番めの新しいモデルだ。

こうした新しい音声テキスト変換モデルに加え、Googleはパンクチュエーション(句読法)のモデルをアップデートした。Googleの開発チーム自身も認めているとおり、音声認識でこれまで最大の問題となってきたのは正しいパンクチュエーションの生成だった。ことに話者が通常と異なる発話の癖を持っている場合、パンクチュエーションを含めたテキスト起こしはきわめて困難になる

これはトランプ大統領の発言をパンクチュエーションを含めてテキスト起こししようと試みたデベロッパーなら同意するだろう。アップデートされたモデルははるかに読みやすいテキストを生成できるという。センテンスの切れ目を認識することに失敗するケースが減少し、ピリオド、コンマ、クエスチョンマークなどを正しく挿入できるとGoogleは述べている。

今回のAPIのアップデートにより、デベロッパーはテキスト起こしを行うことにより、音声ファイルないしビデオファイルにタグ付けなど基本的なメタデータを付与できるようになった。Googleではユーザーの各種機能の利用状況を総合的に勘案して、次のアップデート開発の優先順位を決めていくという。

Googleはサービスの料金体系も多少変更した。従来どおり、音声ファイルのテキスト変換は15秒ごとに0.006ドルで、ビデオはその2倍の15秒ごとに0.012ドルとなる。ただし5月31日まで新モデルの利用料金は15秒ごとに$0.006ドルに抑えられる。

〔日本版〕上にエンベッドされた例ではセンテンスの切れ目が正しく認識されピリオドが挿入されている。No、That’sなどの冒頭が赤文字で強調表示されている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

サーバーレスコンピューティングのモニタリングサービスStackeryが$5.5Mを調達

StackeryのファウンダーたちがまだNew Relicにいた2014年に彼らは、今後伸びてくるサーバーレス技術の市場にツールを提供していく機会がある、と考えていた。New RelicのIPOを契機に同社を去った彼らは、サーバーレスのアーキテクチャに統括と管理の層を提供する、を目標としてStackeryを創業した。

今日(米国時間4/3)同社は二つの大きな発表を行い、その最初の550万ドルの資金調達を彼らは“シード+”(プラス)と呼んでいる。第二の発表は、Health Metrics Dashboardと呼ばれるサーバーレスのパフォーマンスモニタツールだ。

まず、資金調達の話から。なぜ、シードプラスと呼ぶのか? 同社の協同ファウンダーでCEOのNathan Taggartによると、シリーズAでも良かったけど、でもまだ彼らの市場がそれほど成熟していないので、控えめな呼び方にした。“シリーズAへの欲求はあったけど、シードプラスの方が市場の現状に合っている”、と彼は述べる。今はまだ、各社がやっとサーバーレス方式の利点を理解し始めた段階だから、明らかに成長途上の市場だ。

HWVPがこのラウンドをリードし、Voyager Capital, Pipeline Capital Partners, そしてFounders’ Co-opが参加した。これにより、2016年に創業した同社の調達総額は730万ドルになった。

AWS LambdaAzure Functionsなどのサーバーレスコンピューティングという呼び名は、やや誤称だ。プログラムはサーバーが動かすのだけれども、アプリケーションのための専用のサーバーは要らない。トリガーイベントがあってそれに呼応するコードをサーバーが実行するときだけ、料金が発生する。これに先駆けてやってきたクラウドコンピューティングと同じく、デベロッパーがこれを好むのは、アプリケーションの構成やリソースの確保に大量の時間を取られずに済むからだ。

しかし、従来のクラウドコンピューティングと同じく、サーバーレスも実はクラウドサービスだ。だからこそ、デベロッパーは容易にアクセスできる。2011年に始まった“ITの消費者化”現象を思い出せば、それはクラウドサービスを容易に調達できる能力と引き換えに、組織内部のコントロールを失うことを意味していた。

クラウド初期の当時と同じく、今企業はサーバーレス技術のアドバンテージを求めるが、それと同時に、その費用や、他企業の利用状況、セキュリティ、企業のルールとのコンプライアンスなどが気になる。そこで、Stackeryのようなサービスの出番となる。

Health Metrics Dashboardと名付けられた新しいダッシュボードは、このビジョンの延長であり、モニタリングにルーツを持つファウンダーたちらしいプロダクトだ。サーバーレスはコンテナを扱うことが多く、多くのファンクションがそこにはある。何かがおかしくなったとき、その根因を見つけるのが難しい。

StackeryのHealth Metricsダッシュボード。写真提供: Stackery

そのダッシュボードは、ひとつのアーキテクチャ全域のスループットと各リソースのパフォーマンスを見せるから、デベロッパーは、どこにボトルネックがあり、パフォーマンスの問題や失敗があるか分かる。

同社は2016年に創業し、オレゴン州ポートランドに本社がある。社員は今9名で、内5名がエンジニアだ。年内には3名の増員を計画している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftがオンライン学習にAI上級コースとソフトウェア開発入門を新たに加える

Microsoftが今日(米国時間4/2)、デベロッパーのためのオンライン教育プログラムに二つの新しいコースを加えた。ソフトウェア開発入門コースと、機械学習の知識を増やしたいと願っている中級以上のデベロッパーのためのAIコースだ。

誰もが知ってるように、データサイエンティストと機械学習のデベロッパーは、需要に対して供給がきわめて少ない。そのために今、多くの企業では、社員の知識と技能を高めるための社内教育に力を入れているが、今日から始まる誰でも受講できるAIコースも、最初はMicrosoftが自社の社員のために開発したコースだ。

そのMicrosoft Professional Program for Artificial IntelligenceはedX.orgで無料で受講できるが、お金を払えば修了証ももらえる。コースの期間は3か月で、各四半期の頭に始まる。当然ながら、Microsoft AzureとMicrosoftのCognitive Servicesを多く使うからAzureのアカウントは必要だが、使用するオペレーティングシステムは特定しない。

全部で10の必修クラスがあり、それらはAI入門データサイエンスのためのPythonプログラミングAIデベロッパーの倫理などさまざまだ。訓練モデルを使った実習も多い。ひとつのクラスは所要時間が8ないし16時間だ。

AIコースだけでなく、同じく今日発表されたソフトウェア開発の入門コースは、これもedXのコースで13の必修クラスから成る。とくに、JavaScriptとPythonが中心のようだ。ただしこれらのプログラミング言語を学ぶだけでなく、データ構造の基礎や、GitHubの使い方、コードをプロフェッショナルに書くためのそのほかのツールなども教わる。

こういった学習コースをいろいろ集めたものを、Microsoftは“Professional Programと呼んでいる。Microsoft Academyの方が、分かりやすいんじゃないかなぁ。今あるコースは、フロントエンドの開発、クラウドのアドミン育成、ITサポートのプロフェッショナル育成などだ。

画像クレジット: 写真提供, Dan DeLong/Microsoft

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Chromeの暗号通貨マイニング拡張機能は全面禁止――Google、Chrome Web Storeの規約改定

今日(米国時間4/2)、GoogleはChrome Web Storeで暗号通貨マイニングを行うブラウザ拡張機能(エクステンション)を公開することを全面的に禁止すると発表した。

ブラウザを利用して暗号通貨マイニングを行うことは手っ取り早く金持ちになる方法とはいえない。しかし運用者がデベロッパーで、何千台ものマシンに密かにアクセスできるなら話は別だ。GoogleのChrome Web Storeではこれまで長い間、暗号通貨マイニングを目的とする拡張機能の公開をを許していた。しかしChrome Web Storeに登録できる拡張機能は単一の機能の実行を目的とし、かつその目的を明示したものなければならない。

ところが暗号通貨マイニングを実行する拡張機能の90%はこのルールに従っていなかった。金持ちになれるという誘惑はあまりに大きく、一部のデベロッパーは一見まともと見える拡張機能にマイニングのスクリプトを紛れこませていた。こういう拡張機能は発見されて即座にストアから削除されることもあれば、首尾よくストアで公開されることもあった。マイニング機能はバックグラウンドで動作し、勝手にCPUパワーを大量に使う〔下図〕。こうした拡張機能はユーザーによって個別に削除される必要があった。当然ながらGoogleはユーザー体験を悪化させるこうした拡張機能を快く思っていなかった。

そこでChrome Web Storeでは暗号通貨マイニングを行う拡張機能の新規登録が今日から禁止され、既存の拡張機能についても6月以降削除されることになった。ただしブロックチェーン関連であってもマイニングを行わない拡張機能は引き続き許可される。

Chromeの拡張機能プラットフォームのプロダクト・マネージャー、James Wagnerは、ブログに「Chromeの拡張機能プラットフォームはデベロッパーが各種の有用な拡張機能を開発することを可能にし、ユーザーにとってChromeの価値を高めるために大いに貢献してきた。残念ながら、これまでこの機能が悪意あるソフトウェアを開発するデベロッパーを引き寄せ、ユーザーを不当に利用することを可能にしていた。今回の措置はChromeユーザーが知らないうちにリスクにさらされることを防ぎ、安心して拡張機能を利用できるようにするわれわれの努力の一環だ」と書いている。

画像:matejmo

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Cloudがアプリケーションパフォーマンスモニタリングのツール集を提供

Googleのクラウドプラットホームでは、社内用に作ったツールやサービスがGoogleのプロダクトとして顧客に公開提供されることが多い。今日(米国時間3/28)同社は、その一環として、Google Cloud Platformの上でアプリケーションを構築するデベロッパーにとって重要な、アプリケーションのパフォーマンス管理(application performance management)ツール集Stackdriver APMを発表した。

APMの考え方はやや変わっていて、問題の責任をオペレーションに渡すのではなく、デベロッパーがアプリケーションを調べる。つまりアプリケーションを作ったデベロッパーがコードにいちばん近いところにいるので、そこから出てくる信号もいちばんよく理解できるはずだ、とする。

StackDriver APMは、三つのツールで構成される: プロファイラーとトレース(トレーサー)とデバッガだ。トレースとデバッガはすでに利用できるが、しかしプロファイラーと併用することによって、三つのツールが協働してコードの問題を特定し、調べ、そして修復できるようになる。

Stackdriver APMを発表するブログ記事でGoogleのプロダクトマネージャーMorgan McLeanはこう書いている: “これらのツールのすべてが、どんなクラウドの上で動くコードやアプリケーションでも扱えるし、オンプレミスのインフラでも使える。つまり、アプリケーションがどこで動いていても、一貫性がありアクセス性の良いAPMのツールキットを使って、アプリケーションのパフォーマンスをモニタし、管理できる”。

ほかにStackDriverにはモニタリングとロギングのツールもあり、これら完全なAPMのスイートが、SplunkやDatadog、New Relic、AppDynamics(Ciscoが買収)などのベンダと競合することになる。しかしGoogleのプロダクト管理担当VP Sam Ramjiによると、これらのベンダは競合他社であるだけでなくパートナーでもあり、お互いのツールが協働して問題解決に取り組むことを、Googleも十分に理解している。

“しかし、コアシステムがみんなによく見えるようにする点では、うちが一番だ。人びとはこれまで使ってきたお気に入りのツールをこれからも使って、彼らの企業の事業目的という見地からプロダクションシステムを検査したり、適切なタイミングでアラートしていくだろう”、と彼は述べる。

まず最初は、プロファイラーの出番だ。これによりデベロッパーは、軽量級の(全量ではなく)サンプリングベースのツールで、アプリケーションのすべてのインスタンスからデータを収集する。

Stackdriver Profiler. 画像提供: Google

プロファイラーが集めたデータから問題を判定したプログラマーは、次にトレースを動かす。Ramjiによると、コードの問題はほとんどつねにクリティカルパスの後(あと)にあるから、このツールを使えば、問題が分散システムの全域にわたって伝搬していく様子を理解できる。トレースの画面(下図)は視覚化されたアナリティクスのような形をしていて、これらにより問題の性質と、計算資源に対するそのインパクトが分かる。

Stackdriver Traceツール。 画像提供: Google

そして最後がデバッガだ。Ramjiがこれをとくに好きなのは、若き日の90年代のツールを思い出させるからだ。当時はデバッガでアプリケーションを止めたり動かしたりしながら、問題の所在を突き止めていた。このAMPのデバッガもやはり、指定した箇所でコードを止めて、問題の核心を見つける。

ただしこの現代的なデバッガには、Ramjiが“マジック”と呼ぶものがある。デベロッパーによるコードの停止や再開が、顧客に影響を及ぼさないのだ。McLeanもこう書いている: “プログラマーにおなじみのブレークポイント方式のデバッグ処理を提供するが、それによって顧客へのネガティブなインパクトはない”。

Stackdriver APMは今日(米国時間3/28)から可利用になり、完全なサービスから成る完全なモニタリングスイートが提供される。これでGoogleは、モニタリング〜デバッグという分野でも、既存の選手たちと競争するつもりのようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudはGoogle自身が使っているテキスト音声変換エンジンをデベロッパーに公開

テキストから音声への合成技術は近年大きく進歩し、最近のシステムは本物の人間がテキストを読んでるように聞こえるものが多い。その進歩を引っ張った企業のひとつであるGoogleは今日(米国時間3/27)、同社がAssistantやGoogle Mapsなどで今使っているのと同じ、DeepMindが開発したテキスト音声変換エンジンをデベロッパー向けに一般公開した。

そのCloud Text-to-Speechと呼ばれるサービスは、32種の声が12の言語とその変種を喋る。このサービスが生成するMP3またはWAVファイルは、ピッチや読む速度、音量などをデベロッパーがカスタマイズできる。

しかし、声の質にはむらがある。それはたとえば、英語には6種類の声があるからで、それらはすべて、テキストから生のオーディオを作るためのDeepMindのモデルWaveNetで作られている。

WaveNetはそれまでの技術と違って、短い発話の集まりから音声を合成しない。それをやると、私たちにはおなじみの、ロボットふうの話し方になってしまう。それに対してWaveNetは機械学習のモデルを使って生のオーディオのモデルを作り、より自然に聞こえる音声を合成する。Googleが行ったテストでは、WaveNetの声の方がふつうの(人間の)声よりも20%良い、という評価になった。

Googleが初めてWaveNetに言及したのは約1年前だが、その後同社は、同社自身のTensor Processing Unitsをベースとする新しいインフラストラクチャへこれらのツールを移し、オーディオ波形の生成をそれまでの1000倍速くした。だから今では1秒のオーディオの生成に50ミリ秒しかかからない。

この新しいサービスは、すべてのデベロッパーが利用できる。料金表はここにある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GitLabがライバルのGitHubをサポート、CI/CDで顧客を取り込みたい

おもしろい展開だ。チームがコードを共有するための共有リポジトリを提供するサービス、という点では多くの点でGitHubと競合するGitLabで、その継続的インテグレーションとデリバリ(continuous integration and delivery(CI/CD))の機能がGitHubをサポートすることになった

今日(米国時間3/22)ローンチするその新しいサービスは、GitLabがホストするサービスの一環だ。2019年の3月22日までは無料で利用できるが、その後は、GitLab.comの有料のSilverティアへ行く。

GitHubもやはり、そのコアツールの上の層としてベーシックなプロジェクト管理やタスク管理のサービスを提供しているが、しかしDevOpsのライフサイクルのほとんどの部分はパートナーたちにまかせている。GitLabは、複数のコードリポジトリを統合するなど、もっと完全なCI/CDソリューションを提供しているが、GitLabの人気もけっして低くはないけど、GitHubはデベロッパーや企業による知名度ではGitLabを大きく引き離している。というわけで今回GitLabは、コードをGitHubに保存しているけどより完全なCI/CDソリューションも使いたい、という新しいユーザー、とりわけエンタープライズユーザーを獲得したいのだ。

今度の新たなGitHubの統合により、デベロッパーは自分のプロジェクトをGitLabでセットアップし、それらをGitHubのリポジトリに接続できる。するとデベロッパーがコードをそのGitHubのリポジトリへプッシュするたびに、GitLabがそのプロジェクトのCI/CDパイプラインを動かし、ビルドとテストとデプロイを自動化する。

GitLabのCEOで協同ファウンダーのSid Sijbrandijはこう述べる: “継続的インテグレーションとデプロイメントは現代的なDevOpsの根幹だ。今回の新しいサービスにより、GitHubをコードリポジトリとして使っている企業やオープンソースのプロジェクトは、GitLabの、業界のトップを走る高度なCI/CDサービスを利用できる”。

なおGitLabは、AtlassianのBitBucketの、今回とよく似た統合も提供している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AWS Lambdaのイベントトリガを使いやすくしてWebサイトの開発方法を改革するNetlify

Webプロジェクトの継続的なデプロイメントを支援するサービスNetlifyのビジョンは、Webサイトの作り方を変えることだ。とくに、フロントエンドのデザインとバックエンドで実行されるサービスとの結合を、もっとシンプルにしたい。今日同社は、そのビジョンの実現に向かう次の一歩として、NetlifyのサービスにAWS Lambdaのファンクションを導入した。

同社のねらいは、Web開発に伴う多くの複雑性を、できるだけ減らすことだ。たとえば、ユーザーがHTMLとJavaScriptでフロントエンドをデザインすると、Netlifyはそれをさまざまなサービスに結びつける。決済ならStripe、メールによるニューズレターの管理ならMailChimp、というように。このやり方でNetlifyは、Webサーバーという概念を抽象化(実体のないものに)してしまう。デプロイが遅くてセキュリティもスケーリングも困難なあのあれが、消えてなくなる。そして、一枚岩的なWebサイトから、スタティックなフロントエンドとバックエンドのマイクロサービスという組み合わせへ移行し、それによりセキュリティとスケーリングの問題を解決、そしてサイトを従来よりも相当早くユーザーに渡せるようになる(デリバリが早い)、と同社は信じている。

ユーザーは、サイトの構築に何を使ってもよい。ユーザーが作った設計/デザインを渡されたNetlifyは、バックエンドのコーディングのすべてをエッジに置き、コードはエッジで実行される。その意味で同社のサービスは、半分はContent Delivery Network(CDN)、残る半分はデベロッパーの自動化エンジンだ。

この、より動的なWebサイトをより早く作るというNetlifyの能力がAndreessen HorowitzのパートナーPeter Levineの目に留まり、昨年8月に同社の1200万ドルのシリーズを彼がリードした。Levineは曰く、“彼らの、マイクロサービスとAPIsを活用して柔軟性に富む動的な(ダイナミックな)Webサイトを作る、という考え方はすばらしいアイデアだ。しかも、エッジへデプロイすることによって、さらにハイパフォーマンスなユーザー体験を作れるし、GitHubを統合することによってアプリケーションを容易に作成し管理できる”。

今日の発表は、同社のサービスのそんなアプローチをさらに一歩前進させる。Lambdは、AWSのいわゆるサーバーレス・ツールだ。デベロッパーはファンクションを作り、それが特定のイベントにトリガされて実行される。デベロッパー側には、サーバーを24/7動かし管理しメンテナンスする苦労がない。これは、NetlifyのWeb開発アプローチとぴったり相性が良い。つまりそれは、AWS Lambdaと同じく、WebのパブリシングプロセスからWebサーバーを取り除くから。

そしてNetlifyは、Lambdaのファンクションを、もっと容易に実行できるようにした。同社によると、Webデベロッパーは確かにイベントトリガーという考え方を気に入っているけど、AWSのワークフローは複雑すぎる。イベントトリガーをデベロッパーのアイデンティティで容易に作れるようになれば、Lambdaをもっと気軽に利用できるだろう。

同社の協同ファウンダーChristian Bachは、こう説明する: “Lambdaが良いことは自明だが、それを軸とするワークフローがないために、使いづらい。われわれにはフロントエンドをパブリシングするワークフローがあるので、サーバーレスもそれと同じようにしたい、と考えた”。

“Lambdaのトリガのひとつひとつが小さなマイクロサービスになり、ブラウザーからそれらにアクセスできる”、と彼は述べる。たとえばStripeを使って決済をする場合なら、Stripeの秘密の認証情報のコードで決済のゲートウェイに入る。“従来なら、この小さな呼び出しのために、どこかでサーバーを動かす必要がある。この小さな機能だけのために、Railsのアプリケーションを作るだろう”、Bachはそう述べる。

しかしNetlifyのやり方では、認証情報を数行のコードでタイプし、それからLambdaのトリガとNetlifyの糊的なコードを少々使うだけだ。これにより、そのコードをどこに置くか、それをどうやって管理するか、という問題が解決する、とBachは言う。

かねてからエッジコンピューティングをテクノロジーの大きな駆動因として見ているLevineがNetlifyのシリーズAをリードし、同社の取締役会に加わったたのは、たぶん偶然ではない。

Levineは曰く、“かなり前からエッジコンピューティングには注目しているし、Netlifyは、エッジにおけるサービスという大きなトレンドの一部だ。同社は、現代的なWebサイトを構築しデプロイする方法を開発した”。

同社は、2015年に創業され、これまでに1410万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Blue Visionから複数ユーザーが共有するARプラットフォームのSDK――Google他から1450万ドルを調達

今日(米国時間3/15)、ロンドンを本拠とするAR(拡張現実)のスタートアップ、Blue Vision Labsはステルス状態を抜け出し 世界で初となるコラボレーションAIを実現する新しいプラットフォームを発表した。共同ファウンダーはオックスフォードとインペリアル・カレッジのコンピュータービジョンの専門家だ。

今回発表されたAPIとSDKを通じてBlue Visionのテクノロジーを用いると、複数のユーザーが同一のバーチャル空間にオブジェクトを表示させ、対話的に操作できるようになる。特にバーチャル・オブジェクトを表示するための空間認識の精度はこれまでのARに比べて格段にアップしているという。

こうしたテクノロジーが有効なユースケースはマルチプレイヤーゲーム、複雑な経路の案内、教育、ソーシャルメディアなど広い範囲にわたる。

共同ファウンダー、CEOのPeter Ondruskaは、私の取材に答えて、「Blue Visionのテクノロジーが特に優れているのは人間その他の動くオブジェクトをピンポイントでバーチャル空間に定位できる点だ。 対象の現実の位置を数センチの誤差で同定できる。GPSデータを用いた他のシステムと比べて桁違いに正確性が高い。たとえばライドシェアリングのように2人のユーザーが出会う必要がある場合、互いの位置を正確に認識できることになる」と述べた。なるほど、Uberを呼んだのはいいが、ドライバーが顧客の位置を把握できず時間を空費してしまったという経験をした読者も多いだろう。

Blue Visionは過去2年表立った発表をせず、いわゆるステルスモードでプロダクトの開発に専念していた。Ondruska、Lukas Platinsky、Hugo Grimmettに連続起業家のAndrej Pancik、Bryan Baumもチームに加わっている。共同ファウンダーたちは2011年からこのアイデアの実現に取り組んでいたが、このほどいよいよ実地で作動するプロダクトが完成した。

SDKの発表と同時に、Blue Visionは総額1700万ドルの資金を調達したことを発表した。このうち1450万ドルは新規のシリーズAラウンドで、Googleの親会社、Alphabetの投資会社GVがリードした。これ以前に調達した250万ドルのシード資金はAccel、Horizons Ventures、SV Angel 他が出資した。これらの投資家はすべてシリーズAにも参加している。

Ondruskaによれば、当面SDKの利用は無料だ。

この2、3年、VR/ARに対する関心が急速に高まっており、GoogleやAppleのような大企業からもSDKや作成したアプリを作動させるハードウェアが各種リリースされている。有力メディア企業はこうしたプラットフォーム向けにコンテンツを製作するための多額の投資をしており、投資家はソフト、ハードのさまざまなスタートアップに何百万ドルも注ぎ込んでいる。

しかしこうした試みの一部は明らかに大胆なムーンショットだという印象を受ける。Magic Leapは長期にわたって巨額の投資を受けながらこれまで何のプロダクトも生み出していない。一方でAppleのARKitやGoogleのARCoreはすでに利用可能な堅実なプロダクトだが、その影響は限定的だ。

VRの世界では、多数ユーザーの協調動作を可能にすべく努力が開始されている。たとえばFacebookのOculus事業部が開発しているRoomsでは複数のユーザーが同一の拡張空間を体験できる。

しかしBlue VisionのアプローチはOculusなどと異なり、専用ハードウェアを必要としない。誰もが持っているスマートフォンと内臓カメラだけで複数ユーザーによる協調的AR体験を実現する。Blue Visionはユーザーが利用し始める上でのハードルを下げるために画期的なARのバックエンドを開発したとしている。これに成功しているのであれば、このスタートアップのテクノロジーの利用範囲と影響は注目すべきものとなるだろう。

今回のラウンドを機に取締役に就任したAlphabetのGVのTom Hulmeは「(Blue Visionは)特定の専用ハードウェアなしで作動できるプラットフォームを開発した。これまで(正確な位置定位を行うには)複数のレンズを必要としたが、同社のテクノロジーは通常のスマートフォンのカメラで同様の結果を得られる」と述べた。

こうした効果を達成できた秘密の一部はデベロッパーがきわめて精密な現実空間のマップを利用できるようにした点にある。デベロッパーはこのマップをカンバスとしてその上に各種のオブジェクトが表示し、協調的なARを構築できる。

Ondruskaはインタビューに答えて、「われわれはまずロンドン、サンフランシスコ、ニューヨークの中心部の精密なマップ製作を行った。将来はカバー範囲をさらに拡大していく。同時にユーザーはそうしたマップが存在しない場所でもBlue Visionのアプリを作動させることで随時ロケーションを追加していくことが可能だ。この場合は精密マップが存在するエリアに比べて精度は下がる。特に動きが速い環境ではそうだ。こうした場合、正確な位置定位を行うためには多数の精密な基準点を知ることが必要になる」と述べた。

ある推計では、ARベースのアプリの市場は2022年までに850億ドルから900億ドルに、VRは100億ドルから150億ドルになるという。

これは現状から見れば飛躍的拡大だ。2018年現在でのARベースのプロダクトにおける最大のヒットはポケモンGOだろう。OndruskaはAR市場の拡大が進まないのはシームレスかつ快適なAR体験を可能にするテクノロジーがまだ欠けているためだと信じている。こうした「欠ている部分」を実現するのがBlue Visionの目標だ。

「ARプロダクトがマスマーケットの主流になっていない原因の一つは現在のテクノロジーだ。シングル・ユーザーしかサポートしないARは応用が限られたものになる。われわれはこれを次の段階に進め、複数の人々が同一AR空間を見られるようにする。こうしたこと実現できるようなバックエンドがこれまで存在しなかった。Blue Visionはこの欠けたピースを埋め、誰もが毎日利用するような重要なARテクノロジーを実現し、新たなユースケースを切り開いていきたい」とOndruskaは述べた。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Cloudflareが自分のグローバルネットワークへのアクセスを提供して真のエッジコンピューティングを可能に

ますます多くのコンピューティングがエッジへ移行して行くに伴い、プログラマーはレイテンシーを減らしパフォーマンスを上げるために、ユーザーになるべく近いコンピューティングパワーにアクセスしたい、と願っている。今日(米国時間3/13)Cloudflareが発表したCloudflare Workersは、そんなデベロッパーたちがCloudflareのネットワークのエッジで直接実行されるコードを、書けるようにする。

同社の協同ファウンダーでCEOのMatthew Princeによると、これまでそんなアクセスができるのはCloudflareの社員だけだった。“今日からはそれを、自分のアプリケーションをエッジで動かしたい人なら誰でも使える。これによってCloudflareの可能性も広がり、アプリケーションのこれまではできなかったような構成やプログラミングが可能になる”、と彼は説明する。

今の、IoTやゲーム、ビデオなどのアプリケーションは大量の帯域を使用するから、処理をなるべくエッジに持ってこれればパフォーマンスも改善され、またコードの実行に対する細かい粒度のコントロールも可能になる。

Princeによると、プログラマーは、ユーザーがそのアプリケーションにアクセスする場であるフロントエンドをいじったり、あるいはバックエンドではデータベースをいじくってパフォーマンスをアップしようとする場合が多い。しかしこれまでの彼らは、Cloudflareのネットワーク上のどこで自分のコードが実行されるかを、コントロールできなかった。

“本質的にローカルなプロダクトを開発する場合は、大多数のユーザーが至近距離にいるわけだから、コードがエッジで実行されるようプログラミングすればよい”、と彼は語る。至近距離という言い方は、誇張でなない。Cloudflareはデータセンターが世界中127箇所にあり、しかもその数はコンスタントに増え続けている。

この新しいサービスによりプログラマーは、コードが実行される場所をJavaScriptのコードで指定できる。しかも、そのコードをアップデートすると、エンドユーザーのところでアプリケーションのアップデートをする必要なく、ほとんどすぐに実装される。変更を、今使っているクラウドプロバイダーへアップロードする必要もない。

Cloudflareは、企業のWebサイトのパフォーマンスとセキュリティを向上することがメインの仕事だが、今回は自分のネットワークのパワーを顧客に利用させようとしている。コードの実行場所をプログラミングできることによって、ユーザーは自分のアプリケーションを動かすために必要なさまざまなレベルのリソースにアクセスでき、そしてロードバランシングやリソースアロケーションなどの面倒な仕事はCloudflare自身がやってくれる。AWsなどの、クラウドインフラストラクチャプロバイダーが、まさにそうやっているように。

2009年に創業された同社は、これまでに1億8200万ドルを調達し、これからの数か月ないし数年で同社のネットワークへのアクセスを拡大したい、という大きなビジョンを持っている。Princeによると、同社は昨年売上1億ドルのラインを超え、社員は600名を抱えている。今回のCloudflare Workersのようなサービスが加わると、売上はさらに拡大し、同社が作った全世界的なネットワークを、さらに有利に利用していけるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Apple、WWDC 2018の日程発表――サンノゼで6月4日から8日まで

AppleがWWDC(Worldwide Developers Conference) 2018の日程を正式に発表した。 Appleのサイトによれば、恒例のデベロッパー・カンファレンスは6月4日からサンノゼで開催される。サンノゼ開催は去年に続いて2度目となる。WWDCは長らくサンフランシスコのモスコーニ・センターで開催されていた。

去年の今頃、WWDCの会場がサンノゼに移ったことが発表された際にTechCrunchの記事は「合理的だ」と書いている。サンフランシスコの物価は高騰している上にAppleはさらにスペースを必要としていた。会場がサンノゼのマッケナリー・コンベンションセンターならサンフランシスコに比べて参加者もずっとホテルが取りやすい。

登録受付はすでに始まっている。チケットはここ数年変わらず1599ドル〔17万円〕だ。決して安くはないし、数千席が用意されているというものの、参加はそう簡単ではない。Appleはチケット購入者を決めるために抽選を行う。
登録締切は3月22日午前10
時(太平洋夏時間)で、翌日夕方に結果が通知される。

またAppleはプレスリリースで「スチューデント・スカラシップ」として350席を無料で開放すると発表した。Appleのデベロッパー・プログラムに登録しており、STEM組織のいずれかに所属している学生が対象となる。Appleのサイトに専用ページがあるのでフォームに所定の事項を記入して申し込める。うまくいけばちょっとした(1599ドル!)節約になる。

昨年のWWDCで注目を集めたのはARKitの登場だった。これでAppleが拡張現実に本気で取り組むことが印象付けられた。今年は数週間前から新しいハードについてさまざまな情報が飛び交い始めた。噂ではWWDCでは新しいMacBookとiPad Proが披露されるということだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google Assistantの独自のアクションを各種デバイスに組み込める、そのためのSDKを発表

今年のSXSWの呼び物というほどでもないが、Googleは自分の製品にGoogle Assistantをあっと驚くアイデアで組み込みたい、と考えているデベロッパーのために、ちょっとした素敵なアップデートを提供する。製品に特定のファンクションを加えるためのAssistantのSDK、それがそのCustom Device Actionsだ

ブログの記事でGoogleは、Assistantを搭載した洗濯機が色を次々と変える例を示している。Assistantの開発キットにはすでにBuilt-in Device Actionsというものが最近提供されたが、デベロッパーはこれでデバイスに何らかの特徴を持たせることができる。そして今回のCustom Device Actionsは、それの後輩だ。

スマートホームデバイスはますます市場が混み合ってきたから、メーカーはなんとかして自社製品を目立たせないといけない。この開発キットは、そのために役に立つだろう。Googleはデモ用として、洗濯物分類ロボット(下図)とビール注文システムを作ったようだが、どちらもSXSWではAssistant Fun Houseと名付けたコーナーで実際に試せる。

この前のCESやMWCと違って、今度のGoogleの展示場には嬉しいことに屋根がある。でも、二度ある悪天候は三度あるというから、テキサスはみぞれかもしれない。このActions開発キットには登録会員のための通知機能があって、新しいアクションが追加されたらAndroidスマートフォンの画面に音楽とともにポップアップする。

もっと詳しいことは、5月初旬のGoogle I/Oカンファレンスで分かるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

オープンソースのライブラリのセキュリティチェックと脆弱性フィックスを代行するSnykが$7Mを調達

オープンソースのライブラリはデベロッパーにとってとても重要なリソースだが、今日の慌ただしいアプリケーション開発環境では、それらが安全なコードであるという確信を持つことが容易ではない。そこでSnykは、デベロッパーがオープンソースのコードに脆弱性を見つけて直す作業を支援し、確実に安全なコードがプロダクションのその後の工程で使われるようにする。同社は今日(米国時間3/6)、Boldstart VenturesとCanaan PartnersがリードするシリーズAのラウンドで、700万ドルを調達したことを発表した。

このラウンドには、Heavybit, FundFire, VeeamのPeter McKay、およびそのほか数名の投資家が参加した。同社は2016年に、同じくBoldstartがリードするラウンドにより、300万ドルのシード資金を獲得している。

この種のバグフィックスは、アプリケーションが完成して世に出てからではなく、開発チーム自身がやった方がよい、とSnykのCEOで協同ファウンダーのGuy Podjarnyは信じている。今は開発工程にセキュリティチームがいないやり方が一般的になりつつあるが、そうでない方がよい、と彼は言う。ソフトウェアが何か月も何年もかかって構築されるときはそれでも良いが、しかし今日のような開発スピードでは、デベロッパーチームとは別のセキュリティチームがソフトウェアをチェックするやり方は、合理的でも効率的でもない、とPodjarnyは主張する。

“われわれは開発工程の中へエレガントに統合し、オープンソースの部分に既知の脆弱性を見つけ、それらをフィックスする”、とPodjarnyは説明する。同社はユーザーのGitHubリポジトリの中のコードをモニタするが、サードパーティの企業とソースコードを共有している場合も、どのファイルを使っているのかという“マニフェストファイルにアクセスできれば、われわれの仕事にとってとくに問題はない”、と彼は言う。

同社はインターネットのあちこちから情報を集めて、彼らがモニタしているオープンソースプロジェクトの既知の脆弱性とその特徴を知る。ユーザーが使っているライブラリと、使用している言語(JavaScript, Java, .netなど)が分かれば、今使っているコードが古いバージョンである(かもしれない)ことも分かる。

そしてそれらの脆弱性が見つかったら、そのコードに依存しているものを壊さずに早く効率的にフィックスする方法のアドバイスと共に、プルリクエストを送る。

  1. deep-integrations-into-a-large-and-growing-list-of-platforms.png

  2. detailed-advisories-for-vulnerabilities-in-the-snyk-vulnerability-db.png

  3. detailed-test-reports-with-a-single-click-fix-button.png

PodjarnyはBlaze.ioの協同ファウンダーだったが、同社は2012年にAkamaiに買収された。彼は買収後に、その企業のWeb体験ビジネスのCTOになり、2015年のSnykの立ち上げまでそこに在籍した。

そのときのスタートアップ体験が、ニューヨークのアーリーステージVC Boldstart VenturesのファウンダーでマネージングパートナーEd Simの目にとまった。“彼がAkamaiに売ったスタートアップにもうちは投資したが、彼と彼の協同ファウンダーたちには深いセキュリティ経験があった。また同社(Snyk)は、企業の大きな満たされざるニーズ、すなわちコードを継続的にデプロイしていくときの、オープンソースコードのセキュリティの確保というニーズを、満たすことができた”、とSimは語る。

SnykはまだシリーズAの企業だが、しかし今では月間ダウンロード数が35万もあり、大手の有料ユーザー企業が130社いる。同社は今後、対象とするオープンソースプロジェクトをもっと多くしていきたい、と考えている。また、現在30名の社員を、その倍にしたい。今同社は、テルアビブとロンドンにオフィスがあり、ボストンに小さな営業とサポートのオフィスがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

優れたAlexaスキルにはお金を払うAmazon、今度は子ども向けスキルもその対象に

昨年Amazonは、デベロッパーが作ったAlexaスキルの、好評で人気の高いものにはお金を払う、と発表した。最初はゲームのスキルが対象で、それはAmazonがゲームに力を入れようと思っていたからだが、8月には対象カテゴリーがやや増えた。そして今日(米国時間2/27)は、さらに対象を拡大して、子どものためのスキルも、優秀作にはAmazonからお金が出る。

これで、秀作のスキルがお金をもらえるカテゴリーは全部で8つになった。それらは、ゲームに始まって教育(質問)、食べ物飲み物、健康とフィットネス、ライフスタイル、音楽とオーディオ、仕事、そして今度の子どもだ。

Amazonは、この事業の近況も報告した。例によって詳しい数字は挙げないものの、これまで22か国のデベロッパーに“数百万ドル”を支払ったそうだ。それらのスキルは、アメリカとイギリスとドイツで提供されている。

中には“数万ドル”を稼いだデベロッパーもおり、少数ながら10万ドルを超えた人たちもいるそうだ。

デベロッパーに直接お金を払うやり方は、音声アプリのエコシステムの成長に寄与するだろう。デベロッパーの標準的な収益源であるはずの、有料会員制スキル内購入が軌道に乗るのは、まだ先の話だ。良いスキルの中にも、これらの一般的な収益化の仕組みがなじまないものがあるし、またスキルのデベロッパーが勝手に広告を収益源とすることは、Amazonが禁じている

この、子ども向けスキルにお金を払うという発表は、賞金25万ドルの“Alexa Skills Challenge: Kids”の入賞スキルの発表にタイミングを合わせたようだ。この懸賞は、13歳以下の子どもが対象、とされていた。

Amazon Alexaは、子どもにも人気がある。Echoを買った親は、みなそう言っている。そこで今回Amazonがデベロッパーたちを奨励して、子どもをねらったアプリやゲームを作らせようとしているのも、理にかなっている。

昨年Amazonは、ネット上の子どもたちのプライバシーを守る法律COPPA(Children’s Online Privacy Protection Act)へのコンプライアンスのために、子ども用の音声アプリに親の同意機能を加えた。これによりNickelodeonやSesame Streetなどの有名ブランドが、子ども向けアプリを出し始めた。

なお、子ども向けアプリに対する法律の規制があるため、子ども向けAlexaスキルもアメリカでしか公開/配布できない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Dart言語によるモバイルアプリ(iOS/Android)開発フレームワークFlutterがベータを開始

Flutterは、iOSやAndroidのアプリ開発を助けるGoogleのオープンソースのツールだ。まだ生まれて1年にもならないから、知らない人も多いが、ある面ではFacebookのReact Nativなど人気のフレームワークに対抗する製品だ。GoogleのDartプログラミング言語*を使用するこのツールは、昨年のデベロッパーカンファレンスGoogle I/Oで発表された。〔*: Dart言語, 本誌記事。〕

同社の今日(米国時間2/27)の発表では。Flutterは現在ベータでだが、すでに多くのデベロッパーがこれを使ってアプリを作り、Google PlayやApple App Storeで人気上位になっているアプリもある。

GoogleでFlutterを担当しているプロダクトマネージャーSeth Laddによると、MWCでFlutterの発表をしたのには理由がある。それはモバイルデベロッパーに関心を持ってもらいたいからであり、また、昨年から今日までにかけて達成された進歩を強調したいからだ。とくに大きいのは、Android StudioやVisual Studio Codeがサポートされて、Flutterのアプリをそこで書けるようになったことだ。

アルファでローンチしてから以降、FlutterのチームはiPhone Xなど新しいスマートフォンのサポートを加え、アクセシビリティ機能や、右から左へ書いていくテキストのサポート、ローカライゼーション、国際化、Flutterのコードをバックグラウンドで動かす機能、などを加えていった。

デベロッパーにとって、もっとおもしろいのは、ステートフルなホットリロードがサポートされたことだろう。ソースコードを書き換えると一瞬後には、その変化がデベロッパーのスマートフォン上のアプリに反映される。Laddによると、これによってえ開発工程が早くなるだけでなく、いちいちプロトタイピングツールを使う機会が減る。

Dartというニッチなプログラミング言語に依存していることについてLaddは、Flutterにとって正しい言語はDartだ、と主張する。“ほかの言語では、1)早い開発サイクル、2)デベロッパーが期待する標準的機能の充実、3)オブジェクト指向、4)リッチなライブラリ、5)使い慣れるのが早くて容易であること、この5拍子が揃ってる言語はあまりない”、という。このベータでFlutterは、Dart 2のプレリリースバージョンをサポートし、クライアントサイドの開発がより強力にサポートされる。

Laddによると、React Nativeのようなライバルのフレームワークに比べるとFlutterは独自のGPU加速グラフィクスとレンダリングエンジンを使い、Webビューを使わない。“これによって、デザイナーがデザインしたものと、デベロッパーが目にするものとが、正確に同じピクセルになり、ユーザーが実際に体験するデザインにもなる”、という。“独自のグラフィクスエンジンがあることによって、デザイナーが構想した一貫性のあるデザインを提供できる”。

Flutterのチームは、既存のアプリとの統合が容易なことも強調する。Flutterでは、既存のアプリをFlutterの画面から利用する、といったことができる。完全に新規にFlutterで作られた、最も人気のあるアプリとしてGoogleは、Hamiltonを挙げている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google AssistantのActionsからディープリンクが可能に――新たに7言語サポート

Actions on GoogleというのはAmazon AlexaのskillsのGoogle Assistant版と考えてよい。これは以前から公開されていたが、今日(米国時間2/26)、GoogleはActionsをさらに広い範囲から利用できるよう拡張すると発表した。多くの言語が新たにサポートされた他、いくつかの有用な機能も追加された。

今回のアップデートで重要な点は新たに7カ国語がサポートされたことだ。ヒンディー、タイ、インドネシア、デンマーク、スウェーデン、ノルウェー、オランダの各言語が既存の英語、フランス語、ドイツ語、日本語、韓国語、スペイン語、ポルトガル語、イタリア語、ロシア語に加わった。これでフルにサポートされる言語は16カ国語となった。同時にGoogleが提供する音声会話によるインターフェイス作成ツール、Dialogflowもこれらの言語で利用できるようになったことを意味する。

またGoogleでは、デベロッパーが多国語へのローカライズを助けるために、Actionsのディレクトリをファイルとして保存できるようにした。

また今回、すべてのデベロッパーが利用できるようになった機能には、Google Assistant ActionsからAndroidアプリにディープリンクを張ることが含まれる。Googleのプロダクト・マネージャー、Brad Abramsは今日の発表で、「今年中にAssistantは世界のAndroidスマートフォンの95%で利用できるようになる。Actionsはユーザーが音声でAssistanntと会話して必要な動作をさせることを可能にする。ただし複雑あるいは特定の作業をさせたい場合、別アプリを利用するのが効率的な場合がある。Assistantから音声で別アプリを起動できるようになったことは大きな助けになるだろう」と書いている。〔スクリーンショットはSpotHeroという駐車アプリを開いて駐車位置を確認している例〕

また今回のバージョンではデベロッパーはユーザーのロケーション情報を利用した検索が容易にできる。つまりActionsからGoogle Places APIを経由して対話的にロケーション情報を処理することが可能だ。つまりユーザーが音声で「スターバックス?」と質問した場合、Assistantはロケーション情報でユーザーの位置を把握して検索を行い、さらにそのうちのどのスターバックスに行きたいのかを重ねて質問することができる。

またユーザーが特定のActionsを頻繁に利用する場合、Assistantは通常の導入部を省いて直接Actionsを起動できる。これは処理速度のアップに役立つという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Javascriptで作ったWinAmpエミュレータでインターネット・ガキだった自分を思い出そう

昔の子どものころからインターネット・ガキだった人は、WinAmpという小さなアプリケーションをおぼえているだろう。その小さなプログラムは、イコライザーのスライダーがいっぱいあって、まがい物のステレオ受信機みたいだったが、取説のMP3はWinAmpのミッションを“ラマ*の尻(けつ)を鞭でぶつこと”、と言っていた。〔*: llama, 当時のインターネット・ガキのこと〕

Jordan Eldredgeというプログラマーが、WinAmpへのオマージュをJavaScriptで作った。そのウィジェットを使えばスタンドアロンの音楽プレーヤーをどんなWebページの上にでも作れて、好きなスタイルをWinAmpの歴史から選べる。それをここで試せるし、コードはここからダウンロードできる。

“最初のヒントは、WinAmpのスキンがCSSのスプライトによく似た方法で実装されていることだった”、とEldredgeは述べている。“10代のころはWinAmpのスキンづくりで何時間も遊んでいた。コンピューターの上で初めてやった建設的でクリエイティブなことが、それだった”。

そのエミュレーターはWeb Audio APIを使って、オリジナルのWinAmpにできたことを、ほとんどすべて真似する。

“ぼくは3年前のアイデアを、いつまでも忘れられないおたくだね。‘それはやめるべきではないか?’、と自問する良識がぼくにはない。でもWinAmpのすべての機能をWebブラウザーという制限の中で作ることは、すごくクリエイティブでおもしろかった。WinAmpのスキンを考えた人も、同じような制限の中でクリエイティビティを刺激されたと思うね。ボタンを動かしたり、ウィンドウのサイズを変えたりできない中で、強力なユーザーインタフェイスを作ることは、すばらしいチャレンジだ。しかも、選択肢の多さに麻痺してしまうこともないしね”。

コード以外にEldredgeは、ボウリング場みたいなMP3プレーヤーを作りたい人のために、WinAmpのスキンをツイートするボットもリリースした。

そして極(きわ)めつけは、本誌TechCrunchのレポーターDevin Coldeweyが、これでやっと自分のオーディオファイルを整理できるようになったことだ:


[今でもWinAmpを使って手作業で音楽を整理している]

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftのBuildカンファレンスは5月7-9日、Google I/Oは5月8-10日でもろダブり

テクノロジー関連のカンファレンスは、スケジューリングが難しい。とくに5月は、GoogleやMicrosoftなど、ありとあらゆる企業が、その企業のその年最大のイベントを開こうとする。とくにGoogleのI/OとMicrosoftのBuildは、両社の最重要なデベロッパーカンファレンスだが、どちらも5月に、互いに1〜2週間ずれて行われていた。でも、今年は違う。

Microsoftは今日、同社のBuildカンファレンスをシアトルで5月の7日から9日まで行う、と発表した。Google I/Oは5月8日から10日までだ。これは、まずい。

Googleが最初に日程を発表して、Microsoftの立場を難しくしたのかもしれない。両社ともに、これらのイベントでその年および今後の、デベロッパーコミュニティとそのユーザーにとって重要な発表を行う。たとえば昨年のMicrosoftはBuildで、新しいデベロッパーツールとクラウドツールの発表を行うとともに、Windows 10の最新アップデートを発表した。

MicrosoftはBuildの幕開けをI/Oの一日前にすることによって、Googleの出鼻をくじく気だろう。

しかし、どちらか一方にしか関心のない人がほとんどだから、日程のダブりは大きな問題ではないだろう。MicrosoftのBuildはキーノートが二日(ふつか)にわたるから、その内容によっては5月8日は、記者たちがおもしろい二社決闘記事を書けるかもしれない。

Buildの登録は2月15日に始まる。Google I/Oのチケットは、2月22日から27日まで発売される

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

上司が気に入らない?B12は(人間の)マネージャー不要の働き方を探る

オンライン労働市場は、インターネットが登場した頃からずっと存在してきた。仕事を募集し、労働者を選択し、結果を確認し、支払いを行う。労働サービスを仲介する何十もの企業があり、こうした市場の台頭が、アメリカ人労働者の3分の1をフリーランサーへと促した大きな要因になっている。

簡単な作業のために個人労働者を見つけることは、現在オンラインでは一般的だが、複雑な作業を解決するためのチームを見つけて組織することは、また別の話だ。さまざまなスキルセット、タスク間の複雑な関係、プロジェクトに関わる組織内の記憶などが、インターネット上でのチームビルディングを、研究者たちやスタートアップたちにとって難しい課題にしている。

ニューヨークに拠点を置くB12は、フラッシュチーム(flash team)と呼ばれるコンセプトに関わる研究を用いて、同社の基盤技術であるOrchestraをオープンソースプロジェクトとして公開しつつ、チームベースの労働マーケットの課題を解決しようとしている。CEOのNitesh BantaとCTOのAdam Marcusの独創から生まれた同社は、Webサイト制作と管理を第一の軸として運営されている。

フラッシュチームの概念は、もともとスタンフォードHCIグループの、コンピュータサイエンス研究者のグループの研究に由来したものだ。2014年に出されたオリジナルの論文の目標は、アルゴリズムを使ったチームビルディングで、その中には専門家の評価、補完するスキルセットを持つチームの構成、そして仕事が満足の行く結果を生み出すことを保証するための組織的な振舞の扱いなどが含まれている。

たとえば、新しい家を建てることを考えてみよう。この場合、設計を行う建築家、構造を評価するエンジニア、それを建築する作業員たちが必要だ。これらは専門家の仕事である。建築家が自分のやっていることを正確に知っていなければ、プロジェクト全体に災厄が起こる可能性がある。また複雑さに加えて、仕事は線形なものではない。たとえばキッチンの完全な設計が完了する前でも、家の基礎工事は開始することができる。

フラッシュチームの中心にはいくつかの洞察がある。第1に、深い経験を持つ専門家が、専門分野での経験が少ない他の専門家たちを評価する必要があるということ。そのため、数多くのプロジェクトを経験した熟練建築家が、新しい建築家の腕を評価するための、最良の候補者となる。Marcusは「プラットフォーム上で全てをレビューすることはできませんが、行き当たりばったりではなく、どの部分に専門家の目を活用できるかを、分析して決定することができます」と説明する。

2番目に、プロジェクトはしばしば同様のパターンに従うので、新しいプロジェクトは既存の「足場」から始めることができるということである。「1つのメリットは、できるだけ多くのプロジェクト管理を自動化できることです」とMarcusは語る。「もう1つは、労働者が専門分野に集中できるように、可能な限りデザインの多くの部分を自動化できることです」。別の言葉で言えば、デザイナーは書類仕事を追いかける役人ではなく、デザイナーでなければならないということだ。

B12の第1の使命は、スタンフォードの研究を応用し、それを利用可能なソフトウェアライブラリの形にすることだった。Orchestra プラットフォームは、離散的なステップのワークフローを取り込み、その仕事を、階層的レビューを受けて評価された専門家たちに割り当てるようにデザインされている。このように、それは様々な複雑な作業工程に適用可能な柔軟なライブラリだ。同社はフラッシュチーム論文の第一著者であるDaniela Retelnyを、プロダクトディレクターとして雇用した。

B12は、アルゴリズム的アカウンタビリティへの関心とブラックボックス社会への懸念が高まっていることを踏まえ、Orchestraのオープンソース化に踏み切った。「コミュニティの誰でもが、フィードバックを送ることができるようにするためです」とMarcusは説明する。

そして、B12はそのシステムを立ち上げるために何らかの業界を選択する必要があり、その結果ウェブサイトの作成と管理に落ち着いたのだ。BantaとMarcusは、これまでのウェブデザインは、オンラインのDIYエディタと、フルサービスのコンサルタントの間での選択であったと説明した。そして彼らはDIYシステムの価格優位性を維持しながらも、よりカスタマイズ可能なものを提供したいのだ、と私に説明した。Bantaは「AIとオートメーションとスマートな人材を組み合わせて、ウェブサイトの作成をエンドツーエンドでリデザインすることができる」と考えているのだ。

既存のいくつかの「足場」を使用して、いくつかの基本的な質問に答えるだけで、すぐにB12を使ったビジネスウェブサイトの構築を開始することができる。それはソーシャルメディアプロファイルをスキャンし、既存の資産を取り込んで、特定のビジネスの流れに基づいて、既存の設計を利用し、プロセスを始めることができる。これにより、最も退屈な作業が大幅に削減され、専門家は作業の創造的側面に集中することができる。

「アルゴリズムを用いて生成されたウェブサイトを見ればすぐに、ユーザーたちは私たちに対して、そのウェブサイトに関して好きな点と嫌いな点を教えてくれます。そのあと Orchestra は、ユーザーのウェブサイトのために作業をしてくれる専門家のチームを集めることが可能です」とBantaは説明する。したがって、もしユーザーが異なるデザインやその他の機能を望む場合には、Orchestraは、そうした変更を行うための適切な専門家のためのタスクを起動するようにデザインされている。そしてウェブサイトが開設されたら、トラッフィクを最大化するために、B12は専門家によるサイトのレビューに基づいて定期的なSEOアップデートを提供する。完全自動化されたウェブサイトのデザインは無料で、プレミアムデザインは月額29ドルからだ。

専門家にとって、このシステムの利点は明らかだ。退屈な作業はアルゴリズムに置き換えられ、誰が何を担当するのかを調整するために何時間もSlackでやりとりをする必要もない。パフォーマンス評価も、担当した分野の他の専門家によって行われる。専門家の仕事の質を分析する特別な専門知識を持たない、ゼネラリストマネージャによってではない。アルゴリズムはこれまであなたが出会った中でも最高の上司かも知れない。

プラットフォームに参加するには、別の専門家によって評価されるスタータープロジェクトに取り組む必要がある。その最初のプロジェクトは、新しく参加した専門家のために最初の評価を提供するが、そこから、評判が向上するにつれて、Orchestraは徐々に、専門家に対してより困難で興味深い課題を割り当てるようになる。Marcusによれば、B12はこれまで1000人以上の専門家から申請を受け取り、そのうちの約3%を受け入れたと述べた。

現在同社は、ウェブサイトの構築だけに集中しているが、類似の業界にその技術を広げていく可能性については強く意識している。究極的には、同社の目指すゴールは、人間が人間らしくいられるようにするためのソフトウェアを構築することだ。「Orchestraのようなものがあることの利点は、単に人びとが専門性を発揮して働くことを楽しむだけでなく、チームと共に働く喜びのあるコミュニティを形成できることです」とMarcusは語る。

B12はGeneral Catalyst、Breyer Capital、Founder Collective、SV Angelから1240万ドルを調達した。

[原文へ]
(翻訳:sako)

FEATURED IMAGE: LAURA LEZZA/GETTY IMAGES