OpenStackがオープンソースのCI/CDプラットホームZuulを切り離して独立化

OpenStackほど複雑なオープンソースプロジェクトはほかにないと思われるが、これは要するに、AmazonのAWSのような総合的なクラウドコンピューティング環境を、企業が自分のデータセンターの(主としてプライベートな)インフラストラクチャとして装備するためのシステムだ。それを構成するさまざまなサブシステムを作るためにチームは、独自のDevOpsツールを作らざるをえなかった。2012年には、その一環として、オープンソースの継続的インテグレーションとデリバリ(CI/CD)プラットホームZuulを作った。そしてこのほど、Zulu v3のリリースを契機に、ZuluをOpenStackから切り離して独立のプロジェクトにした。でもOpenStackのエコシステムを去るわけではなく、依然としてそれは、OpenStack Foundationがホストするツールだ。

構造をざっと展望すると、OpenStack Foundationは一種の母体的組織であり、その傘下のメインプロジェクトとしてOpenStack本体のほかに、昨年おそく登場したKata Containersと、今回のZuulがある、という構造になる。すなわちOSFは近年、本体OpenStackのほかに、関連のインフラストラクチャプロジェクトも揃えよう、としているのだ。

Zuulはデベロッパーたちに、プロジェクトに新たな変更を加えようとするときの、コードのマージ、ビルド、そしてテストの工程を自動化するシステムを提供する。サポートする開発プラットホームはかなり幅広くて、GitHubや、コードレビューとプロジェクト管理のツールGerritなどもサポートしている。

Zuulの現在のコントリビューターは、BMW, GitHub, GoDaddy, Huawei, Red Hat, そしてSUSEだ。BMWのソフトウェアエンジニアTobias Henkelは語る: “ソフトウェアプロジェクトがCD/CIを幅広く採用することは、高品質なソフトウェアをタイムリーにデリバリするための基盤だ。それにより、個々のコミットチェックからフルリリースに至るまでの、開発サイクルの重要な部分を、すべて自動化できる。弊社BMWのCI/CDチームは、Zuulコミュニティの一員であることを誇りとし、オープンソースのZuulプロジェクトの積極的なコントリビューターであり続けたい”。

Zuulがスピンオフして独立した今の時期は、CI/CDに関して選択肢がとても多くなっている。GoogleとNetflixはオープンソースのSpinnakerで、Zuulと同様の機能を提供しようとしているし、またJenkinsとその類似プロジェクトたちも依然として強い。これらに対してZuulは、大規模で複雑な開発プロジェクトをうまく扱えるmulti-repo gatingマルチリポジトリ・ゲーティング)機能の有利性を強調している。

今カナダのバンクーバーで、これらのオープンソースプロジェクトの代表者たちによるOpenDevカンファレンスが行われており、そこでOpenStack Summitも併催されているので、数日〜数週間後にはこれらのプロジェクトすべてに関するより詳しい情報が出てくることだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

デザインスケッチからコードを起こすAIとコンピュータービジョンのUizardが80万ドルを調達

アプリケーションを作る工程には、誰かが描いたスケッチを見つめながらそれをコードに換えていく、面倒で時間のかかる関門がある。でも実際やってることは毎回同じだから、もっと楽にできるやり方があるはずだ。フロントエンドのデザインからHTMLやCSS、そして実働コードを起こしていくこれまでのソフトウェア開発は、費用も時間もかかり、かったるい反復作業が多い。

そしてこの問題を解決する方法の多くが、むしろかえって複雑だったりする。ワイヤーフレームのようなスケッチを単純にコードに換えてくれて、デベロッパーはアプリケーションのもっと難しい部分に集中できる、というやり方はありえないだろうか?

この課題に挑戦したのが、コペンハーゲンのUizardだ。

Uizardはコンピュータービジョンの技術とAIを利用して、ナプキンの裏に描いたようなラフスケッチのデザインを、バックエンドに挿入できるソースコードに換える。

このほど同社は、ニューヨークのLDV Capitalがリードするプレシードのラウンドで、80万ドルを調達した。このラウンドには、ByFounders, The Nordic Web Ventures, 7percent Ventures, New York Venture Partners, 起業家でDatekの協同ファウンダーPeter Stern、Philipp Moehring、AngelListのAndy Chungらが参加した。得られた資金はチームの増員とプロダクトのベータローンチに充てられる。

同社は2017年6月に最初の研究プロジェクト“pix2code”(画素をコードへ)を発表したとき注目を浴び、そのGitHub上の実装は、Facebook PrepackやGoogle TensorFlowの登場よりも前に、第二回mosttrendingプロジェクト賞を取った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AT&Tの、LTEに対応したAmazon Dashスタイルのボタンが利用可能に

私たちがAT&TのLTE-Mボタンについて初めて説明したとき、その情報はAWS Re:Inventの発表の洪水に埋もれてしまっていた。今週初めにそれが利用可能になったことを発表したテレコムの巨人は、もう少しだけ積極的だった。

とはいえ、それは消費者に直接販売されるデバイスではない。現在金魚の餌や、洗剤などを購入するためにAmazonから選んで手に入れることのできるプラスチックボタン(Dashボタン)とは異なり、このAT&Tのボタンは、現在のところ自分たちでシステムを作ろうとする企業の開発者向けのものである。しかし、これが狙っているのは、機器が安く運用コストも安価で済む4GであるLTE-Mの利用だ。これは将来のIoTデバイスを支えることが期待されている。

このことが意味することは、このボタンもDashボタンが支援できるようなアクティビティに利用できるということである。顧客がボタンを1押しすれば補充を依頼することができる ―― そして通常のWiFi電波の届かないエリアで、より興味深いシナリオの実装に使うことも可能なのだ。AT&T自身も幾つかの用例を示しているが、たとえば公共スペースでの顧客からのフィードバックや、通常の自宅やオフィスのWiFiが選択肢にならない建設現場などでの利用が考えられる。

もちろん、直接的な小売のフィードバックループはないので、これはDashのライバルではあり得ない。そもそもAWSそのものがこの運用に用いられているので、Amazon自身も運用から収益を得ることになる。ああ、もちろん価格も問題だ。このボタンの価格は1個30ドルからで、それだけでも洗剤が沢山買えてしまう。このようなことから、私たちがこのボタンが急速に普及するところを見ることはなさそうだ。しかしAT&Tが屋外でのIoTを推進するためにLTE-Mを利用しようとしていることから、これは興味深い利用手段となるだろう。

[原文へ]
(翻訳:sako)

現場労働者をハイテク化するParsable、シリーズCで4000万ドルを調達

人工知能、機械学習、ロボットなどのテクノロジーによるオートメーション化が産業労働者の職を奪うという懸念が日々メディアで語られている。これに対してサンフランシスコのスタートアップ、Parsableは別の未来像を考えている。Parsableでは、オートメーション化に取り残されかねない何百万人もの産業労働者にデジタル・テクノロジーを自由に利用できるソリューションを提供しようとしている。

ParsableはConnected Workerと呼ばれるプラットフォームを開発した。これは現在印刷ベースのマニュアルを利用している各種の現場労働者にデスクトップ・パソコンなしで情報テクノロジーの進歩の成果を利用できるようにする。今日(米国時間5/16)、同社はシリーズCのラウンドで4000万ドルのベンチャー資金調達に成功したことを発表した。

今回のラウンドはFuture Fundがリードし、B37やLightspeed Venture Partners、Airbus Ventures、Aramco Venturesなどの既存の投資家も参加した。シリーズCの4000万ドルを加えて同社が調達した資金総額は7000万ドルとなる。

Parsableのプラットフォームはほとんどすべてのスマートフォンとタブレットで利用可能だ。デスクトップ、ノートその他の伝統的パソコンを使うことが不可能な作業環境で、たとえば機械の間を歩きながらでも、労働者はモバイル・デバイスをタップしたりスワイプしたりすることで必要な情報をインプットできる。

写真提供:Parsable

現場労働者はテクノロジーの進歩に追いつくために十分な手立てを与えられてこなかったと同社は考えている。Parsableは2013年に創立されているが、CEOのLawrence Whittleは「われわれは当初からコンピューター・エンジニアが必要と考えるものではなく、産業労働者自身が実際に必要とするプロダクトを作ろうと努めてきた」と語った。ただしこれを実現するためには長期にわたる予備調査が必要だった。

同じ作業を25年も続けてきたベテラン労働者に使ってもらうためには、プロダクトはこれ以上ないほどシンプルである必要がある。同時にテクノロジーを利用する度合いがもっと高い若い労働者にも違和感を抱かせないものでなければならない。つまりFacebookやSMSのような親しみやすいユーザー・インーフェイスが必要だと判明した。

Whittleの説明によれば「われわれは紙ベースのマニュアルやメモ帳の代わりに、さらに高機能、高効率でしかも事故を防止するなど安全面でも優れたデジタル版を提供しようとしている」という。

Whittleはこの努力を機械にセンサーを取り付けて機能をアップさせることに例えた。ただしParsableの場合は、新たな能力は機械ではなく労働者に付加される。「われわれはセンサーやインターネットへの接続能力を機械ではなく労働者に付与して仕事の効率化を図る」という。

同社はプラットフォームに柔軟性をもたせ、テクノロジーの進歩に合わせて新しい機能を追加できる仕組みにしている。たとえば、Pasableプラットフォームはスマートメガネをサポートしており、Whittleによればこれはプラットフォームの作業の10%を占めるまでになっている。テクノロジーがどのように進歩するかは予測不可能なため、新しいテクノロジーが現れた時点でそれを取り入れることができる柔軟性がプラットフォームには必須だという。

現在Parsableには30社の大企業ユーザーがあり、3万人がプラットフォームに登録している。ユーザーにはEcolab、Schlumberger、Silgan、Shellなどの著名企業が含まれる。同社の社員は現在80名前後だが今年の第3四半期末までには100になるとWhittleは語った。

画像:タブレットを利用してオートメーションの状態をチェックする女性エンジニア Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Androidの父、アンディー・ルービン、ロボティクスについて語る――Boston Dynamicsは25年前の創立

先週末にカリフォルニア大学バークレー校で開催されたTechCrunch Sessions: Roboticsイベントに.Androidの共同開発者、アンディー・ルービンが登場してロボットについて語った。ルービンはGoogleでAndroid事業、続いてロボティクス事業の責任者を務めた後、現在はベンチャーキャピタルのPlayground GlobalのCEOだ。

ルービンは「ロボットの実用化にあたっていちばん重要なのはソフトウェアとそのプラットフォームだが、すべてのロボットが1つのプラットフォーム上で動くようにはならないだろう」と述べた。

ルービンは「プラットフォーム化というビジネスは私が取り組んだ事業として近い記憶だし、きわめて重要なものだ。ではロボティクスと自動化の分野でひとつのプラットフォームをすべてのプレヤーが採用するようになることはあるだろうか? 私は懐疑的だ」と述べた。

ルービンはやがてロボットメーカーは機械学習データを共有できる共通のシステムを構築し、ロボットが相互にコミュニケーションできるようになる必要があると熱心に論じた。つまりあるロボットが機械学習によってある課題を解決したとすれば、その知識は他のロボットにも共有され、利用できようにならねばならない。

下のビデオではTechCrunchのBrian HeaterとRubinの対談ビデオを見ることができる。ルービンが投資しているスタートアップ、Agility RoboticsのCassieという二足歩行ロボットも登場する18:00あたりから〕。

〔日本版〕ビデオの冒頭ではRubinの犬がBoston Dynamicsの四脚ロボットのまわりを跳ねまわって吠えている。場所はPlayground Globalの駐車場で、撮影したのはオフィスを訪問したDFJのファウンダー、ティム・ドレイパー。ルービンはベンチャーキャピタリストとして長期的、短期的双方のプロジェクトに投資していると述べた。ただしどんな場合でもプロジェクトに明確なマイルストーンを設定し、各段階それぞれがビジネスとして成功するよう導く必要性があると述べた。ルービンによればBoston Dynamicsの創立は25年前であり、同社のロボットは25年の絶え間ないイノベーションの努力の結果生み出されたものだという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

I/O:Google Payが全面アップデートへ――新APIでチケット購入、ボーディング・パス発行などに対応

マウンテンビューで開催されたGoogle I/Oデベロッパー・カンファレンスでGoogle Pay(以前のAndroid PayとWalletが統合)の大幅アップデートが発表された。今回Googleがオンライン支払プラットフォームに追加した新しい支払機能にはAPIの利用、P2P送金、チケット購入、ボーディングパス発行などが含まれる。

ブラウザやデバイスのサポートの追加が予定されていることはすでに発表されていたが、アップデートの詳細が明らかになったのは今回の I/Oが最初だ。新機能はGoogle Payプラットフォームに順次公開される。

特に目立った新機能の一つはGoogle PayアプリでP2P送金が可能になったことだろう。この機能は当面アメリカとイギリスでリリースされる。

また支払履歴はあちこち探し回る必要なしに、アプリ内から一箇所で確認できるようになった。

Google Payのプロダクト責任者、Gerardo CapielはI/Oのデモセッションで次のように述べた。

今回アップデートされる新しいGoogle Payでは、Googleを経由するすべての支払が単一のアカウントで処理できるようになる。対応店舗での支払時だけでなく、Playストア、YouTube、サードパーティーの通販会社、Uber、友だちへのP2P送金などすべての支払について全体像が一覧できる。

ユーザーは送金、送金の要請などGoogleアカウントに関連する支払関連の履歴をGoogle PayのiOSアプリでも表示し、確認できる。

I/Oはデベロッパー・カンファレンスなので、こうした新しい機能はデベロッパーが利用できる新しいAPIという形で紹介された。

デベロッパー向けの努力の第一歩としてGoogle Payをサードパーティーのアプリに組み込むための新しいAPIがリリースされた。

「われわれのAPIセットを使えば、サードパーティーのマーチャントはアプリであれウェブサイトであれ(支払情報がGoogle Payに登録ずみの)準備済みユーザーに関しては簡単に支払を処理できる」とCapielは述べた。

Capielによれば、デベロッパーはGoogle Payをサポートすることによって処理の迅速化とコンバージョン率のアップを図ることができるという。

これに加えて楽曲や飛行機のチケットの購入、ボーディングパス発行も、関連する情報をGoogle Pay APIに渡すことで処理できる。この場合、会員カードへのポイント、マイレージの加算
も従来どおりサポートされるという。

これによりiOSアプリ開発のUrban Airshipや送金プラットフォームのDotDashPayなどは顧客企業に提供しているアプリにGoogle Payを利用してチケットや契約をアップグレードする機能を容易に追加できる。

DotDashPayのファウンダー、CEOのSean Ariettaはプレゼンの後でTechCrunchの取材に対して「Google Payがデジタルウォレット機能の強化にこれまで以上に取り組んでいるのは心強い。今回のGoogle PayのアップグレードでわれわれDotDashPayのようなパートナーが提供しているブランドと消費者を結びつける機能がさらにアップグレードされた。支払からNFCによるタップ認証までまでの一連の流れをすべてこなすところがデモされたが、非常に強力だった。Google Payはほぼ完璧な仕上がりになった」と述べた。

Urban Airshipも今週、プレスリリースでアップグレードを発表している。【略】

Google Payがチケット購入をサポートするにあたってのアーリー・パートナー、 Singapore Airlines、Eventbrite、Southwest、FortressGBなどが含まれる。FortressGBはイギリスを始めとする各国でプロサッカーリーグのチケットを扱っている企業だ。

近くGoogle Payを採用する予定の公共交通関係のパートナーにはカナダのバンクーバー、イギリスのバス会社や近くスタート予定のラスベガス、ポートランドの交通機関が含まれる。

今回Google Payの普及度について新しい数字が発表された。それによるGoogle Playストアでのダウンロードは世界18カ国の提供地域で1億回以上となっている。

今回発表されたGoogle Payアプリの新機能の多くは世界で数十億といわれるGoogleユーザー向けに近々公開される。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのWebサイト最適化ツールLighthouseが3.0にアップ、パフォーマンスの劣化原因を細かいレベルで突き止める

デベロッパーが自分のWebサイトを最適化したり、そのパフォーマンスを検査したりするためのツール、GoogleのLighthouseが今日(米国時間5/8)、3.0にアップデートされた。

このアップデートの最大の目的は、計測をより精密にして、かつ、それに対して何かができるようにすることだ。たとえばページのロード時間が長くて、それを遅くしている犯人はこのコンポーネントだ、と分かれば、具体的な対策が可能だ。たとえばGoogleには、Webサイトを素早くてなめらかにするGoogle AMPのようなプロダクトもある。すべてのWebサイトが最適化されて動くようになると、全体的なエンゲージメントも上がるから、Lighthouseの今度のバージョンでは、Webサイトで何が起きているのか詳しく分かるようになっている。今日その発表が行われたのは、Google I/O 2018の会場だ。

それは、Googleにとっても重要なことだ。ユーザーのWebサイトがGoogleの検索で上位に出てくるためには、そのWebサイトのユーザー(訪問者、利用者)に最良の体験を与え、人気を高めなければならない。そしてそんなWebサイトは当然、パフォーマンスが重要だ。Googleの検索サービスの人気と信用のためにも、そこで見つかるWebサイトはパフォーマンスが良好でなければならない。だから、多くのWebサイトのパフォーマンスがGoogleの人気や利用度も左右する。〔とくにモバイルでは、ロードの早いサイトがGoogle検索で好遇される。〕

またデベロッパーが調子の悪いWebサイトを調べるときには、小さなコンポーネントをひとつひとつ、そこで何が起こっているのかテストしなければならない。そこでLighthouseはデベロッパーに、どの部分でパフォーマンスの劣化が生じているのか、その犯人を突き止められる機能も提供している。その調べる粒度が小さければ小さいほど、改良すべき箇所もより具体的に分かる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

これからはchrootツールを使わなくてもChrome OSの上で正規にLinuxを動かせる

かなり前からデベロッパーたちは、Croutonなどのツールを使ってChrome OSマシンをLinuxベースのデベロッパーマシンとして使っていた。それはちょっと面倒なやり方だが、とりあえず使えた。でも今度からは、それがもっと簡単になる。Chrome OSマシンの上でLinuxアプリケーションを動かしたい人は、Settingsメニューにあるスイッチを切り替えだけでそれができるようになる。それは、今後Googleが、Chrome OSにLinuxの現在の安定バージョンの載ったDebian Stretchが動く、仮想マシンを同梱するからだ。

それは、シェルを使えるだけでなく、グラフィクスも完全にサポートされる。だからたとえば、Visual Studio CodeのMicrosoftによるLinuxバージョンを、Chrome OSマシンで動かせる。あるいはAndroid StudioでAndroidアプリを作り、そのラップトップ上でテストできる。Chrome OSのAndroidアプリのサポートは、昨年実現したから。

Linux on Chrome OSの最初のプレビューはすでにGoogleのPixelbookで試せるが、そのほかのデバイスのサポートは“もうすぐ”ということだ。

GoogleのChrome OS担当プロマネ・ディレクターKan Liuによると、デベロッパーがCroutonを使っていることはもちろん知っていたが、でもそうすると、Googleが提供しているセキュリティ機能がいっさい及ばなくなってしまう。最近ではChrome OSマシンもかなり強力になっているので、そのままLinuxを使いたいという要望も増えている、という。

グラフィクスに関しては、Waylandディスプレイサーバーを使用している。ウィンドウのルックスは、Androidや、Chrome OS上のWebアプリケーションと同じだ。

一般ユーザーにはLinuxの内蔵サポートから得られる利益はあまりないと思われるが、デベロッパーにとってはこれでChrome OSマシンがより魅力的になる。Pixelbookのようなハイエンドマシンでは、とくにそうだろう。Liuは、自分たちのチームが相当な労力を費やしてその仮想マシンを最適化した、と強調している。だから、Linuxアプリケーションを動かすことに伴うオーバヘッドは小さい、と見てよいだろう。あまり強力でないマシンでも、コードエディターを不満なく使えるのではないか。

そのうち誰かがWineエミュレータを持ち込んで、Chrome OS機の上でWindowsアプリケーションを動かし始めるのも、時間の問題だろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

今日(米国時間5/8)開幕したI/Oデベロッパー・カンファレンスでGoogleはML Kitを発表した。iOS、AndroidアプリのデベロッパーはこのSDKを用いることでGoogleによって開発ずみでの機械学習モデル多数をアプリに取り込むことができる。特に巧妙なのは、これらのモデル(テキスト認識、顔認識、バーコードスキャン、画像タグづけ、外界のランドマーク認識などを含む)がオンライン、オフラインの双方で利用できる点だ。ネットワーク接続の状態とデベロッパーの判断に応じて適切な方を選ぶことが可能だ。

向こう数ヶ月の間にGoogleは現在のベーシックAPIにさらに2組を追加する予定だ。ひとつはInboxやGmailでおなじみのスマート返信機能で、もう一つは顔認識API用の高精度の輪郭認識だ。

ゲームのあり方を根本的に変えるような影響があるのはオフライン・モデルだろう。デベロッパーはGoogleが開発したモデルを自分のアプリに組み込める。しかも利用は無料だ。もちろん制限はある。モデルはローカル・デバイス上で作動できるようサイズを小さくされているため正確性は低い。クラウドベースであればコンピューティングパワーにも記憶容量にも制限はない。したがって大きなモデルを用いて正確性な結果を得ることができる。

機械学習などのモデルをオフラインで利用可能にするのは業界のトレンドだ。たとえばMicrosoftは、今年に入って独自のオフライン・ニューラル翻訳を発表している。このサービスはオフラインでも作動する。トレードオフはGoogleのモデルと同様だ。

Googleの機械知能グループのプロダクトマネージャーでAndroidのカメラ機の責任者、 Brahim Elbouchikhiは私の取材に答えてこう述べた。

多くのデベロッパーは機械学習による推論をアプリ内での予備的な処理の部分に取り入れるだろう。たとえば画像内に動物が写っているかどうかをアプリ内で判定し、写っていればたとえば犬種の判定についてはクラウドの処理に任せるというような方法だ。これは合理的だ。オン・デバイスでのラベルづけはおよそ400種類がサポートされるが、クラウドでは1万種類のラベリングが可能だ。ML Kitはわれわれの標準的なニューラルネットワークAPIを用いる。AndroidでもiOSでも同じ機能だ。

ElbouchikhiはML Kitがクロスプラットフォームである点を特に強調した。デベロッパーは機械学習モデルがAndroid専用、iOS専用であることを嫌う。

Googleがあらかじめ学習させたもの以外の機械学習モデルを必要とする場合、ML KitではTensorFlow Liteをサポートしている。

新しいSDKはGoogleのFirebasemの傘下となる。目的はモバイルアプリの開発者が機械学習モデルを使うことを助けることだ。ただし、当然ながらGoogleも指摘しているとおり、機械学習モデルを使ってアプリを加速するにはデベロッパー側の努力が必要だ。これまでもGoogleは機械学習APIを通じていくつもの学習ずみでカスタマイズも可能なクラウド上のMLモデルを提供してきた。 しかしこれまでのモデルはインターネット接続がなければ動作しなかった。またユーザー体験も十分にFirebase、またFirebaseコンソールに統合されているとはいえなかった。

TensorFlow Liteを使う場合でも、Googleはカスタム・モデルを扱いやすいサイズに圧縮することに努めている。今のところは実験段階だが、興味を抱いたデベロッパーはここからサインアップできる。

ElbouchikhiはGoogleの目標は機械学習の一般へ普及だとして、「機械学習をありふれたもう一つのツールにするのがわれわれの目標だ」と述べた。

<

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Microsoft Build 2018:キーワードはAIとエッジ――Azure IoT Edgeを大幅アップデート

この月曜(米国時間5/7)からシアトルでBuild 2018デベロッパー・カンファレンスがスタートした。Microsoftはここで人工知能とエッジ・コンピューティングに多大な力を入れている。特に目立ったのは、倉庫管理用の大型産業機器や油井をリモートコントロールするツールなどを含むエッジ・デバイスで作動する多くの既存のAzureサービスへの機械学習の適用だ。

こうしたサービスはひっくるめてAzure IoT Edgeと呼ばれているが、Build 2018で大幅なアップデートが発表された。IoT EdgeはAI、Azure、IoTデバイス向けカスタムアプリ各種からなる。

Microsoftが今日発表したAzure IoT EdgeはMicrosoftのIoT Hubサービスをベースとしているが、Event Grid やKubernetesコンテナのサポートと同時に同社のCognitive Services APIのサポートが発表された。 加えてMicrosoftはAzure IoT Edgeのランタイムをオープンソース化した。つまりデベロッパーは必要に応じてランタイムをカスタマイズすることができるようになる。

今回のハイライトは、エッジ・コンピューティングに対するCognitive Servicesのサポート開始だろう。現在このサービスは限定版となっており、Custom Visionの視覚サービスのみが利用できる。しかし将来は他のCognitive Servicesに範囲を広げる計画だ。このサービスの魅力は明らかだ。大型の産業用機器からドローンまで各種のデバイスがインターネット接続なしに機械学習を応用したサービスを利用できる。視覚サービスの場合であれば、オフライン状態でも機械学習モデルを使った対象の認識が可能になる。

AIに関しては、エッジ・コンピューティングをリアルタイムAI化する新しいBrainwave深層ニューラルネットワーク・アクセラレータ・プラットフォームが発表された。

MicrosoftはQualcommと提携し、IoTデバイス上で機械学習に基づく推論を実行できるAIデベロッパー・キットを発表した。 最初のバージョンはカメラの利用を中心としたものとなる。
Qualcommが最近独自の ビジョン・インテリジェンス・プラットフォームをスタートさせたことを考えれば驚くには当たらない。

IoT Edgeは機械学習関連以外の分野でも多数のアップデートを受ける。Kubernetesのサポートが開始されるのは大きい。またスマートな決断でもある。デベロッパーはKubernetesクラスターをビルドすることによってエッジ・デバイスとクラウドサーバーの双方にまたがるソフトウェアを容易に開発できるようになる。

Microsoftのイベント・ルーティング・サービスであるEvent Gridがエッジでサポートされるのも順当だろう。サービスを協調動作させるためにいちいちリデータセンターのサーバーを経由するのでなしに、エッジで直接ルーティングができればレイテンシーははるかに少なくなるはずだ。

この他、 IoT Edgeではマーケットプレイスの開設も計画されている。このマーケットプレイスではMicrosoftパートナー、デベロッパーがエッジ・モジュールを共有し、収入を得ることができるようになる。また新しいハードウェア認証プログラムでは、デバイスがMicrosoftのプラットフォームと互換性があることをメーカーが保証できる。IoT Edge、 Windows 10 IoT、Azure Machine Learningでは近くDirextX 12 GPUによるハードウェア・アクセラレーション・モデルの評価をサポートするようになる。DirextX 12 GPUはほぼすべての最新のWindowsパソコンで利用可能だ。

〔日本版〕Build 2018のセッションのライブ配信はこちら。Kevin ScottはMicrosoftのCTO。上のアニメでは1982年、高校時代のKevinが登場してマイクロコンピューターこそ未来だと主張する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Lobeで機械学習利用アプリを誰でも簡単に開発できる――デモではジェスチャーを絵文字に変換

機械学習はトレンドだ。CERNの素粒子の探求からGoogleによる人間の声の合成まであらゆる場所に用いられている。ただしハードルが高い。 しかしビデオ編集、音声編集の実際の動作は複雑きわまるものだが、好奇心さえあれば子供でも手を出せるくらい優れたUIが数多く実用化されている。

それなら機械学習でも同じことができるはずだ、というのがLobeのファウンダーたちのコンセプトだ。LobeはLEGOブロックを組み合わせるのと同じくらい簡単に機械学習モデルを作れるようにするプラットフォームを提供するスタートアップだ。

共同ファウンダーの一人でこれまでの各種の優れたデジタル・インターフェイスをデザイナンしてきたMike Matasに話を聞くことができた。Matasはこのプラットフォームの目的や開発の動機について話をしてくた。

「これまでもAIを使ったらこんなことができるはずだというアイディアを思いつくものの、実行するのに十分な知識がないという状況が多々あった。いくらいいアイディアでもAI専門家のチームを雇うことできなければ意味がなかった」とMatasは言う。

実は彼自身、こういう状況を経験した。

そこで私は自分でAIモデルを作れるものか調べてみた。たしかに入り口にはたくさんの術語、フレームワーク、数学といった難題が立ちふさがっていた。しかしそこをなんとかくぐり抜けると、コンセプト自体は直感的に理解しやすいものだった。機械学習は人間にものを教えるのと基本的に同じやり方だから、普通のプログラミングよりやさしいぐらいだ

そうは言っても術語は難解だし、開発デバイスはまだまだ荒削りだった。機械学習は強力な手法だが、UIとしてはまだPhotoshopで画像編集をするようなレベルになっていなかった。

これまでの機械学習ではいろいろな要素を自分で組み合わせる必要があった。ダウンロードが必要なコードが多数あった。実は私もフレームワークを始めとしてダウンロードして組み合わせなければならないソフトウェアの数があまりに多く、ので嫌になった。私はUIデザイナーなので、それならこういう複雑な状況を整理して誰でも理解できるようなUIを構築するチャンスではないかと考えた

MatasとMarkus Beissinger、Adam Mengesが共同ファウンダーとなってスタートさせたLobeは機械学習を利用して大量のデータから意味のある特徴を抽出し、ラベル付けするための直感的に理解しやすいビジュアルなインターフェイスを作っている。下にエンベッドしたデモ・ビデオでは、手のジェスチャーをカメラで読み取って絵文字に変換するアプリを作るプロセスが詳しく紹介されている。アプリを開発するのにコンピューター言語の知識は必要ない。コードの処理は1行も出てこない。ましてコードを書く必要はない。もちろん必要なら(また能力があれば)詳細レベルに立ち入って調整することはできる。Lobeのプラットフォームは非常に使いやすく、処理も高速だ。十分なデータがあり機械学習による処理の可能性を感じているものの技術的ノウハウがないユーザーが簡単に新しいアプリを開発する可能性を開くものだろう。

Matasはこの状況をパソコンの初期に例える。

それまでコンピューターを扱えるのは専門のエンジニアと計算機科学者だけだった。「専門家しかコンピューターを扱えなければコンピューターの利用法を考えられるのも専門家だけになる。しかし80年代の後半になるとコンピューターにはクリエーティブな使い方が数多く登場した。それは大部分UIの改良によるものだった。

Matasは機械学習に関しても使いやすいUIの登場によって入門のハードルが下がれば新しいアプリが洪水のように登場するとみている。「データサイエンス以外のフィールドの人々も自分たちの課題に機械学習が適用できると考え始めている。しかも今後はアイディアからプロトタイプを作ることを機械学習専門家の手を借りず、自分たちでできるようになる」という。

機械学習の応用が期待される分野は無数にあるが、Lobeでは簡単なモジュールで計測認識、ジェスチャー認識、読唇術、花びらのような対象をリアルに再現するなど多数のアプリが可能となることを示している。学習のベースとなるデータはユーザーが用意しなければならない。しかし機械学習で処理するのは今後は困難な部分ではでなくなるという。

機械学習コミュニティーはオープンソースに徹することをモットーとしている。 Lobeも独自のAPIを通じてLobeのサーバーでしか作動しないようなモデルは採用していない。「LobeのアーキテクチャはTensorflowのようなオープン規格をベースとしている。Lobeで学習、テスト、調整などをした後は、どんなプラットフォーム向けにもコンパイルして作動させることができる」ということだ。

現在Lobeはまだクローズド・ベータの段階だ。 「問い合わせが殺到している。強い関心を呼んでいるのは確かだ。公開は徐々にしていくが、できるかぎり小さく始めるつもりだ。われわれは急がず身の丈にあったやり方をしていく」とMatasは語った。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

DatadogのコンテナマップはKubernetesアプリケーションの内部〜各コンテナの可視性を提供

コンテナへ移行する企業が増えている中で、個々のコンテナと、それがアプリケーションに与えているインパクトをモニタすることが、課題になっている。それがとくに難しいのは、コンテナがきわめて短時間だけ存在する短命な実体だからだ。モニタリングとアナリティクスの専門企業Datadogは今日(米国時間5/3)、この問題を解決するための視覚化ツール、コンテナマップを発表した。

Datadogのプロマネ担当VP Ilan Rabinovitchはこう語る: “コンテナマップはユーザーのシステムにあるすべてのコンテナを見せる。顧客はすべてのコンテナを、どんなときでも見られて、それらをタグに基づいてグループ化し、その中で起きていることを詳しく知ることができる”。

同社はタグとメタデータを利用してコンテナの各部とそれらのお互いの関係、そしてそれらを支えるインフラストラクチャを識別する。そのツールはコンテナを、Datadogのそのほかのエンティティとまったく同じようにモニタする。

同社のブログ記事は、こう書いている:

“ホストマップが個々のインスタンスに対してするように、コンテナマップはメタデータを使ってコンテナを容易にグループ化し、フィルタし、点検できる。メタデータは、サービス、可利用性ゾーン、ロール、パーティション、そのほかのユーザーが望む特質など、何でもよい”。

問題が見つかったとき、Datadog自身が顧客企業のシステムにライト(write)アクセスして問題を修復することはしないが、その企業はWebhookや、あるいはAmazon Lambdaのファンクションのようなサーバーレスのトリガを使って、何らかのアクションを呼び出すことができる。

  1. container-inspect

  2. container-list

  3. dashboard

同社は、すべてのコンテナが正常に動作していることを監視するサードパーティにすぎない。“コンテナに対してやるべきことは、もっぱらKubernetesを信用している。でも異状が起きたら、何が起きたのかを知らなければならないが、それはKubernetesにできることではない”、とRabinovitchは語る。この新しいマップの機能は、コンテナシステムの内部に対する、その欠けていた可視性を提供し、ユーザーは個々のコンテナの内部を詳細に調べて、問題の原因を特定できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

WhatsApp Storiesのユーザー、4.5億人――音声通話、ビデオ会議機能も追加、独走体制へ

メッセージ・アプリのパイオニア、Snapchatは当初、国際市場を無視していた。その結果、今や WhatsAppが世界での成長のチャンスを独り占めにしている。今日(米国時間5/1)のF8デベロッパー・カンファレンスで発表された数字によれば、WhatsAppのSnapchat StoriesのクローンのDAU(1日当たりアクティブ・ユーザー)は今や4億5000万人に達している。

Snapの低調な第1四半期決算にともなう電話記者会見で発表された数字によればSnapchatのDAUは1億9100万人に過ぎない。昨年11月のFacebookの発表ではWhatsApp Status、Instagram Storiesのユーザーは合計3億ということだった。

WhatsAppにスタンプが登場

グループビデオもWhatsAppにやって来る

成功に安住することなく、 WhatsAppはスタンプ機能とグループ・ビデオ通話機能を追加したことを発表した。シンプルなチャットツールがこれによってさらに魅力を増すだろう。

ユーザーはWhatsAppのビデオ通話、音声通話をすでに毎日20億分も使っている。しかしここ数ヶ月内に分割画面で参加者が表示される4人までのグループビデオ通話が可能になる。参加可能な人数は将来4人よりさらに増やされるかもしれない。またWhatsAppのテキスト・チャットではスタンプが利用できるようになり会話がビジュアルになる。Facebook Messenger同様、サードパーティーのステッカーも使えるのでデベロッパーはチャットを賑やかにするイラスト多数を準備しているという。

ビジネス面でもWhatsAppは前進中だ。新しいWhatsApp For Businessアプリをすでに300万社が利用している。現在は無料アプリだが、今後は航空会社、銀行、モバイルキャリヤなどの大企業向けにボーナス機能を備えた有料版が提供される予定だ。利用者はアプリ内で物品、サービスの販売とカスタマーサポートができる。すでに企業からの強い関心を集めているため、これがリリースされればFacebookはまたしても着実な収入源を得ることになるだろう。

FacebookとInstagramが大統領選への干渉疑惑に揺れる中、WhatsAppはF8での明るい話題となった。WhatsApp事業部の責任者、Mubarik Imamは「無給でも働きたい会社があるとすればそれはWhatsAppだ」と語った。スキャンダルの渦中にあるFacebookはなんであれポジティブなPRを強く必要としている。WhatsAppがそれになるかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook、VRディスプレイを大幅アップグレードへ――Oculus Half Domeをデモ

ここ数年VRヘッドセットのハード面の進歩は停滞ぎみだった。 なるほど精細度が少しアップした、視線トラッキング機能が追加された、新しいコントローラーが発表された、などはあったが、全体としてみるとVRの進歩はソフトの分野で起きていた。この中で、FacebookはVRヘッドセットのハード面を根本的に改革しようとしているようだ。F8 2018デベロッパー・カンファレンスの2日目でFacebookは新しいVRヘッドセットをデモした。

社内でHalf Domeと呼ばれているOculusの新ヘッドセットでは、まず装着した際の視野が大きく拡大された。またVarifocalと呼ばれる高度なテクノロジーにより、ユーザーが見ている対象に合わせて映像の焦点を変えることができるようになった。

平均的な成人の水平視野角は200度程度とされているが、デモされたプロトタイプの視野角は従来の100度から140度に拡大された。これにより装着者は視野の周辺までヘッドセットで見ることができるようになり自然さが大きくアップする。重要なのは視野の拡大にあたって従来のフォームファクターを維持できたことだ。つまりHalf Domeのサイズは現行のRift製品と変わらない。これは「レンズ・テクノロジーの絶えざる進歩」によって可能になったという。ただし製品のサイズをこれ以上小型化するにあたってはデイスプレイに画期的な進歩を必要とするようだ。

現在市場に出ているVRヘッドセットは単一の焦点面しか表示できない。つまりユーザーは複数の焦点距離を利用できない。VRで文字を読もうとしたり、何かをはっきり見ようとしたりするなら、その対象はユーザーから2メートルの距離に置かれねばならない。これはVRの普及にあたって大きなハードルとなってきた。謎のスタートアップ、Magic Leapでは新しいディスプレイ・テクノロジーによりこの問題を解決したと主張しているが、そのテクノロジーを利用した消費者向け製品が製造できるのかなどの詳細は不明だ。

Oculusによれば可変焦点距離の表示を実現するために、プロトタイプのヘッドセット内でディスプレイを物理的に前後に移動させているという。簡単にいえば、カメラのオートフォーカスと同じ仕組みだが、多くのカメラのように作動音を立てたり振動を感じせたりしないという。

Oculusはこれ以外にディスプレイ分野での研究をいくつも紹介したが、このVarifocalテクノロジーは研究の成果がサイズや重量を増やさないままで製品に組み込まれる日が近いことを感じさせた。OculusはHalf Domeプロトタイプの紹介に力を入れていたが、これが製品化されればハイエンドのVRヘッドセットの基準は一変するに違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleがApache AirflowによるワークフローオートメーションツールCloud Composerをローンチ

Google Cloudgが今日(米国時間5/1)、Cloud Composerの最初の公開ベータを立ち上げる。それは、Apache Airflowプロジェクトをベースとするデベロッパーのためのワークフローオートメーションツールだ。

通常、ITチームは必要に応じて独自に自動化ワークフローを作るが、それは、さまざまなツールと、いつも動くとは限らないBashスクリプトを寄せ集めた混乱になりがちだ。AirflowとCloud Composerは、ワークフローを作ってオーケストレーションするための標準化された単一の方法をチームに提供する。

Googleによると、この新しいツールはPythonをデフォルトの言語として使用し、これによりチームは、オンプレミスのさまざまなツールや複数のクラウドにまたがるワークフローを構築できる。またオープンソースのプロジェクトなので、ワークフローを複数のプラットホームに亙っても使用できる。Google Cloud Platformに深く統合されているサービスだが、ロックインはない、とGoogleのチームは言っている。

“Cloud Composerでは、Google Cloud Platformの長所とAirflowを結びつけたかった”、とCloud Composerのチームが今日の発表で書いている。“Airflowの最良の機能をそのインストールや管理に要するオーバヘッドなしで提供できるサービスを作ろうと思った。余計な作業に時間を取られなくなれば、もっと重要なもの、すなわちワークフローに多くの時間を割けるようになる”。

Airflow、そしてその拡張であるCloud Composerでは、さまざまなタスクとそれらに期待する結果を、Directed Acyclic Graph(DAG, 有向非循環グラフ)というもので定義する。これらは、標準的なPythonのファイルで、ワークフローをその細部まで定義している。完全なドキュメンテーションは、ここにある。

Googleによると、同社はAirflowのコミュニティにも積極的に参加している。そしてすでに、相当数のプルリクエストを貢献している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Web上にロボットたちのソーシャルなVRを作るMozillaのHubsはWebVRの実験作

Web上のソーシャルなネットワークは厳しくて怖いものでもあるけど、フレンドリーなロボットとチャットできたら、それがもっと気楽になるかもしれない。

今日(米国時間4/26)、WebブラウザーFirefoxを作っているMozillaが、Hubsというサービスのプレビューを公開した。それは、すごくシンプルでソーシャルなWebVR体験で、ユーザーが二度のクリックでそこに入ると、URLを共有してほかの人たちと出会える。それは、モバイルからでも、デスクトップからでも、あるいはVRの中からでもよい。

それは架空世界Second Lifeではないし、ましてやソーシャルVRのFacebook Spacesでもない。もっとローキーだ。あなたは控えめで慎ましやかなロボットになり、ほかの人たちもロボットになって、互いにお友だちになる。

こういうユーモラスで子どもっぽいVRのソーシャルアプリは、ほかにもある。PS1(プレイステーション1)のようなグラフィクスと、参加型ゲームClub Penguinのような設定が、そんな感じを与える。でも、ここでねらっているのは、高品質で細かいグラフィクスや巧妙なインタフェイスではなく、みんなが一緒にソーシャルな環境に入って互いに結びつく、それだけの単純さだ。

Mozillaがここで取り組んでいる問題はほかの者たちと同じだが、MozillaはHubsをWebVRだけで作ることによって、最初から、クロスプラットホームな互換性という重いアプローチで行こうとしている。MozillaによるとHubsは、今あるメジャーなVRヘッドセットのすべてをサポートしている。WebをVRサービスのバックボーンにすることは一見安易だが、でも、そのほかのソーシャルVR体験の多くは、アプリストアとかダウンロードというものを必要とする。URLを使ってソーシャルな環境に飛び込むのは、なぜかユニークだ。

VRの実現能力としてはWebVRはまだまだだが、Mozillaは実験を継続してデベロッパーたちを惹きつけようとしている。Hubsもまだ現状はプレビューだが、次は新しいアバターシステムを導入し、その中に独自な空間を作れるためのツールを提供する予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

リアルタイムデベロッパーにツールを提供するPusherがシリーズAで$8Mを調達

Pusherはロンドンで、アプリケーションにプッシュ通知やメッセージなどのリアルタイム機能を持たせたいデベロッパーのためのツールやクラウドインフラストラクチャを提供している。同社はこのほど、シリーズAで800万ドルを調達した。ラウンドをリードしたのはロンドンのVC Balderton Capitalで、サンフランシスコのHeavybitが参加した。後者は、デベロッパー向けの製品を作っている企業に成長資金を提供している投資家だ。

2011年に100万ドルというささやかなシード資金で創業したPusherは、Webサイトやアプリケーションにリアルタイム機能を作りこみたいデベロッパーのために、その敷居を相当低くしてあげることをねらっている。そのために同社が最初に作ったのは汎用のリアルタイムAPIと、それを支えるクラウドインフラストラクチャで、それらを使うとアプリケーションのデベロッパーは、リッチなプッシュ通知やコンテンツのライブアップデート、リアルタイムのコラボレーションやコミュニケーションなどを、容易に作ることができた。

しかし最近の同社は、もっと具体的で専門的なリアルタイム機能をデベロッパーに提供するようになった。その最初の製品であるChatkitは、アプリケーションやサービスにチャット機能を加えるために必要な、いろいろな難工事の多くを引き受けるAPIとSDKだ。

協同ファウンダーのMax Williamsによると、シリーズAの資金は新しいデベロッパー向け製品の継続的な開発と、本格的なアメリカ進出による顧客への接近に充てられる。

現時点のアメリカ進出は、Heavybitのサンフランシスコのオフィスに間借りしている小さなチームだ。しかし成長とともにいずれはウェストコーストに大きなオフィスを持ち、年内にはそこに30名の社員を置きたい。営業とマーケティング、そしてカスタマーサポートも含めて、だ。

さらに、かなりの額をR&Dにもつぎ込みたい。そのためには、ロンドンの技術チームも増員したい。現在の社員数は60名だ。

Williamsによると、その目的を早く達成するためには、今回の資金が大いに助けになる。リアルタイムのデベロッパーツールは最近急速に市場が成長しているだけでなく、競争も激化している。でも彼の感覚では、Pusherは機会を先取りして無理なく成長できるだろう。もちろん、売上も並行して伸びる。このシリーズAの前までは最初の100万ドルのシード資金のほかに、250万ドルの(投資ではなく)融資があっただけだ。

Pusherによると、同社製品のユーザーは全世界で20万人以上、そしてそのAPIを使って1日に400億あまりのメッセージが送信されている。“1か月あたり80億あまりのデバイスを接続している”、という。同社の顧客のうち、The New York TimesはPusherを使ってリアルタイムのニューズフィードをアップデートし、メールマーケティングのMailchimpは社内のコラボレーションツールに利用、そしてスポーツゲームのDraftKingsは、リーダーボード(leaderboard, 戦績表, 順位表)のリアルタイムアップデートに使っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

cloud.govの公式参加でアメリカ政府省庁のCloud Foundryの採用が容易になった

ボストンで行われたCloud Foundry Summitで、アメリカ政府のアプリケーションプラットホームcloud.govCloud Foundryの公認プラットホームになり、そのほかの公認プロバイダー、IBM, Pivotal, SAP, そして今日からはSUSEなどとの互換性が保証される、と発表された。これによりcloud.govは、初めてのCloud Foundry公認政府機関になる。

この認定により、Cloud Foundryをサポートするさまざまなプラットホームのすべてが、お互いの互換性を確実に保証される。政府という文脈ではこれは、省庁が容易に彼らのワークロードを複数のクラウド間で移動できることを意味する(それらのクラウドがすべてに政府の証明があるとして)。しかしさらに重要と思われるのは、スキルのポータビリティが確実になることだ。それにより、コントラクター(政府下請)の起用や選択も容易になる。オープンソースのCloud Foundryは民間セクターでも広く採用され、Fortune 500社の半分は利用しているから、アプリケーションを構築するプラットホームを決めるときも、そのことが重要な要素になる場合が多い。

cloud.govは、General Services Administration(米国総務庁)の18階オフィス(18F)が、アメリカ政府の公開Webサイトやアプリケーションを改良するために立ち上げたサイトで、最初からCloud Foundryの上に構築されている。オーストラリアとイギリスの類似省庁も、同じ決定によりCloud Foundryプラットホームに標準化している。Cloud Foundryが認定事業を始めたのは数年前だが、昨年は個々のデベロッパーのスキルを認定するための事業を立ち上げた。

政府のワークロードを動かせるためには、そのクラウドプラットホームは一定のセキュリティ要件を満たす必要がある。Cloud Foundry FoundationのCTO Chip Childersによると、18Fがcloud.govのためにFedRAMPの認可でやった仕事が、アップストリームのプロジェクトのより良いコントロールに役立っている。そして彼は、このプラットホームを採用した政府のすべてが、そのすべてのプロジェクトに貢献してきた、と強調した。

〔参考: Cloud Foundry Wikipedia日本語Wikipedia)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アプリケーションにチャット(会話)機能をつけるAPI、Dialogflow Enterprise EditionをGoogle Cloudが一般公開

会話ができるための入出力インタフェイスを作ることは、デベロッパーにとって新しい挑戦分野だ。チャットボットはWebサイトやアプリにおけるトラブルを減らし、会話ができるという構造の中では、企業はよく聞かれる質問に簡単迅速に答えることができる。そこで今日(米国時間4/17)Googleは、これまでベータだったDialogflow Enterprise Editionを一般公開した。

この技術は、2016年におけるAPI.AIの買収の成果だ。Googleは賢明にもツールの名前を変え、それが実際にすることにマッチした名前にした。同社によると、現在すでに、数十万のデベロッパーがこのツールを使って会話のためのインタフェイスを構築している。

これは必ずしもGoogleオンリーのツールではなく、Google AssistantやAmazon Alexa、Facebook Messengerなどの音声インタフェイスでも使えるから、デベロッパーが一度チャットアプリを作ったら、それらを、コードを大幅に変えなくてもさまざまなデバイスで使えるようになる。

さらに今日のリリースでは、機能を増やすとともに、エンタープライズエディションへの移行を容易にした。

GoogleのCloud AIのプロダクトマネージャーDan Aharonが、このツールを発表するブログ記事で、こう述べている: “今日からは、一つのAPI呼び出しで複数のAPI呼び出しが必要になるような、バッチ的な処理ができるようになり、コードの行数を減らして開発時間を短縮できる。Dialogflow API V2は今や、すべての新しいエージェントのデフォルトであり、Google Cloud Speech-to-Textを統合、APIからのエージェントの管理が可能になり、gRPCをサポート、そしてコードのマイグレーション不要でEnterprise Editionに容易に移行できる”。

同社は、Dialogflowを使って顧客のためのチャットインタフェイスを構築した企業の例として、KLM Royal Dutch AirlinesやDomino’s、Ticketmasterなどを挙げた。

この新しいツールは今日(米国時間4/17)から可利用になり、30以上の言語をサポートする。一般公開されたエンタープライズプロダクトには、サポートパッケージとサービスレベルアグリーメント(SLA)がつく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

コードレビューサービスの繁盛でPullRequestはシードから数か月後に$8MのシリーズAを調達

オンデマンドのコードレビューをクラウドサービスとして提供しているPullRequestは最近忙しい。でもそれは、どんなスタートアップでも大歓迎するような忙しさだ。昨年8月にY Combinatorを卒業したばかりの同社はまだ、スタートアップの流儀を学んでいる最中だ。12月には230万ドルのシードラウンド を勝ち取り、資金面では安泰なはずだが、今日同社は同社のシードをリードしたシード投資家Google Gradient Venturesが率いるシリーズAによる、さらに800万ドルの資金調達を発表した。

今日発表された投資には、Y Combinator, Fika Ventures, Lynett Capital, Defy Partnersなど、そのほかのシード投資家も参加した。同社はわずか数か月で合計1030万ドルを調達したことになる。

なぜどうして、花の蜜にたかる蝶のように投資家は同社に殺到するのか? PullRequestは、デベロッパーの大きな痛点を治療する。開発サイクルがはやくなると、真っ先に犠牲になるのが、コードの品質管理だ。同社のファウンダーでCEOのLyal Averyが昨年8月に本誌に語ったところによると、同社はオンデマンド方式でこの問題を解決している。彼は、こう語る:

“われわれは、コードレビューをSaaSとして提供している。デベロッパーがコードをプッシュすると、うちが抱えるオンデマンドのエキスパートたちがそれをレビューする。これによってデベロッパーたちは、負担増となる重いリソースを自分のところで抱えなくても、快調に前進できる。

12月のシードラウンドのときは、Averyはそのプラットホームにオートメーションとインテリジェンス(AI)を導入したい、と言ったが、最近では、今もその方向に向かって進んでいる、という。そこで早期の800万ドルの導入、となる。

今は、大規模なデータリークがあちこちで発生している。Averyも、今後のコードレビューではバグや問題を見つけるだけでなく、フィットネスのUnder Armourなどがやられたようなデータリークの防止にも力を入れなければならない、と言っている(Under Armourの名はたまたまごく最近の例だから挙げたにすぎない)。彼は自明の理由によりクライアントの名は明かさなかったが、最近同社は、コード中に脆弱性を見つけて、リークを未然に防ぐことができた、という。

投資をリードしたGradient Venturesの専務取締役Anna Pattersonは、オンデマンドとコードレビューは強力な組み合わせだ、と見ている。“PullRequestは、良質なコードと仕事の未来が交わるところにいる。AIを使ってコードレビューのアクセス性を良くし、大小を問わずあらゆる企業がコードレビューを気軽に発注できるようにしている”、と彼女は声明文の中で言っている。

コードレビューとバグ追跡は、スタートアップのホットな分野であり続ける。開発サイクルがどんどんはやくなっているから、企業もコードレビューを外注に頼らざるをえない。タイムフレームが長かった昔は、開発のワークフローの中でコードの品質管理をやる余裕があった。しかしタイムフレームはだんだん圧縮され、余裕がなくなり、PullRequestのようなところに頼まざるをえなくなっている。投資家たちは、そこに着目する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa