Adobe Photoshopの‘コンテンツに応じた塗りつぶし’が性能アップ、おかしな失敗が減少

Adobe Photoshopの“コンテンツに応じた塗りつぶし”(content-aware fill)が登場したときは、誰もが感激した。退屈な名前だけど、すばらしく便利な機能で、画像のセレクトした範囲内にAIが選んだ画像の破片をリプレースして、そのまわりと同じ本物らしく見せかける。しかしAIは万能ではないから、ときどき、おかしな、笑えるような結果になった。でも今度の新しいツールでは、AIの失敗がほどんどなくなるそうだ。

今日(米国時間9/10)発表された予告編ビデオでは、コンテンツに応じた塗りつぶしの設定項目が大量に増えたから、修正作業が楽しくなるかもしれない。フォトグラファーは元々、加工や修正が好きな人種だが、修正のメニューが増えればそれだけ結果も良くなる。

以前は、どうだったか…

…ときどき、こんな結果になった…

[コンテンツ対応の失敗]

…今度からは右側に大量のオプションが並ぶのでそこから選ぶ。

いちばん重要な違いは、ユーザーが範囲指定をした領域内でどの部分を塗りつぶすべきかを、AIが選べることだ。上の失敗例では、馬の部分を塗りつぶそうとして、ほんの一筆(ひとふで)か二筆(ふたふで)ぶん、除外している。しかし正確である必要はない。人間の手とマウスによる指定が1ピクセルの精度で間違っていても、今度のアルゴリズムは正しく判断する。

改良されたアルゴリズムはさらにお利口になり、使用する成分の回転や縮小拡大も臨機応変に行なう。その方が良い、と判断したら、コンテンツの鏡像も使う。

塗りつぶしを、別のレイヤ(層)に出力できるので、アーチストにとって重要な「非破壊的編集」ができる。これは、前からあるべきだった、とぼくなどは思うね。

ここまで強力な修正をやると、純粋な人はしらけるかもしれない。でも、実際に手元にある写真を使うしかない場合もあるし、ちょっと牛の数が多すぎる、ということもあるだろう。手作業による写真修正の名人ではない人が、大きな修正をしなければならないときには、使ってもいいことにしておこう。

今回の新しいアップデートは“もうすぐ提供”ということだから、アップデートの通知によく注意していよう。

画像クレジット: Adobe

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

PixFoodは食材の写真を撮るとレシピを提案する

AIと食べ物を掛け合わせると何ができるだろう? 腹を空かせたロボット? 驚いたことに、そうではない。 PixFood食材の写真を撮るとそれが何であるかだけでなく、その材料で作れる料理のレシピも教えてくれる。

資金は非公開で調達されている。

ファウンダーのTonnessonは「レシピ・アプリはたくさん出回っている。ただ、それは要するレシピを教えてくれるだけだ。PixFoodはそれと違って、ユーザーが何を作ったらいいかと考えているときに手持ちの材料で作れる料理のレシピを提供することができる。たしかにそういうことができるアプリもあるが、使い方が非常に面倒だ。何をしたいかアプリに知らせるために50の質問に答えていかねばならない」という。

PixFoodが公開されたのは8月だが、 月間アクティブ・ユーザーは3000人おり、ダウンロードも1万回を数えている。チームはさらにアプリの改良に取り組んでいるところだ。Tonnessonはまた次のように述べている。

PixFoodはAIベースで高度な写真解析機能を備えたフードアプリだ。使い方は非常にシンプルで、これから料理に使いたい食材の写真を撮るだけでいい。キッチンにある食材でもスーパーの売り場の棚でもいい。なぜこういうアプリを開発したかというと、高度に個人化可能だからだ。写真を撮るとアプリはユーザーの好みに合わせたレシピを送り返すことができる。最初は誰に対して同様の平均的なレシピ案だが、使っているうちにAIはユーザーの好みを覚えて、それに合わせたレシピを探すようになる。Aiはユーザーの行動パターンを認識し、それを考慮した回答を表示する。

私がざっとテストしたところでは、このAIはそこそこ満足に動くようだ。少なくともチンパンジーを料理するよう勧めてきたりしない。単に「トウモロコシ」とタイプすればいいという考えもあるだろうが、ともあれ機械視覚テクノロジーの興味ある応用だろう。名前の分からない食材でも写真に撮ればレシピを教えてくれるというのは正しい方向への一歩だ。写真であればホッグドッグ(イノシシ猟犬)とホットドッグを間違えるようなことはないだろう。

AIは将来、好みが似た他のユーザーを探したり、トウモロコシ(チンパンジーではなく)を買える店を教えてくれるようになるという。Tonnessonは「ユーザーはアプリがレストラン、生鮮食品スーパー、料理や食材キットの宅配サービスなどと提携していくと期待してよい」と述べている。

原文へ

滑川海彦@Facebook Google+

人気瞑想アプリHeadspaceがAlpine.AIの買収でAIを装備へ

3100万人のユーザーを擁し、評価額3億2000万ドル(約356億円)の瞑想アプリHeadspaceは、他の健康関連商品と差をつけようと、音声認識とAIの技術を倍掛けしようと考えている。同社は本日(米国時間9月4日)、デジタル・アシスタント市場の黎明期から活躍していた企業Alpine.AI(元VoiceLabs)を買収したと発表した。それには、Headspaceの主要アプリの音声による操作を高度化する狙いがある。

「現在、瞑想アプリはいくつかありますが、自分が今どの段階にあるかを的確な音声ガイドで教えてくれるものができれば、他社製品を大きく引き離すことができます」と、Headspaceの新CTO、Paddy Hannonは話している。彼は、Alpineから来た4人を率いて、Headspaceのサンフランシスコのオフィスに加わることになっている。

買収の条件は公表されていないが、Headspaceによると、その人材と技術の両方を引き継ぐとのこと。その中には、Alpine.AIの共同創設者でCTOのAlexandre Linaresと3人の技術者が含まれている。Alpine.AIのCEO、Adam Marchickは、今後は顧問として残る予定だ。

VoiceLabsは、長年にわたり、音声をベースにしたさまざまな製品を試してきた。その中には、Amazonに潰された音声を使った広告製品、音声アプリ開発者のための分析サービス、そして最近では、小売業者のカタログを読み込み、AIで顧客の製品に関する質問に答えるという、音声による買い物アプリを構築するためのソリューションもあった。

後にAlpine.AIと社名を変更したこの会社に、Headspaceは強い興味を示した。

Alpine.AIは、小売業者のためのソリューションを開発してきた。それは、顧客がボイス・アシスタントと自然に会話ができるようにするものだ。たとえば、マスカラについて尋ねると、ボイス・アシスタントは「何色にしますか?」とか「防水にしますか?」と聞いてくれる。

Headspaceは化粧品を売るつもりではないが、Alpine.AIの機械学習技術を自分たちの分野に応用する可能性に期待を寄せている。

現在、Headspaceの主要なインターフェイスには音声が使われている。瞑想セッションでは、心地よい、穏やかで、特徴ある声がユーザーをガイドする。この声は、共同創設者で、元チベット仏教僧のAndy Puddicombeのものだ。

これを基礎にして、Alpine.AIの技術を導入することで、ユーザーは音声によるインタラクティブな操作が可能になり、Headspaceの別の瞑想セッションを開拓したり、より丁寧な個別の指導を受けられるようにするという計画だ。

たとえば、ユーザーが「ストレスで参っている」と言えば、アプリは、その人のアプリ内の履歴を参考に、適切な瞑想法を推薦してくれる。

Alpine.AIの技術を追加することで、Headspaceは、参入企業が多くひしめき成長過程のこのセルフケア・アプリの世界で、大きな競争力を持つことになるだろう。Headspaceは、いちばんのライバルであるCalm.comに、評価額の面でわずかに優位に立っている。PitchBookのデータによれば、Calm.comの評価額は、およそ2億2700万ドル(約253億円)だ。

Headspaceの音声アプリを改良するという、第一の利点のほかにも、Apline.AIの技術には別の使い道がある。iOSとAndroidのアプリでは、ユーザーのアクションによって(音声コマンドではなく)、個別の助言を提示するという機能も考えられる。

Hannonによると、Alpine.AIには、その成り立ちによる魅力もあると言う。

「彼らはすべてをAmazonの上で作りました。Dockerを使用しています。大変に魅力的な買収だった理由には、それもあります」とHannonは説明している。「彼らは、私たちが内部で作っていたのと同じパターンでソフトウエアを作っていたのです。私たちが使っているのとほとんど同じデータベース技術も利用していました。彼らも私たちと同じ、RESTサービスを使ってます。なので、インフラの観点からすると、とてもわかりやすいのです」

「いつ面白くなるかと言えば、私たちの音声コンテンツを、彼らのテキストベースのシステムに加えたときです。しかし、AmazonがLexのようなサービスで提供しているのを見てわかるとおり、テキストから音声へ、または音声からテキストへ変換するシステムは数多くあります。そうしたものを使えば、実装は可能だと私は考えています」と彼は言っている。

今回の買収には、ボイス・コンピューティングの未来に賭けるという意味もある。音声で操作するデジタル・アシスタント機器の数は、この2年半の間に、世界中で10億台を超えるまでになっている。アメリカの家庭の20パーセントが専用のスマートスピーカーを所有していて、その数は増加すると見られている。

収益性の高いセルフケア・アプリ市場での人気アプリのひとつとして、Headspaceのユーザー数は、現在のところ3100万人に達している。そのうち、190各国にわたる100万人が有料加入者だ。また、同社は大企業とその従業員に瞑想エクササイズを提供するB2Bビジネスにも力を入れていて、250社以上の企業が契約をしている。

買収の時点で、Alpine.AIは、The Chernin Group、Javelin Venture Partners、Betaworksといった投資会社から「数百万ドル」を調達したシードステージの企業だった。しかし、音声で使えるスマートスピーカーの人気が確かなものになってはいるが、音声ベースのインターフェイスを開発する数あるスタートアップの中で、規模を拡大し、Nuanceや、Apple、Google、Amazonといったその他のプラットフォーム大手と肩を並べるようになったものは、まだない。それもまた、Alpine.AIの買収が魅力的だった理由だ(しかもイグジットに対してもオープンだった)。

Alpine.AIは、その製品を利用していたPetcoなどの少数の小売店との関係を縮小し、個別の移行プランを提示している。

「私たちのこれまでの努力が、ユーザーの健康的な習慣を指導したりガイドすることに特化できることを、とても嬉しく思っています」とAlpine.AIのCEO、Adam Marchickは、買収について話している。「Alpineの機械学習能力は、Headspaceの取り組みを加速し、新しい会話エクスペリエンスを市場にもたらすでしょう」

[原文へ]
(翻訳:金井哲夫)

AI車両管理プラットフォームで2年後のモーダルシフトに備えるAvrios

スイスのスタートアップAvriosは、企業が一人の人間に一台の車という従来の考えにとらわれず、状況に応じた移動方法を受け入れることにより、業務上の移動手段がもっと面白くなるはずだと考えている。

また、内燃機関からグリーンな代替動力への切り替えを加速することで、進歩的という評価を得たいと企業が考えるようになると同時に、新しい都市型移動手段が数多く生まれ、個人輸送のための幅広いマルチモーダルな選択肢として顧客に提示できるようになった。したがって、従業員が使える車種の選択肢が少ない企業は、もう長くは存続できない、というのが彼らの主張だ。

しかし、バランスをとりながら選択肢を増やすことは、車両管理の業務をさらに難しいものにする恐れがある。なぜなら、供給業者(全体の数が増えて、小さな業者も多くなる)との交渉、コストと有用性の把握、輸送ソリューションを業務の目的や従業員の要求に合理的にマッチさせるといった作業が重なるからだと、Avriosは話している。そこで、ますます多様化する複雑な車両の管理作業においては、AIが鍵になる。

現段階では乗客輸送用車両と小型トラックに焦点を絞ったAvriosのプラットフォームは、ヨーロッパを中心とした、7万台ほどの車両を運用する700あまりの企業に採用されているが、すでに機械学習技術を導入し、車両のリース費用に関する情報を把握しつつ、車両管理業務を助けている。

しかしAvriosにとって、これはまだ基礎作りの段階だ。電気自動車の技術に人気が集まり、業務用車両にも電気自動車が導入され始めている今、同社はそのプラットフォームを、近く起きると想定される大転換に対応するものとして位置づけている。

都市圏における個人の移動手段が豊かに多様化する兆しは、配車サービスの大手Uberが電動バイクや電動スクーターに目をつけるといった行動から、すでに消費者サイドで見え始めている。

もちろんビジネスの側も、立ち遅れまいと考えている。そのため車両管理プラットフォームは、そうした新しい、きめ細かい移動手段に対応するべく挑戦を続けてゆく必要があると、AvriosのCEO、Andreas Brennerは話している。

2015年に設立されたスタートアップAvriosは、昨年、自社の顧客を対象に調査を行った結果、現在、ヨーロッパの企業がエンジン車両に費やしている年間予算は600億ユーロ(約7兆7300億円)あり、今後5年間で別の動力を利用した車両に移行すると見積もった。

この調査では、大半の企業(80パーセント)が、現在、スプレッドシートとAccessデータベースで、迫り来る移行に対処しようとしていることもわかった。そこでAvriosは、市場の大改革に適応できるよう、援助の機会を伺っている(主な競合相手はスプレッドシートになると同社は話している)。

車両管理プラットフォームSaaSの最初の役割も(立ち上げ当初はダッシュボードと呼ばれていたが、2017年秋からプラットフォームと呼ばれるようになった)、業務の支援だった。彼らは、送り状や車両リースの書類を、車両管理者のために取り込んで処理をするシステムを構築した。それが今では、ほぼ完全に自動化されているとBrennerは言う。

「信じられないでしょうが、たとえば、大手のリース企業で、送り状やリースのデータの読み込みを行うAPIを持っているところは、ほとんどありません。そのため、そうした契約書や送り状を処理できるシステムを、根本から作らなければなりませんでした」と彼は言う。

「初期のころは、すべて手作業から始めました。しかし今では99パーセントの書類を完全に自動処理できています。これは、通常の構造化フォーム認識だけでは実現できません。本格的なAIシステムが貢献しています。魔法は、そのAIの中で起きているのです」

「私たちの仕事の特徴は、顧客の複数の言語による構造化されていないデータを、すべて読み込める点にあります。それには、車両管理には欠かせない非常に多くの情報が含まれていて、時間を大幅に節約できます」と彼は付け加えている。

彼が見据えている将来は、フランス語のPDF形式の送り状を自動的に処理するといった程度の技術ではない(それはそれで便利だが)。より豊富できめ細かい移動手段を取り混ぜて利用する方針に業界が移行するという、もっとエキサイティングなものだ。

もうひとつ、彼らは調査を行なった。顧客のデータから、走行距離と車両の種類をもとに、車両がどのように使われているかを調べ「車両の使用事例を推論」したとBrennerは話している。

「私たちは、動いていない車両や荷物を運んでいない車両は、経済的な視点からは、なんの意味もないという前提に立っています。そこが、他のオプションに入れ替えるべき第一候補でした。少なくとも電気自動車の場合、街中で1日に10キロから20キロしか走らなかったとしたら、内燃機関の車に比べて、経済的な意味がまったくありません」と彼は指摘する。

そこから彼らは、今後5年以内に、内燃機関の車の30パー円とがシフトすると予測した。

彼らは、顧客がすでに電気自動車を加えた車両の運用方針を実施していることを知った(「進歩的な企業は、2019年には特定の割合を電気自動車に切り替えるという方針を実行しています」と彼は話している)。

彼らはまた、社内カーシェアリングの「大きな需要」があることも発見した。そこで彼らのプラットフォームには、カーシェアリングを管理する予約モジュールも組み込まれた。

さらに面白いことに、一部の顧客は、従業員に電動バイクを提供するといった、非常に柔軟性の高い実験を行なっていることもわかった。

「ドラバーの働く意欲と定着率を高めるために、新しい可能性をどのように利用したらよいかを、みんなは真剣に考えています」とBrennerは言い、移動手段のマルチモーダルな選択肢を従業員に与えることが魅力的な企業としての利益につながると提言している。「しかも、こうした車両運用方針は、より多くのグループに広がります」

「見習い従業員が電動自転車に乗れるとしたら、それは大きな意欲につながります」と彼は続ける。「私たちのお客様も、このことはよく理解されています」

とは言うものの、この程度の柔軟性も、今のヨーロッパではまだ試験段階に過ぎない。

しかし、ヨーロッパの運送業界が、来年、車両運用方針に電気自動車を組み入れるのは「確かなこと」と彼は見ている。さらに、あらゆる種類の移動手段の変化が、あと7年以内に起きる可能性があるという。

「2019年には、もっとクリエイティブで、もっと進んだ選択肢の実験が行われるでしょう。そしてその結果によって、2020年にはさらに大変革が起こると、私たちは見ています」と彼は断言し、それにより生み出される車両管理業務の課題を具体化している。

「車両管理担当者の立場に立ってみましょう。これまでにやり方は、だいたい2社か3社の馴染みの大手リース会社を持ち、彼らと条件を話し合い、だいたい15車種ほどのモデルと、いくつかの装備のオプションから、従業員が車両を選べるようにします。それが従来の方法であり、これにメンテナンスのオプションや、資金繰りなどを加えれば、それだけでもう十分に難しい仕事です。私たちが第一に取り組むべき課題は、それです。彼らの車両運用方針を理解することです」

「しかし、より専門的で小規模な供給業者を加えると、途端に細かい交渉が始まります。諸経費はかさみます。さらに供給業者の数が増える、というのが今起きていることです。レンタカー会社は、もっと個人の利用事例に沿った提案をしてくれます。カーシェアの場合は、さらに絞り込んだ使用事例に適応した、特別な提案をしてくれます。車両管理担当者として、そこまで従業員の要求に応えようとすれば、管理すべき契約の数、車両運用方針に加える項目数、意思決定や従業員への引き渡し方法の複雑さが爆発的に増加してしまいます」

「車両管理担当者の仕事とは、そういうものです。そこを私たちが手助けしたいと思っているのです。コストの管理と、従業員が私たちのプラットフォームを使って、直接、車両の予約ができるようにすることです。私たちのプラットフォームを通じて、レンタカーやリース車両を、直接、注文できるのです。そうして、すべてが自動的に車両運用方針に整合するようになります」

同社は、そのプラットフォームを利用することで、現時点で、車両管理費用が最大30パーセント、車両コストが最大10パーセント削減できると主張している。さらに、データ機密性は向上し、環境や所有者の責任に関する法律にも準拠できる。

未来予測が示すとおり、移動手段の種類や数が大幅に増え、選択肢が、微妙な差異の特定分野に細分化されるようになると、コスト管理、コンプライアンス、複雑化する運用方針に対処するプラットフォームの重要性が際立ってくる。多くの従業員と車両を抱える企業においては、なおさらだ。

Avriosは、現在、おもにヨーロッパで事業を展開している。顧客には、保険会社、小売業者、ファッション系企業、機械製造業者、専門のサービスを提供する企業などがある。

Brennerによれば、数は少ないものの、アメリカ、中東、アフリカの顧客もあるという(その多くは世界的な輸送網を有しているとのこと)。

競争力としては、「本当の車両管理プラットフォーム」を提供していると彼は強調する。Avriosは、こうしたプラットフォームを提供する最初の企業であり、長年のライバルは、車両管理ソフトや車両運用サービスを提供しているに過ぎないと彼は話している(AFleetLogistics、Leaseplan、Arvalといった既存のインターネット・ポータルは、彼によれば「透明化を提案しているが、本当の意味での透明化はなされていない顧客囲い込みツール」だとのこと)。

「私たちは、プラットフォームという形でアプローチしています。そこには、ソフトウエア提供業者の要素(データの構造化や報告など)も含まれますが、FleetLogisticsのような車両管理サービス提供業者の要素(調達の自動化、他の車両と比較した標準コストの算出、新しい車両の調達やリースにおける入札プロセスの最適化)もあります」と彼は話す。「私たちは中立の立場で、どこで本当に損をしているかをお客様に理解してもらう手助けをしています」

TechCrunchに明かされた資金調達の情報によれば、2015年12月にシード投資、2017年7月にシリーズA投資、2018年7月には400万ドル(約4億4600万円)の拡大/加速ファンドを獲得している。これらはすべて、非公開だった。今日までの投資総額は1400万ドル(約15億6000万円)にのぼる。投資家には、Lakestar、Notion、Siraj Khaliq(Atomico)、Andrew Flett(Fleetmatics)などの名前があがっている。

Brennerによれば、シリーズAの拡大ファンドは製品開発に使われ、「車両管理ダッシュボードから、より多くの移動オプションを追加したものへの移行の加速」を目指すとのことだ。

また、最初に計画していたよりも早く事業規模を拡大するためにも使われる。「今は成長ステージに入ったと思っています。なので、成長ステージのスタートアップとして定石どおり、製品と売り込みとマーケティングです」と彼は語っている。

「今、私たちは、自分たちの筋道を理解できるようになりました。長期的にこの会社をどの方向に進めたいか、誰が顧客なのか、市場での我々の立ち位置はどうかなども理解できるようになりました。なので、市場に対して、もっと公的に話をするいい時期が来たと感じたのです」と、これまで投資について公にせず力を貯めてきた理由を、彼は説明している。

「とにかく、何よりも顧客と製品開発に集中したかったのです」

[原文へ]
(翻訳:金井哲夫)

高栄養価の代替食品でチリから革命を起こすNot Company

食料のグローバル化と工業化によってもたらされる栄養不良、資源不足、公害という三重の危機に出資する機会を味わいたい技術系の投資家たちは、新しい持続可能な資源を謳い、スタートアップに投資している。

この5年間、ベンチャー投資家や投資企業は、全世界で2100件、95億ドル(約1兆550億円)を投資しているが、CB Insightsのデータによれば、すべては食料の従来型の栽培、飼育、生産、加工、流通に置き換わるか、それを補完するものを目指している。

サンディエゴのダウンタウンから22分の、街の南東の隅に本社を置くNot Companyは、そうした巨大な代替食品ビジネスの中に現れた有望な新顔たちとは、ちょっと毛色が違う。CEOのMatias Muchnickと2人の共同創設者は、食品革命の恩恵を中南米に、そしてゆくゆくは全世界にもたらしたいと考えている。

いくつもの企業を立ち上げてきたMuchnickにとって、Not Companyは2つめの食品関連事業だ。その前に創設したのは、植物ベースのドレッシングとマヨネーズを販売するEgglessという会社だ。

Egglessで食品関連事業に参入し、その味を知ったMuchnickは、あることを学んだ。食品業界での研究開発が、じつに原始的で非効率であることだ。

その問題を解決しようと、Muchnickはカリフォルニア大学バークレー校で食品業界について研究を始めた。

「バークレーで、そのデータと科学について学ぼうと生物化学学部に入ろうと決めた」とMuchnickは話す。「しかし薬学のほうが、うまく解決してくれるとわかりました。そこで私は、医薬品業界で今何が起きているのかを調べまくり、それを食品業界で研究しました」

バークレーからハーバードに移ったMuchnickは、恒星内部の動きをデータ科学と機会学習とで探っていた宇宙物理学者のKarim Picharaを引き抜いた。データ科学者を仲間に入れたMuchnickは、次にカリフォルニア大学デイビス校で植物のゲノミクス研究をしていたPable Zamoraを第三の共同創設者に加えた。

こうして、Not Companyのドリームチームが結成された。

Not Companyの共同創設者、Karim Pichara、Matias Muchnick、Pable Zamora。

 

Not Companyの活動の中心は、驚くほど潤沢な資金を持ち、一度はトラブルに陥ったアメリカの競合相手Just(かつてはHampton Creekと呼ばれていた)と同じく、機械学習技術を使い、植物の遺伝子的な類似性をマッピングして、その動物体内での結果を調べることにある。

「レンズ豆でもなんでも、遺伝子をマッピングできます」とMuchnick。「どんな種類の豆も、動物性タンパク質をエミュレートできるかどうかを簡単に調べて予測できます」

3人の創設者は、みなアメリカに住んでいるが、故郷のチリに戻ってビジネスを立ち上げることを決めている。Muchnickにとって、サンティアゴに拠点を置くことは、費用も安く済み、研究者も豊富に揃っているところが強みだった。シリコンバレーから離れているから、それを好む求職者もいる。

「我々は目立つ存在となりました」と彼は言う。

しかし、サンティアゴの拠点は、中南米の市場を支配して、喉から手が出るほど欲しがっている人たちに、健康な食品を届けるというNot Companyの最初の戦略的目的を叶えるものでもあった。

栄養不足の形を変える

Muchnickが故郷に拠点を置いた理由は、中南米に溢れている高カロリー、低コストな食品と戦うためでもある。それが世界の国々の栄養不足の原因であり、そこを改善したい。

この新興市場で、栄養不足の問題がどのように作用しているかを知るには、ネスレ、ゼネラル・ミルズ、ペプシコ、ファストフードのマクドナルドやKFC傘下のヤム・ブランズといった企業の状況の変化を見るとよい。

アメリカやヨーロッパではすでに遍在している大手の栄養不足食品企業は、成長を求めて新興市場に目を向け、低収入層の顧客に合わせた製品やビジネスモデルを売り込んでいる。

そうした企業の製品は安価だが、栄養価値はほとんどない。飢えないだろうが、他の健康上の問題が引き起こされる。

「広く信じられている話です。安い食べ物がどこでも手に入るという、実現しうる最高の世界。深く考えなければ、筋が通っています」と、カナダ・オンタリオ州のゲルフ大学食品経済学教授のAnthony Winsonはニューヨークタイムズに語っている。現実はもっと難しいと、Winsonは言う。「厳しい言葉で言えば、食事に殺される、ということだ」

調査結果がそれを示している。The New England Journal of Medicineの2017年の調査によれば、世界人口のおよそ10パーセントが肥満だという。6億400万人の成人と、1億800万人の子どもだ。そして、新興市場では、人の肥満率が急速に増加している。

栄養不足は、工業化された食品ビジネスが新しい土地に進出したときの副作用に過ぎない。それらの企業は、サプライヤーの工業化も目論んでいるとタイムズは伝えている。それは大規模農場への転換を促し、森林伐採を進める。

こうした問題は、ネスレやゼネラル・ミルズといったお菓子メーカーだけに限らない。ファストフード業界の肉の需要は、新興市場の国々の牧畜の工業化も進め、それが地球温暖化の大きな原因となる。

そのような問題を、環境への悪影響がずっと小さい低コストな食品で 、Muchnickの会社は解決しようとしているのだ。

Not製品

Muchnickたちは、2015年の会社設立以来、数多くの製品を開発してきた。同社の当初の目的は、既存の製品に代わる健康な食品を研究開発して企業にライセンスすることにあった。

「私たちは技術系企業です。食品会社ではありません。他の企業のための研究開発に資金を投入したいのです」とMuchnickは2016年に語っていた。

いろいろな製品を熱心に開発するようになったのは、それからだとMuchnickは言う。

「マヨネーズを作りました。チョコレートを作りました。ミルクを作りました。ソーセージ、バーガー、シュラスコ(ローストビーフみたいなものだが、まずい)などの肉の代替品も」と、製品開発に熱くなっておいたころを振り返ってMuchnickは話す。ついには、ハンプトン・クリークの後を追う形で、Not Companyはマヨネーズの販売に乗り出した。

チリは、世界で3番目に大きなマヨネーズの市場なので、そこで販売を始めたのは理にかなっていたとMuchnickは言う。彼らのロードマップに描かれた、より意欲的な製品よりも、簡単に製造できたという点もある。

Muchnickによれば、店に置かれるようになってわずか8ヶ月で、(あまり大きいわけではないが)チリのマヨネーズ市場の10パーセントを獲得したという。ロードマップの次なる製品は、9月に発売を予定しているミルクの代替品だ。2019年にはNotヨーグルトとNotアイスクリームも登場する。

2020年までには、Not Companyはソーセージとひき肉の代替日も発売すると、彼は言っている。

これらの製品の陰では、PicharaとZamoraが開発した、動物と植物のタンパク質のつながりを探る機械学習ソフトウエア「Guiseppe」(ジュゼッペ)が活躍している。

「私たちは7000種類の植物をマッピングしました。もうこれで十分だと思っています」とMuchinickは話す。「それをアミノ酸構造にマッピングしたところ、動物性タンパク質によく似ていました」

Guiseppeは、7つの異なるデータベースと7つの異なるアプローチを操るとMuchnickは説明する。食品とその材料の分子データ、食品とその材料のスペクトル画像、それに、社内の味覚テスターが収集した、味、食感、後味、刺激、酸味といったデータがある。「山ほどのパラメータがあります」とMuchnickは話している。

ロードマップが完成したことで、同社は市場拡大のための追加投資を受けた。チリ国内だけでなく、中南米全体に打って出る。

Not Companyはこのほど、Kaszek VenturesとSOS Venturesから、工場の拡張のための資金として300万ドル(約3億3300万円)の投資を受けた。

ほんの2年前には、あからさまに否定していた方向への大転換だ。「私たちはブランドカンパニーを目指しています」と今のMuchnickは言う。「Not Companyにはソーシャルカレンシーがあるんです」

それを実現させるには、サプライチェーンの開拓が必要だ。同社はすでに毎月64トンのマヨネーズを生産しているが、ミルクやヨーグルトやアイスクリームや、さらには肉の生産を視野に入れると、工場を拡大し続けなければならない。

「私たちは、現地生産のための工場を建てようと決めました」とMuchnickは話している。「これから、ブラジルとアルゼンチンに製品の輸出を始めます。市場シェアが5パーセントから8パーセントに達したら、現地生産に切り替えることにしています」

[原文へ]
(翻訳:金井哲夫)

Duo Securityが高度に組織化されたツイッターのボットネットを発見

インターネットのセキュリティー関連商品とサービスを提供するDuo Securityの研究チームは、ツイッターで暗躍し暗号通貨の詐欺を働く高度なボットネットの存在を突き止めた。

このボットネットは、ツイッターのアカウントを自動的に識別する方法を開発し公開するための、さらにはボットやその活動について研究を掘り下げるための、大規模な研究プロジェクトの中で発見された。

研究チームは、Twitter APIと標準的なデータエンリッチ化技術を用いて、5億件以上のつぶやきを含む、一般のツイッター・アカウント8800万件分の大きなデータセットを作成した(ただし、研究のために焦点を当てたのは、アカウントごとの最後の200件のつぶやきだとのこと)。

そして彼らは、古典的な機械学習の手法を使って、ボット分類システムをトレーニングし、その後、十分な試行を重ねたさまざまなデータ科学技術を用いて、発見したボットネットの構造のマッピングと解析を行った。

他の研究者がバトンを引き継いで、研究を発展させられるよう、この研究資料とデータ収集システムはオープンソース化されている。たとえて言うなら、いいIDと悪いIDを自動的に見分ける研究などだ。

彼らが開発した分類システムの対象は、自動化と人の介在とを意図的に混合してボットであることを発見されにくくするハイブリット・アカウントではなく、純粋なボットだ。

この研究では、感情は問題にされていない。むしろ、ツイッター・アカウントがボットなのか人なのかという核心的な問題にフォーカスされている。

データセットには、たとえばカスタマーサービスのための、自動処理と人の対応との両方で運用されるツイッター・アカウントのような「サイボーグ」ハイブリッドが、わずかに混入している可能性は高いと彼らは話している。しかしそれでも、政治的な偽情報を排除するための国の施策で使われているような、さらにわかりづらいボットと人のハイブリッド・アカウントの特定には、とくに力を入れていなかった。

この研究によって、ボットネットの構造に関して、いくつか面白い分析結果が示された。論文によれば、彼らが発見した、少なくとも1万5000(「もっとずっと多いはず」)のボットで構成される暗号通貨詐欺ボットネットに関するケーススタディーも含まれているが、そのボットネットは、悪意ある「プレゼント」広告を使って、何も知らないユーザーから金を吸い上げようと試みるという。

「試みる」というのは正しい時制だ。なぜなら、ボットネットの発見をツイッター社に報告したにも関わらず、それはいまだにツイッター上で活動をしているからだ。合法的なツイッター・アカウントを装って報道機関を捲き込み(下の写真)、また、ずっと小さなスケールでは、認証されたアカウントを乗っ取っている。

1万ETHが当たる! ここをクリック!

 

さらに彼らは、ツイッターのサイドバーにある「おすすめユーザー」で、他のスパムボットが推薦されているのことも発見している。これは痛い。

ツイッターの広報担当者は、プラットフォーム上でのボットやボットネットによる被害と現状認識に関する私たちの質問には答えようとしていない。そのため、こうした暗号通貨詐欺ボットネットをいまだに完全に駆除できない理由は、明らかになっていない。しかし、この研究に対する声明で、ツイッター社は、この種の自動化されたスパムは、同社のスパム対策によって自動的に検知され、隠されるようになっていると主張している(Duo Securityの研究者がTwitter APIを通じてアクセスが許されたデータには、それは反映されていない)。

ツイッター社はこう話している。

私たちは、こうした形の操作を認識しており、それらのアカウントが詐欺の目的でユーザーに関わろうとすることを予防するための、数々の検知システムを積極的に導入しています。スパムやある種の自動化システムは、ツイッターの規則に反します。多くの場合、スパム的なコンテンツは、自動検知によってツイッターには表示されないようになっています。しかし、ツイッターの検索や会話のエリアから、スパム的なコンテンツが非表示にされたとしても、APIを通したときの有効性には影響しません。つまり、ツイッター上では見えなくなっていても、APIを使えばスパムは見えてしまいます。スパム関連のアカウントは、ツイッター・アカウントの5パーセント以下に過ぎません。

ツイッター社の広報担当者はまた、すべてのボットや自動化システムが悪ではないと(当然ながら)強調している。彼女が示した最近の同社のブログ記事には、そのことが繰り返し語られていた。そこでは、たとえばPentametronのような一部のボットは「愉快で楽しい体験」をもたらすと紹介している。Pentametronは、たまたま弱強五歩格の形式に書かれた韻を踏むつぶやきの組みを見つけ出して詩を作るという、古くからある自動システムだ。

普通の神経の持ち主なら、シェークスピアが愛した韻文のオマージュを作る自動システムを悪く思うことはないだろう。しかし同時に、普通の神経の持ち主なのに、ツイッター上で続けられる暗号通貨詐欺という害悪を悪く思っていないのか……。

ひとつだけ、はっきりしている。「ボットか否か」という質問に答えるという難しい仕事は重要であり、オンライン詐欺の武器化を考えると、これからますます大切になるということだ。これは非常に政治色が強く、必要不可欠な戦いになる可能性があるため、あらゆるアカウントに「ボット度」を示す必要が出てくるかも知れない(これを行うかどうかについては、ツイッター社の広報担当者は答えてくれなかった)。

ツイッターの自動化システムを特定する方法や技術の研究はすでに行われていても、Duo Securityの研究チームは、それを支援するデータが周囲にないことに不満を感じると言う。しかし、それが彼らに研究を続けさせる推進力にもなっている。

「不完全なケースもありました」とデータ科学者のOlabode Aniseは話す。「彼らが使用したと主張しているデータを、どこで入手したかを明らかにできないのです。彼らはおそらく、結論からスタートしたのでしょう。結論から入る研究は少なくありません。私たちは、この研究を自分たちのものにして引き継いで欲しいと考えています。だから、私たちの手法やツールをオープンソースにしているのです。そうすれば、みんな一から始めることができる。まずはデータを集め、モデルをトレーニングして、それからツイッター上のボットを局所的に発見できるようになるのです」

「私たちは特別なことも、大発明もしたわけではありません」と彼は言う。「私たちは、公的なツイッター・アカウントに関連する最大クラスのデータセットを作り上げたという確信があったので、飛び抜けて大規模な研究ができたのです」

Aniseによると、彼らの分類モデルのトレーニングには、サザンカリフォルニア大学の研究室から提供された2016件のデータと、彼らが作った公的なつぶやきのデータセットを探っている間に発見した暗号通貨詐欺ボットネットのデータの一部も、使われているという(なぜなら、彼によるとこのボットネットは「折り紙付きの自動化システム」だからだ。暗号通貨詐欺も、良いことをしたわけだ)。

分類モデルの精度に関して、ツイッター上にどれだけのボットが存在するかを示すデータが常に足りない部分が「難点」だとAniseは言う。

ツイッター社は知ってると想像する(あるいは期待する)人もいるだろう。少なくとも見積もることはできるのではないか。しかし、どちらにせよ、ツイッター社はその情報を公開していない。つまり、公的なつぶやきデータに対して、「ボットか否か」モデルの精度を確かめることは、研究者にとって困難だということだ。そのため彼らは、ラベリングしたボットアカウントによる(小さな)データセットを使った分類モデルの照合に頼らざるを得ない。それゆえ、その精度がどれほどの精度でわかるかは、ボット発見とはまた別の問題となる。

Aniseは、「他のタイプのアカウントを正確に特定する」場合、彼らの最良のモデルは、照合による検査で98パーセント止まりだったと話してる(つまり、8800万件の完全なデータセットを使用した検査ではないので「そのアカウントがボットなのか違うのかを、誰でも簡単にわかる方法というものがないのです」と彼は言う)。

それでも研究チームは、「現実的なデータ科学技術」と彼らが名付けた方法を使った彼らのやり方が、いつか実を結び、ツイッターのボットを検知する効果的な分類モデルが実現すると、自信を持っているようだ。

「基本的に私たちが示したものは、実際これが私たちの本当の目的だったのですが、誰でもチュートリアルを見て、そのとおりにやれば機械学習を使ってボットを確実に特定できる、シンプルな機械学習の手法があるというです」と彼は言う。

もうひとつ、小さな問題がある。モデルがトレーニングに使っているボットが、ツイッター上にあるすべての自動化システムではないということだ。それが精度にも影響すると彼は認めている(「自分が作ったモデルの性能は、自分が持っているデータの内容を超えることができない」というやつだ。ここでまた、最良のツイッターのデータを持っている人は、みなツイッター社にいるという問題に突き当たる)。

彼らの論文に記されている暗号通貨詐欺ボットのケーススタディーは、注目を集めるためだけのものではない。それには、他の研究者たちが、彼らが説明するツールと技術を使って、最初のボットを見つけ出すところから、元をたどって正体を暴き、ボットネット全体を消滅させるところまで研究を発展させられるようにする狙いがあった。

そこで彼らは、ツイッターのボットネット探しのための「ハウツー」ガイドを製作した。

彼らが研究のためにソーシャル・ネットワーク・マッピングを使用して分析した暗号通貨詐欺ボットネットは、論文では「ユニークな三段の階層構造」を持つと記されている。

「これまで発見されたツイッターのボットネットは、大抵がフラットな構造をしており、各ボットは、ボットネットの中で同じ仕事をしていました。それらはみな、特定のタイプのつぶやきを広めるか、特定のタイプのスパムをばら撒きます。通常、仕事を分担したり、部署に分かれたボットネットは希です」とセキュリティー・エンジニア主任のJordan Wrightは説明している。

「このボットネットは、誰をフォローしたか、誰がフォローしているかを知るために、別のボットとのソーシャル・コネクションのマッピングを始めると、ボットはある特定の方法でつながり、ひとつのクラスターはまた別の方法でつながっているという、非常に明確な構造を示すのです」

「これは、ボットを組織化させてゆく戦略を、ボットの持ち主がどのように変更しているかを知るために重要なことです」

彼らはまた、そのボットネットから発せられるつぶやきのスパムが、互いにボットネットの中で拡散されて、全体的な暗号通貨詐欺が増幅される仕組みになっていることも発見した。Wrightによると、これは「人工膨張」のプロセスだと説明している。そしてこれは、ボットネットの持ち主が、「いいね」をしたり、後に詐欺スパムをつぶやくという単独の機能を持つ新しいボットを作るときに役立つとのことだ。

「目的は、それらに人工的な人気を与えることです。もし私が被害者で、ツイッターをスクロールして見ていたとします。そしてそのボットのつぶやきに出会ったとき、リツイートやいいねの数の多さから、これは合法的なアカウントだと判断してしまうといういう仕組みです」と彼は言う。

「いいね同士のつながりや、私たちが集めたソーシャル・ネットワークをマッピングしてみると、そこに現れるのは多層構造のボットネットです。非常に独創的で、非常に洗練されていて、非常に組織的です。各ボットには、より大きな目的の達成を支えるための、たったひとつだけの仕事が与えられています。それがこのボットネットのユニークな点です」

ツイッターは、このところ大量の変更を行っている。プラットフォーム上での、より高い信ぴょう性や権威をボットに持たせるためにスパム犯が仕掛ける不正な活動を閉め出すためだ。

しかし、ツイッター社には、まだまだやるべきことがあることは確かだ。

「それが洗練されていると思うのには、非常に現実的な理由があります」と、チームがケーススタディーで紹介した暗号通貨詐欺ボットネットについて、Wrightは話す。「それは動いているからです。時間を追うごとに進化し、構造を変化させています。その構造には階層があり、組織化されています」

 

[原文へ]
(翻訳:金井哲夫)

Microsoft、ビデオの自動文字起こし提供へ――Office 365にAIベースのアップデート

今日(米国時間2/28)、MicrosoftはOffice 365契約者のOneDriveとSharePoint向けにAI利用のアップデートを発表した。これによりMicrosoftのクラウド・ストレージに機械学習を利用した強力な能力が備わることになる。

新機能が実装されるのは今年中の見込みだ。MicrosoftのIgniteカンファレンスは来月フロリダ州オーランドで開催される。ここで今日のアップデートのいくつかのデモが見られると予想してもよさそうだ。

OneDrive、SharePoint向けアップデートのハイライトのひとつはビデオとオーディオのファイルからの自動文字起こしだ。ビデオ記録はたしかに素晴らしいが意味のある情報を取り出そうと思うとひどく時間を食う。まずどれが自分の求めている情報を含むファイルなのか決めるのに手間がかかる。ファイルを見つけてもさらに文字起こしをしなければならない。Microsoftによれば、新しいサービスはユーザーがビデオを視聴するとき、リアルタイムで音声を自動的に文字起こしして表示するという。320種類のファイルをサポートするのでユーザーがどんなファイルをアップロードしても対応できるだろう。

今日発表された他のアップデートには、 OneDriveとOffice.com向けの新しいファイルビューがある。これはOffice 365でユーザーがファイルを探す場合、最近利用されたファイルに基づいてシステムが必要なファイルを推測して候補として表示するというものだ。Microsoftでは近くこのアルゴリズムを他のアプリにも拡張する。たとえばPowerPointでファイルを作成してプレゼンしたとすると、システムはそのファイルを同僚と共有するよう提案する。

また知識のあるユーザーは、OneDriveないしSharePointのどのファイルについても利用状況をチェックすることができるようになる。

原文へ

滑川海彦@Facebook Google+

機械学習のモデルのデプロイを標準化するツールGraphpipeをOracleがオープンソース化

オープンソースのコミュニティと仲が良いとは必ずしも言えないOracleが今日、Graphpipeと呼ばれる新しいオープンソースのツールをリリースした。それは、機械学習のモデルのデプロイを単純化し標準化するツールだ。

そのツールは、ライブラリの集合と、スタンダードに従うためのツールを合わせたものだ。

このプロジェクトは、NASAでOpenStackの開発に関わり、その後2011年にOpenStackのスタートアップNebulaの創業に加わったVish Abramsがリードした。彼によると、彼のチームが機械学習のワークフローを手がけたとき、あるギャップに気づいた。一般的に機械学習のチームはモデルの開発には大量のエネルギーを注ぎ込むが、そのモデルを顧客が使えるようにデプロイすることが苦手だ。そのことが、Graphpipe誕生のきっかけになった。

彼曰く、機械学習のような新しい技術は、誇大宣伝に踊らされてしまう部分がある。開発プロセスは改良を続けていても、デプロイに頭が向かわない人が多い。

“Graphpipeは、機械学習のモデルのデプロイを改良する努力の中から生まれた。また、この機械学習の分野全体を改良するためには、デプロイのためのオープンなスタンダードがぜひ必要だ、と考えた”、そうAbramsは語る。

これがOracleのプロジェクトになったとき、彼らは三つの問題に気づいた。まず最初に、機械学習のAPIをサーブするための標準的な方法がない。各フレームワークが提供しているものを、そのまま使うしかない。次に、デプロイのメカニズムにもスタンダードがないので、デベロッパーは毎度カスタムでそれを作らなければならない。そして第三に、既存の方法はパフォーマンスの向上に真剣に取り組んでいない。パフォーマンスが、‘ついでの問題’でしかない。機械学習にとっては、それは重大な問題だ。

“Graphpipeを作ったのは、これら三つの課題を解決するためだ。それは、ネットワーク上でテンソルデータを送信するための標準的でパフォーマンスの高いスタンダードを提供する。またどんなフレームワークを使っても、機械学習のモデルのデプロイとクエリーが簡単にできるための、クライアントとサーバーのシンプルな実装も作った”、…AbramsはGraphpipeのリリースを発表するブログ記事で、そう書いている。

同社は、これをスタンダードとしてオープンソースにすることによって、機械学習のモデルのデプロイを前進させたい、と決意した。“Graphpipeは、ビジネスの問題解決と、技術の高度化の推進という、二つの方向性が交差するところに座っている。そしてそれを進めていくためのベストの方法が、オープンソース化だと考えている。何かを標準化しようとするとき、それをオープンソースで進めなかったら、最終的にはいろんな競合技術の混乱状態になってしまう”、と彼は語る。

Oracleとオープンソースのコミュニティの間には長年の緊張があることをAbramsも認めるが、最近ではKuberenetesや、オープンソースのサーバーレス・ファンクション・プラットホームOracle FNへのコントリビューションなどを通じて、そんなイメージを変える努力をしてきた。そして彼によると究極的には、技術が十分におもしろいものであれば、誰がそれを提出したかとは関係なく、人びとはそれにチャンスを与えるだろう。そしてそのまわりにコミュニティができれば、オープンソースのプロジェクトとして自然に適応されたり、変えられたりしていく。それを、Abramsは望んでいる。

“このスタンダードが、今後幅広く採用されてほしい。実装は誰がやっても易しいから、Oracle独自の実装を広めたいとは思わない。人気の実装は、そのうちコミュニティが決めるだろう”。

GraphpipeはOracleのGitHubアカウントのGraphpipeのページで入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

FirefoxがユーザーのWeb世界を拡張する提案機能‘Advance’エクステンションをテスト中

MozillaのFirefox Webブラウザーが今日(米国時間8/7)、Advanceと呼ばれる実験的なエクステンションを発表した。それは機械学習を利用して、ユーザーがもっと文脈的かつ直感的な広がりのあるWebサーフィンをできるようにする。このエクステンションは、Firefoxが今行っているTest Pilotプログラムの一環で(ユーザーはこれにいつでも オプトインできる)、Laserlikeの機械学習バックボーンを利用して、ユーザーのWeb閲覧習慣を理解しようとする。

その仕組みはこうだ: Test PilotでAdvanceを有効にすると、Webの閲覧はふつうにできるが、Advanceはユーザーが閲覧するサイトの種類について記録と学習を開始する。そしてその学習に基づいて、その人のWeb閲覧を補完するようなページや、その人が好きになりそうなページをサイドバーで推奨する。そしてユーザーは、Advanceが正しくないと感じたら、推奨されたページに「退屈」「的外れ」「スパム」などのフラグをつけて、エクステンションの推奨能力を鍛えていく。

この機能は同社のContext Graphイニシアチブの一部で、それは“インターネット上の次世代のWeb発見”を探求し、ユーザーのWeb世界をこれまでの日常よりも広くしようとする。そしてもちろん、Firefoxブラウザーの上で彼/彼女が過ごす時間を長くしたい。このイニシアチブの最初の機能Activity Streamは、ユーザーの閲覧履歴やブックマークの情報をより有効利用する試みで、今ではTest Pilotを卒業してFirefoxブラウザー本体に装備されている。

Advanceの導入は、最近閉鎖したStumbleUponが遺したギャップを填める試みでもある。インターネットという広大な大陸の上で途方に暮れているユーザーに16年間も、珍しいサイトやおもしろいページを紹介し続けてきたStumbleUponの仕事を、Advanceが引き継ごうというのだ。“偶然の出会い”という要素が大きかったStumbleUponと違って、Advanceにはユーザー履歴の学習に基づくお利口なオプションもあるが、インターネット上をさまようユーザーのための案内役、という点では共通している。

しかし、人生を楽にすると称する機械学習の技術が、インターネット上のWeb閲覧を助けられるためには、Advanceも、そしてバックボーンのLaserlikeも、ユーザーの閲覧履歴を大量に知る必要がある。AIが学習するためには大量のデータが必要だが、Mozillaも認めるように、個人情報の悪用や誤用への懸念も、最近のFacebookEquifaxの事故を契機として高まっている。

この不安に応えるためにAdvanceには、閲覧履歴の収集をさせないオプションや、見たら消すことをLaserlikeに求めるオプションがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudがNvidiaのTesla P4推論アクセラレーターをサポート

今やクラウドプラットホームは、GPUのサポートなくして完全とは言えない。今日のハイパフォーマンスワークロードや機械学習のタスクは、それなくしてサポートできないからだ。それらは多くの場合、機械学習のモデルの構築に使われることが多いが、しかし今日(米国時間8/6)Googleは、Nvidia P4アクセラレーターのサポートをローンチし、既存のモデルをより高速に走らせることによる推論の性能アップにフォーカスしようとしている。

また、これらの機械学習のワークロードのほかに、Google Cloudのユーザーは、高速なグラフィクスカードを必要とするリモートディスプレイのアプリケーションを、GPUを使って動かすことができる。そのためにGPUは、リモートデスクトップにログインするユーザーのためにサーバーサイドのグラフィクスの応答性を高めるシステム、Nvidia Gridをサポートする。

P4には8GBのDDR5メモリがあり、最大で毎秒22テラの整数演算ができるから、ほとんど何でもできるカードだ。しかも買うと2200ドル以上はするから、時間制で借りる方が賢明だろう。

Google Cloud上でP4を使うと、標準料金では1時間60セント、プリエンプティブルでよければ21セントだ。Googleの料金としてはP100やV100 GPUより安いが、ただし両者はユースケースがまったく違う。

この新しいGPUは最初、us-central1(Iowa), us-east4(N. Virginia), Montreal(northamerica-northeast1), europe-west4(Netherlands)の各リージョンで提供され、徐々にそのほかのリージョンでも提供される予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのBigQueryの中で機械学習のモデルを作れるBigQuery ML…データの移動が要らない

機械学習のモデルの構築にはまだ多くの障害があり、その一つが、データのあるところからモデルを構築するところへ、大量のデータを移動することだ。Googleはその工程を少しでも容易にするために、データウェアハウスBigQueryの中でモデルを作れる機能、 BigQuery MLを立ち上げた。

BigQuery MLを使うと、モデルをファインチューニングするためにデータを行ったり来たりさせることなく、データウェアハウスの中で線形回帰やロジスティック回帰を使ってモデルを構築できる。しかも、モデルを構築して予測を得るためにやるべきことは、少量のSQLを書くことだけだ。

データの移動がそんなに大きな問題だとは、ふつうの人には思えないかもしれないが、単なる物理的な移動ではなくて選択や整形などの処理が必要だから、かなりの時間を要する。そのぶん、モデルの構築に投じるべき時間がしわ寄せされる。

BigQuery MLでは、機械学習の経験の浅い者でも、容易にモデルを構築できる。まず、SQLの変種のようなもので、作りたいモデルの種類と、入力データを指定する。するとBigQueryMLがモデルの構築を開始し、そこから直ちに予測が得られるようになる。 RやPythonでコードを書く必要はない。

BigQuery MLは、今ベータを利用できる。

[若者の失業の解決、アルツハイマー病の検出、ほか]

画像クレジット: TechCrunch

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Google CloudのAutoMLサービスはFigure Eightとパートナーして訓練データの充実を目指す

機械学習のモデルの訓練やテスト、微調整などを支援するプラットホームFigure Eightが今日(米国時間7/24)、Googleとの重要なコラボレーションを発表した。それによると、今後Google CloudのAutoMLサービスでは、Figure Eightが機械学習のデータの作成やアノテーションを行なうときのデファクトスタンダードのパートナーになる。

Figure EightのCEO Robin Bordoliによると、Googleは前から顧客だったが、AutoMLがベータになり、そのプロダクトポートフォリオを拡大している現状では、両社がもっと密接に協働すべき、との結論に達した。Bordoliの主張では、デベロッパーが機械学習のモデルを構築するときの今だに最大の難関が、データの訓練だ。Googleも、そのことをよく認識している。“彼らの認識では、データ訓練の欠如がAutoMLの採用を阻む基本的な障害だ”、と彼は述べる。

AutoMLの最初のプロダクトは機械視覚がメインだったから、Figure EightとGoogleのパートナーシップも、ビジュアルデータによるモデルの訓練が多かった。Figure Eightのサービスを利用することによって、比較的経験の浅いデベロッパーでも、データの収集やAutoML向けの準備、それによる実験などができていた。

Figure Eightが類似のプラットホームと違うのは、その工程に人間が関与することだ。Bordoliの主張では、訓練データのアノテーションを完全にAIツールにまかせることなんて、できない。それは、人間にだけまかせるわけにはいかないのと、同じだ(世界中の人びとを集めてタグ付けをやらせないかぎり)。

GoogleのGoogle Cloud AutoMLのプロダクトマネージャーFrancisco Uribeはこう語る: “うちの顧客の重要なニーズが、人間によるラベル付けだ。Figure Eightとのパートナーシップによって、そのニーズのサポートが強化される”。

このパートナーシップに基づいてFigure EightはAutoML専用のテンプレートと、データをアップロードするプロセスをたくさん作った。同社はまた、顧客がデータを作って訓練する際の お手伝いも提供する(それにより、公平なAI(AI fairness)の担保を目指す)。Google CloudのユーザーはFigure Eightのプラットホームを使って最大1000までの画像にラベルを付け、また同社のアノテーターを利用することもできる(アノテーションを自分でやらない場合)。

今日の発表に至るまでにFigure Eightはすでに、100億以上のデータラベルを生成しており、Googleとの公式パートナーシップにより、それはさらに加速されるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Datadogが立ち上げたWatchdogは機械学習でクラウドアプリケーションの健康をチェックし続ける

あなたが今使っている典型的なクラウドモニタリングサービスは、数ダースのサービスを統合し、きれいなダッシュボードを表示し、何らかの自動化により、アプリケーションの現況を監視する手助けをするだろう。Datadogも長年そんなことをやっていたがしかし今日(米国時間7/12)、Watchdogという新しいサービスを導入した。それは、機械学習を使って自動的に異状を見つけるのだ。

同社によると従来のモニタリングのセットアップでは、アプリケーションの動きをチェックするためのパラメータをユーザーが定義して、それらをモニタするためのダッシュボードやアラートをセットアップしていた。しかし今日の複雑なクラウドアプリケーションでは、そのやり方には限界がある。そこで、オートメーションの層がもうひとつ必要になる。

そしてそれが、Watchdogの役目だ。このサービスは、捉えられるかぎりのパフォーマンスデータをすべて観察し、それらの正常値を学習し、そして何か異状が起きたらアラートを発して、できるかぎり、何が起きたのかのインサイトをユーザーに与える。

Datadogのデータサイエンスの長、Homin Leeが、Watchdogの発表声明で述べている: “私たちの顧客の長年にわたるデータセットを使って、アルゴリズムの研究と訓練を行った。プログラムが問題を見つける点ではこの技術はユニークだが、それだけではなく、ユーザーが調査を始めるために必要な、おおよそのルートコーズ(根本原因)を指摘できる”。

このサービスは、DatadogのEnterprise APMプランの顧客が今日から利用できる。

関連記事: デベロッパーとオペレーションの文化を融合するDatadog(未訳)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Appleが機械学習のチームとSiri/AIのチームを統一、AIの適用を全社一本化

Appleは、Core MLとSiriのチームをひとつのチームにまとめた新しいAI/MLチームを作り、それをJohn Giannandreaの統率下に置くことにした。

Appleの今朝(米国時間7/10)の確認によると、同社の人工知能と機械学習を合わせたチームは、引き続きSiriを担当するとともに、Googleに8年在籍して機械学習とリサーチと検索のチームを率い、今年Appleに来たGiannandreaがそのトップになる。Googleの前に彼は、 Metaweb TechnologiesとTellmeを創業した。

SiriとCore MLのチームの内部的構造は変わらないが、トップがGiannandreaになる。Apple全体の構造の中ではチームは全社横断型の組織として、開発ツールや地図、Core OSなど、さまざまなプロジェクトに奉仕する形になるだろう。基本的に今ML(およびAI)は、どの分野でも必要とされている。

その昔Giannandreaは、Appleのチームメンバーが1989年に作った伝説の企業General Magicのシニアエンジニアだった。創業者には、Andy Hertzfeld, Marc Porat, Bill Atkinsonらがいたが、会社は結局失敗し、そのあとに革新的な技術の数々を遺した。たとえば小型のタッチスクリーンや、ソフトウェアモデムなどだ。General Magicは天才たちのインキュベーターとしても機能し、Susan Kare, Tony Fadell, Andy Rubin, Megan Smith, そしてAppleの今の技術担当VP Kevin Lynchらはみなここから巣立った。

Giannandreaは、TechCrunch Disrupt 2017でスピーチした。結果的に、そのタイミングは完璧だった。下のビデオを、ご覧頂きたい:

AppleのSiriとMLのチームは、多くの共通の目標を共有しているが、出自は違う。しかし今やAppleのありとあらゆるプロジェクトでAIがメインの機能だから、一人の責任者の下に全体をまとめるのが理にかなっている。Siriのこれまでの、行きあたりばったりのようなやり方も、Appleが地図のときのような本格的な肩入れをしていけば、修正されるだろう。また、ユーザーデータのプライバシーの維持保全という問題も、これまでのようにアプリ別分野別に個別に取り組むより、全社的総合的なAI/MLチームの担当管理下に置く方が有利、という計算も働いただろう。Create MLのような最近のリリースは、AppleのMLチームが内部的にやっていることの対外的表現だが、それも現状ではあまりにも断片的だ。そして新たな総合的組織を作ることは、統一に向けてのメッセージだ。

地図のときと同じく、今度のAI/MLチームも、クラウド上の一般的なコンピューティングにフォーカスする側面と、ローカルなデバイス上のデータ中心型のコンピューティング、という二面性を持つことになるだろう。人びとの手の中には今、10億あまりのAppleデバイスがあって、それらがさまざまなデータ処理を行っている。そう考えると、Appleがこれから築くものは、未曾有の、そして世界最大の、AIをメインとするエッジコンピューティングネットワークだ。Giannandreaが関心を持つにふさわしいチャレンジ、と言えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この夏のDIYプロジェクトはAIが落書きを作りだすカメラがいいかも(コードはオープンソースだ)

長い夏の夜は、昔の回路基板などを取り出してきて埃を払い、何かを作り始めるのに適している。でもあまりアイデアが閃かない人は、アーチスト兼エンジニアのDan Macnishが作った、AIと感熱プリンターとRaspberry piと少々のPythonとGoogleのQuick Drawのデータセットを使う落書きカメラはどうだろう。

“ニューラルネットワークにオブジェクトを認識させて遊んでいたとき、これでポラロイドを作ってみたい、と思いついた。その‘ポラロイドふうカメラ’は、撮った画像を自分で解釈して、実物に忠実な写真ではなく漫画をプリントアウトするんだ”、とMacnishはブログに書いている。そのプロジェクトの名は、Draw This(これを描け)だ。

そのためにMacnishは、Googleのオブジェクト認識ニューラルネットワークと、ゲームGoogle Quick, Draw!のために作ったデータセット(落書き集)を利用した。この二つのシステムをPythonのコードで結びつけたMacnishの作品は、現実の画像をAIが認識し、Quick, Draw!のデータセットの中のそれにもっとも合う落書きをプリントアウトする。

しかし、出力の落書きはデータセットに限定されるので、カメラが“見た”ものと、その写真に基づいて生成されるものとの間に、不一致も生ずる。

Macnishは曰く、“写真を撮って、漫画を出力する。それは、カメラが実際に見たものの最良の解釈だ。でもその結果は、いつも意外だ。健康食のサラダの写真が、大きなホットドッグになることもある”。

実際に試してみたい人のために、Macnishはこのプロジェクトをビルドするために必要なコードとインストラクションをGitHubにアップロードしている。

画像クレジット: Dan Macnish

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが強化学習のスタートアップBonsaiを買収して自律型システムの研究開発を推進

もしも、すべてのテクノロジー大企業が現時点で合意しているたったひとつのことがあるとするなら、それは、人工知能と機械学習が彼らの事業が今後進むべき道を指し示している、ということだ。いや、実際にMicrosoftは、バークリーのAIスタートアップBonsaiを買収しようとしている。大きなM社はこの小さなB社を、同社のAIへの取り組みの中心に据えるようだ。

Bonsaiは、強化学習(reinforcement learning)が専門だ。それは主にシミュレーションの分野で、一種の試行錯誤のようなやり方でシステムを教育する。この学習方法は、自律的なシステムを、特定のタスクが完全にできるまで訓練するために利用できる。Microsoftによると、この買収によって、同社がこれまでAzureのクラウドプラットホームでやっていた研究を、前進させることができる。

Microsoftの企業担当VP Gurdeep Pallが、発表声明の中で言っている: “AIを誰でも便利に利用できるようにするためには、開発の障害を取り除き、すべてのデベロッパーに力をつけ、機械学習のエキスパートでなくてもAIデベロッパーになることが重要だ。Bonsaiはそのために大きな進歩を成し遂げており、Microsoftはこの仕事をさらに前進させることに積極的に関わっていく”。

Microsoftは、この4歳のスタートアップを支援してきた複数の高名な企業のうちの一社だ。Crunchbaseによると、昨年はABB, Samsung, Siemensなどの助力で760万ドルのラウンドを調達し、総調達額が1360万ドルに達した。今回の買収事案は、Microsoftが最近演じた、コードホスティングツールGitHubの派手な買収劇別記事)に続くものだ。

Bonsaiの協同ファウンダー/CEO Mark Hammondは、ブログ記事でこう述べている: “私たちの前方には、インテリジェントで自律的なシステムを動かす人工知能を作って運用するために必要なツールと技術で、世界中の企業とデベロッパーに力をつけていく、大きな機会が開けている。そう感じるのは、私達だけではない。今日は、MicrosoftがBonsaiを買収して、この共通のビジョンの実現の加速に力を貸すことに、私たちは大いに勇気づけられている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

蜜蜂の個体数を調べて群の健康状態をチェックするRaspberry Piのプロジェクト

蜜蜂を飼うと、そのお世話がたいへんである。そこでプログラマーのMat Kelseyは、彼の羽根のある蜂蜜メーカーたちが今どれだけ巣箱にいるかを知るためのカウンターを作った。彼のシステムはRaspberry Piと機械学習のアルゴリズムを使って、巣箱に入る蜂の個体数を調べ、その時系列を見ることによって群(むれ)の状態をモニタする。

“巣箱を置いたとき最初に考えたのは、‘出入りする蜂の数をどうやって数えるか?’だった”、とKelseyは書いている。“調べてみたら、蜂にとって無害な良い方法はまだないことが分かった。でも、個体数とその変化が分かれば、コロニーの健康状態もよく分かるはずなんだ”。

そのシステムは、巣箱のドアの写真を10秒おきに撮る。そしてその背景を外挿して、その間にフレームに入ったオブジェクト…すなわち蜂…の数を数える。蜂は絶えず動き回っているし、巣箱から出て行く蜂は数えないから、難しくておもしろい問題だ。

ソースはGithubでダウンロードできるし、詳しいブログ記事もある。今は、蜜蜂のコロニーの崩壊が世界的な問題になっているから、なおさら重要なツールだろう。しかも、Raspberry Piがこんな複雑なこともできるなんて、嬉しいよね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GUNはオープンソースのP2Pデータベース――ノードがオフラインでも機能する

GUNはオープンソースの分散データベース・システムでデベロッパーは簡単にP2Pネットワークで作動するアプリを開発できる。しかもこのネットワークでは一部のノードがオフラインであっても作動する。今日(米国時間5/23)、このデータベースを開発した会社(ピストルのロゴと社名は一考の要があるかも)はDraper Associatesがリードしたラウンドで150万ドルのシード資金の調達に成功してことを発表した。今回のラウンドにはSalesforceのマーク・べニオフのAloha Angels、Boost VC、CRCM Venturesなどのエンジェル投資家が加わっている。

GUN のファウンダー、Mark Nadalは私の取材に答えて、「データベースに取り組み始めてから4年になる。きっかけは、私の初期のプロジェクトでの失敗のほぼすべてがデータベースが原因だったからかだ」と語った。データベースがダウンすればサービスはすべてダウンする。そこでリアルタイムでアップデートしても整合性が保たれる分散データベース・システムの開発を始めたたのだという。

GUNはマルチマスタ・レプリケーションによるP2Pデータベースであり、クラウド・サーバーはネットワークの一つのピア・ノードに過ぎない(もちろんユーザー側ブラウザに比べてはるかに大量のリソースをを持ち、信頼性もはるかに高い)。GUNユーザーにはアップデートにおけるコンフリクト解消などのデータベース運用上必須のツールが標準で提供される。データは自動的にピアに拡散、同期される。ユーザーがオフラインになるとデータはローカルにキャッシュされ、再度オンラインになったときにネットワークに書き戻される。

Nadalは2014年にFirebase、MySQL、MongoDB、CassandraをベースにGUNの最初のプロトタイプを開発した。これはかなりつぎはぎの仕事だったが、引き続きこのアイディアを追求するに足るだけのデベロッパーの関心を集めることができた。

現在GUNを利用してRedditのクローン から分散版のYouTubeのコピーまでさまざまなデータベースが実験されている。

Nadalはまた一部の現行データベースに比べてこのシステムはスピードの点でも大きな優位性があるとしている。「予備的なテストの結果ではわれわれのキャッシュはRedis、MongoDBなどに比べて28倍速いと判明した。GUNは現在、ゲーム、IoT、VR、分散的機械学習などの分野におけるパイオニア企業と提携を進めている」という。

オランダ海軍はすでに艦上のIoTサービスの一部にGUNを採用している。AI/機械学習分野で利用しているグループも多い。Nadalはこのデータベースはブロックチェーン・テクノロジーとの適合性が高いとして、この分野のデベロッパーもGUNに注意を払うべきだと考えている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】

GoogleとCoursera、機械学習の特別クラスをスタート――ITプロフェッショナルが実戦的能力を得られる

この数年、Googleと Courseraは共同でデベロッパーやITプロフェッショナル向けのオンライン学習コースを多数開催してきた。この中には機械学習の速習コースも含まれ、学習者に機械学習の基礎的知識を提供している。Google、Courseraはこれをベースとして機械学習特別クラスをCourseraでスタートさせる。新しい特別クラスは5つのコースからなり、実戦的能力の獲得に焦点を合わせている。

特別クラスは「Google CloudプラットフォームでTensorFlowを利用する機械学習」と名付けられ、学習者は現実の機械学習モデルの作成を体験する。これには環境の設定から始まって、データベースの構築、データのノイズ除去、TensorFlowによる分散機械学習モデル、モデルの精度向上のための、パラメーターの調整、各種のチューニングなどが含まれる。

Googleにおけるビッグデータと機械学習テクノロジー責任者、Lak Lakshmananは私の取材に対して「われわれのチームは学習者や企業から『〔オリジナルの機械学習コースは〕素晴らしいが、さらに突っ込んだ内容が欲しい』という要望が強いと聞いた。学習者は機械学習モデルの構築の基礎だけでなく、クラウド上で作動させる方法、データを供給するパイプラインの構築、チューニングの方法などモデルを現に運用して効果を上げるためのさまざまなノウハウを知りたいということだった」と語った。

Courseraのエンタープライズ開発担当バイス・プレジデント、Leah Belskyは、これに関連して、「こうした実際的な能力を学習者が身につけることは所属企業にとっても非常に価値がある」と説明した。

今やテクノロジーのあらゆる分野で機械学習の実戦的能力が求められている。新しい特別クラスのターゲットはこうした知識と技能を身に着けたいデベロッパーだ。機械学習の人材は払底しており、企業が外部から専門家をスカウトすることは不可能に近い。内部のデベロッパーに機械学習について学ばせる以外にない現状ではこのクラスへの企業の期待は大きい。

Lakshmananが語ったところでは、機械学習のユースケースは多岐にわたるものの、このクラスが重点を置くのは「日常業務を機械学習化する能力」だという。つまり既存のプロダクトの価値を機械学習によっていっそう高めることが目標だ。既存の課題の解決が主眼であるため、このコースは機械学習の最新理論をすでに学んだ大学新卒者にとっても有益だという。

Lakshmananによれば、こうしたクラスをスタートさせるのは数年前だったら不可能に近かっただろうという。専用GPUを備えた強力なハードウェアが用意できなければ意味のある機械学習の実験はできなかったからだ。しかし現在ではGPUにアクセスできる強力なクラウドプラットフォームが多数登場している。ことにGoogleのクラウドであれば機械学習のためのTensorFlow Unit(TPU)が利用でき、ハードルは大幅に下がった。

こうしたコースでは参加者はプログラミングに関してすでに一定の能力を持っていることを前提にしている。TensorFlowフレームワークの利用などにより機械学習の習得は以前よりずっと容易になったとはいえ上級分野であることには変わりない。「機械学習モデルの構築でPythonを学ぼう」というコースが登場するのはまだ先の話のようだ。

将来といえば、Lakshmananはすでに次のコースの構想を温めている。これは現在のコースの続編となるもので、非構造的データを取り扱う方法を学ぶ。これはまった異なるレベルのチャレンジになる。また現在の機械学習コースの内容を十分に身に着けている必要があるという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Androidの父、アンディー・ルービン、ロボティクスについて語る――Boston Dynamicsは25年前の創立

先週末にカリフォルニア大学バークレー校で開催されたTechCrunch Sessions: Roboticsイベントに.Androidの共同開発者、アンディー・ルービンが登場してロボットについて語った。ルービンはGoogleでAndroid事業、続いてロボティクス事業の責任者を務めた後、現在はベンチャーキャピタルのPlayground GlobalのCEOだ。

ルービンは「ロボットの実用化にあたっていちばん重要なのはソフトウェアとそのプラットフォームだが、すべてのロボットが1つのプラットフォーム上で動くようにはならないだろう」と述べた。

ルービンは「プラットフォーム化というビジネスは私が取り組んだ事業として近い記憶だし、きわめて重要なものだ。ではロボティクスと自動化の分野でひとつのプラットフォームをすべてのプレヤーが採用するようになることはあるだろうか? 私は懐疑的だ」と述べた。

ルービンはやがてロボットメーカーは機械学習データを共有できる共通のシステムを構築し、ロボットが相互にコミュニケーションできるようになる必要があると熱心に論じた。つまりあるロボットが機械学習によってある課題を解決したとすれば、その知識は他のロボットにも共有され、利用できようにならねばならない。

下のビデオではTechCrunchのBrian HeaterとRubinの対談ビデオを見ることができる。ルービンが投資しているスタートアップ、Agility RoboticsのCassieという二足歩行ロボットも登場する18:00あたりから〕。

〔日本版〕ビデオの冒頭ではRubinの犬がBoston Dynamicsの四脚ロボットのまわりを跳ねまわって吠えている。場所はPlayground Globalの駐車場で、撮影したのはオフィスを訪問したDFJのファウンダー、ティム・ドレイパー。ルービンはベンチャーキャピタリストとして長期的、短期的双方のプロジェクトに投資していると述べた。ただしどんな場合でもプロジェクトに明確なマイルストーンを設定し、各段階それぞれがビジネスとして成功するよう導く必要性があると述べた。ルービンによればBoston Dynamicsの創立は25年前であり、同社のロボットは25年の絶え間ないイノベーションの努力の結果生み出されたものだという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+