合成データでMLを訓練し機械学習へのエントリーを容易にするRealityEngines

元Googleの役員たちが作ったAIと機械学習のスタートアップであるRealityEngines.AIが米国時間1月28日、ステルスを脱して最初の製品を発表した。

同社が2019年に525万ドル(約5億7300万円)のシードラウンドを発表したとき、CEOのBindu Reddy(ビンドゥ・レディ)氏はミッションについて、機械学習を企業にとってやさしくすると言うだけで、詳しい話は何もなかった。しかし今日チームは、エンタープライズにおけるMLの標準的なユースケースに伴う問題を解決する一連のツールをローンチして、サービスの具体的な内容を明らかにした。それらの問題とは、ユーザーチャーン(中途解約)の予測、不正の検出、営業の見込み客予測、セキュリティの脅威の検出、クラウド支出の最適化などだ。これらにあてはまらない問題には、もっと一般的な予測モデルサービスが提供される。

RealiyEnginesの前は、レディ氏はGoogleでGoogle Appsのプロダクトのトップを、AWSでは業種別AIのゼネラルマネージャーを務めた。共同創業者のArvind Sundararajan(アービンド・スンダララジャン)氏はかつてGoogleとUberに在籍し、Siddartha Naidu(シッダールタ・ナイドゥ)氏はGoogleでBigQueryを作った。同社の投資家は元Google会長Eric Schmidt(エリック・シュミット)氏、Ram Shriram(ラム・シュリラム)氏、Khosla Ventures、そしてPaul Buchheit氏(ポール・ブッフハイト)だ。

レディ氏によると、これら一連の製品を支える基本的な考え方は、企業に機械学習への容易なエントリーを提供することだ。企業自体にデータサイエンティストがいなくてもよい。

人材以外の企業にとっての問題は、ネットワークを有効に訓練するために必要な大量のデータが、往々にして存在しないことだ。AIを試してみたいという企業は多くても、この問題が前途に転がっている巨大な落石のような障害になっていた。RealityEnginesはこの問題を、本物そっくりの合成データを作ることによって解決。それで企業の既存のデータを補うことができる。その合成データがある場合は、ない場合に比べてモデルの精度が15%以上アップするそうだ。

レディ氏は次のように主張する。「敵対的生成ネットワーク(Generative Adversarial Networks、GANS)の最も強力な使い方は、ディープフェイクを作ることだった。ディープフェイクは、部分的に手を加えたビデオや画像で誤った情報を広めることが極めて容易であることを世間に知らしめたから、大衆の心にも訴えた。しかしGANSは、生産的な善用もできる。たとえば合成データセットを作って元のデータと合わせれば、企業に大量の訓練用データがなくても、堅牢なAIモデルを作れる」。

RealityEnginesの現在の社員は約20名で、その多くはML/AI専門の研究者または技術者だ。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

IntelとBaiduがニューラルネットワーク訓練専用プロセッサーでパートナーシップ

米国時間7月2日、Baidu(バイドゥ)が北京で開催したAIデベロッパーのためのCreateカンファレンスで同社とIntel(インテル)は、後者のニューラルネットワークを訓練するためのチップNervana Neural Network Processorでパートナーすることを発表した。名前から明確に分かるように、この開発途上のチップ(NNP-Tと略称)は、大規模なディープラーニングを実行するニューラルネットワークを訓練するための専用プロセッサーだ。

NNP-Tに関するBaiduとIntelのコラボレーションにはこのカスタムアクセラレーターのハードウェアとソフトウェアの両方が含まれ、それらが確実に、BaiduのディープラーニングフレームワークPaddlePaddleに向けて最適化されているように図る。Intelはすでに、Intel Xeon Scalableプロセッサーの上でのPaddlePaddleの最適セットアップで協力しているが、今回のパートナーシップはそれを補完するものになる。NNP-Tの最適化は、ニューラルネットワークの分散訓練にフォーカスしたPaddlePaddleのアプリケーションをとくに対象とする。それにより、他のタイプのAIアプリケーションも完成させる。

IntelのNervana Neural Network Processor系列は、同社が2016年に買収したNervana社からその名前を受け継ぎ、Nervanaの元CEO Naveen Rao氏が率いるIntelのAIグループが開発した。NNP-TはAIの訓練用に特製されていて、データセットの取り入れとジョブのやり方の学習に用いられる。また今年のCESで発表されたNNP-Iは、推論専用である。すなわち学習の結果を利用してさまざまなAIの仕事そのものを行う。

NNPがデビューしたのは2017年で、第1世代のチップは現在、ソフトウェア開発のプロトタイプ、および、パートナー向けのデモハードウェアとして利用されている。そして、最新のいわゆる「Spring Crest」(春の最盛期)世代は今年、プロダクション向けに利用可能となる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

PyTorchとCaffe2両モデル間の変換ツールをFacebookとMicrosoftが共作、機械学習商用化のスピードアップ

FacebookとMicrosoftが今朝(米国時間9/7)、互いブログ記事で、ONNX、すなわちOpen Neural Network Exchangeというものを発表した。機械学習のデベロッパーはこのツールを使って、PyTorchとCaffe2のあいだでモデルを互いに変換し、研究開発や実装に要する時間を節約できる。

Facebookは前から、機械学習に関してFAIRとAMLという二つのグループを区別している。Facebook AI ResearchすなわちFAIRは最先端の研究開発を担当し、Applied Machine Learning, AMLはさまざまなプロダクトにインテリジェンスを実装する。

この両者は、使用するディープラーニングフレームワークも異なる。FAIRはPyTorchを使い慣れているが、こちらはリソースの制約がないコンピューティング環境でもっとも高度な研究開発の成果を追究する。

しかしユーザーのスマートフォンやコンピューターには能力の制約が当然あるから、実装役のAMLは、リソースを有効利用できるよう最適化されているCaffe2を使う。とくにその実装系のCaffe2Goは、非力なモバイルデバイスの上で機械学習のモデルを使えるよう、最適化されているCaffe2だ。

FacebookとMicrosoftが今日発表したツールを使うと、PyTorchのモデルとCaffe2のモデルを互いに容易に変換できる。二つのフレームワークを容易に行き来できることにより、 研究の伝播を広く早くし、また商用化の過程もスピードアップできる。

しかしながら、すべての企業がPyTorch/Caffe2のペアを使っているわけではない。TensorFLowベースの研究はきわめて多いし、そのほかの重要なフレームワークも使われている。また機械学習の商用化のレベルでは、モデルを特定のデバイスに最適化されたフォーマットに容易に変換するための研究開発も行われている。

たとえばAppleのCoreMLは、ごく限られた数のモデルを変換できる。しかし現時点でCoreMLはTensorFlowすらサポートしていないし、コンバーターの自作はかなり難しそうだ。GoogleやAppleが、特定のハードウェア向けの、機械学習フレームワークの最適化をもっとサポートするようになると、今度はそれらの相互運用性が課題になってくる。

Open Neural Network Exchangeは、Githubのここでリリースされている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))