Facebookがディープラーニングツールの一部をオープンソース化

機械学習の世界では今、”deep learning”(ディープラーニング, 深層学習)という言葉が流行っている。それはGeoff Hintonなどの研究者が広めた技術で、彼は今Googleにいて、その前はMicrosoft Researchにいた。またYann LeCunなどの研究者は、コンピュータに物や人の話を認識させる、今よりももっと良い方法を模索している。

Facebookも、この分野にかなりの貢献をしていて、今日(米国時間1/16)同社は、機械学習のためのコンピューティングフレームワークTorch7プロジェクトの一部をオープンソースにする。Torchはこれまでも、大学の研究室や、Google、Twitter、Intelなどの企業で機械学習や人工知能のプロジェクトの中核として利用されてきた。

Facebookは今日、Torchを使っているディープラーニングプロジェクトを高速化するために最適化されている一連のツールを、ローンチする。たとえばその一つは、複数のGPUを同時に動かして学習ネットワーク(神経ネットワーク)の教育訓練を並列化する。また、今入手できる最速のコードの23倍速く、多くのディープラーニングシステムの中核であるconvolutional neural nets(畳み込みニューラルネット)を教育訓練できるツールもある。

さらにFacebookがローンチするツールの中には、Torchのそのほかの部分を高速化するものもある。それらの多くはデフォルトのツールの3倍から10倍速いそうだ。

詳しい技術情報に興味のある方は、ここへどうぞ。

ディープラーニングは私たちが日常使うソフトウェアの多くが、直接あるいは間接(クラウドなど)に、徐々に利用し始めている。

たとえばGoogle+ Photosは、ユーザの写真ライブラリ中に画像を見つけるためにそれを利用している。そして先週のCESではNvidiaが、キーノートの時間の大半を費やして、ディープラーニングによるオブジェクトの同定により、車載カメラの能力がアップし、自動運転の実用化が早まる、という話をしていた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Microsoft、Azure MLを発表―クラウドベースの機械学習プラットフォームは未来を予測する

最近急速にクラウド化しているMicrosoftが、今日(米国時間6/16)、クラウドベースの機械学習プラットフォームを発表した。このAzure MLはクラウド上でビッグデータを利用することにより、単に過去を分析するのではなく、将来の事象を予測するアプリやAPIを作ることができる。

Azure MLはXboxやBingですでに使われている機械学習機能を利用している。またデベロッパーが未来予測アプリを開発するために使うテンプレートとワークフローも用意される。これによって機械学習アプリを開発するスピードは大幅に加速されるという。サービスのプロバイダはAzure MLプラットフォーム上で各種のウェブサービスを開発できるだけでなく、APIを公開することも可能になる。

Microsoftのコーポレート・バイスプレジデントでAzure MLの責任者、Joseph Sirosh(Microsoftに移る前は長年Amazonに在職)は、「このプラットフォームを利用すればユーザー、パートナーは未来を予測するビッグデータ・アプリケーションを開発することが可能になる」と述べた。

Siroshは「過去の分析ではなく未来を予測し、それを変えることができるのがAzure MLの傑出した特長だ」という。

「既存のデータ分析システムも未来の予測ができる。しかし機械学習は未来を書き換えることができる」とSiroshは説明する。 つまりビッグデータを分析してパターンを発見し、製品の需要や病気の流行を予測したり、エレベーターが故障する前にメンテナンスが必要だと教えたりする。さらには犯罪の発生を予測して防犯に役立てることもできるという。

Siroshによれば、こうしたことを可能にしてゲームのルールを変えたのはクラウド化だという。もしユーザー企業が独力で実行しようとすれば何週間も、それどころか何ヶ月もかかるような膨大な処理がクラウド上ではごく短時間で実行できる。

またSiroshは「クラウドは最後の1マイル問題も解決した」という。以前このようなサービスではまずデータ・サイエンティストがビッグデータを分析してパターンを見出し、IT部門がそれに応じてアプリケーションを開発するという手順を踏む必要があった。このプログラムのコーディングがきわめて手間のかかる作業であり、何週間、何ヶ月もかかっていた。しかしAzure MLならアプリケーション開発は数時間ですんでしまうという。

また多くのデータ・サイエンティストが利用している統計処理言語Rのオープンソース・プロジェクトから300以上のパッケージが利用できる。

またSiroshは多くのユーザーがAzure MLプラットフォーム上でアプリやAPIを公開することによって好循環が始まることを期待している。「ユーザーがデータをAzure MLに持ってきてアプリやAPIを公開する。するとさらに多くのユーザーそのアプリをAPIを利用してさら多くのデータをAzure MLに持ち込むようになる」とSiroshは説明する。

Azure MLは現在、秘密にプレビューされている。しかしMicrosoftはいくつかの実例を明かした。その一つはMirosoftのパートナー、Max451が開発しているシステムで、これは小売業者が消費者の好みを分析することによって商品の売れ行きを予測するサービスだ。小売業者はもっとも売れそうな商品の在庫を増やすなどして利益を増大できる。

またカーネギーメロン大学はキャンパスの建物でのエネルギー消費を抑えるためにAzure MLを使って学内の活動パターンの予測手法を開発中だ。

しかしこの分野を手がけているのはMicrosoftばかりではない。IBMは昨年冬、Watson人工知能をクラウド・サービス化した。また先週はErsatz Labsというスタートアップがディープラーニング人工知能のクラウドプラットフォームをローンチしている。

Azure MLは来月に公開プレビュー段階に入るという。正式リリースの日程は明らかにされていない。

写真: (c) Can Stock Photo

[原文へ]

(翻訳:滑川海彦 Facebook Google+


Googleは機械学習とニューラルネットワークを利用してデータセンターのパフォーマンスを最適化している

Googleは、機械学習(machine learning)によって、データセンターのパフォーマンスを最大化し、エネルギー消費を最小化している。同社はこのほど、その取り組みをまとめた研究報告書を公表した。その要点は: Googleが構築している高度にインテリジェントなサーバファームは、自分の過去のパフォーマンスから学び、未来の自己を改良する。

GoogleのAI化データセンターは、社員Jim Gaoの20%プロジェクトだ。彼は自分本来の仕事をしているときに、こいつはおもしろい!と目をつけたのだ。Googleには、拘束時間の20%は自分の好きなことをしてよい、という有名な勤務ルールがある。考えることと学習することのできるデータセンターは、たまたまGaoの、やってみたいことになったのだ。

Gaoは機械学習を勉強し、モデルの構築を開始した。そのために必要なデータとしては、Googleがデータセンターから毎日のように収集している膨大な量のパフォーマンスデータがすでにあり、そこには時間別・機器装置別・気温など気象条件別などに分類されているエネルギー消費に関するデータもあった。Gaoのコンピュータはそれらのデータをすべて分析して、さまざまな条件や要素とエネルギー消費量との相関関係をあぶりだした。そしてそれをもとに彼は、データセンターにおけるコンピューティングの効率を最大化するエネルギー(とくに電力)利用の方式を導き出した。報告書のその部分は、Power Usage Effectiveness(電力利用の実効性)というタイトルでまとめられている。

彼が作成したモデルは、以前Googleで実際にあったような、サーババンク全体を停止しなければならないほどの緊急事態でも、実は、冷房の設定温度など、ほかのパラメータを一時的に調整するだけで切り抜けられることを示している。その方が、高い出力レベルを維持しつつ、時間とエネルギーと経費を節約できるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


ビデオからベストショットの写真を作るVhotoは写真が下手な人に朗報

写真は、われながらへたくそだ。ぼくは、世界最悪の写真家として有名だ(実際にそういう賞がある)。でもVhotoという新しいiOSアプリは、そんなぼくを救ってくれるかもしれない。

Vhotoは独自の技術を使ってビデオの中の最良の画像を見つけ、それをスチール写真にする。タグをつける、シェアする、ほかの人の写真を見つける、などのソーシャルな機能もある。

ビデオは、Vhotoのカメラアプリを使って撮ってもよいし、あるいは既存のビデオをVhotoにアップロードしてもよい。Vhotoは20種類の測度でビデオを調べる(ぼけ、コントラスト、顔、微笑、ユーザの意図、そして同社CEOのNoah Hellerが“めずら発見器(novelty detector)”と呼ぶもの、などなど)。めずら、とは、珍しいもの、ほかのフレームとは相当に違っている画像のことだ。

Hellerは曰く、“うちには、写真とビデオの違いなんかクソくらえ、という哲学がある。Vhotoはどんなビデオでも調べてグレートなショットを見つけ、それの短いクリップを作る”。

元がビデオだから、すべてが自然で、かまえたり、ポーズを決めたりしなくても、セルフィーもアクションシーンも自然な表情もグループ写真もすべて、簡単にスチールとして捕捉できる。

HellerはMicrosoftでXboxのソーシャル機能の設計とプロマネをやっていたが、その後ActivisionでSVPとして大ヒット作Call of Dutyを担当した。2012年に、陽の光降り注ぐカリフォルニア州サンタモニカからボストンに移って、Atlas Ventureの社員起業家の地位に就いた。

Atlasの起業家社員としてHellerは、その後Vhotoへと成熟するアイデアを温め、AtlasやPolaris Partners、同社の協同ファウンダで会長のHugh Creanらから240万ドルの初期資金を得た。

“プロの写真家が細心の注意をして撮った写真だけが良い写真ではない。むしろ、何千何万もの画像を調べるフォトエディタがあれば、そこから最良の写真を見つけることができる”、とHellerは言う。Vhotoは彼にとって、そんなフォトエディタなのだ。

“ビデオはとても強力なメディアだから、そのうち必ず、支配的なメディアになる。ビデオのパワーをよく知ってることが、うちの強みだ”、と彼は言う。

Vhotoは今、AppleのApp Storeで無料だが、今後はビデオのアーカイビングや画像検索などの機能のあるプロ用バージョンも提供する予定だ。

VhotoのCTO Jay Bartotは声明文の中で次のように述べている、“機械学習のアルゴリズムを利用して、ユーザの好みを知ることができる。Vhotoはコンピュータビジョンと機械学習を結びつけて、すばらしい結果を作り出す。それは、ふつうの単なるスチール写真からは得がたいものだ”。

 

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


コンピュータ同志がパックマンを教えあって機械学習を改善する

今日が4月1日でなければ、いかにこれがすばらしいかを理解してもらえたのだが、私の知る限りこの研究が掲載されたのは数日前のことであり、完全に真実だ。要するに、ワシントン州立大学の研究者たちは、コンピューター同志が教え合うことによる機械学習の実験をしている。実験は、1台のコンピューターがパックマンの遊び方を別のコンピューターに、単にプログラムをコピーするのではない方法で教える。

「われわれはアドバイスを与えるためのアルゴリズムを設計し、そのアドバイスが最大の違いを生むのはいつかを調べた」とAIを専門とするMatthew E.Taylor教授は言った。教える側のコンピューターは、他のコンピューターに、「うまく」プレイする方法、即ち、ゴーストに食べられることなく、最大のポイントを得るところを「見せる」。これらの先生生徒ペアたちは、StarCraftの遊び方も教えあい、ある時点で、生徒が先生を越えた。

リリース文より:

本研究において研究者らは、先生ロボットがアクションのアドバイス、即ち生徒にいつ行動するべきかを教えることに集中するようプログラムした。ティーンエージャーを持つ親なら誰でもわかるように、コツはいつアドバイスを与えるべきかを知ることにある。全くアドバイスを与えなければそのロボットは教えていない。しかし常にアドバイスを与えていると生徒はうるさがって先生をしのぐほど学習しない。

この研究には、機械学習 ― ロボットの集団行動等 ― 、人間とコンピューターの相互作用や学習といった応用分野がある。もしロボットが別の明らかに鈍いコンピュータにパックマンの遊び方を教えることができるなら、ロボットが人間の生徒にどんな数学や科学のアドバイスを与えられるか想像してみてほしい。

[原文へ]

(翻訳:Nob Takahashi / facebook