機械学習の世界では今、”deep learning”(ディープラーニング, 深層学習)という言葉が流行っている。それはGeoff Hintonなどの研究者が広めた技術で、彼は今Googleにいて、その前はMicrosoft Researchにいた。またYann LeCunなどの研究者は、コンピュータに物や人の話を認識させる、今よりももっと良い方法を模索している。
Facebookも、この分野にかなりの貢献をしていて、今日(米国時間1/16)同社は、機械学習のためのコンピューティングフレームワークTorch7プロジェクトの一部をオープンソースにする。Torchはこれまでも、大学の研究室や、Google、Twitter、Intelなどの企業で機械学習や人工知能のプロジェクトの中核として利用されてきた。
Facebookは今日、Torchを使っているディープラーニングプロジェクトを高速化するために最適化されている一連のツールを、ローンチする。たとえばその一つは、複数のGPUを同時に動かして学習ネットワーク(神経ネットワーク)の教育訓練を並列化する。また、今入手できる最速のコードの23倍速く、多くのディープラーニングシステムの中核であるconvolutional neural nets(畳み込みニューラルネット)を教育訓練できるツールもある。
さらにFacebookがローンチするツールの中には、Torchのそのほかの部分を高速化するものもある。それらの多くはデフォルトのツールの3倍から10倍速いそうだ。
詳しい技術情報に興味のある方は、ここへどうぞ。
ディープラーニングは私たちが日常使うソフトウェアの多くが、直接あるいは間接(クラウドなど)に、徐々に利用し始めている。
たとえばGoogle+ Photosは、ユーザの写真ライブラリ中に画像を見つけるためにそれを利用している。そして先週のCESではNvidiaが、キーノートの時間の大半を費やして、ディープラーニングによるオブジェクトの同定により、車載カメラの能力がアップし、自動運転の実用化が早まる、という話をしていた。
[原文へ]
(翻訳:iwatani(a.k.a. hiwa))