5月のGoogle I/Oで、TensorFlowのモバイルデバイス用のバージョンが発表されたとき、会場のデベロッパーたちはざわめいた。そして今日Googleは、その期待に応えて、TensorFlow Liteのデベロッパープレビューをリリースした。
このライブラリは、スマートフォンや組み込みデバイスで使う軽量級の機械学習ソリューションを作ることがねらいだ。Googleはそれを、TensorFlowのモバイルに向けての進化と呼び、今日からそれを、AndroidとiOS両方のアプリデベロッパーが利用できる。
開発の主眼はモデルの訓練よりもむしろ、非力なデバイス上での、モデルからの推論の短時間化におかれている。ふつうの言葉で言えばTensorFlow Liteは、モデルにすでにある(学習済みの)能力を、与えられた新しいデータに適用することがその主な目的であり、データから新しい能力を学習することは、多くのモバイルデバイスにとって、荷が重すぎるのだ。
TF LiteをTFの部分改作ではなくスクラッチから作ったのは、その軽量性を徹底すること、そして素早く初期化され、さまざまなモバイルデバイス上でモデルのロードも素早いことをねらったからだ。TensorFlow Liteは、Android Neural Networks APIをサポートする。
今回は完全なリリースではないから、今後まだ、いろんなものが加わってくる。現状のTensorFlow Liteは、Googleによると、視覚処理と自然言語処理のいくつかのモデル、MobileNet, Inception v3, Smart Replyなどを使える状態だ。
TensorFlowのチームは、こう書いている: “このデベロッパープレビューでは、われわれは意図的に限られたプラットホームでスタートし、もっとも重要でよく使われる一部のモデルでのパフォーマンスを、確実にしたいと考えた。われわれの計画では、将来の機能拡張はユーザーのニーズに基づくものにしたい。われわれの開発の目標は終始一貫してデベロッパー体験の単純化にあり、さまざまなモバイルおよび組み込みデバイスでモデルをデプロイできるようにしたい”。
関心を持たれたデベロッパーは、TensorFlow Liteのドキュメンテーション読んで、その霊に取り憑かれてしまおう。