処理性能が高くないエッジデバイスでディープラーニングを使った画像認識などを実用化する技術を開発するスタートアップ企業のIdein(イデイン)は今日、グローバル・ブレイン、DG LabファンドからシリーズAラウンドとして合計1億8000万円の資金調達を実施したことを発表した。Ideinは2015年4月の創業で、これまでエンジェル投資家や日本政策金融公庫などから3000万円の資金を得て、受託や研究開発を進めてきた。2016年末には黒字化しているが、「高度センシングデバイス」と、それらを使うためのクラウド側のインフラをSaaSで提供するという狙いでビジネスをスケールさせるという狙いだ。
クラウドではなくエッジでDLを活用
静止画や動画を解析して「そこに何が映っているのか」「何が起こっているのか」を理解するコンピュタービジョンという研究と応用の領域が、ディープラーニングによって近年劇的に性能が向上している、というのは皆さんご存知のとおり。GoogleやAmazon、Microsoft、IBMが次々とAPIを公開して民主化も進んでいる。もう各企業がモデルのトレーニングをしたり、開発者がディープラーニングのライブラリの使い方を学ばなくてもディープラーニングの恩恵を受けることができるようになってきた。
問題は画像を認識する場所だ。
APIベースにしろ、自社でディープラーニングを使うにしろ、今のところ多くの処理はサーバー上(クラウド上)で起こる。サーバー上で認識(推論)するということは、そのための画像データをネットワークで送信する必要があるが、その通信コストは用途によってはペイしないかもしれない。監視系のIoTなんかが、そうした応用の1つだ。
Idein創業者で代表の中村晃一氏は「画像認識APIを呼び続けるよりもエッジデバイスでディープラーニングを使うことで安くできます。普通にクラウドでやると通信コストは月額数十万円になり、これは削りづらいところです」と話す。
認識するのは画像だけではなく、音や加速度といったセンサーも組み合わせる。ポイントはセンサーから入ってきた情報をクラウドに投げるのではなく、エッジ側でディープラーニングを使った処理をしてしまうところ。サイズが小さく構造化したデータをクラウドやサービスに接続することでデータ収集や監視を行うのが狙い、という。
例えばヘルスケアや介護の見守りの領域で応用が可能だ。医療関係の知人から「睡眠時無呼吸症候」の相談を受けて2014年末に試作した電球型のセンシングデバイスで手応えを感じたことが、そもそもの今回の取り組みのスタートという。「実際に3Dプリンターを使って3ヶ月ほどで作ってみたら、デバイスでイベントを取得するというのは他にも需要がありそうだ、これは結構いけるぞと思ったんです」(中村氏)
中村氏をはじめIdeinの11人のチームメンバーは情報科学系の研究者とエンジニア。中村氏は 東京大学情報理工学系研究科コンピューター科学でコンパイラの最適化技術に取り組んだりしていたそう。
Ideinの強みは、汎用のRaspberry Pi上で高速にディープラーニングを使うソフトウェア環境を整えたこと。Ideinが使っているのはプロセッサもソフトウェアも汎用のものだ。Raspberry Piはスマホと似たプロセッサだし、ディープラーニングにはChainerやCaffeといったオープンソースのライブラリを使う。難しいのはRaspberry Pi搭載のGPUであるVideoCore IVを使うために、アセンブラ、コンパイラ、数値計算ライブラリなど一通りのツールチェーンを自分たちで作った部分という。これによって10倍から30倍の高速化となり、以下の動画にあるように、30ドル程度の汎用デバイスでGoogleNet(Googleが配布している画像認識の学習モデル)による認識時間が0.7秒という実用的な速度になっている、という。
戦略としてはライブラリの一部はオープンソースとしていき、むしろソフトウェアのデプロイ(エッジデバイスに配布する)や管理、センシングで得たイベント情報のネット側のつなぎこみの部分で課金をしていくモデルを考えているそう。センサー自体も高度なものである必要がないほか、ソフトウェアのアップデートによって、新しい学習モデルを使った認識機能を増やしていくことができる。例えば顔認識は最初から組み入れつつ、後から顔の方向や表情を取得するといったようなことができるそうだ。