企業向けのディープラーニング・ソリューション「JUIZ DoT」などを提供するLeepMindは10月23日、合計7社を引受先とする第三者割当増資を実施し、総額11.5億円の資金調達を完了したと発表した。
投資家リストは以下の通り:
- Intel Capital(リード)
- GMO VenturePartners
- NTTデータ
- イノベーティブ・ベンチャーファンド(NECキャピタルソリューション、SMBCベンチャーキャピタルによる共同運営)
- 伊藤忠テクノロジーベンチャーズ
- Visionnaire Ventures Fund
- アーキタイプベンチャーズ
LeapMindは、高い処理能力や高電力を前提としたこれまでのディープラーニング(深層学習)とは違い、小さなコンピューティングリソースでも動くような計算処理を圧縮した独自モデルの開発を行うスタートアップだ。
通常、ディープラーニングというと大きなコンピューティングリソースを利用したものを想像する人が多いと思う。たとえば、人間のプロ囲碁棋士を打ち負かしたことで話題になったAlphaGoにはCPU1202個とGPU176基がものリソースが利用されていた。
もちろん、そんな巨大コンピューターをいちいち移動させたり色々な場所に配置したりする訳にはいかない。だから、処理を行うサーバーは離れた場所に置かれ、データを取得する端末とネットワークを介して通信することになる。いわゆるクラウドコンピューティングだ。
クラウドのメリットは、たとえ端末自体の処理能力が低くても、外部のリソースを活用することでディープラーニングのような複雑な処理ができること。逆にデメリットとして挙げられるのは、離れた場所にあるサーバーと通信を行う以上、処理結果が返ってくるまでに多少の遅延が発生してしまう点だ。
でも、人のいのちに関わる自動運転の分野などでは、そのような遅延は許されない。そこで自動運転の発展とともに注目され始めているのがエッジコンピューティングだ。これは、端末の近くにサーバーを分散配置することで遅延を少なくするというもので、クラウドとは異なる発想をもつコンピューティング技術だ。
エッジコンピューティングで利用できるリソースは限られている。巨大なコンピューターをクルマに積むことなんてできないからだ。すこし前置きが長くなってしまったけれど、LeepMindはそんな小さなコンピューティングリソースでもディープラーニングを行えるよう、計算量を圧縮した独自モデルの開発をしている。
従来モデルの500分の1のサイズ、10倍の処理速度
LeepMindによれば、同社の独自モデルはケンブリッジ大学が開発した「SegNet」と比べて500分の1のサイズでありながら、精度は5%ほどの低下に留めることに成功したという。また、LeepMindが提供するSaaS型ディープラーニングサービスであるJUIZを利用してFPGA(参考)上に専用回路を構築することで、CPUでの処理に比べて10倍の速度で処理を完了することができるという。
また、FPGAに構築されたモデルは従来のものに比べて省電力であり(約12分の1)、電力が限られたIoTデバイスでもディープラーニングが行えるように開発されている。
LeepMindが掲げる「DoT(Deep Learning of Things)」という言葉のとおり、エッジ上で精度の高いディープラーニングを行うことが可能になれば、自動運転だけでなく、ドローンに高度な画像認識モジュールを搭載するなど様々なことが可能になりそうだ。
今回のラウンドには米国のIntel Capitalがリード投資家として参加しているけれど、彼らは注力分野としてAI、FPGA、IoT、自動運転などを挙げている。それを考えれば、LeepMindはIntel Capitalにとって絶好の投資先だったのかもしれない。
LeepMindは今回調達した資金を利用して、「ソフトウェアとハードウェアの両領域におけるソリューションの研究開発、またそれに伴う世界中からの優秀な従業員の雇用、さらには海外を含めた事業開発/営業基盤の拡大に充当する予定」だとしている。
過去に、同社は2016年8月のシリーズAで3.4億円を調達している。