Google、カスタムTPUマシン、アルファ版公開――クラウドで機械学習を加速

GoogleのTPU(Tensor Processing Units)は、TensorFlowフレームワークによる機械学習を効率的に実行するために独自に開発されたカスタムチップだ。このTPUがアルファ版であるものの、クラウド利用できるようになった

Googleがデザインしたチップは、一部の機械学習のワークフローを他社の標準的GPUよりもはるかに高速にを処理できるという。このTPUの消費電力が少ないことはGoogle側にとって重要なポイントだろう。デベロッパー側は消費電力などあまり気にかけないだろうが、Googleにとってデータセンターへの電力供給は大きな課題だ。また利用料金の引き下げにもつながる。

Googleは9ヶ月前のI/Oデベロッパー・カンファレンスでクラウド上でTPUを利用できるようにすると発表していた(このとき一部のデベロッパーに限定してアクセスを許可)。 それぞれのCloud TPUは4基のASICと64GBの広帯域メモリーを備える。Googleによれば、1つのTPUボードのピーク能力180TFLOPSだという。

すでにTensorFlowを利用して機械学習を実行しているユーザーは、新しいサービスを利用するためにコードを大きく書き換える必要はない。ただし当面、Cloud TPUを利用するのはワンクリックというわけにはいかない。アクセスを管理するため、「利用希望者はCloud TPUの利用割当を申請する必要がある」ということだ。割当を受けた後は、1TPU1時間あたり6.50ドルの料金となる。標準的なTesla P100 GPUがアメリカでは1時間1.46ドルで利用できる。ただしFP16によるピーク能力は 21TFLOPS程度だ。

機械学習で大きな実績を挙げてきたGoogleだけに、新しいクラウドTPUサービスにはユーザーが殺到するだろう。長期的にみれば、Googleにとって重要なのはGoogle CloudにAWSやAzureに対する差別化の要因を与えるところにある。クラウド・サービスも基本的な部分ではどれもほぼ横並びだ。コンテナ・テクノロジーのおかげで、プラットフォームを移し替えるのも非常に簡単になった。その点、TensorFlowとカスタムTPUはGoogle独自のものだ。少なくとも当面、機械学習の分野ではライバルは歯が立たないだろう。

〔日本版〕Cloud TPUはGoogleの日本サイト経由で登録できる

[原文へ]

(翻訳:滑川海彦@Facebook Google+

一歳を迎えたGoogleのTPUチップがアップグレード、機械学習/ディープラーニングのすそ野をさらに広げる

Googleが今日(米国時間5/17)のGoogle I/Oカンファレンスで、同社特製の機械学習チップTensor Processing Unit(TPU)の次世代バージョンを発表した。この、機械学習のタスクを高速化する専用チップは、従来のCPUやGPUよりも速いとされているが、昨年の同カンファレンスで発表されて以来、今回が初めてのアップグレードになる。

まず、スピードのアップだ。Googleによると、第二世代のTPUは1基が180TFLOPSの性能を有する。まだベンチマークは見ていないが、スピード以外でも進歩している。第一世代のTPUは既存のモデルを使って推論するだけだが、第二世代はモデルの訓練もできる。モデルの訓練は機械学習のワークフローの中でもとくに重要だが、その全過程をこの強力なチップがやってしまうのだ。

機械学習のモデルとは、たとえば写真に写っているものが木か車か猫かを正しく同定する能力のことだ。機械学習の推論とは、モデルを使って行う確率つきのオブジェクト同定処理だ。たとえば、“この写真に写っているのは85%の確率で木であってブロッコリの茎ではない”、などと推論する。

Googleの今日の声明文によると、同社の大規模な翻訳用のモデルを訓練するのに、市販の最良のGPU 32基を使用してまる一日、その1/8の台数の“TPUポッド”〔64TPUs, 11.5PFLOPS〕では午後の数時間で完了した、という。

GoogleのTenso Flowチップセット。写真提供: Google

このような比較はいつも、よく調べないと正しい意味が分からないが、とにかくGoogleは、GPUより速いと言っている。今日の機械学習の演算では多くの場合、もっとも強力なチップとしてGPUが使われているのだ。

さらにGoogleは、このチップの能力を同社のクラウドプラットホームからSaaSのサービスとして提供している。誰もが気軽に、この世界に入れるように。また、IntelのSkylakeとかNvidiaのVoltaなど、ほかのチップで作ったモデルを、TPUのクラウドへ移植して使うこともできる。

またコストをあまりかけられない試行や研究用には、無料のクラウドサービスTensorFlow Research Cloudがある。そこでは、研究者たちが、クラウド上の1000 TPUのクラスターを利用できる。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))