超低消費電力AI推論アクセラレーターIPのLeapMindがパートナープログラム開始

超低消費電力AI推論アクセラレーターIPのLeapMindがパートナープログラム開始

ディープラーニング技術を活用する企業に向けソリューションを提供するLeapMindは10月15日、エッジAIの社会実装に向けた「Efficiera(エフィシエラ) FPGAパートナープログラム」の提供を開始したと発表した。

パートナー企業とともに、顧客課題を解決できるAI搭載製品、ソリューションの開発を共創し、エッジAI領域の市場拡大と機械学習の社会実装の実現を加速する。第1弾の認定パートナーとしては、マクニカ アルティマ カンパニーPALTEKジーニックが参画している。

LeapMind開発の「Efficiera」とは、FPGAデバイス上もしくはASICデバイス上の回路として動作する、CNNの推論演算処理に特化した超低消費電力AI推論アクセラレーターIP(今秋正式リリース予定)。量子化ビット数を1~2bitまで最小化する「極小量子化」技術によって、推論処理の大部分を占めるコンボリューションの電力効率と面積効率を最大化する。このため、最先端の半導体製造プロセスや特別なセルライブラリーを使用する必要がないという。

極小量子化技術では、推論モデルを構成するパラメータを、通常用いられる単精度浮動小数点数(32bit)から1bitまたは2bitに置き換えることで、軽量化を達成。一般には、性能の劣化を起こさない限界は8bitまでとされているが、LeapMindは、8bitを大きく下回る1bitのWeight(重み係数)、2bitのActivation(入力)という組み合せでも性能をほとんど劣化させないことに成功した。

超低消費電力AI推論アクセラレーターIPのLeapMindがパートナープログラム開始

超低消費電力AI推論アクセラレーターIPのLeapMindがパートナープログラム開始

また、モジュールやデバイスではなく回路情報をライセンス提供するため、他の回路と同一デバイス上にEfficieraを集積でき、ディープラーニング機能を搭載した量産製品のBoMコスト削減に貢献できるという。同製品を利用することで、家電製品などの民生機器、建設機械などの産業機器、監視カメラ、放送機器をはじめ、従来は技術的に困難であった電力とコスト、放熱に制約のある小型機械やロボットなど、様々なエッジデバイスへディープラーニング機能を組み込めるとしている。

超低消費電力AI推論アクセラレーターIPのLeapMindがパートナープログラム開始

Efficiera FPGAパートナープログラムは、「顧客課題を解決可能なAI搭載製品・ソリューションの共創」を目的とするプログラムとなっている。

同プログラムに参画することで、自社製品・サービスとEfficieraを組み合わせて顧客の要望に応じたサービスやシステムの開発・提供や、Efficieraに付加価値をつけたパッケージサービスの開発が可能としている。

LeapMindは、「機械学習を使った新たなデバイスを、あまねく世に広める」を企業理念に2012年創業したスタートアップ企業。累計調達額は49.9億円に達しているという。ディープラーニングをコンパクト化する極小量子化技術に強みを持ち、自動車産業など製造業中心に150社を超える実績を保有。ソフトウェアとハードウェア両面の開発ノウハウを元に、半導体IPEfficieraを開発している。

関連記事
Google for Startups Acceleratorが国内でスタート、空やRevcommが選出
LinkedInが「TOP STARTUPS」ランキング日本版を初公開、どのようなスタートアップが優秀な人材を惹きつけているか?
エッジ処理向けの深層学習モデルを開発、LeapMindがIntel Capitalなどから11.5億円調達

カテゴリー: 人工知能・AI
タグ: EfficieraFPGAディープラーニング / 深層学習LeapMind日本

自動運転におけるAI技術を競う「自動運転AIチャレンジ 決勝」が9月23日から開催

自動運転におけるAI技術を競う「自動運転AIチャレンジ 決勝」が9月23日から開催

公益社団法人自動車技術会は9月7日、「第2回自動運転AIチャレンジ 決勝」を開催すると発表した。開催期日は2020年9月23日~11月6日(予定)。後援は経済産業省(予定)、東京大学生産技術研究所、一般社団法人日本自動車工業会、一般社団法人日本ディープラーニング協会。

競技では、自動運転車で複数課題をクリアしながら注文品を損なうことなく迅速丁寧に届けるというタスクをオンライン上のシミュレーターで競う。競技詳細と参加チームは後日発表予定。

同大会は当初、2020年6月14日に東京大学生産技術研究所附属千葉実験所(柏キャンパス内)で実車を使用し「認識部門」と「制御部門」の競技を行う予定だったもの。新型コロナウィルス感染防止の観点から実車競技を中止し両部門をまとめ、オンラインシミュレーションによる決勝実施を決定。参加者はプログラムを提出しシミュレーションの結果で優劣を競う。

12月中旬に結果を公表し、表彰式(一部オンライン)を開催予定。12月下旬には、各チームが作成したプログラムから走行映像を作成し、仮想的に並走させた動画を解説付きで公開する予定。

Connected(コネクティッド)、Autonomous/Automated(自動化)、Shared(シェアリング)、Electric(電動化)からなる「CASE」と呼ばれる新たな技術領域が自動車業界の競争の中心となる中、AIおよびIT技術者が不足しており、自動車業界全体で急速に必要性が高まっているという。

そこで、今後の自動車業界を牽引する技術者の発掘・育成の為の新たな取り組みとして、自動運転におけるAI技術を競う国際的な大会を開催。産官学が協力して行うこの大会を起点に、自動車産業のさらなる発展に寄与する枠組みの構築を目指すとしている。

なお、「認識部門」は経済産業省主催 第2回AIエッジコンテスト上位チームを招待。当初は、同コンテストで開発した物体認識アルゴリズムをFPGAに実装し、これを自動運転ソフトウェアと連携させる競技を新たに実施するものとしていた。

「制御部門」は本会主催オンラインシミュレーション予選通過チームの参加を予定しており、現在参加意思の確認中という。制御部門ではFPGAを用いず、ノートPCにインストールした既定の物体認識アルゴリズムを自動運転ソフトウェアと連携させて競技を実施予定だった。

また現在「認識部門」から6チーム、「制御部門」から9チームが参加候補としている。

軌道上で設定変更可能で機械学習に最適化されたXilinxの宇宙規格チップ

宇宙に特化した半導体メーカーのXilinx(ザイリンクス)が開発した、宇宙空間や人工衛星で利用可能な新型プロセッサーは、いくつもの点で世界一を誇っている。宇宙向けとしては初めての20nmプロセスを実現し、演算能力と省電力性を高めている。そして、ニューラルネットワークをベースにした推論アクセラレーションによる高度な機械学習に対応する性能を備えたのも初めてだ。

このプロセッサーはFPGA、つまり基本的にユーザーが設定を変更できるハードウェアなので、必要に応じて調整が行える。機械学習の面では、演算命令実行回数が「深層学習に最適化したINT8のピーク性能」で最大5.7TOPS。これは、ひとつ前の世代と比較して25倍もの性能アップだ。

Xilinxの新しいチップは、いくつかの理由で人工衛星市場で多大なポテンシャルを発揮できる。ひとつには、プロセッサーのサイズが格段に小さくなったことだ。同社がこれまで作ってきた耐放射線チップは65nmプロセスのみの提供だった。つまりこれはサイズ、重量、電力消費量における大幅な改善を意味する。このどれもが、宇宙での使用を語る際に非常に大切な要素となる。何故なら人工衛星は、打ち上げコストと宇宙空間で使用する推進剤の必要量を減らすために、できるだけ小さく軽く作る必要があるからだ。

もうひとつは、書き換え可能であるため軌道を周回するアセットは、必要に応じてプログラム変更をして別の仕事にあたらせられることだ。その仕事に今回、機械学習アルゴリズムのローカルでの処理が加わった。つまり理論的には、例えば雲の密度と気候パターンを追跡するよう設定された地球観測衛星を、森林破壊や鉱物の露天採掘を推論させる衛星に変更することが可能だ。また、市場の需要が大きい地域に衛星を集合させたい衛星コンステレーションの運用にも、大きな柔軟性をもたらす。

Xilinxのチップはどれも、地上で使うものといろいろな点で異なっている。前述の耐放射線性能もそのひとつだ。また、パッケージは分厚いセラミックでできており、激しい振動といった外部からのストレスが加わる打ち上げ時にも、空気がないために放射線や温度の点で過酷な環境にさらされる軌道上でも、確かな耐久性を確保できるように作られている。

[原文へ]
(翻訳:金井哲夫)

Amazon AWSのクラウドコンピューティングサービスEC2にFPGAインスタンスがお目見え、ビデオや機械学習ではGPUより強力

img_20161130_083641

AmazonのクラウドコンピューティングサービスAWSが今日、FPGA(field-programmable gate array)を使用する新しいインスタンスタイプ F1を発表した。FPGAはその名のとおり、ユーザーが現場でプログラミングできるゲートアレイで、アプリケーションの目的に合った特殊な構成もできる。そのため、場合によっては、従来のCPU/GPUの組み合わせを上回る高速が期待できる。

これらの新しいインスタンスは、AWSのUS Eastリージョンでは今日からプレビューで可利用になり、一般供用は年末頃からとなる。料金はまだ発表されていない。

まだそれほど広く普及しているわけではないが、最近のFPGAは価格も手頃になり、プログラミングも容易になった。そろそろ、もっと多くのサービスで使われるようになりそうだ。今回のようにクラウドからFPGAを提供することになると、多くのデベロッパーによる実験的な利用も拡大するだろう。

f1_fpga_floor_2

“つねに、いろんなものを自分で試してみて、それから一般ユーザーに提供している”、とAWSのCEO Andy Jassyは述べている。

新しいF1インスタンスは、HDや4Kのビデオ処理やイメージング、および機械学習で、GPUに代わって使われることになりそうだ。たとえばMicrosoftは、同社のAIサービスのバックエンドをすべてFPGAで構成している。一方Googleは、自家製専用チップという、高価な路線を選んでいる。FPGAは途中でプログラムを書き換えられるから、アプリケーション内でコンテキストの切り替えが容易にできる。たとえばある時点で未加工の画像を処理していたが、その次にはFPGAをディープラーニング向けに再構成して、その画像を数ミリ秒で分析する、といったことができる。

AWSと共にこのF1インスタンスをテストした企業のひとつNGCodecは、VR/AR処理のためのRealityCodecコードをこれらの新しいインスタンスに移行したが、移行はわずか4週間ほどで完了した。理想としては、これまで手元のデバイスで駆動することが当然だったVR/ARのヘッドセットの、駆動と複雑なビデオ処理を、クラウドからできるようになるかもしれない。NGCodecのファウンダーOliver Gunasekaraによると、コーデックに使ったケースでは、FPGAがGPUよりも優勢だった。エンコーディングには大量の意思決定過程があり、GPUはそれらをCPUにやらせる場合が多いからだ。またこの種のシナリオでは、電力効率もFPGAの方が良い。

Amazonは、Xilinxのチップを使っている。最後に残った、独立系の大手FPGAメーカーだ。新しいインスタンスのスペックは、次のとおり:

  • Xilinx UltraScale+ VU9P, 16nmプロセスで製造。
  • 64 GiBのECCで保護されたメモリ, 28ビット幅のバス上(4つのDDR4チャネル)。
  • CPUへのインタフェイスはそれ専用のPCIe x 16。
  • 論理成分数は約250万。
  • 約6800のDSP(Digital Signal Processing)エンジン。
  • デバッグ用のVirtual JTAGインタフェイス。

しかしFPGAのプログラミングは今でも難しいし、Amazonがそれを容易にするツールを出す気配はない。でも、開発キットはあるだろうし、デベロッパーがこれらの新しいインスタンスを使い始めるために利用できるマシンイメージ(Amazon Machine Image)も提供されるだろう。

NGCodecのGunasekaraによると、Xilinxも、CやC++のような共通言語でFPGAをプログラミングできるためのツールを、多少提供している。同社は、F1インスタンスのためのデコーダーを、それらのツールを使って設計したようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

サティア・ナデラが語る、人工知能が変革するMicrosoft

satya_1

MicrosoftのCEOサティア・ナデラは同社の開催する大規模な開発者会議Igniteのステージで、ディープラーニングと人工知能がどのように同社を変えていくのかについてのビジョンを発表した。

「AIは私たちの野心の交点に位置するのです」。ナデラは「大規模なデータに意味を与え、それを知性へと変換していくことを」AIがどのように可能にするのかを指摘した。彼はAIを書籍やウェブの登場になぞらえつつ、私たちは程なくあまりにも大量のデータを生み出してしまうので「どのように物に名前をつければよいかも分からない地点に辿り着くだろう」という冗談を口にした。

しかし、それはまた、問題も生み出している。「この情報爆発の中で、足りないままなのは人間の意志と時間です – このすべての情報の中から意味を見出す私たち自身の能力が不足しているのです」と彼は語った。

マイクロソフトの中で、この転換は現在、Cortanaのようなエージェントや、SwiftKeyおよびOffice 365のようなアプリケーション、そしてCortana Intelligence SuiteやAzure cloud computing platformのような開発者向けツールとプラットフォームといったいくつかのエリアで進行している。

サトヤ・ナデラ

エージェントについては、ナデラはその野心として狙っているのは「テキスト入力を受け入れ、音声入力を受け入れ、あなたを深く知っている。あなたの文脈、あなたの家族、あなたの仕事を知っていて、そして世界を知っている」ような知的アシスタントを作ることだと述べた。そしてまた、このエージェントは束縛を受けずに、どのプラットフォーム上でも、どのアプリケーションの中でも使えなければならないと強調した ‐ たとえそれがMicrosoftの制御下にないものであったとしても。

「Office 365で行われたことは、単にクラウドへの移行ではありません」とナデラ。「最も意義深い転換は、Office 365のアプリケーションを支えるデータはグラフ構造になっているという事実です。そして信頼できる、プライベートな保存方法で、私たちはこのデータを意味付けて、知性を生み出すことができるのです。それこそがOffice 365で行われた本当に意義深い転換なのです」。

ボット・アット・マイクロソフト

彼はまた、Outlookの「優先」受信トレイやSkypeのリアルタイム翻訳、Wordのよりスマートなスペル修正機能、そしてWordの新しいツールであるTap(訳注:文書を書いている際に文脈に応じて既存の文書を1タップで呼び出せる機能)などが、どのようにこのAIを活用していくのかについて述べた。

ナデラは特に同社のCRMツールであり主要な収入源であるDynamics 365が、この技術を如何に活用できるかについて強調した。「たとえば販売というものを考えてみましょう」と彼は語る。「どのようなビジネス・アプリケーションでも、いつでも世界を明示的にモデル化していました。[…中略…]しかし、ここには1つの切実な問題があります:ほとんどの販売アクティビティはCRMシステムの外で発生するのです。だからここで考えているAIの目標は、あなたの販売データモデルの意味を分析することができるようになることなのです。CRMシステムの内部だけではなく外部でも」。

この文脈の中で、ナデラはまた、同社が6月に買収したLinkedInからの関係データがいかに活用できるかを説明した。

開発者のためには、このAIに開発者自身の独自アプリケーションからアクセスするためにCortana Intelligence Suiteが用意されている。ツールセットには、今やボットフレームワークも含まれている。ナデラは、どのビジネスもある時点になれば会話エージェントを利用すると考えている。

Microsoftは現在、ファンタジーフットボール(訳注:実在の選手を使って仮想的なチームを作り、仮想的なゲームを楽しむこと)のボットを作成するためにNFLと協力している、またUberは現在、ドライバーと乗客を認証するためのCortana Cognitive Servicesの顔認識ツールを使っている。ナデラはまた、Microsoftがボルボと協力して、ドライバーの注意力が散漫になっていることを検知する(そして警告を行う)システムの開発を行っていることを述べた。

dsc06836

これらの技術をMicrosoftのHoloLens複合現実ヘッドセットと組み合わせることによって、「私たちの時代の、2つの最先端の魔法技術」を手にすることができる。例えば、 Lowe’sは顧客は台所をHoloLensを使ってデザインできるアプリケーションを開発している、しかし同社は今日また、複数のセッションから集められたデータをどのように利用できるかについても説明を行った ‐ その中には人の視線を追跡したデータを集めたものも含まれている ‐ 体験を改善し、アイテムの並べ方をよりスマートにするためにデータを役立てることができるのだ。

dsc06842

マイクロソフトが「クラウドファースト、モバイルファースト」の世界に私たちが住んでいることを語るのが大好きであることを考えれば、ナデラがさらにMicrosoftのAzure cloudについて語ったことは驚きではない。彼は、ディープラーニングモデルを訓練するために、AzureがどのようにGPUベースのマシンへアクセスを開発者達に提供するのか、そしてどのように最近FPGAの利用を始めたのかについて強調した。ナデラはこのFPGAを使ったクラウドを「初のAIスーパーコンピューター」と呼んだ(とはいえFPGA代わりにカスタムチップを実際に利用しているGoogleこそが、おそらく「初」の冠を主張しても良いだろう。この手のデプロイメントで最大規模のものではないとしても)。Microsoftのコグニティブサービスの一部は既にこのプラットフォーム上で動作していて、Azureはそのネットワークインフラストラクチャの速度向上のためにそれを使用している。

「ここで大切なのは私たちのテクノロジーではありません」クロージングとしてナデラはこう語った。「私にとって本当に大切なのは、皆さんの情熱、皆さんの想像力、そして私たちが作成した技術を使って皆さんができることです。一体どんな社会問題を、そしてどんな産業を、みなさんは再構築してくれるのでしょうか。それこそが本当に私たちが夢見ていることなのです。かつて私たちが皆さんの指先に情報を連れてきたように(訳注:かつてビル・ゲイツはInformation at Your Fingertipsという標語を掲げていた)、私たちはAIを皆さんのものにしたいのです」。

dsc06851

[ 原文へ ]
(翻訳:Sako)

Googleは機械学習アルゴリズム専用の高速チップを内製、なんと、8ビット機だ

tpu-2

GoogleのデベロッパーカンファレンスI/Oにおける発表によると、同社は機械学習のアルゴリズムの高速化に特化した独自のチップの構築を最近開始した。

tpu-1

その特製のチップはTensor Processing Units(TPU)と呼ばれ、同社のテクニカルインフラストラクチャ担当SVP Urs Holzleによれば、すでに同社のデータセンターで1年あまり使われている。またGoogleによれば、それは“性能が大幅に最適化されているので、1電力単位(ワット)あたりの機械学習実行効率がきわめて高く”、しかも、“通常なら7年はかかる技術進歩を1年で達成している”そうだ。

機械学習アルゴリズムの実行におけるTPUの高速性は、一般的なCPUやGPUほどの計算精度が要らないことにも由来している。つまり32ビットではなく8ビットで十分なため、演算に要するトランジスタも少なくてすむ。

Googleの音声認識サービスを利用すると、ユーザーのクェリは今すでにTPUが処理する。またデベロッパーが利用するGoogleのCloud Machine Learningサービスも、TPUによるサービスだ。最近囲碁の世界チャンピオンを負かしたAlphaGoも、そのプロセッサーはTPUだ

Holzleによると、特定のアルゴリズムのきわめて高効率な実行を求めるなら、柔軟性に富むFPGAを利用することは最適ではない。そこで、専用チップの内製に踏み切った。

チップを実際に製造しているファンドリーの名前は公表されなかったが、Holzleによれば、今はプロダクション(本番稼働)において二種類のリビジョンを使っており、それぞれが異なるファンドリーで作られている、ということだ。

Googleはすでに、同社のオープンソースの機械学習アルゴリズムTensorFlowを公開しているが、TPUが今動かしているのも、当然かもしれないが、そのライブラリのコードだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))