深度・色情報を取得できるAIカメラ「OAK-D OpenCV DepthAIカメラ」を2万5179円でスイッチサイエンスが発売

深度・色情報を取得できるAIカメラ「OAK-D OpenCV DepthAIカメラ」が2万5179円で日本発売、オープンソースハードウェアとして仕様公開

「OAK-D OpenCV DepthAIカメラ」

スイッチサイエンスは7月5日、Luxonis(ルクソナス)Holding Corporationのコンピュータービジョン用ハードウェア「OAK-D OpenCV DepthAIカメラ」(OAK-D)の発売開始を発表した。スイッチサイエンスのウェブショップでの直販価格は2万5179円(税込)。オープンソースハードウェア(MITライセンス)としてGitHub上含め仕様が公開されている。「OAK-1 OpenCV AIカメラ」(OAK-1)も近日発売される(価格未発表)。

OAK-D OpenCV DepthAIカメラ

OAK-Dは、ステレオカメラ2基と4Kカメラ1基を搭載し、深度情報と色情報を取得できるAIカメラ。インテルのVPU(visual processing unit:視覚処理装置)「Movidius Myriad X」を採用しており、顔認証、オブジェクト検知、オブジェクトトラッキングに利用可能。製品名にある「OpenCV」とは、オープンソースのコンピュータービジョン用ライブラリーのこと。また、Luxonisが開発した組み込み型空間AIプラットフォーム「DepthAI」は、MITライセンスのもと公開されており、Pythonなどですぐに利用できる。

OAK-D OpenCV DepthAIカメラの特徴

  • リアルタイムバックグラウンド演算により動きの予測が可能
  • 12メガピクセル JPEGエンコーディング(静止画)
  • H.264/H.265エンコーディング(4Kビデオ3.125MB/秒。Raspberry Pi Zeroでは4K/30fpsで録画可能)
  • 歪み除去。魚眼レンズに対応
  • オブジェクト検知、画像認識、セマンティックセグメンテーション
  • 対象のトラッキングが可能
  • MJPGエンコーディング
  • 3Dでオブジェクトのトラッキング可能
  • ステレオカメラ

「OAK-D OpenCV DepthAIカメラ」仕様

メインカメラ

  • 最大フレームレート:60fps
  • 最大フレームレート(4K):30fps
  • 解像度:12MP(4056×3040px)
  • モデル:MX378
  • FOV:81DFOV° 68.8HFOV°
  • F値:2.0
  • レンズサイズ:1/2.3インチ
  • オートフォーカス:8cm〜∞

ステレオカメラ

  • 最大フレームレート:120fps
  • 解像度:1280×800px
  • モデル:OV9289
  • ピクセルサイズ:3um×3um
  • F値:2.2
  • レンズサイズ:1/2.3インチ
  • FOV:81DFOV° 71.8HFOV°
  • フォーカス:19.6cm〜∞

インテル Movidius Myriad Xイメージプロセスユニット

  • 処理速度:4兆ops/秒
  • ベクター処理:16shaves
  • メモリ帯域:450GB/秒
  • ビジョンアクセレレータ:20+
  • Neural Compute Engine:2×ニューラルコンピュートエンジン(1.4tops)

また、OAK-Dモジュール(アルミシェル付き)、1m長のUSB3.0 Type-A – Type-Cケーブル、
ACアダプター(日本の電気用品安全法に準拠)が含まれる。

OAK-1 OpenCV AIカメラ

 

深度・色情報を取得できるAIカメラ「OAK-D OpenCV DepthAIカメラ」が2万5179円で日本発売、オープンソースハードウェアとして仕様公開OAK-1は、演算回数4兆ops(1秒間に4兆回の処理。operations-per-second)という高度なニューラルネットワークを作動させながらデータをUSBに出力可能というAIカメラ。12メガピクセルカメラとオンボード2.1Gbps MIPIインターフェイスを搭載。

「OAK-1 OpenCV AIカメラ」の特徴

  • オブジェクトトラッキング
  • Apriltag(ミシガン大学AprilTags Visual Fiducial Systemプロジェクトで開発されたARマーカー)対応
  • リアルタイムバックグラウンド演算により動きの予測が可能
  • 12メガピクセル JPEGエンコーディング(静止画)
  • H.264/H.265エンコーディング(4Kビデオ3.125 MB/秒。Raspberry Pi Zeroでは4K/30 fpsで録画可能)
  • 歪み除去。魚眼レンズに対応
  • オブジェクト検知、画像認識、セマンティックセグメンテーション
  • 対象のトラッキングが可能
  • MJPGエンコーディング
  • 3Dでオブジェクトのトラッキング可能
  • ロスレスズーム

「OAK-1 OpenCV AIカメラ」仕様

ステレオカメラ

  • 最大フレームレート:60fps
  • 最大フレームレート(4K):30fps
  • 解像度:12MP(4056×3040px)
  • モデル:IMX378
  • FOV:81DFOV° 68.8HFOV°
  • F値:2.0
  • レンズサイズ:1/2.3インチ
  • オートフォーカス:8cm〜∞

インテル Movidius Myriad Xイメージプロセスユニット

  • 処理速度:4兆ops
  • ベクター処理:16shaves
  • メモリ帯域:450GB/秒
  • ビジョンアクセレレーター:20+
  • Neural Compute Engine:2×ニューラルコンピュートエンジン(1.4tops)

Luxnoisは、「あたたのデバイスに人間に匹敵する視覚を埋め込む」をモットーに、イチから開発する手間を省き、組み込み型の機械学習とコンピュータービジョンを提供する企業。DepthAIを核とした、API、GUI、ハードウェアを提供している。

関連記事
ソニー「IMX500」採用、動線分析のリアルタイム処理も可能なエッジAIカメラ「S+ Camera Basic」高機能版登場
Linuxが動作する高性能AIカメラモジュール「M5Stack UnitV2 AI カメラ」が税込9592円で近日販売
フィックスターズ独自開発の視差計算ソフトがOpenCVに正式実装、自動運転などへの活用に期待
コンピュータビジョン界のRaspberry Piとなる「OpenCV AI Kit」が新登場
IntelがMovidius Myriad Xを発表、ディープラーニング機能が組み込まれたコンピュータービジョンチップだ

カテゴリー:ハードウェア
タグ:Intel / インテル(企業)OpenCV(製品・サービス)オープンソース / Open Source(用語)オープンソースハードウェアOpenVINO(製品)カメラ(用語)コンピュータービジョン(用語)スイッチサイエンス(企業)DepthAI(製品・サービス)Python(製品・サービス)MovidiusLuxonis Holding Corporation(企業)日本(国・地域)

IntelがMovidius Myriad Xを発表、ディープラーニング機能が組み込まれたコンピュータービジョンチップだ

IntelはMovidius買収1周年を迎え、新しいチップMyriad Xを披露した。

Myriad Xは一見、Myriad 2の「Pro」バージョンのように見えるものの、コンピュータビジョンを意識したチップとして大幅に再設計が行われたものだ。その新しい「Neural Compute Engine」を使って、新しく洗練されたディープラーニング機能を提供する。このことによって、Myriad Xを搭載したデバイスが環境からの情報を解釈することが容易になる。

Intel Movidiusの幹部Remi El-Ouazzaneは「このデバイスに直接埋め込まれた高速なインテリジェンスを使うことで、私たちの世界をより安全で、より生産的で、そしてよりパーソナルなものにする可能性は無限に広がります」と、ブログに投稿した

専用のコンピュータビジョンチップは、ほぼすべての電子デバイスで利用できると思われるが、Movidius Myriadチップを実装するインテルの主な目的は、ドローン、VR/ARヘッドセット、ロボット、そしてスマートカメラなどへの応用である。低消費電力SoCにより、デバイスは環境内のオブジェクトを識別し、変化を迅速に検知することに、より多くの能力を振り向けることができる。

Myriad 2は1秒間に約1〜1.5兆回の処理を実行したが、Myriad Xは1秒間に4兆回の処理を行なうことができる。より現実的な観点からすれば、インテルの最新のMovidiusチップを搭載したスマートなビデオカメラは、単に写真に人物がいるかどうかを認識できるだけではなく、その性別や年齢も識別できる可能性があるということだ。Neural Compute Engineは、相当に重い画像処理をエッジで行うことを可能にする。

このAIに最適化されたVPU(visual processing unit:視覚処理装置)は、コンピュータビジョンSoCでAIとディープラーニングにどのようにアプローチしていくかというMovidiusの野望を、Intelの買収がどのように拡大したかを良く示すものだ。

最新のMyriad 2チップは、引き続きIntelのビジュアル処理部品として大きな部分を占める。同社は価格設定について直接コメントしていないが、Myriad Xは間違いなくデバイスメーカーにとってより高価なオプションになるだろう。

[ 原文へ ]
(翻訳:Sako)

Movidius、今度はFathomを発表―どんなデバイスもUSBスティックでニューラルネットワークが利用可能

2016-04-29-fathom-movidius

数週間前にFLIRと提携してBostonスマート・サーマルカメラを発表し、大きな注目を集めたMovidiusが再び重要な製品を発表した。 同社はサーマルカメラでも使われたMyriad 2プロセッサのメーカーだが、新たな応用分野を発見した。Fathom Neural Compute Stickと名付けられたスティックはUSBをサポートするあらゆるデバイスにニューラル・ネットワークによるコンピューティング能力を与える。

ユーザーはFathomを文字通りどんなデバイス(コンピューター、 GoPro、Raspberry Pi、Arduino etc)のUSBポートにも挿してそれらをスマート化できる。Fathomeに内蔵されたMyriad 2プロセッサが画像をニューラルネットワークに読み込む(結局このチップがカギとなる)。

簡単にいえば、Fathomをプラグインとしたデバイスは認識能力を備える。カメラないし他のデバイスからの画像を高度なコンピューター・ビジョンで処理し、プログラムに従って独自の知的判断を下せるようになるという。重要なのは、こうした処理がすべてUSBスティック内で自己完結的に実行可能だという点だ。いちいちクラウド上の資源を呼び出す必要はない。

fathomnew

このUSBスティックに加えて、MovidiusはFathom Deep Learning Software Framework〔Fathom深層学習ソフトウェア・フレームワーク〕と呼ばれるアプリケーション開発プラットフォームも提供する。ユーザーはこのフレームワークを用いてアルゴリズムを最適化し、コンパイルすることができる。生成されたバイナリー・ファイルはきわめて低い消費電力でMyriad 2プロセッサ上で¥各種のコンピューター・ビジョンを実現できる。 Movidiusではフルパワー、ピーク・パフォーマンスは1ワットで、このとき画像16枚を処理できるとしている。Fathomeスティックの利用分野はもちろん画像処理だけにはとどまらない。

Movidiusではテスト用に1000個のスティックを用意しており、一部の企業、研究者、スモール・ビジネスに対しここ数週間のうちに無料で配布する。第4四半期には大量生産の開始が予定されている。価格は100ドル台になるもようだ。

ここまでが発表されたニュースだが、ではこのニューラルネットワークというのはいったいどんな仕組みで、どんな応用が考えられているのだろう?

Fathomは何ができるのか?

ニューラルネットワークの仕組みやFathomデバイスが現実にどのようなケースに応用できるのか理解するのはたいへん難しい。私は何時間も苦闘して(Movidiusには何回も電話した)やっとある程度のイメージをつかむことができた。以下は問題を大幅に簡単にした比喩的な理解だということを承知していただきたい。

コンピューターがある種のに画像をリアルタイムで認識し、プログラムされたとおりに反応することができれば非常に便利だ。たとえばドローンのコンピューターにどのような場所なら着陸に適しているか、広さや平坦さを覚えさせることができたらどうだろう? ドローンは適切な地点を自ら発見して着陸することができる。

こうしたことを実現するためには非常に複雑なコンピューター・システムを構築しなければならない。 GPUも大量に必要とするだろう。またユーザーはTensorFlowのようなオープンソースのライブラリーを用いて機械学習のためのニューラルネットワークを開発することになる。ソフトウェアが完成したら、次に何百、いや何万という画像をシステムに読み込ませ「着陸可能地点」の特徴を学ばせる。しかしドローンの着陸に適した場所としては裏庭、船の甲板、取り付け道路、山頂…あらゆるバリエーションが考えられる。

努力を重ねていけば、やがてシステムは自ら学習を進め、「着陸可能な地点を認識する」という目標に向けてアルゴリズムを改良していくだろう。だがこうしてシステムが完成したとしても、リモートのデバイスからシステムに接続しリアルタイムでの処理を実現するのは難事業だ。クライアント/サーバー・モデルではある程度の遅延は避けられず、情報の欠落も起きる。ドローンを着陸させようとしている場合、こうした遅延や脱落は致命的な問題を引き起こしかねない。

Fathom

Fathom Neural Computeスティックが解決しようとしているのはまさにこの種の問題だ。Fathomはニューラルネットワークに基づいたコンピューティング・パワーを自己完結的に内蔵し、リアルタイムで結果を返すことができる(どのように反応すべきかはFathomソフトウェア・フレームワークで アプリを開発する必要がある)。Fathomスティックを装着したデバイスはあたかも内蔵されたシステムであるかのようにコンピュータ・ビジョンを利用できる。

この例でいえば、ドローンは着陸可能地点を認識するためにクラウドと通信する必要はなく、デバイス内で判断を完結させることができるわけだ。しかも必要な電力は非常に少ない。

ひとことで言って、これはすごい。

さらなる応用

低消費電力で高度な画像認識機能を備えたハードウェアという点を理解すれば、あとは多少の想像力を働かせてFathomが利用できる応用分野をいくつも考えることができる。知的判断ができるドローンはその一例だが、コンテキストを認識するセキュリティー・カメラ、自動走行車、進化したレベルの自然言語認識等々だ。

またUSBスティックという小型軽量で接続にきわめて汎用性が高いフォームファクターはウェラブルデバイスが利用するにも適している。各種のヘッドセットへの応用がまず考えられるだろう(量産レベルとなればUSBスティックが外付けされることはなく、デバイスに内蔵されることになるだろうが)。仮想現実、拡張現実がメインストリームに参入しようとしていることを考えればFathomの影響は非常に大きくなりそうだ。

コンピューター・ビジョン (CV)のアルゴリズムは拡張現実、仮想現実、混合現実を実現するたの大きな柱の一つだ。したがってCVの機能を向上させ、フットプリントを小さくするような改良はどれも大きなインパクトを持つことになる。

ビジネス戦略的に考えても、MovidiusのUSBスティックは潜在的顧客獲得の手段として適切だろう。 拡張/仮想現実の実現を目指す大企業はすでにGoogleその他の大企業と提携している。しかしスタートアップや小規模メーカーは手軽に利用できるCVハードウェアを探している。モジュラー性が高く、安価であり手額に追加できるFathomモジュラーはそうしたメーカーにとって理想的なソリューションになる可能性がある。

画像: Movidius

[原文へ]

(翻訳:滑川海彦@Facebook Google+

FLIRとMovidiusが使ったスマート感熱カメラはより高度なIoTの姿を予見させる

boson-myriad2-w-thermal

今年で38歳にもなるFLIR Systemは、高度な、そして小型の感熱画像センサーとカメラを作って、モバイルのスタートアップたちがひしめくコンピュータビジョンの世界に独自の足場を固めている。その同社が今朝(米国時間4/18)、Boson Thermal Cameraという新製品を発表した。Bosonは小型の感熱カメラで、さまざまな用途がありえる:

  • 熱画像の撮影—80年代のシュワルツェネッガー主演映画「プレデター」でおなじみのやつ。
  • セキュリティやマーケティングのための顔認識
  • 歩行者認識(人数を数えたり、彼らの動きや活動を検出する)

MovidiusのJack Dashwoodによると、もっともっといろんなことができる、こういうカメラをソフトウェアで操作すれば、インターネットで悪評を浴びたCSIのズーム技術みたいなことでも、という*。〔*: CSI、テレビの人気連続刑事ドラマCrime Scene Investigation(現場科学捜査)。〕

製品の機能はともかくとして、ぼくはBosonに二つの点で関心を持った(誰もが愛するプレデターの視界を除いて)。ひとつは、小型化がさらに進んでいるので、対話的なアイウェア(eyewear, 眼鏡)への応用がありそうなこと。第二に、Bosonはプロセッサーを内蔵していることだ。それは、SoC, system-on-chipと相並ぶSoS, System-on-Sensorという新しいトレンドだ。

小型化

Bosonは、FLIRの前の機種TAU 2に比べて、サイズは半分、体積は1/10、重さは1/7、電力効率は2倍だ。今回の小型化は、Movidiusとのパートナーシップで可能になり、同社製のMyriad 2チップを使っている。Movidiusの小さな12コアの低電力消費プロセッサー(本誌記事)により、Bosonは前よりもずっと小さくなった。

そのために対話的なアイウェアやスマートグラス、ヘルメットなどへの装着が可能になり、それらのウェア自身も小型化と効率化が可能だ。これまでのヘッドアップディスプレイは、不格好でばかでかいだけでなく、そのために機能にも性能にも制限があった。

Tau 2 vs Boson

System-on-Sensor

もうひとつ重要なのは、System-on-Sensor(システム内蔵型センサー)という、新しいトレンドが予見されることだ。つまりプロセッサーを内蔵できるだけではなくて、センサーにいろんな新しい能力を実装できる。たとえば12コアのMyriad 2チップなら、Boson自身が画像を処理して結果(熱画像情報)をユーザーに提供できるだろう。顔認識アルゴリズムを、Boson自身がリアルタイムで実行することもできる。クラウド上などの別のサブシステムに処理をオフロードしなくてもよい。

低電力だからやれることに限界はあるが、でも一般にこういうSoSチップは今後のIoT(Internet of Things、物のインターネット)の能力を一段と高めるだろう。センサーがシステムをあらかじめ持っていれば、ほかの機器等とのネットワーキングもわりと簡単にできるようになる。

Peter Diamandisが唱える、10年後の一兆個のセンサーが支える経済が実際に訪れるなら、それはまさに、こんな現場&リアルタイムなカメラの上でニューラルネットワークが動き、情報を“記録する”のではなくて、“情報に対応して何かをする”世界だろう。小型の熱カメラ自体は小さな進歩でも、BosonとそのSoSは大きな未来を予見させてくれる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

デバイスが自分の視覚を持って行動できる時代に向けてビジョンプロセッサのMovidiusが$40Mを調達

482562125

GoogleのTangoタブレットが使っているビジョンプロセッサ(vision processor, 視野プロセッサ, 視界プロセッサ)を作っているMovidiusが、Summit Bridge Capital(Atlantic Bridge CapitalWestSummit Capitalの共同事業)が率いるラウンドにより4000万ドルを調達した。これは、ファブレス半導体企業への投資としては近年で最大である。

このラウンドに参加した新しい投資家はARCH Venture PartnersとSunny Optical Technology Group、そして初期の投資家Atlantic Bridge Capital、AIB Seed Capital Fund、Capital-E、DFJ EspritそしてRobert Bosch Venture Capitalも参加した。

シリコンバレーとアイルランドとルーマニアにオフィスのある同社は、新たな資金をR&D努力の強化と技術者の増員、および、同社製の高速コンピュータビジョンプロセッサをデベロッパたちが有効活用するための、ソフトウェアツールの改良に投じる予定だ。

waferextractdie

MovidiusのCEO Remi El-Ouazzaneによると、今後の数か月で同社の製品がいくつかの消費者製品の中に見られるようになる。その多くは、有名ブランドの製品だ。まだ具体的には明かさないが、彼によると、Movidiusはとても良いタイミングで消費者市場にやってきたと言える。彼が挙げるのは、ドローンやVR(仮想現実)への関心の増大だ。どちらも、同社の技術が完璧にフィットしている分野だ。たとえばドローンが自動で飛べるのは、自分のまわりを正確に見られて衝突などを避けられる場合に限る。正しいビジョン処理に基づく衝突回避は、もっとも高価なプロ級のドローンでさえ、精度の高い実装がまだできていないほど、難しい。

VR(とMicrosoftのHoloLensのようなAR)の分野では、Movidiusは位置と人間の目の動きを追跡する主役になる。VR体験が本当にリアルで没入的であるためには、レイテンシのない高速なビジョン処理が欠かせない。今、主なヘッドマウントディスプレイのメーカーは5社あるが、同社はそのうち3社と協働している。

El-Ouazzaneによると、今日のようなベンチャーキャピタルの投資活動が盛んな時代においてすら、半導体企業の資金調達はきわめて困難である。“資金調達のためのバーの高さがものすごく高い”、と彼は言う。しかもビジョンプロセッサには今、Intel、Nvidia、Qualcommなどの既存勢力が関心を示している。それでも、これまでに蓄えたIPとソフトウェアツールへの注力により、Movidiusが当分先頭を走るだろう、と彼は言う。“価格とパフォーマンスとパワーでMovidiusには勝てない、と彼らに納得させることが、われわれの責務だ”、と彼は語る。

おもしろいのは、Movidiusが最初から、車載用などの市場を放棄していることだ。これらの市場では製品を出すためのリード時間があまりにも長すぎて、小さなスタートアップではそれだけのキャッシュフローをまかなえないからだ。“うちは、最先端技術を必要としている高成長市場に向かう”、とEl-Ouzzaneは言う。

国別では、中国が今後の同社の重要な市場になるだろう、という。“われわれに合っている先端技術製品の一部に関しては、中国が先頭を走ることになる、と確信している”、と彼は言う。“たとえばドローンのトップメーカーDJIは中国企業だし、カメラモジュールの最大のメーカーも中国だ”。そこで同社が中国におけるプレゼンスを加速するためには、主導的投資家たちが中国に強いことが望ましい。今回のラウンドでは、WestSummitとAtlantic Bridgeがそれに相当する。

同社の今後のロードマップとしては、まずMovidiusのビジョンプロセッサの次世代機が近く登場する。El-Ouazzaneによると、“うちはこれから、高速コンピュータビジョンの黄金時代へ入っていく”。近未来の最先端製品の重要部分は、まわりに何があるかが分かって知的な行動のできる製品となる。消費者製品でも、学術あるいは産業用の製品でも。新たに大きな資金を獲得したMovidiusは、そのための視界・視野技術を先頭に立って開拓していきたい、という。それが彼の言う、“黄金時代”の意味だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

GoogleのProject Tangoを支えるMovidiusのビジョンプロセッサ、バージョンアップしてSDKを提供

Movidiusは、まだ見慣れない名前だと思うが、今年の初めにGoogleがProject Tangoのスマートフォンとタブレットを発表したときに同社の名前がちらっと登場している。このプロジェクトは、モバイルデバイスが高度な3Dの知覚を持つと何ができるかを探求するためのGoogleのテストベッドで、Movidiusはそのための特殊なビジョンプロセッサを提供している。

Movidiusが一般にデビューしたのはProject Tangoからだが、しかしそのときすでに同社は、そのチップの次のバージョンに取り組んでいた。そのMyriad 2と呼ばれるチップは、1に比べてエネルギー効率が良くなり、より強力になっている。

MovidiusのCEO Remi El-Ouazzaneによると、新バージョンはアーキテクチャが“ラジカルに改良され”、とくにメモリの新しいアーキテクチャにより、消費電力1ワットあたりの処理能力がMyriad 1の20倍に向上した。その計算能力は約3テラフロップで、消費電力は0.5ワットだ。この28ナノメートルチップには12基のプログラマブルなベクタプロセッサが載り、フルHDの入力を最大で毎秒60フレーム処理できる。

El-Ouazzaneによると、これだけの性能は、Project Tangoから学んだことの効果が大きい。あのプロジェクトの顧客たちは、複数のソースからのデータを同時に処理できることを求めていた。

しかしEl-Ouazzaneも言うように、このチップの真のすばらしさは、それが長期的に提供するユーザ体験にある。Project Tangoの場合は、3Dのセンシングが主な目的だったが、El-Ouazaaneがとくに強調したいのは、スマートフォン上の複数のカメラからの入力を処理してDSLR以上の体験と画質を作り出す、計算機支援による写真技術(computational photography)だ。“これによってついに、モバイルデバイスで完全にプロ級の写真を撮れるようになる”、と彼は言っている。

デバイスがMovidusのプロセッサを搭載すると、たとえばオートフォーカスがはやくなる。また、赤外線センサを搭載して、ひとつのシーンからより多くの情報を取り出し、それらの情報を組み合わせた写真を作ることもできる。今のスマートフォンでそれをやろうとすると計算力が追いつかないと思われるが、Movidiusのチップなら十分にそれが可能だ。

このビデオは、Project Tangoのパートナーの仲間であるMantis Visionがトライした3D技術の一端だ。

しかしMovidusのチップが提供するユースケースは、もっともっと多様だ。El-Ouazzaneの想定によると、今後の1年ぐらいは、モバイルデバイスと、3Dセンシングを使ったゲーム、屋内ナビゲーションなどが、主な応用系になるだろう、と。

スマートフォンのOEMたちも、ここらあたりを考えているものと思われる。AmazonのFire Phoneは市場にそれほどの衝撃をもたらさなかったけど、El-Ouazzaneはちゃんと見ていた。スマートフォンの新製品の発表会でメーカーのCEOがコンピュータビジョンについてこれだけ長時間を費やした例は、過去になかった、と。

Movidiusが長期的に期待しているのは、そのセンサチップが人間の社会的な役を代行するロボットや、自律飛行するドローンなど、あらゆるものに使われていくことだ。

しかし高度な3Dセンシングの多様な応用系の広がりは、OEMだけでなく一般的にいろんな方面のデベロッパが参加するエコシステムが支える。デベロッパコミュニティの重要性を早くから認識している同社は今日(米国時間7/30)、MyriadチップのSDK、Myriad Development Kit(MDK)と、アプリケーション開発のためのツールやフレームワークをリリースした。このキットに含まれているリファレンスボードには、複数のカメラとセンサがあらかじめ載っている。ただし今のところMDKは、NDA契約を伴う特定のデベロッパにだけ提供されるので、コミュニティの賑やかな盛り上がりはまだ先の話のようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))