小型高精度のレーダーシステムを作るEchodyneが$29Mを調達、ドローンや自動運転車にレーダー能力を実装

自動運転車は自分の回りのものを検出して接触や衝突を避けるための、センサーを必要とうする。しかも車が高速で動いているときには、前もって、正確に、十分に早く、ものを認識して衝突を避けることが必要だ。

そのための既存のシステムの多くが、何らかの光測検出系とカメラを主に利用している。しかし、そういうLiDAR(レーザー光測装置)やカメラの効力は天候に左右される。彼らは霧や塵埃、悪天候の中では視力が落ちる。遠くの物も、苦手だ。そして、その多くが十分な堅牢性とコンパクト性を欠き、おそらくドローンなどでは使えない。

そこで投資家たちは今、軽量レーダーシステムのEchodyneに2900万ドルを投資しようとしている。その製品はまずドローン用からスタートするが、今後は自動車やボート、移動能力のあるロボットなどにも利用できる。これでやっと、自動運転車が十分な自律能力を持つかもしれない。

この新たなラウンドでEchodyneの総調達額は4400万ドルになる。このシリーズBのラウンドを仕切ったのはNew Enterprise Associates、これにBill Gates, Madrona Venture Group, Vulcan Capital, Lux Capital, The Kresge Foundationなどが参加した。

Echodyneのレーダーシステムはコンパクトで軽いから、たとえば送電線や農地などを点検監視する商用のドローンにも乗せられる。そのポケットサイズのレーダーのデモを、本誌も今月の初めに報じた。その記事には、LiDARや従来のセンサーとの違いも説明されている。

EchodyneのCEO Eben Frankenbergによると、これまで作ってきたのはドローン用のレーダーのみで、今それを組み込んだ製品を開発中のドローンメーカー(複数)の社名は明かせない。自動車用のレーダーシステムは、まだ‘開発途上’だそうだ。

今回の資金の用途は、生産能力の拡大(今の年産数百台から数千台のオーダーへ)と、レーダーのソフトウェアの改良と機能拡張に充てられる。

“わが社のハードウェアは、既存の商用レーダーよりずっと進んでいる。ジェット戦闘機のノーズコーンに収まっている、フェーズドアレイレーダーのような使い方も十分にできる。でもレーダーが捉えた像で何ができるか、というソフトウェア的可能性は、まだ十分に汲みつくしていない。たとえば、ある種の、コンピューター・ビジョンのようなソフトウェアも可能なはずだ”。

同社のレーダーはポイントクラウド(点群)と像の両方を作るので、コンピューター・ビジョンの場合と同じように、ニューラルネットワークやAIによる処理も可能だ。それにより自動運転車などは、自分の環境をより正しく認識分類できる、とCEOは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

位置情報のTwilioを目指すRadarがExpa Labsからローンチ、どんなアプリにも位置関連サービスを簡単に実装できる

radar

デベロッパーが自分のアプリケーションに利用できるAPIのプロバイダ、支払い決済ならStripeがあり、アナリティクス(アクセス分析)ならMixpanel、通信ならTwilioがある。でも、位置はどうだろう?

大丈夫。これからはRadarがある。

RadarのファウンダーNick PatrickとCoby BermanはともにFoursquare出身で、彼らは、人びとがFoursquareを必要としている以上に、いろんなアプリケーションが位置サービスを必要としていることを悟った。もちろんそれを、各デベロッパーがゼロから実装するのはたいへんすぎる。

Patrickは、お掃除のオンデマンドサービスHandyにいたときに、同社のお掃除スタッフが今どこにいるか、顧客に分かるようにいしたい、と思った。そういうバックエンドサービスがあれば実装は簡単なのだが、意外と、そんなAPIプロバイダがなかった。

そこでPatrickとBermanはRadar社を作り、そして同社は今日、インキュベータのExpa Labsを巣立った

Radarのユーザーとなったデベロッパーは、Radar SDKを簡単に統合して、ジオフェンス(仮想領域機能)や、場所への出・入りイベントの追跡など、位置関連の機能を実装できる。そして最終的には、彼/彼女のアプリケーションに位置機能があることによって、エンドユーザーの体験をより快適にできる。

  1. dashboard_users.png

  2. dashboard_geofences.png

Patrickによると、デベロッパーはRadarを使うことによって三つのプラスを手に入れる: ユーザーエンゲージメントの増加、売上〜収益の増加、そしてアプリケーションの操作性の向上。

たとえばTinderに位置機能があれば、お互い意気投合した同士が、相手がすぐ近くにいることを分かる。小売店がeコマースの機能を持ったとき、位置機能があれば、お店の近くのお客さん限定の売り出しを企画できる。またHandyやPostmatesのようなオンデマンド・サービスは、位置追跡機能を自分で作らなくても、Radarを統合すれば、サービスマン/ウーマンが今どこにいるかを、待っている顧客にリアルタイムで伝えられる。

“APIを作るときの最大の課題は、ありとあらゆるユースケースを想定して、それらすべてにエレガントに対応できるようにすることだ”、とPatrickは語る。

今日一般公開されたRadarには、試してみたいデベロッパーのための無料プランもある。またエンタープライズ向けのプランには、手取り足取りのサポートがつく。こちらの料金は、APIの使用量で決まる。

Radarに保存される位置データには、その位置の帰属者情報がもちろんつくが、前者と後者は物理的には別の場所にある。両者の対応関係は、ハッカーには分からない。したがって個人情報や企業の機密情報などが外部に漏れるおそれがない。

Radarは巣立ちにあたってExpa Labsから50万ドルの支度金をもらった。

Radarをここでチェックしてみよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

光に頼らないOryxのナノアンテナは自動運転車の視界能力を大幅に高める

the-gap

写真和訳: [自動運転の視覚の欠陥/今の技術はソフトウェア脳の要件レベル3以上に対応できない/視界カメラ(単眼/立体),ライダー,レーダー,超音波…センサー群/小動物・都市の混雑・夜の視界・まばゆい日射し・霧,雪,雨・高速時視程/ソフトウェア脳の処理能力]

Oryx VisionのCEO Rani Wellingsteinによると、同社は、自動運転車の奥行き知覚を改善するコヒーレントな光学レーダーシステム(coherent optical radar system, 仮訳: 可干渉光学レーダーシステム)を開発した。イスラエルの同社は、シリーズAの資金調達を契機にステルスを脱し、既存のライダーシステムに挑戦する技術、と自らを位置づけている。

Wellingsteinが指摘するのは、これまでのライダーが光電子センサーで光を、すなわち光のエネルギーを検出することだ。しかしOryx Visionは、同社がナノアンテナ(nano antennas)と呼ぶものを利用して、電磁波を検出することにより、もっと多くの情報にアクセスする。

そのアドバンテージは、自動運転車の視程と感度の増加であり、それにより、自分のまわりの物や動きをより正確に知ることができる。Oryxのアンテナは10ミクロンの波長で動作し、ライダーと違って、霧を透視でき、また強い陽光で盲目化することもない。

Oryxの技術者たちがライダーの欠陥の克服、という課題に着手したのは、およそ6年前だ。プロトタイプの完成までに1年半を要し、ようやく、実用レベルの撮像能力に達することができた。

Oryxによると、同社のアンテナは、今の最高性能の自動運転車に使われているライダーシステムよりも安価である。同社のシステムが使っている撮像機構のコストは、スマートフォンのカメラと同じぐらいだ。そしたさらに同社は、“地球上で最も安価な最も平凡なレーザー”を使用している。そのシステムは光学系がきわめてシンプルで、操舵、回転などの要素がなく、また光線をいっさい利用しない。

Oryxの社員は20名ほどだが、資金調達を機にイスラエルとシリコンバレーとドイツに人を増やし、自動車メーカーや自動運転技術の革新的スタートアップたちの需要に応じていく。将来的には、今多用されている人間運転者をアシストするシステムではなく、完全な自動運転車への採用を目指したい、とWellingsteinは語る。

“AppleやGoogleなど、これまでこの分野に意欲的に取り組んできた選手たちが、今や撤退しつつある。技術の完成度が、まだ十分ではない、と私は思う。自動運転は視覚と意思決定に関する技術だ。しかし現状では、この二つのもののあいだに、空隙がある。そのギャップを埋めるためには、別の技術、ライダーではない別のセンサーが必要だ、でも今の選手たちの多くが、“別の技術”に無関心だ。しかしわが社が志向するものは、まさにそれなのだ”、とWellingsteinは抱負を語った。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、Projcet Soliのレーダーセンサーをスマートウォッチとスピーカーに塔載

soli-style

毎年I/Oカンファレンスでは、GoogleのATAP、即ち同社の少しおかしなアイデアを製品化する部門が、独自の短いキーノート講演を披露する。今年もいくつかのプロジェクトの最新情報を報告した。その一つであるProject Soliは、非常に小さなレーダーセンサーを作り、手の動きをデジタル信号に変えて、ウェアラブルに新しいユーザーインターフェースをもたらそうとするものだ。

昨年のI/Oデモ以来、チームはこのプロジェクトをデベロッパーの手に渡すことに集中してきた。昨年最初のデベロッパーキットを約60社に配布した。センサーを使ってみたデベロッパーの反応に勇気づけられているとチームは話した。既に物体認識ツール、楽器等が作られている。

ただし、初期のキットは限定された環境でのみ使用できる。必要な電力が大きすぎるため、センサーは小さくても、動作にはフルパワーのデスクトップまたはノートPCが必要だ。

soli interact

もちろんこれでは実用にならないので、チームはこれをスマートウォッチで動かすことに挑戦している。そのために、チップにInfineoinを使い消費電力を22分の1に減らした ― 1.2 Wから0.054 Wへ。大きさも3分の1になった。

レーダーは一般に大量のCPUパワーを必要とするが、この新バージョンは256倍効率が高く、それでも毎秒1万8000フレームで動作する。

こうした努力を経て、チームはSoliをスマートウォッチに組み込むことに成功した(「そして時も知らせる!」)

soli

これは、触れることなくウォッチを操作できることを意味している ― 基本的なジェスチャーを使って操作できる。デモでは、ATAPチームが手をウォッチに近づけたり離したりするだけで、驚くほど正確にメッセージをスクロールさせて見せた。バーチャル・ダイヤルジェスチャーで、文字盤を操作することもできる ― アナログ時計を使うのと同じように。

ATAPチームによると、これを使うと画面に表示できる情報が増えるという。なぜなら、指が文字盤を隠すことがないからだ。

しかし、Soliはスマートウォッチだけに作られたのではない、とチームは指摘する。HarmanのJBLブランドと協同で、Soliレーダー内蔵スピーカーのプロトタイプを作っている。センサーは最大15メートルまで検知できるので、スピーカーから離れていても操作が可能だ。

soli watch

デベロッパーコミュニティーををさらに拡大すべく、ATAPは新しいベータ品質のキットを来年提供する予定だ。

残念ながら、最初のProject Soli製品が登場する時期はわかっていない。しかし、ATAPはLevi’sと協同でProject Jacquardのスマート布地を市場に出そうとしており、Soliでも同じことをする可能性は高い。

soli betakit

[原文へ]

(翻訳:Nob Takahashi / facebook