Nexarが80ヵ国以上で撮影された5万5000枚の路上写真を、自動運転技術加速のためにリリースした

Nexarは、自動運転技術開発のために、地理的に多様な画像が含まれている、(同社が言うところの)世界最大の写真セットを、その主催するオープンコンペティションのために公開した。さまざまな照明や気象条件の下、80カ国以上で撮影された5万5000枚のタグ付き写真がセットには含まれている。それぞれの写真は、Nexarのコミュニティベースの、iOSならびにAndroid用アプリ、V2V dashcamを使って路上で撮影されたものだ。このリリースの目的は幅広い天候状況や道路や国ごとの違いに対応可能な自動運転知覚モデルを開発を助けることだ。

NEXETと呼ばれるNexarの画像セットのリリースは、同社によって研究者たちに提示された挑戦の一部だ。それは様々な状況下、異なる地理的条件の下で、常に一定のパフォーマンスを発揮できる自動運転車のための知覚システム開発を促す挑戦である。

Nexarは、彼らの目標を、現在の多くの研究が内在する大きなギャップ、すなわち現実世界の非常に限定された領域や、シミュレーションや、実験室環境の映像を訓練のために使用している状況にアプローチすることだと語っている。ソフトウェア開発者なら誰でも、現実の状況に対処するときにのみに遭遇する問題があることを認識している。そしてそれは自動運転車のシステムを訓練する場合でも全く同じだ。いまなお、エッジケースを扱う上で大きなハードルがある。iPhoneアプリなら例外的なユースケースであっても被害はそれほど大きくはない、しかし運転の場合には、生死を分ける違いとなる可能性がある。

Nexarの全体目標は、世界各地の民生機器を介して集められた複数のストリームデータを組み合わせた、Advanced Driver Assistance System(先進的運転支援システム)を構築することだ。そして今回のコンペティションはその試みをさらに押し進めることができるようにデザインされている。しかし、最終的な業界へ価値も明らかだ。そしてこれだけの量と種類のデータセットに普通に出会うことは難しい。

[ 原文へ ]
(翻訳:Sako)

ダイムラーとボッシュ、駐車場のドライバーレス化を企図

ダイムラーとボッシュ(Bosch)が共同で、自動車運転に伴うもっとも面倒なことを改善するためのテクノロジーを実現しようとしている。「面倒なこと」とは、駐車スペース探しおよび駐車作業のことだ。ドイツのシュトゥットガルトにあるメルセデス・ベンツミュージアムにて、自動駐車システムの試験運用を開始したのだ。入り口で自動車を降りれば、自動で利用可能な駐車スペースを選択して駐車してくれる。

ミュージアムにおけるシステムの本格稼働は2018年を予定している。スマートフォンを通じて、ミュージアムから車をレンタルすることができるようになる。レンタル予約した車は自動的にピックアップエリアにやってくる。予約に用いたのと同じアプリケーションを利用して、開始手続きをすればただちに車を利用することができるのだ。そして車を利用し終われば、ミュージアム内に備えられたシステムとオンボードセンサーが連携して、適切な駐車スポットに自動的に駐車して利用完了となる。

システムを提供するのはボッシュで、メルセデス・ベンツ製の車載システムと連携して動作することとなる。ミュージアムおよび車載のセンサーが連携して障害物や歩行者を検知する機能も備えている。

システムのテスト運用が本日始まったわけだが、テストを通じて安全協会(safety agencies)や地方行政府からの運用許可を得ていく予定にしている。来年の早い段階で正式運用に移れる予定だとのこと。

テスト期間を通じて、利用者に受け入れられるのか、また実際の運用の様子をモニターしていくことになる。ボッシュとダイムラーは、この仕組みを広く提供することで、駐車場運用を大幅に効率化することができるとしている。スペース的にみても20%の効率化が望めるのだとのこと。膨大な投資や既存設備の大幅変更を行わずに、社会を効率化できるのだそうだ。一般道での自動運転の普及にはもう少し時間がかかりそうだが、用途を限定することで自動運転の実用化をしようとする意図もあるわけだ。

原文へ

(翻訳:Maeda, H

MicrosoftはクラウドサービスでBaiduの‘自動運転車のAndroid’、Apolloプラットホームに参画

すでにご存知のようにMicrosoftのAzure CloudはBaiduの自動運転プラットホーム連盟Apolloのメンバーだったが、しかしMicrosoftは今回、その業界横断的なパートナーシップで同社が提供するものについて、詳細を明らかにした。基本的にMicrosoftがやることは、Azureによるクラウドインフラストラクチャを、中国以外の市場でApolloを採用しようとしている顧客に提供することだ。ちなみにBaiduはApolloを‘自動運転産業のAndroid’、と呼んでいる。

Apolloはかつての月面着陸プロジェクトの名前をBaiduが意図的に借りた命名だが、それは、そのときと同じぐらいの規模の、業界横断的で多面的な協力体制が、自動運転技術の市場化のためには必要、という認識からだ。そのためにこのプラットホームは、クラウドサービスとオープンなソフトウェア、参照ビークル、センサー、そして計算機ハードウェアを提供する。この連盟にはすでに、TomTom(地図技術)、Bosh、Continental, Nvidia, そしてGrab(Uberのコンペティター)など、テクノロジー業界のトッププレーヤーたちが参加している。Microsoftもその一員だ。

Microsoftはこれまでも、最近成長著しい自動運転および自動車技術のためのクラウドサービスでパートナーシップに積極的だった。今では同社は、さまざまなプロジェクトで、BMW, Ford, Renault-Nissan, Toyota, Volvoなどと協働している。これにBaiduとApolloが加われば、さらに多数のOEMパートナーを獲得できる可能性がある。

Apolloはデベロッパーや自動車メーカーに対する段階的なリリースを考えており、まず今月内には、一定の限られた場所での自動運転技術へのアクセスを提供する。そして計画では、2020年までに都市とハイウェイの両方に完全に対応するプラットホームをデプロイする。現状でよちよち歩きのプロジェクトにしてはきわめて野心的なターゲットだが、でも世界の大手自動車メーカーの多くが、自動運転車の商用化ローンチに関して、やはりこれぐらいの過激なスケジュールをイメージしているのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

現代自動車が半自動運転車を、予定を早めて市場投入する

自動運転車を市場に持ち込む競争は激化している。GMのSuper Cruiseは今年後半にキャデラックCT6に搭載される予定だし、AudiもA8の次モデルにレベル3自動運転技術を投入する予定だ。その結果、現代自動車(Hyundai)もその半自動運転機能である“Highway Driving Assist 2” (HDA2)の商用化のスケジュールを加速している。

HDA2システムは、正確にはTeslaのAutopilot同様の、レベル2自動運転機能と考えることができる。ソフトウェアは高速道路の運転時に速度と制動を処理し、また、運転手による指示に従って、側道への分岐、高速出口への進行、および主要道路への合流を自動的に行なう。

現代がElectronic Timesに語ったところによれば、HDA2の導入は「運転手の関与を最小限に抑える」ためのものだ。同社によれば、技術は「高速道路上ではレベル3に近付いている」ということで、今回の技術導入は、2022年までに消費者向けに完全自動運転車を商業化するという、同社の目標達成に役立つことだろう。

現代はCESで自動運転技術を発表した、その際には消費者のコストを抑えるために、詳細な地図を用いることによって、コンピューティングとセンサに比重のかからないアプローチを採用していた。しかし、現代は一般的には自動運転車の世界のリーダーとは見做されていない。この技術を予定より早い段階で投入することにより、その差を縮めることができるだろう。データ収集に注ぎ込んだ努力がそれを支えている。

[ 原文へ ]
(翻訳:Sako)

Nvidiaのチップ、Audiのレベル3自動運転車に搭載

この火曜日にAudiは来年登場予定の次世代A8はレベル3自動運転システムを搭載する初の量産車になることを明らかにした。Audi A8の自動運転システムにはNvidiaのテクノロジーが利用されており、「渋滞パイロット」機能を持つ。

Nvidiaはこれ以外にもA8のさまざまな能力を支えている。実際A8はNvidiaのチップを6基搭載しており、交通渋滞に対処するだけでなく、インフォテインメントシステム、バーチャルコックピット表示、後部座席用ヘッドレスト裏のタブレットなどを駆動する。

A8がレベル3になるということは、特定の状況、たとえば 時速60キロ以下あるいは高速道路を走行中などの場合、ドライバーは道路に注意を払う必要がなくなる。走行環境がそのような条件を満たすと、ドライバーは(現地の交通法規が許せば)車の運転に注意を払うことなく合法的に他の作業を行うことができる。ドライバーの操作が必要な状況になればシステムがドライバーにそれを要請する。

レベル3は現行のTeslaのオートパイロットより一段進んだ自動運転となる。Teslaのオートパイロットはレベル2に分類されており、ドライバーは走行中常に道路に注意を払い、即座に運転を代われる態勢を維持する必要がある。オートパイロットが高速道路で一定の範囲で速度を維持して走行することを主な目的としているのに対して、A8のシステムでは渋滞時にドライバーが一切の操作から解放されるのが大きな違いだ。

NvidiaのプロセッサはAudiのzFASシステムの頭脳となり、A8の自動運転を実現している。車両に装備されたレーダー、カメラ、レーザースキャナー、超音波センサーなどから得られたデータを処理し、車両が置かれた環境を総合的に認識する。渋滞パイロット・モードに入った場合、zFASシステムは自車の取るべき動作を決定する。このときシステムは毎秒25億回の入力を処理するという。

レベル3自動運転は本質的にある種の矛盾を抱えている。つまり一方ではドライバーはリラックスして他の作業をしてもよいとしながら、いざというときには即座に運転に戻らなければならず、完全に車任せにはできない。レベル4の自動運転になって始めてシステムが完全に車両をコントロールするようになる。自動運転中の事故の責任はシステム側にあるためAudiとNvidiaは自動運転システムに強い自信を持っているのだろう。

〔日本版〕自動運転のレベルについては日本もSEA(Society of Automotive Engineers)の区分を踏襲することを決定している。レベル3は「条件付運転自動化」とされ、システムが要請した場合を除いて車両側が加減速、ハンドル操作を含むすべての走行操作を実施する。詳しくは官民ITS構想ロードマップ2016(PDF)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Waymoが緊急車両に対処するテストを実施――現実の消防車、パトカーに混じって自動運転車が走行

Alphabetの自動運転事業部、Waymoではアリゾナのチャンドラー市消防警察部の協力を得てPacificaミニバンによる 自動運転車の緊急車両に対する反応テストを行った。ここでは消防車、パトカー、白バイなどが緊急走行する中をWaymoの自動運転車が走った。

Waymoのコメントによれば、「われれのシステムを搭載した車両は緊急車両が走行する環境でテストを行った。もちろんこれまでに通常の道路環境におけるテストは繰り返してきたが、現実の緊急車両といっしょに走るのは今回が初めてだった。テストの目的はWamo車の後ろに緊急車両が迫ってきたとき、それがどのように見えるか、聞こえるかといったデータをできるかぎり収集することだった」という。

収集されたデータは、Waymo車が実用化された際、救急車などの緊急車両に遭遇したとき適切に反応するためのライブラリの構築に用いられる。 これは自動運転車がプロトタイプから現実に販売される自動車に移行するためにくぐり抜ける必要がある必須の関門だ。

  1. waymochandlereventjune28-32.jpg

  2. waymochandlereventjune28-21.jpg

  3. waymochandlereventjune28-25.jpg

  4. waymochandlereventjune28-22.jpg

  5. waymochandlereventjune28-28.jpg

  6. waymochandlereventjune28-24.jpg

  7. waymochandlereventjune28-26.jpg

クライスラーPacificaに装着されたのはWaymoが社内で開発したハードウェアで、Googleによればオーディオ・センサーは緊急車両のサイレンを当初のものより2倍の距離で認識できるように改良されているという。レーダーやLiDARなどの視覚センサーの認識能力も同様に大きく強化された。これがWaymoが路上での現実の緊急車両に対する反応を実験することにした理由だろう。以前のモデルに比べて最新のWaymo車は緊急車両の認識および対応を大きく改善するキットが組み込まれた。

現在Waymoはアリゾナ州のフェニックス市と隣接するチャンドラー市でオンデマンドによる自動運転車の乗客運輸サービスの実験を行っている。しかし緊急車両対応に関するデータは幅広くあらゆる状況で利用できるはずだ。今回収集されたデータなどをベースに、自動運転車はそれまで一度も緊急車両に遭遇したことがなくとも直ちに緊急車両だと見分け、適切な反応ができるようになるはずだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

BaiduのApolloプラットホームは多数のパートナーを抱え、今や‘自動運転産業のAndroid’だ

Baiduは今や、自動運転プラットホームのパートナーの集合体として世界最大を誇っている。同社のApollo自動運転プログラムはパートナー数が50あまり、中でもFAW Groupは、自動運転技術の商用化でBaiduと協働している中国の主な自動車メーカーの集まりだ。ほかにも中国の自動車企業Chery, Changan, Great Wall Motors, それにBosch, Continental, Nvidia, Microsoft Cloud, Velodyne, TomTom, UCAR, Grab Taxiなども参加している。

このプラットホームで、何ができるのか。アメリカの自動運転システムのサプライヤーであるスタートアップAutonomouStuffが見せてくれた2台の車は、Apollo 1.0のソフトウェアを使ってわずか3日で自動運転化した。その車たちは、BaiduのAIデベロッパーカンファレンスの会場近くのサーキットでデモ走行したが、そこはかつてApolloプログラムが発表された場所だ。

目標は、Apolloにできることをデベロッパーに徐々に分かってもらうこと。そして今月はデベロッパーが、実際に特定の場所で自分で運転を試せる。2020年にはハイウェイと都市部道路の両方で完全自動運転車の一般走行ができるための、プラットホームの提供を目指している。

自動運転車の世界はパートナーシップの発表がやたらと多くて、その課題のさまざまな側面を多くのプレーヤーがチームを組んで狙う“椅子取りゲーム”の様相を呈している。そういう見方をすると、Baiduはさしずめ、一度にすべての椅子に座ってしまった大物かもしれない。これらのパートナーシップは一般的にオープンなので、プレーヤーはいろんなところへ二股三股をかけてヘッジをする。しかし、最終製品に関するBaiduのオープンなアプローチは、興味深いし、変わっている。

Baiduは元々、Googleに似たインターネット企業だが、そこから得られたデータやサービスのビジネスは、自動運転車技術の分野にかぎらず、もっと広く利用される意義がある、と信じているようだ(Androidの多面的拡散のように)。それはおもしろいアプローチであるし、巨大な中国市場で勝つための戦略かもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Einrideが自動運転EVトラックを開発――スウェーデンからT-Podのプロトタイプ登場

スウェーデンのテクノロジー・スタートアップ、EinrideはT-Podのフルスケールのプロトタイプを発表した。これは自動運転の電気自動車で、Einrideでは小型のパレットを運送するトラックの役割を果たすことを狙っている。エネルギー容量は200kWhで航続距離は200km、遠隔操作で積荷の処理が可能だ。

T-Podは写真でわかるとおりたいへんユニークなデザインだ。Einrideでは自動運転と積荷の遠隔操作のためにゼロからデザインしたという。つまり荷物を取扱うためのクルーが乗車する必要はない。この車両は積荷を無人で効率的に運送するために最適化されている。T-Podは2020年までにスウェーデンの2都市、イエテボリ〔ヨーテボリ〕とヘルシンボリを結ぶルートに200台のT-Podを投入する考えだ。同時に充電ステーションも建設される。

  1. tpod_material10.jpg

  2. tpod_material9.jpg

  3. tpod_material6.jpg

  4. tpod_material5.jpg

  5. tpod_material4.jpg

  6. tpod_material3.jpg

  7. tpod_material1.jpg

  8. tpod_material2.jpg

T-Podのネットワークは年間で200万個の荷物パレットを運送することを目指している。Einrideによれば、これはCO2の排出に換算して40万台の自家用車が同じ距離を走った場合に相当するという。Einrideでは需要さえあればネットワークを予定より早く拡大することは可能だとしている。

現在、トラックに関しては既存のセミトレーラーに自動運転機能を後付する方法が主流だが、T-Podのように自動運転電気トラックをゼロから開発するというのは興味ある方向だ。積荷のリモコン処理について、Einrideでは「人間の柔軟な判断力が自動運転を補う」としている。一人のオペレーターが複数のT-Podを同時にコントロールできるという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Waymoの自動運転車、砂漠に出かける――実用化には過酷なテストが必須

カリフォルニアの基本的に穏やかな気候で自動運転車をテストするのはビデオ・ゲームを「初心者レベル」でプレイするようなものだ。現在の自動車は型式認証を受けるためにははるかに過酷な環境で正常に機能することを実証しなければならない。実用化を目指すなら自動運転車も同じことに挑戦する必要がある。

Alphabetグループの自動運転プロジェウト、Waymoはすでに 真冬の環境でテストを済ませているが、今回はクライスラーのミニバン、Pacifica をとてつもない熱さになる砂漠に連れ出してロードテストに挑んだ。

センサーのテストのために砂漠のロードテストを実施。ものすごく暑い。目的地はラスベガスとデスバレー。

デスバレーは世界でもいちばん暑い地域の一つだ。独立記念日の休暇前後になると道路はタイヤを溶かすほどになる。こうした高温は精密な電子機器に思わぬエラーを引き起こすことがある。消費者向けプロダクトにおける製造責任の問題を考えると、こうした環境でのテストは必須だ。

Waymoは自動運転システムをあらゆる条件で繰り返しテスト中だ。新しいデバイスが組み込まれるたびにそれがあらゆる条件で正しく作動することを確認するのは実用化における重要なステップとなる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MITのキャンパスを走り回る自動運転車いす

マサチューセッツ工科大学(MIT)のキャンパスでは、ここ数ヶ月の間、MITコンピューターサイエンス・人工知能研究所(CSAIL)が開発した自動運転車いすをよく見かける。この車いすは、彼らの研究結果を披露する広告塔のような存在であると同時に、自動運転技術を現実世界でテストするための実験台でもある。会話に集中して周りが見えていない学生のグループや、スマートフォンを持って”ながら歩き”をしている学生の進行方向は予測不可能なため、キャンパスの状況は公道に近いのだ。

そもそもこの車いすは、自動運転技術を現実世界でテストするために作られたものだ。一般的に、自動運転車を公道でテストするのは難しく、特に人口密度の高いボストンのような街では、試験走行を行うまでにさまざまな規制上のややこしい手続きを踏まなければならない。

近くにある軍用基地が試験走行の候補地として浮上したが、MITは2トンもの鉄の塊を走らせる前に、自分たちのアイディアを試すための手段が必要だと考えた。CSAILが開発した車いすは、ちょうど自律型の自動運転車と遠隔操作型の車の中間に位置するため、研究者はスピーディーに問題点を改善できる。障害を持つ人たちを対象としたユースケースはその中で偶然生まれたものだった。

「現在行っている研究では、車いすはあくまでプラットフォームのひとつとして利用されていますが、車いすに特化した研究を行おうとしている人もいます」とロボットソフトエンジニアのThomas Balchは話す。「私が(CSAILに)入って以降、身体的な障害を持った人たちをターゲットにした研究がたくさん行われています」

彼らの車いすには、実寸の自動運転車と同じライダー(レーザーの反射光から障害物との距離を測るセンサー)のほか、自動運転技術がもてはやされ始めるよりもずっと前の2010年にCSAILがシンガポールの道路用に開発したマッピングテクノロジーが搭載されている。背もたれの上部に取り付けられたこのシステムが、周囲の定点(不規則に並んだFrank Gehry設計のStata Centerの壁)をもとに3Dマップを作成し、前方に搭載された小さなセンサーが進行方向にある障害物を検知するようになっている。

Balchと研究助手のFlix Naserのおかげで、私はStata CenterのロビーでCSAIL製の車いすに乗ることができた(結果的に私が想像していたものとは少し違うキャンパスツアーになった)。まず、ジョイスティックと背もたれに搭載された3Dマッピングシステムを使って進路をマッピングする。といっても、今回の走路はロビーの一方からもう一方までほぼ直線で進むというシンプルなものだった。マッピングが完了すると、手元の大きなタブレットに進路が色付きの線で表示される。壁は真っ黒なブロックとして表れ、ロビーにいる人の脚はさまざまな色の点で表示されていた。ロビーの俯瞰図のような地図はそれほど複雑ではないが、センサーがきちんと機能していることがわかる。

動きは一般的な電動車いすのように、スムーズかつゆっくりとしていた。システムが人間を感知すると、車いすは速度を緩めて完全に停止し、進行方向を修正してから人を避けていく。このプロセスにかかる時間は10〜15秒ほどだった。強いて言えば、現時点ではかなり慎重な設定がされていて、周囲に誰かが近寄るとすぐに車いすが停止するようになっていた。車いすとしては注意深すぎるくらいがちょうどいいのかもしれないが、自動車としてはすこし過剰な気もする。

走行中は、緊急ブレーキのためにXboxのコントローラーを手にしたBalchが車いすの背後についてまわっており、これだけゆっくりと走るものでも人間の補助を完全に取り去るまでにはかなりの努力が必要だということを物語っていた。その一方で、このくらいゆっくりで周囲への影響が少ないセッティングの方が、バグを処理する上では安全だと言える。

しかし、システムが完成すれば、彼らの車いすは人の多い病院でも患者を移動できるようになるかもしれない。MITは現在世界中の病院とパイロットプログラムに関する話を進めているが、このCSAILの自動運転車の研究が商業的な成果に繋がるのは、まだ先のことになりそうだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Boschが$1.1Bの新工場を建てて自動運転車やスマートシティ向けチップの生産力強化へ…上位サプライヤーの座を譲りたくない

自動車業界のティアワンサプライヤーBoschが、市場が今後向かう方向へ重点投資をしている。新たに発表された11億ドルの施設すなわち工場は、自動運転車とスマートホームおよびスマートシティのインフラストラクチャに使われる半導体を製造する。 そのドレスデンの新しいチップファブは、シリコンの商業生産を2021年に開始し、工場の建設は2019年に完了する。

チップの製造能力が大幅に拡大するBoschは、自動車メーカーが今後も引き続いて、インターネットへの接続を前提とするサービスやモバイルのプラットホームへフォーカスをシフトしていく中で、重要なサプライヤーとしての地位を維持し続けると自負している。ただしBoschがチップを製造するのは今回が初めてではない。同社は自動車用のチップを供給してきたし、最新のデバイスであるスマートフォンなどにも供給している。Bloombergによると、Boschのチップ生産は40年以上のキャリアがある。

新工場は自動車により従来的な機能を提供するチップも供給する。たとえばエアバッグの膨満をトリガするチップや、計器盤の表示をコントロールするチップ、車内において携帯電話を接続するためのチップなどだ。

自動運転車ではIntelも、世界的に上位のチップサプライヤーを目指しており、またNXPを買収したQualcommも同様だ。ただし後者の買収は目下、EUが事前審査中だ。Boschの自動車業界とのご縁は長いが、それでも自動運転車技術の市場は新しいから、コンピューター業界からやってきた企業と、自動車業界の末席につらなるサプライヤー企業のどちらが主導権を握るか、今後の見ものである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Boschから高精度レーダー地図情報システム――自動運転用に普及する可能性

ドイツの大手自動車部品メーカー、Boschはオランダの位置情報デバイス・メーカー TomTomと協力して高精度のマップシステムを発表した。これはBoschが開発したRadar Road Signature〔レーダー利用道路特徴抽出〕と呼ばれるテクノロジーを用いて周辺の道路を地図化し、車両の位置を2、3センチの精度で決定する(ヤード・ポンド法でいえば1インチ程度の精度だ)。

こうした高精度の位置決めには従来ビデオカメラのデータが用いられてきたが、新システムはこれを補完する。レーダーを用いるために悪天候などにより視界が悪い環境でも作動するという利点がある。こうした環境ではカメラは十分に機能を果たさない場合があった。

驚くべきことに、このシステムから車両に渡されるデータの量はカメラを用いたビデオに比べて半分程度だという。これは車両システムのネットワーク化にも大きなメリットとなる。データ量は自動運転を実現する上で自動車メーカーが常に重要な要素と考えてきた部分だ。Boschによれば、現在の計画では、実車からのデータ収集は2020から開始されるという。

このシステムが路上の自動車に大量に登載されるようになれば、精密な地図の制作に大きく貢献することになる。このためには現行のBoschのレーダーシステムをアップグレードする必要がある。現行システムはドライバーに高度な運転補助を与えることが目的であるため走行中のみ作動する。高精度の位置情報を提供する新システムへのアップグレードには車両の挙動によって起動される現在のシステムを常時作動する仕組に変える必要がある。

新しい地図システムは車両周辺を認識し、自動車が走行レーンに対してどのような位置にあるかを正しく決定できる。これにより、自動車が取るべき進路を予測すると同時に、渋滞、道路工事、駐車スペースの空き具合などのリアルタイム情報を処理するダイナミックなレイヤーが加えられる。レーダーから得られる情報はこのようなダイナミックな地図を生成する上で決定的な要素となると期待される。

Boschによれば、Radar Road Signatureシステムは「既存のあらゆる地図フォーマットと互換性がある」という。つまり自動運転のための精密な地図が必要とされており、かつ重要であるような多様な状況で採用が可能ということだ。Boschは自動車パーツの世界的供給者の1社であるため、このレーダーシステムは多くの自動車メーカーに採用されて大きな影響を与える可能性がある。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのプロジェクトからAlphabet傘下のWaymoになった自動運転車企業が自動運転トラックを研究中

Googleの自動運転車プロジェクトとして始まり、今やAlphabet傘下の自律運転技術企業であるWaymoが、自動運転トラックへの進出を検討している。同社がBuzzFeedに語ったところによると、現在は同社の技術をトラックに統合する方法について研究中である。そのための現段階のテストでは、1台のトラックにデータ収集だけを担当する人間を乗せて走行している。

Waymoがこれまで、自動運転トラックへの具体的な関心を表明したことはなかったが、しかし元社員の一人Anthony Levandowskiが退社後、Ottoという自動運転の運送用トラック企業を創業した。Levandowskiの会社はUberに買収され、それにより元Googleの社員がUberで自動運転車の開発を担当することになったが、彼がGoogleの社員数名と企業秘密を盗んだと非難するWaymoの訴訟に関連してUberが行おうとした内部調査に、一貫して非協力的であったため、今週初めに解雇された。

自動運転トラックは、自動運転産業における、簡単にもぎ取れる高さにある果実と見なされている。ハイウェイの長い距離を走行することが多いので、ナビゲーションが比較的単純だからだ。都市部で人間運転者に交代するハイブリッドタイプが、商用化しやすいモデルとして多くの企業で研究開発されている。たとえばEmbarkは最近このタイプをデビューし、自動運転トラックのネバダ州の道路でのテスト走行を認められた。

Waymoは最近アリゾナ州フェニックスで、オンデマンド自動運転ライドシェアサービスの公道試験を開始した。テストに使用するのは、ミニバンのハイブリッド車Chrysler Pacificaの、現バージョンの自動運転車だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IntelのCEOがMobileyeの買収に150億ドルを投じた理由を語る

IntelのCEO Brian Krzanichが木曜日(米国時間6/1)のCode Conferenceでインタビューに応じ、自動車に関する彼の長期的なビジョンを語った。彼によると、“未来の車はサーバーのようなものになる”、という彼の予測が、イスラエルの自動運転技術のスタートアップMobileyeの買収にIntelが150億ドルあまりを投じた理由だった

Krzanichによると、“ランサムウェアやウィルスなどがデバイスのどこかに取り付いても”、Intelはそんなときのためにバックアップを取るだけでなく、“走行中の車を自動的にリフレッシュする”。プライバシーの懸念があることは認めるものの、Krzanichによれば、コネクテッド・カー(connected cars, ネットに接続された車)は“とても安全”だ。

“そのような車が走行するためには、車に視覚が必要だ”、とKrzanichは自動運転車についてそう言う。“そしてそのことから、さまざまな社会的利益が生ずる”。

彼曰く、たとえば自動車技術がAmber Alertのような状況で、行方不明の子どもの所在を突きとめたりするだろう。“そのためにどんなデータが必要か、人工知能をどのように利用すべきか、今実際に研究している”。

彼のプレゼンテーションの直後に、Intelは、2050年には自動運転技術が7兆ドルの経済効果をもたらす、という試算を公表した。その根拠は、“自動運転とスマートシティの技術によって新しい旅客経済が生まれ、産業全体を変貌させるとともに、そこから生ずる余剰時間と余剰能力から新しい産業が創造される”からだ。

このような予言を、Marc AndreessenもCode Conferenceで述べている。彼によると、自動運転車によって通勤がずっと楽になるから、都市の郊外圏がずっと遠くまで広がる。そのことによって大量の雇用や仕事が作り出される、と彼は考えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ロシアのYandexによる自動運転車オンデマンドタクシーサービスのデモ動画

ロシアの検索とインターネット技術の巨人Yandexが、Yandex自身が開発した自動運転車のプロトタイプを披露している。最初はタクシーのオンデマンド乗車サービスで、上のビデオは実際に車が動作している様子を示したものだ。このプロトタイプは、Yandexによるソフトウェアのテストを助けることが目的だ。Yandexはこの新興市場に向けての開発に対して、独特な良い位置を占めていると考えている。

Yandexは、Yandex.NavigatorとYandex.Mapsを含む現在の製品やサービスの中から、ナビゲーション、ジオロケーション、コンピュータビジョン、機械学習の専門知識を引き出したことに言及している。

「私たちは、YandexNavigatorのユーザーから受け取った匿名データを使用しています。このことから、交通渋滞、事故、速度制限、道路閉鎖などの交通イベントを伴う都市での運転を行なうことができるのです」。YandexTaxiのPR責任者であるVladimir Isaevが、電子メールで説明した。「私たちは長い間、多くのサービスでコンピュータビジョン技術を利用してきました。私たちはそれらを使って、私たちのジオロケーションサービスの中で、空き駐車スペースを見つけたり、道路標識を読み取ったりしています」。

Yandexでのコンピュータビジョン利用に関する専門知識は、類似した画像を検索結果で照合したり、言語サービスの提供を通じて写真内のテキストを翻訳したりすることで培われたものだ。そのソフトウェア開発努力と、この技術を自動運転の世界に適用する努力が合わされることによって、Yandexのプロトタイプ自動運転車用のソフトウェアは完全に社内で開発されている、と同社は語った。

また、屋根の上のVelodyne LiDARユニットだけでなく、車内のNvidia GTX GPUのショットにも気が付いた読者もいるかもしれない。Yandexは現在一般市場で手に入るコンポーネントだけでなく、「カスタムビルド」ハードウェアも利用していると語ったが、現在パートナーたちと、目的に合った自動車利用可能品質ハードウェアの作成について話し合っているということだ。

ビデオの中の車両はまだ実際の街の通りを走行してはいないものの、Yandexによれば、すべてが計画どおりに進めば、テストは1年以内に公道で行われると語った。商用サービスの可用性に関して語るのは時期尚早だが、最終的には、自動運転車を市場に出そうとしている自動車メーカーや他の企業と提携することが希望だと、Isaevは語った。

[ 原文へ ]
(翻訳:Sako)

Uber、Ottoの共同ファウンダー、レバンドウスキーを解雇―Waymo訴訟の社内調査への協力拒否が原因

UberはAnthony Levandowskiを解雇した。LevandowskiはUberの自動運転車事業の責任者であり、自動運転車の子会社Ottoの共同ファウンダーだった。New York TimesがLevandowskiの解雇を最初に報じた。続いて火曜日にUberの社内向けメールが公式にこれを確認した。

LevandowskiはGoogleの親会社Alphabetの自動運転車子会社WaymoがUberを訴えた紛争で中心となる人物だ。Waymoは元従業員のLevandowskiがOttoの立ち上げを加速するためにLiDARテクノロジーを始めとするWaymoの企業秘密を持ち出したと主張している。

法廷でLevandowskiは憲法修正5条〔何人も刑事事件において(責任を問われる可能性がある)己に不利な供述を強制されない〕を理由として証言及びGoogleから不当に得たとされる資料の提出を拒否した。Uberはこれに対してLevandowskiはUberが要求する雇用上のコンプライアンスに違反することになると警告していた。

Uberは広報担当者を通じてLevandowskiとの雇用関係は解消されたことを確認した。Uberは何ヶ月に前からこの問題に関する社内調査にLevandowskiの協力を求めており、その期限を明確に設定していたという。UberはまたLevandowskiが4月に自動運転車事業の責任者を外されたさいに後任となったEric Meyhoferが引き続きその職を続けることを明らかにした。Levendowskiの部下、権限はMeyhoferが引き継ぐことになる。

画像: John Sommers II/Transport Tropics/modified by Bryce Durbin/Flickr UNDER A CC BY 2.0 LICENSE

[原文へ]

(翻訳:滑川海彦@Facebook Google+

これが自動運転車が見ている道路だ(ビデオ)

自動運転車はLiDAR、ビデオカメラ、レーダーなど多様なセンサーを利用して自車周辺の情報を収集する。では 詳細な3Dデジタルマップと車載センサーからの情報を総合するとどうなるだろう?

Civil Mapsのプロダクト・マネージャー、Anuj Guptaの説明によれば、このテクノロジーは6次元自由度の環境内で自動運転車が注意を集中すべき領域を特定するものだという。6次元自由度というのはドローンやVRシステムの分野でもよく知られた概念だ。つまりXYZ3軸についてそれぞれ並行運動と回転運動を考えた空間だ(横方向の揺れがロール、縦方向の揺れがピッチ、旋回運動ががヨーと呼ばれる)。デジタルマップとローカル情報を組み合わせれば自動運転車は注意すべき空間を特定して計算量を節約する。つまり一定の計算能力を効果的に利用できる。

マップデータとセンサーデータを統合することによる計算能力の集中によるコスト削減効果はきわめて大きいという。自動車メーカーは自動運転車の路上での安全性と効率性を確保しつつ、製造コストのとバランスを取らねばならない。

もちろんCivil Mapsはマップデータを提供する企業なので、プロダクトを自動車メーカーに売り込むためには、製造コスト削減能力をわかりやすく示す必要がある。「プディングの証明は食べてみることだ」ということわざもあるとおり、実地テストにまさるものはない。そこでCivil Mapsではミシガン州のハイウェイで自動運転車を走行させ、マップデータの利用によって自動車の環境内の位置を局限することによる計算量の削減効果をデモしている。

〔日本版〕Civil Mapsのサイトはこちら

[原文へ]

(翻訳:滑川海彦@Facebook Google+

レースカーが自動運転車になるとどうなるか、パリのRoboraceはコース学習のため遅かった

週末にパリで行われたFormula E Paris ePrixで、ドライバーのいないRoboraceが、1.9kmのコースを14周、完全に自力で完走した。

この自動運転車には、LiDARセンサーが5基、レーダーセンサーが2基、超音波センサーが18基、光学式速度センサーが2基、AIカメラが6台あり、そして衛星位置情報により自分の位置とルートを知る。すべてのデータをNvidiaのDrive PX2が処理し、Roboraceのプレスリリースによると、このプロセッサーの演算速度は24兆ops(毎秒24兆命令)だ。

プロセッサーは速いけどしかし、Roboraceの車自身は、まだそれほどでもない。

ハードウェアは本格的なレース向けに、300kWのモーター4台、540kWのバッテリーを一つ積み、時速は200mphを超える。しかし、ルートを学習している間、そしてエンジニアが同車の学習方式を学習している間は、後ろに人間が運転する付添車がつき、のろのろとトラックを走る。

では、パリでの初走行を、公式ビデオで見てみよう。次はベルリンのFormula Eに出て、その後もいろんなレースに出る予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

【ポッドキャスト】交通政策の研究者が予見する自動運転車が普及したときの都市交通

今週のTechnotopiaでは、ニューヨーク大学Rudin交通政策研究所のアシスタントディレクターSarah Kaufmanにお話をうかがった。Kaufmanは、ニューヨーカーのための、そして世界の、新しい交通手段について研究しており、未来はきわめておもしろいものになる、と予想している。

彼女の予言はこうだ。自動運転車の普及とともに、これまでになかった新しいタイプのパラトランジット(paratransit, さまざまな補助的交通手段)がいくつも登場する。これまでの公共交通を利用できなかった人たちのためのサービスも、生まれるだろう。そしてそれらの新しいサービスは、効率が良くて、私たちをA地点からB地点へ安全にはやく、より安い費用で運んでくれるだろう。ぜひ、彼女の予言を聴いてみよう。

Technotopiaは、John Biggsによる、より良き未来に関するポッドキャストだ。SticheriTunes、あるいはMP3をここでダウンロードして聴ける。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

小型高精度のレーダーシステムを作るEchodyneが$29Mを調達、ドローンや自動運転車にレーダー能力を実装

自動運転車は自分の回りのものを検出して接触や衝突を避けるための、センサーを必要とうする。しかも車が高速で動いているときには、前もって、正確に、十分に早く、ものを認識して衝突を避けることが必要だ。

そのための既存のシステムの多くが、何らかの光測検出系とカメラを主に利用している。しかし、そういうLiDAR(レーザー光測装置)やカメラの効力は天候に左右される。彼らは霧や塵埃、悪天候の中では視力が落ちる。遠くの物も、苦手だ。そして、その多くが十分な堅牢性とコンパクト性を欠き、おそらくドローンなどでは使えない。

そこで投資家たちは今、軽量レーダーシステムのEchodyneに2900万ドルを投資しようとしている。その製品はまずドローン用からスタートするが、今後は自動車やボート、移動能力のあるロボットなどにも利用できる。これでやっと、自動運転車が十分な自律能力を持つかもしれない。

この新たなラウンドでEchodyneの総調達額は4400万ドルになる。このシリーズBのラウンドを仕切ったのはNew Enterprise Associates、これにBill Gates, Madrona Venture Group, Vulcan Capital, Lux Capital, The Kresge Foundationなどが参加した。

Echodyneのレーダーシステムはコンパクトで軽いから、たとえば送電線や農地などを点検監視する商用のドローンにも乗せられる。そのポケットサイズのレーダーのデモを、本誌も今月の初めに報じた。その記事には、LiDARや従来のセンサーとの違いも説明されている。

EchodyneのCEO Eben Frankenbergによると、これまで作ってきたのはドローン用のレーダーのみで、今それを組み込んだ製品を開発中のドローンメーカー(複数)の社名は明かせない。自動車用のレーダーシステムは、まだ‘開発途上’だそうだ。

今回の資金の用途は、生産能力の拡大(今の年産数百台から数千台のオーダーへ)と、レーダーのソフトウェアの改良と機能拡張に充てられる。

“わが社のハードウェアは、既存の商用レーダーよりずっと進んでいる。ジェット戦闘機のノーズコーンに収まっている、フェーズドアレイレーダーのような使い方も十分にできる。でもレーダーが捉えた像で何ができるか、というソフトウェア的可能性は、まだ十分に汲みつくしていない。たとえば、ある種の、コンピューター・ビジョンのようなソフトウェアも可能なはずだ”。

同社のレーダーはポイントクラウド(点群)と像の両方を作るので、コンピューター・ビジョンの場合と同じように、ニューラルネットワークやAIによる処理も可能だ。それにより自動運転車などは、自分の環境をより正しく認識分類できる、とCEOは語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))