羽ばたき飛行するドローン、Bionic Birdがクラウンドファンディング中―ネコも大喜び

鳥か? 飛行機か? いやいや、これは鳥の形をしたBionic Birdというマイクロ・ドローンだ。12月に市販開始予定のこのメカニカル・バードはスマートフォンまたはタブレット上のアプリで操縦される。Bluetooth 4.0接続を利用しており、有効距離は約100メートルだという。

現在Indiegogoでクラウンドファンディング中のBionic Birdのフランス人の開発者はこれを「ひそかなドローン」と呼んでいる。なぜかといえば、バイオミメティクスを利用している、つまり鳥のような羽ばたきで飛ぶからだ。ローターやプロペラを使うドローンに比べてはるかに静かで、自然環境に溶け込む。遠くからは本物の鳥そっくりに見える。

ビデオでもわかるように、あまりによくできているので本物の鳥が仲間だと思ったり、猛禽類がエサになるかどうか確かめに近寄ってきたりするほどだ。

こちらのビデオではネコが大喜びだ。

Bionic Birdのクラウンドファンディングは目標の2万5000ドルをはるかに超えて6万5000ドルあたりを飛翔中だ。これなら無事に量産開始できるだろう。

初期バージョンは1960年代から存在する羽ばたき飛行機をアプリで操縦可能にしたもので、基本的に高級おもちゃだ。

しかしBionic Birdの開発チームは今後サイズや飛行機能を改良していく計画だ。2016年の冬までには尾翼による正確な操縦、安定した連続飛行、ライブ中継可能なHDビデオカメラの搭載などを実現したいとしている。そうなれば鳥に化けたスパイ・ドローンが登場することになる。

現在のバージョンはIndiegogoで1機あたり120ドルの出資で入手できる。出荷は12月を予定している。

バッテリー充電器はタマゴの形をしており、ドローンを上に載せて充電する。12分の充電で8分の飛行10回が可能だという。

胴体は柔軟なフォーム素材でできており、着陸の衝撃に繰り返し耐えられる。羽根と尾翼は軽くて丈夫なカーボン・ファイバー製で、交換可能。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


紫外線消毒ロボットLittle Moeはエボラウィルスも殺せる

サンアントニオのXenexは、同社の、紫外線パルスを発射するロボットLittle Moeのおかげで、メディアの露出度が急増している。このロボットは、病院の病室などを5分で消毒し、ウィルスもそのDNAを融解して破壊する。下の、かわいらしいニュースビデオを、ご覧いただきたい。

その技術は新しくはない。物の表面に紫外線を当てて、ウィルスのDNAを損傷する。強力なキセノンランプを照射することによって、微生物を貫通し、独特のやり方で損傷を与える、という。。

ただしRoombaのように、病院内を自走していくことはできない。人間がロボットを部屋へ連れていき、部屋のタイプなどを設定し、武装させる。すると部屋中に紫外線のパルスを照射し始める。

医療用ロボットはビッグビジネスで、しかも毎日のように変化している。一時はテレメディシン(遠隔診療)がメディアにもてはやされたが、Little Moeのようなロボットが重要なのは、一つのことをとても上手にやるからだ。Moeくんの場合は、消毒を。医学の進歩のためにかわいい名前とエボラの脅威が貢献するのなら、Moeには声援を送りたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


やわらかい指先を持ち、指先の変形を視覚的にフィードバックして細かい作業を精密に行うロボット、MITのBaxter

ロボットにも愛が必要だ。そこでMITの研究者たちはロボットのBaxterに触圧センサをつけ、やさしい愛撫や、やわらかい握手ができるようにして、愛し愛されている実感を持たせることに成功した。というのは嘘だが、でもBaxterは製造業の工程で利用されて、反復的な作業を行い、そのとき、物をつかむ指先に感圧パッドをつけることにより、動きのやさしさ、優雅さ、繊細さを実現する。

その視覚的なセンサはGelSightと呼ばれ、ロボットの‘はさみ’に、高度な感受性を与える。はさむ力を継続的にフィードバックすることにより、USB充電器のソケットへの差し込み(上図)や、卵を割らずに持ち上げることなどができる。はさみの先端の機構室が薄いゴムで覆われていて、内側からカラーLEDで光らせる。そのゴム膜は表面が反射性の塗料で塗られており、物を握ろうとしたときの変形をセンサに伝える。そしてその変形の過程から、はさみにとっての対象物の位置と、それに加えられている力を計算する。

MITの視覚科学の教授Edward Adelsonは、“自分の子どもたちを見ていて触感に関心を持った”、という。“子どもたちが視覚の利用方法を覚える過程に魅了されるだろう、と期待していたが、実際にもっと魅了されたのは彼らの指の使い方だ。でも自分の専門は視覚なので、指に来る信号を視覚的に見るためには、運動や触覚を表す信号をビジュアルな信号に変える方法を見つける必要があった。像として見えれば、その扱い方もわかるからね”。

つまり彼は、何千もの小さな感圧センサをはさみの指先に敷き詰める代わりに、ゴム膜の変形という形(光センサへの距離)を“見る”システムを作ったのだ。ゴムは、接触しやすい指先パッドにもなる。

しかもセンサの感度(精度)はミリメートル単位だ。すなわち:

“Plattの実験では、MITのRethink Roboticsから派生したBaxterロボットには指が2本のはさみがあり、その片方の先端にGelSightセンサがついている。ありふれたコンピュータビジョンのアルゴリズムを使って、そのロボットは、ぶら下がっているUSBプラグを認識し、それをつかもうとした。まず、USBプラグとはさみとの位置関係を、プラグに浮き彫りになっているUSBのシンボルから把握する。ロボットがプラグをはさむ位置で、二次元の各次元にそれぞれ3ミリの変差はあったが、それでもUSBプラグをUSBポートの挿入することができた。ポートが許す変差は、3ミリどころか、せいぜい1ミリ程度だったのに。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


MITの電動四足ロボットはチータのように駆ける

上のビデオでご覧のとおり、MIT(マサチューセッツ工科大学)のフットボール競技場を電動の四足ロボットが軽快に走り回っているというのは驚くべき光景だ。Cheetah(チータ)と名付けられたこのロボットは、Boston Dynamicsが開発したBig Dogの弟分というところだが、外部動力源なしに時速48kmで走ることができる。

CheetahはMITのバイオミメティクス(生体模倣)・ラボが開発中の複雑な地形を自由に移動できる軽量で強力かつ電動の四足ロボットだ。このグループが開発した高トルク高密度アクチュエーターというテクノロジーにより金属骨格に損傷を与えることなく脚を精密に高速駆動することが可能になったという。このロボットの外骨格は本物のチータの骨格をモデルにしているという。本当に生体模倣テクノロジーであるわけだ。

ガソリンエンジンを動力とするBig Dogと違って、電動のCheetahは非常に静かで、軽快に見える。幸い、爪と牙は装備されていない―少なくとも、今のところは。

via ieee

[原文へ]

(翻訳:滑川海彦@Facebook Google+


ダイソンが掃除ロボット市場に参入、「ダイソン 360 Eye」を日本で発表

今日の夕方、東京タワーのふもとにある東京タワースタジオというところで、家電メーカーのダイソンが派手なメディア発表会を行い、創業者のジェームズ・ダイソン氏自ら新ジャンルへの参入となる製品「ダイソン 360 Eyeロボット掃除機」を多数の報道陣の前で披露した。ダイソンといえば、サイクロン掃除機や羽根のないファンなどで知られるが、2015年春に発売予定という新製品は、2002年にiRobotのルンバが切り拓いたロボット掃除機市場だった。価格は未定だそうだ。

ルンバには類似した製品が多く登場している。ダイソンは今回の新製品を「最も吸引力の高いロボット掃除機」とうたう。吸引力をのぞくと、既存のロボット掃除機とダイソン360 Eyeの違いは、大きく3つある。1つはサイズがふた回りほど小さいこと(その分、ちょっと高さがある)、そして360度の全方位をパノラマ30fpsで撮影(認識)する独自のカメラを搭載していること。最後の1つは駆動系に車輪ではなく、キャタピラのようなベルト駆動方式を採用していることだろう。

360度カメラと赤外線センサーで常に全周を認識することで、部屋の中に定点観測するポイントを探し出し、そうした観測ポイントを基準に部屋をマップを作成し、効率よく巡回できるのが特徴だという。常に360度ぜんぶが見えてるので、一方向にしか見えないカメラと異なり、「一部の視界がさえぎられても問題がないし、後ろを見るために回転する必要もない」(ダイソン氏)という。

ルンバは壁にぶつかっては角度を変えて動き出し、というランダムウォークを繰り返すことで部屋を掃除する。これに対して、ダイソン360 Eyeは蚊取り線香を真四角にしたような軌跡で部屋を、重複なく掃除するのだという。ルンバとは名指ししなかったが、ダイソン氏は「ランダムな動きはパーフェクトとは言えない。なぜならバッテリーを無駄遣いするからだ」と繰り返しながら説明とデモを行った。ダイソン360 Eyeは未掃除部分を常に認識しているそうだ。

ベルト駆動方式を採用している点も、既存製品を利用したことがある人なら、なるほどと思うかもしれない。車輪方式ではフローリングとカーペットの境目で片輪だけが滑り、進行方向が変わってしまうようなことがある。また、少しぐらいの段差やモノであれば、乗り越えることができるそうだ。朝オフィスに来たら、電源タップとイーサーネットケーブルの塊に「座礁」しているルンバもカワイイと思わなくもないが、救助活動なしに完全自走式で掃除してくれると楽かもしれない。

iPhoneやAndroid向けに「Dyson Linkアプリ」を用意していて、外出先や海外出張先からでもダイソン360 Eyeの掃除の様子を確かめたり操作できる。曜日ごとの掃除スケジュールなんかもあるそうだ。


ロボットのHitchBOTが単独でカナダ横断ヒッチハイクの旅に成功…ロボットにとって人間は安全か?

カナダの複数の大学やスタートアップとMicrosoft Azureが共同スポンサーとなったHitchBOTロボットが、カナダ横断の旅に成功した。彼は東海岸のHalifaxを出発し、太平洋に面したブリティッシュコロンビア州Victoriaに到着した。

このプロジェクトは、初期的な洗練されてないスタイルのロボットが、見知らぬ人びとの、拾って運んでやろうという意思にだけ依存して、目的地まで旅をする過程を目撃した。その旅程は1か月足らずで、大きな障害は何もなかった。わずかに、彼のLED製の‘顔’を保護するプロテクターにひびが入り、また最初の雄弁さに比べると、スピーチがややたどたどしくなっていた。

HitchBOTは旅を開始してからわずか2分後に早くも拾われ、その後の親切な車も簡単に見つかったようだ。ロボットのデザインはきわめて原始的だが、運転者との会話はできた。ただしときどき、車のシガレットライターポートやふつうのコンセントからの電力供給を必要とした。そのスピーチエンジンもきわめて単純で、たくさん質問をされると過負荷になりシャットダウンしてリブートした。リブートには、数分、ときには2時間を要することもあった。

HitchBOTの複雑さ、ないし複雑性の欠如はこのアート/科学/研究プロジェクトの主眼ではない。プロジェクトの制作者の一人であるFrauke Zellerによると、ロボットの早くて安全だったカナダ横断旅行は、ロボットが見知らぬ人の親切をあてにできることを示している。彼はToronto Starのインタビューで、そう述べている。

人間がロボットを信頼できるか、という話題が多い中で、このプロジェクトはその逆を行っている。映画「ターミネーター」に登場するSkynetのような、ロボットに支配される社会の恐怖はよく語られるが、逆に人間たちが、ヒッチハイクを頼んできたロボットをぶち壊す、というストーリーはどうか? むしろ、そっちの方がありえるのではないか? このプロジェクトは、その可能性の有無をテストしたのだ。

HitchBOTの旅は無事だったが、でもカナダの国民性は世界でもいちばん親切で温和だと言われている。次回はHitchBOTに合衆国横断、あるいはせめて、イギリスのスラム街を旅させてみたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


怪我をしたら治し方を自分で見つけて実践するロボット

もしもあなたが、昆虫を真似た六脚ロボットで、その脚が一本折れたらどうするかな? ギブアップするか? 倒れて炎上するか? 涙の出ない目で泣くか? それとも、試行錯誤をしながら自分の怪我の手当をして、折れた脚を隠し、歩く努力をするか?

そう、そのとおり。

ロボット研究家のAntoine CullyとJeff CluneとJean-Baptiste Mouretの三人は、六脚ロボットを訓練して、“知能を伴う試行錯誤”により、いろんな歩き方をトライできるようにした。アルゴリズムの最初のバージョンでは、20分間よたよた歩いて、転んだりしているうちに、だんだん直線上をまっすぐ歩けるようになる、というものだった。最新のシステムでは、ロボットは約2分間で歩き方を覚える。

上のビデオでお分かりのように、ロボットはいろんな歩行スタイルを試みる。最初は、ちょっと跳んでみる。次に負傷した脚を上にあげてバランスを保とうとする。ロボットはつねに、部屋の中の自分の位置と自分の速度をセンスしている。まっすぐにはやく歩ける足取りを見つけたら、それを最後まで続ける。

このアルゴリズムでは、データが物を言う。研究者は六脚ロボットのシミュレータ(ソフトウェア)を使って、そいつにいろんな歩き方をさせ、13000種類の足取り〜歩行スタイルを収めたデータベースを用意した。またロボット自身は、自分のダメージを分類して(支柱の破損、脚の挫傷、など)、データベースをクェリする。それからいろんな歩行スタイルを試行して、最良の足取りを見つける。

これはいわゆる人工知能ではないが、データベースを使うおかげでロボットは現場で短時間で解を見つけることができる。そして自力で使命を続行できることが、重要なメリットだ。不死身のロボットが完全に人間を支配する未来においては、この能力こそがいちばん重要だ。

出典: Spectrum

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


Googleが買収したBoston DynamicsのBigDogロボットを海兵隊がリムパックでテスト

この1分間のYouTubeビデオにはGoogle傘下Boston DynamicsBigDogロボットを海兵隊がハワイの演習場でテストする様子が撮影されている。このテストは大規模な多国籍海軍演習、リムパックの一環として行われている。

DARPAと海兵隊はL3S(Legged Squad Support System)〔脚移動式分隊支援システム〕実用化に取り組んでいる。この“pack mule”(荷ラバ)ロボットの目的は複雑な地形で兵士と共に行動して重量物を運搬することだ。ビデオにはまさにその様子が写っている。

Brandon Dieckmann上等兵は、実験の初日に、「このロボットは他の輸送手段では通行が不可能が深い藪の中を抜けてわれわれのチームと行動を共にしました」と語っている。

「最初は皆このロボットがこんなに踏破力があるとは思いませんでした。私の感触では、このロボットはわれわれが歩ける場所の70%から80%を歩けるようです」とDieckmann上等兵は言う。

ちなみに、この恐ろしげな様子のロボットが運んでいたのは水を入れた水筒などの補給物資だ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


剛体から軟体に変化し、狭い穴でもするりとぬけられるロボットをMITが開発

近未来のロボットは、映画「ターミネーター」のT-800 Model 101ではなく「ターミネーター2」に登場するT-1000みたいになるかもしれない。MITのチームが開発した相が変化する素材は、ワックスとフォームという平凡な材料を使用しているが、剛体から軟体まで随意に変わることができる。低コストのロボットにも使えるので、形を変える性質がロボット掃除機やロボット暗殺者などにも応用できるだろう。

この素材を作った機械工学と応用数学の教授Anette Hosoiは、教え子のNadia Chengやそのほかの研究者とチームを作っている。今後の可能性としては、たとえば、内蔵や臓器、血管などに形を自在に変えながら入り込んでデリケートな手術を行うロボットなどが考えられる。MITのニュースによると、倒壊した構造物の中に入って生存者を探すロボットもあり、ということだ。


クレジット: 制作–Melanie Golnick, MIT News; ビデオ素材提供–Nadia Cheng.

このプロジェクトはGoogleが買収したロボット企業、マサチューセッツ州のBoston Dynamicsで開発が行われている。最初それは、DARPAの助成金による化学ロボット(Chemical Robots)の研究事業で、狭いところへもするりと入り込める蛸のような能力のあるロボットの開発を目指していた。工学的レベルでの最大の課題は、ぐんにゃりとした軟体でありつつ、対象物にしっかり力を加えることのできる素材を作り出すことだった。それが可能であるためには、剛体と軟体とのあいだで相変化が可能な素材でなければならない。

このたびHosoi教授らが開発した素材はワックスを利用し、そこに加熱用のワイヤが血管のように通っている。加熱されると柔らかく、冷めると硬い。この構造には、剛体のときに受けたダメージを自動修復する利点がある。まさにT-1000のように、ロボットは平面状態から起き上がったり、深い傷でも治ってしまう。

この素材は、いわゆる液体金属ではないが、しかし研究者たちは、今後のバージョンではワックスではなく、半田や白鑞(しろめ)のような強度のある材料を使えるだろう、と考えている。T-1000も、原料は一種の石なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


ステッキをつきながら瓦礫の上を歩く2足歩行ロボット登場

Oussama KhatibおよびShu-Yun Chungの2人がSupraPedというロボットを開発した。両名はスタンフォード大学の研究者で、2足歩行ロボットにステッキをもたせることで歩行安定性を確保しようとする研究を行なっている。強靭なロボットに道具を持たせることで、とても踏破不能に見えるクレバスなどもロボットならではの姿勢制御で進んでいくことができる。

被災地などの物理的に混乱した場所でヒューマノイドロボットに作業させる場合、移動手段および制御方法を工夫する必要があります。私達は視覚・知覚機能を有する道具をもたせることで、2足歩行ロボットを3足ないし4足化することで状況に対応できるようにしました。多足化して安定性を増すだけでなく、ヒューマノイド型ならではの操作性も維持できているのです。

ヒューマノイド型を採用する理由は、たとえばタイヤを使ったものやキャタピラ型、あるいは空中移動型の場合、適用範囲が限定的になってしまうという理由があるようだ。また物体の操作に適した腕を使うことで、より詳細な分析が可能にもなる(その際はステッキは脇においておくことになる)。加えて、ステッキをついたロボットというのがおしゃれに見えるという理由もあるのではなかろうか。

このロボットについては論文がPDFで公開されている。香港で開催されたIEEE International Conference on Robotics and Automationにて発表されたものだ。

via Spectrum

原文へ

Maeda, H


小鳥のように電線の上にとまって電力を補給するドローン(無人機)が可能に

ドローンが飛んでるとき、電池の寿命が尽きたらどうなるだろう? 今のクァドコプターなら、頑張って基地に戻って充電してもらうか、または落下する。でも、第三の方法として、“空中給電”が議論されている。ドローンが電線の上に停泊して電気を盗み、飛行を続けるのだ。

問題は、ドローンを電線の上にとまらせる方法だ。そう、鳥の真似をする。小鳥が木の枝や電線にとまるように、ドローンをとまらせるのだ。

回転翼機はホバーリングができるから、正しく操縦すれば電線の上に停止できる。でも、固定翼の航空機はどうするか? 電力線のまわりの磁界を感知して、巧みな自己操縦をする。MITの研究者たちが作った、軽量で投げることもできるロボットは、どこにでも、指定した場所に正確に“着陸”できる。そのとまり方は、電線の上にとまる鳥に似ていて、意外にもかわいらしい。

Joseph MooreとRick CoryとRuss Tedrakeが書いた論文には、その概要が説明されている。機は複数のセンサとモーターを利用しながら空中停止を開始し、機首を上げ、フックを正しい位置に移動する。あえて複雑難解な操作を避けているため、このシステムは必要とする機器もごく少なく、軽量のドローンにも実装できる。ドローンは小鳥のように停泊し、電力をたっぷり食べたら、再びエンジンを始動して飛び去っていく。

この技術のせいで、電気を盗む大量のロボットカラスの群れが現れるとは思わないが、無人機の“無人”性を一挙に高める技術としてなかなか魅力的だ。これなら、人間がミッションを一度入力してやれば、あとは完全に自助努力で長距離を飛び続け、使命を終えたら自力で帰還するだろう。飛べるだけでなく、空中停止もできるロボットは、ぼくも大歓迎だ。

出典: Spectrum, 画像出典: Fotopedia

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))


GoProを搭載してユーザーを自動追尾飛行するドローン、AirDogとHexo+がKickstarterに登場

AirDogをご紹介しよう。GoProを搭載して自律飛行するアクションスポーツ撮影用ドローンだ。

現在ホームメードのアクション・スポーツビデオの多くは、GoProのようなアクションをカメラをストラップなどでユーザーの体などにくくりつけて撮影されている。その結果、動画はほとんどが一人称視点になってしまう。しかし最近普及が著しいドローン・テクノロジーを使えば、これまでプロしか可能でなかった空撮が可能になる。

この問題に対するラトビアのスタートアップ、Helico Aerospace IndustriesのソリューションがAirDogだ。今日(米国時間6/16)、この完全自動飛行が可能なアクションスポーツ撮影用ドローンがKickstarterでクラウド・ファンディングを開始した。

Helicoのファウンダー、Edgars Rozentalsは「“GoProはアクションスポーツ・ビデオに革命を起こした。しかし一人称視点の動画ばかりでは、たとえばサーファーが乗っている波が実際どのくらい巨大なのかは十分に伝えられない。しかしたとえドローンを使っても空撮にはリモコン飛行の技術をもった写真家の協力が必要で、おそろしく金がかかった」と開発の動機を語った。

GoProを搭載するリモコン・ヘリならこれまでにも開発されている。しかしAirDogがユニークなのは完全自動飛行できる点だ。ユーザーはAirLeashという腕時計タイプのコントローラーを装着するだけでよい。するとAirDogはAirLeashを自動的に追尾する〔leashは犬などの引き綱の意味〕。離陸も着陸も自動だ。飛行中はジャイロ安定化テクノロジーにより、ユーザーを常にフレーム内に捉え続けるという。

念のために申し添えると、私はまだこのデバイスをテストしていないしライブのデモも見ていない。しかしスペックとしてはすばらしいものだ。

Rozentalsによれば、AirDogは折りたたみ式でバックパックに収納してどこにでも持ち運べる。組み立てたらユーザーはAirLeashを腕ないいヘルメットに装着してボタンを押すだけでよい。するとAirDogは望みの高度、アングルを保ってユーザーを自動的に追尾飛行するという。

GoProはアクション・スポーツ・カメラという巨大な市場を創造した。Helicoはこの大きな波に乗ろうとしている。

ただしAirDogはやはりその高機能に見合う価格となっている。最初100人のアーリーバード枠が995ドルからだ。

ドローンの重量は1.7 kg、AirLeashとの通信には長距離Bluetoothを利用し、スピードは時速64km、飛行時間は10分から15分。23ノット(秒速12m)までの風で運用できる。

AirDogの出荷までには1年ほどかかるもよう。

アップデート:なお昨夜はKickstarterでHexo+というGoPro搭載自動飛行ドローンのプロジェクトもスタートしていた。こちらはすでに目標額を達成。

〔日本版〕Hexo+はスマートフォンアプリから撮影アングル、距離を簡単に指定できる。。最高速度は70km、飛行時間は15分程度。MAVLINKプロトコルでユーザーのスマートフォンと通信して自動追尾する。ジャンプ系スポーツの場合は軌道を予測して追尾する機能がある。 現在のプレッジ価格はは599ドルから。Hexo+の方が高機能かつ開発も進んでいる印象。

下にHexo+のデモビデオをエンベッドした。すでにライブのデモが行われている。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


ドローンのスタートアップがドバイのブルジ・ハリファ・タワーを上空からHD撮影

ロボット工学といっても、ダンスもできる人型ロボット軍用ロボット犬の開発ばかりではない。TBS(Team BlackSheep)はHDビデオカメラを装着した強力なドローン、Discovery Proをドバイのブルジ・ハイファ・タワーの上(真上だ!)に飛ばすことに成功した。

通常のドローンはだいたい高度50mで自動制御が働いて地上に戻ってくる。 このチームのTBS Discoveryは行動半径が3kmもある。TBSチームはUAEに遠征してドローンを飛ばし、ドバイの息を呑むような空撮に成功した。

ドローンは上へ上と飛行し、830メートルのブルジ・ハイファのてっぺんにそびえる塔の真上に辿り着いた。TBSのドローンは椰子の葉をかたどった埋立地のパームアイランドなどドバイの有名スポットをたくさん撮影している。.

私はドローンもHDビデオも都市の景観も好きなのでこのビデオには三重に興奮させられた。小さなスタートアップのチームが800m以上の高度にドローンを飛ばして鮮明なビデオを撮影することに成功したというのも驚くべきことだ。

[原文へ]

(翻訳:滑川海彦 Facebook Google+


よくぞここまで来たGoogleの自動走行車プロジェクト―発端は75年前のNY万博のGM館だった

Googleはこの数年で自動走行車テクノロジーを大きく前進させた。今週は自動走行車にジャーナリストを乗せてマウンテンビュー付近を走らせるプロジェクトを始めている。同時にGoogleは自動走行車の開発の歴史と最近の進歩についての非常に詳しい情報を公開した。この技術的進歩と膨大なテストの成果に「よくぞここまで来たものだ」と私は大いに感銘を受けた。

Googleによれば、自動走行車のコンセプトは1939年のニューヨーク万博でGMが提供したFuturama館にさかのぼるという。Google自身がSebastian Thrunをリーダーとして自動走行車プロジェクトを開始したのは2009年だった。

当初の目的は比較的限定(といっても巨大だが)されたもので、高速道路だけを対象としていた。それが昨年あたりから、複雑な道路標識を解読し歩行者や自転車の安全を守らねばならない混雑した市街地を安全に走ることに拡大された。

このためには視覚認識の高度化、道路上で起こりうるあらゆる事態をあらかじめ予測するソフトウェア・モデルの開発が必要になった。

しかし、さすがのGoogleをもってしても、市街地を安全に走行するソフトウェア・モデルの開発にはなみなみならぬ困難が伴った。 Googleによればマウンテンビュー市内の道路を毎週1本ずつ新たに走行範囲に加えていったという。しかし実用化にはもっと複雑な市街地の道路、州や自治体ごとに異なる交通法規や運転者の習慣、マナーなどに対応していかねばならない。Googleは「今後信号のない4方向一時停止の交差点、レーンチェンジ、合流などでは、手による合図、頭の動き、アイコンタクトなど人間の社会的行動の解析が必要になる」としている。

Googleの自動走行車はすでにある意味人間以上の能力を獲得している。たとえば、この5年間の路上走行実験での事故率は文字通りゼロだ。衝突その他の事故を一度たりとも起こしていない。Googlカーはレーザー、レーダー、方向センサー、位置センサーが常に周囲360度をモニタしている。こうした情報は車載コンピュータで即座に処理され、正確性、重要性が判断され、車を取り囲む周囲の状況の詳細なモデルがリアルタイムで作成される。どんな情報が収集され、どう処理され、その結果どのような行動が必要だと決定されるのか、自動走行車の意思決定プロセスが下に図解されている。

自動走行車プロジェクトの最終目標はどんな状況にも100%の正確さで対処でき、 交通事故全体の93%を占めているとされる人間のミスによる事故をゼロにすることにある。現在までにGoogle自動走行車は70万マイル(112万キロ)を無事故で走ることに成功している。車両自体は改造を施したレクサスのSUVだ。

自動走行車がわれわれ一般人の日常に広く使われるようになるのはまだ時間がかかるようだ。Googleは自動車メーカーと量産について話し合いを始めており、限定製造の開始の時期をおおむね6年後と考えている。市販はしばらく先のこととはいえ、75年前の万博の夢想からすれば自動走行車はもうすぐ手の届く現実になりつつある。

[原文へ]

(翻訳:滑川海彦 Facebook Google+