空港のバードストライク対策に自律飛行ドローンが有効かもしれない

航空機に鳥がぶつかるバードストライクはそう頻繁ではないが、空港が注意を喚起しないほどに稀というわけでもない。しかし、鳥を近づけない、というのは難しい。何十、何百羽もの鳥の群の動きをどうやったらコントロールできるだろうか。もしかすると、CalTech(カリフォルニア工科大学)が考案した手法のような自律飛行ドローンが最善の策かもしれない。

現状では、人がマニュアル操作するドローンを活用している空港もあるが、それはコストがかかり、またそうした技術を持つパイロットの数はそう多くない。それとは別に、調教したハヤブサを使うという手もあるが、こちらも大規模展開するのは無理がある。

CalTechのSoon-Jo Chungは、2009年にUSエアウェイズ1549便がバードストライクに遭って墜落しそうになりつつもなんとかハドソン川に不時着したという、大惨事となりかねなかった事件後にこの分野に興味を持った。

「ハドソン川の一件を見て、次はハッピーエンディングにはならないだろうと思った」とCalTechのニュースリリースで述べている。「だから、私は自分の研究分野であるオートノミーとロボティックスを使って鳥から航空機を守る方策の検討を始めた」。

ドローンは、明快な策と思われる。空中に放ち、ガンの群を追いやる。しかし鳥の動きを予測し、群の行動に影響を与えるのは、そんなに簡単なことではない。

「ドローンをどの位置につけるかについては、細心の注意を払わなければならない。あまりにも遠すぎると、群を動かすことはできない。また、近すぎると、群をバラバラにしてしまい、本当にコントロールできなくしてしまう」とChungは話す。

研究チームは、動物の群がいかに動き、互いにどう影響し合っているのかモデル研究を行なった。そして、鳥の群れが脅威となるものに対しどう動くのかを示すモデルを作りあげた。このモデルから、鳥をパニックに陥らせたりバラバラにしたりすることなく、好ましい方向に追いやれるようなドローンの飛行経路を導き出した。

研究チームは、新ソフトウェアを搭載したドローンを数カ所で試し、特定エリアに鳥が入らないよう指示して飛ばした。下記にあるように(こちらのビデオからの抜粋だ)、効果があるように見える。

当然、あらゆる規模の群れやスピードなどにも安定して対応できるシステムにするためには、まだ実験を重ねる必要がある。とはいえ、このシステムが航空機をバードストライクから保護するスタンダードシステムになるのは想像に難くない。正確なレーダーを使った1ダース前後のドローンで広範囲をカバーすることができるかもしれない。

研究結果は IEEE Transactions on Roboticsに掲載された。

イメージクレジット: Peter Linehan / Flickr under a CC BY 2.0 license.

[原文へ]

(翻訳:Mizoguchi)

この顔認識システムは、映画の観客が喜んでいるかどうかを追跡する

映画制作がアートと同じくらいサイエンスになってきた今、映画会社は観客の反応を測定するためにかつてない方法を必要としている。喜んでくれたのだろうか? どのくらい…正確には?42分の時点で? カリフォルニア工科大学とDisney Researchは、表情認識ニューラルネットワークを使って、観客の反応を知り、予測しようとしている。次世代のニールセンレーティングの基盤になるかもしれない。

この研究プロジェクトは、ハワイで行われたIEEEコンピュータービジョンおよびパターン認識会議で発表され、劇場での表情を確実かつ比較的簡単にリアルタイムで追跡する新しい方法を演示した。

認識には、factorized variational autoencoderと呼ばれるものを使う。数学的背景は説明しようとも思わないが、動きのある表情のように複雑なものの本質を抽出することに関して、従来の方法よりも優れている。

研究チームは映画(もちろんDisney作品)を見ている観衆を録画することで、大量の表情データを収集した。高解像度赤外線カメラで観客の動きと顔を撮影し、得られたデータ(約1600万個のデータポイント)をニューラルネットワークに送り込む。

システムの訓練が終わったら、映画を見ている観客をリアルタイムで追跡して、様々な時点で見せる表情を予測する。研究チームによると、システムが観衆に慣れるのに10分ほどかかり、その後は笑いや微笑みを確実に予測できるようになるという(泣き顔や恐怖はまだ追えていないようだ)。

もちろんこれは、この種のテクノロジーの応用例の1つにすぎない ―― 群衆の監視や、その他の複雑なデータをリアルタイムで解釈する場面にも適用できるだろう。

「人間の行動を理解することは、行動的社会的に優れた知識を持つAIシステムを開発する上で基礎をなす」と同大学のYisong Yueはニュースリリースで言った。「例えば、高齢者を見守り世話をするAIシステムを開発するには、ボディーランゲージのわずかな動きを捕らえる能力が必要だ。人間は不満足であったり問題を抱えていることを明示的に言うとは限らないのだから」。

[原文へ]

(翻訳:Nob Takahashi / facebook