SpaceXがCrew Dragonの宇宙ステーションとのドッキングを体験できるシミュレーターを公開

SpaceX(スペースエックス)はブラウザーペースの新しいシミュレーターを公開した。同社初の有人宇宙船であるCrew Dragon(クルードラゴン)のドッキング過程を手動で操作するのがどんなものかを体験できる。実際には、Crew Dragonは全自動で国際宇宙ステーション(ISS)にドッキングするが、宇宙飛行士は必要になったときに代って手動で操作する。このシミュレーターは「その際に宇宙飛行士が使用する「実際のインターフェース」を再現している」とSpaceXは説明している。

ドッキングのユーザーインターフェースは、宇宙飛行士がCrew Dragon搭乗時に使う実際のUIとしては、驚くほどシンプルだ。まるでiPhoneやiPadのスペースシミュレーターでバーチャルコックピットに出てきそうだが、Crew Dragonに搭載されている制御装置や情報ディスプレイのほとんどがタッチスクリーンなので、それも当然かもしれない。

方向指示ボタンが両側にあり、カプセルの方向および垂直、水平位置を調整できる。いずれも動きの大小を切り替えられる。中央の照準器がそれぞれの制御の動きをフィードバックするので、特にガイドがなくても自分で制御方法を理解するのは比較的簡単だ。簡単なヘルプ機能が、メインのゴールは照準器に出てくる数字を全部グリーンにすることだと教えてくれるが、それ以外でドッキングを成功するためにいちばん必要なのは忍耐だ。

気分転換の楽しい方法であることが主目的だが、宇宙船制御におけるSpaceXの人間中心のインターフェースデザインのアプローチを直に体験できる稀有な機会でもある。これは、NASAのアボロ計画やスペースシャトル計画のアーカイブ映像に見られるインターフェースとは大きく異なり、タッチスクリーンデバイスがどこにでもある現代の影響を明らかに受けている。

有効性の証明は、システムがどの程度パイロットがドッキングに成功するところを正確に描写しているかによるが、せっかくなので、うまくドッキングできるかどうか自分で試してみてはいかがだろうか?NASAのJames Bridenstine(ジム・ブライデンスタイン)長官は一度目の挑戦で成功したと言っているが、彼は元空軍パイロットなのでゼロから初めたとは言い難い。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookがロボットを学習させるための本物そっくりな仮想の家を提供

AIを搭載したロボットが家の中で人の手伝いをするためには、ロボットは人間の環境で歩き回るための経験を数多く積まなければならない。それにはシミュレーター、つまり本物の家とまったく同じに見えて、同じように機能する視覚的世界が最適な訓練場となる。そこでFacebookは、現在最も先進的と言える、そうしたシステムを開発した。

その名は「Habitat」。Facebookのこのオープンソースのシミュレーターは、数カ月前に軽く紹介されていたが、米国時間6月15日に、CVPR(米電気電子技術者協会コンピュータービジョンおよびパターン認識に関する会議)にシステムに関する論文が提出されたことにともない、完全な内容が公表された。

現実世界を歩き回り単純な作業をさせるだけでも、ロボットを教育するには膨大な時間を要する。そのため、物理的空間で実際のロボットを動かす方法は現実性に欠ける。ある地点から別の地点へもっとも効率的に移動する方法や、引き出しの取っ手を掴んで引っ張り出す方法などを、実際に何度も繰り返し学ばせようとすれば、数百時間、実時間にして何年もかかってしまうだろう。

関連記事:WTFはコンピュータービジョンなのか?(未訳)

そうではなく、ロボットのAIを現実の家に相当する仮想環境に置く方法がある。結果として、基本的に、その3D世界を構築するコンピューターの最大の演算速度でもって超高速に訓練を重ねることができる。つまり、何百何千時間を要する訓練が、コンピューターの高速な処理速度により数分で完了するということだ。

Habitat自体は仮想世界ではなく、むしろシミュレーション環境を構築するプラットフォームだ。既存のシステムや環境(SUNCG、MatterPort3D、Gibsonなど)との互換性があり、利用者が現実世界の何百倍もの速度で効率的に訓練を実行できるよう最適化されている。

しかしFacebookは、仮想世界の最先端をさらに一歩進めたいとも考えている。そして作り出したのが「Replica」だ。これはHabitatのためのデータベースで、キッチン、浴室、ドア、長椅子が置かれたリビングルームなど、家全体を構成するあらゆる部屋の写実的なモデルが保管されている。FacebookのReality Labsが、現実環境の写真撮影と深度マッピングという血の滲むような作業の末に完成させた。

  1. habitat3

  2. replica1

  3. replica2

そこに再現された世界は非常に精細ではあるが、一部にノイズが見られる。とくに天井や手の届かない場所に多い。それはおそらく、AIビジョン・エージェントの動作には関係のない天井や部屋の遠い角などは、細かく再現する必要がないためだろう。椅子やテーブル、廊下を規定する壁などの形状のほうが、ずっと重要だ。

しかし、もっと重要なことは、開発チームが3Dデータに無数の注釈を加えたことだ。3D環境をただキャプチャーすれば済むというものではない。オブジェクトやサーフェイスには、一貫性のある完全なラベルを付ける必要がある。長椅子も、ただの長椅子ではなく、グレーの長椅子で青いクッションが複数置かれている長椅子という具合にだ。エージェントのロジックに応じて、それが「柔らかい」のか、「ラグの上に置かれている」のか「テレビの横」にあるのかなどの情報が必要になったり、ならなかったりする。

HabitatとReplicaは、意味論的ラベルごとにひとつの色で示される。

だが、こうしたラベル付けをしたお陰で、環境の柔軟度が高まり、包括的なAPIと作業言語は、「キッチンへ行きテーブルの上の花瓶の色を教えろ」といった複雑な複数の段階を含む問題をエージェントに与えることが可能になる。

結局のところ、このような支援は、たとえば家の中を自由に歩き回れない障害者を補助するなど、人の助けになることが想定されているが、それにはある程度の機転が利く必要がある。HabitatとReplicaは、そうした機転を養う手助けをするものであり、エージェントに必要な訓練をさせるためのものだ。

以上のような進歩があったとは言え、Habitatは完全に現実的なシミュレーター環境に至るまでの小さな一歩を踏み出したに過ぎない。ひとつには、エージェント自身が現実に即して再現されない点がある。ロボットの身長は高いものもあれば低いものもある。車輪で走行するのか脚で歩くのか、深度カメラを装備しているのかRGBなのか、さまざまだ。不変のロジックはある。たとえば、長椅子からキッチンまでの距離はロボットのサイズが違っても変化しない。しかし、変化するロジックもある。小型のロボットはテーブルの下を潜れるが、テーブルの上に何があるかを見ることができない。

Habitatは、さまざまな仮想ビジョンシステムで物を見る。

さらに、Replicaや、それに類するその他あまたの3D世界では、視覚化されたシーンの中に写実的に環境が描画されるのだが、これらは、物理法則やインタラクティブ性という意味においては、ほぼまったく機能しない。寝室へ行ってタンスの上から2番目の引き出しを見つけるように指示はできるが、引き出しを開けさせることはできない。実際には引き出しは存在しないからだ。そのようにラベル付けされた絵があるだけだ。動かしたり触れたりはできない。

見た目よりも物理法則に力を入れたシミュレーターもある。「THOR」などは、AIに引き出しを開けるといった実作業を教えるためのものだ。これは、一から教えようとすると驚くほど難しい作業になる。私は、THORの開発者2人にHabitatのことを聞いてみた。彼らは、AIが移動や観察を学ぶための非常に写実的な環境を提供するプラットフォームとして、Habitatを口を揃えて称賛した。しかし、とりわけインタラクティブ性が欠如しているために、学べることに限界があるとも指摘していた。

だが、どちらも必要であることは明らかであり、今のところ、それぞれが互いに代わりを務めることはできない。シミュレーターは、物理法則的にリアルになるか、見た目にリアルになるかのいずれかなのだ。両方は無理だ。しかし、Facebookも他のAI研究室も、それを目指して頑張っていることに間違いない。

[原文へ]

(翻訳:金井哲夫)