ほぼ新品のエニグマ暗号機が初値約2200万円からオークションに

今週はお金が余っているという方、2台目のブガッティを買う代わりにこのほぼ新品のEnigma Machineエニグマ暗号機)はどうだろう? 第二次世界大戦で連合国を苦しめたこのデバイスは、そもそも売りに出されること自体が珍しい。しかも、実際に戦争で使われたのにこれほど状態が良いのは、過去に聞いたこともない。

Enigmaをめぐるさまざまな奇譚伝説も面白いが、ここで紹介するには長すぎる。簡単に言うと、これらのマシンはほとんど解読不能のコードを作り出し、ナチスは連合国側に通信を傍受されていても秘密の通話ができた。しかし英国のブレッチリー・パークにいた、有名なアラン・チューリング(Alan Turing)を筆頭とする数学者たちとそのほかの分野の専門家たちはEnigmaのコードの解読に成功し、戦争の流れを変えた。これら暗号科学の歴史に関心のある読者には、チューリングの伝記やSimon Singh氏のThe Code Book(邦訳:新潮文庫「暗号解読(上/下)」)をお勧めしたい。

連合軍にマシンを盗まれることを恐れたドイツ軍は、すべてのEnigmaを破壊するよう命じた。そして終戦時には当時の英首相ウィンストン・チャーチルが、残っているEnigmaをすべて破壊せよと命じたが、多くが個人蒐集家の手の中へ逃げてしまったので、今回のようにオークションに登場することもある。わずか数百台が現存していると想定されているが、このような悪名がつきまとう古器物は、正確な推計が不可能だ。

それでもこのマシンは第二次世界大戦の戦火をくぐって生き延び、無傷であるだけでなくオリジナルの回転子も無事だ。その入れ代え方式のローターは、特殊な回転により、テキストを再現不能な形に撹乱する。内部の電球も、切れていたのは一つだけだった。ただし、当然ながら電池はだめだ。でも、これよりもさらに状態のいいEnigmaがほしい人は、もしあったとしても長年待たなければならないだろう。

当然これは、こういうもののお金持ちの蒐集家にとって計り知れない価値を持つだろうし(善意の蒐集家であることを祈りたいが)、戦争や暗号の博物館もこれをぜひ欲しいだろう。Enigmaの秘密はかなり前に解明されているし、懐中時計型の複製もある。でも本物のマシンを見ると、その精巧さに心を打たれるし、今でもまだ、新しい発見と驚きがある。

このEnigmaのオークションは、5月30日にNate D Sanders Auctions20万ドル(約2190万円)から始まる。それは10年前の10倍だから、状態のいいこのマシンが以前のオークションより安いことは、ありえない。初値を(20万ドル)相当上回る額で落ちることは、ほぼ確実だ。

画像クレジット: Nate D Sanders Auctions

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

一般市販部品で誰でも作れるオープンソースの四足ロボ

政府からの100万ドルの研究助成金がなくても、わずか数千ドルと確かな技術力があれば本格的なロボティクスプロジェクトが可能だ。スタンフォードの学生たちはDoggoと名付けた四足ロボットでそれを証明した。その最大の特徴は、一般市販の部品だけでできること。もちろん肘や膝などの関節部分には、大量のグリースが要るけど。

ロボットとオートメーションに関するIEEEの国際会議でプレゼンするために作ったDoggoは、Stanford Robotics ClubのExtreme Mobilityチームの作品だ(彼らのペーパーがここにある)。その目的は、ほかの人たちでも作れるような現代的な四足ロボットを最小の費用と最少のパーツで作ることだ。

このかわいいロボットは、一見ごつごつしているけど、その多角形の脚は意外なほどしなやかで、きびきびと歩き、1m近く垂直ジャンプもする。スプリングやショックアブソーバーはいっさい使っていないが、脚にかかる力を毎秒8000回サンプリングすることによって、素早く反応する。まるでモーター自身が(仮想的に)スプリングでもあるかのように。

動く(前進と上方ジャンプ)ことだけが目的で、自律能力はないし、自分のまわりの世界を理解する能力もない。でもすてきなのは、誰でも作れることだ。特殊なモーターや部品は何も使ってなくて安上がりだから、一般的にロボット工学の最初の教材になるだろう。Doggoを自分で作ってみたい人のための、設計と必要な部品の詳細はGitHubのここにある

チームのリーダーのNathan Kau氏はスタンフォードの学内紙で「四足ロボットは研究でよく使われるが、研究プロジェクトごとにゼロからそれを開発しなければならない。このStanford Doggoはオープンソースのロボットとして、比較的少ない予算でも各研究者が自分なりの四足ロボットを作れる」とコメントしている。

Extreme Mobilityチームは同大のRobotic Exploration Labとコラボレーションして、Doggoの改良に取り組むつもりだ。改良作はDoggoの倍ぐらいの大きさになり、Wooferと呼ばれる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

日本の「はやぶさ2」が小惑星を銃撃して穴を掘る

打ち上げあり、テストあり軌道確保ありで忙しかった4月4日の宇宙に、今度は宇宙銃で小惑星を撃ってクレーターを作り、その中を調べるという遠隔探査が始まる。それをやってのける日本の探査機「はやぶさ2」は、「りゅうぐう」と呼ばれるオブジェクトからの標本回収という野心的なミッションに挑み、今のところ立派に成功している。

2014年に打ち上げられた「はやぶさ2」は、「りゅうぐう」の近傍に数カ月いて、一連の調査を行った。4基の小さな着陸装置があり、2つが昨年投下されて、その小惑星の上で楽しげに遊んでいる〔マーカーのことか?〕。

2月には本体が表面にタッチダウンして、大量の埃を舞い上がらせたが、衝突装置(SCI、Small Carry-on Impactor)がその小さな手荷物であるインパクター(衝突体)を秒速2キロメートルで撃ちこむというアナログなクライマックスはまだこれからだ。下のビデオは、地球上の実験で「りゅうぐう」に似た物質を銃撃したテストだ。

重力がとても小さい小惑星に、何が起きるだろうか。埃や岩石の小片が舞い上がるだろう。着陸したロボットたちはずっと離れたところにいるから、デブリのシャワーを浴びることはない。

その後、正確に言うと数週間後に、着陸装置と「はやぶさ2」本体は、新しいクレーターと埃や、銃撃で露出した岩石の層を調べる。標本を採取した船体は、今年後半に帰還する。

このクレーター生成オペレーションは米国時間4月4日夜、 日本時間4月5日午前中に行われる。画像はすぐに送られて来るだろう。チームはすでに、「りゅうぐう」の素晴らしい画像を大量にポストしている。その中には、子どもたちが描いた絵もある。太平洋時間4日午後6時には、下のビデオで実況放送も始まる。

この宇宙船が今何をしているか、いつ何どきでも知りたいという好奇心旺盛な人は、このHaya2NOWWebアプリケーションをチェックするとよい。このページは、受信したデータを直ちに視覚化して見せている。とっても便利なサイトだね!

画像クレジット: JAXA

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

オポチュニティの最後の火星パノラマ写真は素晴らしすぎて言葉がない

火星探査車オポチュニティは、公式には永久にオフラインになったが、その科学と画像の遺産は存続する。そしてNASAは米国時間3月13日、あのロボットがその後塵の毛布に包まれていく前に送ってきた最後の、完全に近いパノラマをシェアした。

火星の表面にこれまで5000日(地球日ではなく火星日で)以上いたオポチュニティは、その最後をエンデバークレーターの中、その東縁にあるパシビアランスバレーで迎えた。生存の最後の1か月彼は、自分のまわりを規則正しく撮影し、多くの感動的なパノラマにまた一つを加えた。

パノラマカメラ「Pancam」は、撮影をブルー、グリーン、ディープレッド(深紅色、近赤外線色)の順にフィルタをかけて行い、354の画像で多様な地形や自分の一部、そして谷を踏み歩いた軌跡を拾う。下の画像をクリックすると完全な注釈つきのバージョンを見られる。

それは、人が望みうる火星の風景画像としてこれ以上のものがありえないほど完璧で、細部の違いまで詳細だ。色を加工しているので、この世のものとは思えぬ独特の美しさがある(元の色のバージョンはここにある)。そしてそのため、この探査車の最後のショットだという切なさが胸を打つ。彩色は実は完成していない。左下にあるモノクロの部分は、これから彩色する箇所だ。

厳密に言うとこれは、探査車が最後に送った画像ではない。あの致命的な塵の嵐が迫ってくるとき、オポチュニティは最後のサムネイルを送ったが、本体画像は送られなかった。それは、日没寸前の太陽の画像だ。

塵の雲が完全に太陽を覆い、オポチュニティが漆黒の闇に包まれたことは最後の送信でわかる。

上の画像中にある閃光やドットは、すべて画像センサーのノイズだ。本当は完全な闇で、その嵐の規模が全惑星サイズであることから考えると、数週間は続くだろう。

オポチュニティは、とてつもない幸運に恵まれた。設計寿命の何十倍も長持ちして旅をし、チームの最長予測すら超えた。しかも最後の日まで美しくて価値あるデータを取り続けたことは、その設計と制作が堅牢かつ細心であったことの証明だ。

画像クレジット: NASA/JPL

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

鳥やコウモリのように「そこらへん」に止まれるドローン

ドローンはいろんなことで便利に使えるが、その便利さは彼らが空中にとどまれる時間に制限されることが多い。もっと軽くなるべきかもしれない。でも、上図のようなかぎ爪をつけたドローンなら、どこにでもとまったり自分をひっかけたりして電池の無駄遣いを防ぎ、飛行時間を延ばせるだろう。

そのかぎ爪は、この記事の最後でご紹介するように、ものすごく多国籍の研究者チームが鳥やコウモリからヒントを得て作った。チームは、鳥などの空を飛ぶ動物が、自分がとまりたい面の性質に合わせて独自の脚やかぎつめを発達させていることに気づいた。どこかに座ることもあれば、どこかにぶら下がることもある。羽根をたたんで、どこかに寄りかかることもある。

研究者たちは、こう書いている。

これらのどんな場合でも、動物の足の適切な形をした部分が環境中の面と対話をして、飛ぶ努力を減らしたり、完全にとまったりする。私たちの目標は、このような、「とまる」(Perching)という行為を無人航空機にさせることだ。

え、ドローンを鳥のように木にとまらせるの?まさか!

我々は、回転翼で飛ぶ無人航空機のために、外部動力で動作するモジュール構造の着陸装置を設計した。それは、動力式の握り部(Gripper、グリッパー)モジュールと、それの指に装着される接触部(Contact、コンタクト)モジュールから成る。

モジュール構造にしたために、とまったり休んだりするために使える構造物の形状や種類の範囲が、単純に鳥の脚やかぎつめを模倣する場合に比べて大きく広がった。

関節のある足のような単体で複雑な構造物を避けて、チームはドローンに、3Dプリントで作った特殊な形状の静的モジュール複数と、ひとつの大きなグリッパーを与えた。

ドローンはLiDARなどの奥行き検知センサーを使って自分のまわりを調べる。近くにある面の性質も検知して、自分がとまれる面の例を収めたライブラリとマッチングする。

上図右上のような四角いエッジでもAのようにとまれる。柱ならBのようにバランスをとる。

柱があってそこにとまりたければ、その柱を上からつかむ(上図下左)。水平方向の棒なら、握ってぶら下がったり、必要なら起き上がったりする。棚のようなものなら、小さな穴を開けて自分をその隅に固定する(上図A)。そのとき、モーターは完全に停止できる。これらのコンタクトモジュールは、ミッションの性質や状況に応じて形を変えられる。

率直に言ってこれは全体的に、プロトタイプにしてはできすぎだ。難しいのは停泊に使える面の認識と、正しく着地するための姿勢制御だろう。でも現状ですでに、十分実用性がある。業務用や軍用なら、これでも十分ではないか。数年後にはこれが、すべてのドローンの標準装備になるかもしれない。

このシステムを説明しているペーパーは、Science Robotics誌に載っている。省略してもよい人は一人もいないと思うから執筆者全員を挙げると、エール大学と香港科学技術大学とスウェーデン王立工科大学のKaiyu Hang氏、Ximin Lyu氏、Haoran Song氏、Johannes A. Stork氏、Aaron M. Dollar氏、Danica Kragic氏、そしてFu Zhang氏だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

コアラを感知するドローンが絶滅危惧動物の個体数推移の調査に貢献

コアラの個体数を常時調べることはオーストラリアの人たちにとって当然のように重要だが、いつも森の中の木の上にいる連中をどうやって数えるのか? ドローンとAIを使うのだ、もちろん。

クイーンズランド工科大学(Queensland University of Technology、QUT)の新しいプロジェクトは、前からよく知られているいくつかのテクニックを新しいやり方で組み合わせて、あの有名なふわふわ有袋類の野生状態の個体数を調べる。まず、ドローンに赤外線画像で熱を感知するビデオカメラを乗せる。そして撮影した映像を、コアラのような熱痕跡を見つけるよう訓練されたディープラーニングのモデルに見せる。

QUTは前にも、これと似たやり方で、絶滅危惧種の海牛ジュゴンの個体数を、海岸の航空写真と機械学習で調べたことがある。しかし今回は、それよりずっと難しい。

この研究のペーパーの共著者Grant Hamilton博士が、ニューズリリースで言っている。「ビーチにいるアザラシと木の上にいるコアラでは、違いがとても大きい」。ジュゴンという言葉を避けたのは、知ってる人が少ないからだ。

博士は曰く、「木の上や森の中という複雑性も、今回の研究課題のひとつだった。難しいから、おもしろい。ドローンを飛ばして動物の数を数える、という単純な仕事ではなく、ものすごく複雑な環境で、それをやらなければならなかったのだ」。

チームはドローンを早朝に飛ばして、外気の寒いところと、木の中の、コアラの体温で温かいところとの明瞭なコントラストの撮像を求めた。ドローンは、木の上辺を刈る芝刈り機のような航路で飛行した。そうして、広い範囲のデータを集めた。

赤外線画像(左)と関心領域を高輝度にするニューラルネットワークの出力

その映像を訓練済みのディープラーニングシステムに通すと、コアラの体温で温かくなっているところのサイズや密度を認識し、車やカンガルーなどそのほかの物は無視した。

初期のテストでは、システムの精度をコアラの推測位置や実測による地上データと比較した。そのために調べる参照動物には、GPS装置や電波発信タグをつけた。その結果、この機械学習によるコアラ検知システムは約86%の精度であることがわかり、「コアラを見つける名人たち」の70%という精度を上回った。精度だけでなく仕事も早い。

博士曰く、「人間が1日かけて調べる範囲を、2時間で調べる」。しかし人間のコアラ発見名人や地上チームをリプレースするわけではない。「人が行けない場所もあるし、逆に、ドローンを飛ばせない場所もある。人力とドローンが互いに補完できる最良の方法を、見つける必要がある。コアラは広範囲にわたって絶滅に瀕しているし、そのほかの多くの種もそうだ。彼らを救う魔法のような特効薬はない」。

クイーンズランドの1つの地区でテストしたら、今度はオーストラリア東海岸部の他の地域で試す予定だ。今後は、コアラ以外の危惧種動物の個体数調査に使える、温度のヒートマップ以外の別の識別子も加える計画である。

彼らのペーパーは、今日発行されたNature Scientific Reportsに載っている。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

エネルギー効率30-37%のソーラーパネルがもうすぐ市販される

クリーンエネルギーの研究者たちは、太陽光から得られるエネルギーの理論的な上限を上げることに励んでいるが、実際に太陽電池を利用するわれわれ一般庶民は、その理論値の半分にも満たない技術で長年我慢している。ここでご紹介するInsolightの製品は、ついにそれを変えるかもしれない。

Insolightは、スイス連邦工科大学ローザンヌ校(EPFL)における長年の研究からスピンオフした企業で、屋根に敷く実用製品が誕生するのももうすぐ、と言われている。

通常太陽電池はその全表面で太陽光を集め、それをおよそ15-19%の効率で電気に変換する。つまりその過程で、エネルギーの約85%は失われる。もっと効率の良い太陽電池はあるが、どれも高価で目的が特殊で、特殊な素材が必要なこともある。

お金のかからない場所といえば、それは宇宙だ。人工衛星に載っている太陽電池はずっと効率が良いが、当然ながら安くない。でも、ごく少量を使い、その上に太陽光を凝集するなら高くはない。そのことに、Insolightは目をつけた

小さいがきわめて効率の高いセルを格子状に並べ、その上に蜂の巣状のレンズの配列を並べる。レンズが光を細いビームに曲げて、小さなセル上に凝集する。太陽が動くとセルの層も動いてビームの真下へ移動する。テスト段階では、この方法で37%の効率を達成し、消費者製品になった時点でも30%は可能だ。これは、従来のパネル製品の倍である。

ただしレンズの層などを作るのだから、今使われている“まあまあの性能”の太陽電池よりも構造は複雑だ。ただしパネルのサイズや形状は今のソーラーパネルとあまり変らず、据え付けにコンセントレータなどの特殊な装備は要らない。最近EPFLで行ったパイロットテストは、大成功だった。

EPFLのニューズリリースで、CTOのMathiu Ackermannがこう述べている: “われわれのパネルはグリッド〔通常電力網〕につないで継続的にモニタした。猛暑や台風や冬の気候でヒッチすることもなく、動き続けた。このようなハイブリッド方式は、曇天で日が射さないような日にとくに効果的だ。そんな日差しの弱い日でも、電気を生成し続けるからだ”。

今同社はソーラーパネルのメーカーとの商談に入っている。既存の製造ラインに容易に乗せられることを、説得しなければならない。“組み立てのステージで工程がやや増えるけどね”、とAckermannは言う。発売は、2022年の予定だ。まだ遠い先だが、でもそのころには電動車が普及してるだろうから、良いタイミングだろう。

画像クレジット: Insolight

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

光で素材を硬化する3Dプリンターがオブジェクト全体を一気に一度でプリントする

3Dプリントはハードウェアのデザインや設計の方法を変えたが、しかしどのプリンターも基本的な制約を共有している: それらは要するにオブジェクトを、下の方から、一層また一層と素材を積み上げて作っていく。UC Berkeley(カリフォルニア大学バークリー校)のこの新しいシステムはしかし、ビデオを感光性レジンの入ったジャーに投射し透過することによって一度にオブジェクトを作る。

このデバイスを作者たちはレプリケーター(replicator, 複製機)と呼んでいるが、残念ながらそれはMakerBotの登録商標だ。仕組みとしてはきわめてシンプルだが、それをこの研究のリーダー、バークリーのHayden Taylorよりもうまく説明することは難しいだろう:

基本的には、そこらで売っているビデオプロジェクターでいい。私も、自分の家から持ってきたものを使った。それをラップトップにつないで、計算によって作り出した一連の画像を投射する。それと同期してモーターがシリンダーを回転させれば、その中のレジンが3Dプリントされる。

もちろん、いろいろ細かい点は難しい。たとえばレジンの配合、そして何よりも、投射する画像の計算だ。でも、このツールのきわめてシンプルなバージョンなら、それを作るための障壁はそんなに高くない。

光を使う3Dプリント技術は前からある。今あるそれらのデバイスは、レーザーなどの光を使って素材を目的の形に硬化する。でも、一度に一つの薄い層しか作れないことは同じだ。“ホログラフィック”プリンティングという、交差する光線を使う方法もあるが、かなり難しい…バークリーはローレンスリヴァモア国立研究所と一緒にそのプロジェクトをやったことがある。

Taylorのデバイスでは、最初に、複製を作りたいオブジェクトをスライス状にスキャンする。CTスキャナーに似ているが、実はチームはそもそも最初に、CTスキャナーからヒントを得たのだ。

回転しているレジンに光を投射すると、オブジェクト全体の素材がほぼ一度で硬化する。数回転を要するのだが、個別の描画動作を何百回何千回もやるわけではない。

これには、スピード以外にも利点がある。出来上がったオブジェクトは平滑だ…今のプロトタイプ段階ではやや粗いが。また、ほかの3Dプリンターでは難しい突起や空洞も作れる。レジンを既存のオブジェクトのまわりに硬化することもできる。下図は、ドライバーの軸に取っ手を付けた例だ。

ひとつのプリントに色などの異なる複数の素材を使えるし、硬化しなかったレジンはすべて再利用できる。大型化やプリントの精度アップが今後の課題だが、そのアドバンテージには十分な説得力があるから、ずっと持続する研究開発であることは確かだろう。

彼らのペーパーは今週、Science誌に載った

画像クレジット: UC Berkeley

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Ultima Thuleは人類が接近した最遠の天体――New Horizonsの写真から成り立ちも判明

NASAのNew Horizons探査機がUltima Thule(ウルティマ・トゥーレ)の鮮明な写真を送ってきた。 これは太陽系の外縁、カイパーベルトに位置し、長径34はキロ程度だ。

ラテン語で「最も北にあるもの」という意味のこの岩のかけらは人類が接近して観察した中で最も遠い天体となった。ミッションの主任研究員、Alan Sternは「宇宙探査史上最高の技術的成功」と呼んだ。

Ultima Thuleは以前から食を利用した予備的研究が行われていたが、推定は非常に正確さだったことが判明した。 この小天体は数十億年前に2つの岩の塊が次第に接近し、接触融合したものだということがNew Horizonsが撮影した写真によって裏付けられた。これによって太陽系の成り立ちについての研究が大きく進歩することは間違いない。

NASAによるUltima Thule形成過程の推定

この天体は大小2つの球からなり、それぞれUltima(ウルティマ)とThule(トゥーレ)と名付けられた。2つの天体は太陽系形成の最初期に次第に近づき、共通の重心の周囲を回転しはじめた後で接触、融合したと考えられている。

ただしNew Horizos探査機が冥王星軌道を過ぎた後でUltima Thuleを目指したのはこうした特異な形状や成り立ちのために選ばれたわけではなかった。実はこの距離にある天体はどれもが未知であり、どれもが等しく科学的興味の対象だった。人類はこうしたカイパーベルト天体を間近で観察したことはこれまで一度もなかった。MU69(Ultima Thuleの科学的名称)は当初ハッブル宇宙望遠鏡によって発見され、2週間かけて大急ぎで軌道を計算した結果、最小の燃料消費でスイングバイが可能だと判明した。【略】

したがってMU69が選ばれた時点ではどれほど奇妙な天体なのかまったく知識はなかった。New Horizonsは天体を撮影するために数千キロ軌道を変更した。

下の写真はNew HorizonsのLORRI(遠距離観察用イメージャー)によるもので、モノクロで数ピクセルの小さな画像だ。

なるほどニュースの1面を飾るには地味な映像だが、宇宙船技術者や天文学者にとっては非常に大きな意味を持つ。New Horizonsが12月31日にこの画像を撮影したとき、天体から80万キロ以上離れていたはずだ。しかも相対速度は秒速14キロ以上だった。しかも太陽系外縁のカイパーベルト地帯には都合のよいWi-Fiタワーなどない。データはDeep Space Networkを通じて非常にゆっくり電送されてくる。

上の画像は探査機がもっと近づいてから撮影されたものだ。50万キロくらいだという。 LORRIも作動を続けていたが、この距離になるとRalphイメージャーが利用可能となり、はるかに詳しい画像が得られた。

Ralphはマルチスペクトル・イメージャーで多数の波長で画像を撮影できる。データ量も多くなり、正しい画像を再構成するためには専門家の解析が必要になる。画像はUltima Thuleの間近での見た目をできるかぎり忠実に再現しようとしたものだという。

天体はありふれた土くらいの反射率で色の濃い部分はなんらかの不安定な物質にさらされた痕跡だろうと研究チームは考えている。天体表面はさらに複雑な形状があると予想されるる。今後さらに鮮明な写真が得られるはずだ。上の写真はNew Horizonsが正常に機能したことを示すいわば予備的データで、詳細な情報の電送には今後1年以上かかる見込みだ。

それでもこの写真でUltima Thuleの大まかなモデリングは可能になった。

ジャガイモを2個くっつけたようなモデルについてSternは「氷山の一角に過ぎない。実際まだデータの1%も受け取っていない」と述べた。

「現在得られている最良の写真に写っいるターゲットは2万ピクセルから2.8万ピクセル程度だ。最初の画像が6ピクセルだったから大幅な改善だが、今後予定どおりに推移すれば、解像度35メートルくらいの画像が得られるはずだ。最終的にはメガピクセル級の画像が得られると期待している」という。

New Horizons探査機はUltima Thuleを過ぎて高速で太陽系の外に向かって飛行中で、今後15年から20年は機能を続けるという。また軌道変更可能な燃料を残しているので別のカイパーベルト天体に接近できる可能性もある。今後――つまり向こう何年か――に注目だという。当面、研究チームはUltima Thuleに関するデータ解析に専念する。

原文へ

滑川海彦@Facebook Google+

【以

この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

四足ロボットANYmalがチューリッヒの地下の下水路を冒険旅行する

CheetahbotやSpotのような複数脚のロボットの多様な用途については、すでに多くが語られてきたが、でも実際にそれらが実現するためには、分野ごとに多くの困難がある。そして、下水道の点検という重要な仕事の訓練のために、このスイス製の四足ロボットは地下深くへと下(お)りていった。今後の実際の仕事には、人命救助もありうるだろう。

ETH Zurich / Daniel Winkler

このロボットはANYmalと呼ばれ、スイス国立工科大学、略称ETH Zurichと、そこからのスピンオフANYboticsの長期的なコラボレーションだ。その最新の冒険は、大学のあるチューリッヒ市の地下にある下水道の旅で、最終的には、検査や修理の自動化を目指している。

多くのロボットプラットホームと同様、ANYmalも長年の開発史を抱えている。でもカメラや、ライダーのようなセンサー類が小型化高性能化したのはごく最近のことなので、暗闇の中での作業も可能になり、第一候補として下水管という汚い場所でテストされることになった。

多くの都市が延々と長い々々地下構造を抱えており、しかもそれらの点検は専門家にしかできない。危険でかったるい仕事だから、自動化の最右翼候補だ。人間がやると1年に1度しかできない点検を、ロボットなら楽々、一週間に一度できる、としたらどうだろう。おかしい箇所を見つけたときだけ、人間を呼べばよい。災害で人が行けなくなった場所や、小さすぎて人が入れない場所でも、活躍してくれるだろう。

関連記事: MIT’s Cheetah 3 robot is built to save lives(未訳)

しかしもちろん、ロボット軍団が(前に何かで見たように)下水路に住めるためには、その環境を経験し学習しなければならない。最初は最小限の自動化にとどめ、徐々にやれることを増やしていくのだ。

ANYboticsの協同ファウンダーPeter Fankhauserが、ETHZのストーリーでこう言っている: “研究室でうまくいっても、現実世界でうまくいくとは限らない”。

ロボットのセンサーやスキルを現実世界の状況でテストすると、エンジニアたちが取り組むべき新しい知見と大量のデータが得られる。たとえば、完全に暗い環境でもレーザーを利用する画像タスクなら行えるが、大量の水蒸気や煙が充満していたらどうか? ANYmalは、そんな環境でも正しい感知能力を発揮できなければならない。それが、最初からの設計目標だった。

ETH Zurich / Daniel Winkler

彼らはまず、脚にセンサーを付ける方式を試した。良い結果とまずい結果の両方が得られた。次に試したのが、ANYmalが手のひらを壁に触れてボタンを見つけたり、温湿度や壁の質感を得る方法だ。この方法は、操縦者の即興や機転が必要で、完全自動化にはほど遠かった。まず、ロボットにやらせることを、リストアップしよう!。

下のビデオで、チューリッヒの地下を旅する下水道検査官ANYmalをウォッチできる。

画像クレジット: ETH Zurich

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Rocket Lab、超小型衛星10基をまもなく打ち上げ(ライブ中継あり)

Rocket Labの商用ロケット “It’s Business Time”の(大きく遅れた)デビュー打ち上げから1ヶ月、同社が宇宙に運ぼうとしている次の顧客はNASAだ。今夜(米国時間12/12)午後8時打ち上げ予定のロケットは、NASAの小型衛星打ち上げ教育プログラム(ELaNa)XIXの一環として超小型衛星10基を運ぶ。

これはRocket LabにとってはじめてのNASA専用打ち上げであるだけでなく、新世代短期ターンアラウンド小型ロケットの特長を活かしたNASAのプロジェクト、”Venture Class Launch Services” の下で行う初の打ち上げとなる。

「NASA Venture Class Launch Serviceは、新しいロケット打ち上げ会社の市場進出を促進し、成長する小型衛星市場向けに未来クラスのロケット開発を可能にするために立ち上げられたNASAの革新的取り組みだ」とELaNa XIXのミッションマネージャー、Justin Treptowが Rocket Labのプレスリリースで語った。

今夜の打ち上げにはNASA研究員らの衛星4基、および全米のさまざまな大学、研究機関の衛星6基が搭載される。NASAのSpaceflightサイトに プロジェクトのわかりやすい概要とロケットの技術的詳細が掲載されているので興味のある方は参照されたい。各衛星はElectronロケットに適切な高度に連れていかれたあと、それぞれの道を進んでいく。

打ち上げ機の名前は “This One’s For Pickering” で、元JPL(ジェット推進研究所)所長で米国発の人工衛星Explorer Iの開発チームを率いたサー・ウィリアム・ピカリングに因んでいる。サー・ピカリングの生地ニュージーランドは、Rocket Labの拠点で今回の打ち上げが行われる場所でもある。

発射は西海岸時間8 PMちょうどに行われ、搭載された装置は打ち上げ後1時間弱に切り離される。打ち上げのライブストリーミングはRocket Labのウェブサイトで見られる

[原文へ]

(翻訳:Nob Takahashi / facebook

可動部品のないこの飛行機はイオン風に乗って飛ぶ

飛行機はそれが発明されたときから、可動部品を使って空気を押すことにより、飛行した。グライダーや気球は飛ぶというより浮かぶものだが、動力による飛行はもっぱらプロペラ、すなわち“押し進める(propel)”部品が頼りだ。しかし今日(米国時間11/21)それが変わり、世界初の“ソリッドステートな”(固体状態の)航空機が、“イオン風”を生成して可動部品まったくなしで飛ぶ。

SFみたいだ、と思ったそこのあなた、まさにそのとおり、それはSFなのだ。これを作ったMITのStephen Barrett〔航空学と宇宙航行学の准教授〕は、Star Trekからヒントを得た、と言っている。

BarrettはMITのニュースリリースで言っている: “遠い未来の飛行機は、プロペラやタービンがないだろう。それはむしろ‘Star Trek’に似ていて、青く輝きながら無音で滑空する”。

彼は説明する; “大学に職を得たとき、これを研究する良いチャンスだと思った。そして物理学の中に、それを可能にするものを探した”。

彼は、彼のチームの航空機を飛ばせるための原理を‘発見’しなかった…それは、1世紀も前から‘知られて’いた。ただし、それを飛行に応用して成功した者はいなかった。

その単純な原理では、陰電気で荷電した強力な電源があると、それらはその電荷をまわりの空気に放電し、それを“イオン化”する。そしてそのとき、それはその電源から流出し、正しくセットアップされた近くの“コレクター”の表面に向かって流れる(Nature誌にもっと詳しい説明がある)。チームのペーパーも今日(米国時間11/21)同誌に載った

それで一体何をしているのか、というと、マイナス電気を帯びた空気を人間が指定した方向へ流しているのだ。この現象は1920年代には知られていて、60年代にはそれを利用して何かを推進(押し進める)することが試みられた。でもそのときの電気エネルギーの利用効率は、わずか1%だった。それは、あえて穏やかな言い方をすれば、非効率だった。

実は、Barrettらのシステムもそれとあまり変らず、入力エネルギーのわずか2.6%が推進に使われただけだ。でも彼らは、現代の最新技術、CAD(コンピューター支援設計)と、超軽量素材を利用できた。そしてチームは、一定の重量(軽さ)と翼長のある航空機なら、大きな推進力さえ生成できれば飛行は理論的に可能である、と判定した。この結論に達するまでに、彼らは数年を費やしている。

何度も修正し(何度も墜落し)てたどり着いたのが、幅5メートル、重量2.5キログラムの複翼機だ。それは、数回離陸に失敗したあと、約10秒間飛んだ。テストに使った部屋がもっと大きければ、もっと飛べたと思われるが、ふつうに滑空した場合よりもずっと長い時間/距離飛べたということは、概念実証として十分だ。

Barrettは曰く: “推進系に可動部品のない飛行機が飛行を持続したのは、これが初めてだ。これにより、まだ誰も探求しなかった、もっと静かで、機械的に単純で、排気のない航空機の可能性が開けた”。

チームの全員も含めて誰もが、これが近い将来プロペラやジェットエンジンを置換するとは考えていない。でも、静かで機械的に単純な推力機構の用途は、たくさんある。たとえばドローンの微調整や軟着陸にも使えるだろう。

まだやるべきことは大量にある。でも目標はソリッドステートな飛行機械を発明することであり、彼らはそれには成功した。残っているのは、その実用工学だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

RFIDステッカーからの信号で食品の汚染が分かる

安全でない食べ物は、それを食べる前に見つけたい。でも最近のベビーフード事件のように、瓶詰めや缶詰の場合はいちいち開けて調べることもできない。そこでMITの研究者たちは、食品に触れることなく、ある程度の距離から、一瞬でチェックできる方法を見つけた。それは、多くの製品にすでについているRFIDタグを利用する方法だ。

RFID(radio frequency identification, 無線周波数認識)は、小さなアンテナをステッカーやラベルに忍ばせておいて、それに特定の周波数の電波が当たると作動する。トランシーバーが950Mhzの信号を送ると、RFIDタグが起動して、自分を同定するやや異なった信号を送出する。それで製品の種別が分かるから、在庫管理にはとても便利だ。

研究者たちが見つけたのは、その返信信号の情報のない部分が、製品の内容の影響を受けることだ。電波は、瓶などの中身を通ってやってくる。そこで、瓶にいっぱい詰まったパスタソースやオリーブは、それぞれ違った特徴の信号を作りだす。だれも触ってないベビーフードの瓶でも、メラミンで汚染されたフードとそうでないフードを比較できる。

[水の入ったボトルと空のボトル]

この新しいシステムを記述するペーパーを書いた研究者の一人Fadel Adibが、MITのニュースリリースで言っている: “安価なRFIDが小さな電波分光器に変身したみたいだ”。

問題は信号の違いがきわめて微妙で、どこにもドキュメントされていないことだ。彼らが初めてやることだから。そこで当然ながらチームは、機械学習に着目した。彼らはモデルを訓練して、それぞれの信号の特徴が何を表しているかを学習させた。信号は、やって来る方向やガラスの厚さなどによっても、微妙に異なるのだ。

現在その、RFIQと彼らが呼ぶシステムは、乳児用ミルクのメラミンによる汚染や、酒類などの中のエチルアルコールの濃度を識別できる。それではぼくのショッピングリストにとって役に立ちそうもないけど、でもチームはもっと多くの製品への応用を考えている。方法の有効性は証明されたから、あとは応用の拡大が課題だ。

棚などの環境条件や、電波に対するさまざまな障害物によっても信号は変わるから、難しい仕事だ。でも機械学習のアルゴリズムは、ノイズから信号を選りだすのが得意だから、この技術は、今後意外とうまくいくかもしれない。

このRFIQシステムに関するペーパーの全文(PDF)はここにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebook、シミュレーションを使って段階的なサービス開始を模索

新しいソーシャルメディアサービス、たとえば画像シェアアプリやニッチネットワークなどを作ろうとするとき、まず考えるのは、出来上がったらできるだけ早く世に出すことだ。しかし、Facebookが行ったシミュレーションや実際に提供されたサービスをいくつか見る限り、小さくスタートするのが良い方法なのかもしれない。

これは容易にシミュレーションできる問題ではないが、「真空状態におかれた球形の牛」の精神に立てば、基本的な仮説をテストするためのもっともらしいモデルを作ることは十分に容易だ。今回のケースでは、研究者はノードのネットワークを作り、そこに「バーチャルサービス」の種を蒔く。そこで一定の条件が満たされれば、別のノードに広がるか、永久に消滅する。
コンウェイのライフゲームをご存じなら、概ね似ているがあれほどエレガントではない。

このシミュレーションでは、サービスが拡散する程度はいくつかの仮定に基づいている。

  • ユーザーの満足度は友だちが同じアプリを使っているかどうかに大きく左右される
  • ユーザーはアプリを少しずつ使い始め、満足度に応じて利用が増減する。
  • ユーザーは不満足なら永久に戻ってこない

これらの条件(および多くの複雑な計算)に基づいて、研究者はさーびずを同時に利用する数を変えてさまざまなシナリオをテストする。

こうした基本的条件の下ではできるだけ多くの人たち(非現実的なので全員ではない)に使わせるのが正しい行動であると考えるてもおかしくない。しかし、モデルを見るとそうではなく、少数の濃密なクラスターノードを作ることが最良の結果を生む。

ここから考えると理由がはっきりする。もし多数の人たちが利用できるようにすると、次に起きるのは、始めに十分な友達を得られなかったり、友達が十分アクティブではなかったノードの大量死だ。この死滅によって近くの他のノードへのつながりが減り、さらに死滅を起こす。それはバーチャルアプリが絶滅に至るほどではないが、多くの脱落者が出たため利用人数は永久に制限される。

一方、自給自足できるクラスターを少数作って利用数を高く維持すれば、通常速度で隣のノードに伝播していき安定成長、低脱落、高利用数が約束される。開始時にサービスを離れる人がずっと少ないからだ。

これが現実世界でどうなるのか見てみよう。小規模でアクティブなコミュニティー(社会的に活躍する写真家、有名人、インフルエンサーなどとそれらのネットワーク)にアプリを提供し、既存ユーザーが招待状を送ることて近隣にノードが作られる。

なんのことはない、多くのアプリがすでにこれをやっている! しかし、今それを科学が裏付けたのだ。

これがFacebookの次の大きなサービスに影響を与えるのか? おそらくないだろう。おそらく担当者たちは判断を下すための要素がほかにいくつもあるだろう。しかしこうした研究でクラウドとグループ意思決定をシミュレーションすることが、精度を高め利用を増やすことは間違いない。

FacebookのShankar IyerどLada A. Adamicによるこの研究は、International Conference on Complex Networks and their Applications[複雑ネットワークと応用関する国際会議]で発表される。

[原文へ]

(翻訳:Nob Takahashi / facebook

サンゴ礁を絶滅から救うロボットLarvalBotはサンゴの幼生を何百万も海中に散布する

世界のサンゴ礁は今でも、徐々に死滅が進行している。それは気候変動という現実を重苦しく想起させるが、しかしそれは、人間の努力によって押し戻すことも可能だ。環境保護活動家たちがそのために手に入れた新しいツールLarvalBot〔幼生ロボット〕は、老いたるサンゴを健康な新しいポリプ(polyps, 個虫)で置き換えていく努力を、大幅に加速する水中ロボットだ。

このロボットの原型は、2015年のプロトタイプCOTSbotで、サンゴの敵オニヒトデ(crown of thorns starfish, COTS)を自力で見つけて破壊する…それが名前の由来。それをその後クイーンズランド工科大学(QUT)のチームが改良し、そのサンゴ狩猟者を殺すロボットはRangerBotと呼ばれた。

しかし、侵略的なファウナを探してサンゴ礁を安全に航行しモニタするその同じシステムが、これらの消えゆくエコシステムをもっと直接に助けることができるのだ。

グレートバリアリーフ(Great Barrier Reef)のサンゴは毎年、クイーンズランド北部沖合の海を大量の卵子と精子で満たすという、一大イベントを展開する。サザンクロス大学の研究者たちは長年、それらの卵子と精子から新世代のサンゴを養殖する方法を研究していた。彼らは捕獲した卵子と精子を海に浮く囲いに隔離し、ほぼ一週間でサンゴの健康な赤ちゃんたちを孵化することに成功した(サンゴの赤ちゃん(coral babies)はぼくがひねり出した言葉ではないが、でも好きだね)。そしてそれらの赤ちゃんサンゴを、絶滅寸前のサンゴ礁に注意深く移植した。

LarvalBotは、この最後の段階で仕事をする。

QUTのMatthew Dunbabinがニューズリリースでこう説明している: “11月に生まれる幼生のためにはロボットを2〜3台用意したい。1台は約20万の幼生を運び、他は約120万を運ぶ。ロボットは指定した航路を進み、サンゴ礁全域で一定の深度を保つ。彼らをモニタしている人間が、最大の散布効率になるように幼生をリリースしていく”。

これはふつうならダイバーの仕事だが、ロボットはそのフォースマルチプライヤー(force multiplier, 力量増幅器)になる。ただし食べ物や酸素は要らない。わずか数台で、数十人のレンジャーやボランティアの仕事ができるだろう。

幼生復元技術を開発しているサザンクロス大のPeter Harrisonはこう語る: “生き延びたサンゴは成長を開始し、子芽を生成し、新しいコロニーを作る。それが約3年後には、生殖が可能なまでに大きくなり、そのライフサイクルを完了する”。

それは決して即効的な方法ではないが、でもこの、人工的にサンゴを散布する技術は、サンゴ礁とその領域があと数年生き延びる機会を増大し、そしてその間に、再び自活能力を回復するだろう。

画像クレジット: QUT

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ホーキングのブラックホールに関する最終論文がオンライン公開された

スティーヴン・ホーキングは今年76歳で死去したが、彼の驚くべき知性の科学界への貢献はまだ終わっていない。著名な物理学者の最終論文がオンラインで誰にでも読めるように公開され、博士の輝かしい経歴を明らかにした物質界の謎を振り返ることができる。

Black Hole Entropy and Soft Hair“[ブラックホールのエントロピーと柔らかい髪]と題されたその論文は、ホーキング博士と共同研究者のSasha Haco、Malcolm Perry、およびAndrew Stromingerの共著による。論文保存公開サイトのArXivから無料でダウンロードが可能で、ホーキングへの心のこもった賛辞も載せられている。

「私たちは最愛の友で共同研究者だったスティーヴン・ホーキングを亡くし深い悲しみにくれています。ブラックホール物理学に対する博士の貢献は、最後の最後まで絶大な刺激を与え続けるでしょう」

この論文は、ホーキングの経歴にとって一種のブックエンドといえるものであり、ブラックホールの量子構造に関する博士の最近の業績が集められている——ホーキングが 過去40年間追究してきたテーマだ。

ホーキングの最終論文が、物理学最大の未解決問題の一つへの挑戦となったことは実にふさわしいことだ。その問題は博士自身が提起したものでもある:ブラックホールに落ちていく物体は本当に消滅するのか、たとえ物理の法則がそれを不可能だとしていても? このパラドックスが悩ましいのは、量子力学の法則と一般相対性理論の法則を戦わせることになるからだ。

論文中ホーキングらは、「柔らかい髪」と呼ばれるものがその矛盾を解決することを示唆している。「髪」とは」とはブラックホールの縁である事象の地平線に存在する光子を意味している。柔らかい髪バージョンの事象においては、ブラックホールの縁にあるその「髪」が、ブラックホールに落下した物体に関する情報を保管する。これは、物質に付随していた情報は宇宙から消滅したのではなく、見かけ上の地平線の彼方に消えたように見えるだけであることを意味している。

「これは道半ばの一歩であり、決して完全な答えではない」と共同研究者のMalcom PerryがGuardianに語った。「これまでより若干パズルの数は減ったが、厄介な問題がいくつか残っていることは間違いない」

[原文へ]

(翻訳:Nob Takahashi / facebook

日本のHayabusa 2ミッション、遙かなる小惑星の地表に到達

これまで聞いたことのない最高にクールなミッションが大きな節目を迎えた。日本の小惑星探査機Hayabusa 2が目的地のRyuguに到達し、小惑星表面に探査ロボット2台を送り込んだ。近いうちにHayabusa 2自身も着陸し、Ryuguのサンプルを地球に持ち帰る! うそだろ? これは驚きだ!

Hayabusa 2は、ご想像の通り、同じく小惑星のサンプル採取ミッションを務めた初代Hayabusaの後継だ。つまり、一連のプロセスには前例がないわけではないが、小惑星採掘がすでに実現間近なことに驚かれた向きもあるかもしれない。

しかし、これも想像できるだろうが、この2回目のミッションは初回よりも高度だ。第1回目の余勢と教訓を得たHayabusa 2は、さらに多くの機器を備え、目的地での滞在期間もずっと長くなる予定だ。

その目的地は地球と火星の間に軌道を持つ小惑星、Ryuguだ。Ryuguは「C型小惑星」に指定されており、これは水および有機物質が相当量存在すると考えられていることを意味している。すなわち、地球外生命の可能性やこの(あるいはそれ以外の)太陽系の歴史を学ぶうえで大いに期待されているターゲットだ。

Hayabusa 2は2014年後半に打ち上げられ、その後数年をかけて慎重にこの小惑星の安定軌道に乗せられた。この夏ついに、到達した。そして今週には地表55メートル(!)まで近接し、持参した4基の着陸機のうち2基を着地させた。下の動画は着陸機が小惑星に向かって降下していく様子だ:

着陸機 “MINERVA”(トップ写真にレンダリング画像がある) は地表面をホップ(飛び跳ねる)ように作られており、重力が小さいため一回の跳躍は15分程度持続する。地表の写真を撮影し、温度を測定し、(どこであれ)着地した場所の全般的調査を行う。

アップデート:本稿執筆時点で、ローバー2基は無事着陸していたが、小惑星の裏側にいたため母船との連絡が取れなかった。現在は通信が可能になり、素晴らしい画像も送られてきた。

[この躍動感あふれる写真はRover-1Aによって9月22日の11:44 JSTに、Ryugu表面を跳躍中に撮影された。左半分がRyuguの表面で、右側の白い部分は太陽光による。]

送り込まれるのを待っているのは、もう1基のMINERVAと、新開発のMASCOTだ。MASCOTは多くの科学機器を搭載しているが移動能力は小さい。小惑星の磁気的性質をより詳細に分析し、表面上の鉱物を非侵襲的に検査する。

ビッグニュースは来年やってくる。Hayabusa 2自身が「小型のインパクタ(衝突装置)」とともに小惑星表面に着陸する。インパクタは「人工クレーターを作る」ために使用され、Ryuguの地下物質を採取する。こいつがすごい。要するにこれは巨大な弾丸であり、2キログラムの銅製円盤が爆発物の前面に装着されていて、爆発時には秒速2km、時速約7200kmで目標に向かって発射される。

試験中のHayabusa 2のインパクタ。標的を打ち抜き、試験場の反対側のがれきに衝突した。

探査機は衝撃による表面の変化を観察し、他のクレーターの起源に光を当てて表面の性質の分析に役立てるだけでなく、自身が着陸し、露出された「新鮮な」物質を採取する。

全体的にみて、これはとてつもなく興味深いミッションであり、日本のNASAにあたるJAXAが独自に築き上げた業績だ。小惑星採掘会社の連中はHayabusa 2を固唾をのんで見守っているに違いない。数年後には、彼ら自身の探査機を打ち上げるかもしれないからだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

昆虫からヒントを得た羽ばたくロボットが一回の充電で1キロメートルを飛ぶ

イエバエやミバエなどの、信じられないほどの敏捷さは、すべてのロボットとドローンを赤面させる。でも彼らに見倣ったデバイスが、やっと追いつきつつある。このたび新たに作られた四翼の羽ばたきロボットは、ミバエのあまりにも敏捷な飛行方法の模倣に成功しただけでなく、一回の充電で最大1キロメートルも飛ぶことができる。

デルフト工科大学のロボティクスの研究者たちは、昆虫の飛び方に関して彼らがまとめた理論を、実際にロボットとして実装し検証するための飛行体を作りたい、と思った。もちろんそれはワイヤレスで、しかもプロペラなど昆虫に本来ない推進機構があってはいけない。

彼らは単に、羽ばたきで前進するクールなロボットを作りたかったわけではない。昆虫が、突風や自分を叩(はた)こうとする人の手の動きなどに反応するときの、リアクションとコントロールはおそろしく速い。これほどの情報伝達能力を自動操縦ドローンや小型飛行機が持ったら、すごいことになるだろう。あなたが乗ってるジェット旅客機が稲妻を自動的にスムーズに避けることができたら、すてきではないか。

しかし昆虫よりもずっと大きなものになると、その飛行方法は質量が大きすぎて機能しない。彼らの羽ばたきロボットはScience誌の表紙を飾り、彼らのこんなペーパーが載った:

重量とサイズの制約が厳しいので、これまでの設計の多くが、その原型となった生物の飛行性能に到達できていない。それらは必要なレベルの敏捷性を欠き、離陸に必要なパワーがなく、1分以上飛ぶことのできる十分なエネルギーを搭載できなかった。

それだけではなく、Robobeeのような小さなロボットは電源に接続するケーブルを必要とし、そのほかの小さな羽ばたき機は手動による有線の操縦を必要とする。それでは、だめだ! そこでデルフトのチームは、小さな動物の生物的機構を忠実に模倣することをやめて、同じ飛行特性を現実的な大きさで実現できる、ほかの方法を探した。

彼らが作った四翼で尾のないスタイルの創造物DelFly Nimbleは、奇抜だが疑う余地なく有効だ。彼らのロボットは秒速7メートル(時速約25キロメートル)で飛び、定位置でホバーリングでき、急降下や回転など、あらゆる極端な動きがスムーズにできる。ジョークではなく実際に、継続的な推力のあるローターでそれらができる。羽根の動きを調整してコントロールする。このビデオで、そのほかの妙技を見てみよう。

たぶん、いちばん驚異的なのは、その航続距離だ。このロボットは一回の充電で1キロメートル飛ぶ。無人ロボットで‘キロメートル’などという数字は、ほとんど軍用品の仕様だ。

しかしDelFly Nimbleは、興味深い科学的データも作り出している。研究のリーダーMatěj Karásekが説明する:

動物実験と違って、ロボットの脳の中で起きることを完全にコントロールできる。そのため、飛行をアシストしている新しい受動空気力学の仕組みを見つけて記述できる。そのほかの飛行動物の、高速傾斜旋回の間の方向制御の仕組みも、そこから理解できるだろう。

開発は継続しており、生物学者や政府機関方面からオランダの発明家たちに宛てた、関心表明の手紙も日増しに増えている。

画像クレジット: デルフト工科大学

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Cytera CellWorksは細胞培養を自動化してあなたの食卓に細胞から育てた肉を届けたい

Cytera CellWorksは、細胞培養の自動化によって、いわゆる“クリーンミート”産業を革命したいと願っている。そしてそれは、すべてが計画通りに行ったら、同社の製品がアメリカのすべての食料品店で買えるようになることを意味している。

でも、その日はまだまだ遠い。2017年にイギリスの二人の大学生Ignacio WillatsとAli Afsharが創ったCyteraは、ロボットを使用するオートメーションで細胞培養を構成し、 ペトリ皿でターキーの肉を育てたり、幹細胞を検査したりするようなときの培養過程を本格的な生産工程に乗せるつもりだ。

二人のファウンダー、イベントやスタートアップをやってきたWillatsと科学者のAfsharは、従来とは違うやり方でラボの構成を改良しようとしている。たとえば、GoProのカメラを全員が着用する、とか。二人はロンドンのインペリアル・カレッジで、ラボ(〜研究室)の自動化のためのイベントをやるつもりだったが、そこから友情が育ち、会社を作ることになった。

Afsharはこう言う: “当時、ラボの自動化はやや次善のアイデアだった。本当は、もっと強烈なインパクトのあるものを、やりたかったんだ”。

細胞レベルの農業(“細胞農業”)は、動物の細胞をラボで育てる技術で、すでにY Combinatorのこの夏のクラスに二社が入学している。つまりそれは、スタートアップの本格的な起業テーマになりつつある。もはや、人が眉に唾を塗るきわものではない。

ラボ製の食肉産業は、急激に拡大してきた。それは動物の細胞の生検を取って、それらをラボで育て、生きてて呼吸をしている動物ではないものから、肉を作ろうとする。過去2年間で、Memphis Meatsのようなスタートアップが雨後の筍し、ラボミートをレストランに提供してきた。完全植物性のマヨネーズで名を上げたHampton Creek(今はJust)でさえ、今はラボ育ちのフォアグラを作っている。

最初Cyteraは、ラボの一般的な自動化に関心があったが、世間の関心と今後の事業化の可能性から細胞培養の自動化に集中するようになり、名前も今のCyteraに変えた。すでに、著名な遺伝子治療企業など、将来性ありそうな見込み客も数社ある(まだ名前は公表できない)。

ラボの自動化は新しいテーマではなく、すでにいろんな業界が取り組んでいる。たとえば大手製薬企業は、投資額数十億ドルという大規模な機械化と電算化により、新薬発見過程を大規模に自動化している。そんな大企業が将来、食肉企業と組んで大規模なラボ製食肉生産を始めるかもしれない。現在まだそんな動きはないが、WillatsとAfshaは、大企業は小さなスタートアップと組んだ方が仕事が早いだろう、と見ている。

小にも大にも、それなりのトレードオフはあるが、でもCyteraが成功したら、そのころのあなたは、Cyteraのラボで作られた細胞を買った企業が培養した、鶏の胸肉を食べているかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa