小さな海の生き物を顕微鏡観察できる回転式水槽装置

我々の海に満ちている微細な生物を観察することは重要な作業だが、野生の状況下でそうした生物を観察し続けることは実際には難しい。また実験室の平たい皿の中で観察することは野生状況とは異なる。だがこの「流体力学式トレッドミル」を使えば、野生と実験室との両者を織り交ぜたベストの観察環境を提供することができる。これは水中生物が泳ぎ続けることができる終端のない水の入ったチューブで、同時に自動化された顕微鏡による観察を継続的に行える仕掛けだ。

The Gravity Machine(グラビティ・マシン)という名のその機械は、生物工学者であるManu Prakash(マヌ・プラカシュ)教授の下で、スタンフォード大学の研究者たちが生み出したものだ。教授と一部の学生たちは、マダガスカルへの調査旅行中に、生物が上下に動くのを追跡できる顕微鏡が取り付けられた、少し不格好な1mほどの長さのチューブを作った。しかし、こうした微生物は、太陽や水中の栄養素を追いかけるために、1日数百m移動することがある。

「こうした生き物を、それらの生息環境で観察することはできていませんでした。ここ200年ほどの間ずっと。私たちは限定された環境を顕微鏡で覗いて観察していただけなのです。例えば、1km以上にわたって移動するある生物を追跡したいなら、1kmのチューブを用意しなければならなかったのです」とプラカシュ教授はいう。「ひらめいたのは、その問題についてあれこれと考えていた最中でした。『アハ!』の瞬間です。長いチューブを使う代わりに、チューブの端同士を連結してしまったらどうだろう?」。

できてしまえば、この仕掛はほとんど明らかなものに思える。浅い水の中で生き物が泳ぎ回っている皿に向けて、顕微鏡を上から向けるのではなく(そうした状況は自然には存在しない)、水と観察対象の生物が入った閉じたガラスのループ状のチューブを、横から観察するのだ。生き物は自由に上下に向かって泳ぐことができ、それに伴ってループがゆっくりと回転して顕微鏡のフレーム内に対象を保ち続ける。

3D顕微鏡に接続されたコンピュータービジョンシステムが、対象となる生き物の位置を注意深く追跡して焦点を合わせ続けるが、その傍らで補助システムが移動した正確な距離やその他の数値を記録している。

チームはこのデバイスを使用して、微視的生物たちの、あらゆる種類の美しく科学的に興味深い行動を捕らえることができた。「なにかの生物をこの器具に入れるたびに、新しい発見があったと言っても過言ではありません」とプラカシュ教授は語った。

例えば、目新しいものの1つは、こうした生き物をこのような形で観察していることから明らかになったことだが、流動的な環境でミクロン単位の大きさで生活しているにもかかわらず、重力がかれらの生活の大きな要素を占めているという事実だ。「彼らはみな重力(グラビティ)を認識していますし、みな重力を気にしています」とプラカシュ教授はいう。生き物の振る舞いを科学者たちが直接観察できるようにするこのマシンが作成されるまでは、それが正確にどのようなものかと言うことはとても難しかった。それこそがこの機械の命名の理由だ。


機器が生み出した画像は、一般の人にとっても視覚的に引きつけられる興味深いものだ。普通海洋微生物学の分野では、一般市民の関心を引くことは非常に困難だ。渦鞭毛藻目に属する海生プランクトンの、日中の行動習慣について言葉で説明しようとしても、聞き手の目はどんよりしてしまうのが普通だ。だがこうした美しい生き物たちが一生懸命何かやっている様子を、それが何にせよ、クローズアップされピントの合った状態で見せられるのは単純に魅力的なのだ。

水はループ内に留まっているものの、それは完全に閉じたシステムであることを意味していない。ちなみに理想的にはそうなのだが「実験室で水をぶちまけてしまったこともあります」とプラカシュ教授は語る。

「我々は生き物が何をしているかに基づいて、さまざまな要素を追加することができます」と語るのは大学院生のDeepak Krishnamurthy(ディーパック・クリシュナムマーシー)氏だ。「我々は栄養素を投入し、光の強度を変えることもできます。それは、生物とその環境の間のフィードバックループとなります。また我々はは、圧力、温度、その他の海洋の性質の側面からも取り組んでいます」。

私は以前このようなものを見たという記憶を振り払うことができなかった、実際Gravity Machineの開発に際しても、プラカシュ教授自身が1950年代にあった似たようなアイデアに出合っていたのだ。それはHardy(ハーディ)氏という名前の海洋生物学者が、クラゲを無限に泳がせるために使っていた、はるかに大きなループ水槽である。もちろん、現在の装置は、我々はが現在持っている高度な機械学習とロボット技術があるからこそ可能になったものだが、プラカシュ教授は「歴史的な背景は、実際非常に美しいものです。我々はは実験室の中で、そこから大事な要素を引き出したのです」という。

スタンフォード大学のこのGravity Machineは、史上初のものというわけではないものの、チームはそれがこの先も受け継がれていくように、機器をどのように開発し運用するかについての詳細な文書を公開する。

「我々はそれができる限りオープンになるように注意しました、それはハードウェアとソフトウェアに対する我々はの選択にも影響を与えました」とクリシュナムマーシー氏は語る。「その目的は、この機器を研究目的のために完全にオープンソースにすることです。追跡にはオープンソースのアルゴリズムを使用し、ピントを維持するためのコントロール、データを監視および収集するためのUIは自作しました」。

「我々は、gravitymachine.orgサイトに、これを作るための一連の説明を置くつもりです」とプラカシュ教授は付け加えた。通常の顕微鏡を、少しばかり改造して、容易に手に入る部品を使うことで利用することができる。いずれにせよそれは、各研究室が自身で利用する機器を自作する手間と、あまり変わるものではない。彼は、好奇心の強いユーザー向けに、無限に続く水柱の中で、生き物が何をしているのかを観察できる「家庭版」の作製さえほのめかした。シーモンキーのライブショーをテレビの上で見るようなものだ。

Gravity Machineの正確な仕様はまもなく公開され、チームがデバイスを使用して発見した新しくてとても奇妙な事実に関する論文もまもなく発表される。それは自発的に密度を制御して水柱の中を上昇したり下降したりする珪藻についての論文だ。デバイスのさらに詳細については、そのサイトまたはスタンフォードのニュース投稿(スタンフォード大サイト)で読むことができる。

画像クレジット: Stanford University

原文へ

(翻訳:sako)

スタンフォード大とグーグルが埋め込み可能な新型コロナマップを地元ジャーナリストに提供

米国時間4月14日、スタンフォード大学のBig Local NewsとPitch InteractiveプロジェクトはGoogle News Initiativeと共同で、米国における新型コロナウイルス(COVID-19)の拡大に関するカスタマイズされた最新マップを地元のジャーナリストが記事やウェブサイトに埋め込むことができる新しいツールを発表した。

COVID-19 Case Mapperは非常に基本的なツールのように見えるかもしれないが、Google Data EditorのSimon Rogers(サイモン・ロジャー)氏は、このようなツールが以前から存在しているべきだったことを認めている。

地元のジャーナリストは新型コロナウイルスの最新動向を読者に知らせようと最善を尽くしているが、ロジャー氏によれば、異なるデータソースを正規化し、独自のマップを作成するツールはなかったかもしれないと述べている。

「既に起きてしまっていたローカルニュースの危機は、新型コロナウイルスによりより悪化した」と、ロジャー氏は語る。

さらに既存の新型コロナウイルスのケースマップの多くは、ジャーナリストが簡単に情報を埋め込む方法を提供していないとロジャー氏はいう。「情報を広く発信するのに重要なのは、どこにでも埋め込めて、どこでも使えることだ」。

現在、米国のジャーナリストは、COVID-19 Case Mapperにアクセスして地図を作成したい地域を選択し、埋め込みコードをコピーするだけで、記事やウェブサイトに地図を埋める。地図はThe New York Timesの新型コロナウイルスのカウントデータを使用しており、10万人あたりの患者数に基づいて色分けされているので、人口に対する感染拡大の深刻さがひと目でわかる。

これは新型コロナウイルスに関する誤報と対峙するため、グーグルが650万ドル(約7億円)を投じて行っているより広範な取り組みの一環である。地図は最初はアメリカ限定だが、すぐにグローバル版をローンチする計画があるとロジャー氏という。

新型コロナウイルス 関連アップデート

原文へ

(翻訳:塚本直樹 Twitter

スタンフォード大学が新型コロナ懸念で教室での授業を中止

オースティンで開催されるはずだったSXSWカンファレンスSaaStrといったこの数日間における大型イベントのキャンセルに続き、カリフォルニア州パロアルトのシリコンバレー中心部に位置するスタンフォード大学は、米国時間3月6日の金曜日遅くに、新型コロナウイルス(COVID-19)の感染が拡大していることをうけて、冬学期最後の2週間、対面での授業を中止すると発表した。

スタンフォード大学 の声明の中で、同大学の教務副教授であるPersis Drell(ペルシス・ドレル)氏は、スタンフォード大学は冬の学期試験に向けた2週間の授業を中止し、「実行可能な範囲で」オンライン形式の授業に移行すると発表した。

また、大学教授たちには政府から従来と同等のオンライン形式の教材を提供する方法の考えるように促されており、冬学期に行われるすべての試験はリモートで提供される予定だ。この方針は、3月9日月曜日の授業から直ちに実施される。

さらにスタンフォード大学は、毎年開催されていたAdmit Weekendを中止する。Admit Weekendでは、入学希望者が学部課程への進学先を最終的に決める前に、週末にヤシの木で囲まれたキャンパスを訪れて、学校についてさらに詳しく学ぶはずだった。また、キャンパスツアーも中止になっている。

スタオンフォード大学はまた別のメモで、2人の学生が新型コロナウイルスの「汚染環境に滞在した」ため、隔離されていることを認めた。同大学は、現時点においてどちらの学生も同ウイルス感染に対して陽性反応を示していないと強調した。

サンフランシスコのベイエリアでは、新型コロナウイルスにさらされる可能性のある人数が増えている。スタンフォード大学は世界的に大流行している新型コロナウイルス対応の先頭に立っており、今週にはこの感染症を検出する独自の検査法を開発したことを発表していた。

[原文へ]

(翻訳:塚本直樹 Twitter

壁の向こうに閉じ込められている人を見つける軽量レーダーデバイス

災害時などのファーストレスポンダー(第一応答者)は、状況を知ることが何より重要だ。家庭内暴力の解決でも、人質の救出でも、人身売買の現場でも、ファーストレスポンダーは何よりもまず、閉まったドアの向こうに人がいることを素早く判断しなければならない。そのための有効なツールはないだろうか。

そこでMegan Lacy(メーガン・レース)氏、Corbin Hennen(コービン・ヘネン)氏、Rob Kleffner(ロブ・クレフナー)氏の3名は、Lumineye(ルーミナイ、照らす目)を開発した。この3Dプリントで作ったレーダーデバイスは、信号分析のソフトウェアを使って壁の向こうで人が動いていたり呼吸していることを検知する。

Lumineyeはパルスレーダーの技術を利用して、コウモリやイルカのようなエコロケーション(反響定位)を行う。信号を送り、そのパルスが返ってくる時間を計測するのだ。行きと帰りのパルスをソフトウェアが分析して、信号の運動特性、その大きさや範囲を判定する。

Lumineyeのソフトウェアは、壁の向こうで動いたり呼吸したりしている人までの距離も判定する。信号は一次元なので、壁の向こうのどこにいるかは特定できないが、野外では15メートル先までの人を検出できる。ただし、煉瓦やコンクリートなどの障害物が間にあれば、検出可能距離は短くなる。

チームは人質救出の例で、Lumineyeのアドバンテージを説明している。そのような状況では、ファーストレスポンダーは何よりもまず、部屋に閉じ込められている人質の数とその広がり(各人間の距離)を知る必要がある。どうするか? 複数のLumineyeを使って三角測量の計算をするのだ。それによって救出チームは、より効果的に行動できる。

このような検出のための今ある機械装置は、どれも重くて大きくて運びづらく使いづらい。そこでLumineyeのチームは、軽くてポータブルな器具を作るべきと考えた。救出チームの仕事は、12時間とか24時間続く場合もある。機器は軽い方が良い。プロトタイプは検出用のハードウェアにふつうのスマートフォンを組み合わせたもので、大きさは25×12cm、重さは600gぐらいだ。

チームは、Lumineyeをもっと世の中の至るところにあるデバイスにしたいと考えている。設計に改良を加え、消費者にも直接売りたい。

Lumineye Device BreathingMode

Lumineyeのデバイスは電波を使って壁の向こうの人間を見つける

Lumineyeはまだ、最初のパイロット事業を始めたばかりで、8月10日にFEMA(米国合衆国連邦緊急事態管理庁)のイベントに出て、瓦礫の下に埋まった人を見つけるデモをした。チームは全員アイダホ州ボイシの生まれだが、スタンフォード大学と国防総省の共同事業であるHacking4DefenseにもLumineyeを出展した。それは、米国の国防や諜報活動にシリコンバレーのイノベーションを結びつけようとするイベントだ。そしてこのアイダホのチームは目下、Y Combinatorの2019夏季クラスを受講中だ。

Lumineye TeamPicture 1

写真に向かって左から、Megan Lacy氏、Corbin Hennen氏、Rob Kleffner氏

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

一般市販部品で誰でも作れるオープンソースの四足ロボ

政府からの100万ドルの研究助成金がなくても、わずか数千ドルと確かな技術力があれば本格的なロボティクスプロジェクトが可能だ。スタンフォードの学生たちはDoggoと名付けた四足ロボットでそれを証明した。その最大の特徴は、一般市販の部品だけでできること。もちろん肘や膝などの関節部分には、大量のグリースが要るけど。

ロボットとオートメーションに関するIEEEの国際会議でプレゼンするために作ったDoggoは、Stanford Robotics ClubのExtreme Mobilityチームの作品だ(彼らのペーパーがここにある)。その目的は、ほかの人たちでも作れるような現代的な四足ロボットを最小の費用と最少のパーツで作ることだ。

このかわいいロボットは、一見ごつごつしているけど、その多角形の脚は意外なほどしなやかで、きびきびと歩き、1m近く垂直ジャンプもする。スプリングやショックアブソーバーはいっさい使っていないが、脚にかかる力を毎秒8000回サンプリングすることによって、素早く反応する。まるでモーター自身が(仮想的に)スプリングでもあるかのように。

動く(前進と上方ジャンプ)ことだけが目的で、自律能力はないし、自分のまわりの世界を理解する能力もない。でもすてきなのは、誰でも作れることだ。特殊なモーターや部品は何も使ってなくて安上がりだから、一般的にロボット工学の最初の教材になるだろう。Doggoを自分で作ってみたい人のための、設計と必要な部品の詳細はGitHubのここにある

チームのリーダーのNathan Kau氏はスタンフォードの学内紙で「四足ロボットは研究でよく使われるが、研究プロジェクトごとにゼロからそれを開発しなければならない。このStanford Doggoはオープンソースのロボットとして、比較的少ない予算でも各研究者が自分なりの四足ロボットを作れる」とコメントしている。

Extreme Mobilityチームは同大のRobotic Exploration Labとコラボレーションして、Doggoの改良に取り組むつもりだ。改良作はDoggoの倍ぐらいの大きさになり、Wooferと呼ばれる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

過去1年間に調達したベンチャー資金総額、出身校別ランキング

大学のランキングといえば、それが資本豊富なファウンダーの数であれ、調達資金総額であれ、ベンチャーキャピタリストの出身校であれ、リストの上位には常に同じ名前が並ぶ。唯一のサプライズ要素は、ハーバードとスタンフォードのどちらがトップにいるかくらいだ。

この2校がトップに来ないような大学・スタートアップ関連のランキングを作ることは可能だが、今日はやらない。今回注目したのは出身ファウンダーが調達したベンチャー資金総額の多い大学のランキングだ*1

それ以外はどの大学がランク入りしたのか?

幸いリストには2校以外の名前もあった。この調査では、卒業生が過去ほぼ1年の間にベンチャー資金を最も多く集めた大学トップ15に注目した。

以前本誌の記事で、卒業生の中に100万ドル以上調達したスタートアップのファウンダーがいる人数で大学をランク付けしたことがある。本稿はその追跡調査となるが、ほとんどの名前は同じで、順序が少し変わっただけだった。

下の表をご覧いただきたい。学校名、2017年8月1日以降に調達したベンチャー資金総額、および調達額の多い企業名が書かれている。

調査方法

この調査結果では、大学と系列ビジネススクールを合算している。このため、ハーバードやペンシルベニア大学(ウォートン・スクールの母体)など有名ビジネススクールを傘下に持つ大学の調達総額が大きく跳ね上がっている。

また、何人かのファウンダーはランキングにある複数の大学で学位を取得している。該当する起業家は大学毎に1回ずつ数えた。

(*1)調査対象はシードからレイトステージまでの2017年8月1日以降に発表されたベンチャー資金調達ラウンド。

[原文へ]

(翻訳:Nob Takahashi / facebook

VR技術が老眼を救う

目の前1インチのところに仮想現実世界を描いて見せるVR技術が、現実世界のスマート眼鏡を生み出すことになるかもしれない。開発中のデバイスは「Autofocals」という名前で、これを使えば視力の低下によりもたらされる問題を解決することができるよ。深度センサーおよび視線追跡機能を利用して、自力で焦点調節をできない人が、正しく物を見ることをサポートする。スタンフォードの研究者たちが手がけるもので、現在のところはプロトタイプ段階だ。

研究チームのリーダーであるNitish Padmanabanに、バンクーバーで開催されているSIGGRAPHにて話を聞くことができた。彼自身を含む研究チームが、イベント会場にて最新版の紹介を行なっていたのだ。Padmanaban曰く、このシステムは近くのものが見にくくなる「老眼」による不便さを軽減することができるとのこと。老眼には多くの人が苦しんでおり、若い頃に素晴らしい視力を誇っていた人も悩まされている。

もちろん、現在でも乱れたピントを正すために、二重焦点レンズや累進レンズなどがある。これらは焦点を合わせるために光を屈折させるという方法をとる。純粋に光学的な解決策で、値段も安くて便利に使っている人も多い。しかしこの方法では度数も固定され、視野も限られることになる。度数を調整ができる眼鏡も存在するが、利用するには眼鏡横のダイアルを手動で調節してピントを合わせる必要がある。眼鏡を使っている人の目的(見る対象物)に応じて、自動的に対応できるレンズはできないだろうか、というのが本プロダクトのスタート地点であったそうだ。

そうした目的に向かって進み始めたのがPadmanabanおよびRobert Konrad、そしてGordon Wetzsteinだ。現時点のプロトタイプは武骨で、実用にはほど遠いものだ。しかし仕組み自体のもつ可能性については、注目している人も多いようだ。

PadmanabanはこれまでVR系技術の研究をしてきた。その頃から、眼の調節作用(convergence-accommodation problem)について研究してきている。これは(その当時の研究対象でいえば、VRの世界で)遠くを見てから近くを見るときに、焦点が正しく合わないことについて研究するものだ。焦点をうまくあわせられず、目眩や吐き気などを感じてしまう問題だ。VRの世界では10フィートの視点移動もスムーズに行なえないことがあり、そうした中で、見ているものに自動的に焦点を合わせる技術が研究されてきた。そしてこの技術を、現実の世界で焦点を合わせるのに困難を感じる人のために活用してみようというのが、Padmanabanらのアイデアだ。

写真は以前に開発したプロトタイプ

仕組みとしては、まず眼鏡に備えられた深度センサーが利用者の前面に広がる景色を把握する。たとえば14インチ向こうに新聞があり、テーブルは3フィートあちら側、などといった具合だ。そして視線追跡システムが、今現在どこを見ているのかを認識して、見ているものにピントを合わせるわけだ。

20インチより近いところに焦点を合わせにくい人に使ってもらってみたところ、うまくレンズを調節して、みたいものを見せることができたそうだ。

上の具体的ケースでいえば、利用者がテーブルの上や部屋の奥を見ているような場合には、近距離を見るための仕組みを作動させる必要はない。しかし新聞に眼をやった場合、直ちにレンズを調節(右目、左目を独自に調節するのだろう)し、きちんと焦点を合わせることができるようにするわけだ。

視線を検知して、見たいものまでの距離を判断して調節するのに150ミリ秒ほどかかるのだとのこと。これは「流れるように」というわけではなく、利用者にワンテンポの遅れを感じさせるものだ。しかし老眼の人が見る対象を変更して、そして焦点を合わせようとするには3、4倍の時間がかかるのが一般的だ。開発中のデバイスは確かに利用者の役に立つものとなりそうだ。

「Autofocalsは未だプロトタイプ段階ですが、すでに従来の老眼対策の仕組みに対抗し得るものになっており、ケースによっては優位にたつ能力を発揮しています」と、SIGGRAPHで配布されている短い資料には記されている。「自然な感覚で利用することができ、Autofocalsは広く受け入れられることになるでしょう」。

開発チームは現在、本システムの利用に伴うメリットを検証し、またあり得る悪影響や不具合などについてテストしているところだとのこと。まだ商用化には超えなければならない壁が多く残されているが、しかしPadmanabanによればいくつかの企業がこのシステムに興味をもち、そして製品化を有望視しているのだとのこと。実験段階に一段落ついた時点で、詳細な方向性が明らかになってくるのだろう。

原文へ

(翻訳:Maeda, H

わずか20セントの子どもの回転おもちゃで1000ドル相当の医学用遠心分離器を作れた

paperfuge_hands

高速回転により液体中の物質を分離する遠心分離器という器具は、世界中の医学研究所にある。しかしその良いものは2000ドルぐらいするし、もちろん電気が必要だ。お金も電気も、世界の最貧国の田舎の病院にはないだろう。スタンフォード大学の研究者たちが作った代替品は、わずか数セントの費用でできるし、充電も要らない。彼らのヒントとなった子どもの玩具は、遠心分離器として意外にも高品質なのだ。

その回転玩具は、単純な構造だ。ボタンのような小さなディスク(円盤)に、糸を2本通す。その糸をゆっくり引くと、ボタンは相当速く回り始める。子どものころ自分で作った方も多いと思うが、研究者の一人も、自分の子どものころを思い出しながら、そのPaperfugeと呼ばれる器具を作った。

彼は大学が作ったビデオの中でこう言っている: “これは、ぼくが子どものころ遊んだおもちゃだ。でも、その回転速度を測ったことはなかった。そこで、試しに高速カメラで撮ってみたんだが、それを見たときは自分の目が信じられなくなった”。

その回転おもちゃは、10000〜15000RPMで回転していた。それはまさに、遠心分離器の回転速度だ。その後チームは、回転おもちゃの動きを詳しく研究し、それが。線形の動きを回転運動に変換する、すばらしく効率の良い方法であることを発見した。

チームは独自の回転おもちゃを作り、それに紙製のディスクを取り付け、そこに血液などの液体を入れたバイアル(小型ガラス瓶)をはめられるようにした。糸には扱いやすいようにハンドルをつけ、1〜2分糸を引き続けると、1ドルにも満たないその器具が、その何千倍以上もするデバイスの仕事を見事に演じた。回転数は125000RPM、30000Gに達した。

paperfuge_field

“このような、お遊びのような試行方法はきわめて有意義だ。正しい解はどうあるべき、という固定観念から、われわれを解放してくれる”、指導教授(TEDのフェロー)のManu Prakashはそう語る。

実用試験は、マダガスカルで現地のパラメディカルたちと一緒に行った。そこでは、血液からマラリア原虫を分離することに成功した。次は、もっと公式の臨床試験が待っている。

このようなシンプルで安上がりな実験器具は、前にもあったな、と思われた方は、きっとFoldscopeを見た方だろう。これもやはり、Prakashのプロジェクトだ。それはボール紙を折りたたんで作った顕微鏡で、製品化されたものでも数ドルで買える。これを使えば、安い費用で科学研究や医学の研究を行うことができる。

PrakashらのチームによるPaperfugeとその開発の詳細は、最新号のNature Biomedical Engineeringに載っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

スタンフォード大学のロボット‘Jackrabbot’は歩行者が無意識に守っている説明の難しい複雑なルールを学習中

jackrabbot

人間の大人でも、人混みの中を歩くのが難しいことがある。ましてや、不器用で素朴な脳のロボットはどうだろう? 人にぶつかることを避けるために、“右へ行くべきか左か?”を一瞬々々ぎごちなく考えながら歩く、…スタンフォード大学の研究者たちは、彼らのロボット”Jackrabbot”が、そんな路上のルールを学習できる、と期待している。

同大のComputational Vision and Geometry Lab(コンピューターによる視界とジオメトリ研究所)はこれまですでに、歩行者の動きを追跡して予測するコンピュータービジョンのアルゴリズムを作ってきた。しかしそのルールはきわめて複雑で、群衆や歩道の幅、一日の中の時間帯、自転車やベビーカーの有無、等々大量の変数を含むため、まさしく、そのほかの機械学習のタスクと同じく、有益な結果を得るためには膨大な量のデータを必要とする。

LSTM-probmap

しかも、彼らが開発しているアルゴリズムは、完全に観察データだけを使用し、それをニューラルネットワークが解釈することを意図している。研究者たちが、ヒント(“この状況では人は必ず左へ行く”など)を与えてはいけない。

彼らのこれまでの努力は小論文に記され、今月の終わりごろ出るCVPRに掲載される。彼らが作った動き予測アルゴリズムは、多くの同種アルゴリズムよりも優れており、そのモデルは、人が集団の中で相互作用/反応する場合の複雑微妙ぶりをある程度学習できた。

現在、楽しげにめかしこんだJackrabbot(上図)は、人間が手動でコントロールしながら、研究のモデルをロボットの知覚に実装する方法を模索している。その本体は実はSegway RMP210の改造バージョンで、ステレオカメラとレーザースキャナーとGPSを搭載している。訓練用データは鳥瞰ビューを使用したが、ロボット本人には鳥瞰的視界を持たせずに、さまざまな歩行者の互いの距離と歩行速度から、空間中の各個人の座標を求め、彼らの動きを高い精度で予測させる。

cv_intersection

研究者のAlexandre Alahiは本誌へのメールで、“この夏には、私たちの社会的知覚を持つ予測モデルをロボットに実装したい。リアルタイムのデモは、年末までには行いたい”、と言っている。

人間の空間を無事にナビゲートできるロボットが、まだ万人の目の前ではないけれども、どこかSFにほとんど近いような場所に、出現しようとしている。しかし、われわれが日々、思考を必要とせずに行っていること…回りをスキャンしその場の障害物と運動物を判断し、それに応じて自分の動きを適切に計画すること…は、コンピューターにとってものすごく難しいことなのだ。

このようなプロジェクトの多様な蓄積の中から、最終的には、家の中や都市の中を人間と同じようにはやく安全に、他人に配慮しながら歩けるロボットが生まれるだろう。自動運転車がたぶん都市の道路の様相をすっかり変えてしまうように、自律性のある歩行者ロボットは、それがヒューマノイドであろうとなかろうと、歩道の状況を変えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

重度のアレルギーに苦しむショーン・パーカー、アレルギー研究センター建設に2400万ドル寄付

Napsterの共同ファウンダー、Facebook初代CEOにして大株主のビリオネア、ショーン・パーカーは小さいときから重度のアレルギーと喘息に苦しんできた。ピーナツに触れた食べ物を知らずに食べて救急病棟に運び込まれた回数は文字通り数えきれないほどだという。 私の電話インタビューに対してパーカーは「結婚してからだけでも14回入院している。ピーナツ、アボカド、甲殻類、全部ダメだ。大学4年のときには集中治療室に3週間も入院した」と語った。

アレルギーには遺伝子が関係していることは2児の父であるパーカーには大いに気がかりな問題となった。そこでパーカーはアレルギーの原因解明と治療法の開発のためにスタンフォード大学に個人として2400万ドルを寄付することにした。

この資金はスタンフォード大学にショーン・N. パーカーアレルギー研究センターを建設するために使われる。アメリカにおけるアレルギー研究のための寄付としては過去最大となるそうだ。

全人類は30から40%がなんらかのアレルギーを持っていると推定されている。 全米アレルギー、喘息、免疫学アカデミーの調査によると、世界の小学生のアレルギー率は40から50%に近づいているという。

アレルギーに悩んだパーカーはFacebookで友達になったシェリル・サンドバーグに紹介してもらい、アメリカにおけるアレルギー治療の最高権威の一人、Kari Nadeau博士に相談した。しかしNadeau医師でもパーカーに完全な答えは与えられないことがわかった。

「食物アレルギーを持つ人の25%はアナフィラキシーショックで少なくとも1度は死にかけています。現在FDA(食品医薬品局)に承認された治療法は存在しません」とNadeau博士は言う。

現在の治療法は、患者にアレルギーの原因物質をアナフラキシーショックを起こさない程度の微量与えるというかなり危険度の高いものだ。繰り返しアレルゲンを与えることによって患者の免疫システムがこの物質を無視するようになることを期待するわけだ。この減感作療法はいつも成功するとは限らない。また成功した場合でもその理由は不明だ。実際、なぜ人はアレルギーになるのか、アレルギー患者が増えているのはなぜなのかも分かっていない。そもそもアレルギーについて分かっていることはほんのわずかしかない。パーカーはNadeau博士他の専門家が分子レベルでアレルギーのメカニズムを解明してくれることを期待している。

私自身、パーカーのアレルギーほど重症ではないが枯草熱の持病があることを話した。「きみの枯草熱も、結局は免疫システムの問題なんだ。基本的には同じ原因だ。特定の物質が体内のタンパク質と特異的に結合する。研究によってそのブラックボックスを開いて欲しいんだ」とパーカーは語った。

パーカーはこの寄付がかなり風変わりであることを認める。「むしろベンチャーキャピタルのアプローチに近いだろう。スタートアップに投資するのと同じ戦略だ。優秀なチーム、適切な環境、正しいタイミングを見極める必要がある。治療法の研究でも同じことだ」。

パーカーが医療分野で寄付をするのはこれが初めてではない。ガンの研究に2000万ドルを寄付しているし、マラリア・ノー・モア運動の寄付集めを手助けしている。またeシガレットのスタートアップ、NJOYはパーカーらから10億ドルの資金調達を行っている。

パーカーは「新センターは5年から10年で新しい治療法を発見できると思う。ある程度進捗したらスタンフォードから世界へ臨床治験を広げたい」と語った。

[原文へ]

(翻訳:滑川海彦@Facebook Google+