スタンフォード大とグーグルが埋め込み可能な新型コロナマップを地元ジャーナリストに提供

米国時間4月14日、スタンフォード大学のBig Local NewsとPitch InteractiveプロジェクトはGoogle News Initiativeと共同で、米国における新型コロナウイルス(COVID-19)の拡大に関するカスタマイズされた最新マップを地元のジャーナリストが記事やウェブサイトに埋め込むことができる新しいツールを発表した。

COVID-19 Case Mapperは非常に基本的なツールのように見えるかもしれないが、Google Data EditorのSimon Rogers(サイモン・ロジャー)氏は、このようなツールが以前から存在しているべきだったことを認めている。

地元のジャーナリストは新型コロナウイルスの最新動向を読者に知らせようと最善を尽くしているが、ロジャー氏によれば、異なるデータソースを正規化し、独自のマップを作成するツールはなかったかもしれないと述べている。

「既に起きてしまっていたローカルニュースの危機は、新型コロナウイルスによりより悪化した」と、ロジャー氏は語る。

さらに既存の新型コロナウイルスのケースマップの多くは、ジャーナリストが簡単に情報を埋め込む方法を提供していないとロジャー氏はいう。「情報を広く発信するのに重要なのは、どこにでも埋め込めて、どこでも使えることだ」。

現在、米国のジャーナリストは、COVID-19 Case Mapperにアクセスして地図を作成したい地域を選択し、埋め込みコードをコピーするだけで、記事やウェブサイトに地図を埋める。地図はThe New York Timesの新型コロナウイルスのカウントデータを使用しており、10万人あたりの患者数に基づいて色分けされているので、人口に対する感染拡大の深刻さがひと目でわかる。

これは新型コロナウイルスに関する誤報と対峙するため、グーグルが650万ドル(約7億円)を投じて行っているより広範な取り組みの一環である。地図は最初はアメリカ限定だが、すぐにグローバル版をローンチする計画があるとロジャー氏という。

新型コロナウイルス 関連アップデート

原文へ

(翻訳:塚本直樹 Twitter

壁の向こうに閉じ込められている人を見つける軽量レーダーデバイス

災害時などのファーストレスポンダー(第一応答者)は、状況を知ることが何より重要だ。家庭内暴力の解決でも、人質の救出でも、人身売買の現場でも、ファーストレスポンダーは何よりもまず、閉まったドアの向こうに人がいることを素早く判断しなければならない。そのための有効なツールはないだろうか。

そこでMegan Lacy(メーガン・レース)氏、Corbin Hennen(コービン・ヘネン)氏、Rob Kleffner(ロブ・クレフナー)氏の3名は、Lumineye(ルーミナイ、照らす目)を開発した。この3Dプリントで作ったレーダーデバイスは、信号分析のソフトウェアを使って壁の向こうで人が動いていたり呼吸していることを検知する。

Lumineyeはパルスレーダーの技術を利用して、コウモリやイルカのようなエコロケーション(反響定位)を行う。信号を送り、そのパルスが返ってくる時間を計測するのだ。行きと帰りのパルスをソフトウェアが分析して、信号の運動特性、その大きさや範囲を判定する。

Lumineyeのソフトウェアは、壁の向こうで動いたり呼吸したりしている人までの距離も判定する。信号は一次元なので、壁の向こうのどこにいるかは特定できないが、野外では15メートル先までの人を検出できる。ただし、煉瓦やコンクリートなどの障害物が間にあれば、検出可能距離は短くなる。

チームは人質救出の例で、Lumineyeのアドバンテージを説明している。そのような状況では、ファーストレスポンダーは何よりもまず、部屋に閉じ込められている人質の数とその広がり(各人間の距離)を知る必要がある。どうするか? 複数のLumineyeを使って三角測量の計算をするのだ。それによって救出チームは、より効果的に行動できる。

このような検出のための今ある機械装置は、どれも重くて大きくて運びづらく使いづらい。そこでLumineyeのチームは、軽くてポータブルな器具を作るべきと考えた。救出チームの仕事は、12時間とか24時間続く場合もある。機器は軽い方が良い。プロトタイプは検出用のハードウェアにふつうのスマートフォンを組み合わせたもので、大きさは25×12cm、重さは600gぐらいだ。

チームは、Lumineyeをもっと世の中の至るところにあるデバイスにしたいと考えている。設計に改良を加え、消費者にも直接売りたい。

Lumineye Device BreathingMode

Lumineyeのデバイスは電波を使って壁の向こうの人間を見つける

Lumineyeはまだ、最初のパイロット事業を始めたばかりで、8月10日にFEMA(米国合衆国連邦緊急事態管理庁)のイベントに出て、瓦礫の下に埋まった人を見つけるデモをした。チームは全員アイダホ州ボイシの生まれだが、スタンフォード大学と国防総省の共同事業であるHacking4DefenseにもLumineyeを出展した。それは、米国の国防や諜報活動にシリコンバレーのイノベーションを結びつけようとするイベントだ。そしてこのアイダホのチームは目下、Y Combinatorの2019夏季クラスを受講中だ。

Lumineye TeamPicture 1

写真に向かって左から、Megan Lacy氏、Corbin Hennen氏、Rob Kleffner氏

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

一般市販部品で誰でも作れるオープンソースの四足ロボ

政府からの100万ドルの研究助成金がなくても、わずか数千ドルと確かな技術力があれば本格的なロボティクスプロジェクトが可能だ。スタンフォードの学生たちはDoggoと名付けた四足ロボットでそれを証明した。その最大の特徴は、一般市販の部品だけでできること。もちろん肘や膝などの関節部分には、大量のグリースが要るけど。

ロボットとオートメーションに関するIEEEの国際会議でプレゼンするために作ったDoggoは、Stanford Robotics ClubのExtreme Mobilityチームの作品だ(彼らのペーパーがここにある)。その目的は、ほかの人たちでも作れるような現代的な四足ロボットを最小の費用と最少のパーツで作ることだ。

このかわいいロボットは、一見ごつごつしているけど、その多角形の脚は意外なほどしなやかで、きびきびと歩き、1m近く垂直ジャンプもする。スプリングやショックアブソーバーはいっさい使っていないが、脚にかかる力を毎秒8000回サンプリングすることによって、素早く反応する。まるでモーター自身が(仮想的に)スプリングでもあるかのように。

動く(前進と上方ジャンプ)ことだけが目的で、自律能力はないし、自分のまわりの世界を理解する能力もない。でもすてきなのは、誰でも作れることだ。特殊なモーターや部品は何も使ってなくて安上がりだから、一般的にロボット工学の最初の教材になるだろう。Doggoを自分で作ってみたい人のための、設計と必要な部品の詳細はGitHubのここにある

チームのリーダーのNathan Kau氏はスタンフォードの学内紙で「四足ロボットは研究でよく使われるが、研究プロジェクトごとにゼロからそれを開発しなければならない。このStanford Doggoはオープンソースのロボットとして、比較的少ない予算でも各研究者が自分なりの四足ロボットを作れる」とコメントしている。

Extreme Mobilityチームは同大のRobotic Exploration Labとコラボレーションして、Doggoの改良に取り組むつもりだ。改良作はDoggoの倍ぐらいの大きさになり、Wooferと呼ばれる。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

過去1年間に調達したベンチャー資金総額、出身校別ランキング

大学のランキングといえば、それが資本豊富なファウンダーの数であれ、調達資金総額であれ、ベンチャーキャピタリストの出身校であれ、リストの上位には常に同じ名前が並ぶ。唯一のサプライズ要素は、ハーバードとスタンフォードのどちらがトップにいるかくらいだ。

この2校がトップに来ないような大学・スタートアップ関連のランキングを作ることは可能だが、今日はやらない。今回注目したのは出身ファウンダーが調達したベンチャー資金総額の多い大学のランキングだ*1

それ以外はどの大学がランク入りしたのか?

幸いリストには2校以外の名前もあった。この調査では、卒業生が過去ほぼ1年の間にベンチャー資金を最も多く集めた大学トップ15に注目した。

以前本誌の記事で、卒業生の中に100万ドル以上調達したスタートアップのファウンダーがいる人数で大学をランク付けしたことがある。本稿はその追跡調査となるが、ほとんどの名前は同じで、順序が少し変わっただけだった。

下の表をご覧いただきたい。学校名、2017年8月1日以降に調達したベンチャー資金総額、および調達額の多い企業名が書かれている。

調査方法

この調査結果では、大学と系列ビジネススクールを合算している。このため、ハーバードやペンシルベニア大学(ウォートン・スクールの母体)など有名ビジネススクールを傘下に持つ大学の調達総額が大きく跳ね上がっている。

また、何人かのファウンダーはランキングにある複数の大学で学位を取得している。該当する起業家は大学毎に1回ずつ数えた。

(*1)調査対象はシードからレイトステージまでの2017年8月1日以降に発表されたベンチャー資金調達ラウンド。

[原文へ]

(翻訳:Nob Takahashi / facebook

VR技術が老眼を救う

目の前1インチのところに仮想現実世界を描いて見せるVR技術が、現実世界のスマート眼鏡を生み出すことになるかもしれない。開発中のデバイスは「Autofocals」という名前で、これを使えば視力の低下によりもたらされる問題を解決することができるよ。深度センサーおよび視線追跡機能を利用して、自力で焦点調節をできない人が、正しく物を見ることをサポートする。スタンフォードの研究者たちが手がけるもので、現在のところはプロトタイプ段階だ。

研究チームのリーダーであるNitish Padmanabanに、バンクーバーで開催されているSIGGRAPHにて話を聞くことができた。彼自身を含む研究チームが、イベント会場にて最新版の紹介を行なっていたのだ。Padmanaban曰く、このシステムは近くのものが見にくくなる「老眼」による不便さを軽減することができるとのこと。老眼には多くの人が苦しんでおり、若い頃に素晴らしい視力を誇っていた人も悩まされている。

もちろん、現在でも乱れたピントを正すために、二重焦点レンズや累進レンズなどがある。これらは焦点を合わせるために光を屈折させるという方法をとる。純粋に光学的な解決策で、値段も安くて便利に使っている人も多い。しかしこの方法では度数も固定され、視野も限られることになる。度数を調整ができる眼鏡も存在するが、利用するには眼鏡横のダイアルを手動で調節してピントを合わせる必要がある。眼鏡を使っている人の目的(見る対象物)に応じて、自動的に対応できるレンズはできないだろうか、というのが本プロダクトのスタート地点であったそうだ。

そうした目的に向かって進み始めたのがPadmanabanおよびRobert Konrad、そしてGordon Wetzsteinだ。現時点のプロトタイプは武骨で、実用にはほど遠いものだ。しかし仕組み自体のもつ可能性については、注目している人も多いようだ。

PadmanabanはこれまでVR系技術の研究をしてきた。その頃から、眼の調節作用(convergence-accommodation problem)について研究してきている。これは(その当時の研究対象でいえば、VRの世界で)遠くを見てから近くを見るときに、焦点が正しく合わないことについて研究するものだ。焦点をうまくあわせられず、目眩や吐き気などを感じてしまう問題だ。VRの世界では10フィートの視点移動もスムーズに行なえないことがあり、そうした中で、見ているものに自動的に焦点を合わせる技術が研究されてきた。そしてこの技術を、現実の世界で焦点を合わせるのに困難を感じる人のために活用してみようというのが、Padmanabanらのアイデアだ。

写真は以前に開発したプロトタイプ

仕組みとしては、まず眼鏡に備えられた深度センサーが利用者の前面に広がる景色を把握する。たとえば14インチ向こうに新聞があり、テーブルは3フィートあちら側、などといった具合だ。そして視線追跡システムが、今現在どこを見ているのかを認識して、見ているものにピントを合わせるわけだ。

20インチより近いところに焦点を合わせにくい人に使ってもらってみたところ、うまくレンズを調節して、みたいものを見せることができたそうだ。

上の具体的ケースでいえば、利用者がテーブルの上や部屋の奥を見ているような場合には、近距離を見るための仕組みを作動させる必要はない。しかし新聞に眼をやった場合、直ちにレンズを調節(右目、左目を独自に調節するのだろう)し、きちんと焦点を合わせることができるようにするわけだ。

視線を検知して、見たいものまでの距離を判断して調節するのに150ミリ秒ほどかかるのだとのこと。これは「流れるように」というわけではなく、利用者にワンテンポの遅れを感じさせるものだ。しかし老眼の人が見る対象を変更して、そして焦点を合わせようとするには3、4倍の時間がかかるのが一般的だ。開発中のデバイスは確かに利用者の役に立つものとなりそうだ。

「Autofocalsは未だプロトタイプ段階ですが、すでに従来の老眼対策の仕組みに対抗し得るものになっており、ケースによっては優位にたつ能力を発揮しています」と、SIGGRAPHで配布されている短い資料には記されている。「自然な感覚で利用することができ、Autofocalsは広く受け入れられることになるでしょう」。

開発チームは現在、本システムの利用に伴うメリットを検証し、またあり得る悪影響や不具合などについてテストしているところだとのこと。まだ商用化には超えなければならない壁が多く残されているが、しかしPadmanabanによればいくつかの企業がこのシステムに興味をもち、そして製品化を有望視しているのだとのこと。実験段階に一段落ついた時点で、詳細な方向性が明らかになってくるのだろう。

原文へ

(翻訳:Maeda, H

スタンフォード大、バーチャルリアリティーを使って大学フットボール最優秀選手候補を売り込む

screen-shot-2015-12-07-at-10-24-33-am

スポーツファンであってもなくても、カレッジフットボールのシーズンになると興奮せずにはいられない。それ以上にワクワクするのは、各チームがそれぞれに、今年最高のNCAAフットボールプレーヤーに贈られるハイズマントロフィー候補を推すのを見ることだ。

テクノロジーに長けたスタンフォード大学は、Christian McCaffrey選手をバーチャルリアリティーで売り込むことにした。

画期的な360度ビデオ体験を、ファン、メディア、およびハイズマン投票者に届け、Christian McCaffreyをバーチャルリアリティーを通じて紹介する。モバイルでもデスクトップでも、何度も繰り返して見てほしい。特にモバイルでは、端末を傾けたり回転してみよう(Facebookアプリが最新版であることを確認)。#OnlyAtStanford #WildCaff

【日本語版注:ビデオが表示されない場合は、こちらをクリック】

これはスポーツチームがFacebookの360度ビデオ体験を活用した最新の事例にすぎないが、ファンは受け入れつつある。このビデオは2日間で4541回閲覧されFacebook中でシェアされている。以前私も書いたように、こうした瞬間こそが一般消費者にVRの可能性を納得させる。派手なゲームの発表や新しいデバイスも悪くないが、普通の人々は何ができるかを知りたがっている。もちろん、360度ビデオは厳密には「バーチャルリアリティー」ではないが、人々がコンテンツについて別の考え方をするようになる第一歩だ。

画面の四隅に縛られない没入体験。

[原文へ]

(翻訳:Nob Takahashi / facebook

小さなロボットMicro Tugは体重の2000倍の重さの物を引っ張れる

 

高貴な蟻のようで、元気で愛らしいタグボートのようでもあるMicro Tugsは、自分より重い物でも引っ張れる。スタンフォード大学のBiomimetics and Dextrous Manipulation Lab(生物を模倣して器用で精巧な操作をロボットに行わせる研究所)で生まれたこのロボットには、圧力を加えると床やテーブルの上などに密着するプレートがある。体重12グラムのこのロボットは、その2000倍の重さの物を引いたこともある。

“大人の人間がシロナガスクジラを一人で引き上げることもあるが、これはそのロボット版だ”、と研究員たちは言っている。

このロボットは二つの簡単な車輪を使って動き回るが、物を引っ張るときには、密着性のおなかを床にぺたーっとつける。内蔵しているウィンチを使って物を短時間引っ張り、そのときロボットは車輪を使ってやや前進する。ロボットはその過程を何度でも繰り返し、最後には大きな物でも楽々、自分のところへ引き寄せる。

このプロジェクトの目標は、困難な場所で重い物を引っ張れるロボットを作ることだ。コントロール可能な密着パッドのおかげで、比較的平滑な面の上なら、このロボットは物を引っ張れる。草むらを這いまわることはできないが、タイルやガラスやコンクリートの上なら十分に使える。

出典: RoboticsTrands

[原文へ]
(翻訳:iwatani(a.k.a. hiwa