フェイスブックが新型コロナアンケートシステムを米国で公開、全世界にも拡大予定

新型コロナウイルス(COVID-19)感染の兆候をモニタするアプリはこれまでも無数に開発されてきたが、今回発表されたFacebookのプロジェクトは影響範囲の広さが桁違いだ。

2020年4月初め、Facebookはカーネギーメロン大学(CMU)のDelphi疫学研究センター(Delphi Epidemiological Research Center)と新型コロナウイルス感染症のモニターに関して提携した。今回、Facebookはこのプロジェクトを全世界に拡大するという。同じく4月上旬から同社は米国のユーザーの一部に対し、新型コロナウイルス感染の自覚症状の有無をCMUの方法により自己チェックしてレポートするよう要請し始めている。これは流行が今後どこに拡大するか政府や医療当局が予測できるようにするプロジェクトだ。

Facebookのプロジェクトの拡大についてはメリーランド大学の研究者が協力する一方、CMUのDelphiチームはすべての研究者がデータを利用できるAPIを開発している。

Facebookは収集した調査データを独自の症候追跡マップに表示する。これにより郡(カウンティ)あるいは担当医療区域ごとに新型コロナウイルス感染症の症状を持つ住民が人口に占める割合を一覧することができる。マップには、新型コロナウイルスとは異なるインフルエンザに対する感染症候も表示される。多くの場所でまだ十分な報告が得られず、能力はまだ限られているが、この調査はウイルス感染拡大のトレンドを示すことで流行を予測可能とすることを目指している。

Delphi COVID-19対策チームの共同責任者、Ryan Tibshirani(ライアン・ティブシラニ)氏「我々が算出したリアルタイムの推定は、新型コロナウイルス流行に関する入手可能な最も確実なデータと高い相関があった。これにより、流行が拡大する可能性が高い地域を数週間前に予測して医療関係者に提供できるようになると確信している」と声明で述べている。

CMU Delphiの調査にオプトインしたFacebookメンバーは咳、発熱、息切れ、または嗅覚の喪失が発生しているかどうかを回答する。これら新型コロナウイルス感染の初期症状であり、治療が必要な重症化の前に現れる可能性が高いため医療関係者にとって重要だ。

CMUが月曜に発表した最初のレポートによれば、 Facebookで収集された新型コロナウイルス感染に関するデータは公衆衛生機関からの確認ずみデータと高い相関があったという。研究チームはCOVIDcastと呼ばれるツールを発表した。これは、新型コロナウイルス関連データを地域別に集約する。 Googleもこの調査に協力を始めているので今週後半にはCOVIDcastはFacebookとGoogle双方のアンケートの結果を統合できる。現在までにFacebookで毎週100万件、Googleのインセンティブ付きアンケートアプリ、GoogleアンケートモニターとAdMobアプリを通じて毎週60万件の近くの回答が得られている。

Washington Postの意見コラムでFacebookのファウンダーであるMark Zuckerberg(マーク・ザッカーバーグ)はこう書いている。

「全米で郡ごとに正確なデータを取得することは難しい事業だ。そうした厳密なデータを全世界から取得するとなると困難さははるかに大きくなる。しかしFacebookは膨大な人たちに対してアンケートを行う上で極めてユニークな立場にある」。

プライバシーやセキュリティー上の問題で長らく批判されてきたソーシャルメディアは、新型コロナウイルスとの戦いを機に自らの重要性を再認識させようと努力している。ことにネガティブな報道に苦しめられてきたFacebookは医療専門家からの新型コロナウイルス情報をプラットフォームに掲載するなどいち早く対応を開始した。しかしFacebookや他のソーシャルネットワークは、新型コロナウイルスの場合でもデマ火事場泥棒陰謀論に悩まされ続けており、こうしたノイズを運営者が一掃するのは簡単ではないようだ。

【略】

画像クレジット:Angela Weiss / AFP / Getty Images

新型コロナウイルス 関連アップデート

原文へ

(翻訳:滑川海彦@Facebook

Facebookとカーネギーメロン大学が新型コロナ感染マップ作成のためのアンケートを実施

米国時間4月6日から米国の一部のFacebookユーザーは、画面上の小さなポップアップメッセージにより、新型コロナウイルス感染症(COVID-19)に関するアンケート調査への協力を求められる。カーネギーメロン大学のデルフィ疫学研究センターが行うこの調査は、新型コロナウイルスの世界的な広がりを予測するためのマッピングプロジェクトの一環となる。

どんな調査でも標本の質と量が重要となるが、この疾病地図の場合、多数の回答者による十分に大きな標本を得て、統計学的に有意なマップを作れることが必要だ。カーネギーメロン大学の調査はFacebookから大きな協力を得ることができた。今回の調査がうまくいけば、Facebookは今後、世界のさまざまな地域で同様のアンケートを行っていくかもしれない。

このような調査はユーザーにアプリをダウンロードさせたり、ウェブ上の怪しげなポータルにユーザーを誘導するものが多いが、Facebookの協力が得られれば、世界最大のソーシャルネットワークのユーザーに簡単にアクセスできる。Facebookはその数を明かさないが、米国のユーザーを18歳以上と限定しても、その数は相当なものになる。

2020年3月に新型コロナウイルスが爆発して以来、米国では多くの調査が行われている。例えばPinterestの共同創業者による新しいアプリハーバードやニューヨークのWeill Cornell Medicineなどの研究機関も調査を行なっている。それらのアイデアはいずれも、現在得られる限られた数の検査データを症状に関する自己申告で補っており、地理的な洞察を提供できるというものだ。

これまでの数多くの例に見られるように、ユーザーのプライバシーを大事にしないことが多いFacebookを利用して行われるアンケート調査に、うんざりしているユーザーも多いと思われるが、今回、大学が得るデータにはユーザーの名前などの個人情報はまったく含まれていないし、それらは必要ない。Facebookの発表によると、アンケート調査で得られたデータは、今後の保健医療施設の地理的配置計画に役に立ち、さらにまた外出禁止などの禁令を解除してもよい地域を見つけるためにも役に立つという。

Facebookはこのアンケート調査を同社の疾病予防地図作成というより大きな取り組みのひとつだと位置づけており、同社はその膨大な地図集合をいずれ、「Data for Good」プロジェクトの中で研究者たちに提供していくだろう。

新型コロナウイルス 関連アップデート

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

物の裏側をレーザー光の反射から像として求めるカーネギーメロン大らの研究

未来の自動運転車やそのほかのマシンインテリジェンスシステムは、視線の向かう先には見えないものからでも詳細な画像データを集められるだろう。カーネギーメロン大学(CMU)とトロント大学、およびユニバーシティカレッジロンドンの研究から生まれたテクニックを使うと、ここにいるまま「あの角を曲がった先」を見ることができる。

その方法は、特殊な光源とセンサー、そしてコンピュータービジョンの処理により、ここからは見えない場所の詳細な像を推測したり構築できる。それは、これまで写真や肉眼でしか得られなかった像よりもさらに詳細だ。

ただしこのテクニックには現状でやや制約があり、CMUのロボット研究所のSrinivasa Narasimhan教授によると「比較的狭い範囲内」でないと有効でない。

その制約はこのテクニックを、非視線型(non-line-of-site、NLOS)コンピュータービジョンの分野のテクニックと併用すれば緩和できる。そんなテクニックの一部はすでに商用化されており、たとえばテスラ(Tesla)のAutopilot(オートパイロット)システムは、反射ないし跳ね返ってきたレーダー信号を利用して、テスラ車の前面の、人の視線が届かない部分を見ている。

今回の新しい研究で使われたテクニックは、多くの自動運転車システムが利用しているライダーシステムと似た動作原理だ(ただしテスラはレーザー光線を使う視覚システムを嫌ってることで有名だ)。CMUとそのパートナーの研究機関は超高速のレーザー光線を使い、それの壁からの跳ねっ返りで、角の向こう側に隠れているオブジェクトを照らしている。

センサーが跳ね返ってくる光を捉え、そして反射光が原点に帰還するのに要した時間を計算する。そのほかのさまざまな測度も含め、ターゲットのオブジェクトのジオメトリー(幾何学的形状)の情報も使って、オブジェクトを正確かつ詳細に再構築する。その方法は、紙のような光を遮るものが介在していても有効なので、現実世界の環境センサーとしての有効な利用もありえそうだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

月面のピット(竪穴)をロボで偵察して月の可住性を調べるNASAのプロジェクト

月面探査車はクールだけど、崖面を垂直下降できたら探査のお仕事はもっとクールだろう。カーネギーメロン大学(CMU)の研究グループは、NASAから200万ドルの研究助成金をもらって、垂直下降ロボットの開発に取り組む。それは、月面のあちこちにある竪穴を探検する方法を探る研究プロジェクトの一環だ。

ピットとクレーターは違う。クレーターは隕石の衝突によってできた面的構造物だが、竪穴すなわちピット(Pit)は地球上の陥没穴や洞穴に近い。表面はアクセスできるが地下には大きな空洞があって、そこには各種ミネラルや水や氷があるかもしれない。それだけでなく、未来の月探検者のための、すぐに使えるシェルターになるかもしれない。

CMUロボティクス研究所のRed Whittaker教授は、インテリジェントで機敏で早足のロボットを使って行うこれらのピットの接近調査には重要なミッションがある、と語る。すなわち、月を周回する軌道上からの観測でピットの存在はすでに分かっているけど、でもその詳細はまだまったくわかっていない。たとえば、これらの陥没穴のような竪穴は、未来の月探検ミッションの役に立つのか?役に立つとしたらどのように?

Whittakerの素案は「Skylight」というコードネームで呼ばれ、ある程度自律性のあるロボットが表面のどこを調べるか自分で選ぶ。しかもその行動は、速くなければならない。月面が夜になればずっとオフラインになる。だから1回のミッションで実働時間は約1週間だ。

NASAの野心的なミッションでは、2024年に再び月面に宇宙飛行士を送る。そして2028年には月に基地を作る。そのための重要な情報を「Skylight」のような偵察ミッションが提供する。しかし時間は切迫している。ロボットがピットを偵察するミッションは、2023年の予定なのだ。

画像クレジット: NASA/GSFC/Arizona State University

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

カーネギーメロン大学のAIは不完全情報ゲームに挑戦、ポーカーの最強のプロたちに勝つ

今日(米国時間12/18)発行されたScience誌上の研究論文によると、カーネギーメロン大学コンピューターサイエンス部の研究者たちが開発したAI Libratusが、もっとも難しいポーカーとされる無制限テキサスホールデム(No-limit Texas Hold’em)で、最強のプロたちに勝った。この形のポーカーはとくに2000年代の初期から中期にかけてのバブル期に、全国的に流行った。

このニュース(?)が重要なのは、無制限テキサスホールデムが“不完全情報ゲーム”と呼ばれているからだ。それは、ゲームプレイのすべての要素に関するすべての情報が、終始すべてのプレーヤーにわかっていない(==未知の情報が必ずある)、という意味だ。それは囲碁やチェスなどのゲームとは対照的で、これらのゲームでは盤上のピースとそれらの位置がゲーム情報のすべてなので、両方の対戦者に完全にわかっている。

CMUのチームは今年の1月にLibratusとその初期の成功について詳しいペーパーを発表しているが、今日の完全な科学論文では、その後の進歩を説明し、このきわめて人間的なゲームでどうやって人間に勝てたかを詳しく述べている。

Libratusがとくにおもしろいのは、ポーカーではブラフ(はったり)が勝負の鍵を握っているからだ。いつどんなブラフをかませるかで、プロとアマの違いがわかる。そしてブラフは、それぞれのブラフに明確な意味がないから、不完全情報の典型だ。ブラフの意味は、客観的な情報ではなく、予想や推測という人間の主観に依存している。

しかもポーカーは、多くの手(hands, 持ち札)を経過することによって成立し、最終的に勝つためには途中でわざと負けることもある。これもやはり、コンピューターには苦手(にがて)な複雑性だ。

プロの賭博師たちvs.Libratusの勝負には20日間を要し、手数の総数は12万手、賭け金総額は20万ドルに達した。Libratusが最強のプロたちを打ち負かしたテクニックは、研究者たちの言葉によると、必ずしもポーカーでしか役に立たないテクニックではなく、一般的にそのほかの不完全情報ゲームにも応用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

カーネギーメロン大、6脚ロボットを開発――動物の移動の仕組みはロボットの重要なヒントに

カーネギー・メロン大学ロボット・ラボが開発したスネークは迫力の点でロボットのデモの王座を占めてきた。聖書に出てくるヘビをモチーフにしたということだが、細長く柔軟な動作が可能で、頭部に設置されたカメラで誘導されて狭いスペースに潜り込むには最適の形態だ。このロボットはとぐろを巻ける。柱などに上って視界を確保することができる。全体としてエンジニアリングの傑作だ。

スネーク・ロボットは故郷のピッツバーグを離れ遠くギザのピラミッドやオーストリアの廃発電所などを探るのに活躍してきた。

CMUのバイオロボティクス・ラボは10年前ほどからプロジェクトをスタートさせている。2年後には早くも最初のスネーク・ロボットを発表している。以来、複数の民間企業がヘビ型ロボットの商用化に取り組んできた。大部分は人間の進入が困難あるいは不可能な場所での捜索・救難が主目的だった。一方CMUではロボティクスを次世代に進めるための研究が続けられた。

最近のバージョンではスネーク・ロボットに感圧センサーが加わり、締め付ける力をリアルタイムで調整できるようになった。これにより事前に締め付け力をプログラムしておく必要がなくなり運用の柔軟性が飛躍的に増した。開発チームはまたロボットのモジュール化をさらに進めた。全長を必要に応じて変えることができるよう中間セグメントを後から増減できるようにした。.

モジュール化かはロボティクスにおける大きなトレンドの一つで、その目的はロボットの多機能化にある。いわばロボットのレゴ化だ。実際、CMUののテクノロジーをベースにHEBI〔ヘビ〕がスピンオフしている。このスタートアップはスネーク・ロボットに用いられたアクチュエータをプラグ&プレイ化して普及を図っている。

われわれが最近ピッツバーグのCMUのラボを訪問したところ、スネーク・モデルとはまったく異なる原理の6脚ロボットに出迎えられた。みたところは昆虫か甲殻類に見える。ただしサイズは小型犬くらいある。四角い胴体から爬虫類的な頭部が横倒しの潜望鏡のように突き出していた。動作を仔細に観察すると昆虫的ロボットもスネーク・ロボットのDNAを受け継いでいるらしい。開発チームはスネーク・モンスターと呼んでいた。

スネーク・モンスターの脚と頭部のジョイントは先行するスネーク・ロボットに用いられたものと同じだが、構造が異なるためにフランケンシュタインの怪物的な印象を与える。新しくボディーが設けられことでバッテリーその他の機器を収めるスペースが生まれた。この6脚ロボットは電源供給等のテザリングなしで、自立して長時間歩きまわれる。スネーク・ロボット同様感圧センサーを装備しているため足場の不安定な瓦礫の上なども動き回れるという。

「このロボットは地表がどこにあるのか視覚的に確かめることが難しいランダムな凹凸の上であっても脚の感覚を頼りに自由に歩くことができる」と博士課程の大学院生、Julian Whitmanは説明した。【略】

スネーク・ロボットと同様、新しい多脚ロボットも動物が環境に適応して動き回るようすにヒントを得ているという。このスネーク・モンスター・ロボの場合、センサーで地表を感知できるのが特長だ。スネーク・ロボット同様、不安定な表面を動き回ったり柱に上ったりするために事前のプログラミングは必要ない。またカメラによる視覚情報がなくても行動できる。ロボットの脚に用いられている柔軟性のあるアクチュエーターがさまざまな障害物の上を動くのに大きな役割を果たしており、たとえばロボットがバランスを取るのにも役立っているという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

どんな物でもタッチセンサーにしてしまう伝導性の塗装技術がCMUに誕生

カーネギーメロン大学(CMU)の研究者たちが、どんな面でもタッチパッドにしてしまえる伝導性のスプレー塗料を発明した。そのシステムはElectrickと名付けられ、“電界トモグラフィー(electric field tomography)”と呼ばれる技術を利用している。

同大の博士課程の院生Yang Zhangが作ったElectrickは、塗装した面の端に電極をつける。すると、木でもプラスチックでも壁でもゼリーでも工作用粘土でも何でも、タッチを検出できる面になる。こうやって加えたタッチ感度を利用してこれまで、玩具やギター、壁などの位置コントロールに成功した。

Human-Computer Interaction Instituteの助教授Chris Harrisonによると、“缶入りのスプレー塗料でほとんどどんなものにもタッチスクリーンをつけられる技術は、これが初めてだ”、という。

彼らのレポートは曰く:

多くのタッチスクリーンと同様に、Electrickも分流効果を利用する。指がタッチパッドに触(さわ)ると、少量の電流が接地へ流れる。その物や伝導性塗装の端に複数の電極をつけることによって、Zhangと彼の同僚たちはどこでいつその分流が起きたかを特定できた。彼らはこれを、電界トモグラフィーを利用して行った — 少量の電流を二つの電極間に継続的に流し、電圧の変化に注目した。

 

作者たちが今考えているのは、対話性のある壁や、指の位置を感取してアプリを起動するスマートフォンケース、などへの利用だ。その塗装面を保護するための保護膜も、可能だ。

Zhangはこの技術を、デンバーで行われるカンファレンスHuman Factors in Computing Systemsで発表する予定だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleの自動運転車担当CTO、プロジェクトを去る

PARIS, FRANCE - JUNE 30:  A Google self-driving car project is displayed during the Viva Technology show on June 30, 2016 in Paris, France. Viva Technology Startup Connect, the new international event brings together 5,000 startups with top investors, companies to grow businesses and all players in the digital transformation who shape the future of the internet.  (Photo by Chesnot/Getty Images)

Googleの自動運転車プロジェクトからChris Urmsonが去る。同氏はカーネギーメロン大学から入社し、プロジェクトのCTOを務めていた。Urmsonは自立走行車分野のロボティクス関係者の間で極めて重要な立場にあったが、Mediumの投稿で自身の退社を発表した。「新しい挑戦のときが来た」とだけ言い、今後について具体的なことは明らかにしない。

Urmsonは同プロジェクトの一員であったことは「この上ない特権と名誉」であり、Googleによる完全自動運転車製造のミッションは、全幅の信頼を寄せる「有能な人々の手」に委ねたと語った。

しかし最近チームを離れたのはUrmsonだけではない。New York Timesによると、機械視覚技術を専門とするエンジニア、Dave FergusonとJiajun Zhuの2人も会社を去り、未だステルス状態にある新しいスタートアップの設立を目指す。

Urmson退社の報道のわずか一日前、Googleの自動運転車部門 CEO John KrafcikがプロジェクトについてBloombergのインタビューに答えている。Krafcikはチームの構成について、「驚くほどの人数のギークがいる」ことや「ハードコアなソフトウェアコーディング型人間がたくさんいる」こと等を話した。

Krafcikは2016年9月にGoogleに入社し、その前はHyundaiの米国部門でCEO兼プレジデントを務めていた。

Via Recode

[原文へ]

(翻訳:Nob Takahashi / facebook