フェイスブックが新型コロナアンケートシステムを米国で公開、全世界にも拡大予定

新型コロナウイルス(COVID-19)感染の兆候をモニタするアプリはこれまでも無数に開発されてきたが、今回発表されたFacebookのプロジェクトは影響範囲の広さが桁違いだ。

2020年4月初め、Facebookはカーネギーメロン大学(CMU)のDelphi疫学研究センター(Delphi Epidemiological Research Center)と新型コロナウイルス感染症のモニターに関して提携した。今回、Facebookはこのプロジェクトを全世界に拡大するという。同じく4月上旬から同社は米国のユーザーの一部に対し、新型コロナウイルス感染の自覚症状の有無をCMUの方法により自己チェックしてレポートするよう要請し始めている。これは流行が今後どこに拡大するか政府や医療当局が予測できるようにするプロジェクトだ。

Facebookのプロジェクトの拡大についてはメリーランド大学の研究者が協力する一方、CMUのDelphiチームはすべての研究者がデータを利用できるAPIを開発している。

Facebookは収集した調査データを独自の症候追跡マップに表示する。これにより郡(カウンティ)あるいは担当医療区域ごとに新型コロナウイルス感染症の症状を持つ住民が人口に占める割合を一覧することができる。マップには、新型コロナウイルスとは異なるインフルエンザに対する感染症候も表示される。多くの場所でまだ十分な報告が得られず、能力はまだ限られているが、この調査はウイルス感染拡大のトレンドを示すことで流行を予測可能とすることを目指している。

Delphi COVID-19対策チームの共同責任者、Ryan Tibshirani(ライアン・ティブシラニ)氏「我々が算出したリアルタイムの推定は、新型コロナウイルス流行に関する入手可能な最も確実なデータと高い相関があった。これにより、流行が拡大する可能性が高い地域を数週間前に予測して医療関係者に提供できるようになると確信している」と声明で述べている。

CMU Delphiの調査にオプトインしたFacebookメンバーは咳、発熱、息切れ、または嗅覚の喪失が発生しているかどうかを回答する。これら新型コロナウイルス感染の初期症状であり、治療が必要な重症化の前に現れる可能性が高いため医療関係者にとって重要だ。

CMUが月曜に発表した最初のレポートによれば、 Facebookで収集された新型コロナウイルス感染に関するデータは公衆衛生機関からの確認ずみデータと高い相関があったという。研究チームはCOVIDcastと呼ばれるツールを発表した。これは、新型コロナウイルス関連データを地域別に集約する。 Googleもこの調査に協力を始めているので今週後半にはCOVIDcastはFacebookとGoogle双方のアンケートの結果を統合できる。現在までにFacebookで毎週100万件、Googleのインセンティブ付きアンケートアプリ、GoogleアンケートモニターとAdMobアプリを通じて毎週60万件の近くの回答が得られている。

Washington Postの意見コラムでFacebookのファウンダーであるMark Zuckerberg(マーク・ザッカーバーグ)はこう書いている。

「全米で郡ごとに正確なデータを取得することは難しい事業だ。そうした厳密なデータを全世界から取得するとなると困難さははるかに大きくなる。しかしFacebookは膨大な人たちに対してアンケートを行う上で極めてユニークな立場にある」。

プライバシーやセキュリティー上の問題で長らく批判されてきたソーシャルメディアは、新型コロナウイルスとの戦いを機に自らの重要性を再認識させようと努力している。ことにネガティブな報道に苦しめられてきたFacebookは医療専門家からの新型コロナウイルス情報をプラットフォームに掲載するなどいち早く対応を開始した。しかしFacebookや他のソーシャルネットワークは、新型コロナウイルスの場合でもデマ火事場泥棒陰謀論に悩まされ続けており、こうしたノイズを運営者が一掃するのは簡単ではないようだ。

【略】

画像クレジット:Angela Weiss / AFP / Getty Images

新型コロナウイルス 関連アップデート

原文へ

(翻訳:滑川海彦@Facebook

新型コロナ対策として空港の混雑などを監視するZensorsのコンピュータビジョン

新型コロナウイルスの感染が広がる中、商用のコンピュータビジョン技術が人々の行動を観測する有益なツールになりつつある。機械学習でレストランの空き状況や行列などを追跡するスタートアップのZensorsは、感染拡大防止のために測定のシステム化を必要としている空港などで、このプラットフォームを無料で利用できるようにする。

Zensorsが創業したのは2年前の2018年だが、TechCrunchは2016年に防犯カメラの映像などから有用なデータを抽出するコンピュータビジョンのアーリーアダプターの1つとして同社を紹介した。レストランを映すカメラでテーブルの空きを数え、時間の経過に伴うデータの変化を追跡するのは可能で当然のことのように思えるかもしれないが、数年前にはなかなか思いつかないことで、実現も簡単ではなかった。

それ以来Zensorsは、空港、オフィス、小売店などそれぞれの環境に合わせたツールを作ってきた。座席の埋まり具合やゴミ、行列の見込みなどを調べることができる。偶然ではあるが、人と人との距離を注意深く監視する必要がある現在の状況において、このようなデータは空港などの管理者にとってまさに必要なものだ。

Zensorsはカーネギーメロン大学から生まれた企業だ。Zensorsの共同創業者であるAnuraag Jain(アヌラーグ・ジェイン)氏は同大学に対し、Zensorsの技術を公衆衛生に生かしたいと考える空港などから多くの問い合わせを受けたと語っている

例えば、何人が行列に並んでいるかを数えるソフトウェアを応用すれば、簡単に人々の密集具合を推計し、人が集まり過ぎていたり狭い場所に集中したりしているときにアラートを送信できる。

「これで利益を得るのではなく、無償で支援しようと考えた」とジェイン氏は言う。そこで最短でも今後2カ月間、Zensorsは同社のプラットフォームを「我々のクライアントである空港など、現在の危機に最前線で対応している一部の組織」に対して無償で提供する。

特定のエリアにいる人が多すぎないか、ある場所が最後にいつ清掃されたか、急いで清掃する必要があるか、ある集団の中で何人がマスクをつけているかなど、新型コロナウイルスに関連して知りたい情報を提供する機能がすでに強化されている。

空港ではおそらくこうした情報をすでに追跡しているが、あまり体系化されてはいないだろう。このようなシステムは、清潔な環境を維持しリスクを減らすのに役立つはずだ。Zensorsとしては無償で試用した組織の一部が料金を支払うクライアントになることを期待していると思われる。関心を持った組織は、Zensorsの通常の問い合わせフォームから相談できる。

トップ画像クレジット:Zensors

新型コロナウイルス 関連アップデート

[原文へ]

(翻訳:Kaori Koyama)

人間の作業を手伝うCMUのバックパック型ロボットアーム

カーネギーメロン大学のBiorobotics Labは、モジュール式のヘビ型ロボットの開発で一躍有名となったバイオロボット研究室。当初は、狭い場所に入り込んで、捜索、救助活動に従事したり、インフラ検査などに利用する目的で開発されたヘビ型ロボットだが、そこからさまざまなプロジェクトを派生させ、ピッツバーグ地域ではスタートアップを生み出すことにもつながった。

数年前、このロボットはモジュール式となり、エンジニアの手によって複数の部品を組み替えたり、故障した部分だけを交換することが可能となった。そうしたモジュールを利用して、CMUの学生チームは、バラエティに富むさまざまなプロジェクトを立ち上げた。たとえば、クモのような6本足のロボットもある。6つの脚のそれぞれが、モジュール化されたロボットセグメントでできているのだ。また以前にTechCrunchでも取り上げたHebiは、この研究室で生まれたモジュールを商品化したロボットアクチュエーターを採用している。

その2年後に、再び研究室を訪ねてみると、研究者はまったく新しいプロジェクトを見せてくれた。「このグループの学生は、かなり自主的に活動しています。自分たちで考えたプロジェクトに取り組んでいるのです」と、CMUの博士課程の学生、Julian Whitman氏は語った。「このハードウェアを組み替えることで、どんな形にでもできるので、いろいろなアイディが浮かんできます。最初はモジュールの山から始めます。それらを組み立て、あっという間にプログラムして、意味のある動作ができるようにします。そこから、まったく新しい研究の方向性が触発されることもあるのです」。

Whitman氏のプロジェクトは、モジュールを組み合わせて、ウェアラブルな「追加の腕」として機能させている。このシステムは、彼も言う通り、外骨格のようなものではない。むしろ、バックパックスタイルの支持構造に取り付けられたロボットアームなのだ。このプロジェクトは、普通の人が2本の腕でこなすには、ちょっと難しい仕事を手伝えるようなものを作れないか、というアイディアから生まれた。

「自動車の組み立てや、飛行機の組み立てに見られる共通の課題の1つに、頭上に何かを持ち上げて支えながら、それを天井に取り付けるという作業があります」と、Whitman氏は説明した。それから、近くの作業場で、その工程を実際にデモしてくれた。「自動車の床下や、飛行機の屋根に部品を取り付ける場合、2人の作業員が1つの作業に取り組むのが、製造業では常識となっています。ひとりは単に部品を所定の場所で保持し、もうひとりが固定するのです」。

このプロジェクトでは、今のところ1本の腕を、ゲームパッドを使ってコントロールできるようになっている。Whitman氏によれば、「ひとりの人間で運べる限り」もっと多くの腕を追加することも可能だという。アメコミのドクター・オクトパスのような感じになるのだろうか。しかし最も大きな問題は、ひとりの作業者が同時に何本までの腕をコントロールできるかということだろう。

「今のところ、ボタンや音声コマンドによってコントロールしています。つまり2組のボタンコントローラーと2組の音声コマンドがあるわけです」と、Whitman氏は説明する。「アームを追加していくと、ある時点からコントロールが難しくなり、かえって使いにくくなってしまうかもしれません。しかし将来は、これらのアームがもっと自律的に動くようにしたいと考えています。それぞれが独自の知覚機能と、独自の意思決定プロセスを持つようにしたいのです」。

原文へ

(翻訳:Fumihiko Shibata)

ロボットとドローンを組み合わせて鉱山救助に挑むCMUチーム

ピッツバーグを訪れた最後の日に、今では廃坑となった炭鉱に行く機会を得た。市街地の北東側にあるTour-Ed鉱山では、気候の穏やかな期間だけ見学ツアーを開催しているのだ。とはいえ、坑道の中は1年を通して華氏50度(摂氏10度)に保たれている。

入り口の上の方にはまだ雪が残っている中、カーネギーメロン大学とオレゴン州立大学の学生チームは、次の競技に向けて、1組のロボットの準備を整えていた。この少人数のチームは、DARPAが主催するSubterranean Challenge(地下への挑戦)に参加している十数チームの内の1つだ。

数年におよぶSUbT競技は、「複雑な地下の環境に対して迅速に地図を作成し、ナビゲーションし、検索してすり抜けるための新しいアプローチを探索する」ことを目指すもの。そこには「人工的なトンネルシステム、都市の地下道、網状になった自然の洞窟」などが想定されている。具体的には、鉱山から洞窟、さらに地下鉄の駅といった地下構造物内の捜索、救助という課題が各チームに与えられている。

賞金200万ドル(約2億2000万円)の競技の目的は、複雑な地下の地形をナビゲーション可能なシステムを設計すること。想定しているのは、崩落やその他の災害だ。ロボットは、人間の救助隊が行くことのできない場所、あるいはレアなケースとして、足を踏み入れるべきではない場所にも行けるように作られている。

CMUチーム戦略は、4輪の探査車に加えて、アマチュアが使うような小さなドローンを中心に据えたマルチロボット方式を採用するもの。「われわれのシステムには、まず地上のロボットがあります。これが地形に合わせて進みます」と、このプロジェクトのアドバイザーを務めるCMUのSteve Willits氏は言う。「さらに、6つのプロペラを持つ無人の飛行装置も含まれます。鉱山の中の、さまざまな領域を探索するのに必要な機材をすべて備えたものです」。

探査車は、3DカメラとLIDAR(レーザー測距装置)を使って、ナビゲーション機能を働かせながら周囲環境の地図を作成する。瓦礫の中から人間を探すことも可能だ。残骸にぶつかったり、通路が狭かったり、階段のような人造の障害物によって動けなくなると、今度はドローンが車体の後部から飛び出して捜索を続ける。

このような捜索の際、探査車は非常に頑丈に作られたWiFiリピーターを、ときどき後部から落としながら進む。迷子にならないように目印として落とすパンくずのようなものだ。これで通信距離を伸ばすことができる。これらの大部分は、まだ初期段階のもの。チームは、探査車とドローンの動作を実演することはできたものの、まだそれらを連携して動作させる手法は確立していない。

ロボットのコンテストは今年の8月に開始される。最初は規定のTunnel Circuitを使う。その後2020年2月には、人工的なUrban Circuitで、さらにその年の8月にはCave Circuitと続く。最後のFinal Eventは、2021年の8月だ。

原文へ

(翻訳:Fumihiko Shibata)

この2足ロボットは飛び石を軽快に歩行する

UCバークレーのHybrid Robotics GroupとCMUの研究者らは、荒れた地形をつま先立ちで転ばずに歩くロボットの研究に励んでいる。研究チームは二足歩行ロボットのATRIASと機械学習を使って、ロボットに初見の飛び石を渡り進むよう「教える」ことができる。

彼らのロボット( 詳細はこちら)が独特なのは、2本足でバランスを取ったりジャンプしたりしながらブロックを踏み外さないで歩くことだ。

「われわれの方式のユニークなところは、ロボットでよく用いられるゆっくりとした準静的な動きではなく、活動的に歩くことだ」と研究者らは書いている。「システムの力学系の非線形性を推論し、最新の非線形最適制御技術を活用することによって、ロボットの望ましい行動をシンプルでコンパクトな形式で指定しながら、安定性と安全性を保証できるようになった。つまりわれわれのロボットは、飛び飛びのブロックの上を滑ったり転んだりすることなく歩くことができる。

このロボットは現在「盲目」で、次の動きを決めるために視覚的入力を利用することはできない。しかし、ロボットのCASSIEと組み合わせれば、ふたりで目標を見たり感じたりできるようになるので、夢中で遊んだり戦ったりしても転ばずにすむだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

ニットマシンで3Dのウサギが編めるシステム登場――カーネギーメロン大で開発

産業用編機がついに3D化する。Carnegie Mellon大学の研究チームは任意の3D形状をオンデマンドで編み出すことができるテクノロジーを開発した。3Dプリンターに似ているが、プロダクトはソフトだ。

セーター、シャツ、帽子などアパレルでニット製品は大人気だが、消費者からは往々にして不満が出る。長過ぎる、短すぎる、ぶかぶかだ、きつい等々。

消費者のどんな難しい要求にも答えられるような、3D形状を編めるシステムをCMU Textiles LabのJames McCannのチームが開発した。このソフトウェアは通常の3Dモデリングツールで作った形状をニッティングパターンに変換し、コンピューター制御の産業用ニッティングマシンでプロダクトを編み出すことができる。

ニッティングマシンは人間の編物職人のような柔軟性は持ち合わせていないので、ニッティングパターンが不適切だと糸がよじれたり、切れたり、機械を詰まらせたりする。しかし機械を使えば大量生産が可能で常に同一の仕上がりとなる。

CMUのニュースリリースで McCannは「ニッティングマシンを3Dプリンターなみに容易に扱えるようになる」と述べている。

こういう産業用ニッティングマシンを消費者が操作することはないだろうが、アパレルやぬいぐるみのメーカー、デザイナーには朗報だと思う。

McCannのチームは研究成果をこの夏のSIGGRAPHでプレゼンする予定だ。

画像:CMU

〔日本版〕CMUのプレスリリースのビデオにはトップ画像のスタンフォードバニーの他にドーナツ・アヒル、翼のあるヒツジなど多数の複雑な形状の3Dニットのサンプルが見られる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

カーネギーメロン大、6脚ロボットを開発――動物の移動の仕組みはロボットの重要なヒントに

カーネギー・メロン大学ロボット・ラボが開発したスネークは迫力の点でロボットのデモの王座を占めてきた。聖書に出てくるヘビをモチーフにしたということだが、細長く柔軟な動作が可能で、頭部に設置されたカメラで誘導されて狭いスペースに潜り込むには最適の形態だ。このロボットはとぐろを巻ける。柱などに上って視界を確保することができる。全体としてエンジニアリングの傑作だ。

スネーク・ロボットは故郷のピッツバーグを離れ遠くギザのピラミッドやオーストリアの廃発電所などを探るのに活躍してきた。

CMUのバイオロボティクス・ラボは10年前ほどからプロジェクトをスタートさせている。2年後には早くも最初のスネーク・ロボットを発表している。以来、複数の民間企業がヘビ型ロボットの商用化に取り組んできた。大部分は人間の進入が困難あるいは不可能な場所での捜索・救難が主目的だった。一方CMUではロボティクスを次世代に進めるための研究が続けられた。

最近のバージョンではスネーク・ロボットに感圧センサーが加わり、締め付ける力をリアルタイムで調整できるようになった。これにより事前に締め付け力をプログラムしておく必要がなくなり運用の柔軟性が飛躍的に増した。開発チームはまたロボットのモジュール化をさらに進めた。全長を必要に応じて変えることができるよう中間セグメントを後から増減できるようにした。.

モジュール化かはロボティクスにおける大きなトレンドの一つで、その目的はロボットの多機能化にある。いわばロボットのレゴ化だ。実際、CMUののテクノロジーをベースにHEBI〔ヘビ〕がスピンオフしている。このスタートアップはスネーク・ロボットに用いられたアクチュエータをプラグ&プレイ化して普及を図っている。

われわれが最近ピッツバーグのCMUのラボを訪問したところ、スネーク・モデルとはまったく異なる原理の6脚ロボットに出迎えられた。みたところは昆虫か甲殻類に見える。ただしサイズは小型犬くらいある。四角い胴体から爬虫類的な頭部が横倒しの潜望鏡のように突き出していた。動作を仔細に観察すると昆虫的ロボットもスネーク・ロボットのDNAを受け継いでいるらしい。開発チームはスネーク・モンスターと呼んでいた。

スネーク・モンスターの脚と頭部のジョイントは先行するスネーク・ロボットに用いられたものと同じだが、構造が異なるためにフランケンシュタインの怪物的な印象を与える。新しくボディーが設けられことでバッテリーその他の機器を収めるスペースが生まれた。この6脚ロボットは電源供給等のテザリングなしで、自立して長時間歩きまわれる。スネーク・ロボット同様感圧センサーを装備しているため足場の不安定な瓦礫の上なども動き回れるという。

「このロボットは地表がどこにあるのか視覚的に確かめることが難しいランダムな凹凸の上であっても脚の感覚を頼りに自由に歩くことができる」と博士課程の大学院生、Julian Whitmanは説明した。【略】

スネーク・ロボットと同様、新しい多脚ロボットも動物が環境に適応して動き回るようすにヒントを得ているという。このスネーク・モンスター・ロボの場合、センサーで地表を感知できるのが特長だ。スネーク・ロボット同様、不安定な表面を動き回ったり柱に上ったりするために事前のプログラミングは必要ない。またカメラによる視覚情報がなくても行動できる。ロボットの脚に用いられている柔軟性のあるアクチュエーターがさまざまな障害物の上を動くのに大きな役割を果たしており、たとえばロボットがバランスを取るのにも役立っているという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ロボットたちに、触れることを通して世界を学ぶことを教える

ゆっくりと、しかし、確実に、ロボットのBaxterは学んでいる。それは一連のランダムな「掴み」から始まる。大きくて赤いロボットが、あまり器用とはいえない手つきで、目の前のテーブル上の物体を押したり突いたりしている。この、1日8時間かけて1ヶ月に5万回もの掴みを繰り返すプロセスは、私たち人間にとっては極めてうんざりするような代物だ。ロボットは触覚フィードバックと試行錯誤を経て学習している。あるいはプロジェクトの背後にいるカーネギーメロン大学のコンピュータサイエンスチームが言うように、それは世界に関して赤ん坊のように学習しているのだ。

チームは、“The Curious Robot: Learning Visual Representations via Physical Interactions,”(好奇心旺盛なロボット:身体的な相互作用を介した視覚的表現の学習)という論文の中で、人工知能はオブジェクトと反復的に相互作用を行なうことで、どのように学ぶことができるのかを示している。「例えば」とCMUの学生は書く「赤ん坊はオブジェクトを押したり、突いたり、口の中に入れたり、投げたりして、ものの有りよう(representations)を学ぶ。この目標を達成するために、われわれは、オブジェクトをテーブル上で、押したり、突いたり、掴んだり、観察したりする最初のシステムの1つをBaxter上に構築した」。

私たちがCMUキャンパスに到着するまでに、Baxterはありがたいことに、既に何度も何度もこのプロセスを繰り返した後だった。研究室の助手であるDhiraj Gandhiが、私たち向けにデモを行ってくれた。ロボットはテーブルの向こう側に立っていて、Gandhiはオブジェクトをテーブルの上に並べた。鉛筆ケース、ノーブランドのPower Ranger、いくつかの車のおもちゃ、ミーアキャットのぬいぐるみなどがあり、多様で複雑な形状のために選ばれた100均アイテムのような小間物も入っている。

このデモは、よく知られているオブジェクトと馴染みのないオブジェクトの組み合わせで行われていて、その違いはすぐに明らかになった。ロボットはオブジェクトを認識すると、タブレットで作られた顔を笑顔にしながら、しっかりと対象を掴み、それを適切な箱に入れる。もし良く知らないオブジェクトの場合には、顔を赤らめ困惑の表情を浮かべる … とはいえ更に5万回の掴みを繰り返せば、解決することはできる。

この研究は従来のコンピュータービジョン学習に大きな変化をもたらすものだ。従来のシステムは、ラベルの入力を伴う「スーパーバイザー」プロセスを通してオブジェクトの認識を教えられていた。CMUのロボットはすべてを自分自身で学習する。「現時点では、コンピュータビジョンで起こっていることは、受動的なデータが与えられるということです」とGanshiは説明する。「画像とラベルの取得方法との間には相互作用はありません。私たちが望んでいることは、オブジェクトと相互作用しながら、能動的にデータを取得することです。そうしたデータを通じて、他のビジョンタスクに役立つ機能を学びたいと思っています」と語った。

触れることの重要性を説明するために、Ganshiは70年代半ばの実験を引用した。この実験では英国のある研究者が2匹の仔猫の発達を研究した。1匹は普通に世界と触れ合うことができたが、もう1匹はオブジェクトを見ることだけが許され、実際に触れることは許されなかった。その結果、正常な仔猫たちがするようなことを出来ない、哀れな仔猫が1匹残されることになった。「環境とやりとりを行った方は、どのように足を付けば良いかを学ぶことができました」と彼は説明した。「しかし観察しか許されなかった方はそれができなかったのです」。

このシステムは、Kinectと同様の3Dカメラを使用している。Baxterが収集した視覚的および触覚的な情報は、ディープニューラルネットワークに送られ、ImageNetの中の画像と相互参照される。タッチデータが追加されることによって、ロボットの認識精度は、画像データのみで訓練されたロボットに比べて10%以上良いものになった。「これは非常に励みになる結果である」と、チームはその論文に書いている「なぜならロボットタスクと意味的分類タスクの相関関係は、何十年にもわたり想定されていたものの、決して実証されたことはなかったからだ」。

研究はまだ初期段階だが、この先有望だ。将来的には、ZenRoboticsが開発したゴミをリサイクル品から取り除く、分類ロボットのような用途にタッチと視覚が使われることになるかもしれない。「実際の環境にシステムを投入するまでには、まだまだ大きな課題を解決していかなければなりません」とGanshiは言う。「私たちはその課題を解決したいと考えていますが、今はそこへ向かって赤ん坊のように進んでいるところなのです」。

[ 原文へ ]
(翻訳:Sako)

Googleが支援するCMUの「スーパーセンサー」プロジェクトは、普通の機器の世界にIoTパワーを持ち込む

いわゆる「スマートホーム」は、しばしば信じられないほど馬鹿馬鹿しいものに見えることがある。なんの問題もなく使えている家電たちを、インターネットに接続する同等品に置き換えるために、大金を払わなければならないし、しかもそうした新しい機器たちはハッキングに対する脆弱性を持っていたり、メーカーの気まぐれで機能が使えなくなったりする。

または、家庭内の各機器や可動式什器たちに、センサーを貼り付けることもできる。これは最後には室内をセンサー貼付ガジェットで埋め尽くしてしまうことに等しい、全てのものにモーションセンサーや見苦しいダッシュスタイルボタンなどが貼り付くことになる。

しかも多くの場合、これらのコネクテッドデバイスの一群をどのように導入していくかを熟慮する余裕もなく、非常にセンシティブなものになり得る個人情報を、利益を追求するものたちの目に晒すべくクラウドの中に送り込むことになるのだ。

CMUのFuture Interfaces Groupの研究者たちは、屋内環境の検知を可能にするための異なるアプローチを研究している。彼らは、少なくともよりスマートなインテリアを作り出すための、より迅速で、安価で、面倒のない方法があると考えている。またデプロイを行なう主体に依存するものの、プライバシー上の利点も存在している。

これまでに彼らが構築してきたものは、本格的なIoT利用シナリオが宣伝しているような、多くの遠隔制御オプションを提供するものではない。しかし、もし求められていることが、必要な室内状況の情報を伝えることや、生活環境に対する状況判断を行なうアプリを支援するための正確なリアルタイム情報の質を向上させることだというのなら、彼らのアプローチは極めて有望なものに思える。

チームは今週、デンバーで開催されたACM CHIカンファレンスで彼らの研究についての発表を行った。また同時に、テストシステムが動作している様子を示す以下のデモビデオを公表した。

このシステムでは、複数の個別センサーが組み込まれたカスタムプラグインセンサーボードを使用するが、プライバシーの観点からカメラは組み込まれていない。カスタムセンサー(以下の図を参照)は、機械学習アルゴリズムを使用して入力データを処理する。したがって家庭内での様々な活動を識別するようにトレーニングすることが可能である。例えば(スマートではない)電化製品の電源が入ったとか、水道が出されたこと、調理器具が動作していること、そしてミキサーが動いていることなどを検知できる。またそれは、食器棚のドアと電子レンジのドアのどちらが開閉されたのかを識別することや、ガスレンジのどちらのバーナーに火が点いているのか、そしてトイレが流されたのかなどを識別することさえできる。

よってこれは、室内の様々な異なる活動を追跡することのできる、複数の統合センサーデバイスなのだ。これによって、全てのものに冗長で見苦しいセンサーを貼り付けることを回避できるし、同時に(物理センサーが不調になるとか、故障するとか、バッテリー切れになるなどの)故障が起き得る箇所を取り除くこともできる。

CMUの研究者であるChris Harrisonによれば、このアイデアは、設置された各部屋の汎用の情報収集を目的とした、「クイックアンドダーティ(急ごしらえで洗練されていない)」なスマートホームシステムということだ。他にも同様のマルチセンサー方式に沿って考えているものもあるが、このプロジェクトは、コネクテッドデバイスのオープンエコシステムの開発を促進することを目的として、50万ドル以上に及ぶ資金をGoogleが提供する、IoTエコシステム研究活動の1部なのである。

CMUの「スーパーセンサー」プロジェクトがその一部を成す、Googleによる2015年における研究プロポーザルは、主な目標と優先事項を以下のように記述している:

このプログラムのミッションは、オープンなウェブ上で情報を見つけて利用するときのように、コネクテッドデバイスの発見と対話を簡単にすることにより、IoTの効果的な利用と広範な適用を可能にすることである。結果として生まれるオープンエコシステムは、ユーザビリティを促進し、プライバシーとセキュリティを確保し、なによりも相互運用性を保証しなければならない。

Harrisonは、Googleが考えているかもしれないスーパーセンサー研究の商用化については話すことができないと答えた。しかし同社にとって、このようなものを自身のプロダクトに組み込むための可能性が高い道筋は、明らかに見えている。例えばGoogle Homeの音声駆動AIスピーカーを、スーパーセンサーからの情報を入力する、家庭内インターフェイスの中心として利用することができる。家のオーナーは、その中央IoT装置を介して、家庭内の情報を受け取ったり、状況を問い合わせたりすることができるようになる。

私がHarrisonに対して「それならGoogle Homeのコネクテッドスピーカーは家庭内の情報を家の所有者に告げるためのシステムとして利用できますね、例えば水を出しっぱなしだと声で警告したり、お望みなら家庭内記録として月にドリップした珈琲の杯数を数えることもできるということですね」と問いかけたところ、彼はその可能性を明確に認めつつ、TechCrinchに対してこう言った「もちろんです。私たちのセンサーはそのプロダクト(あるいはNestやCromecast)にそのまま入れることが可能です」。

水栓から水が出ているなどの、主要な室内イベントを感知することができるだけでなく、システムはそうした主要イベントを使った2次的な推論を行うことができる。例えば、水がどのくらいの時間流されていたのかを知っているので、どの位の量の水が使われたのかを計算することができる。

もしくは、更に複雑なイベントの連鎖(例えば、電子レンジのドアが開けられて閉められたこと、調理が開始されたこと、ドアが開けられ再び閉じられたこと、調理が続いていること、そして調理が終了したこと)をモニターして、現在家電機器が利用可能か否かをスマートに通知することができたりする。または、時間の経過とともに利用実績をモニターすることで、ディスペンサーアイテム(ペーパータオルなど)が補充を必要とするか、また別のタイプの機器が手当の必要があるのか、といった情報を得ることができる。

デモビデオでは、システムを有効活用する様々なシナリオが示されているが、それはスマートホーム的なものではなくて、たとえば使用されたペーパータオルの数をカウントして補充通知を送るとか、ホワイトボードのペンがいつ書けなくなるかをその使用量に基いて予測するといった、オフィスや公共トイレでのスマート設備管理などを可能にするアプリケーションたちが示されている。あるいは、工業生産の作業現場をモニターし、どの工具が使われているかを区別することもできる。明らかにこれには安全上の利点がある。

産業現場での汎用トラッキングには、多くの可能な利点が存在している。消耗品がなくなる前に補充を促す通知や、機器が正常に動作していないときにスタッフに注意を促すといったものだ。そして一般的には、環境を円滑かつ効率的に稼動させる役に立つ。

しかし家庭内においては、このような継続的で潜在的に強力であるアクティビティのモニタリングは、まあ少々気色の悪いものに思える。

プライバシー面ではシステムに組み込まれた機能によって、少なくとも生のセンサーデータは決してボードから外に出ることはない。よって、例えば、生の音声データはクラウドへ送られることはない。Harrisonは、私が「何でも知っているスマートホーム」はディストピアへの入口なのではないかと尋ねた質問に対して「私たちは信号が復元可能にならないように、ボード上の全てものを注意深く考慮しています」と答えた。「音声でも何でも、クラウドに送信されることはありません。

「例えば、コーヒーの準備ができたかなどを知らせるアプリを開発したいと思っても、開発者は生データを見ることはできません。その代わりに、彼らは『コーヒー準備完了』という統合センサーフィードをモニターすることになります。そしてそれが手に入るものの全てです。このことでプライバシーが守られるのです」。

しかし、彼は商業用および工業用のユースケースが「特に強力」であることにも同意して、明らかな安全上の利点と全体的なコスト削減の可能性に触れつつ、次のように付け加えた「もしレストランやスーパーマーケットがスマートセンサーを用いることで、現状をリアルタイムに把握できるとしたらどうでしょう。現在は何もわからないので、何かを知ろうと思ったら人間を歩き回らせるしかないのです」。

もちろんシステムにはいくつかの制限がある。(現在は)インターネットに接続されていないので、機器を遠隔操作することができないということもその1つだ(まあ、インターネットに接続されたオーブンを介して侵入したハッカーによる被害を心配しているのなら、この制限もまたメリットだろう)。

また別の制限は、家の中で起きる混沌とした状況だ。もしたくさんの家電製品の動作や家庭内活動が一斉に始まると、検出システムをかなり混乱させる可能性がある。Harrisonはこの点を認めて「もし騒々しいものが沢山ある場合には、性能が劣化する可能性があります」と言った。また彼は、異なる機器は異なるセンサーチャネルをトリガーする可能性が高いので、恐らくノイズをくぐり抜けてくるタイプのアクティビティもあるだろうと語った。

「食洗機と、コーヒーミルと、トースターと、ミキサーなどを同時に使った場合にには、その中の一部だけしか認識できない可能性も高いと思います(もちろんキッチンがとても忙しい状態であることは認識することはできる)」と彼は付け加えた。

CMUのチームは、デモシステムのために、5つの異なる部屋にセンサーボード(1部屋に1枚)を設置した。各ボードには平均8個の統合センサーが搭載されていて、Harrisonによれば、1週間の信号学習の後の、全施設での平均認識精度は、98%という非常に秀逸な結果だったそうだ。

もちろん、システム自身も訓練する必要がある。これがまた別の潜在的な限界である。アルゴリズム自身が何を感知しているかを判断できるようにするために、家の中への機器や機能の導入の際には、人間がそれなりの設定作業を行なうことが求められる。とはいえHarrisonは、既知の機器に関する知識ライブラリをクラウド上に準備しておくことで、制限をある程度緩和することができるだろうと言う。

「ミキサーがどのような音を出すかを機械が一度学習してしまえば、その『分類知識』を全員が使えるように配ってしまうことが可能です(なのでユーザーは自分でトレーニングをする必要はない)」と彼は指摘した。

この統合センサーシステムのようなものを商用化するのはどの程度難しいことなのだろう?Harrisonによれば、チームはすでに「きわめて緊密に統合された」ボードと「包括的なバックエンド」を構築したということで、「まだ商用化には至らないものの、私たちは着実に前進しています」と考えているということだ。

とはいえ、彼は市場出荷のタイミングに関しては、何のヒントも話すことはなかった。おそらくGoogleとの契約上の制約なのだろう。

彼は、そのチームが、マウンテンビューの会社(Google)からの資金援助でこのプロジェクトに取り組み続けていると語ったが、その「次のステップ」に関してはほとんど何も語ることはできなかった。なので、それに関してはAlphabet側の気持ちになって想像をしてみて欲しい。

「現在私たちが焦点を当てているのは、疎なセンサーネットワーク(1つの部屋に1つのボード程度)を用いて建物全体への配備を行い、内部で起きていることの全てを感知することです」と彼は付け加えた。「機器やデバイスを自動的に識別するための深層学習も行っているので、ユーザーは何の設定もする必要はありません。本当にプラグ&プレイです」。

[ 原文へ ]
(翻訳:Sako)

Kineticaは指先で直感的に高度な統計処理とビジュアル化ができるすぐれものiPadアプリ

大量のデータをすばやくいくつかのグループに分類したいなどと思ったことがあるだろうか? もしそうなら朗報だ。

カーネギー・メロン大学(CMU)の人間コンピュータ相互作用センターの博士課程の学生グループが開発中のKineticaというiPadアプリはデータを指先で操作し、分類したり、任意の線に沿って並べたり、スワイプだけでグラフ化したりできる。

このアプリはインポートしたデータに対して直感的な操作で分類、ソートなどさまざまな処理ができる。指で描いた曲線に沿ってデータを配置したり、同一のデータから複数のグラフを同時に生成するなども可能だ。

個々のデータは磁石で壁に張り付いた点のように見える。指定された値によって色分けするのも簡単。 たとえば、自動車のデータなら価格帯、飲食物なら砂糖の含有量によって色分け分類し、ソートするなどができる。

「UIが直感的なので数学や統計の専門知識がなくても、少し慣れればだれにでも高度な処理ができる」と開発者の一人、Jeffrey Rzeszotarskiは言う。現在タブレットの主要な用途はウェブ閲覧と読書にとどまっている。これはひとつにはアプリの操作性が十分でないからだ。正確なポインティングではデスクトップのマウスにはやはりかなわない。しかし直感的な操作にはタブレットの方がずっと向いているし、その強みを生かして自然なジェスチャーで利用できるアプリがもっと増える必要がある。

まだこのアプリは一般公開されていないが、こちらに登録しておくと4月29日過ぎに公開されたときにメールで通知がもらえる。

〔日本版〕上はデモビデオのスクリーンショットだが、サイトの説明によると、タイタニック号の乗客を船室等級別に3つのグループに分け、縦軸を年齢に取り、生存者に着色したものだ。これによって上級船室の乗客は高齢者まで助かったのに下級船室の乗客で助かったのは大部分が若者だったことが一目で分かる。

もうひとつの例は自動車を製造国、価格、馬力でグループ分けしたもの。「4万ドル以上」という条件でフィルタすると「馬力が大きいモデルはほとんどがドイツ車」だということがすぐに分かる。

[原文へ]

(翻訳:滑川海彦 Facebook Google+