MITが家電製品が出す電磁波から居住者の健康状態を把握するシステムを開発

自分の健康状態の全体像を把握するため、これからはApple Watchのようなデバイスを身につける必要はないかもしれない。MIT(マサチューセッツ工科大学)のコンピューター科学・人工知能研究所 (Computer Science and Artificial Intelligence Lab、CSAIL)の研究者が、ヘアドライヤー、ストーブ、電子レンジ、洗濯機などの家電製品がいつ、どこで使われているかを把握できる新しいシステムを開発した。研究者たちは、これらの情報を医療従事者に伝えることで、彼が介護を担当している人々の習慣や課題を知らせるのに役立つと信じている。

研究チームが考案した 「Sapple」 と呼ばれるシステムは、家に設置された2つのセンサーを使って、ストーブやヘアドライヤーなどの家電の使用パターンを測定する。位置センサーは、電磁波を利用して位置を特定し、ユーザーがその場所の境界を歩くだけでエリアをカバーするように調整できる。もう1つのセンサーは、家庭内のエネルギー使用量を測定し、そのデータを移動情報と組み合わせ、家で電化製品を使用しているときと、その使用時間を計測するため、エネルギー使用量と特定の人物の物理的位置とマッチングさせる。

研究者が「Sapple」と呼ぶそのシステムは、家の中に2つのセンサーを取り付け、デバイスの使用パターンを判定する。位置センサーはデバイスが発する電磁波からその場所を特定するが、検知範囲はユーザーが実際に歩くことによって指定できる。もう1つのセンサーは家全体のエネルギー消費を計測し、動きの情報と組み合わせてエネルギー利用のシグナルを人間の物理的な位置にマッチングし、家の中の誰かが器具を使っていることと、その使用時間を知る。

この方法では、スマートメーターなどを使う類似のシステムにある多くの問題を回避できる。家電にはそれぞれ特定の電力使用パターンがあるので、消費電力量によってどの家電が使われたのかはわかる。しかし、該当する家電がいつどのように使われたかを知るのは難しい。MITのシステムが提供する情報なら、医療従事者が患者が衛生に十分配慮しているか、食事を自分で作って食べているかなどを知ることができるわけだ。

このシステムにはプライバシーの落とし穴がたくさんありそうだが」、その使用目的が高齢者の介護など特定の用途に限られている。極めて省エネで、いま必要とされている疫病対策のための人と人の間の距離も維持できる。

IoTのスマートデバイスがまったく必要ない点でも巧妙なシステムで、単純なセンサーを2つ取り付けるだけなので、介護を受ける患者側に技術の知識も能力もいらない。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

MITの在宅新型コロナ患者の動きと呼吸を検知するワイヤレス装置が遠隔治療をサポートする

新型コロナウイルス(COVID-19)パンデミックは医療従事者に前例のない困難をもたらしている。中でも大きな課題はソーシャルディスタンス問題であり、自身が感染することなく診察と治療を行うためにまったく新しい取り組みが必要になる。

すでに陽性結果が出ている多くの人々にとって、自宅待機はさまざまな地域で大きな負荷がかかっている病院を避け、他の人達に感染を広げないための最善の選択だ。問題は遠隔医療の限界が明白である中、医者や看護師がどうやって遠方から治療を続けられるかだ。

MIT(マサチューセッツ工科大学)のCSAIL(コンピュータ科学・人工知能研究所)は今週、自宅にいる患者の健康状態を定期的にチェックするために作られた試験中の新しい機器を発表した。Wi-Fiルーターに似た外見のこのオプトインシステムは、患者の部屋の壁に設置する。

新しい機器は無線信号を使って患者の動きや睡眠パターン、さらには(最も重要な)呼吸などさまざまな活動を検知する。Emerald(エメラルド)と呼ばれるそのシステムは、人工知能を使って移動を追跡することで、個人を区別することができる。

現在このシステムは、ボストン郊外のHeritage Assisted Livingという介護施設でテストされている。「介護施設にいるような高いリスクの高齢患者にとって、直接診察することが困難な時に医療データを自動的に取得できるこのシステムが大きな恩恵であることは間違いない」と、同施設の保健責任者であるWilliam McGrory(ウィリアム・マクグローリー)氏はリリースでいう。

ワイヤレスシステムがなぜ、シンプルなウェアラブルよりも優れているのかというTechCrunchの質問に対して、CSAILの広報担当者はこのテクノロジーの本質は「設置したら忘れる」ことで、初期設定後、患者は何も操作しなくていいという点だと答えている。

新型コロナウイルス 関連アップデート

[原文へ]

(翻訳:Nob Takahashi / facebook

安価な市販素材でMITがソフトロボットの皮膚となる触覚センサーを開発

MITのCSAILのチームが、ソフトロボット製のロボットアームに触覚を持たせるための「皮膚」を設計し、そのデモを披露した。その経過は今週のIEEE Robotics and Automation Lettersに載っているが、研究者はソフトロボットの本体に、妨害電波を遮断するために使われるシールド素材で作った柔軟性のあるセンサーをかぶせた。シールド素材には圧抵抗効果があるので、折り曲げなどの動きをセンスできる。

通常は剛体であるその素材で切り紙のようなものを作り、それをレーザーでカットして鎖(くさり)状に組み立てると、上図のように伸ばしたり曲げたりできるようになり、ロボットの形状に付着して一緒に動くようになる。電磁シールド材は市販品なので、ソフトロボットという成長分野に低コストで触覚を導入できる。

CSAILのDaniela Rus氏が、この研究を発表するリリースでこう言っている: 「ご自分の体を考えてみましょう。目を閉じても皮膚からのフィードバックで世界を再構成できます。それと同じ能力を、ソフトロボットに持たせたかったのです」。

研究者はニューラルネットワークを作ってこの人工皮膚からの結果を処理し、信号とノイズを分離した。そしてそのデータを、従来的なモーションキャプチャーシステムで補強した。今後CSAILは、人工皮膚のための新しい構成をいろいろ探求し、またニューラルネットワークも改良したいとしている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

MITの人まねロボがボトルキャップチャレンジに成功

MITのCSAIL(コンピュータ科学・人工知能研究所)には、人間の上腕二頭筋の動きを観察して、その動作を真似できるロボットがある。大きくて扱いにくそうなものを持ち上げようとする人を手伝うなど、実用的な用途はいろいろある。しかし、今流行りの、あのチャレンジにも応用できそうだ。

CSAILは、このロボットをRoboRaise(ロボレイズ)と呼んでいる。今回、人間の相棒から教えを受けて、ボトルキャップチャレンジをやってのけた。このところ、セレブも含めて多くの人の間で流行っている、アレだ。ペットボトルのキャップに狙いを定めて正確無比なキックを繰り出し、キャップだけを回転させて、うまく取れたかどうかをビデオで拡散するというもの。

RoboRaiseは、実はキックはできない。なぜかと言えば、そう、腕しかないからだ。それでも、このロボットがどんなにうまく人間の動きを真似できるかを示す素晴らしいデモには違いない。そのソフトなロボットハンドは、ボトル本体に触れることなく、見事にキャップだけを回転させて外すことに成功した。ロボット自身も、自分の能力をかなり気に入っているようだ。ディスプレイに表示された誇らしげな笑顔がそれを物語っている。

原文へ

(翻訳:Fumihiko Shibata)

MITの人まねロボがボトルキャップチャレンジに成功

MITのCSAIL(コンピュータ科学・人工知能研究所)には、人間の上腕二頭筋の動きを観察して、その動作を真似できるロボットがある。大きくて扱いにくそうなものを持ち上げようとする人を手伝うなど、実用的な用途はいろいろある。しかし、今流行りの、あのチャレンジにも応用できそうだ。

CSAILは、このロボットをRoboRaise(ロボレイズ)と呼んでいる。今回、人間の相棒から教えを受けて、ボトルキャップチャレンジをやってのけた。このところ、セレブも含めて多くの人の間で流行っている、アレだ。ペットボトルのキャップに狙いを定めて正確無比なキックを繰り出し、キャップだけを回転させて、うまく取れたかどうかをビデオで拡散するというもの。

RoboRaiseは、実はキックはできない。なぜかと言えば、そう、腕しかないからだ。それでも、このロボットがどんなにうまく人間の動きを真似できるかを示す素晴らしいデモには違いない。そのソフトなロボットハンドは、ボトル本体に触れることなく、見事にキャップだけを回転させて外すことに成功した。ロボット自身も、自分の能力をかなり気に入っているようだ。ディスプレイに表示された誇らしげな笑顔がそれを物語っている。

原文へ

(翻訳:Fumihiko Shibata)

MITはロボットに人間的な感覚を持たせるシステムを開発

MITのCSAIL(コンピュータ科学・人工知能研究所)の研究者は、人間にとっては当たり前だと思われていること、視覚と触覚など、複数の感覚をリンクさせる能力をロボットに持たせる新たなシステムを開発した

CSAILが作成した新しいシステムには、触覚を利用して見ることを学んだり、その逆に、視覚を利用して触れることを学んだりする予測AIが含まれている。それはかえって混乱を招くように思われるかもしれないが、実は人間が毎日のようにやっていることを真似したに過ぎない。たとえば、物の表面の状態や材質を見て判断することで、もし触ったらどのような感触が得られるかを予測することができる。柔らかいのか、ザラザラしているのか、あるいはぐにゃぐにゃしているのか、といったことだ。

またこのシステムは、触覚、つまり接触による入力を取り込んで、それがどのように見えるかを予測することもできる。ちょうど外からは中が見えない穴の空いた箱に手を突っ込んで、手に触れた物体が何なのかを当てる遊びのようなものだ。

このような例を挙げても、こうしたシステムが実際にどのように役立つのかを明確にすることはできないかもしれない。しかし、CSAILが提示している例を見れば、それも明らかになるはずだ。研究チームは、ロボットアームがついたシステムを使って、オブジェクトそのものは見せずに、それがどこにあるのかを予測させ、感触によってそれが何であるかを認識させた。こうした能力によって、スイッチ、レバー、あるいは取り上げようとしている部品に触ることで、それが正しいものか、そうでないかを判断させることができる。これは、ロボットを補助的に使って作業する人間のオペレーターにとって有用であることは想像できるだろう。

このタイプのAIを利用すれば、たとえば薄暗い環境でも、高感度のセンサーを必要とせずに、効率的かつ効果的にロボットを動かすことができるはずだ。そして、また別の感覚のシミュレーション技術と組み合わせることで、一般的なシステムのコンポーネントとして利用することが可能となるだろう。

画像クレジット:Willyam BradberryShutterstock

原文へ

(翻訳:Fumihiko Shibata)

しぼんだ風船で物をつかむMITのロボットハンドは自重100倍の重さを持ち上げる

生物からヒントを得たソフトなロボットは、ロボット工学の中でももっともエキサイティングな分野だ。それらは、障害物に挟まれても壊れずに搾(しぼ)られたり、自分のまわりの世界に形を合わせることのできるマシンだ。MITのCSAILとハーバードのWyssの共同プロジェクトは、彼らのこれまでの研究成果を利用して、デリケートなオブジェクトを扱うことができ、自重の100倍の重さのものを持ち上げることのできる、ソフトロボットのグリッパー(gripper, 物を掴み上げる機能部位)を開発した。

グリッパー本体は折り紙からアイデアをもらった骨格構造をしていて、それを布やしぼんだ風船で包んでいる。それは最近チームが別のプロジェクトで、ローコストの人工筋肉を設計したときに採用したやり方だ。コネクターがグリッパーをロボットの腕に取り付け、真空装置が空気をグリッパーから吸い取って、オブジェクトのまわりにぴったり貼りつかせる。

Soft Roboticsの商用グリッパーのように、このデバイスは柔らかいので、複雑な視覚システムがなくてもいろんなオブジェクトをつかめる。また、つかむとき、デリケートなオブジェクトに傷をつけない。

MITのDaniela Rus教授がニュースリリースの中でこう言っている。「これまでの荷造りロボットはごく一部のオブジェクトしか扱えなかった。とても軽いオブジェクトや、箱や筒のような形状によくなじむオブジェクトだ。でもわれわれのMagic Ballグリッパーでは、ワインの瓶やブロッコリー、ぶどう、卵などさまざまなオブジェクトを、掴んで持ち上げて置くことができる。言い換えると、重いオブジェクトと軽いオブジェクト、デリケートなオブジェクトと頑丈なオブジェクト、定型的なオブジェクトと形がさまざまなオブジェクト、これらの両方をつかめるのだ」。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

最終製品の色が光によって変わる3Dプリントの技術をMITのチームが開発

これもまた、MITのCSAIL(コンピューターサイエンス人工知能研究所)のクールなプロジェクトだ。研究者たちは、3Dプリントの工程に色が変わるという性質を持たせることによって、材料の無駄遣いを減らそうとしている。省資源はこんなプロジェクトにしては大げさな目標だが、しかし少なくとも、3Dプリントで何かを作ることが、なお一層消費者にとって魅力的になるだろう。

3Dプリントの工程そのものは、特に変わったところはなくてふつうで、液状のレジンに紫外線を当てて硬化する。変わっているのは、フォトクロミック(photochromic, 光によって色が変わる)な染料を加えることだ。そうすると最終製品の表面は、そこに当たる光によって色が変わる。研究者たちはこの技術を“ColorFab”と呼んでおり、それは3Dプリントの世界では何かのネーミングによく使われるパターンだ。

熱で色が変わるTシャツのHypercolorというブランドが昔からあるけど、それに似ていなくもない。でもこの研究を指導しているStefanie Mueller教授によると、光が当たっているかぎりその色を保持するから、むしろE Ink(電子インク)に似ている、という。しかも単純に色が変わるだけでなく、解像度を高くすれば複雑な模様も作れる。

チームの期待としては、製品の色が変わるようになれば、次から次と無駄な衝動買いがなくなるだろう、という。

“みんな、新しいスマートフォンや、新しいスマートフォンケースを欲しがるけど、資源の無駄遣いをせずに製品の外見をフレッシュにする方法が、あった方が良いのではないか”、とMuellerは語る。

でも企業は、次々と新製品が売れなければ困るから、Muellerの説は難しいだろう。しかしそれでも、3Dプリントの新しい技法としては、とてもおもしろい。実装が簡単だから、大衆的普及も早いのではないか。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MITが「さわれる」ビデオを作った

poltergeist-movie

厳密に言うと、ビデオは対話型メディアではない。しかしMITの新たな研究プロジェクトはそれを変えようとしている。同大学のCSAILラボが開発した技法を使うと、視聴者はビデオに映った物に「触れ」て、まるで現実世界で物に触れているかのように直接動かしたり影響を与えたりできるようになる。

つまりこの技術を使うと、誰かがギターを弾いているYouTubeビデオでフレットを拡大表示して弦をマウスでドラッグすれば、実際に弦をはじいたような音がするという意味だ。あるいは、古い橋に人工の風やトラックの振動等のバーチャルストレスを与えて、負荷テストを行うこともできる。

このCSAILの新しいモデルでは、通常のカメラで撮影したビデオをチームが開発したアルゴリズムで解析し、個々の物体の振動を分析する。最短5秒間のビデオからでも解析が可能で、他の動作に対してどう反応するかを予測して現実的な予測モデルを作ることができる。


通常この種の効果をビデオゲームや対話型メディアで実現するためには、バーチャルモデルの製作という費用も時間もかかる手作業が必要だ。バーチャルなアニメキャラクターが現実世界と融合したロジャーラビット型映画の制作にこの新技術を使えば、リアルなビデオをCGと合成するのも簡単になり、ロジャーラビットをはるかに越える応用が可能になる。

MITはこの技術が面白い結果を生みそうな場所として、ポケモンGOの名前を挙げている。捕えようとしているBulbasaur[フシギダネ]が、草むらと実際に触れあっているように見えたらどうだろうか。大作映画でCGエイリアンが現実世界の都市を破壊する様子をビジュアルに表現するのもずっと容易になるだろう。

この新しい手法は、VRやARの技術に対する関心と投資の波に乗る最適のタイミングで登場した。多くの対話型VR体験の開発コストを大幅に削減することで、コンテンツ分野に新たな関心が寄せられることが期待できる。つまるところ、誰もがVRの価値を証明するものを求めている。最終的にCSAILは、VRビデオが今以上に魅力ある双方向メディアになれることを証明できるかもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook