本人が何も装着せず、電波の反射波を利用する非侵襲型(当人が意識しない)の睡眠モニタをMITで開発

MITの研究者たちが、睡眠をワイヤレスでモニタする新しい方法を公開した。それは反響定位法(エコーロケーション, echolocation)に似ていて、電波を睡眠者に当てて反射波を捉え、体の影響による電波の変化を調べる。

チームはこれまでも、低出力の電波をモニタリングに利用する方法をいろいろトライしてきたが、今回のはその最新の成果だ。今回はAIを利用することによって、睡眠者の体のわずかな動きでも、電波の変化の中に捉えることができた。それにより、睡眠ステージ(浅い深い、REM/NREM)、睡眠中の運動、呼吸率など、睡眠のパターンに関する有意味な情報を得ることができた。

テストは25名のボランティアに対し、100晩かけて行われた。研究の指導教授Dina Katabiによると、そのシステムは80%の正確度で睡眠パターンを検出できた。それは業界標準の睡眠テストEEGにほぼ匹敵する。

睡眠の追跡調査はFitbitやApple Watchのようなウェアラブルでもある程度行われているが、それらはもっぱら、スマホが内蔵している加速度計を使って体の動きを検出し、それにより睡眠のパターンを判断している。

“ウェアラブルもいいけど、われわれのねらいは、目に見えないものを捉えることだった”、とKatabiは語る。“それは家庭の中で、みんなが忘れてしまうぐらい目立たないが、しかしそれと同時に、ワイヤレスの信号だけを使って健康上のあらゆる問題をモニタできる”。

そのワイヤレスシステムは、取り上げる要素がウェアラブルよりずっと多い。動きだけでなく、呼吸や心拍も捉える。それでいて、まったく生活の邪魔にならず、ベッドから数メートル以内の棚や壁に目立たない形で置ける。

使用する電波はWi-Fiよりずっと弱く、一家の中で複数台を複数の人に対して使える。調整などは要らない。被験者にとって、まったく気にならない存在であることも、本機の理想的な性質だ。

本人がその存在を忘れている状態で長期の検診ができるから、パーキンソン病やアルツハイマー病のような睡眠障害と関係の深い疾病のモニタにも向いている。ただし、そこまで一般化大衆化するためには、まずFDAなどの認可が必要だ。結果はすでに良好だから、それも大丈夫だと思えるが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MITの‘生きているジュエリー’は、衣類にしがみつく小さなロボットのアシスタント

Project Kinoは、“生きているジュエリー”からヒントを得た。それは、世界各地で装飾品として着用されている、極彩色の大型甲虫やそのほかの昆虫類だ。MIT Media Labのバージョンは、それらに比べるとずっと人間的で、手のひらサイズのロボットを磁石で衣類にくっつける。チームがデモをしたのは約1年前だが、今回は車輪のついた小さなロボットにさまざまな機能を持たせた。

とは言え、今のところこのロボットのメインのお仕事は衣類の装飾だ。プロジェクトの名前は“kinetic”(運動的)という言葉に由来していて、動きのパターンをいろいろ変えられることを指している。いわばその衣類のデザインが、刻々変化するのだ。一方そのロボットの下面は、動きながら衣類の柄、色、形などを読み取る。

デザインとは関係ない機能も探究中で、最終バージョンではモジュール構造になり、ユーザーがいろんなセンサーを付け替えてさまざまな機能を楽しむ。たとえばレインコートなら、温度センサーとフードの紐の上げ下げを連動するだろう。

電話機モジュールを装着したロボットは、電話がかかってくると着用者の口元へ這い上がってくる。通知を受信すると、ユーザーの手首をタップして知らせるかもしれない。

チームのCindy Hsin-Liu Kaoはこう述べる: “ウェアラブルがパーソナルアシスタントであってもいいわよね。将来的には、ユーザーの習慣や職業を認識して、それらに合った動作をさせられる。着るものとアシスタントが一体化するのよ”。

実用化するためには、ロボットのサイズが当面の問題だ。もっともっと小さくしなければならない。また、今デモで使っている大きなやつでも、バッテリーの寿命が制約になる…充電後45分しか動かせない。今、ワイヤレス充電などの方法を検討中だ、そのシナリオでは、ロボットが自分で充電器のそばまで歩いて行き、充電が終わったらご主人の服へ戻ってくる。

昨年は、初期のバージョンを詳説したペーパーを公開した。その後は開発にデザイナーも参加し、一部のアプリケーションを強調できるようにした。Hsin-Liu Kaoによると、“気味が悪い!って言う人がとっても多かったからよ”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ニューラルネットワークの内部動作を理解するための完全自動化システムをMITの研究所が開発

MITのComputer Science and Artificial Intelligence Lab(コンピューターサイエンスと人工知能研究所, CSAIL)が、ニューラルネットワークの内部を調べて、それらが実際にどうやって判断をしているのかを知るための、方法を考案した。その新しいプロセスは二年前にチームがプレゼンしたものの完全自動化バージョンで、以前は人間が調べて同じ目的を達成していた。

ニューラルネットワークの動作の理解に人間が介入しなくなったことは、研究の大きな進歩だ。これまでのディープラーニングのテクニックには、彼らの動作に関する不可解な部分が多かった。いったいどうやってシステムは、その判断結果に到達しているのか? そのネットワークは信号処理の複数の連続した層を使って、オブジェクトの分類やテキストの翻訳などの機能を実行するが、ネットワークの各層がどうやって判断しているのかを、われわれ人間が知るための方法がほとんどなかった。

CSAILのチームはのシステムは、ちょっと手を加えたニューラルネットを使い、その個々のノードが入力画像に反応するときの反応の強度を返させる。そして、最強の反応を生成した画像を分析する。この分析は最初、Mechanical Turkのワーカーたちが行い、画像中の具体的な視覚的コンセプトに基づいて分類をしたが、今ではその仕事が自動化され、分類はマシンが生成する。

すでにこの研究から、ニューラルネットの動作に関する興味深いインサイトが得られつつある。たとえば白黒の画像に塗り絵をするよう訓練されたネットワークは、そのノードの大きな部分に集中することによって、絵の中のテクスチャ(絵柄、模様、パターン)を同定する。またビデオの中にオブジェクトを見つけるよう訓練されたネットワークは、そのノードの多くがシーンの同定に動員され、一方、シーンを同定するよう訓練されたネットワークはその逆に、多くのノードにオブジェクトを見つけることに集中した。

私たちはそもそも、分類や認識を行う人間の思考を完全には理解していないし、ニューラルネットはその不完全な理解に基づく人間の思考の仮説的なモデルだ。だからCSAILの研究は今後、神経科学の疑問も解き明かすかもしれない。そのペーパーは今年のComputer Vision and Pattern Recognition(コンピュータービジョンとパターン認識)カンファレンスで発表されるが、人工知能の研究者たちの、大きな関心を喚(よ)ぶことだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ガソリンエンジンで飛ぶこのドローンは理論上まる5日間の連続滞空時間を達成

先月、MITのエンジニアチームが、小型車の屋根からJungle Hawk Owlという愛称の大型ドローンの初飛行を行った。この、ガソリンエンジン(5馬力)で飛ぶ翼長24フィート(7メートル)のドローンは、彼らの設計では、一回の給油で5日間飛び続けるはずだ。

この航空機は、アメリカ空軍から与えられた課題でもある。その課題は、太陽エネルギーで長期間滞空する無人機を設計すること、だった。その機の目的は、災害地などにおける通信能力の確保だ。これまでは気球が使われていたが、一箇所に長期間滞留させることが難しかった。

MITのBeaver Works研究所の複数のチームが課題に取り組んだが、ソーラーの利用は早々に放棄された。研究を指揮したWarren Hoburg教授によると、現在のソーラー技術では、パネルの面積を相当大きくし、重い大型の電池を積まないかぎり、長期間の滞空は無理である。また、冬季や高緯度地域では、十分な日照が得られない。

“ソーラーを見捨ててガソリンエンジンを使うのは、確かにかっこよくないけどね”、と彼は語る。“あくまでもソーラーでやろうとすると、時間とお金を湯水のように使っただろう。ガソリンにしたおかげで、最初の飛行はすでに成功した。設計も容易だし、燃料の消費量も少ない。テスト飛行場へ車で行くために使ったガソリンの量で、このドローンを三日飛ばせるね”。

優勝チームはドローンのプロトタイプの設計に、HoburgのPythonベースのモデリングツールGPkitを使った。炭素繊維とケブラーを使った軽い機体の重量は55ポンド(25キログラム)、有効積載量+ガソリン満タンで150ポンド(68キログラム)になる。専用の靴箱サイズの通信機器は、MITのLincoln Labsがこのプロジェクトのために特別に設計した。機体は簡単に分解して任務地へ運び、簡単に組み立てられる。

チームによると、この機は災害救助以外にも、GoogleやFacebookが長年苦労している“インターネットアクセスの全地球的供給”、という夢の実現にも寄与するだろう(すでに放棄されたプロジェクトもあるが)。ただし、完成と実用化までは、まだまだ課題も多く、この夏のテストのためには、実際に5日間連続飛行させるために、FAAの許可が必要だ。

  1. dji_00021.jpg

    DCIM121MEDIADJI_0002.JPG
  2. dsc_00021.jpg

  3. dsc_0012.jpg

  4. dsc_00551.jpg

  5. dsc_0058.jpg

  6. dsc_0079.jpg

  7. dsc_0081.jpg

  8. dsc_0084.jpg

  9. dsc_0182.jpg

  10. dsc_0184.jpg

  11. dsc_0198.jpg

  12. dsc_0200.jpg

  13. dsc_0295.jpg

  14. dsc_0298.jpg

  15. dsc_0317.jpg

  16. dsc_0339.jpg

  17. dsc_0356.jpg

  18. dsc_0359.jpg

  19. dsc_0363.jpg

  20. dsc_0390.jpg

  21. img_2551.jpg

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MITのキャンパスを走り回る自動運転車いす

マサチューセッツ工科大学(MIT)のキャンパスでは、ここ数ヶ月の間、MITコンピューターサイエンス・人工知能研究所(CSAIL)が開発した自動運転車いすをよく見かける。この車いすは、彼らの研究結果を披露する広告塔のような存在であると同時に、自動運転技術を現実世界でテストするための実験台でもある。会話に集中して周りが見えていない学生のグループや、スマートフォンを持って”ながら歩き”をしている学生の進行方向は予測不可能なため、キャンパスの状況は公道に近いのだ。

そもそもこの車いすは、自動運転技術を現実世界でテストするために作られたものだ。一般的に、自動運転車を公道でテストするのは難しく、特に人口密度の高いボストンのような街では、試験走行を行うまでにさまざまな規制上のややこしい手続きを踏まなければならない。

近くにある軍用基地が試験走行の候補地として浮上したが、MITは2トンもの鉄の塊を走らせる前に、自分たちのアイディアを試すための手段が必要だと考えた。CSAILが開発した車いすは、ちょうど自律型の自動運転車と遠隔操作型の車の中間に位置するため、研究者はスピーディーに問題点を改善できる。障害を持つ人たちを対象としたユースケースはその中で偶然生まれたものだった。

「現在行っている研究では、車いすはあくまでプラットフォームのひとつとして利用されていますが、車いすに特化した研究を行おうとしている人もいます」とロボットソフトエンジニアのThomas Balchは話す。「私が(CSAILに)入って以降、身体的な障害を持った人たちをターゲットにした研究がたくさん行われています」

彼らの車いすには、実寸の自動運転車と同じライダー(レーザーの反射光から障害物との距離を測るセンサー)のほか、自動運転技術がもてはやされ始めるよりもずっと前の2010年にCSAILがシンガポールの道路用に開発したマッピングテクノロジーが搭載されている。背もたれの上部に取り付けられたこのシステムが、周囲の定点(不規則に並んだFrank Gehry設計のStata Centerの壁)をもとに3Dマップを作成し、前方に搭載された小さなセンサーが進行方向にある障害物を検知するようになっている。

Balchと研究助手のFlix Naserのおかげで、私はStata CenterのロビーでCSAIL製の車いすに乗ることができた(結果的に私が想像していたものとは少し違うキャンパスツアーになった)。まず、ジョイスティックと背もたれに搭載された3Dマッピングシステムを使って進路をマッピングする。といっても、今回の走路はロビーの一方からもう一方までほぼ直線で進むというシンプルなものだった。マッピングが完了すると、手元の大きなタブレットに進路が色付きの線で表示される。壁は真っ黒なブロックとして表れ、ロビーにいる人の脚はさまざまな色の点で表示されていた。ロビーの俯瞰図のような地図はそれほど複雑ではないが、センサーがきちんと機能していることがわかる。

動きは一般的な電動車いすのように、スムーズかつゆっくりとしていた。システムが人間を感知すると、車いすは速度を緩めて完全に停止し、進行方向を修正してから人を避けていく。このプロセスにかかる時間は10〜15秒ほどだった。強いて言えば、現時点ではかなり慎重な設定がされていて、周囲に誰かが近寄るとすぐに車いすが停止するようになっていた。車いすとしては注意深すぎるくらいがちょうどいいのかもしれないが、自動車としてはすこし過剰な気もする。

走行中は、緊急ブレーキのためにXboxのコントローラーを手にしたBalchが車いすの背後についてまわっており、これだけゆっくりと走るものでも人間の補助を完全に取り去るまでにはかなりの努力が必要だということを物語っていた。その一方で、このくらいゆっくりで周囲への影響が少ないセッティングの方が、バグを処理する上では安全だと言える。

しかし、システムが完成すれば、彼らの車いすは人の多い病院でも患者を移動できるようになるかもしれない。MITは現在世界中の病院とパイロットプログラムに関する話を進めているが、このCSAILの自動運転車の研究が商業的な成果に繋がるのは、まだ先のことになりそうだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

そのイスには人が座っている?――MITが開発する視覚補助ウェアラブル端末

視覚障害者が使用する白杖は、シンプルなツールであるにも関わらず、非常に長いあいだ廃れることなく利用され続けてきた。この1世紀でテクノロジーは飛躍的に進歩したにもかかわらず、先端に金属片がついた棒に取って代わるようなアイデアが生まれてこなかったのだ。しかし、MITのリサーチャーたちは、この問題の解決策となるウェアラブル・システムを開発中だ。いつか、装着者の能力を拡張するそのツールが白杖の代わりに利用される日が来るかもしれない。

このシステムには3Dカメラとコンピューターが搭載されていて、首から吊り下げて利用する。搭載されたカメラが障害物を認識すると、周期的な振動によってその位置を装着者に伝える仕組みだ。システムに取り付けられたモーターが生み出す振動のパターンは多種多様で、それにより障害物までの距離など様々な情報を装着者に伝えることができる。

開発チームによれば、振動を伝えるベルトを装着する場所は腹部が最も適しているという。腹部は適度な感度をもち、かつ他の感覚によって情報伝達が妨げられることがないからだ。また、視覚障害者は周りの状況を把握するために聴覚を研ぎすませることが多いことから、初期のテストで音による情報伝達機能をシステムから排除したという。頭や首の周りから絶えず音が出ていれば、装着者の気が散ってしまうことは容易に想像できる。

システムには物体認識機能と点字が浮き上がる専用のパッドが備えられているため、前にある物体が何であるかを伝えることが可能だ――例えば、それがテーブルであれば”table”の「t」を表す点字が浮き上がり、イスであれば”chair”の「c」が浮かび上がるといった具合だ。また、このシステムは白杖では答えられないシンプルな疑問にも答えてくれる。そのイスには人が座っているのか、という疑問がその例だ。

「このシステムは、白杖以上にさまざまなタスクをこなして装着者をサポートすることが可能です」と、MITのComputer Science and Artificial Intelligence Laboratory(CSAIL)の所長を務めるDaniela Rus氏はTechCrunchに語った。「ホテルのロビーでイスを探し、そしてそこに人が座っているのかどうかまで教えてくれるのです。これは一見すると些細な問題のように思われるかもしれません――しかし、一度目をつむり、混雑する場所でイスを探さなければいけない状況を想像してみてください。しかも、杖の先端から得られるたった1つの情報しか伝えることができない白杖を使ってです」。

これまで、開発チームは研究ラボの中でシステムのテストを何度か行ってきた。イスを発見するテストでは、意図しない接触を従来より80%軽減することができたという。また、MITの構内を歩きまわるというテストでは、装着者が他人とぶつかってしまうアクシデントを86%減らすことができたそうだ。

この研究開発は、まだ始まったばかりだ。研究チームのテストに参加したのは今のところまだ10人のボランティアだけである。視覚障害者に受け入れられるシステムをつくるためには、より多くの被験者を集める必要があるだろう。しかも、人々が白杖を完全に使わなくなる日がくるまでには、より長い時間がかかるだろう。しかし、いつの日か、この研究によって採算の合う事業が生まれることをRuth氏は願っている。

「宇宙旅行のナビゲーションから歩数の計算まで、コンピューターが様々なタスクをこなして人間を助けるようになった今、杖をもって歩くよりも良い方法を視覚障害者に提供できるのではないかと考えています」とRuth氏は語る。「それは、すでにあるデザインを作り変えることを意味するのではなく、また、すでに存在する物の新しい使い方を発見することでもありません。障害をもつ人々と協力することで、コンピューターが彼らの能力を拡張する方法、つまり、言ってみれば彼らの目となる方法を探すのです。そして、その目的を達成するために必要なテクノロジーを開発していくのです」。

[原文]

(翻訳:木村拓哉 /Website /Facebook /Twitter

ワイヤレスで歩行速度を測るMITのWiGaitはセンサーを使うウェアラブルより正確でストレスフリー

MITのコンピューターサイエンスと人工知能研究所が、歩行速度を95から99%の精度で測定する方法を考案した。それは、ウェアラブルや体につける測定器具は使わない。その技術は、チームが“WiGait”と呼ぶワイヤレスの信号を利用し、それを家の中でルーターのような装置から送信して、一定時間内の歩行速度と歩幅を調べる。

このWiGaitシステムは屋内で使用し、目立たない場所にセットアップできる。ユーザーは、いちいち腕輪などの充電を要する器具を思い出して身につけなくても、そのままでいつでも自分の歩行を測れる。歩行速度の測定は臨床研究に大いに役に立ち、健康状態の予測予言に利用できることが、最近ますます立証されつつある。また歩幅の変化は、パーキンソン病などの診断に役に立つ。

WiGaitはそのほかの体調診断方法に比べて、体に何もつけないし、カメラのような気になる器具も使わないから有利だ。たとえば歩幅測定にカメラを使うと、副産物としてプライバシーの心配が生ずる。患者は歩行距離を測るセンサーなどがない方が気楽だし、自分を見張っているカメラがあるより、WiGaitのように壁に目立たないアンテナがある方が余計な緊張をしない。

  1. zach-kabelac-dina-katabi-chen-yu-hsu-and-rumen-hristov-led-the-development-of-wigait-photo-credit-tom-buehler.jpg

  2. wigait-uses-wireless-signals-to-continuously-measure-a-person_s-walking-speed-photo-credit-jason-dorfman.png

  3. phd-student-chen-yu-hsu-was-lead-author-on-the-new-paper-about-the-wigait-device-in-background-photo-credit-jason-dorfman.jpg

この開発は、長期的な介護や老人医学にとって大きな診療的意義がある。この二つの分野は、人間の長寿命化と社会の高齢化とともにますます重要だ。この技術のいちばん良いところは、一度セットアップすれば、患者の適応努力に伴うストレスがゼロであることだ。ウェアラブルだと、この適応努力がいつもたいへんである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ロボットの皮膚の3Dプリントを研究しているMITのチームが自己防衛のために色を変える甲虫から重要なヒントを得た

Subramanian Sundaramのチームは、3Dプリントによるロボットの制作で行き詰まったとき、ロボット屋さんがよくやることだが、自然へと目を向けた。そしてこのMITの研究者たちのチームはごく最近、golden tortoise beetle(ゴールデンカメノコハムシ)から、ヒントをいただいた。それは、ユニークなカモフラージュを習性とする、北米原産の甲虫類だ。

脅威に直面すると、この甲虫の甲の金色が消えて、半透明の赤茶色になる。MITの科学者たちは、未来のロボットの皮膚…本体表面のセンサーなどを保護する…になることを目指して、柔軟性のある薄膜を3Dプリントで作ることを目指していたが、甲虫のこの振る舞いを見てアイデアがひらめいた。

このバイオミミクリー(biomimicry)について、長期的な研究のごく一部で自然からヒントを得たことを、Sundaramは謙虚に語る: “人間の能力はまだとても後れているから、どうしても自然に頼ろうとする”。とは言っても、人間が生物の種を作り出すことはまだまだできない、と彼は述べる。

彼はこう語る: “月を目指していたけど、やっと木のてっぺんに到達したようなものだ。ヒントを得るために甲虫を研究したが、このようなものを人間が作れるようになるのは、まだまだ遠い先の話だ。生物の能力は桁外れにすごい。われわれはそのごく一部を借りようとしているだけだが、それでも、その機能の実装はとても難しい”。

今回チームは、甲虫の単純な自己防衛能力を借りて、3Dプリントで作った柔軟な基質に、光学的な変化を作り出そうとした。“センサーが何かをセンスしたら、皮膚の色が変わるようにしたかった”、とSundaramは語る。“反応とそれに対する動作の起動(アクチュエーション)は、3Dプリントの最大の問題のひとつだが、光学的な変化なら比較的容易だ”。

彼らの3Dプリントプロセスは、6種類の素材を3DプリンターMultiFab 3Dに通すことによって行われる。そしてそのプリント物に銅とセラミック製のヒーターを使い、半導体性のプラスチックを挿入する。その一回の3Dプリントプロセスで、チームは、自然の機能を模倣する回路基板を作ることができた。

大量のセンサーを搭載したロボットを3Dプリントするためには、この技術がそのための重要な一歩だ、とチームは信じている。同じくMITの別のチームが、加熱すると形を変えるロボットの3Dプリントを研究しているが、自然の模倣は、彼らにとっても参考になるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MIT等の研究チームが、耳の有毛細胞を再生して聴覚消失を防ぐ方法を発見

unnamed5

年齢を重ねると共に、耳の中の有毛細胞は ― われわれと同じように ― 徐々に死んでいく(嫌な書き出しだ)。その結果片方の耳で約1万5000個の有毛細胞が損傷を受け、大きな音やある種の薬品によってさらに悪化する場合もある。これが聴覚障害の主要な原因となっている。損傷された細胞は自然に再生することがない。

MITとBrigham and Women’s Hospital、およびMassachusetts Eye and Earの合同チームが発表した新技術がそうした損傷の修復に役立つかもしれない。ある種の動物の毛髪再生能力を模倣することで、聴覚消失の過程を阻止できる可能性がある。

新技術はマウスの蝸牛から得た細胞を利用する。細砲が成長して成熟した有毛細胞になる課程で新たな分子を追加することによって、既存技術の60倍の効果が得られた。

「必要な手順はこうした補助的細胞の増殖を促進することだけであり、あとは体内にあるシグナル伝達カスケードが細胞の一部を有毛細胞に変える」とBWHのJeffrey Karp准教授は説明する。

研究チームは、この技術の単純な応用プロセスはヒトへの適用に理想的だと考えており、18ヵ月以内にはMITからのスピンオフ、Frequency Therapeuticsの協力を得て試験を開始する予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

MITが音声認識機能を低電力チップに収めることに成功、音声が聞こえたときだけ本体部が動き出す

google-voice-android

MITが今日(米国時間2/13)、音声認識チップの開発を発表した。その発表によると、このチップを使うと各種応用製品の音声認識処理の部分の電力消費量が90〜99%節減される。音声技術は今やモバイル製品のほとんどに実装されており、中でもとくに、Siri, Alexa, Google Homeといった音声アシスタントアプリの人気がそのニーズを急増させている。このチップによりそれらの関連回路やソフトウェア部品が大幅に単純化されそうだ。

MITの開発チームは、IoT方面のユースケースをとくに強調している。音声対応を要するそれらのデバイスの電池寿命が、“数日”のレベルから一挙に“数か月”のレベルに向上することが期待される。教授のAnantha Chandrakasanはこう述べている:

ウェアラブルのアプリケーションやインテリジェントなデバイスにおいて、音声入力が自然なインタフェイスになるだろう。それらのデバイスは小型化が求められるから、タッチやキーボードなどとは違うインタフェイスが求められる。音声機能をクラウドではなくデバイス本体に埋め込む必要があるから、低電力消費は絶対的な条件である。

このチップには“音声活動を検出する(voice activity detection)”回路があり、音声と環境ノイズを区別する。そして自分に向けられた音声を認識したら、そのときにのみ、チップ上の音声認識ハードウェアに電源が入る。

チームの一員である院生のMichael Priceが、その音声検出の部分について、やや詳しく語ってくれた:

このチップの継続的な音声認識機能の部分は、隠れマルコフモデル(hidden Markov Models(HMMs))を使っている。それは、任意の長さの音声入力を文に書き起こす。その遷移モデルは、重み付き有限状態変換器(weighted finite-state transducer(WFST))だ。そしてアコースティックモデルはフィードフォワード型のニューラルネットワークだ。従来の、ソフトウェアによる音声認識でも、同様の一般的技術が使われている。

この認識システムのモデルを、オープンソースのツールキットKaldiを使って訓練した。訓練とテストには、複数の異なる音声データ集合を用いた。われわれがテストした最大の認識システムは、語彙が14万5000語で、リアルタイムのオペレーションで7.78mWを必要とした。最小のデジタル認識系(ゼロを”oh”で表す計11語)は172μWを要した。

このチップは、常時onの低電力モードで使われることを想定した設計になっている。音声を検知したときだけ本体部分が動き出すので、音声でコントロールするウェアラブルなどに向いている。一回の充電でスマホなどよりもはるかに長期間使える、という特性も重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

人工知能が人工知能をプログラムする時代がやってきた

2017-01-20-ai-shutterstock_175625024

プログラムをプログラムするのは誰か? 近々、人間ではなく別の人工知能プログラムが高度な人工知能プログラムを書けるようになるという。MITのレポートによれば、Google Brain始め機械学習ソフトを開発している多くの組織でこのことが確認された。人工知能によって作成された人工知能プログラムの性能が人間が開発したプロダクトと同等であるか、場合によっては上回わっていたという。

すると機械学習プログラムを書けるデベロッパーでさえ失業の危険にさらされるのだろうか? 早まってはならないが、そういうことではない。まず現状では人工知能に人間に役立つ機械学習プログラムを書かせるためには膨大なコンピューター処理能力を必要とする。Google Brainにおける「人間以上のプログラム」を書かせる実験では人工知能に画像認識プログラムを書かせるために画像処理能力があるプロセッサを―なんと!―800台も協調作動させる必要があったという。これは安くつく話ではない。

しかしこうした手法の優位な点もはっきりしている。必要なコンピューター・リソースを減少させるための開発も進んでいる。機械学習の開発を機械まかせにできるとなれば、この分野における人的資源の不足という問題を根本的に解決できるだろう。現在スタートアップや大学は少しでも機械学習分野の知識がある人材を獲得しようと激しく争っている。また膨大なデータをコンピューターに読み込ませてパラメーターを調整して機械学習システムを訓練するという退屈な仕事をコンピューター自身に任せることができるなら、研究者は人間にとってもっと役立つ、あるいはもっと重要な分野に集中できる。

AIが別のAIをチューニングすることには別のメリットもある。現在のAIシステムの学習曲線はかなり急だ。つまり意味のある結果を得るためには最初に大量のデータを必要とする。AIによる機械学習の改良が実用化されれば、当初必要とされるデータ量を大きく減少させることができるかもしれない。自動運転システムにも影響が大きいだろう。自動運転車の開発の場合、プロトタイプで延べ100万キロも走り回ってやっと実用化の入り口にたどり着いたかどうかというのが現状だ。

MITのメディアラボでは他の機械学習ソフトを利用できるソフトの開発をオープンソースで公開している。将来はあらゆる産業分野でコンピューターによって人工知能をプログラミングすることが主流となっていくはずだ。

AIの専門家は機械学習システムの構築には人間の努力が大量に必要であることを指摘するだろう。それは正しいが、同時にそうした努力の一部分であれ、機械に肩代わりさせることができれば影響は大きい。機械学習システムの開発のハードルが大きく下がるはずだ。自動運転システムを含め、数多くの分野でAIを利用したプロダクトが市場に出るだろう。しかし同時にAIの普及が人間の努力を不要にするとかあらゆる分野で失業を増やすといった不安が根拠のないものであることも明らかだ。

Featured Image: mistery/Shutterstock

〔日本版〕人工知能と機械学習の関係についてはいろいろな立場があるが、ここではとりあえず人工知能という上位区分に機械学習も含まれると解釈している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ハーバード大学とMITのMOOCs受講者数がほぼ半減 ― 無料の修了書発行を取りやめたことが原因か

education_home_canvas1

HarvardとMITが公開した大規模オープンオンライン講座(MOOCs)についての内部調査資料によれば、同校のMOOCs受講者数が急激に減っているようだ。2016年には前年の半数近くまで受講者数が減ってしまっている― おそらく、同プログラムが無料の修了書発行を中止したことが原因だ。

MITのIsaac ChuangとHarvardのAndrew Hoが行った今回の調査は、受講者数や彼らの修了講座数、出身地などをまとめた調査で、毎年発表している。そういった統計を記録し始めたのは2012年7月のことで、今年(2016年秋)の統計は開始以来4年目のデータセットとなる。

この調査を注意して見てみると、興味深いデモクラフィック・データがたくさんある;この世界規模のクラスには実にさまざまなバックグラウンドをもつ生徒がいるのだ。

しかし、今年の受講者数は大きく減少している:HarvardとMITは今年新たに40の授業を追加し、合計の授業数は132を数えたにもかかわらず、その受講者数は昨年よりも減り、修了する生徒はそれよりももっと少ない数だった。

2015年、この2つの大学が提供するMOOCsの受講者数はそれぞれ80万人程度だった。これは2つの大学ともに過去最大の数字だった。しかし、今年の受講者数は急激に減り、HarvardXでは54万人、MITでは67万人だった。

授業数は増加していることを踏まえると、授業あたりの受講者数は過去最低レベルまで落ち込んでいることになる。修了者数も過去最低となっているが、それでも2016年の修了者数は初年度のそれを上回っている。

サーティフィケートをもらうために受講する生徒と、単なる聴講に留まる生徒や途中でリタイアする生徒の割合は昨年と同程度だったことには注目しておく必要がある。今年から追加された授業は、それまでの授業と比べて単に魅力的でなかったのかもしれない ― もちろん、新しい授業はまだ実験的なフェーズではあるが。

受講者が急減したのは、おそらく、この2つの大学が無料で修了書を発行するのを2016年初頭に取りやめたことが大きな原因だろう ― これを決断した運営陣も、受講者数にネガティブな影響が出ることは当初から理解していた。そうだとしても、この数字はあまりにも残念なものだったのだろう。この件に関してコメントを頂くため、私はこの調査を実施した者の1人に取材を試みている。

今回の調査レポートはここから無料でダウンロードできる。

MITが開発したナイロン製人工筋肉は気味が悪いほどSF的

MITの研究者が開発したナイロン素材の人工筋肉繊維は最終的にはロボットを動かすことを目指している。やがて二の腕に力こぶが盛り上がるロボットが登場するかもしれない。MITのナイロン筋肉はHBOのSFテレビドラマ、Westworldのオープニングで3Dプリンターから出力される人工筋肉フィラメントに気味が悪いほどそっくりだ。

そこでGizmodoその他のメディアはこれがWestworldに出てくるような人間そっくりのロボットを実現させるかもしれないと興奮している。

今回MITが開発した素材は、もちろん最初の人工筋肉繊維というわけではない、しかし既存の繊維とは異なり、製造が容易で低コストだ。開発にあたったMITの科学者によれば、ある種のナイロン繊維は加熱によって屈曲、収縮するためそのような動きを必要とする箇所に応用できるという。この繊維は加熱すると直径が太くなり、長さが縮む。これはまさにわれわれの筋肉繊維と同じ動作だ。ビデオにあるように、加熱する側面を選ぶことによって繊維の運動を精密にコントロールできる。

加熱箇所を連続的にコントロールすれば繊維に円運動、8の字運動といった複雑な繰り返し運動をさせることが可能になる。電気抵抗、化学反応、レーザー光の照射など加熱の熱源は何でもよい。これは利用の可能性を大きく広げる。

研究者はこの素材は当初ペンチのような動作をする保持器具やバイオメディカル分野のツールなどに利用できると考えている。もちろん長期的な可能性としてはWestworldのようなスーパー・リアリズムの人型ロボットを実現させることもあり得るだろう。そうなればテレビドラマをで描かれていたようなロボットと倫理という問題もまた浮上してくるかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

水に潜るときのビーバーの毛皮の構造に理想のウェットスーツのヒントがあった

mit-furry-wetsuit-1_0-2

サーファーが毛皮を着るようになる?! MITのエンジニアたちが作った、“毛皮のようなゴム状のペルト”は、ビーバーの断熱能力を模倣する。これで、今よりももっと断熱効果の高いウェットスーツを作れば、人間が冷たい水の中でも作業できるようになり、しかもそれは、水から上がればすぐに乾くほど水切れが良い。

温かくて乾きの良いウェットスーツは、サーファーの長年の夢だ(その日最大の波に乗って最高のテン(ハングテン)をキメることもね…そう、ぼくはプロのサーファーだよ、どうして分かったの?)。しかし今ある素材はどれも、水中で温かく、ボードの上では乾いているの両者が、うまく両立していない。クジラなど一部の生物は厚い脂肪の層で体を保温しているが、それは人間にはない。

そこで研究者たちは、もっと細身の哺乳類、ビーバーに目をつけた。そして、水に潜るときはその毛皮の個々の毛包が空気を保持することを見つけた。ビーバーはそのペルトの中に泡を保持し、冷たい湖の水の、凍えるような温度から身を守る。研究者たちは、毛と毛の間隔と、水に潜るときのスピード、そして保持される空気の量とのあいだに、直接的な相関関係があり、その関係を人工物で再現できることを見つけた。そのような人工物こそ、サーファーにとって最良のウェットスーツを作れる、正しい素材でありうるだろう。

彼らの研究結果から生まれるウェットスーツは、それほど毛むくじゃらではなく、それでいて、ビーバーが持つ利点のすべてをサーファーに与えるだろう。研究から、そんな技術の商業化に、うまく移行できたらね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MITが素材の弾性をカスタマイズできる3Dプリント技術を開発、人などにぶつかってもソフトに弾むドローンなどが可能だ

落下ではなく突然の停止は、人間にも、ロボットの繊細な電子部品にも、同様のネガティブな影響を及ぼす。MITのComputer Science and Artificial Intelligence Lab(CSAIL)が取り組んでいる新しい研究プロジェクトは、突然の物理的ショックが人間やロボットに与える損傷効果を軽減する。

その研究チームが考案した新しいテクニックでは、ソフトな素材で作るパーツをユーザーがプログラムできる。プラスチックでもゴムでも、望み通りの硬度と弾性を持たせることができ、最終製品のニーズに応じた反発性や弾性、そしてエネルギーの伝導性を実現できる。

それは一種の3Dプリントの技術で、ユーザーはプリント物のサイズと形状だけでなく、衝撃吸収力を指定できる。従来の方法では、大量生産される既成の衝撃吸収素材で射出成形などをするほかなく、衝撃吸収力は素材の仕様で決まってしまう。

Credit: Jason Dorfman, MIT CSAIL

画像提供: Jason Dorfman, MIT CSAIL

MITのチームが見つけたのは、3Dプリントならさまざまな機械的物理的特性を持った素材を使用でき、基材のレベルで衝撃吸収属性を必要に応じて変えられることだ。吸収属性はパーツの目的によって変えられ、敏感で繊細な装置を保護するだけでなく、ロボットの動きをより細かく微妙にコントロールできるようになる。たとえば上図の立方体状のロボットは、これまでよりも精密な着地パターンで弾ませることができ、脚のあるロボットでもその歩み(脚の上げ下げ)をより正確にコントロールでき、先端の着地点をより正しく決められるようになる。

ユースケースはこれだけではない。チームの研究者たちは、配達用ドローンにもこの技術を応用でき、周りのものと接したときにも、お互いを傷つけずに跳ね返るようになる、と考えている。また人間用のランニングシューズやヘルメットに応用すれば、快適であると同時に優れた衝撃吸収力を持つ製品ができるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MITのテラヘルツ・フェムトフォトグラフィー技術は、表紙の上から本を読む

mit-closed-books-1_0

本の中を見てみたいけれど、ちょっと表紙に触れただけで粉々になってしまうとわかっている時はどうすればいいか? どうすることもできない。本を開くことは中に何があるかを知るために必須の手順だ。しかし、そうは考えない人たちがMITにはいる。

MITの研究者らは強力な技術を組み合わせることによってそれを可能にした。テラヘルツ波は表紙やページを透過するが、波長の長いX線等と違い、紙とインクとで異なる電磁波を反射する。

これにフェムトフォトグラフィーと呼ばれる超高速度撮影技術を組み合わせ、特定のタイプの画像を1兆分の1秒単位で取り込む。こうすることで極めて精度の高い識別が可能になり、反射から得られた画像が、注目しているページのものか、数十分の一ミリ下にある次のページのものかを区別することがてきる。

terahertzbook

こうして生まれたテラヘルツ・フェムトフォトグラフィー技術を使って、研究者らは本の最初の20ページまでの距離を割り出し、最初の9ページからは印刷されている文字を取り出すことに成功した。1ページには1文字しか書かれていないが、〈あなた〉なら表紙の上からどれほど読めるだろうか。

「ニューヨークのメトロポリタン美術館が非常に興味を持っている。触れることすらためらわれる古書の中を見たいからだ」と論文の著者の一人である、Barmak HeshmatがMITのニュースリリースに書いている。

まだまだやるべきことはたくさんある。例えばテラヘルツ波に他の周波数を組み合わせることが考えられる。これは可視光と近可視光についてはマルチスペクトル・イメージングと呼ばれる方式で既に使われている手法であり、一世紀以上前の手書き文字インクの下に隠された秘密を暴いた。

この技術は本以外にも応用できる。例えば、有名な絵画の絵具の重なりや、考古学試料に固着した物質の分析等だ。

研究はMITのカメラカルチャー研究室で行われている。詳しい解説は このビデオおよび今日(米国時間9/10)Nature Communicationsに掲載される論文で見ることができる。

(注:言い訳めくが、[原題の]”judge a book through its cover” [見かけで判断するな]は、MIT発表の見出しを見る前から考えていた。使わずにはいられなかった!)

[原文へ]

(翻訳:Nob Takahashi / facebook

MIT、くっつきやすい農薬で汚染を減らす

mit-pesticide

害虫耐性作物の研究は進んでいるものの、豊かな収獲を得る最もコスト効率の高い方法は今でも農薬だ。しかし今のやり方では、膨大な量の農薬を散布しても、実際に植物に付着する薬剤はわずか2%だ。残る98%は、高い確率で湖や川や地下水に浸入して多くの汚染を引き起こす。MITが新たに開発した「くっつきやすい」農薬はそれを変えようとしている。

MITの研究者らは、わずか2種類の安価な添加剤を使うだけで、作物から「弾かれる」農薬の量を減らす方法を発見した。そうすることで農薬散布の効率を大幅に高め、はるかに少ない量で同じ効果を得られる。これは地下水に流れ込む汚染物質の量が減ることを意味している。


MITの研究チームが開発した新たな方法は、電荷極性の異なる2種類のポリマー物質を使う。農薬を散布された植物の表面で、正の電荷を帯びた水滴と負の電荷を帯びた水滴が出会うと、親水性のペアになって後続の水滴が表面に付着するのを助ける。ほとんどの葉は水を弾くので、正反対の親水性のマグネットに変えることで大きな効果が期待できる。

効率に関して研究者らは、現在使用している農薬を約1/10に減らしても同じ効果が得られると予想している。ただしこれは実験室内の試験によるものであり、実際の効果を確かめるためには現実世界での試験が必要で、近くインドでパイロットテストを行う予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

形状記憶構造物を3Dプリンターで作れる方法と素材をMITとシンガポール技術設計大学が開発

mit-shape-memory-1_0

MITとシンガポール技術設計大学(Singapore University of Technology and Design, SUTD)の協力チームが、押されたり曲げられたりして形を変えても元の形に戻る形状記憶構造物を発明した。これをたとえば製薬の工程に利用すると、胃に入って体温に触れ、それが発熱を表す高温だったら自動的にパッケージを開く、といった薬剤形状が実現するかもしれない。またソーラーセルに応用したら、太陽の方向によって角度を変える製品が可能だろう。

MITとSUTDが実現したその工程は3Dプリントによる工程で、通常の三次元のほかに、時間による変形(変形と復帰)という要素が加わるので、いわば4次元の物体を作る工程だ。主要な素材は形状記憶ポリマーで、高温下で元の形に戻るものと、低温下で〜〜〜のものの2タイプがある。3Dプリントでは、高温の状態は液体レジン上にプロジェクターの光を使ってプリントを行う。MITによるとそれは、歯科医が歯のレプリカや詰め物を3Dプリントで作る場合と同じだ。

ただし歯科医の3Dプリンターよりも今度の3Dプリンターの方が、ずっと精度が細かい。光を細くフォーカスするレンズは半導体製で、歯科医のそれよりも細いから、人間の髪の毛一本ぐらいのものもプリントできる。

また、小さいほど、元の形への復帰が速い。小さなスケールで高精度なプリントができるから、前述のような、高熱という症状に対する薬剤の即効性の実現にも応用できるのだ。

逆に、低温に反応する素材はやや難しい。今の温度域は人間の体温よりやや高いから、それを体温ぐらいにできたら、薬剤への応用も十分に可能だ。

MIT-Shape-Memory-Gripper-Ani

彼らが作ったデモのひとつが、上のGIFに見られるような“掴み屋さん”だ。この赤い爪は、温度が摂氏40度ぐらいになったら、閉じて物を掴む。それは、低温で元の形へ復帰する例だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

非常に素早く色の濃淡が変わる調光ガラスをMITの科学者たちが発明、しかもスペクトルが広く低電力消費

unnamed-5

それらは、単なるビルディング用調光レンズの大きな集合ではない。まず第一に、MITの科学者チームが開拓したこの新しいガラス技術は、最新流行のサングラスなどよりもずっと速く明暗を変化させる。また光変色性の物質に比べて、不透明時のスペクトルがずっと広い。

Boeing 787 Dreamlinerで眩(まぶ)しさ防止のために使われている電気変色性の素材とも違う。やはり、こっちの方が速い。古い技術では、電子回路と、色の変化を作り出すためにイオンが必要なせいで、どうしても遅くなる。それに対して、この新しい技術では、海綿状の金属-有機物フレームワークを使用して、通電を速くしている。

新素材のスペクトルは、透明からほとんど黒までと広い。そのために、さまざまな化学物質の組み合わせを利用している。

化学研究のオンライン専門誌Chemの最新号に、この素材が紹介されている。用途は、Boeingの場合のような眩しさの減少、eインク的なディスプレイ、エアコン使用時には不透明にして太陽光を遮断し、エネルギー費用を下げる、などが考えられる。また電気変色性のソリューションと違ってこの素材では、不透明を維持するために電力を必要としない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

神経と筋肉の接続をシミュレートするチップをMITが開発…ALSの療法などを展望

mit-exciting-muscles-1_0

神経と筋肉の関係を正しく理解し、ALSなどの疾病の療法に役立てるために、MITのエンジニアたちは、筋肉の細片と運動神経を収めた小さな硬貨サイズのチップを開発した。それは、神経と筋肉の結合部の‘模型’を作ることが目的で、その結合部には、神経細胞と筋肉繊維を接合する化学的なシナプスがある。

チームが開発した筋肉を反応させる方法は、神経細胞の集まりに光を当てることだ。それにより、筋肉の痙攣や収縮が生じる。このチップは、両者の結合とその部分の疾病をもっとよく理解することが目的だ。

このデバイスには、マウスの細胞が使われた。そこから運動神経と筋肉部位を分離し、チップの部品を構成した。筋肉繊維には支柱を挿入して視覚化を助け、また筋肉の収縮時に働く力を検出する方法を作った。

そしてそれらをゲルで満たしたデバイスに収め、インヴィトロの環境をシミュレートした。それは、従来のペトリ皿などに比べてずっと現実の状態に近く、人間の体の中における神経と筋肉の自然な分離を再現できた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))