Siriが地元の変わった名前の店も認識できるようになった

近くのスターバックスやTargetストアへの道順を教えることはAppleのバーチャルアシスタントが得意とするところだ。しかし、Siriは自分が聞いたことのない地元の店を別のフレーズやユーザーの言い間違えと誤解することがある。Appleはこれを解決するために、Siriの知らない超ローカルな名前のライブラリを作り、”Godfather’s Pizza” を ”got father’s piece” と聞き違えないようにする。

音声認識システムは膨大な量のデータを使って訓練する必要があるが、それによって文の解析やフレーズ認識の能力は高まるものの、ユーザーや友達がいつも使っている語彙を理解できるとは限らない。

私が友人に向かって “let’s go to St. John’s for a drink” と言えば、彼らは私が中西部の大聖堂ではなく、近くのバーを指していると理解する。しかしSiriにはそれを知る術がない——それどころか “St. John’s” がひとつのフレーズであることを認識できなければ、私がまったく別のことを言ったと思うかもしれない。入力ボックスにテキストをタイプするのとは違い——あれは文字列の一致をみるだけ——Siriはユーザーの発した音声から最善の予測をしなくてはならない。

しかし、もしSiriがシアトル地域のことを知っていれば、誰かが “St. John’s” と言えばバーのことだろうとわかるので、苦労して考えたり聖人(saint)の候補リストから選んだりすることなく、すばやく正確に反応できる。それがAppleの最新研究の結果だ。今は英語のみだが、多言語への対応も時間の問題だろう。

このためにAppleの音声認識チームは、Appleマップのローカル検索結果を使って「関心のある場所」を取り出した。人は場所を探すとき「いちばん近くの~」や「~への道順は?」などと聞くので識別できる。

こうした関心のある場所は、Taco Bellなどの全国チェーンを除けば地域に特化した場所を表す。シアトルのハンバーガー好きなら、一番近くにあるDick’s Drive-inを調べるだろう(実際にはどこにあるか知っているが)。ロサンゼルスなら、もちろんIn-N-Outだ。しかしピッツバーグの人はどちらも探すことはない。

Appleはこの地域情報を、米国国勢調査局が定義した169の「大都市統計地域」に分けた。これらの地域に特化した店などの名称は、Siri が使う主要な言語モデル(LM)ではなく、ユーザーが関心のある場所を探すフレーズ(「いちばん近い~はどこ?」や「~への道順は?」など)を使ったときに用いる小さな補助モデル(Geo-LM)に登録される。

このため、”who is Machiavelli” と言ったときには、人名のMachiavelliに関する答えが返ってくるが、” is Machiaveli’s” と言えば、システムはGeo-LMを使って地元の関心スポットリストにMachiavelli’sが載っているかどうかを調べる。こうしてSiriは、マキャヴェリ氏が投獄されていた場所ではなく、レストランへの道順を答えるべきだとわかる。

こうすることで、最大25~30%だったエラー率は10~15%へと大幅に減少した。これは3回中2回しか正しい結果が得られなかったものが、10回中8~9回になることを意味している。Siriが繰り返しユーザーの欲しいものを理解できなくて、使うのを諦めてしまうことを防ぐ可能性のある質的改善だ。

この方法のすばらしいところは、比較的容易に多言語にも拡張できることだ。スペイン語でも韓国語でも、十分なデータさえあれば使えない理由はない。その意味では、Siriが隠語の多い業界人向けに特化した語彙ライブラリーを作ってくれれば、スペリングエラーを減らすことができるだろう。

機能はすでに公開されているので、今すぐテストできるはずだ。あるいはすでに使っていて気づいていないだけかもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook

宇宙船の液体極低温化技術や空中回収でNASAが$44Mの助成金をBlue Originらに

NASAがアメリカの宇宙企業数社と、総額4400万ドルの巨額なパートナーシップを結んだ。Blue Origin, Astrobotic Technology, United Launch Alliance(ULA)などの各社が、宇宙利用の安全性と効率性を探求する複数のプロジェクトで、それぞれ最大1000万ドルを受け取る。

その10種類の懸賞金はNASAの言う“転換点となる”技術を対象とし、将来性はきわめて高いが、地上または飛行時のデモに資金を要する。言い換えるとそれらは、研究室を出て実用レベルに達したものでなければならない。

ULAがここでは大きな勝者で、三つのプロジェクトに計1390万ドルを受け取る。内1000万ドルは、月面着陸船を単純化し改良する液体燃料の極低温化管理システムに向けられる。残りは、長期間のミッションのための極低温液体プロジェクトと、最大8000ポンド(3632キログラム)までの、帰還船の空中回収のデモンストレーションに充てられる。帰還船は帰還の直前まで軌道を定常速度で周回していたものでなければならない。三つのうち、最後のがいちばん‘安い’プロジェクトだなんて、信じられないね!

1300万ドルをもらうBlue Originも、着陸船の極低温液体管理システムを探求する。どうやらNASAは、月の表土に執着関心があるようだ。残りの額は、月面着陸を容易にするための一連の高度なセンサーの試験に充てられる。同社はこれら二つのシステムを、100キロメートル上空のNew Shepard機上でテストする。

もう一社Astrobotic Technologyにも1000万ドルが行く。こちらはBlue Originと同じく、Terrain Relative Navigation(地形照合航法, TRN)のための一連のセンサーを開発する。これは着陸船に“地形の安全性の判定”という知性を与える技術で、着地直前の具体的な状況下で、実観測により、安全性を確保する。

Mars 2020 Roverは、独自のTRNシステムを使用するが、今回の資金はより高度な方式を対象とする。でも下図のGIF画像を見れば、TRNの概念を理解できるだろう。

今回のNASAの研究資金提供事業では、これら以外のプロジェクトも対象になっている。詳細を知りたい方は、このパートナーシップの発表ページへ行ってみよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

海を護る非営利アクセラレーターOcean Solutions Acceleratorが最初の育成候補5社を選定

今年の初めにSustainable Oceans Alliance(SOA)は、自然保護に的を絞ったアクセラレーターを立ち上げる、と発表した。そしてそのアクセラレーターOcean Solutions Acceleratorがこのほど、支援する最初のスタートアップ5社を発表した。それらはとっても多様で国際的なので、そのどれかに誰もが積極的な関心を持てるだろう。

NPOのSOAは、謎の暗号通貨億万長者が管理する謎のファンド、Pineapple Fundから資金をもらっているので、アクセラレーターとしての十分な活動もできるはずだ。

今度選ばれた5社は、最初に得られた投資により、この夏ベイエリアで8週間を過ごし、企業の経営など、いろんな人たちからいろんなことを勉強する。つまり投資するだけでなく、彼らに、企業として長続きしてほしいからだ。

募集要項では、ファウンダーの年齢が35歳以下となっていた。自然保護の世界に、若い血を導入したいからだ。選ばれた5社の名前とロゴは、これらだ(下図):

●ロンドンのSafetyNetは、漁網に取り付ける発光デバイスを作っている。それは設定により、寄り付く魚種を特定できる。大量の望まざる魚種を捕獲して廃棄する、という巨大な無駄を防ぐ。

●カリフォルニア大学バークリー校出身のCalWaveは、波力発電の試験と改良を繰り返している。昨年、エネルギー省の巨額な助成金をもらった。今はプロトタイプから大規模インストールによる実機テストへの、移行の段階だ。

Loliwareの食べられるコップ。

Loliwareは、海藻でストローやコップを作った。還元性が良いので、ユーザーが自分で堆肥などへ還元できる。食べて、あなたの胃へ還元してもよい。飲み物を入れると一日しかもたないが、捨てたら約2か月で完全に分解する。あるいは、そのまま食べてもよい。ニューヨーク出身の彼らはShark Tank(マネーの虎のアメリカぱくり版)に出演して、実際にカメラの前で食べたそうだ。Amazonで買えるし、食べた人によると、けっこうおいしいそうだ。

●メキシコのクリアカンのEtacは情報が乏しいが、SOAのプレスリリースによると、“エネルギーや環境目的の機能性ナノ素材を設計製造している。それらはたとえば、石油流出や工場廃液などを浄化できる”そうだ。これは、すごそうだ。

●そして、いまどき、ブロックチェーンなしで済ませられるアクセラレーターはいない。シドニーのBlockcycleは、産廃リサイクルのマーケットプレースを作ろうとしている。単純に埋め立てに向かうよりはリサイクルして再利用した方が経済性が良い、という。なお、今回のスタートアップ募集では、Pineapple Fundからの投資のあと、ブロックチェーン関連の応募が増えたそうだ。

以上5社は、9月11日に行われるイベント(一種のお祭り)でプレゼンを行う。ちょうどその日は、カリフォルニア州知事Jerry Brownの「グローバル気候アクションサミット」がサンフランシスコで行われる。そして10月には、バリで行われるOur Ocean Youth Summitで再度プレゼンを行う。

SOAのファウンダーでCEOのDaniela Fernandezはこう述べている: “イノベーションを促進し私たちの惑星の健康を維持するために、新しい大胆なアプローチが必要なとき、これらの海洋起業家たちは希望のかがり火である。これらのすばらしいスタートアップたちを支援することによって、若者たちが環境の危機を自分たちが直面している問題として捉え、気候や海を害するのではなく、市場がこれらの大勢に逆らう運動から利益を得るよう、発想を転換していくことを期待したい”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

このスマート「足首」は悪路にも順応する

人工装具は日々改善され、パーソナル化されているが、便利であるとはいえ本物には遠く及ばない。しかしこの新しい人工足首は、他と比べて本物に近い。ユーザーの歩き方や地面の状態に合わせて自ら動く。

人が歩くとき、足首は数多くの仕事をしている。地面に引きずらないように足先を上げ、着地の衝撃を緩和したり荷重を調節するために足の傾きを調整しながら、地上の凸凹や障害物を避ける。こうした動きを模倣しようとした義肢はほとんどなく、バネの曲がりや詰め物の圧縮など原始的な方法を用いている。

しかし、ヴァンダービルト大学機械工学教授のMichael Goldfarbが作ったこの足首のプロトタイプは、受動的な衝撃吸収のはるか先を行く。関節の中にはモーターとアクチュエーターがあり、内蔵のチップが動きを感知、分類して歩き方を制御する。

パラグアイのPoは3Dプリントされたカスタマイズ義肢を南米の貧しい人びと向けに開発

「この装置は何よりもまず周囲の状況に適応する」と、義肢を説明するビデオでGoldfarbは説明した。

「斜面の上り下り、階段の上り下りも可能で、装置が常に利用者の動きを認識し、それに合わせて機能する」と大学のニュースリリースで彼が述べた

歩き出そうとして足が地面を離れたことを感知すると、装置はつま先を上げてぶつからないようにすると同時に、足が下りるときにかかとをつけて次の一歩に備える。また、上から(人が足をどのように使っているか)と下から(斜面や地面の凹凸)の圧力を感知することで、歩き方を自然にすることができる。

数多くの義肢を使ってきたベテランのMike Sasserがこの装置を試して良い感想を述べた。「水圧式のマイクロプロセッサーをもたないタイプの足首を試したことがあるが、不格好で重く行動的な人間には制約が多かった。これは違う。」

現在の装置は、かなり実験室に縛られていて電源は有線で供給されている——外出には便利とは言えない。しかし、もしこの関節が設計通り動くのであれば、電源問題は二の次だ。課題が解決すれば数年のうちに商品化する計画だという。GolfarbのCenter for Intelligent Mechatronicsでの研究については、こちらで見ることができる。

[原文へ]

(翻訳:Nob Takahashi / facebook

サッカーのゲームをテーブルの上の拡張現実の3D映像で見る

ワールドカップのシーズンなので、機械学習の記事もフットボールを取り上げないわけにはいかない。その見事なゲームへの今日のオマージュは、試合の2Dビデオから3Dのコンテンツを作り、すでに拡張現実のセットアップのある人ならそれをコーヒーテーブルの上でも観戦できるシステムだ。まだそれほど‘リアル’ではないが、テレビよりはおもしろいだろう。

その“Soccer On Your Tabletop”(卓上サッカー)システムは、試合のビデオを入力とし、それを注意深く見ながら各選手の動きを追い、そして選手たちの像を3Dモデルへマップする。それらのモデルは、複数のサッカービデオゲームから抽出された動きを、フィールド上の3D表現に変換したものだ。基本的にそれは、PS4のFIFA 18と現実の映像を組み合わせたもので、一種のミニチュアの現実/人工ハイブリッドを作り出している。

[入力フレーム][選手分析][奥行きの推計]

ソースデータは二次元で解像度が低く、たえず動いているから、そんなものからリアルでほぼ正確な各選手の3D像を再構成するのは、たいへんな作業だ。

目下それは、完全にはほど遠い。これはまだ実用レベルではない、と感じる人もいるだろう。キャラクターの位置は推計だから、ちょっとジャンプするし、ボールはよく見えない。だから全員がフィールドで踊っているように見える。いや、フィールド上の歓喜のダンスも、今後の実装課題に含まれている。

でもそのアイデアはすごいし、まだ制約は大きいけどすでに実動システムだ。今後、複数のアングルから撮ったゲームを入力にすることができたら、それをテレビ放送のライブ中継から得るなどして、試合終了数分後には3Dのリプレイを提供できるだろう。

さらにもっと高度な技術を想像すれば、一箇所の中心的な位置からゲームを複数アングルで撮る/見ることも可能だろう。テレビのスポーツ放送でいちばんつまんないのは、必ず、ワンシーン==ワンアングルであることだ。ひとつのシーンを同時に複数のアングルから自由に見れたら、最高だろうな。

そのためには、完全なホログラムディスプレイが安く入手できるようになり、全アングルバージョンの実況中継が放送されるようになることが、必要だ。

この研究はソルトレイクシティで行われたComputer Vision and Pattern Recognitionカンファレンスでプレゼンされた、FacebookとGoogleとワシントン大学のコラボレーションだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

乾燥した砂漠の空気から水を集めるボックス…エネルギーや消耗品不要、キーワードは‘MOF’

私たちにとっては、きれいな飲用水は水道の蛇口から出てくる。でも世界にはそうでない人たちが何十億もいて、研究者たちがその対策を探している。たとえばカリフォルニア大学バークリー校ではあるチームが、電力不要で砂漠の乾燥した空気からでも水を採取できる器具を開発している。サボテンにそれができるのなら、人間にだってできるだろう。

空気から水を集める方法は、従来からいろいろあるが、電気や交換部品(〜消耗品)を必要とするものが多い。でもOmar Yaghi教授が開発した方法は、どちらも要らない。

その秘密は巧妙なソーラー集光集熱器でも、摩擦係数の低いファンによる風力利用でもない。素材がすべてだ。化学者のYaghiは、金属有機構造体(metal-organic framework, MOF)と呼ばれるものを作った。その多孔質の物質は、水を熱心に集めて、それらを放出する。

彼のMOFは小さな結晶の粉末で、気温が下がると水の分子を捕らまえる。そして気温が上がると、その水を空中に放出する。

Yaghiは昨年小規模なデモを行ったが、今回彼とチームは実用量の水が得られる現場テストの結果を発表した

彼らは一辺が約2フィートの箱の中にMOFを敷き詰め、外気にさらした。毎晩、気温が下がると湿度が上がり、水がMOFの中へ捕捉された。朝になると太陽の熱が水を粉末から追い出し、それが箱の側面にたまり、一種のカバーのようなものによって冷水が保存された。その結果、1ポンドのMOFで一晩に3オンス(85グラム)の水が得られた。

それはまだとても少ない量だが、改良は進んでいる。現在のMOFはジルコニウムを使っているが、今テスト中のアルミニウムのMOFはその1/100の費用で倍の水が得られる。

新しい粉末といくつかの箱を使えば、電力も消耗材も使わずに一人の人間の飲用水をまかなえる。水を集めて保存する仕組みが完成したら、上水道システムに依存しないポータブルな給水装置ができるだろう。

バークリー校のニュースリリースでYaghiは説明している: “これまで、このようなものはなかった。それは常温で晴天の環境でも使用でき、エネルギー不要で砂漠で水を集められる。アルミニウムのMOFは安いので、十分に実用性がある”。

彼によると、すでに商用製品を開発中だ。今後さらにテストを行い、機構を改良し、新しいMOFを試して、暑い夏に間に合う製品が完成するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ティーンはFacebookを捨てYouTube、Instagram、Snapchatに走る

10代のテクノロジー利用に関するPew Researchの調査結果によると、子供たちのほとんどはFacebookから離れ、Snapchat、YouTube、Instagramといったビジュアルな刺激のあるサイトを使っていることがわかった。ほぼ半数が「ほぼいつでも」オンラインにいると答えた。おそらくFUD(不安、不確実性、疑問)の源として使われているのだろうが、まあそれでもいい。ティーンといえども、ソーシャルメディアが善か悪かについて疑いを持っている。

Pewによるこの調査は2015年以来で、多くのことが変わっている。ほとんどの変化の原因はスマートホンの普及と影響力であり、回答者の95%が利用している。少数の、低所得世帯の子供たちがノートパソコンやデスクトップを使っている。

このモバイルネイティブ世代は、モバイルネイティブなコンテンツとアプリを好む。ビジュアル性、閲覧性の高いメディアという意味であり、トップ3アプリのスタイルそのものだ。YouTubeが85%でトップを占め、Instagramの72%、Snapchatの69%が続く。

Facebookの51%という数字は、2015年の71%から大きく後退している。当時はトップだった。51%という平均値がどの所得層も代表していないのは興味深い。高所得層の利用が36%なのに対して、低所得層の10代は70%が利用していると答えた。

この違いは何に起因しているのか? トップ3のアプリを使うために、最新最強のハードウェアは必要なく、高価なデータプランも不要だ。調査結果から得られるデータはなく、身近に話を聞けるティーンもいないので、この件は専門家にまかせることにする。 Facebookがこの原因を知りたいことは間違いない —— もちろんすでに知っているのだろうが(ティーン向けのチュートリアルもある)。

「常時オンライン」と答えたティーンが2倍に増えた。しかし、そもそも本当に「オフライン」といえる人が存在するのどうか疑わしい。彼らは文字通り一日中スマホ画面を見ているわけではない(そう思えるかもしれないが)。しかし(われわれも同じく)1~2秒以内にメッセージをチェックしたり、何かを検索できる状態にないことはめったにない。正直なところ、「常時」の数値がもっと高くなかったことに私は驚いている。

ゲームは未だに男子が支配的で、ほぼ全員が何らかの形でプレイしている。しかしティーン女子も83%がゲームをしていると答えているのでその差は縮まっている。

スマホ中毒の十代は、スポーツやリアルな遊びをする子供たちほど幸せではない(研究結果)

ソーシャルメディアがプラス効果を与えているかマイナス効果を与えているかという質問への答は分かれた。彼らは友達や家族とのつながり、ニュースや情報の発見と新しい人とのつながりなどに価値を見いだしている。一方、いじめや噂の流布に使われること、人間関係に与える複雑な影響や、リアル生活を歪めたり破壊していることなどを非難している。

ティーンの生の声をいくつか引用する。

まず、全般的にプラス効果を感じている意見:

  • 「SNSは私たちの年代の寂しさや孤独さを和らげる。人と接する場を作ってくれる」
  • 「前は図書館までママに送ってもらわなければ手に入らなかったものが今はこの手の中にある。そのことをよくママに言われる」
  • 「いろいろな場所の人たちとつながることができるし、SNSを通じて助けを求めたり人を救ったりできる」
  • 「SNSは私たちの年代の子供たちが意見を言ったり感情を表現したり共感する人たちとつながる場をくれた」

そしてこちらはマイナス効果を感じている意見:

  • 「言いたいことを何でも匿名で言えるのは悪い効果だと思う」
  • 「多くの人たちに向かってヘイトスピーチをしたりをばかにする言葉を発したりする機会を与えている」
  • 「リアル生活で社会に適合することを難しくしている。それは、人と対面せずにやりとりすることになれてしまったからだ」
  • 「ティーンが人を殺すのは、いつもSNSで見ていることや、SNSで起きていることが原因だ」

最後のにはぞっとさせられる。

レポート全文とPewの調査方法はこちらで読める

[原文へ]

(翻訳:Nob Takahashi / facebook

小さい家に住むブームがナノサイズにまで過激化–光ファイバーの先端に家を

今や世界中で、ヒップな若者たちは、だれがいちばん小さくて奇抜でかわいい家に住んでるかを競っている。でも今回のそれは、彼ら全員に勝つ。ナノサイズのロボットが大工道具の代わりにイオンビームを使い、折り紙の技法で作ったこの世界最小の家は、奥行きが20ミクロンだ。比較のための参考としては、それはほとんど、マンハッタンのロワーイーストサイド(Lower East Side)のスタジオみたいに小さい。

これを作ったFemto-ST Instituteが所在するフランスは、とくにちっちゃい家ブームが激しいが、でもここの研究者たちは遊んでるわけではない。ナノサイズの複雑な構造物は、いろんな産業で必要とされている。たとえば特殊な放射線センサーやバイオセンサーを光ファイバーの先端に取り付ければ、これまで見れなかったところを調べられるだろう。

この家は、同社が開発したツールの実用精度をデモするために作った。組み立てを行ったロボットはμRobotexと呼ばれ、それ自身はナノスケールではない。しかしその作業精度は2ナノメートルととても小さい。

μRobotexのオペレーターはまず、切断した光ファイバー(人間の毛髪より細い)の先端にシリカの薄層を置く。それからイオンビームを使って壁の形を切り抜き、窓やドアを加える。壁は、一部を切り取り、そのほかは切れ目をつけるだけなので、そのとき加える力により折りたたんで両端を合わせられる。

それらの部材が完成したら、μRobotexは道具をガス噴射システムに持ち替えて、各面を互いにくっつけていく。最後に、屋根の上にタイル状のパターンを“射出”することまでする。

概念実証としてこの家を作ったチームは、今度はカーボンナノチューブの先端という、もっと小さい構造物をねらっている。この家の窓を楽に通り抜けるぐらいの。

研究者たちのペーパーは、Journal of Vacuum Science and Technologyに載っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

太陽光とレーザーの力で羽ばたく昆虫ロボットRoboFlyは電力供給の無線化に成功

飛ぶものを作ろうと思うと、いろんなトレードオフを克服しなければならない。大きければ燃料や電池を多く積めるが、しかし図体が大きすぎると必要な揚力が得られないかもしれない。小さければ必要な揚力も小さいが、小さすぎて必要な大きさの電池を詰めないかもしれない。昆虫サイズのドローンも、この問題に悩まされてきたが、しかしここでご紹介するRoboFlyは、レーザーの力で空に飛び立つ。

虫のように小さい空飛ぶロボットは前にもあったが、しかしRoboBeeなどのそれらは、ワイヤーをつけて電力を供給する必要があった。今の電池はどれも虫用には大きすぎる/重すぎるので、これまでのデモは、‘もっと大きくすれば…電池を積めれば…自力で飛べる’というものばかりだった。

でも、外部からワイヤーを使わずに電気を供給できたら、どうだろう? ワシントン大学のRoboFlyは、それに挑戦した。RoboBeeの精神を受け継いだ同機は、搭載した太陽電池セルとレーザーから動力を得る。

“重さを増やさずにRoboFlyに大量のパワーを素早く送るには、それがもっとも効率的な方法だった”、とペーパーの共著者Shyam Gollakotaが述べている。彼が電力効率をいちばん気にするのも当然だった。彼と仲間は先月、ビデオを従来より99%少ない電力で送信する方法を公開したばかりだ。

レーザーには、ロボットの翼を駆動するのに十分以上のパワーがある。正しい電圧に調節する回路があり、状況に応じてマイクロコントローラがパワーを翼に送る。こんなぐあいだ:

“ロボットの翼が素早く前へ羽ばたくために、一連のパルスを早い間隔で送り、その頂上近くになったらパルスを遅くする。それからまた逆方向に羽ばたいて別の方向へ行く”、とペーパーの主著者Johannes Jamesが説明している。

現状ではこのロボットは、とにかく離陸して、ごくわずかに飛行し、そして着陸するだけだ。でも昆虫ロボットをワイヤレス送電で飛ばせる概念実証としては、十分だ。次のステップは、オンボードのテレメトリー(遠隔測定)を改良して、自分をコントロールさせること。また、レーザーに操縦性を持たせて本物の虫を追わせ、その方向に向けて継続的にパワーを放射できるようにしなければならない。

チームは来週オーストラリアのブリスベンで行われるInternational Conference on Robotics and Automationで、RoboFlyをプレゼンする。

画像クレジット: Mark Stone/University of Washington

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

生物学を3Dで視覚化する強力なツールAllen Integrated Cellで感動しよう

細胞ってどんな形をしているのだろう? 絵を描(か)けと言われたらたぶん誰もが、中央に卵黄のある目玉焼きのようなものを描き、リボゾームを二本ぐらい添えるだろう。凝り性の人なら、さらに小胞体をざっと描くかもしれない。でも本物の細胞はそれよりもずっと複雑で、しかももちろん立体だ。そして細胞を実際に体(からだ)にあるとおりに、誰もが視覚化できるツールが、ここでご紹介するAllen Integrated Cellだ。

このツールを作ったAllen Institute for Cell Science(アレン細胞科学研究所)は、Microsoftの協同ファウンダーPaul Allenがシアトルに作った研究施設だ。この研究所は長年、主に細胞の視覚化を研究してきたが、今日(米国時間5/9)やっとそれをAllen Integrated Cellと名付けた企画として一般公開し、Web上でも見られるようにした。

このアプリケーションは、もっぱら幹細胞が対象だ。その3Dモデルは一般的な理論だけでなく、彼らが研究所内部で行った記録や観察にも基づいている。細胞のタイプは数十種類あり、プロテイン(タンパク質)をはじめ、細胞を構成しているさまざまな物質を像を切り替えながら見ることができる。

オルガネラやプロテインの位置を観察できただけでなく、このシステムはそのほかの類似の細胞を調べることによって、それらの位置を予測できるようになった。そこで、特定の物質を探索しなかった細胞についても、その存在を確率モデルから推測できる。

それが重要なのは、特定の物質やオルガネラを選んで蛍光染色し、顕微鏡で直接見るやり方が細胞にとって良くないからだ。そうやっていろんなものをタグ付けしていると、細胞が死ぬこともある。しかしモデルによって、細胞膜Bの存在と形からオルガネラAの所在を導けるのなら、タグ付けは不要だ。

研究所の常勤取締役Rick Horwitzがプレスリリースで述べている: “これは、人間の生きている細胞の内部を見る新しい方法だ。将来的にこの方法は、新薬の発見や疾病の研究など、人間の細胞の研究を必要とする研究開発の、あり方を変えるだろう”。

微生物学者でない人が見ると、これらは岩を描いたヘタな絵か、モダンアートに見えるだろう。しかし、ある種のプロテインの生体内の働きや、特定の医薬やホルモンへの反応、その分布を支配している体内的過程、などを研究している者にとっては、強力なツールになりえる。

関心を持たれた方は、研究所にある、人間の細胞のヴィジュアルガイドをご覧になるとよいだろう。それも今日公開され、見る人に高校時代の生物学を思い出させるだけでなく、撮影された動画等ではなくWebそのものの技術で描かれる、3Dのすばらしいビューアーを体験できる。

画像クレジット: Allen Institute for Cell Science

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習研究者2000人が、Natureの新しい有料論文誌への投稿を拒否

世界一流の科学論文誌であるNatureは、Machine Intelligence(機械知能)の出版物を発行する計画を発表したが、研究者らは喜んでいない。この分野はオープン・アクセスの論文誌がうまく回っている ーー 何十年もの間誰もが避けようとしてきた有料アクセスモデルに今更かきまわされたくない。2000人以上の研究者が、投稿しないと宣言する書類に署名した。

今、学術出版業界は騒動の渦中にある。オープンアクセスの学術誌とその支持者たちは、Science、Natureといった名だたる守旧派や、Elsevier、Springerなどの有料サイトと戦っている。一方でSci-Hubなどのサイトは、有料雑誌のデータを解放するサービスを(もちろん違法に)提供し、今やなくてはならない存在となっている。

以下の声明文は、オレゴン州立大学名誉教授で、International Machine Learning Society(国際機械学習協会)の創立者・代表であるTom Dietterichから送られてきた。

「機械学習分野は無料でアクセス自由な研究環境の先端を走ってきた。将来の機械学習にとってクローズドなアクセスや著者手数料のかかる出版物の出番はない。この新しい雑誌を機械学習コミュニティーの記録保管場所として認めることは、後戻りだと私は信じている」

声明は同コミュニティーが過去にも有料論文誌に反対したことや、現在の主要論文誌が対価を請求していないという事実を挙げた。「以下のリストに載っている研究者は、この新しい雑誌に、投稿も査読も編集もしないことを宣言する」

現在世界中から2300件近い署名が集まっている。学生、教授、研究員、建築家、技術者らの名前が満載だ。Google、Intel,Amazon、Microsoft、IBMなど世界有数企業を代表する人たちの名前もある。

機械学習が本質的に有料アクセスと相容れないわけではない、とDiettrichがメールで言った。むしろ、注目されるようになったのがごく最近だったために、無料でオープンアクセスの雑誌が初めからより良い選択肢だったと言うべきだろう。

「われわれの研究コミュニティーは幸いにも無料かつオープンアクセスの学術出版への期待を確立することができたが、他の多くの科学、数学の分野も同じ方向に進んでいる」と彼は書いた。

Natureがこのようなやり方で関心を示したことはこの分野が有望であることを意味しているのかと尋ねたところ、「これはNature Publishing Grouptがこの比較的新しい研究分野が金になると信じしていることの兆候だ」と教授は答えた。

どうやら決意は広く支持されているようだ。「私の印象では、主要な大学や企業のほとんどから優秀な人たちが参加している」と彼は締めくくった。

それでもNatureは強い影響力を生かして論文を集めるかもしれないが、この分野のかなりの人数の研究者から無視されることになりそうだ。読者の中に賛同する人がいれば、リストに名前を追加されたい。

[原文へ]

(翻訳:Nob Takahashi / facebook

認知症の人が自分で着替えができるようにするニューヨーク大のスマートドレッサー

毎日の生活の中で、服を着ることは重要な作業のひとつだが、長年の経験で第二の天性になっている。しかし認知症の人などはその天性を失い、うまく着ることができないことがある。ここでご紹介するニューヨーク大学で作られたスマートドレッサーは、そんな人たちの服を着る作業を助けるとともに、介護者の苦労と負担を減らしてくれる。

臨機応変な人間に換えてロボットのドレッサーを使うことは、無神経なやり方に見えるかもしれない。しかし介護施設などでは介護者がタイムリーに特定の人の世話をできないこともあるし、また居住者自身もプライバシーと独立性を重視して、このようなソリューションの方を好む場合もある。

“目標は認知症の人びとを介助して、彼らが今いる場所でもっとおだやかに老いていけるようにすることだ。また理想としては、要介護者が着替えをしているときには、介護人が休めるようにしたい。そのためにこのシステムは、着替えが終わったら介護人に通報し、手伝いが必要なら合図できる”、とプロジェクトのリーダーWinslow Burlesonがニューヨーク大学のニュースリリースで述べている。

このデバイスはDRESSと呼ばれ、引き出しが5つある化粧だんすで、上には鏡ではなくタブレットがある。タブレットは、表示とカメラの役を演ずる。そして、服を着替える人の様子を観察しながら、正しいやり方を教える。

正しくない着方はたくさんあるが、正しい着方はひとつだ。シャツは上に頭と首を通し、前を胸と腹側にする。ズボンは前開きを前にして着る。靴下は両足に着ける。などなど。服にはタグが付いているので、DRESSはそれを見て正しい着方をしたことが分かる。ズボンを着る前に靴を履いた、という間違いもチェックできる。引き出しの前面についているライトが、次に着るべきものを知らせる。

しかし、要介護者が迷ったり、使い方が分からなくなると、介護者に通報が行くので助けに駆けつけられる。しかし完全に正しい着替えが終了したら、それは、完全に自力でやった着替えだ。それは、以前は不可能なことだった。

DRESSは現状ではまだプロトタイプで、概念実証のような段階だ。今後はシステムの視覚系をもっと改良したり、衣類のたたみ方/広げ方の標準化、衣類につけるタグの改良などが課題だ。

画像クレジット: ニューヨーク大学(NYU)

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

国防総省のDARPA研究所が改悪改竄ビデオを検出する技術で研究助成事業を展開

メンローパークの非営利研究団体SRI Internationalが、国防総省の研究機関DARPA(Defense Advanced Research Projects Agency)から、フェイクニュースと戦うための三つのプロジェクトを受託した。すなわちDARPAのMedia Forensics(メディア犯罪捜査)事業は、ビデオや写真がそのコンテンツを意図的に変えられていることを判定するツールを開発している。

そのようなコンテンツでもっとも悪名高いのが、“ディープフェイク(deepfakes)”と呼ばれているやつだ。通常それは、わいせつな画像やビデオに有名人や人気スターの顔だけ貼り付けるというポルノが多い。ディープフェイクを作るソフトは簡単に作れるし誰にでも使えるが、今あるビデオ分析ツールでは、加工された映像と本物の映像を区別できない。

この難問を解決するために組織されたのが、Media Forensicsグループだ:

“DARPAのMediFor事業は、優秀な研究者を集めてデジタル画像技術のある分野を打ち倒したいと考えている。それは現状では改竄(かいざん)者が優位に立っている分野であり、それを、画像やビデオの真正性を自動的に判定する技術を開発し、エンドツーエンドのメディア犯罪捜査事業に利用することによって崩壊させたい。

その技術の開発に成功したら、MediFor事業は改竄を自動的に検出し、その改竄方法に関する詳細情報を提供し、ヴィジュアルメディアの全体的な真正性に関する判断により、問題ある画像やビデオの使用に関する意思決定を支援できる”。〔これは使えない、という判定を助ける。〕

ビデオがとくに危険なアプリケーションだが、改竄は静止画像においても検出が困難であり、DARPAはそれも研究課題としている。

DARPAのMedia Forensicsグループ、略称MediForは、アプリケーションの募集を2015年に開始し、正式には2016年にローンチ、2020年までの予算がついている。このプロジェクトでSRI Internationalは、アムステルダム大学とスイスのIdiap Research InstituteのBiometrics Security & Privacyグループと密接に協働する。アムステルダム大学については、詳しくは彼らのペーパー“Spotting Audio-Visual Inconsistencies (SAVI) in Manipulated Video”を見よ。Idiapの研究グループは、改悪されたビデオに存在するオーディオビジュアルの齟齬を見つける4つのテクニックにフォーカスしている。それらは、1)唇の同期の分析、2)話者の不整合や矛盾の検出、3)シーンの不整合の検出、4)コマ落ちや挿入の判定、である。

この事業で受託した研究には、有望性が認められる。昨年6月に行われた最初のテストでは、数百のビデオの中から、改悪されたビデオの二つの特徴、“話者の不整合とシーンの不整合”を、75%の精度で見つけることができた。2018年5月には、同様のテストをもっと大規模に行い、そのテクニックを磨き、大量のテストビデオを調べられるようにする。

このプロジェクト自体は軍事目的だが、研究チームは今後この事業の目的が、規制当局やメディアや公共団体などがもっと悪質な種類のフェイクニュースと戦っていくためのメインの武器になる、と信じている。

“近い将来、ビデオの改悪や合成のテクニックが大きく進歩する、と予想している”、SRI Internationalの代表者がこう語った。

“そういうテクニックがあれば、ホビイストやハッカーでも非常にリアルなビデオを作って、その人がしなかった/言わなかったことを、している/言っているように見せかけることができるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

お天気の視覚化は目的別分野別に多様であるべき、と主張するスイスの大学のプロジェクト

空の雲を見て、“犬”や“綿毛”を連想する人もいる。あるいは、“あれは衰退中の積雲で、羽毛のようなエッジは北からの高気圧が上昇気流によって終わりつつあることを示唆しているが、そのためにたぶん乱気流が生じるだろう。それに、ちょっと犬にも似ているな”、と思う人もいる。天候データの複雑で美しい視覚化は、後者の人びとが作っているのだ。

ETH Zürich(スイス連邦工科大学チューリッヒ校, ETHZ)のMarkus Grossが率いるプロジェクトは、天候データの視覚化はその利用目的や利用分野によって多様であるべき、と考えている。そこで彼のチームは、大量の天候データと格闘しながら、テレビ局や各種の研究所など、いろんなところにいるいろんな気象学者たちのための、それらのデータの正しい表現方法を模索してきた。

“われわれの視覚化の科学的価値は、既存のツールでは見ることができなかったものを見えるようにできるところにある”、とチームの一人、学部学生のNoël RimensbergerがETHZのニューズリリースで述べている。天候を、“比較的シンプルなわかりやすい方法で表現できる”、とも言っている。

問題のデータはすべて、2013年4月26日の夜のものだ。そのときは、ある大規模な気象学のプロジェクトにより、複数の研究機関が協力して大量のデータを集めたのだ。チームはそのデータを視覚化するためのさまざまな方法を作り出した。

たとえば、ひとつの郡全体を見るときには、雲に生じる小さな波動に注目することに意味があるだろうか? 必要なのはもっと大きな傾向であり、寒冷前線の生成や雨になりそうな領域など、重要なデータポイントを見つける方法だ。

  1. flights

  2. vorticity

  3. updrafts

  4. drafts

  5. clouds

しかし、局所的な雲の生成について知りたいときは、そんなマクロなデータは役に立たない。たとえばそこだけは、台風の風雨が異様に激しいかもしれない。

あるいは、あなたが小型飛行機のパイロットだったらどうか。ちょっとした雨や雲は気にならないかもしれないが、どこかに乱気流が起きそうなパターンがあって、それが今後どっち方向へどれぐらいの速さで動いていくのか知りたいときはどうする? または、先日墜落事故起きた、その場所の今の気象状況を知りたいときは?。

視覚化のこれら複数の例は、大量のデータ集合を解釈し表示する方法が、いろんな目的によってさまざまであることを、示している。

このプロジェクトにおけるRimensbergerの指導教官Tobias Güntherによると、膨大なデータを解釈してシミュレーションを作りだすために今使っているアルゴリズムが、とても遅すぎる。今は、その改良に取り組んでいるところだ。でも、時間条件がゆるい利用目的なら、現状でも十分使える、と。

彼らがETH Zürichの視覚化コンテストのために作成したペーパーの全文が、同大学のWebサイトにある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SpaceX、NASAの宇宙望遠鏡を軌道に送り出す

SpaceX は、NASAの新しい太陽系外探査望遠鏡を地球高軌道に送り出すことに成功した。今後は月の重力補助を受けて軌道に乗りミッションを開始する。一方、地上ではFalcon 9の第一段ロケットがドローン船 Of course I Still Love Youへの着陸に成功した。

これは今年8回目の打ち上げで、SpaceXがFalcon 9の第一段 —— 人工衛星を大気圏外へと加速させたロケットの一部 —— を軟着陸させたのは計24回目だ。最終的な計画では、落下するロケットを「巨大キャッチャーミット」で捕獲するとElon Muskは言っていたが、ボートに乗ったミットは現在太平洋上にるが、今回の打ち上げは大西洋だった。

The rocket shortly after landing on Of Course I Still Love You. The ship’s feed cut out when the rocket landed.

回収したロケットは検査、再調整の後に、次のISS再補給ミッションで再利用される予定だ。しかしこの世代のFalcon 9は近々使い果たされる。SpaceXは第5世代のFalcon 9(ブロック5)をまもなく打ち上げる。これまでの2~3回よりも多く利用できるように再利用性を改善するためにさまざまな工夫がなされている。新世代ロケットの最初の打ち上げは来週計画されている。

2段目の噴射も無事に進みTESSは軌道に乗った。あとは月から必要な重力アシストを得られるようにNASAが軌道を微調整するだけだ。多少時間はかかるが、その後(数週間から数カ月以内)人工衛星からデータがやってくる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleのセマンティック体験(Semantic Experiences)でAIと言葉遊びをしよう

Googleは自然言語の処理や合成で大量の研究開発をしているが、それらはアシスタント機能や音声認識/合成だけが目的ではない。その中には、AIの機能でできる範囲内での楽しいものもあり、そして今日(米国時間4/13)同社は、Webの閲覧者が言葉の連想システムで遊べる実験を発表した。

最初の実験は、膨大すぎて言及される機会も少ない本のデータベースGoogle Booksの、おもしろい検索方法だ。それは、言葉そのものでテキストやタイトルを探すのではなく、データベースに質問をする。たとえば、“なぜナポレオンは流刑になったのか?”(Why was Napoleon exiled?)とか、“意識の本質は何か?”(What is the nature of consciousness?)など。

すると、その質問の言葉と密接に結びついている文節が返される。結果はヒットもあれば空振りもあるが、でも良くできているし、柔軟性もある。ぼくの質問に答えるセンテンスは、必ずしもキーワードに直接関連していないし、とくにそれら〔物理的な言葉そのもの〕を探した結果でもない。

でも、それが人間と知識の内容が対話するとても分かりやすい方法か、というと、それは違うようだ。質問をするのは、答が欲しいからであり、質問と関係があったりなかったりするいろんな、互いに相反するような、引用を見たいのではない。だからぼくがこれを日常的に使うとは思えないけど、ここで使われているセマンティックエンジンの柔軟性を示す、おもしろいやり方ではある。しかもそれによって、今まで自分が知らなかった著作家に触れることができるが、ただし、データベースの収蔵書籍数は10万もあるから、当然、結果は玉石混交だ。

Googleが紹介している二つめの実験プロジェクトは、Semantrisというゲームだ。“なんとかトリス”というゲームは昔からどれも難しいが、これは超簡単だ。言葉のリストが表示されて、一つが高輝度になっている(下図)。それと関連があると思われる言葉〔連想した言葉〕をタイプすると、GoogleのAIが、関連性の強いと思う順に言葉を並べ替える。ターゲットの言葉を下に移動すると、一部の言葉が爆発して、新たな言葉がいくつか加わる。

これは、暇つぶしには良いかもしれないが、やってるうちに自分が、Googleの連想エージェントの訓練に使われるモルモットになったような気がしてくる。遊び方は、とてもやさしい。でも、水(water)からボート(boat)を連想しても、誰もすごいとは思わないね。でも、やってるうちに、だんだん難しくなるのかもしれない。ユーザーの応答がAIの訓練用データとして使われるのか、今Googleに問い合わせている。

プログラマーや機械学習のマニアのためには、Googleは訓練済みのTensorFlowモジュールをいくつか提供している。そしてそのドキュメンテーションは、このブログ記事の中のリンク先の二つのペーパーにある。

〔訳注: Googleはセマンティック検索の実現を目指して、これまで多くの企業〜スタートアップの買収を繰り返している。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

大きさが1ミリ弱でエネルギーを光から得る撮像素子はカメラをどこにでも隠せるやばい発明

今の世界に、これだけ大量のカメラがあっても、まだ足りないと主張する研究者たちが、今度は顕微鏡的サイズで電力を自給できるカメラを作った。それは、どこにでも埋め込むことができて、しかも寿命は永久的だ。確かにクールな技術だが、これによりアルミ箔の売上が急増するかもしれない(後述)。

技術者たちはこれまで、カメラセンサーが自分に当たる光を動力源にする方法を研究してきた。必要なのは、光電池が持つ二つの機能、自分に光として降り注ぐエネルギーを保存する機能と、どれだけのエネルギーが得られたか記録する機能だ。

問題は、電池が一つのことをしているときは、他のことができないことだ。だから、一定サイズのセンサーが必要なら、面積の一部を電力収集用にするか、または高速に役割を交替するかだ。

ミシガン大学のEuisik YoonとポスドクのSung-Yun Parkは、そのどちらもしなくてすむ方法を思いついた。よく見ると、感光性ダイオードは完全に不透明ではない。むしろ、かなりの量の光が透過している。だから画像センサーの下にソーラーセルを置いても、光は十分得られる。

この天啓によって彼らの、“撮像とエネルギー収穫を同時に行う”センサーが生まれた。それは、アルミ箔の上で動作するのだ。

彼らが作ったプロトタイプのセンサーは、大きさが1平方ミリメートルより小さくて、太陽光の中では完全に自己発電できた。そして、15fpsで十分良質な画像を撮れた:

左のベンジャミン・フランクリンは7fps、右は15。

彼らが書いたペーパーには、センサーを改良すればもっと良い画質が得られる、とある。そしてParkがIEEE Spectrumに書いているところによると、消費電力もまだ最適化されていないから、今後はもっと暗いところで高いフレームレートで撮影できる、という。

究極的にはこのセンサーは、誰にも見つからないカメラとして利用でき、電池もワイヤレス送電も要らずに、永久に動き続ける。すごいね!。

もちろん隠しカメラを作るなら、ストレージや通信機能も要る。しかし、それらの顕微鏡的バージョンも今どこかで開発中だから、それら周辺装置を組み込むのも時間と努力の問題だ。

チームは彼らの成果を、今週のIEEE Electron Device Lettersに発表している。

画像クレジット: ミシガン大学

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

NASAが作った雪の結晶が解けていくシミュレーションは嵐の予報に役立つだけでなくとても美しい

雪については、まだ分かってないことが多い。それはどこから来るのか? どこへ行くのか? どんな味がするのか? これらの疑問に、一応の答はあるけれども、もっと複雑な疑問もある。顕微鏡的な微細なレベルでは、空中の雪はどのように解(溶)けるのか? それが、NASAのあるプロジェクトのテーマで、その結果は実用的であると同時に美しい

雪は、天候というシステムの重要な要素だ(雪氷圏(cryosphere)という言葉をご存知だったかな?)。そして、雪が形成され解けていく過程は、気象学者が、たとえば嵐やその激しさを予報するのに役に立つ。でも雪について知るためには、雪片を手のひらに取って、それを見つめているだけではだめだ。どんな研究でも、それを正しく理解するためには現象の数学的モデルが必要だ。

Jussi Leinonenは、NASAのジェット推進研究所で長年、この問題に取り組んできた

“解けていく雪のモデリングに関心があった。それがわれわれの遠隔感知機器の観察に与える影響を、知りたかったからだ”、と彼は最近のリリースで言っている。天候のパターンを理解し予測できることは、もちろんロケットの打ち上げにも関係がある。

Leinonenがもたらしたものは、雪片の解ける様相や要因の正確なモデルだ。それを雪片のタイプごとに、温度の違いごとに、解け方の状態ごとに作っていく。そのベーシックなバージョンは: 雪片の凹面に水が集まってそこが液体になる。その小さな湖が広がり、やがて氷の結晶全体を覆い、核を包む。そしてそれもやがて解ける。

と書いてしまうと単純だが、Leinonenのモデルはきわめて詳細で、雪片の形の違いや塊りの違いによる解け方の違いも表している。それを3Dで視覚化した映像(下図)は、とても美しいだけでなく、とても正しく見える。

正確なモデルがあれば気象学者は、雪や雨のさまざまなタイプを分析でき、それらが、どんな条件下でどう振る舞う、ということも分かる。またそれらの違いがレーダーのどんな画像になるかも、詳細に分かる。

雪片が解けていく様子を高解像度で映像化した動画は、スクリーンセーバーとしても人気が出そうだ。ただしLeinonenが作ったのは、Geophysical Researchに載った研究論文のみだけど。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この海洋動物用ウェアラブルは、邪魔することなく生態を追跡できる

海洋動物の追跡が困難である理由はいくつもあるが、どんな装置にせよ水中の過酷な環境で数週間耐える頑強さが必要であることは中でも大きな課題だ。現在クジラなどの動物の観察に使われている無骨な装置は、まもなく、より軽量なライバルに取って代わられるかもしれない。この柔軟で低価格な Marine Skinだ

サウジアラビアのアブドラ国王科学技術大学の研究者らが開発した超軽量センサープラットフォームは、既存のテクノロジーを着用するのは動物にとって快適ではない、という単純な心配から生まれた。Muhammad Mustafa Hussain率いるプロジェクトはRed Sea Research Instituteの協力を得て進められている。

Marine Skinは材料に柔軟なシリコン基質を使って、一定の水深でもねじれや回転、高圧に耐えられるように設計されている。装置は海水の塩分濃度や温度、水深などを追跡し、動物自身の好む場所や、動物が泳いだりはい回ったりする場所の水の状態を監視することができる。

電源には腕時計用のバッテリーを使用し、研究チームによると最適化すれば最大1年間持続する。ただし、遠距離から情報を送信する必要があれば条件は変わる。現在情報送信の方法はBluetoothのみで、送信可能距離が9メートルというのは巨大な海で使うにはあまり実用的とはいえない。しかし、それに対処する方法はある。

1基12ドル以下という価格は非常に安価である。量産すればさらに安くなる可能性もあり、目立たないデザインなので、クジラのように厳選された高価値な追跡対象だけでなく、大量の小動物に付けることもできる。

現在はまだプロトタイプ段階だが、研究チームは外部の協力を得て装置をテストし、進捗状況をFlexible Electronics誌で発表した。IEEE Spectrumに追加の詳細情報と写真が掲載されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

大工ロボットと一緒に家を建てよう

大工仕事の新参者(おんぼろだが頑丈な納屋を作ったことがある)として、私は良きパートナーのありがたみをよく知っている。測ったり、切ったり、押さえたりするのを手伝って第3第4の手になってくれる。人間に頼む場合の欠点は、お礼にお金や食事が必要なことだ。そんな私がチューリッヒ工科大学が作ったこのロボット大工アシスタントを見つけたときの喜びを想像してほしい。

複数機関の連携によるSpatial Timber Assemblies DFAB Houseプロジェクトは、家屋の枠組みだけでなく、設計の効率も上げようという取組みだ。

誰もが想像するように、プロジェクトのロボット部分を作るのは簡単ではなかった。作業場の天井に設置された1対のロボットアームが、木材を決められた長さに切断し、しかるべき位置においてドリルで穴をあける。

ほとんどの作業は人間の介入なしに行われ、何よりも補強材や足場を必要としない。これらのモジュール(部屋の大きさのバリエーションに応じて組み合わせが可能)は、事実上自立できるように特別な設計で作られていて、荷重や剛性は梁材の組み合わせによって対応されている

事前にCAD作業が行われ、ロボットは設計図に沿って、お互いぶつからないように気をつけて、ゆっくりとしかし効率的に作業する。

「プロジェクトに変更が加わると、コンピューターモデルが調整されて常に新しい要求に対応する」とプロジェクトを率いるMatthias Kohlerが説明した。こうした統合デジタル建築技術は、設計、計画、実施の隙間を埋める役目を果たす。

ボルト止めは人間の作業員が担当している。これも自動化できそうに思えるが、現在のロボットには作業に必要なセンサーやツールが備わっていないのかもしれない。

最終的に柱や梁は、これもプレハブ製のコンクリート柱で補強され、正確にこの配置に合わせて砂ベースの3Dプリンティングで作られた「スマート・スラブ」 に組み込まれる。3階建ての家は秋には完成して見学のために公開される予定。詳しくはプロジェクトのウェブページで。

[原文へ]

(翻訳:Nob Takahashi / facebook