IBMとMIT、視覚と聴覚を人間のように理解するAIを共同研究

shutterstock_228897490

人間は何かが起きたのを見たり聞いたりした時、すぐにそれを言葉で表現できる。「青いシャツの女の子が、野球選手の投げたボールをキャッチした」とか「犬が海辺を走っている」とか。私たちにとっては簡単なしごとだが、コンピューターにとっては恐ろしく大変だ ― 幸い、IBMとMITが協力して、それを少しやさしくする方法を検討している。

新設の “IBM-MIT Laboratory for Brain-inspired Multimedia Machine Comprehension” (略してBM3Cと呼ぶことにする)は両組織による複数年にわたる共同プロジェクトで、コンピュータを使った視覚と聴覚の問題を集中して研究する。

チームを率いるのは、MITの脳認知科学科長、Jim DiCarloで、同学科とCSAIL(コンピュータ科学・人工知能研究所)およびIBMのWatsonチームのメンバーが新研究所に参加する。両組織間に金銭の授受はなく、特定の製品開発も行わない。活発で願わくば成果を伴う相互援助が生まれることを目標としている。

視覚情報処理の問題は様々な専門分野にわたるため、様々な方向から取り組む必要がある。例えば、カメラで物体を綿密に追跡できたとしても ― 物体を背景から切り分ける方法を知らなければ役にたたない。それができたとして ― 物体を認識できなかったら? さらには物体同志の関係も確定させなくてはならない…いずれも人間の脳が最も得意とするところだ。

image_descriptions

この分野にはGoogleも非常に関心を持っている。これは写真の要素を識別することに関する最近の研究論文だ。

これは研究所の名前に “brain-inspired”[脳からアイデアを得る]が入っている理由でもある。 人間の神経回路網の働くしくみをモデルにしたバーチャル神経回路網を使うことによって、研究所ではコンピュータが周囲の世界を解釈する方法について、あらゆる種類の興味深い成果を生み出してきた。

MITとのこの共同研究は、IBMが最近いくつか実施してきたものの一つだ。同社の認知コンピューティング担当VP、Guru Banavarが、ブログに詳細を書いている。他の共同研究には、意志決定のためのAIの研究、サイバーセキュリティー、言語のディープラーニング等がある。IBMは間違いなくAIの基礎研究に多大な投資をしてきており、万全の準備を整えようとするのは当然だ。これらの共同研究全体で、”Cognitive Horizons Network” と呼ばれるグループを構成している。

「現在われわれは、AIシステムの安全で倫理的な運用を支援するための、ベストプラクティス・システムを準備している。そこでは社会の規範や価値との一致も考慮される」とBanavarは書いている。

それがどんなものであるにせよ、社会の規範や価値が変化する速さを踏まえると、10年後の社会がどうなっているかも、どんなAIができているかも予測することは容易ではない。

[原文へ]

(翻訳:Nob Takahashi / facebook

可愛らしく活動的な、ダイレクトドライブ方式の四足ロボット

ghost-robotics-minitaur

週明けを迎えると、誰しもが暗い気分になるものだ。そこでわたしたちは硬い床でつるつる滑る子犬や手を繋ぐラッコ、あるいは跳ねまわったり、壁をよじ登るロボットなどの動画を見て、心に元気を注入するのだ。今回紹介するロボットも、驚きと元気を感じさせてくれそうだ。

ロボットの名前はThe Minitaurで、もともとはペンシルバニア大学の研究プロジェクトとして生まれたものだ。そこからGhost Roboticsというスピンオフ企業が誕生し、商用利用の可能性を探っているところだ。足の動きを「ダイレクトドライブ」にしているところが新しい。すなわち変速機やスプリング、パワージョイントや減速機などを介さずに、モーターと脚部を直接に接続しているのだ。

そんなことをしては、なめらかな動きが実現できないだろうと考える人が多いだろう。ジョイントやギアを使うことで姿勢を細かに制御したり、あるいは衝撃を吸収することができるようにしているからだ。しかし開発を行ったGavin KenneallyとAvik Deは、モーター自体に周辺機器の機能を担わせることにした。上の写真やビデオにある三角形の足で、跳ねたり走ったりする際に生じる力を予測する。そしてモーターの動きで衝撃をコントロールするようになっているのだ。スプリングやショックアブソーバーを搭載しているような動きに見えるが、この動きはソフトウェアにより実現されているものなのだ。

小走りに動きまわったり、全力疾走したり、あるいはジャンプしたり回転したり、さらには階段を登ったりもする。そのそれぞれでダイレクトドライブとは思えない動きをみせてくれる。このMinitaurにはハイスピードカメラおよびセンサーが搭載されていて、周囲の状況を正確に判断するのに役立てている。たとえばドアを開ける際には、まずドアノブに向かってジャンプするようなことまで行うのだ。

KenneallyはIEEE Spectrumで次のように述べていた。

後ろ足を跳ねあげて逆立ちをします。そしてジャンプして、左足にドアノブが触れるのを検知します。すなわち足が「触角」のような働きもするわけです。触覚はすべてモーターで検知しており、接触を検知するためのセンサーは搭載していません。ドアノブに触ったことを検知した瞬間に足を引いてドアノブを動かすのです。そして足を元の状態に戻すのです。こうした動きの一切はミリ秒単位で行われます。動きを目で確認することはできないほどです。ドアノブを動かしたのではない方の足も空中にあるわけですが、これでドアを押し、回したノブがただもとに戻ってしまうようなことがないようにしています。もちろんこの動きは逆立ち状態にある自分自身を元の姿勢に戻すのにも役だっています。姿勢が元に戻り始めたら足は折りたたんで、着地姿勢をとるようになっています。

なかなかクールな仕組みのように思える。なんとなく人に対する戦闘要員のように見えないかと言われればそんな気がしないでもない。そう思ってみていると、だんだん不気味にも見えてくる。

しかしそんな心配をしなくてはならないのは、まだ当分先の話だろう。今のところは、このMinitaurが元気に動きまわる様子を微笑ましくみておけば良いのだと思う。研究者の方や、ロボット大好きな人たちは、ぜひこのロボットを手元におきたいと考えるかもしれない。現在のところの価格は1万ドルあたりだとのことだ。生産台数が増えることになれば、もちろん価格は下がっていくことになるだろう。高額なアクチュエーターやギアを用いていないのも、低価格化の一因となり得る。

原文へ

(翻訳:Maeda, H

Rapyuta Roboticsが10億円を調達、警備や点検に使えるドローンを手始めにRobot-as-a-Serviceを目指す

RapyutaRobotics1

クラウドロボティクスの事業化を推進するRapyuta Roboticsが10億円のシリーズA資金調達を行った。リードインベスターはSBIインベストメントであり、社名は明らかにしていないが事業会社1社も参加する。同社は2015年1月に3.51億円のシードラウンド資金調達を実施しており(発表資料、調達先はCYBERDYNE、フジクリエイティブコーポレーション、ブイキューブ、それにSBIインベストメント)、今回と合わせ総額約13億円を集めたことになる。加えて、同社とチューリッヒ応用科学大学の応用情報技術研究所クラウド・コンピュータ研との共同事業に関して、スイス連邦政府が50万米ドルを支援する。

同社は2014年7月に設立。スイスのチューリッヒ工科大学からのスピンオフ企業である。東京に本社を置き、スイスのチューリッヒ、インドのバンガロールに開発拠点を持つ。27人の社員がいる。CEOのGajan Mohanarajah氏は日本の東京工業大学(東工大)で修士号、チューリッヒ工科大学で博士号を取得した。Rapyutaとは、チューリッヒ工科大学時代にCEOのGajan Mohanarajah氏が始めたクラウドロボティクスのプロジェクト名でもある(このサイトに当時の記録が残っている)。

また同社ではfreeeの財務本部長を務めていた松田海氏が最高財務責任者(CFO)として、また産業革新機構バイスプレジデントを務めていた山脇真波氏が事業開発部長として、ビジネス開拓と内部統制の強化にあたっている。

屋内警備に使えるドローンと独自の位置測定技術を開発

数々のロボットベンチャーが登場している中で、同社の事業の位置づけは独特だ。同社は自らの事業をフェーズ1とフェーズ2に分けて説明しているが、フェーズ1では、自社開発の自律型ドローン(「モーター以外は自社開発した」と説明する)とクラウド上のソフトウェアを組み合わせ、夜間のビル内警備や、共同溝内の調査のためにドローンを活用するビジネスを考えている。実際に、不動産会社や警備会社と商談が進んでいるという。

同社の独自技術として、照明条件が悪い夜間のビル警備や共同溝などでドローンを飛ばすための測距技術がある。屋内の要所に電波の発信器を設置し、ドローンとの間の電波の到達時間を測定することにより、15cm程度の精度で距離を測定する。ロボット研究では画像認識により位置を把握する試みが多いが、「画像処理だと環境、ライティング、壁の模様などが影響する。それに夜間の警備では使えない。電波はよりロバストな手法だ」と同社CEOのGajan Mohanarajah氏は説明する。

信頼できる位置測定の仕組みはロボティクスに欠かせないが、同社は独自にこの技術を開発したことになる。同社のデモビデオを見せてもらったのだが、倒立振り子を倒さないよう浮遊するドローンを高精度で制御するデモや、狭い屋内でドローンを自律的に飛行させるデモが繰り広げられていた。自律性、高精度、高耐久性、障害回避、これらを実用レベルまで高めたドローンを提供する。

クラウドロボティクスの考え方では、計算量が多い部分はクラウド上で処理し、ロボット本体はより安価、軽量になるようにする。特にドローンのようにペイロードの制約が厳しい機体では、処理能力が大きなコンピュータをペイロードとして搭載するよりもクラウドに処理を投げる方法のメリットが出てくる。

気になるのは、ロボット制御でリアルタイム性が必要となる領域と、クラウドとの通信による遅延(レイテンシ)の両立だ。目安として「1秒遅れても大丈夫な処理はクラウド。そうではないものはロボット本体に搭載する」(同氏)としている。「例えば障害回避は、万一ネットワークが切断されていたとしても機能する必要がある」(同氏)。

さらに進んだフェーズ2で同社が狙うのは、ロボットのためのPaaS、「Robot-as-a-Service」だ。同社のプラットフォーム上で手軽にロボット向けアプリケーションを開発できるようにし、複数のロボットベンダーと共同で事業を進める構想だ。いわば、ロボット業界のAmazon Web Servicesの地位を狙っているのだ。さらに同社のプラットフォームの中核部分はオープンソースソフトウェアとして公開する方針である。

「ロボットで難しいのは、いろいろな種類の専門家が必要になること。例えば顔認識が得意な人はロボットに貢献できるのに、現状ではそのためにロボットのハードウェアまで自分でやらないといけない」(Gajan Mohanarajah氏)。プラットフォームの整備により、いろいろな分野の専門家の知識を持ち寄って、ロボットをより賢くすることができるようになるというビジョンである。

ロボットは、お金が必要な分野だ。同社は工場を自分たちで持つ訳ではないが、資金の使い道は多い。今回調達した10億円の資金は、開発費、テスト、エンジニアチームに投資するとしている。例えばドローンなどハードウェアのテストの外注化を進めて「時間を買う」(同社CFOの松田海氏)ために使う。

ロボット産業が立ち上がるかどうか、大きな部分はロボットの「賢さ」にかかっている。そのためのプラットフォームを提供するのが同社のビジョンだ。ただし、同社はまずドローンのハードウェアから自社開発する必要があった。ロボット産業の難しさを改めて感じる。同社のビジョンがロボット産業の立ち上がりに寄与し、世界を変える日が来るかどうか──それは今回調達した10億円をどれだけ有効に使うのか、そして初期の顧客のニーズが同社のビジョンとうまく噛み合うかどうかにかかっているだろう。同社の今後に期待したい。

ハーバードのOctobotは、ソフトな材料だけで作られた初の自律型ロボット

2016_rt_mw_octobot_001

長年にわたり、ロボット工学は金属やプラスチックに代わるソフトな材料に目を向けてきた ― 全身ソフトなロボットまで作った。しかし、ハーバード大学が作ったこのOctabotは、硬い部品を使っていないだけでなく、初めての完全自律型だ。

Robert WoodとJennifer Lewisのふたりは、Wyss Institute for Biologically Inspired Engineering[ワイズ研究所]の所属で、今日Nature誌で発表した論文でOctobotについて書いた。この創作物が俊敏さで賞を取ることはないだろうが、一般にはコンピューターがロボットの動きを制御することで自律性を実現していることを考えると、これは実に画期的である。

「バッテリーや電子制御等の固い部品を、同等の柔いシステムで置き換えて組み立てることは、常に挑戦だった」とハーバード大学のニュースリリースでWoodが言った。「この研究は、全身が柔軟で単純なロボットの主要部品を簡単に製造できることを示すものであり、こうした部品はさらに複雑な設計の基礎となるだろう」

ロボットの大部分は3Dプリントで作られ、その後電源と動作を制御する経路が組み込まれる。動きは空気圧によるもので、ロボットの燃料である過酸化水素から発生した酸素を用いる。酸素が液体を手足に向けて押し出し膨らませる ― 仮にこれだけだとしても十分感心する。

しかしここで重要なのは、巧みに設計されたマイクロ流体ネットワークが自らにフィードバックを与え、1本の足が膨らみ終ると押し出すのをやめ、あらかじめ決められた順番で次の足を膨らましていくしくみだ。人や周囲から電源や指示を与える必要はない。

なお、このマイクロ流体ネットワークは、同じくWyss Institue所属の化学者で共同執筆者でもあるGeorge Whitesidesの業績に基づいている。

たしかにこれは、どの自律ロボットと比べても著しく単純だが、唯一初めてであることは間違いない。ソフトなロボット材料は多くの分野で期待されており、中でも人間の周囲 ― あるいは内部 ― を動き回る必要のあるロボットにとっては特に重要だ。。

チームはオクトパスデザインをさらに追求する計画だ ― 「骨なし」構造の威力と万能さを踏まえれば論理的な判断だろう。次期バージョンのOctobotは、泳いだり周囲の物体とやりとりしたりするようになる、と研究者らはほのめかした。

[原文へ]

(翻訳:Nob Takahashi / facebook

チェスと囲碁でトップに立ったロボットが、今度はテーブルサッカーの世界チャンピオンを目指す

foosballcreators

昔のコンピューターゲームには、人間同士でプレイするか、コンピューターを対戦相手にするか、という選択肢があった。しかし今では、現実世界の伝統的なゲームでもコンピューターの方が強くなり、人間の方が強いと言える卓上/盤上ゲームは、もはやないのではないか。次にコンピューターにやられるのは、何だろう? フーズボール(foosball, テーブルサッカー)だ。

École polytechnique fédérale de Lausanne(スイス連邦工科大学ローザンヌ校)のロボット工学の研究者たちが、平均的な人間プレーヤーに勝つシステムを作ったが、それはディープなニューラルネットワークが過去の数百万のゲームを分析した結果ではない。本物の戦闘ロボットである彼らに、何よりも重要なのはスピードと力だ。

プロジェクトを指揮したChristophe Salzmannがニュースリリースでこう言っている: “このシステムは小さな脳のある筋肉マンだ。とっても基本的なことしかできないけど、それで十分に勝てるのだ”。

当然ながら、テーブル本体も特製だ。というか、テーブルがロボットだ、と言ってもいい。透明なフィールドの下にカメラがあって、それが毎秒300フレームでボールの位置を追う。コンピューターは至近の選手を数分の1ミリの精度でボールを蹴れる位置へ移動させる。そしてモーターがバーを人間よりも速く回して、ボールを猛スピードで蹴り飛ばす。

robotfoos2robotfoos1

でも、名人のプレーヤーにはかなわない。コンピューターには、位置やバンクショット、相手の盲点などを活かしたトリックができないし、また、相手の位置から動きを予測することもできない。

このような‘知能’をコンピューターに授けるためにチームは、対戦相手のハンドルの動きをレーザーで追おうとしている。その方が、バーをカメラで追うより計算効率は高いだろう。今よりも高度なAIを、作れそうだ。でも、真価が問われるのは、ロボットだけでトーナメントをやるときだ。それもいずれやる、と彼らは言っている。

Why would you do this!

ほんまかい?!

プロジェクトは今も継続している。その状況は、ここで分かる。詳細は彼らのラボのWebサイトでも分かるが、でもそのロゴが問題だ(右図)。巨大なターミネーターの両手が、われわれの惑星を抱っこしている。しかし、どう見ても、人間の味方のようではない!

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Teslaの新しいオートパイロットシステムは、3台カメラシステムを採用、レーダーも追加

screen-shot-2016-06-30-at-4-58-21-pm

Teslaのオートパイロットが近く大幅に改訂されると複数の記事が伝えている。中でもElectrekの最新記事は、新システムの基礎となる新たなハードウェアの詳細を紹介している。Tesla車の自立運転アシスタントは、前方撮影用にトリプルカメラシステムを導入し、車体の周囲にレーダーを追加することで現行モデルの前方レーダーを補完する。

すでにTeslaは、新しい3台カメラシステムの筐体を車体に装着し始めていると記事は報じている。レーダーの追加は、先日Elon Musk がTwitterに書いた、「ライダーではなくレーダーを使ってライダーの効果を実現する」という話とも一致する。

新ハードウェアは、まず現行のAutopilot 1.0で運用されるが、新装置を使用して収集したデータに基づき、今後機能を追加していく。Electrekによると、オートパイロットは「ライブ」データを使用可能であり実際に利用もするが、GPSデータおよび全Tesla車から集めたデータから作成した独自の「高精度マップ」も大いに頼りにしている。マップには新ハードウェアを装備した車を通じてさらに質の高い情報が送り込まれる。

Autopilot 2.0の導入時期について正式な発表はないが、Elon Muskは、同社の自動運転技術にもうすぐ非常に大きな改革がやってくることをほのめかしている。最近の決算会見でMuskは「誰もがあっと驚くことがある」と言い、「それはみんなが思っているより早くやってくる」、新技術は「私を大いに驚かせたので、初めて見た人たちも驚くに違いない」と付け加えた。

原文へ
 
(翻訳:Nob Takahashi / facebook

光で動くマイクロロボットが血管中を泳いで薬を正しい場所に運ぶ…北大の研究より

screen-shot-2016-07-07-at-9-08-46-am

小さなロボットを体内に固定するというアイデアは、楽しいとも思えるけど、でもそのロボットが電池切れになったり爆発したらどうなるのか? しょっちゅうではなくても、いつかは起きるだろう。

北海道大学理学部化学科の研究者たちが、青い光を浴びると自分で動き出す結晶構造を作った。つまりこの微小なロボットに光を当てて、血管中を目的地に向けて泳がせることができる。

この結晶はアゾベンゼン(azobenzene)およびオレイン酸(oleic acid)という有機物でできている…染料や食用油によく使われる物質だ。この化合物に青い光を当てると、“何度も繰り返して、ある形から別の形へ変化する”。

“これがアゾベンゼン-オレイン酸結晶の構造に影響を及ぼすかテストした。結晶には、シス形とトランス形のアゾベンゼンが不等量で含まれている”、と研究者たちは書いている

このロボットは、とてもロボットには見えないかもしれないが、正しい条件下では泳ぎだすので、マイクロロボット技術の未来の実装に役立ちそうだ。

“何度も繰り返してひっくり返る動作など、リズムのある動きを自分で編み出すので、その点は生物器官の基本的な性質に近い”、と研究者のYoshiyuki Kageyama(景山義之(北海道大学大学院理学研究院化学部門液体化学研究室))は述べている。“このメカニズムは将来、生物系の分子モーターやロボットの開発に利用でき、それらの応用〜アプリケーションは、医療を初め、広範囲に存在するだろう”。

この技術を商用化する計画は、まだない。小さな、光を動力とするロボットが体内を泳ぎまわることは、電池で動く小型の烏賊(いか)のような怪物より、ずっと楽しい。Neoも、そう言うだろうね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

このサンショウウオ型ロボットは、両生類のように水陸を滑らかに動き回る

x3a9216

École Polytechnique Fédérale de Lausanne のマッドロボットサイエンティストたちが、また一つ生物模倣メカノイドを作った ― これはサンショウウオのしなやかな動きに基づいている。”Pleurobot” は、多関節からなる独自の頚椎を使って、両生類の動きを真似、地上や水上を滑るように進むことができる。

「動物の動きは、体と脊髄と周辺環境との実に興味深い相互作用から成っている」と、プロジェクトのリーター、Auke Ijspeertがビデオで説明している。「このプロジェクトの特徴はわれわれのとったアプローチにあり、実際の身体構造にできる限り近づけることを目標にした [

bones_of_sala

チームは、Pleurodeles waltl、別名イベリアトゲイモリのX線ビデオを長時間観察した。

骨と肢の角度を注意深く追跡した ― サンショウウオは、這うのも歩く泳ぐのも、事実上同じ基本動作を速度を変えるだけど実現している。つまり、早足とギャロップで、動きを切り替える必要がない。

その結果がこの骨格の驚異だ。脊髄分節はわずか11組で本来の40組(29組は必須ではない)よりはるかに少なく、関節によって動きの自由度を著しく減らした。サンショウウオの滑るような動きを模倣する見事な仕事だ。それは、脊椎動物の進化における重要な瞬間でもある ― つまるところ、彼らはわれわれの遠い祖先なのだから。

これは興味のためだけではない。移動行為と脊髄と脳の複雑な相互作用は、様々な分野に役立つ。

「これを理解することは、例えば神経機能代替の分野で非常に重要だ」とIjspeertがビデオで説明する。「人体内でこうした回路を長期間再び刺激できることは非常に重要であり、脊髄のしくみを理解するためにも必要だ。」

チームは様々なタイプの動作や神経回路を研究するために、他の「バイオロボット」も作りたいと考えている。

[原文へ]

(翻訳:Nob Takahashi / facebook

ロボットがデートして交配して3Dプリントで子孫を産む‘Robot Baby’プロジェクト、進化(自然淘汰)の過程もある

robot-baby-bgw-1

オランダの研究者たちが、“繁殖するロボット”を作った、と主張している。繁殖とは、生殖能力がある、ということ。お子様向きに説明すると、二つのロボットの相性評価アルゴリズムが良い結論に達したら、ビューティフルなことが起きるのだ。それ以上詳しいことは、大人になったら分かるよ。このページを下へスクロールしてもいいね。

この“Robot Baby”プロジェクトのプレスリリースはこう述べている: “産業革命の次は産業進化だ。進化の重要な第一歩がこの画期的な発明であり、たとえば、未来における火星の植民地化に重要な役割を演ずる”。小さなどんぐりから大きな樫の木が育つ、とは言うけど、でも、彼らの主張は眉をよーく濡らして聞くべきだ。

“交配”し、“進化”するロボットの研究は、これまでにもいろいろあった。自己再生産能力のある“分子キューブ”や、生まれた子の中から優秀な子を選別する“ロボマザー”、互いに競争し共有し合う“遺伝子”のある“ロボフィッシュ”などなど。でもまだ、本物のGrey gooやロボットの軍隊は見たことがない。…ここは、クォーテーションマーク(引用符記号)の使いすぎで、編集長に叱られそうだ。

でも今度のプロジェクトには、概念実証の段階にすぎないとはいえ、何か新しいものがありそうだ。電動ブロックをランダムに構成したロボットが二つ(将来的にはもっと多く)あり、彼らはよろめきながら歩いて行くが、そのとき、なるべく明るい方向に向かう習性がある(人間の性質ならそれを走光性(phototaxis)と呼ぶ)。光源に早く到着した、運動能力の高いロボットだけを集めて合コンを行い、互いを評価し、番(つがい、夫婦)を選ぶ。

この、番の決定過程はもっと複雑だが、大雑把に言うと、構成ブロック数と脚の長さが同じで、光源への0.5メートルダッシュのタイムがほぼ同じであること、だ。

Robot-gezin-web_tcm270-767827

そうやって出会った二人はデートを数回行い、たちまち恋仲になる。そして、お互いの遺伝的素材(自分を動かしていたコードとハードウェア)を提出しあい、それらを混成して新しいロボットを作る。これが生殖の過程だ(分からなかった読者もいるかもしれない!)。

こうして生まれる赤ちゃんは、パパの右足とママの左足、しっぽ、姿勢安定装置を合わせた奇怪なキメラだ。そしてこの赤ちゃんの脳が言うとおりに各部材を3Dプリントし、それらを組み立てる。より優秀な新世代ロボットの、量産だ。

研究者たちの主張は、難解でもあるが不合理ではない。自己変容型ロボットは状況と環境に自力で適応し、人間の指示や命令を必要としない。

そして自然淘汰のアルゴリズムは、人間のちっぽけな脳の能力を超えたユニークなソリューションを作り出すかもしれない。たとえば、誰かがキリンにプロポーズしたら、あなたはそれを承認するか? しかしそれでも彼ら自身は、きわめてまともだ。この滑稽なビデオは、実際にキリンの解剖を記録している。

コンピューターによる自然淘汰があり、それによる進化もある、という説に納得しない方は、この“進化した仮想生物”を見るか、または、このすばらく楽しいスクリーンセーバーを動かしてみよう。

Robot Babyプロジェクトは、アムステルダム自由大学のAIの教授Guszti Eibenのロボットベビーだ。それは、移動式テクノロジー見本市Campus Partyで披露された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ドローンレースの人気が高まりつつある中、ドローン界のランボルギーニのようなVortex 250が登場

img_26501

DJIのInspire 1やPhantom 4などを飛ばしてきて、そろそろドローンについてはエキスパートの仲間入りだなと考えていた。Horizon Hobbyのレース用ドローンであるVortex 250 Proに「経験者向け」と書いてあっても、べつにそれが何を意味するのか考えてみることもなかった。ちょっと家の周りを飛ばしてみて、写真やビデオを撮ってみようくらいにしか考えていなかったのだ。

もちろん、今は反省している。

自己安定の仕組み(self-stabilizing)を搭載したドローンに慣れた自分にとって、このVortexドローンはプリウスで運転練習をしたあとにランボルギーニに乗るようなものだと感じられた。左スティックを少しだけ長く倒していると、あっという間に木に突っ込んでしまう。スロットルの調整を少し間違えれば、操縦不能な錐揉み状態になってしまう。

そうは言ってもドローンだろうとか、おまえの操縦が下手なだけだろうとか、そうした意見もあるに違いない。ぜひ下のビデオを見て欲しいと思う(操縦しているのは、私よりもはるかに上手な人だ)。

非常にセンシティブで、すばやく進行方向を変えることができるマシンなのだ。多目的型ドローンとはまったくことなる、まさにレースのために生まれてきたメカだ。

このドローンの重さは1ポンドをわずかに超える程度であり、4台の2300Kv無整流子モーターを積み、最高速度は時速60マイルに達する。

FatShark FPVを積み、5.8 GHzヘッドセットに対応している。加えてGoProなどのビデオレコーダーを追加搭載することもできる。

  1. img_2650.jpg

  2. img_2656.jpg

  3. img_2648.jpg

  4. img_2647.jpg

いくつかのプリ設定が行われていて、状況に応じて選んだり、カスタマイズしていくこともできる。Phantomなどとは違い、状況に応じて設定を変更することに楽しみを見出す人向けのものだとも言える。細かな設定が行えるし、逆にいえば細かく設定しなければ最適な結果を出すことはできないようになっている。

マシンの細かいところまで知らなければ、すぐに破壊してしまうことにつながるだろう。その意味でも細かい設定を必要とすることは、むしろ良いことだとも言えるわけだ。前部と後部は2mm厚のカーボンファイバーで覆われ、モーターアームは4mm厚のカーボンファイバーでできている。

価格は499ドル(コントローラー、バッテリー、充電器、FPVゴーグルなどは別売り)だ。現在すでに発売中となっている。

障害物を自動的に避けたり、4Kビデオの撮影機能などはもっていない。気軽に飛ばして友だちを感心させるためのものではないのだ。しかし、いよいよ広がろうとしているドローンレーシングの世界に飛び込みたいのなら(あるいは既にドローンレーシングに参加しているのなら)、ぜひ検討したい一台だといえるだろう。

原文へ

(翻訳:Maeda, H

ノーベル賞を獲得した困難な実験をAIが各種パラメータを自力で最適化しつつ自分でやれるようになった

ah1p3581

【抄訳】
オーストラリアの物理学者たちが、たぶん連日の徹夜仕事から解放されたいためだと思うが、物理の実験をほとんど監視不要で自動的に行い、ときには人力よりも上手に行うAIを作った。このようなシステムによって今後、人間研究者は面倒な手作業等から解放され、より高度な問題や研究の設計に集中できるようになるかもしれない。

このAIが行った実験は、超低温のガスBose-Einstein condensate(ボース=アインシュタイン凝縮)を作ることで、そのプロセスで2001年に三人の物理学者がノーベル賞を授与された。この実験は、一定方向のレーザー照射により原子の集団を静止に近い状態にし、さまざまな興味深い効果を作り出す。

オーストラリア国立大学(Australian National University, ANU)のチームは、少量のガスを1マイクロケルビンにまで冷却した。これは、絶対零度よりも100万分の1度高い温度である。そしてそれを、AIのコントロール下に置く。AIはレーザーの当て方を自分で考え、そのほかのパラメータも、原子をもっとも低温に冷却できるためにコントロールし、その温度を数百ナノケルビンまで下げる(1ナノケルビンは10億分の1度)。それを数十回繰り返すことによって、もっとも効率的なやり方を見つけ出す。

“レーザーのパワーの上げ下げやそのほかの操作など、人間が従来、試行錯誤でやっていたことを、このロボットがやってくれる”、とANUの共同指導研究員Paul Wigleyがニューズリリースで言っている。“マシンは実験のやり方を1時間足らずで覚えたが、それはわれわれの想定外だった。今後は、人間が考えもしなかったような複雑なやり方を編み出して、さらに低温下での実験を行い、測定の精度を上げてくれるだろう”。

Co-lead researchers Paul Wigley (left) and Michael Hush.

共同指導研究員Paul Wigley(左)とMichael Hush

ボース=アインシュタイン凝縮には、奇妙ですばらしい特性があり、エネルギーの変動に対する極端な感受性が、そのほかの実験や測定の役に立っている。しかしその極端な感受性のため、作成と維持もきわめて困難である。AIは多くのパラメータを一度にモニタし、プロセスを素早く調節する。そのやり方は人間に理解できないかもしれないが、いずれにしても効果的なのだ。

その結果、凝縮をより早く、より多様な条件下で、より大量に作り出せる。しかもAIは、食べないし寝ないし休暇も取らない。言い換えると、人間物理学者よりコスパが大幅に高い。彼らの研究論文は、今日(米国時間5/16)発行のScientific Reportsに載っている。

【後略】

参考記事。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

養殖業などのための海の中の検査点検作業を無人で行う水中ドローンSeaDrone

ドローンはこのところ、あっという間にメジャーな存在になってきて、人気の製品はますます安くなり、コントロールしやすくなっている。でも、ドローンは空中だけに限定されるべきものか? 今日(米国時間5/10)のDisrupt NYのステージでデモをしたSeaDroneは、複数回転翼の航空ドローンの単純さが持つ利点を、水中で生かそうとする。

O-Robotixの協同ファウンダーEduardo Morenoはこう語る、“水中用のクァッドコプター(4翼ヘリ)だから、ミサイルに似ていないし、そのほかの水中ドローンにも似ていない。自己安定化能力がある。われわれが取り組んだイノベーションは、人間がコントロールしないロボットが水中で長時間、非常に安定した映像を撮れることだ”。

彼の水中ドローンは今の空中ドローンに似たスタイルだが、タービンは同社の特製だ。それは一般市販品よりも小型軽量でシンプルで、しかも耐久性がある。あらゆる部分でコスト削減に努め、操縦性を改良した結果だ。

ケースに収めると、車のシートの収まる大きさだ(下図)。これも重要な特徴のひとつ。

deploy

SeaDroneはタブレットのアプリでコントロールし、製品自体もカスタム化したLinuxを搭載して、リモコンの水中機によくある“きわめてアナログな”コントロール方式を避けようとしている。機自身がOSを動かしているため、プログラマブルな動きができる。たとえば漁業用や養殖海域のネットの自動点検とか、360度の水中撮影などだ。

一見、ホビイスト用にも見えるが、実際には仕事用をねらっている。とくに、養殖業や海中農業がターゲットだ。

“養殖業はこれまで、人間が頻繁に水中に潜って点検する必要があった”、とMorenoは述べる。そのほか、船やドックや網、パイプラインの点検なども、これまでは高価な遠隔操作機や専門のダイバーを必要とした。SeaDroneなら、それらの数分の一〜数十分の一の費用で点検でき、専門家でなくても操作できる。

今後O-Robotixは、水中ドローンを売るだけでなく、それらが集めてくるデータを保存し、組織化し、分析するプラットホームも作る予定だ。とくに養殖場や孵化場などは、大量のデータ収集と分析を要する。お役所に提出すべき文書も、少なくない…それらの作成もたいへんな作業だ。

tablet

“人間が自分で文書を作ったり、写真やビデオを自分で撮らなくても、この水中ドローンが必要な情報収集をやってくれる”、とMorenoは語る。SeaDroneユーザーのためのデータプラットホームは、同社のもうひとつの重要な収益源になるだろう。

同社は今のところ外部資金を導入していないが、本番の製造は開始している。もちろんそのために当然、資金が必要になるはずだ。ハードウェア企業は軌道に乗るまでがたいへんだが、でもO-Robotixは、競合相手の少ない、まだ混み合っていない市場で、有利にやっていけそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

この超キュートな昆虫ロボットたちは、協力して階段を登る

robots_cooperate

みんなで力を合わせれば、なんでもできる ― そして誰も落ちこぼれない。それがこの “VelociRaACH” という小さなロボットたちが与えてくれた教訓だ。

名前は、Velocity Robotic Automous Crawling Hexapod[高速自立這いまわり6脚類ロボット]の略で、これがすべてを説明している。作ったのはカリフォルニア大バークレー校のBiomimetics Millisystems Labのロボティック研究者たちで、ここでは他にも数多くの自然に触発された機械や材料が作られている。

小さな昆虫ロボットたちは特に新しいものではないが、その協調行動は新しい。研究者のCarlos Casarezは、オーストラリアのジャンピングアントというアリの行動に興味をかき立てられた。そのアリは2匹以上が協力して困難な地形を進んでいた。アリにできるなら、小さな6脚ロボットにだって!

ロボットは、2匹でペアを組ませて自分たちより大きい障害物を乗り越えさせることにした。障害物は1匹だけでは越えられない。VelociRoACHたちには、決められた作業や一連の「プリミティブ」がプログラムされている。

まず、先頭ボットが障害物によじ登り、前足を上に置く。後発ボットは磁石で先頭ボットに近付き、押し上げる。次に先頭ボットは前進し、後発ボットも大暴れしながら追いかける。そして磁石を切り離し、2匹は再び進み始める。

robots_coop

動きはビデオで全部見ることができ、全体のプロセスはこれまで見たロボットの中で一番キュートだ。

diagram-robot

この実験は学術目的だけではない。このような小さくて安価なロボットは、例えば災害地に何十、何百体も配備することが可能なので、このテクニックが(あるいは3体以上の協調も)、がれき等の障害物の中を進むのに役立つかもしれない。適切なセンサーを使えば、建物や地点を協力して識別することもできるだろう。そして、ターミネーター風の恐ろしい応用を考えるのも難しくない。

現時点で、彼らの協調行動はまだ少々危っかしい ― ビデオに映っているのは何度も試みた中の成功例だけだ。それぞれの「プリミティブ」はほぼ半分が失敗に終るが、それはロボットがごく基本的なものだからだ。

「将来は、ロボット間の位置確認を含めたクローズドループ・フィードバック制御や、接続接触センサー、各ロボットのIMU、モータートルク情報等を加えて、協調ステップクライミングの信頼性を改善するつもりだ」と、CasarezがIEEE Spectrumに話した。彼は、10台以上のロボットチェーンや、地上ボットと空中ボットの協調の可能性にも触れた ― これはETH Zurichが既に検討している

マルチボット・クライミング技術の詳細に関する論文は、今月ストックホルムで行われるICRA 2016で発表される。

[原文へ]

(翻訳:Nob Takahashi / facebook

Alphabet(旧Google)の秘蔵っ子、日本のSchaft Inc.が、東京でまったく新しい二足ロボットをデモ

schaftbot

今度(東京に)現れた新型ロボットは、Naoみたいに可愛くもなく、SpotやBigDogのように不気味でもなく、Atlasほど人間らしくもないけど、これらのどれよりも実用的かもしれない。二足歩行をするが、それは人間のようでも、熊のようでもない。AlphabetがオーナーであるSchaft Inc.が考えた、独特の動きをするロボットなのだ。

この、まだ名前のないロボットは、日本で行われたNew Economic Summit(新経済サミット)のステージ上を誇らしげに歩き、Schaftの協同ファウンダーYuto Nakanishiと共に、笑顔の群衆に対面した。次に上映されたビデオに登場したロボットは、ステージ上のロボットと同じものではなかったが、機能はほぼ共通していた。

いちばん重要なのは、その歩行システムだろう。人間の足並みは複雑にコントロールされる上下運動だが、このロボットの足(脚)は可撓部のない剛体で、レールのように上下にスライドする。

したがって物を持ち上げたりするときの、曲がる(しゃがむ)動作がない。上部のジョイントにより脚は斜めに突き出され、底部の“関節”が凸凹の地面でも安定性を提供する。電池とモーターは両脚のあいだにあり、低い重心に貢献している。

ロボットが動き回るための方法としては、とても効率的に見える。ビデオではロボットが、森の中や、岩だらけのビーチ、雪原、それにED209(エド・ツーオーナイン)やDalek(ダーレク)たちの弱点である階段すらも歩きまわる。階段を上(のぼ)りながらRoombaみたいなブラシで各段を掃除するやつもいる。Atlasにも、やらせてみたいね。

人間の捕獲者が仕掛けた金属の棒の上でも、滑ったり転んだりせずに、十分に敏速に動き回る。Skynetが本当に人類を滅ぼし始めたときにはきっと、昔見たこのビデオのことを思い出すだろう。

このロボットには腕がないし、掌(てのひら)のような握る部分もない。上にバーベルが載っているプロトタイプもあるから、物を持ち上げて運ぶことはできるのだろうが、荷台や操作部はない。このロボットの設計目的がほかにあるのか、それとも、今回は歩行をデモすることだけが目的で、他の機能や装具を装備してないだけなのか。

終始曖昧な書き方で申し訳ないが、なにしろ具体的な情報は乏しいのだ。Schaftは2013年にGoogleに買収され、その後音沙汰がなかったが、DARPAのRobotics Challengeでは優勝した。同社は今、Webサイトすらなく、その操業内容とプロジェクトはAlphabetのX部門の中で厳しく守秘されている。

この記事の素材はすべて、東京のロボットライターTim HornyakRakutenのツイートで、XがIEEE Spectrumに載せた記事も参考にしている。その記事は、“製品の発表でも、具体的な製品のロードマップでもない。ただ単純に、進捗の現段階をお見せできたことを、嬉しく思っている”、と声明している。

本誌はこの隠密ロボットメーカーに情報を求めているが、彼らのこれまでの3年と次の3年が同じなら、多くは期待できない。この革新的なロボットは、今後もっと社会への露出度を大きくすべきだし、今後も秘密のままキープするのは、もったいない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

研究結果:人はロボットのお尻を触ることに違和感を覚える

naobutt

ロボットにお尻に触わるように言われたら、あなたはどう感じるだろうか?ばかばかしい質問かもしれないが(かもしれなくない)、ロボットが急増し、擬人化が進むにつれ、それは考えるべき問題になろうとしている。そこでスタンフォード大学の学者たちは考えた。

近々発表される予定で現在はIEEE Spectrumが事前閲覧中の研究のタイトルは、「機械的人体との接触 ― 人間型ロホットの親密な部分への触知は生理学的興奮を生む」であり、題名がすべてをものがたっている。ただし、ここで言う「興奮」は意識や注意の状態の一般的高まりを示すだけであることを注記しておく。

研究者らは被験者を人間型ロボットがリラックスしてもたれているテーブルの前に座らせる。被験者は体の部位の用語を中心とした語彙の練習であると告げられる(実際にはロボットから)。例えば、利き手で「私の耳にさわってください」と言われ、もう片方の手は身体状態を大まかに監視する伝導性センサーに置いたままにしておく。

「アクセスしやすい」領域 ― 他人の体でも普通に触れられる場所、肩、肘等 ― に触れるよう指示されると、被験者は躊躇も動揺もなく実行した。しかし、「アクセスしにくい」領域 ― ここではロボットの尻等 ― の場合、遅れと興奮が生じた。是非ビデオを見てほしい。

これはロボットが人間をナンパして気まずくさせているのではない。ただこれはインターフェースをデザインする際、心に留めておくべき種類のことだ ― この場合、ロボットそのものやその動作と姿勢に関しつ。

ロボットは人間ではないが、形が似ていて、人間のように行動し、話すように作られているため、向き合った時われわれは、そこに一時的な人間性を植えつける。スマホは人間のように見えないので、尻はなく、仮にあったとしても始終それに触れることを誰も気にとめない(かつてHTCの電話には顎があった)。しかし私は、今後10年のうちに、あなたがロボットにぶつかった時、思わず「失礼」と言ってしまうことを保証する。既に何人かの人は、ルンバを踏みつけた後、謝っているかもしれない。

Jamy Li、Wendy Ju、およびByron Reevesによるこの論文は、6月の国際コミュニケーション学会年次会議で発表される。

[原文へ]

(翻訳:Nob Takahashi / facebook

この生きている「昆虫とコンピュータのハイブリッド」は、速度や歩幅を調節可能

f3-large

「自然界の既製ロボットプラットフォーム」。シンガポールのナンヤン工科大学の研究者らは最新の論文で、昆虫をそう説明する ― それは、人間が到達した「神の領域」を表わす理想的な省略表現だ。たとえそれに興味をひかれても、嫌悪感をもようしても。もちろんこれは、創造を支配する人間の力を誇示するだけではなく、昆虫学、神経科学から人工装具工学にいたる様々な分野にとって極めて重要な研究だ。

Journal of the Royal Society Interfaceで3月30日に発表されたその論文には、昆虫の神経系を制御するシステムについて記載されており、それはロボゴキブリの類のはるか上を行く、より学術的な取り組みだ。

「筆者らの知る限り、この論文は生きている昆虫の運動を制御して、歩き方、歩幅、歩く速さをユーザーが調節できる最初の実践報告である」と要約に書かれている。

これまでにも、ゴキブリやクモに運動を促したり、進行方向を操作する実験は行われていたが、高いレベルの制御方法を使用して、前方に歩く抑え難い衝動を誘発するものであり、足が自発的に動くように誘導する「博士の異常な愛常」スタイルではなかった。この最新研究は、ある程度限定された形ながら、後者の演示に成功した。

bugbot illo1

The remote-controlled beetle takes a (carefully measured) step.

昆虫は、Mecynorhina torquataと呼ばれるハナムグリの一種で、その巨大な胴体はリード線の接続に有利だ(ショウジョウバエで試してみるといい)。チームはまず様々なタイプの動きに関わる筋肉と張力パターンを詳しく観察した。方法は、モーションキャプチャー技術および古き良き解剖による。次に、それらの筋肉に配線し、近くの(虫の上ではない)マイクロコンピュータで発生したパルス幅変調信号で刺激を与える。

この実験では前方の2肢のみに配線しているため、移動の種類は制限されているが、研究者らは、6脚類が実際に2足歩行する場合もあることを指摘している。

足の筋肉をプリセットされたリズムで刺激するプロセスは大きな成功を収め、実験結果は、昆虫の行動および解剖学分野の既知知識を発展させると共に、この技法が「昆虫・コンピュータのハイブリッドロボット」を創造する可能性を示した。

このようなキメラは、人工的に作られた同様のロボットと比べて、数々の利点を持ち、研究者らは楽しそうに列挙している ― 3Dプリントではなく昆虫の足を利用した研究や、動物自身からエネルギーの供給を受けるインプラントのハイブリッド化の研究のために予算申請書を書くペンの音が聞こえてきそうだ。

たしかに薄気味悪い。しかし、同時に非常に興味深く、もう少しの努力で十分実用になる。ゴキブリに指向性マイクロフォンと追跡ユニットを装着して災害地を走り回れるようにして、閉じ込められた人間の声に向かうよう強制する研究が既に行われている。トンボに100ドルのサイバーバックパックを付けて神経系を制御できるなら、1万ドルのドローンを配備する必要はない。

そのような可能性は十分な予算を持つDARPAのような機関にとって実に魅力的であり、彼らがこの種の方法を探究するための予算を申請していることはほぼ間違いない。

ちなみに、Feng Cao、Chao Zhang、Hao Yu Choo、Hirotaka Satoらによるこの論文は、技術的知識を持たない人にも非常にわかりやすく書かれている ― 是非読んでみて、驚きを味わってほしい。

[原文へ]

(翻訳:Nob Takahashi / facebook

Geckoのロボットは、発電所の困難な検査を代行して人間の事故を防ぐ


Y Combinator出身のGecko Roboticsは、壁を登るロボットを使って、全国の発電所で何人かの命を救いたいと考えている。.

Gecko独自の磁気接着技術はgecko(ヤモリ)の足と同じように働き、ロボットは壁を這い回って損償箇所を発見することができる。

通常は人間が検査を行うが、そこには常に危険が伴う。Geckoによると、殆どの発電所が年に1回以上閉鎖してボイラーの損傷を検査する。この検査を行うために45メートルの足場が組まれ、人間が壁を登って修理が必要な箇所を見つける。検査は最大7日間を要し、発電所は1日当たり100万ドルを失う。

しかし、Geckoは5万~10万ドルでロボットを配備し、人間検査員に代って作業を行い時間と費用を節約する。

現在このスタートアップはいくつかの米国発電所と作業中で、年内の黒字化を目指している。本誌は共同ファウンダーのJake Loosararianに、彼の壁登り検査ロボットについて話を聞いた。上にインタビューのビデオがある。

Geckoは、2016年のY Combinatorデモデーでデビューを果たした。

[原文へ]

(翻訳:Nob Takahashi / facebook

バイオテックの実験を自動化する安上がりなロボットを作ったOpenTrons、生命科学のためのPCを自称する

5ce9f927-3dcc-41e1-a7e2-6d7c400aef32

ロボットを作っているOpenTronsが、ウェットラボの実験を迅速かつ安上がりに行えて、自動化もできる、と称する装置を考案した。

ライフサイエンス(生命科学)の研究は、今でもその多くが手作業で行われている。OpenTronsはその、往々にしてかったるい過程を、ロボットとソフトウェアの組み合わせで減らそうとしている。

“要するに生物学者という人種は毎日々々、小さなガラス瓶から別のガラス瓶へ少量の液体を移すことが仕事さ。それを、手に持った小さなピペットでやる人もいれば、10万ドルもするロボットを使う人もいる。うちのは、3000ドルのロボットだ”、とOpenTronsの協同ファウンダーWill Canineが説明する。

Canineによれば、これまでの高価なマシンは、コンピュータに譬えれば‘メインフレームマシン’だ。でもその後コンピュータの世界には安価なPCが登場した。彼は、自分たちのマシンが生物学自動化実験装置のPCである、と信じている。

昔の高価なマシンは、専門の技術者がつきっきりで動かす必要があったが、Canine曰くOpenTronsは“ツールを民主化”し、プロトコルの共有化を可能にする。彼らの3000ドルのマシンはWebブラウザーからコントロールでき、ユーザーである研究者はプロトコルをクラウドからダウンロードして実験を行える。もはや、専門の技術者が最初にコードを作らなくてもよい。

fb0e2f53-751f-4fb9-9f06-0d66f0f80945

Canineが挙げるユースケースの中には、作物を生命工学でなんとかしたい、と考えている農家や、自分ちのガレージで新しいスーパー素材を開発している科学者などがいる。“これからは、こういう人たちのためのツールを作っていきたいんだ”、と彼は語る。

彼らと同じくY Combinator出身のTranscripticは、パロアルトでバイオテックのラボをクラウドサービスとして提供している。そこは主に、ロボットを使って実験的な薬の試験をしている。Canineによれば、同社はコンペティターというよりもむしろパートナーだ。“うちはPC、彼らはクラウドだ”、と彼は言う。

“Transcripticみたいなアウトソースするラボも含めて、ラボサービスやツールにとって難関は標本の入手だ。だからラボのソフトウェアをAmazon Web Servicesにデプロイするときみたいに、OpenTronsを使えば、標本をTranscripticのクラウドラボに送ることができる”。

OpenTronsは中国で行われたHaxclr8trでローンチし、2014年にはKickstarterで成功した。そのときの製品は、大腸菌にDNAを挿入するマシンだった。今ではOpenTronsのロボットは50種以上あり、個人のラボや大学などで活躍している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Boston Dynamicの人型AIロボットAtlasが家を片付ける様子をご覧あれ

ひさびさにBoston Dynamicsの人工知能ロボット、Atlasのビデオだ。先ごろGoogleが買収したスタートアップの人型ロボットが二足歩行しつつ家の片付けをするようすをご覧いただきたい。Atlasは歩行できるだけでなく、走ることもできる。、しかも(実はキャリブレーション動作の一環だというが)重量物を運搬するなど家で日常要求されるような作業をひとわたりこなしてみせる。

このビデオではIHMC RoboticsのチームがAtlasにテストとしてキャリブレーション動作をさせている。エンジニアはAtlasの動作を研究し、どこをどのように改良すればよいのかを考える。たとえばAtlasがAIを利用して腕を伸ばしてボトルをつかむとき、その動作をさらに効率化する方法を開発する。その他、さらに高度な課題をAtlasに教え、Atlasの反応を観察する。これによって実際に効率よく高度な動作をさせる方法を研究するわけだ。

「ロボットの操縦者には非常に高いレベルの忍耐力と独創性が必要だ。ロボットがこれまで遭遇したことのない状況で特定の動作をさせようとすれば、その動作を実行できる方法をできるかぎりたくさん考え出す必要がある。それによってどのような動作がロボットにとってもっとも効率的かが分かってくる。ATLASがタスクを実行するとき、人間ならこうするであろうというやり方と全く異なる動作が適切である場合が多い」とSpectrumのロボット操縦者、John Carffは言う。

残念ながら読者はAtlasに家の仕事をさせるわけにはいかないだろう。そのためにはAtlasは高価過ぎる。しかし見てのとおり、ご主人様のためにロボットは箒で床を掃いたり埃を払ったりできる。Atlasは営々として人間のための作業を実行しているが、映画ではないが、ある日それと気づかないでわわれの頭脳はクモ型ロボットのバッテリーの代用品にされているかもしれない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

米政府、自動運転車研究に今後10年間で40億ドルを投資

google-car

今やどの自動車メーカーも無人運転プログラムを持っているが、実際に自動運転車が公道を走ることに関する規則や規制は殆ど手つかずの状態だ。

このたび米国政府は、自動運転車に関する国家政策の制定を開始し、「現実世界のパイロットプロジェクトを通じて、安全な自動運転の開発と採用を加速する」ために今後10年間に40億ドル以上を投資することを約束した

To navigate snowy roads, Ford autonomous vehicles are equipped with high-resolution 3D maps – complete with information about the road and what’s above it, including road markings, signs, geography, landmarks and topography.

雪の中を走るFordの無人運転車

この40億ドルは、オバマ大統領の2017年予算案の一部であり、今後却下される可能もある。その狙いは、IT業界および自動車メーカーとの協力によって、つながった自動運転車を「全米の指定地帯でテストする」ことにある。

いずれそれらの指定地帯は、より一般的な政策に管理を明け渡す。このために運輸省は、自動運転のためのモデルとなる州政策を6ヵ月以内に立てたいと今日語った。長期的には、この州政策が一貫した国策へとつながる。

また運輸省は、自動車メーカーに対して、各社の自動運転機能(自動駐車等を含む)が基準を満たしているかどうかを知るために、規約解釈要求書の提出を求めている。メーカーは適用除外を要求することもできる。

「われわれは自動車技術新時代の先端にあり、そこには人々命を救い、温暖化ガスを減らし、米国民の移動方法を転換する莫大な可能性がある」と、今日(米国時間1/14)アンソニー・フォックス米運輸長官が述べた。「今日の決定と今後数ヵ月間の取り組みによって、メーカー、政府当局、および消費者が新しいテクノロジーを利用し、安全の可能性を最大限に達成する道筋の基礎が作られる」。

Googleの人々が喜ぶに違いない話の一つは、運輸省と国家道路交通安全局が、「人間ドライバーがいないことを前提に設計」された自動車のための規則も視野に入れていることだ。現在自動運転車に関する政策を持つ州は、必要な時に運転を代われる人間ドライバーが運転席に座ることを要求している。

10年は明らかに長い時間ではあるが、自動車業界の既存勢力は動きを速めているものの、デトロイトで新たな車を開発するためには、まだ2~3年はかかるだろう。自動運転車があらゆる道路を走れるようになるためには、技術面、規制面ともにまだ数多くの障壁があるが、GoogleやTesla(もしかしたらFaraday Futureも?)は、老舗自動者メーカーよりも早く仕事を進めるだろう。彼らにとって、10年間は永遠だ。

[原文へ]

(翻訳:Nob Takahashi / facebook