Boston DynamicsのSpotMiniが人類に代わって地球を支配したらこんな光景か?

Black Mirrorのワンシーンのようなこのドキュメンタリーふうビデオは、Boston DynamicsのSpotMini
の大集団が地球上を覆い尽くす未来を描いている。もちろんフィクションだが、でもBoston Dynamicsのロボットに対する唯一の防御策として、エンジニアにホッケーのスティックを持たせることしかないのなら、このシーンはやがて現実になるかもしれない。

Boston Dynamicsのロボットは、技術もデザインも着実に進歩していて、その最新作、黄色い皮膚のSpotMiniはドアを開けることもできる。このビデオでは、何千台ものSpotMiniが地表を自由に動き回っている理由や経緯が分からない。充電はどこでするのか? リーダーはいるのか? 砂塵が吹き荒れているようだが、どうやって自分を洗うのか? ロボットの大公たちに、訊きたいことは山ほどあるね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

歩き方を即興で変えることのできる昆虫ロボットは本物の昆虫そっくりだ

昆虫の動きを真似しようとするプロジェクトはたくさんあるが、コンピューターとロジックにとって苦手(にがて)なのは、どんなに小さな単純な虫にもある、即興的な適応能力だ。Tokyo Tech(東京工業大学)のこのプロジェクトでは、ロボットが実動時に、人間がプログラミングしていない歩調を作り出す。

この研究のリーダーLudovico Minatiが、ニューズリリースに興奮した口調で書いている: “この研究のおそらくもっともエキサイティングな瞬間は、われわれが設計もしなかったし予想もしてなかった現象や歩調をロボットが示すことを、われわれが目撃したときだ。のちに、そのような動きは実際の昆虫にもあることが分かった”。

1000種類の状況のどれかに瞬間的に反応する、きわめて複雑なAIやパターンジェネレーターをプログラミングすることは、できるだろう。しかし、ひと粒の砂ぐらいの大きさの脳しかない虫が新しい状況に素早くスムーズに適応できるのなら、人間が作るものも、もっとシンプルでアナログな方法であるべきだ。

さまざまなパターンがさまざまな歩調を作り出す。違ってるようには見えないかもしれないが、明らかに違っているのだ。

Minatiはそれを追究し、そして彼の六脚ロボットは、たしかにシンプルなアプローチだ。中枢のパターンジェネレーターがマスターシグナルを作り、それをアナログの配列が解釈して、脚を動かすオシレーターへ送る。5つの基本的パラメータのうちの一つを変えるだけで配列の回路の構成が変わり、実際の歩調を作り出す。

“このコントローラーの重要な特徴は、大量の複雑性をごくわずかな数のパラメータへ凝縮していることだ。それらを、ハイレベルのパラメータと見なしてもよい。なぜならそれらは、歩調やスピード、姿勢などを明示的にセットするからだ”、とMinatiの同僚の一人Yasaharu Koikeは語る。

適応性と信頼性のある動きを作り出すために必要なハードウェアとソフトウェアを単純化できれば、小さなロボットの製作も容易になり、また、それらの未知の環境への展開も可能になるだろう。このプロジェクトを記述しているペーパーは、IEEE Accessに発表されている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ロボットのスキーヤーたちが見事にスロープを滑降、優勝者はゲートを一本も倒さず

先月行われたSki Robot Challenge(スキーロボット競技大会)には多くのロボット研究者たちが参加した。そのビデオを見ると、スキージャケットを着たロボットたちが一斉にゲートを跳び出し、粉雪の中を転がっていく。Korea Institute for Robot Industry Advancement(韓国ロボット産業振興研究所)が主催したこの競技大会は、同じ時期に同じ国で行われた冬季オリンピック、パラリンピックと並んで、さしずめロボリンピックだった。

IEEE Spectrumによると、そのルールはかなり厳しい:

参加ロボットは必ずヒューマノイド(人型ロボット)で、肘と膝の自由度が15度以上あること。身長(足から肩まで)は50センチメートル以上。必ずスキーとストックの両方を使用し、ロボットが肘を曲げて立っているときはストックが着地していること。競技が行われるスロープは長さ80メートル、幅20メートルで、各チームは赤と青のゲートをスラロームしながら3分以内にゴールすること。ロボットは、ゲートを通過するたびに1点を得る。同点のときは速度を比較する。それでもなお同着なら、身長の高いロボットの勝ちとする。

参加選手の中から、ここではTaekwon Vと、ずんぐりしたSkiroをご覧いただこう。Skiroのモットーは、“ぼくはスキーロボット競技大会のヒーローだ!”、だ:

ルールとして全員がジャケットを着なければならないから、全員とてもかわいい。優勝したTaekwon Vは、風や雪面の条件が悪い中、ゲートに一回も接触せずにゴールした。全員に、ごほうびとして温かいオイルをあげたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ロボットに虐待やいたずら対策を実装するより人間のマナー向上が先…その深遠な理由

おぼえておられると思うけど、先週はBoston Dynamicsの最新ロボット、細身で黄色のSpot Miniが、自分でドアを開けられるようになった。でも、それぐらいでロボットを怒らせたいとは、誰も思わない。でもロボットたちはやがて、人間個人を見分けるようになるだろう。そして、ロボットの停止ボタン勝手にを押した人を見つけると、自分のやるべきことをやらせてくれないロボット虐待の罪で、そいつを罰するかもしれない。Spot Miniもやがて、紐に繋がれていない自由な‘生き物’になる。

でも、ロボットを複雑で混みあった環境の中を歩かせるときには、このような、‘妨害に遭ったときにどうするか’というテストが欠かせない。意図的な妨害でも、あるいは事故や偶然による妨害でも、そんなときロボットはどう反応すべきか。もちろん、ロボットには妨害から立ち直る能力が必要だ。想定外が生じたとき混乱するだけなら、仕事はできない。

どんな場合でも、対応できずに途方に暮れるロボットを見るのは辛(つら)いだろう。ぼくなら、辛いね。まじめに仕事をしているのに、自分の部品を外してしまったいたずら人間を怒れないなんて、まさにロボット虐待ではないか。

たぶんロボットは、ドアを開けられるだけでなく、超人的な忍耐力(我慢する能力)を持つだろう。ぜひ、そう願いたい。ぼくは、招待されてBD社にSpot Miniを見に行ったとき、一度だけ彼を蹴ったことがある。この記事を読んでいるマシンのみなさま、ごめんなさい

画像提供: Boston Dynamics

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AI調理ロボットのMisoが1000万ドル調達――ハンバーガーチェーンにパテをひっくり返すFlippyが登場する

ロサンゼルスの近郊のパサデナに本拠を置くハードウェア・スタートアップのMiso Roboticsは投資家から強い信任を受けた。同社はAcacia Research CorporationがリーダーとなったシリーズBのラウンドで1000万ドルの資金を調達したことを明らかにした。このラウンドを含めてMisoが調達した資金総額は1400万ドルとなった。

同社ではこの資金を食品を扱うロボットの強化に用いるとしている。ハンバーガー調理を助けるロボット、Flippyは間もなくCaliBurgerチェーンの50店舗に出荷される。

TechCrunchは公式発表に先立ってCEO、共同ファウンダーのDave Zitoに電話でインタビューした。 「今回の資金調達の成功によってわれわれのAI利用キッチン・アシスタントの能力、規模はさらに拡大される。この見通しにわれわれは大いに興奮している。投資家は開発の初期にわれわれのプロダクトを調べて大いに感銘を受け、依然に倍して支援することを決めた」とZitoは語った。

MisoのロボットのAI四角から見たグリル上のハンバーガー・パテ

今回のラウンドで見逃せないのは、新しい投資家としてシカゴの有力企業Levyが加わったことだろう。同社はアメリカとイギリスでレストランやスポーツスタジアムその他のエンタテインメント施設に自販機サービスを提供している。Levyの参加は戦略的なものだ。同社はもっとも多忙な現場の人手不足問題の解消にAIロボットを利用しようとしている。

Zitoは「Levyがラウンドに参加したことは、調理済み食品への需要がますます増えつつあるトレンドを同社が非常に真剣に考えていることを意味する。現場ではスタッフがオーバーワークに陥っており、調理にロボットの手を借りられるということに皆大歓迎だ。スタッフの入れ替わりは激しく、消費者の要求は多様化している。そういう状況で価格を据え置くのはたいへん難しい」と述べた。

Misoは昨年9月のTechCrunch Disruptに参加し、開発の初期段階だったが、FlippyのロボティクスとAI視覚をデモしている。Misoでは数週間以内にパサデナのCaliBurgerの店頭で実際にFlippyを作動させて披露する予定だという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+)</P

DNA利用のナノボットがガン細胞攻撃に成功――折紙方式で畳まれ、標的で抗がん剤を放出

SFのように聞こえるが現実の話だ。今日(米国時間2/12)、Nature Biotechnologyに発表された論文によると、自律的に作動する微小なロボットによって抗がん剤を標的細胞に有効に送り込む実験がハツカネズミで成功したという。

このDNAナノボットはガン細胞を探し出し、その細胞への血液供給を妨げる薬品を注入する。その結果、ガン細胞はやがて死滅するという仕組みだ。

「腫瘍細胞を持つハツカネズミによる実験で、われわれは 腫瘍細胞に特異的に結合するトロンビンを運搬するDNAナノボットを静脈注射によって投与した結果、腫瘍組織に血管内血栓形成を引き起こし壊死に至らせ、また腫瘍の成長を妨げることを実証できた」と論文は説明している。

DNAナノボットというのは薬剤投与における新しいコンセプトで、特別に合成され日本のオリガミのように畳まれるDNAシートを微小ロボットとして用いるものだ。

DNAナノボット:Nature Biotechnology 2018

この研究を行ったチームが人間の乳がんを持つハツカネズミにDNAナノボットを注射したところ、48時間以内にナノボットは乳がん内のガン細胞を発見してに結合し、ガン組織への血液供給を阻害、組織を壊死させることができたという。

論文によれば、この実験で重要な点は、血液凝固因子をもつトロンビンを付着させたナノボットが標的とするガン細胞以外に血栓を引き起こさなかったことだという。

The s研究チームはまたBamaミニブタにナノボットを投与し、健康な組織に血栓を引き起こさなかったことを実証した。これによりハツカネズミより大型の動物でも安全であることが示された。

この研究チームによれば、最終目標は、この薬剤投与方法を人間に対しても確立することだ。もちろん実際の治験に進む前にさらに多数の研究が必要だという。

そうであっても、今回の実験の成功はガンの治療における大きなブレークスルーだ。現在の抗がん剤によるケモセラピーはガンであろうとなからろうとすべての細胞に届いてしまう。DNAナノボットを用いる方法に比べると野蛮だ。ナノボットはガン細胞に特異的に結合し、そこで抗がん剤を放出するのでガン細胞だけを壊死させる。近い将来、この手法が人間のガン治療において承認され大きな効果をもたらすことが期待される。

画像:: KTSDESIGN/SCIENCE PHOTO LIBRARY/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ロボットたちに基本的な動作の組み合わせを通して世界を理解させる

言われたことをこなすという点で、ロボットは申し分ない。しかし、そのための情報をシステムに入力する作業は、時にロボットに実行して欲しい作業よりも、遥かに複雑なプロセスになってしまうことがある。これがロボットは単純な反復作業に向いていると言われる理由だ。

ブラウン大学とMITの研究チームは、現実の物体と、基本動作の、抽象的な概念を開発することを通して、ロボット自身がタスクを計画できるようなシステムの開発に取り組んでいる。このシステムでは、ロボットは複雑な作業を、人間が扱いきれない程の事細かな作業手順までに落とすことなく、実行することができる。

研究者たちは2本腕のロボット(Anathema Deviceまたは”Ana”と呼ばれる)を、室内の物体を扱えるようにプログラミングした。食器棚のドアの開閉、クーラーボックスの蓋の開閉、照明スイッチのオンオフ、そしてボトルを掴むことなどだ。タスクを実行しながら、ロボットは、研究者が開発したアルゴリズムを使用して、その周囲の情報を取り込みながら、情報を処理した。

チームによれば、ロボットはそうした動作を通した情報の取り込みによって、物体と環境に関する抽象的な概念を学ぶことができた。例えばAnaは、ドアが開けられるようにするためには、その前に閉められていなければならないと判断することができた。

「Anaは食器棚の中の照明がとても明るいために、彼女のセンサーをホワイトアウトしてしまうことを学習しました」と研究者たちは発表文の中に書いている。「そこで食器棚の中のボトルを操作するためには、ライトをまずオフにしなければなりませんでした。彼女はまた、ライトをオフにするためには、食器棚のドアが閉じていなければならない(開いたドアがスイッチへのアクセスの邪魔になるため)ことも学習しました」。

一度処理されると、ロボットは1つのシンボルをこれらの抽象概念の1つに関連付ける。これは、実行する際に複雑なコーディングを必要としない、ロボットと人間との間に生み出された一種の共通言語である。このような適応性の高さが意味することは、ロボットが特定のシナリオで実行する必要のある行動を選択することにより、より多様な環境で多種多様なタスクを実行できるようになるということだ。

研究を主導するブラウン大学の助教授George Konidarisは「インテリジェントなロボットが必要な場合に、彼らにやって欲しいこと全てを、プログラムすることはできません」とTechCrunchに語った。「彼らに目標を与えて、自分たちで行動してもらうようにしなければならないのです」。

もちろん、すべてのロボットにこの方法で習得させようとすることも、同様に非効率ではあるが、研究者たちは共通言語を開発し、新しいハードウェアにダウンロードすることのできるスキルを作成できると考えている。

「将来的には、スキルライブラリが用意され、それをダウンロードすることができるようになると思います」とKonidarisは説明する。「例えば『キッチンで仕事をするためのスキルライブラリが必要だ』とリクエストすると、キッチンで仕事をするためのスキルライブラリが手に入ることになります」。

[原文へ]
(翻訳:sako)

カマキリに3Dメガネをかけさせて研究したら新しいよりシンプルな立体視覚が見つかった

イギリスのニューカースル大学の研究者たちが、カマキリの上で独自に進化した立体視覚の形を発見した、と考えている。研究チームは、この昆虫の中で起きる現象をできるかぎり精密に研究しようとし、そのために虫の目に3Dメガネを装着した。

上図のように、昆虫の目につけた3dメガネは二色で、蜜蝋で一時的に接着した。そしてチームは、餌食となる虫のビデオを見せ、カマキリはそれに向かって突進した。その点に関しては、カマキリの立体視像の処理は人間のそれとほぼ同じ、と思われた。

しかし人間の3D視覚をテストするために使うドットパターンを見せると、カマキリの反応は違った。彼らの発見は、こう記述されている: “二つの目にそれぞれまったく異なる画像を見せても、カマキリは、変わっている部分のある場所同士をマッチできた。人間にはできないような場合にも、それができた”。

同大によると、その立体視覚の発見によって、カマキリは昆虫の世界で独特であることが分かった。またそれは昆虫だけでなく、猿や猫、馬、フクロウ、人間などそのほかの動物の立体視覚とも違った。カマキリの立体視覚の特徴は、二つの目の間に感受した動きをマッチングさせており、人間のように明るさを使っていない。

Vivek Nityananda博士はこう語る: “これをするほかの動物を私は知らない。このような種類の3D視覚は、現在にも過去にも例がない”。Nityanandaはさらに加えて、この種の3D視覚が過去に理論化されたことはあったが、実際の動物の中に検出されたのはこれが初めてだと思う、と言った。

このシステムは人間の3D視覚よりもそんなに複雑でない過程を経て発達し、カマキリのあまり複雑でない脳でも処理できるようになった、と科学者たちは信じている。そのことは、Nityanandaによると、3Dシステムをなるべく単純で軽量なマシンに実装しようとしているロボティクスにとって良いヒントだ。

彼は曰く、“それはずっとシンプルなシステムだ。カマキリは、両方の目の適切な位置における変化を検出しているだけだ。ロボティクスでは、二つの目の視界をマッチングさせるときに処理する複雑な細部よりも、変化の検出の方がずっと容易に実装できる。必要な計算力も少ない。それなら、はるかに軽量なロボットやセンサーにも組み込めるだろう。

画像提供: Mike Urwin/Newcastle University, UK

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ワッフル積み重ねロボット、そのうち人類を征服?

私はワッフルもロボットも大ファンなので、 FANUCの食品処理ロボットがワッフルを積み重ねて箱詰めするとことろお目にかけたい。このロボットは、ワッフルの色を識別し5枚を1組として積み重ねる。コンベアの端で別のロボットが待ち構えており、ワッフルを箱詰めする。サイトの説明によるとこの連中はもっと重いものも処理できるそうだ。

当社では単独ないし協調して動作し、0.5kgから2300kgまで処理可能な多様なロボットを用意している。また箱詰めやパレット搭載のためにロボットを作動させるためのアプリケーション・ソフトウェアを提供する。このソフトウェアはiRVision®をもちいて対象物を認識、トラッキングできる。ROBOGUIDEシミュレーションやデュアル・チェック・セーフティー((DCS)システムなど作業のオートメーションに必須の機能もサポートされる。

ワッフル箱詰めではまだ足りないならtSpectrumの提供によるABBロボットのビデオはどうだろう。こちらもパンケーキ掴みで驚くべき能力を見せてくれる。これまで職人芸の領域だった職場にイノベーションがやってくるとどういうことになるかの一例だ。たとえヴァッサー料理大学院あたりでパンケーキ選別の学位を取得していても安心ならない世の中らしい。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ロボット・スワンがシンガポールの水質調査をお手伝い

シンガポールの国立シンガポール大学の研究者は自律航行が可能な水質検査ロボットを開発した。この水上ドローンはSmart Water Assessment Network、SWANと呼ばれる。実際、驚くほど本物のハクチョウそっくりだ。

ロボットはシンガポールの港湾や川、池に浮かべられセンサーで水温、汚染物質などを検査し、リアルタイムで情報を送り返してくるという。スワン・ロボットにしたのはむき出しのドローンに比べて親しみやすく、風景にもうまく溶け込むからだという。

現在スワン・ロボットはシンガポールの貯水池などで水質検査の実験を始めている。ボートその他の障害物と衝突しても耐えられるデザインだという。従来のようにボートを使って人手で水質サンプルを集めるよりはるかに低いコストで多数の地点の水質が検査できる。将来はまったく人手を介さず完全自動で水質を見張るようになるはずだ。

本物のハクチョウをびっくりさせないといいのだが。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

器用にたこ焼きを返す調理ロボットを開発、コネクテッドロボティクスが6700万円調達

調理ロボットを開発するコネクテッドロボティクスは1月25日、500 Startups JapanDraper Nexusエースタート、複数の個人投資家を引受先とする第三者割当増資を実施したと発表した。調達金額は6300万円だ。

写真中央がコネクテッドロボティクス代表取締役の沢登哲也氏

コネクテッドロボティクスは企業向けの調理ロボットを開発するスタートアップだ。同社はその第1弾として、たこ焼き調理ロボットの「OctoChef」を2018年春にリリースする予定としている。

この調理ロボットがなかなかスゴイ。ロボティクスに関しては素人の僕がOctoChefの話を聞いた時、どこまで自動化できるのだろうと疑問に思った。でも、その答えは”最後まで”だった。

このロボットが実際動いている動画を見て欲しい。たこ焼きのなかに入れる具材こそ調理済みのものだけれど、生地の流しこみからたこ焼きのひっくり返し、そして容器への移し替えまですべてをロボットが行っている(まだまだ大阪人の読者からはツッコミが入る出来かもしれないが)。

「ロボットが苦手とするのは”切る”という動作。その工程が少ないたこ焼きはロボットでも可能だと考えた。あまりに素早い動きを繰り返すと安全性も低くなるし、動力のロスも大きくなる。だから、焼き上がるまでの待機時間がある点もロボットとは相性がいい」とコネクテッドロボティクス代表取締役の沢登哲也氏は話す。

聞けば、このロボットのプロトタイプの開発費用は200〜300万円ほどだったという。しかも、それに要した期間もわずか2ヶ月だ。「プロトタイプの開発に必要なロボットはオリックス・レンテックを通してレンタルした。このような環境が整ったことで、ロボットビジネスを始めるためのハードルはかなり低くなった」(沢登氏)

同社はOctoChefのような調理ロボットを「2年で投資回収できる程度の」価格で企業に提供していく。また、そういった買取型のマネタイズだけでなく、初期費用を抑えることができるサブスクリプション型も将来的なビジネスモデルとして視野に入れているという。

沢登氏は、東京大学大学院でロボット工学を学んだあと、最初は飲食店の立ち上げというかたちでビジネスの世界に足を踏み入れた。彼の祖父母や叔父が長年飲食店を営んでいたことから、もともと飲食業界への興味があった沢登氏は言う。その後、飲食とロボティクスを組み合わせた「飲食ロボット」の製造を専門としたコネクテッドロボティクスを2014年2月に創業した。

同社は今回調達した資金をロボットエンジニアの採用とロボット機材の購入費用に充てるという。今後はたこ焼きだけではなく、カレー、寿司、牛丼、焼き鳥などの自動調理にも取り組んでいく予定だ。

ロボットが怪獣をやっつける!――パシフィック・リム最新予告編

こういう巨大なロボットが巨大な怪獣と戦う映画には目がない。ジョン・ボイエガがロボットのパイロットとなって超空間からの侵入者を退治するところを一刻も早く観たい。派手な色づかい、マンガすれすれの大破壊と大音響も大好きだ。

『パシフィック・リム アップライジング』が上映されるのは3月23日からだ〔日本では4月から〕。多くの読者もそうだと思うが、待ちきれない思いだ。当面はこの予告編で我慢しよう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

組み立てロボットキットのZiroはAlexaからもコマンドできる子ども向けロボティクス入門機

Ziro(ザイロ)は、子ども向けの、なかなか良くできてるプログラマブルなロボットで、昨年Indiegogoでクラウドファンディングに成功した。メーカーのZeroUIは、今でも新しい機能を加えつつある。

Ziroは、同梱のスマートグラブ(smart glove, 電脳手袋)でコントロールする。手のどんな動きでZiroに何をさせるかを、モバイルアプリで設定できる。たとえば手のひらを前に傾けたら前に進む、とか。

Ziroに、AmazonのAlexa*で命令できる。何を言ったら何をする、という音声コマンドも、ユーザーが設定できる。たとえば、手を振って、と言ったら、Ziroがユーザーの方を向いて腕を振ったりする、など。

Ziroがたくさん売れてユーザーのコミュニティができたら、いろんなロボットのデザインなどを共有できる。ネット上のフォーラムでみんなと話し合って、ボール紙製の恐竜やダンスを踊るロボットなどを作れるようになったら、楽しいだろうな。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

子ども用プログラミングロボットRootはホワイトボードの上を這いまわるお絵かきロボット

教育用ロボットは、今年のCESを短時間見ただけでも、すでに目立つトレンドのひとつだ。ぼくがこれまで見た教育ロボットのブースの数は数ダースにもなるが、しかもそれはまだ、開場からわずか2時間ぐらいのあいだだ。そしてその中でいちばんおもしろいと思ったもののひとつが、ハーバード大学のスピンアウトWyss Labが作ったRootだ。

彼らのブースでは、発売可能な最終製品に触(さわ)れる。その消費者向けに完成したロボットは、これまでの同社のプロトタイプにやや手を加えたもので、たとえば、小さなホワイトボードイレーサー(白板消し)がロボットの底についている(下図)。

この、Roombaを小さくしたようなロボットの上部にはUSB-Cのポートがあって、さまざまなアクセサリを挿入できる。ただしアクセサリ類は、今年の第二四半期にRootが発売されてからほぼ1か月後に出る。最初の二つのアクセサリは、ブルドーザーと“ビルディングブロックトレイ”。そのあたりは、ややLEGOふうだ。このポートがあるおかげで、さまざまなデコレーションも可能だ。カメラのような実用アクセサリも、いずれ出るだろう。

現在は、199ドルの予約販売のみ。マーカーを中央に差し込むと、ロボットがお絵かきをする。折りたたみ式のホワイトボードもついているが、でもこのロボットには磁石があるので、本物のホワイトボードなら、上下方向にも動いて絵や文字などを描ける。

今や、子どもがプログラミングをおぼえるためのロボット製品がとても多いから、このRootについても疑念は残る。楽しいおもちゃと、本当に役に立つ教育ツールとのあいだに横たわる溝を、どうやって飛び越えるのか。Rootは独自のプログラミング言語を使うだけに、疑念は簡単には晴れない。

でもCEOのZee Dubrovskyによると、いずれSwiftやPython, そしてJavaScriptを統合するから、そうしたら、Rootから本格的なプログラミングへの移行も、スムースにできるようになる、というのだ。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Robomartは街角の小売店に挑戦する最新のスタートアップ

つつましい近隣の小売店たちに対する、スタートアップたちの攻撃はますます激化している。

最初に登場したのは名称が物議を醸(かも)したBodegaだ。街角の小売店が扱う生鮮食品以外の食品や生活必需品を、様々な場所で売ることで、街角の小売店を「置きかえよう」という試みだが、その登場はいささか問題含みだった(※Bodegaという言葉はスペイン語で「お店」と言った程度の意味で、米国内に多く存在する「bodega」は南米からきた住民たちのコミュニティの中心となる機能を果たしている)。

そして今度はRobomartだ。卸売業者や大手小売業者が使うことを想定したサービスで、食品や雑貨、焼き菓子、スーパーの惣菜などを顧客の玄関先まで届けるというものだ。

創業者のAli Ahmedが、構想10年を経て生み出したRobomartは、自律移動する食品雑貨店だ。

Robomartは、この連続起業家の最新スタートアップなのだ。Unileverの従業員だったAhmedは、10年前に移動食品雑貨店のコンセプトを思いつき、その後メディアコンテンツのソーシャルシェアリングを行うLuteBoxを創業した。

LuteBoxの後、このロンドンに本拠を置く起業家は、現在はもう運営されていないDispatchを起業した。これは、Magicなどの米国に拠点を置くオンデマンドコンシェルジュサービスと競合するサービスだった。なおMagicはカスタムサービスを売りにしており、ユーザーは(料金を支払えば)およそ望むものを何でも手に入れることができる(とはいえ虎を手に入れることはできなかったが)。

最盛期にはDispatchは1500人の配達員を抱えていたが、入ってくる注文の多くは食品雑貨の配達を希望する人びとからのものだった(これはInstacartなどが食品雑貨の配達を始める以前の、オンデマンド黎明期の話だ)。

投資家たちがDispatchからAhmedを引き抜いた後、起業家はカリフォルニア州サンタクララに移り、Robomartを開始した。

「私たちは新しいカテゴリーを作り出していると信じています」とAhmedは言う。「私たちはサイドウォークロボット(街中で自動配達を行うロボット)と競合していると考えているのです」。とはいえ実際のところ、Ahmedは街角の小売店たちと競合しているように見える。そうした小売店たちと似たような品揃えの商品を少量だけ扱い、近隣性と便利さを武器として。

サイドウォークロボットたちがカリフォルニアで数々の抵抗に直面しているように、Robomartも様々な困難に直面することが予想されている。運行場所と駐車場所が、その中でも最大の課題だ。

Ahmedは、地元の小売店たちが共同で、大規模小売業者たち(もしくは直販手段を探している卸売業者たち)と競争するために、この自律配送車両を購入することができると主張しているが、そうした大規模小売業者たちこそがRobomartを採用する可能性が高い。

Robomartを採用する際には、プラットフォーム、車両などのすべてを24ヶ月のリースで契約する。「新しい店舗を開くよりもかなり安くつきます」とAhmedは語る。「そして消費者の皆さんは、事前注文しなくても商品を買うことができるのです」。

車両には冷蔵システムまたは保温システムが装備されている。Ahmedは卸売業者たちと、食品雑貨店の通路を模倣した複数のトラック(乳製品、肉類、野菜類など)を用意する話を進めていると語った。

小売業者たちの得られるメリットは、Ahmedの言うところによれば、この技術をライセンスした食料雑貨店や小売業者たちは、買い物客の情報を他者(Uber、Postmates、Instacartその他)に渡すこと無く、手元に留めることができるというものだ。

Nvidiaのスタートアッププログラムに参加しており、Architypeのインキュベーターならびにコンサルティングプログラムの卒業生でもある同社は、Corbinとの提携によって、現在プロトタイプを開発中である。Corbinはかつてもてはやされ、やがて失望を招いた過去をもつ、試作電気自動車の開発者である。そしてもう1社の協力社がHevo Powerだ。Hevo Powerは電気自動車へのワイヤレス充電を目指すスタートアップだがまだ製品の出荷はしていない(とはいえHavo Powerはカリフォルニアの砂漠にあるグーグルの最高機密自動運転車本部のプロトタイプに採用されていると伝えられている)。

これらはオペレーションの成功を確信させるパートナーたちではないが、Ahmedは食品卸売業者や大規模小売業者たちと車両の開発について協議していると語る。

そしてAhmedは、実際の展開が始まるときには、完全に自律的なものになると主張している。同社は、そのテクノロジーを食品雑貨店にライセンスすることを目指している。提供されるものはRobomartの車両、ワイヤレス充電装置(Hevo Powerによる)、そして自動車両管理システムならびにオンデマンド注文システムである。これらはRobomartの3人の技術者によってデザインされているものだ(彼らは皆LuteBoxの時代からAhmedと一緒にやってきた者たちだ)。

  1. robomart-driveway.jpg

  2. robomart-studio.jpg

  3. robomart_67.jpg

[原文へ]
(翻訳:sako)

人間に教わらなくても自力で未来を予見でき、正しく行動できるロボットをカ大が研究中

ロボットは通常、リアルタイムで反応する。何かが起きると、それに応える。カリフォルニア大学バークリー校の研究者たちは、ロボットたちに“自分のアクションの未来を想像させる”システムを研究している。つまり、目の前にまだない「もの」や「こと」に対応できるロボットだ。

その技術は予見視覚(visual foresight)と呼ばれ、ロボットが“自分が一連のある特定の動きをしたらそのあと視界(ロボットのカメラ)に何があるか”を予測できるようにする。

研究者たちの言葉で表現すると:

この想像力ロボットはまだかなり単純で、数秒先の未来しか予見できないが、でも数秒あれば、テーブルの上の物を障害物にぶつからずに動かすには十分である。重要なのは、ロボットが人間からの介助なしでこれらの仕事のやり方を学習でき、またそのために、事前に物理や環境、物性等の知識も要らないことだ。なぜならこの想像視覚は完全にスクラッチから学習され、その探究を誰も補助したり監督しない。それでもなおロボットは、テーブルの上のオブジェクトとプレイできる。このプレイの段階でロボットは、世界の予測モデルを作り、そのモデルを使って、前に見たことのないオブジェクトでも操作できるようになる。

バークリー校の電気工学科/コンピューターサイエンス学科のSergey Levine助教授はこう語る: “人間が、自分がどう動けば物がどっちへどれだけ動くかを想像できるように、この方法ではロボットが、自分のいろんな行動がまわりの世界に与える影響を視覚化できる。複雑な現実世界の状況で、柔軟性の幅の大きいスキルの、インテリジェントなプランニング(行動計画)ができるようになるだろう”。

このシステムはたたみ込み型再帰ビデオ予測(convolutional recurrent video prediction)という方法で、“画像中の画素がロボットのアクションで次のフレームではどこへ移動するかを予測する”。それにより、物に触ったりそれを動かしたりする前に、次の行動をプランできるのだ。

Levineの研究室の博士課程の学生で、独自のDNAモデルを作ったこともあるChelsea Finnは、こう言う: “これまでは、ロボットによるスキルの学習は、付き添いの人間がフィードバックを提供することによって進行した。この研究がすごいのは、ロボットが物を操作するスキルを、完全に自力で習得することだ”。

そのロボットには、まわりの環境に関する情報も要らないし、特殊なセンサーも要らない。ただ自分の目(カメラ)に映った画像を分析して、正しく行動しようとする。それは、人間がテーブルの上の物を目で見ながら、落ちたり他の物を壊したりしないよう動かすのと同じだ。

“子どもたちは、おもちゃを動かしたり、握ったり、いろいろ遊びながら世界について学習する。この研究の目的は、ロボットにそれと同じことをやらせることだ。自律的な対話を通じて世界の形や構造を学習する”、とLevineは語る。“まだほとんど多芸ではないが、スキルを完全に自動的に学習することがキモだ。事前に観察した対話(“プレイ”)のパターンに基づいて、前に見たことのないオブジェクトでも、それらとのフィジカルで複雑な対話を予見できるようになる”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

年末年始休暇にはAlexaとFurbyを合体させる神をも恐れぬDIYプロジェクトに挑戦しよう

時間の終わり(End Times, 世界の終末)が近づけば、きっとその大きな兆候があるだろう。これまでの死者が全員起き上がって世界中を歩きまわる、と言われている。空から大きな火が降(ふ)ってきて悪人も善人も差別なく焼きつくす。そして、FurbyがAlexaの声で話す。Turtle of the Universeが口から自分の子を吐き出して、人類の普遍的優越意識に裁きの鉄槌を下す。

少なくとも、これらのうちの一つが現実になった。この巧妙なDIYプロジェクト*は、Raspberry Pi Zero Wを昔のFurbyに組み込んで小さなモンスターを訓練し、ペーパータオルを発送しました、などと喋れるようにする。〔*: 関連日本語記事

このプロジェクトが使うのは1998年製の初代のFurbyで、そのボケてるCPUを現代のシングルボードコンピュータとアンプとマイクロフォンでリプレースする。Raspberry PiをFurbyの顔の表情に接続し、そしてFurbyの赤外線センサーとエミッターにも接続する計画があるが、今回はそこまではやってない。

このFurbyは、Alexa Voice Servicesにより、Amazon Echoと完全に同じことができる。天気予報も聞けるし、電灯も消してくれる。

構想に数か月を要したこのプロジェクトも、すべての正しいパーツを組み立てるだけなら数時間でできる。作者のZach Levineは、すごく難しいプロジェクトだった、と言っている。

彼はこう語る: “たぶん、これまででいちばん長くかかったプロジェクトだね。やったりやらなかったりで、一年は経っている。やり直しも多かったし、何匹ものFurbyと苦戦した。とにかく、相手は小さいからね、実装が難しい。Raspberry Pi Zeroを使うことは前から決めていたけど、Raspberry Pi Zero W(wireless)は、最初のころまだなかった。それなのにこのプロジェクトは、Wi-Fiが必須なんだ。運良く、プロジェクトの途中でWが出たから、ものすごく楽になった。でも、ほかに難しい部分はたくさんあったけどね”。

あなたが、雹(ひょう)の嵐の中で暗黒神に、命だけは助けてくださいとお願いしたり、Tokyoは今何時ですか、と尋ねたいときには、この奇妙で神秘的な電子のキメラ(A…とF…の合体)があなたを護ってくれるだろう。あるいは、あなたに最後の審判を下すだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

トヨタの新しいヒューマノイドは、まるで生きているように操ることができる

トヨタは、新しい第3世代のヒューマノイドロボット”T-HR3″を発表した(チャーミングな名前だ)。人間にとって有益で安全な助手となるようデザインされている。また「マスター操縦システム」と呼ばれる機能も備えていて、それによって人間がT-HR3に自分の動きを真似させることで、VR遠隔操作プラットフォームとして使うことが可能だ。その通り、映画Pacific Rimに出てくる巨大ロボット、イェーガーのようなものだ。

T-HR3は、家庭内介護、病院内、建設現場、被災地、そしてトヨタによれば外宇宙までをも含む、幅広い局面で人間のアシストを行うことができるようにデザインされている。ロボットは、長い腕と、機械的な構造を覆う滑らかな白い外殻と、光センサーを備えた頭部をもつ、やや背の低い人物のように見える。

マスター操縦システムのオペレーターは、ロボットに動きを伝えるための腕と脚の両方のカバーを装着していて、オペレーターがその場で歩いたり、腕を操作したり、人間の自然な動作を直接変換して握ったりするといった、様々な動作を行うことができる。オペレーターは、着用しているヘッドマウントディスプレイ(ビデオの中ではHTC Viveが使われている)のおかげで、ロボットの視点から見ることもできる。

  1. 20171121_03_03_s.jpg

  2. 20171121_03_02_s.jpg

  3. 20171121_03_01.jpg

同期された動作にはセーフガードも備わっている。このためロボットの動きはオペレーターと干渉することはない。操縦席に座っている間は、例えば誤って(あるいは意図的にも)ロボットでオペレーター自身を殴ることはできないのだ。

遠隔操作された、器用なヒューマノイドロボットは、基本的に全ての人間活動に応用できる潜在的な可能性を秘めている。そして、仮に私たちが異次元の怪物の侵略に対して戦う必要が出てきたとしても、少なくともそれを可能にする道筋は手に入れたということだ。

[原文へ]
(翻訳:Sako)

Boston Dynamicsの二本足ロボット(ヒューマノイド)Atlasはパルクールの達人

そうか、パルクールだ! 全世界のロボット工学が、究極的に目指すべきものは、パルクールではないか。人類にとって、これを上回るほどの高貴な営みはない。だからもちろんロボットも、このいわゆる‘王者のスポーツ’をマスターすべきだ。実際、それは本当に高貴な人間と高貴なロボットにのみ、ふさわしいスポーツだから。

Boston Dynamicsが最近発表したニューバージョンのSpotMiniは、消費者好みの、丸みのある甲冑を身に着けていて、前ほど怖くはなかった。でも今度は、同社の二本足ロボット、というか同社の作品群の中でいちばんヒューマノイドらしいロボットAtlasが、われわれを釘付けにする。

今度のAtlasは、高さのあるブロックからジャンプし、空中で完全な回れ右をする。ジャンプの高さはかなり高くて、後ろ宙返りもする。そしてそのあとの、誇らしげなしぐさ! そこまでやんなくても、きみの凄さは分かるよ、未来のデストロイヤーくん。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ミニロボットがAR環境で戦うMekaMonがApple Storeに――背景に日本のアニメ

最初のバッチ、500台を売った後、 イギリスに本拠を置くReach Roboticsは750万ドルの資金調達ラウンドを成功させた。これによりAR環境で現実のミニロボットを戦わせるプラットフォームがさらに手頃な価格で一般消費者向けに販売できるようになる。このスタートアップに注目していたのはベンチャーキャピタルだけではなかったようだ。AppleもMekaMonに強い関心を示していたことが判明した。

今日(米国時間11/15)から、MekaMonロボットはApple Storeのチャンネルを通じて独占的に販売される。今日はまずオンライン・ストアに登場するが、明日からは現実店舗でも販売が始まるという。Appleはスタートアップのハードウェアの製品が同社独自のテクノロジーを利用するのに適しており、大きな人気を集めそうだと考えた場合、これをプロモートするため同様の契約を結んだことがある。

Reach Roboticsの場合、Appleにとって相乗効果があるのは明らかだ。MekaMonは現実のトイ・ロボットが戦う環境を作るためにARテクノロジーを利用している。つまりAppleが全力で普及を図っているARKitと対象までの距離を把握できるカメラのユースケースとして理想的だ。

ファウンダーのSilas AdekunleはTechCrunchのインタビューに答えて、「サンフランシスコで開催されたGame Developers Confereceでロボットをデモしたとき、わが社への4人の投資家の一人が〔Appleとの〕ミーティングを設定してくれた。Appleはすっかり気に入ったようだった。当時私はARKitがすぐに発表されることを知らなかったが、発表されたものを見て、これは使えると感じた。正しい方向だと思った」と述べた。この時系列を考えると、現行バージョンのMekaMonはARKitを利用しているわけではないようだ。しかしReachは将来のバージョンではARKitを使うことになるだろう。Apple Storeで独占販売されるとはいえ、ロボットの操縦、主観表示、AR環境の表示、距離の測定などすべてiOSとAndroidの双方で作動する。ロボット本体はBluetoothで接続され、対戦あるいは協調モードでさまざまな動作が可能だ。

MekaMonはAppleのSwift Playgroundsと完全に互換性がある。ユーザーはロボットの動作をカスタマイズしたり、アニメーションに利用するプログラミングを書き、アプリ開発を学ぶことができる。Adekunleは「Swiftベースのプログラミングをさらに追加してロボットを進化させたい」と述べている。

ロボットは今日から発売されるのでクリスマス・プレゼントにも間に合うだろう。1セット300ドルだ。

〔日本版〕 MekaMonのキット内容はこちら。MekaMon1台、ARマット、電池、充電器、カスタマイズ用パーツが含まれる。発売はEU、イギリス、アメリカのApple Storeで、日本から入手できるかどうかは情報がない。ファウンダーは上のビデオで1:30あたりからMekaMon開発の背景について触れ、「日本のアニメ」を挙げている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+


【以上】