Amazon Alexa対応の車輪付き家庭用ロボ、開発に本腰

Bloomberg(ブルームバーグ)は4月に、Amazonが「ベスタ」(Vesta)というコードネームで家庭用ロボットを開発中と報じたが、今度はそのプロジェクトが継続中と報じている。しかもその記事にはロボットの具体的な詳細もあり、実はAlexaをサポートしていて車輪で動き回るそうだ。友人の天才的イラストレーターに想像図を描いてもらったら、上図のようになった。

「Vestaは今年リリースされるらしいが、まだ大量生産の準備はできていない」とブルームバーグの情報筋は言っている。どんなプロジェクトでも途中で棚上げにされることはあるが、でも同社はこのところ技術者など開発スタッフを増員してリリースを目指しているそうだ。

現在のプロトタイプでは、ロボット本体の高さは人間の腰の高さぐらいで、センサーを入力源とするコンピュータービジョン技術が介助する。ブルームバーグの記事に書かれている社内デモによると、Alexaにありがとうと言うとユーザーのところへやってくる。その機能はEchoデバイスとほとんど同じのようで、呼びかけに応える、タイマー、音楽の再生などができる。

Vestaが実際にローンチした場合の外見は、Kuriが良いヒントになりそうだ。この、Bosch(ボッシュ)の社内的スタートアップであるMayfield Robotics(メイフィールド・ロボティクス)が開発したロボットは昨年閉鎖され、市場には出なかった。Kuriには、ビデオや写真の撮影、ゲームプレイ、家族との対話などができた。

またAmazonはさらに、Sonosに対抗する高品質のEchoスピーカーを来年出すらしい。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ミシガン大学の教授が作った配達ロボは低コスト雪道も走る

新しい自律走行配達ロボットの会社Refraction(リフレクション)は7月10日に、ステルスモードでTechCrunchのイベント(TC Sessions:Mobility)に登場した。この会社は、配達ロボットを開発するほとんどのスタートアップが避けているエリアにチャンスを見出している。それは荒天気が多いエリアだ。

ミシガン大学の教授Matthew Johnson-Roberson(マシュー・ジョンソン-ロバーソン)氏とRam Vasudevan(ラム・ヴァスデヴァン)氏によって設立されたこの会社はREV-1という配達ロボを「自律車両ゴルディロックス」と呼んでいる。

この教授2人は自律車両と長い付き合いだ。ジョンソン-ロバーソン氏は2014年のDARPAグランドチャレンジへの参加でスタートを切ったが研究機関で研究を続け、その後ロボティクスを教え始めた。ヴァスデヴァン氏はFord(フォード)で雪や氷の上での自動走行オペレーションのコントロールアルゴリズムにしばらく取り組んだキャリアを持つ。そして2人はミシガン大学のロボティクスプログラムで一緒に働いた。

REV-1は軽量で低コストだ。高価なライダーやセンサーは搭載しておらず、自転車レーンを走行し、雨や雪でも走行するようにデザインされている、と共同創業者でCEOであるジョンソン-ロバーソン氏はTechCrunchに対し語った。

イベントが開催されたサンノゼのCalifornia Theaterのステージでデビューを果たしたこのロボットは、おおよそ電動自転車のサイズだ。REV-1の重さは100ポンド(約45kg)ほどで、高さは5フィート(約1.5m)、長さは4.5フィート(約1.4m)。ロボットのボックスの中の容量は16立方フィート(約1.5平方m)で、食料雑貨のバッグ5つを入れるには十分だ。

このロボットの走行はそんなに速いわけではなく、最高スピードは時速15マイル(約24km)だ。しかし自転車レーンの走行を想定しているのでそんなに速くある必要はない。ややゆっくりめのスピードと軽量のデザインにより、停止にかかる距離は5フィート(約1.5m)ほどだ。

RefractionはeLab VenturesとTrucks Venture Capitalから支援を受けている。

「消費者は注文したものがすぐさま配達されることを期待している。しかし企業の方は、こうした需要に応えられる確実で経済的な手法を確保しようともがいている」とeLab Venturesの専務取締役のBob Stefanski(ボブ・ステファンスキ)氏は語った。

ステファンスキ氏は、Refractionのたくましく小ぶりの配達ロボットは、歩道を走行する他の配達ロボよりも広範をカバーできると考えている。

「彼らの配達ロボは、自動運転の車や大型のロボットよりも安全に展開できるほど軽量だ」とステファンスキ氏は加えた。「マーケットは巨大で、特に人口密度の高いエリアで需要がある」。REV-1は主要センサーシステムとして12個のカメラのシステムを搭載し、さらに安全を確保するためにレーダーと超音波のセンサーも活用している。

「10ドルの食品を届けるのに1万ドルのライダーを使うというのは経済性の観点からおかしい」とジョンソン-ロバーソン氏は語った。高価なライダーセンサーを使用しないことで、この配達ロボの価格は5000ドルに抑えられている。

Refractionの初の応用は地元のレストランとの提携のもとに行う。同社は今後6カ月以内にさらに大きな企業と提携を考えているが、そうしたパートナー企業は、多くの自律車両の企業がテストを行っている南西部やカリフォルニアではない。

「他の企業はここ(ミシガン)の冬で走行させようとはしていない。他社が解決しようと取り組んでいる問題とは異なるものであり、これが需要を取り込むチャンスにつながることを期待している」とジョンソン-ロバーソン氏は語った。

イメージクレジット: Refraction

[原文へ]

(翻訳:Mizoguchi)

MLBでも試用中のロボット球審が米国の独立リーグでデビュー

発表から4カ月になる、いわゆる「ロボット球審」が、独立リーグのAtlantic League(アトランティック・リーグ)でデビューした。今独立リーグは、アメリカの代表的な娯楽である野球の新しい姿を求めていろいろな工夫を試しており、審判の機械化もそのひとつだ。

関連記事:メジャーリーグ30球場でレーダーシステム「TrackMan」をボールとストライクの判定に利用

システムはレーダーのTrackManを利用して投球のボールとストライクを判断する。ドップラー効果を利用するそのシステムはすでにメジャーリーグの30カ所のスタジアムと、もっと多いマイナーリグの球場ですでに使われている。情報はシステムから人間アンパイアにiPhoneとイヤホンでリレーされる。

ホームプレートのアンパイアを置換するわけではなく、また一種のフェイルセーフとして、人間アンパイアが必ず投球をモニタする。人間アンパイアは、TrackManの判定を全否定してもいい。中でも特に今のシステムは、バッターが振ろうとしたバットを途中で止める、ハーフスイングを正しく判定できない。

関連記事:メジャーリーグのピッチャーの投球を400万球分析して人間審判の誤審率を計算

人間アンパイアの一人、Brian deBrauwere氏はESPNにこう語っている。「システムを100%信頼できるようになるまでは、人間が毎日球場に行って投球を正しく判定しなければならない。システムが間違ったり、ピッチアップを判定できなかったり、プレートから40cmも外れた球をストライクと判定したりすれば、我々が出て行って正さざるをえない」。

ロボット審判は、現在アトランティック・リーグでテストされているいくつかの機能の1つだ。ここで結果が良ければ、メジャーリーグでも公式に採用される。ほかにも今は、ホームプレートとマウンドの距離を可変にする、1人のピッチャーは必ず最小限3人の打者に投げる、などがテストされている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

ブロックを積み上げた飛び石の上を自分の判断で歩くロボ

ロボットを歩かせるためのプログラミングは、平らに整地された地面の上だけでも十分に難しい。しかしフロリダにあるIHMC(Institute for Human and Machine Cognition=人間と機械の認知研究所)は、二足歩行ロボットに、起伏に富んだ地形の上を確実に歩かせるという高度な課題に取り組んでいる。同研究所は、この分野における研究成果を2016年からデモしてきた。その最新のビデオ(Engadgetによる)によって、進化を確認できる。

この新しいビデオには、Boston DynamicsのAtlasと、NASAが開発したValkyrieというクールな名前のヒューマノイドロボットを使って、IHMCの自律型歩行立案プログラムが動作する様子が収められている。ロボットは、建築用ブロックを積み重ねて作った飛び石や、細い経路の上を歩いていく。足を運べる場所の選択肢が限られているので、かなり難度の高い歩行となる。

IHMCの方式では、基本的にロボットにスタートとゴールの2つの地点を指定するだけで、高度な歩行動作が可能となっている。それらの間をつなぐ足の運びは、1歩ずつすべての可能性を探って決められる。1歩ごとにコストを評価して、最終的に最善の経路を通ってゴールに到達できるようにするのだ。現在のハードウェア上では、このような判断も比較的高速に処理できる。

こうしたロボットは、環境の変化や経路上の障害物などにもすばやく対応できる。それもIHMCの成果だ。さらに、両足を1本の直線を踏むように動かす綱渡り的な歩行も可能となっている。もちろん、実際にロープの上の歩くわけではなく、直線状に狭く並べたブロックの上を歩くのだが。

やるべきことはまだ残っている。IHMCのチームによれば、狭く並べたブロック上の歩行の成功率は、まだ約50%だという。しかし、起伏のある地形上での歩行は、上記のロボットとソフトウェアの組み合わせで、それよりずっと高い90%の成功率を達成している。そして、平らな地面での歩行は、ほとんど完璧な状態となっている。

原文へ

(翻訳:Fumihiko Shibata)

ドイツの研究チームが地上設備必要なしの小型飛行機向け自動着陸システムを開発

ドイツの研究者チームが、パイロットなしで着陸させるだけでなく、他の飛行機が利用しているような地上設備を一切使わない、小型飛行機向けの自動着陸システムを開発した。それは自律飛行の新しい時代を切り開くことになるだろう。さらには通常の着陸もより安全にしてくれるはずだ。

ところで、私たちが現在持っている洗練されたオートパイロットシステムを使えば、飛行機を着陸させることはとても簡単なのでは、と考えるのは無理もない。それはある意味本当のことだからだ。しかしフルサイズの飛行機に搭載された、そうした自動着陸システムは、厳密な意味では自律的なものではない。それらは、大規模な飛行場にしか設置されていない、計器着陸装置(ILS)が発射する一連の電波群に依存しているからだ。

そうした電波信号群は、飛行機に対して、たとえ視界が悪くても滑走路がどこにあるかを正確に伝えることができる。だがそれでも「自動」着陸は滅多に行われない。その代わりにパイロットたちは、他の場面でもそうしているように、オートパイロットシステムをアシスタントとして利用する。この場合は、滑走路の位置を知り、正しい降下を行っているかを知ることの補助をさせることが目的だ。飛行機はILSやその他のシステムを使って自動的に着陸することは可能だが、それは滅多に行われることはなく、また仮に行われたとしてもそれは真の意味で自律的なものではない。それはいわば飛行場が飛行機を遠隔操縦しているようなものだ。

しかし、ミュンヘン工科大学(TUM)の研究者たちは、地上設備に一切頼ることなく飛行機を着陸させることができるシステムを開発した。彼らはそのシステムのデモンストレーション飛行を行った。飛行機には1人のパイロットが乗っていたが、正確には乗客と呼ぶべきだろう、何故なら彼の手はずっとその膝の上に置かれたままだったからだ。

tum plane

着陸しようとしている自動操縦飛行機

自律着陸をしようとする飛行機は、当然滑走路の位置を正確に知る必要がある。だがそれはGPSに頼ることはできない。それはあまりにも不正確だからだ。そしてILSや他の地上設備も使えないとしたら、他に何が残されているだろうか?その通り、コンピューターがパイロットと同様に、その目を使って滑走路を見つけることができるのだ。今回のシステムでは、飛行機の機首に、可視光カメラと赤外線カメラの両方が備え付けられている。

TUMのテストには、小型飛行機のDiamond DA42が用いられた。チームはこの目的のために開発されたカスタムデザインの自動制御システムとコンピュータービジョンプロセッサ(両者は合わせてC2Landという名称だ)を飛行機に装着した。5月には、カメラを使用して滑走路を認識し、特徴付けることを訓練されたコンピューターは、飛行機の完璧な着陸にむけてのノウハウを取り込んだ。

tumlanding

autotum

テストパイロットのトーマス・ヴィマー氏がTUMのニュースリリースに以下のよう書いている「カメラは、空港からはるか遠い距離からでも既に滑走路を認識しました。システムはその後、航空機を完全に自動で着陸態勢へと導き、滑走路の中心線に正確に着陸させました」。フライトの様子は以下のビデオで見ることができる。

これは自動フライトにとっての大きなマイルストーンである。なぜならこれまでは、今回のような着陸を行うためには、飛行機は大掛かりな地上設備に頼る必要があったからだ。すなわち現在の自動着陸は、小さな飛行場の場合や、ILSに不具合が起きた場合には不可能であることを意味する。今回のような小さな飛行機は地上設備のない小さな飛行場にこそ置かれていることが多い。そして深い霧が発生したような場合には、赤外線を見ることができないパイロットにとっては、今回のような自動着陸システムは好ましいものと思われる。

現在、この技術はまだ実験段階であり、広く配布してテストを行うことができるレベルでさえない。航空当局による認定はもちろんまだだ。しかし、安全上の利点は明白であり、現行の滅多に使用されない自動着陸システムへの、バックアップまたは機能拡張として使ったとしても、おそらく歓迎すべき追加機能となるだろう。

[原文へ]

(翻訳:sako)

たこ焼きロボ開発のコネクテッドロボティクスが8.5億円調達、イトーヨーカドー内へロボ設置も

写真に向かって前列の左から3人目がコネクテッドロボティクス代表取締役社長の沢登哲也氏

たこ焼きやソフトクリームなどの調理ロボットを開発しているコネクテッドロボティクスは7月3日、約8.5億円の資金調達を発表した。グローバル・ブレインをリードインベスターとしたシリーズA投資ラウンド1で、以下の企業を引受先とした第三者割当増資となる。

  • グローバル・ブレイン(グローバル・ブレイン7号投資事業有限責任組合)
  • ソニー(Sony Innovation Fund)
  • 東京大学協創プラットフォーム開発(協創プラットフォーム開発1号投資事業有限責任組合)
  • 500 Startups Japan(現・Coral Capital)
  • 三井不動産

なお同社はシードラウンド2ですでに約1億円を調達しており、調達総額は約9.5億円となる。同社は2014年2月設立のスタートアップ。代表取締役社長の沢登哲也氏は、東京大学でロボット工学を学んだあと、京都大学大学院に進学。卒業後に飲食店を立ち上げ、飲食業界のさまざまな問題点に直面したことがきっかけで、コネクテッドロボティクスを設立したという異色の経歴の持ち主だ。

関連記事:器用にたこ焼きを返す調理ロボットを開発、コネクテッドロボティクスが6300万円調達

今回調達した資金により同社は、マーケティング強化による販路拡大と新ロボットおよび新ロボットサービスの開発を進める。具体的には、人材の採用と技術力の強化を計画しており、事業推進を大きく加速させさたいとしている。

同社のロボットといえば、テレビにもたびたび登場する長崎・ハウステンボス内にあるたこ焼きロボ「OctoChef」(オクトシェフ)とソフトクリームロボの「レイタ」があまりにも有名だ。

OctoChefは、ディープラーニングを活用して焼き具合を画像解析することで、適切な時間でたこ焼きをひっくり返すことができるアームロボ。生地の作成などの準備、タコや天かすなどの具材の生地への投入、ソースやマヨネーズなどをかけるといったトッピングには人の手が必要だが、鉄板への生地の流し込みから焼き上げ、焼き上がったたこ焼きの取り分けまでをOctoChefが担う。OctoChef1台で、1回あたりの生産量96個、約12人ぶんのたこ焼きを製造できる。

ソフトクリームロボのレイタは、注文から商品提供までに対応。タブレット端末などでメニューを選んだあと、ソフトクリームのコーンをロボットのアーム部分に差し込むと、あとは器用にアームを動かしてソフトクリームを作り上げていく。ソフトクリーム1個あたりの提供時間は30~40秒。

これらのロボットの特徴は、産業用のアームロボットを使っている点。同社がソフトウェアでチューニングを施すことで専用ロボ化しているのだ。特定用途向けに特注するロボットは導入コストが1000万円を超えるケースも多いが、大量生産される汎用ロボであれば導入コストを大幅に抑えられる。同社によると、これらのロボットシステムをサブスクリプション契約した場合の年間コストは、スタッフ1人の人件費よりも安価になるという。もちろん、休憩を取らせる必要もなく、8時間以上労働させてもまったく問題がないし、不平不満も言わない。ちなみに、OctoChefはユニバーサルロボット社のURS、レイタはDobot社のDobot Magicianがベースだ。

同社はこのほかにも、自動食洗機ロボットサービス「Dish Washing System」やコンビニ向け「Hot Snack Robot」、自動朝食調理ロボットサービス「Loraine」の開発も手がけている。今回の資金調達によりこれらの開発スピードがアップすることに期待したい。

  1. CR06

    自動食洗機ロボットサービス「Dish Washing System」
  2. CR04

    コンビニ向け「Hot Snack Robot」
  3. CR05

    自動朝食調理ロボットサービス「Loraine」

さらにコネクテッドロボティクスは本日、セブン&アイ・フードシステムズと提携し、関東近郊のイトーヨーカドー内に出店しているファストフード店「ポッポ」に、Octo Chefとレイタを展開することを発表した。

10月をメドに関東近郊の1店舗にまず導入し、その後他店舗に広げていく方針だ。具体的な店舗名にについては現時点では非公開となっている。

蜂のサイズの飛行ロボ「Robobee X-Wing」は動力を光から得て持続飛行する

TechCrunchはハーバード大学の飛行ロボットRobobeeの進化を数年前から追っている。最初は飛ぶことを覚え、2015年には泳げるようになり、2017年には水から跳び出すことができた。そして今回のRobobee X-Wingは、光を自分の太陽電池に集めることによって飛べるようになった。光のあるところなら無限に飛び続けることができる。

この大きさでは、飛ぶことは極めて難しい。小さいから離陸も飛行も昆虫みたいに簡単にできるだろうとお思いかもしれないが、実際は自己動力の飛行は小さいほど難しい。昆虫の飛行は、われわれが自然界で出会うもっとも不可解で奇跡のような偉業なのだ。

小さな2つの翼を動かす動力を有線で外部から供給するなら、飛行は簡単だ。これまで、Robobeeなどもそれをやってきた。電源を本体に搭載したり、あるいは身につけたソーラーパネルにレーザーを照射するなどの方法は、ごく最近の試みだ。

関連記事:太陽光とレーザーの力で羽ばたく昆虫ロボットRoboFlyは電力供給の無線化に成功

robobee chart

今度のRobobee X-Wing(翼が4枚なのでX型)は、電池もレーザーも使わない新しい段階を達成した。普通のフルスペクトルの光が上にあるだけでよい。現状では太陽光よりも明るいのだが、現実の条件に一歩近づいた。

ハーバードのMicrorobotics Laboratory(超小型ロボット研究所)のチームは、エネルギー変換のシステムと翼の機械系を極力軽量化してそれを達成した。全重量が1/4グラムで、ペーパークリップの約半分。消費電力も超微量だ:

わずか110–120ミリワットの電力を消費するこのシステムは、蜂のような同サイズの昆虫と同程度の推力効率がある。この昆虫サイズの航空機は、瞬間的な跳躍や離陸上昇ではなく普通の飛行を無線で維持できる機として、最軽量である。

上記の最後のところは、競合する他の研究に影を投げかけている。まだそれらの研究は「ふつうの飛行を無線で維持できる」状態ではない(詳細はよくわからないが)。たとえば下の記事のオランダの羽ばたく飛行ロボットは電池を搭載して1km飛行する。「飛行を維持できる」といえば、これぐらいしか思い浮かばない。

関連記事: 昆虫からヒントを得た羽ばたくロボットが一回の充電で1kmを飛ぶ

Robobeeのビデオでは、離陸がペットボトルロケットみたいだ。スペース的に不可能だったのは、高度な飛行制御回路や、使わないエネルギーの保存、ホバーリングなどだ。

それらはチームにとって次のステップだろうし、しかも簡単ではない。重量が増えて新しいシステムが加われば、航空機として完全に別のものになる。でも数か月から1年ぐらい経てば、本物の蜻蛉のようにホバーリングできるようになっているだろう。

Nature誌に、Robobee X-Wingについて極めて詳細に記述されている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

味覚を検知する実験用ロボットアーム

人間には味覚があり、それがかなり特別な能力だということとを知っているだろうか?それも特別ではなくなった。カリフォルニア大学デービス校とカーネギーメロン大学の研究者は、特定の化学物質を検出できるように遺伝子組換えされたバクテリアを用いて、ものの「味」がわかるソフトロボットハンドを開発した。

ロボットが備える「バイオセンシング・モジュール」は、IPTGと呼ばれる化学物質の存在を、タンパク質を生成することによって検出する遺伝子組換え大腸菌菌株を使って作られている。IPTGが検出されるとロボットに組み込まれた光検出回路を作動する。ロボットはその信号を使って水槽の中に化学物質が存在するかどうかがわかるので、物質が完全に拡散消失すると、それを検出して物体(ここではボール)を水に入れても安全であることを知る。

研究者らは「バイオハイブリッド・ボット」と彼らが呼ぶ有機物融合部品を使ってロボットを作っている。現在検出できる物質は1種類だけなので、できることに限りがある。また、長時間のうち起きる濃度のわずかな変化を読み取ることも課題のひとつだ。

それでも研究者たちは、長時間一定の大きさと構造を保って存在できる微生物群(たとえば、人間の大腸に存在する消化に不可欠な微生物群)を作るという課題が克服できれば、もっといろいろなことができると期待している。例えば、ロボットが化学物質を検出するだけでなく、ポリマーを作って自己修復したり、バイオエネルギーを生成して他の動力源に頼ることなくロボットを動かすことも可能になる。

[原文へ]

(翻訳:Nob Takahashi / facebook

風力タービンのブレード上を這って目に見えないキズを探すロボ

風力タービンはクリーンな電力を供給する優れた発電装置だが、その見るからに単純な(でっかいやつが回るだけの)構造とは裏腹に、一般の機械と同じように摩耗する複雑なシステムであり、最悪、大事故を引き起こす恐れもある。そこで、Sandia National Labsの研究者たちは、タービンの巨大なブレードを自動的に検査し、グリーンパワーのインフラを健全に保つロボットを開発した。

風の流れからエネルギーを集めようと聳え立つ巨大なタワー群は、普段は車で通りかかったときにちょっとだけ目にする存在だ。しかしそれは、厳しい天候、極端に変化する気温、そして(周囲でもっとも背の高いものであるため)必然的に落雷にも絶えながら長年立ち続けなければならない。それに通常の摩耗や破損も加わるため、どうしても定期的な検査が必要になる。

しかし、検査は困難であると同時に、表面的なものに終わる恐れがある。そのブレードは、一体の製造物としては地上最大級だ。さらにそれは、洋上など、人里離れた交通の便の悪い場所に建てられることが多い。

「ブレードは、その寿命を迎えるまでの10億回の負荷サイクルの間、落雷、雹、雨、湿気などの自然の力に晒されます。しかし、外して作業場に持ち込んでメンテナンスするこというわけにはいきません」と、SandiaのJoshua Paquetteはニュースリリースの中で述べている。つまり、検査員がタービンまで足を運んで検査するしかないのだが、タワーは数十メートルの高さに及ぶこともあり、危険な場所に設置されていることもある。

関連記事:風力タービンを掃除して人の命を救うAeronsの巨大ドローン(未訳)

クレーンを使うという手もある。ブレードを下に向けて、そこを検査担当者が懸垂下降しながら調べることも可能だ。それでも、検査は肉眼に頼らざるを得ない。

「目で見るだけでは、表面の傷しか発見できません。それに、目視できる傷が表面にあるということは、損傷の程度が深刻なレベルにまで進んでいるとも考えられます」とPaquette氏は言う。

もっと入念に、深いところまで検査する必要があることは明らかだ。そこで彼らは、International Climbing MachinesとDophitechをパートナーに迎えて動き出した。その結果生まれたのが、この這うように進むロボットだ。これはブレードの表面に張り付き、ゆっくりながらしっかりと移動し、視覚映像と超音波映像を記録する。

視認検査では表面のひび割れや擦り傷を確認するのだが、超音波はブレードの奥の層にまで到達し、表面に傷が現るずっと以前の段階で内部の損傷を発見できる。これを芝刈り機のように、左右に、そして上下に移動させながら、ほぼ自動的に行う。

現時点では、その動きは非常に遅く、人間の監督を必要とする。だがそれは、研究室から生まれ出たばかりのロボットだからだ。近い将来には、数台のロボットを現場に持って行き、ブレード1枚につき1台を配置して、数時間後、あるいは数時間後に回収して問題箇所を確認し、精密検査やスキャンを行えるようになる。タービンに常駐して、定期的にブレードの上を動き回り検査をするようになるかも知れない。

ドローンを使う方法も研究されている。橋やモニュメントなど、人が行うには危険すぎる場所ではすでにこの万能飛行機を使った検査が行われているので、自然な流れだろう。

検査ドローンには高解像度カメラと赤外線センサーが搭載され、ブレード内の熱の変化を検知する。太陽の熱がブレードの素材に浸透する過程で、内部に損傷があれば熱の伝わり方に不規則な部分が現れる。そこを見つけるという考え方だ。

こうしたシステムの自動化が進めば、こんな展開も期待できる。ドローンがタービンの状態を素早く調査し、精密検査が必要なタワーがあれば報告する。それを受けて、タービンに常駐しているロボットが出動して検査を行う。その間、人間の調査チームが現地に向かい、問題部分にどのような修理が必要かを詳しく検討する。これなら、命や手足を危険に晒すことがない。

[原文へ]

(翻訳:金井哲夫)

MITはロボットに人間的な感覚を持たせるシステムを開発

MITのCSAIL(コンピュータ科学・人工知能研究所)の研究者は、人間にとっては当たり前だと思われていること、視覚と触覚など、複数の感覚をリンクさせる能力をロボットに持たせる新たなシステムを開発した

CSAILが作成した新しいシステムには、触覚を利用して見ることを学んだり、その逆に、視覚を利用して触れることを学んだりする予測AIが含まれている。それはかえって混乱を招くように思われるかもしれないが、実は人間が毎日のようにやっていることを真似したに過ぎない。たとえば、物の表面の状態や材質を見て判断することで、もし触ったらどのような感触が得られるかを予測することができる。柔らかいのか、ザラザラしているのか、あるいはぐにゃぐにゃしているのか、といったことだ。

またこのシステムは、触覚、つまり接触による入力を取り込んで、それがどのように見えるかを予測することもできる。ちょうど外からは中が見えない穴の空いた箱に手を突っ込んで、手に触れた物体が何なのかを当てる遊びのようなものだ。

このような例を挙げても、こうしたシステムが実際にどのように役立つのかを明確にすることはできないかもしれない。しかし、CSAILが提示している例を見れば、それも明らかになるはずだ。研究チームは、ロボットアームがついたシステムを使って、オブジェクトそのものは見せずに、それがどこにあるのかを予測させ、感触によってそれが何であるかを認識させた。こうした能力によって、スイッチ、レバー、あるいは取り上げようとしている部品に触ることで、それが正しいものか、そうでないかを判断させることができる。これは、ロボットを補助的に使って作業する人間のオペレーターにとって有用であることは想像できるだろう。

このタイプのAIを利用すれば、たとえば薄暗い環境でも、高感度のセンサーを必要とせずに、効率的かつ効果的にロボットを動かすことができるはずだ。そして、また別の感覚のシミュレーション技術と組み合わせることで、一般的なシステムのコンポーネントとして利用することが可能となるだろう。

画像クレジット:Willyam BradberryShutterstock

原文へ

(翻訳:Fumihiko Shibata)

ロボットの力加減を容易にする力触覚IC開発のモーションリブが総額1.8億円を調達

力触覚技術を搭載したICチップ「AbcCore」の開発元であるモーションリブは6月24日、慶應イノベーション・イニシアティブおよびDBJキャピタルを引受先とした第三者割当増資により、総額1.8億円の資金調達を発表した。

同社の力触覚技術は「リアルハプティクス」と呼ばれており、機械の力加減を簡単に操れるようにする、慶應義塾大学が開発した技術。具体的には、DC/ACサーボモータを細かく制御することで、産業用ロボットがなどが得意な正確な位置制御と柔軟な力制御を両立することで、機械やロボットのアームなどに力の加減を持たせることができる。モータ2台を運動同期することも可能だ。AbcCoreは、この力触覚の制御を実現するICチップとなる。

今回の資金調達により同社は、現在50件以上あるさまざまな業種の企業との共同研究開発プロジェクトを推進し、製品への実装を進めていくとのこと。すでに一部の企業では、最終製品へのAbcCore の実装・販売が始まっているそうだ。

脳でコントロールするロボットやコンピューターが手術不要で実現する

カーネギーメロン大学とミネソタ大学の共同研究グループが、ブレインコンピュータインタフェース(Brain-Computer Interface、BCI、脳とコンピューターのインタフェイス)およびロボット工学における大きな突破口を開いた。彼らが開発したのは、人間が自分の心でロボットアームをコントロールする方法だ。手術のような侵襲的な手続きは要らない。

この実験のマインドコントロールロボットは、高度な運動制御能力も示した。画面の上で動くコンピューターのカーソルを、追うことができたのだ。これは言うまでもなくロボット工学の分野における大きな前進であり、個別ケースではなく一般的に、コンピューターを脳で制御できる可能性を実証している。それにはありとあらゆる用途がありえるが、麻痺などで運動能力に制約のある人でも、コンピューター化されたデバイスを操作できるようになるだろう。

これまで成功した高精度のBCI技術は、脳の信号をピックアップするインプラントを必要とした。インプラントを埋め込むのは危険であるだけでなく、高価であり、人間への長期的な影響も解明されていない。そのため広く普及することはなく、少数の人たちだけが恩恵に与っていた。

研究グループが開発した画期的な技術では、体内に装着するのではなく皮膚に貼ったセンサーからの低品質な信号を利用する。彼らは皮膚感覚と機械学習を結びつけて、ユーザーからの信号を捉える。その信号の起源は脳の内奥だが、捉えた信号には非侵襲的なテクニックにありがちなノイズがない。

この画期的な発見は、医療現場での実用化に向けてそう遠くないかもしれない。チームは、近く臨床試験を始めたい意向だ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

iRobotが教育用ロボットスタートアップのRoot Roboticsを買収

教育向けの製品を拡大しようと、iRobotはマサチューセッツ拠点のスタートアップRoot Roboticsを買収した。Root Roboticsは社名を冠したコーディングロボットを開発し、展開している。このロボットは2つの車輪を持つデバイスで、ホワイトボードやその他の表面に絵を描いたり色をスキャンしたり、はたまた音楽をかけたりコーディングのインストラクションを出したりする。

関連記事:子ども用プログラミングロボットRootはホワイトボードの上を這いまわるお絵かきロボット

昨年のCESで我々はRoot Roboticsを取り上げたが、教育ロボットが数多く展開されたCES会場で同社は抜きん出た存在だった。iRobotはハーバード大学ビース研究所のスピンオフであるRoot Roboticsに多大な価値をはっきりと認め、自社のポートフォリオにすぐさまRoot Roboticsの商品を統合させる予定だ。

Root Roboticsの買収で、商業展開され、そして教育者や学生、親がすでに利用している教育用ロボティックプラットフォームでもってiRobotはSTEMの取り組みを幅広く展開できる」とiRobotのCEO、Colin Angle氏はプレスリリースの中で述べている。「Rootはまた小学生を含むあらゆる年齢の人のためのシステムを提供していて、これはiRobotの教育用ロボットラインナップの増加に貢献する」。

iRobotはSTEM教育の分野では知られた存在だ。同社はCreate robot(人気のRoombaプラットフォームのハッキングできるバージョンだ)を学校向けに長いこと展開してきた。Rootが加わることで、学生がかなり利用しやすくなり、これは将来のiRobotロボット技術者やエンジニアをリクルートする賢い方法となる。

Rootは現在、199ドルで販売されている。今回の買収の詳細は非公開となっている。

[原文へ]

(翻訳:Mizoguchi)

ロボットが電子レンジを普通に使えるようになるためIntelが奮闘中

コンピューターやロボットのトレーニングは、オブジェクトを理解して認識する(たとえば、オーブンと食洗機を区別するとか)だけでは終わらない。人が日常行っている比較的簡単な作業ができるレベルにまで、訓練を重ねる必要がある。人工知能に冷蔵庫と薪ストーブの違いを教えることができても、本当に実用的なロボットにするには、それらの器具を操作できなければならない。

IntelのAI研究者たちが、カリフォルニア大学サンディエゴ校とスタンフォード大学と共同で取り組んでいる新たな課題がそれだ。コンピュータービジョンおよびパターン認識のためのカンファレンスで発表された報告書では、各部品に完全な注釈が付けられた非常に精細な3Dオブジェクトの大規模なデータセット「PartNet」を、共同研究チームはがどのように構築したかが詳しく説明されている。

このデータセットは他に類がなく、すでにロボティクス企業の間で需要が高まっている。なぜなら、オブジェクトを現実世界で認識し操作できるようデザインされた、人工知能用の学習モデル生成のための高度なアプリケーションを備えることで、オブジェクトを部品に分割して構造化できるからだ。そのため、たとえば上の画像のように、電子レンジを手で操作して残り物を温め直す作業をロボットにやらせたいときは、ロボットに「ボタン」のことと、ボタンと全体との関係を教えてやればいい。

ロボットはPartNetで訓練を行うのだが、このデータセットの進化は、どこかの道端に放置された「ご自由にお持ちください」とドアに貼り紙されたいかにもCGっぽい電子レンジを操作するだけに留まらない。そこには2万6000種類以上のオブジェクトがあり、それらは57万個以上の部品で構成されている。そして、カテゴリーの異なるオブジェクトで共通に使われる部品には、すべてが同類であることを示すマーキングがされている。そのため、ある場面で椅子の背を学んだAIは、別の場面でそれを見かけたときに椅子の背と認識できる。

これは、ダイニングの模様替えをしたいが、ロボット家政婦には、お客さんが来たときに、古い椅子でしていたのと同じように、新しい椅子の背も引いて勧めさるようにしたい、なんていうときに便利だ。

たしかに、今私が示した例は、遠い彼方の、まだまだ仮想の未来から引っ張ってきたものだが、世の中には、完成を目の前にした、詳細なオブジェクト認識のためのもっと便利なアプリケーションが山ほどある。しかも、部品特定能力は、汎用オブジェクト認識における判断力を強化してくれるはずだ。それにしても、家庭用ロボティクスにあれこれ思いを巡らせるのは、じつに楽しい。そこに、現在の進歩したロボティクス技術の商品化を目指す数多くの取り組みが集中している。

[原文へ]
(翻訳:金井哲夫)

ロボットが電子レンジを普通に使えるようになるためIntelが奮闘中

コンピューターやロボットのトレーニングは、オブジェクトを理解して認識する(たとえば、オーブンと食洗機を区別するとか)だけでは終わらない。人が日常行っている比較的簡単な作業ができるレベルにまで、訓練を重ねる必要がある。人工知能に冷蔵庫と薪ストーブの違いを教えることができても、本当に実用的なロボットにするには、それらの器具を操作できなければならない。

IntelのAI研究者たちが、カリフォルニア大学サンディエゴ校とスタンフォード大学と共同で取り組んでいる新たな課題がそれだ。コンピュータービジョンおよびパターン認識のためのカンファレンスで発表された報告書では、各部品に完全な注釈が付けられた非常に精細な3Dオブジェクトの大規模なデータセット「PartNet」を、共同研究チームはがどのように構築したかが詳しく説明されている。

このデータセットは他に類がなく、すでにロボティクス企業の間で需要が高まっている。なぜなら、オブジェクトを現実世界で認識し操作できるようデザインされた、人工知能用の学習モデル生成のための高度なアプリケーションを備えることで、オブジェクトを部品に分割して構造化できるからだ。そのため、たとえば上の画像のように、電子レンジを手で操作して残り物を温め直す作業をロボットにやらせたいときは、ロボットに「ボタン」のことと、ボタンと全体との関係を教えてやればいい。

ロボットはPartNetで訓練を行うのだが、このデータセットの進化は、どこかの道端に放置された「ご自由にお持ちください」とドアに貼り紙されたいかにもCGっぽい電子レンジを操作するだけに留まらない。そこには2万6000種類以上のオブジェクトがあり、それらは57万個以上の部品で構成されている。そして、カテゴリーの異なるオブジェクトで共通に使われる部品には、すべてが同類であることを示すマーキングがされている。そのため、ある場面で椅子の背を学んだAIは、別の場面でそれを見かけたときに椅子の背と認識できる。

これは、ダイニングの模様替えをしたいが、ロボット家政婦には、お客さんが来たときに、古い椅子でしていたのと同じように、新しい椅子の背も引いて勧めさるようにしたい、なんていうときに便利だ。

たしかに、今私が示した例は、遠い彼方の、まだまだ仮想の未来から引っ張ってきたものだが、世の中には、完成を目の前にした、詳細なオブジェクト認識のためのもっと便利なアプリケーションが山ほどある。しかも、部品特定能力は、汎用オブジェクト認識における判断力を強化してくれるはずだ。それにしても、家庭用ロボティクスにあれこれ思いを巡らせるのは、じつに楽しい。そこに、現在の進歩したロボティクス技術の商品化を目指す数多くの取り組みが集中している。

[原文へ]
(翻訳:金井哲夫)

Waymoがついに電動CUV車Jaguar I-Paceを公道上で自動運転

1年あまり前にWaymo(ウェイモ)は、同社の自動運転車事業の次の大きな一歩としてJaguar Land Rover(ジャガー・ランド・ローバー)をパートナーとし、その全電動クロスオーバー車であるI-Paceを自動運転化すると発表して業界を驚かせた。

その自動運転のJaguar I-Paceがついに、Waymoの本社のある米国カリフォルニア州マウンテンビューの公道でテストを始めたらしい。米国時間6月17日朝の目撃情報によると、セーフティードライバーが運転席にいる自動運転車Jaguar I-Paceが確かに公道を走行中でWaymoも試験を始めたことを認めた。

Googleの自動運転プロジェクトがAlphabet傘下の企業となったWaymoは、2018年7月に最初の3台のI-Paceを受け取った。それらが、道路のデータを集めるためにサンフランシスコのベイエリア周辺を走っているところが目撃されたが、それは自動運転ではなかった。Waymoの計画では、自動運転のI-Paceは2020年に同社のライドシェア事業に起用される予定だ。

WaymoとJLRの契約によると、最大で2万台のI-Paceが最初の2年間でロボタクシーサービスに利用される。そのパートナーシップの構造はWaymoとFiat Chrysler Automobiles(フィアット・クライスラー・オートモービルズ)の関係に似ていて、FCAはハイブリッドミニバンであるChrysler Pacifica(パシフィカ)をWaymoに供給する。

そのミニバンはフェニックスの郊外周辺で、WaymoのテストとWaymo Oneライドシェアサービスの別名になった。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Facebookがロボットを学習させるための本物そっくりな仮想の家を提供

AIを搭載したロボットが家の中で人の手伝いをするためには、ロボットは人間の環境で歩き回るための経験を数多く積まなければならない。それにはシミュレーター、つまり本物の家とまったく同じに見えて、同じように機能する視覚的世界が最適な訓練場となる。そこでFacebookは、現在最も先進的と言える、そうしたシステムを開発した。

その名は「Habitat」。Facebookのこのオープンソースのシミュレーターは、数カ月前に軽く紹介されていたが、米国時間6月15日に、CVPR(米電気電子技術者協会コンピュータービジョンおよびパターン認識に関する会議)にシステムに関する論文が提出されたことにともない、完全な内容が公表された。

現実世界を歩き回り単純な作業をさせるだけでも、ロボットを教育するには膨大な時間を要する。そのため、物理的空間で実際のロボットを動かす方法は現実性に欠ける。ある地点から別の地点へもっとも効率的に移動する方法や、引き出しの取っ手を掴んで引っ張り出す方法などを、実際に何度も繰り返し学ばせようとすれば、数百時間、実時間にして何年もかかってしまうだろう。

関連記事:WTFはコンピュータービジョンなのか?(未訳)

そうではなく、ロボットのAIを現実の家に相当する仮想環境に置く方法がある。結果として、基本的に、その3D世界を構築するコンピューターの最大の演算速度でもって超高速に訓練を重ねることができる。つまり、何百何千時間を要する訓練が、コンピューターの高速な処理速度により数分で完了するということだ。

Habitat自体は仮想世界ではなく、むしろシミュレーション環境を構築するプラットフォームだ。既存のシステムや環境(SUNCG、MatterPort3D、Gibsonなど)との互換性があり、利用者が現実世界の何百倍もの速度で効率的に訓練を実行できるよう最適化されている。

しかしFacebookは、仮想世界の最先端をさらに一歩進めたいとも考えている。そして作り出したのが「Replica」だ。これはHabitatのためのデータベースで、キッチン、浴室、ドア、長椅子が置かれたリビングルームなど、家全体を構成するあらゆる部屋の写実的なモデルが保管されている。FacebookのReality Labsが、現実環境の写真撮影と深度マッピングという血の滲むような作業の末に完成させた。

  1. habitat3

  2. replica1

  3. replica2

そこに再現された世界は非常に精細ではあるが、一部にノイズが見られる。とくに天井や手の届かない場所に多い。それはおそらく、AIビジョン・エージェントの動作には関係のない天井や部屋の遠い角などは、細かく再現する必要がないためだろう。椅子やテーブル、廊下を規定する壁などの形状のほうが、ずっと重要だ。

しかし、もっと重要なことは、開発チームが3Dデータに無数の注釈を加えたことだ。3D環境をただキャプチャーすれば済むというものではない。オブジェクトやサーフェイスには、一貫性のある完全なラベルを付ける必要がある。長椅子も、ただの長椅子ではなく、グレーの長椅子で青いクッションが複数置かれている長椅子という具合にだ。エージェントのロジックに応じて、それが「柔らかい」のか、「ラグの上に置かれている」のか「テレビの横」にあるのかなどの情報が必要になったり、ならなかったりする。

HabitatとReplicaは、意味論的ラベルごとにひとつの色で示される。

だが、こうしたラベル付けをしたお陰で、環境の柔軟度が高まり、包括的なAPIと作業言語は、「キッチンへ行きテーブルの上の花瓶の色を教えろ」といった複雑な複数の段階を含む問題をエージェントに与えることが可能になる。

結局のところ、このような支援は、たとえば家の中を自由に歩き回れない障害者を補助するなど、人の助けになることが想定されているが、それにはある程度の機転が利く必要がある。HabitatとReplicaは、そうした機転を養う手助けをするものであり、エージェントに必要な訓練をさせるためのものだ。

以上のような進歩があったとは言え、Habitatは完全に現実的なシミュレーター環境に至るまでの小さな一歩を踏み出したに過ぎない。ひとつには、エージェント自身が現実に即して再現されない点がある。ロボットの身長は高いものもあれば低いものもある。車輪で走行するのか脚で歩くのか、深度カメラを装備しているのかRGBなのか、さまざまだ。不変のロジックはある。たとえば、長椅子からキッチンまでの距離はロボットのサイズが違っても変化しない。しかし、変化するロジックもある。小型のロボットはテーブルの下を潜れるが、テーブルの上に何があるかを見ることができない。

Habitatは、さまざまな仮想ビジョンシステムで物を見る。

さらに、Replicaや、それに類するその他あまたの3D世界では、視覚化されたシーンの中に写実的に環境が描画されるのだが、これらは、物理法則やインタラクティブ性という意味においては、ほぼまったく機能しない。寝室へ行ってタンスの上から2番目の引き出しを見つけるように指示はできるが、引き出しを開けさせることはできない。実際には引き出しは存在しないからだ。そのようにラベル付けされた絵があるだけだ。動かしたり触れたりはできない。

見た目よりも物理法則に力を入れたシミュレーターもある。「THOR」などは、AIに引き出しを開けるといった実作業を教えるためのものだ。これは、一から教えようとすると驚くほど難しい作業になる。私は、THORの開発者2人にHabitatのことを聞いてみた。彼らは、AIが移動や観察を学ぶための非常に写実的な環境を提供するプラットフォームとして、Habitatを口を揃えて称賛した。しかし、とりわけインタラクティブ性が欠如しているために、学べることに限界があるとも指摘していた。

だが、どちらも必要であることは明らかであり、今のところ、それぞれが互いに代わりを務めることはできない。シミュレーターは、物理法則的にリアルになるか、見た目にリアルになるかのいずれかなのだ。両方は無理だ。しかし、Facebookも他のAI研究室も、それを目指して頑張っていることに間違いない。

[原文へ]

(翻訳:金井哲夫)

ロボットが人間の動きを予測するためのより良い方法をMITが開発

工場や建設現場で、人間とロボットが一緒に作業することは、非常に大きな可能性を秘めている。しかし、特にロボットが大型でパワフルな工業用である場合には、人間に対しての信じられないほどの危険性もあわせ持っている。

ドイツのロボット大手ABBによって製造されたYuMiのような製造機械などをはじめとして、「コロボティックス(協調ロボット)」を現実のものにするために、多くの努力が注がれている。だが、MITの研究者によって作成された新しいアルゴリズムは、人間とロボットが一緒に働くことを、さらに安全にするために役立つ。

自動車メーカーのBMWとの共同作業を通して、現在の製品ワークフローを観察していた研究者たちは、ロボットが工場内の人間に注意を払う際に、過剰なほど用心深いことに気が付いた。ロボットたちは自分の動線上を横切ろうとする人間が、実際にその行動を行う遥か前から待ちに入ることによって、生産に使えたかもしれない時間を失っていたのだ。

今回研究者たちが開発したのは、ロボットが人間の動線を予想する能力を大幅に改善するソリューションである。通常なら、あまりはっきりしなくても人間になんとなく似たものの前では停止してしまうロボットたちを、人間が歩く流れの周りに回避させながら、動作を継続させるのだ。

研究者たちは、通常行われるような(比較的一貫した移動経路を予測する場合にはとても優れている)音楽や音声処理に対するアルゴリズム予想を借用することは避けて、その代わりに、以前に収集した参照軌跡の大きなライブラリを使用してリアルタイムの軌跡データを参照する「部分軌跡」方法を案出した。

これは人間の動きを予測するより優れた方法だ。たとえ同じアクションを何千回も繰り返している工場労働者であったとしても、人間の動きは一貫性がなく頻繁に止まったり動いたりしているからだ。

これは潜在的な消費者アプリケーションの可能性も秘めている。研究者たちによれば、家庭内の人間のうごきでもこの手法を使った方がより良く予測できると言う。例えば、そのことは長期的観点から眺めた場合の老人ケアなどの役に立つだろう。

[原文へ]

(翻訳:sako)

DJIが教育用戦闘ロボット「S1」を発売

つい1カ月足らず前、DJIOsmo Actionを発売して、ジンバルとドローンの世界から手を広げ、この新しい アクションカメラによってGoProを射程圏内に捉えた。そして今度はさらに新しいカテゴリーに挑戦する。教育用戦闘ロボットだ。

RoboMaster S1は一見畑違いにも思えるが、ロボティクスはDJIのDNAの一部であると同社はすかさず指摘した。ファウンダーでCEOのFrank Wang氏は、大学でロボティクスを学び、最近では中国でRoboMasterという戦闘ロボット競技会を毎年開催している。

S1は、同社のMavicシリーズと同じく消費者向けに焦点を絞った商品だ。教育分野に初めて本格参入する商品でもあり、46の部品を組み立てる必要がある。さらに価値を発揮させるためにはコーディングも学習しなくてはならない。

S1(DJI曰く、Step 1の省略形)の対象年齢は14歳以上で、実際非常に魅力的なロボットだ。4つの車輪がついていて、時速8マイル(13km)で走ることができる(ハックすればもっと速くなるらしい)。上部には戦車を思わせる回転可能な砲塔を備え、毒性のないゲル弾を発射する。散らからない戦いのために赤外線砲も用意されている。

センサーを31個搭載し戦闘中に撃たれたことを検出する。操縦者は専用アプリを使って車載カメラ経由の一人称視点でロボットを操作する。また画像認識を利用して障害物を検知したり他のS1ロボットから信号を受け取ることもできる。

ロボットには6種類の認識機能がある。フォローモード(他のS1ロボットを追いかける)、ジェスチャー認識、S1認識、拍手(音声)認識、線の追尾、および目印を使って移動するためのマーカー認識だ。ユーザーはアプリ経由でロボットを手動で操作することもできる。

ハードウェアのカスタマイズはあまりできないが、後部にパルス幅変調(PWM)ポートを6基備えているので、上級者はサードパーティー製ハードウェアを追加してロボットを強化できるだろう。ソフトウェアに関しては、Scratch 3.0またはPythonを利用して、「撃たれたら後方転回」(後方から撃たれたときに砲台を後ろに向ける)などの機能をプログラムできる。

ロボットは本日から購入可能で、価格は499ドル(日本では6万4800円)。また同社は標準PlayMoreキットも発売し、予備バッテリーとコントローラーにたくさんの砲弾ビーズが入っている。こちらは来月から出荷予定だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Amazonが倉庫用新型ロボット2種を発表

米国時間6月4日、Amazonは第1回re:MARSカンファレンスを開幕し、Boston DynamicsのMarc Raibert氏、Disney ResearchのMorgan Pope氏とTony Dohl氏という豪華なゲストを基調講演に招いた。午前のビッグイベントでは、再び自からの活動に焦点を当てた。同社のロボティクス事業だ。

Amazon RoboticsのBrad Porter副社長は壇上に登り、同社のフルフィルメントセンターの自動化を加速するべく作られた新しいロボット2体を披露した。その1体のXanthusは、同社が2012年にKiva Systemsを買収して以来、戦略の中核を担っていた主力ロボットを大きく改訂したものだ

モジュール性を特徴としているのはライバルのFetchらと同様だ。基盤となる駆動装置を使うことで、社内のロボティクスチームは、同じ基本システム上でさまざまな倉庫向けにカスタマイズしたロボットを開発できる。Amazonは、今週ラスベガスで行われるショウで、Xanthus Sort BotおよびXanthus Tote Mover台を展示する予定だ。

いずれもフルフィルメントセンターの中で荷物を移動する、という同じ仕事のさまざまな側面に着目している。今年同社は、米国内に広がる25のフルフィルメントセンターで10万台以上のロボットが稼働しており、これは配送をさらに早めようという小売業界巨人の戦略の一環だ。最近は、大部分の荷物を翌日配達することに力を注いでいる。

現在同社は、全世界のロボット台数を20万台に拡大したと言った。この数字には社内システムおよびサードパーティーシステムの両方が含まれる。

もうひとつの新型ロボットがPegasusシステムだ。これはKivaのロボティックドライブと同様の能力を持つが、Kivaが大型の棚を備えてフェンスに囲まれた「グリッド」の中を動き回っているのに対して、Pegasusは個別の荷物を仕分けして運ぶ。すでに800台のPegasusロボットが一部のAmazonフルフィルメントセンターに配置されている。

こうした個別パッケージ配送システムは倉庫内の効率をさらに高めると同社は考えている。

「我々は、安全性、品質、配送速度、および運用全体の効率を高めるソリューションとロボティクスを常に試験・試行している」と広報担当者がイベントで配られた声明文の中で言った。「当社の新しいPegasusドライブユニットは、仕分けのミスを減らし、損傷を極力抑え、配送時間を短縮する。Xanthusファミリーの駆動装置は革新的デザイによって技術者がさまざまな運用ソリューションを開発することを可能にした。すべて同じハードウェアに新しい機能アタッチメントを付加することで作られている。当社の運用ネットワークにロボティクスと新規テクノロジーを加えることで、今後も協力会社や顧客の満足度を高めていけると信じている」

[原文へ]

(翻訳:Nob Takahashi / facebook