ロボットはそっとつかんだり、倒れても起き上がれるようになった――適切なユースケースを考えよう

現在のロボットの能力は驚異的レベルに達しているが、特定の分野を除いて活用は進んでいない。ここではロボットの物理的柔軟性ではなく、人間の頭の柔軟性が何より求められるところだ。この記事では新たな能力を獲得した3種類のロボット・テクノロジーを紹介する。最初のロボットは複雑、微妙な作業ができる手を備える。2番目は倒れても自力で起き上がれる。3番目は過去に一度も見たことがない視覚的指示に基づいて行動できる。

これらのロボットは別々の組織で独立に開発されたものだが、今日(米国時間1/16)、 Science誌のロボティクス特集号で一堂に会して紹介されている。テクノロジーとして興味深いだけでなく、それぞれにロボットが現実世界で活躍できる場面を拡大するものと思う。

マジック・ハンド…

それぞれの仕事にはそれに適したツールを使う必要がある。人間の腕の端には非常に万能性が高いツールが付属している。われわれは対象を指先でそっとつついたり、柔らかく持ち上げたりできる。この能力があるのでわれわれは対象の重さや硬さを知り、卵を割ったり、他の道具を使ったりできる。

これまでのロボットの「手」にはこうしたことができる能力がなく、これがロボットの応用範囲を狭める大きな原因となってきた。カリフォルニア大学バークレー校で開発されたロボットはピンセット式に加えて真空吸引式で対象をつかむことができる手を備える。これによって対象の性質を認識し分類することが可能になる。

この両方の能力を備えたロボットは、ニューラルネットワークによりその場の試行錯誤でどちらか適した方式を選択できる(位置認識には3D画像認識が用いられている)。これによりロボットはこれまでに見たことがない対象に対しても適切に対処できる。.

下のGIFではロボットはぬいぐるみを吸引カップでつかもうとして失敗すると即座にピンセット式に切り替えてつまみ上げることに成功している。このシステムはロボットの対象物のハンドリング能力を飛躍的に拡大する。さまざまなアイテムが混在する倉庫でロボットと作動させる場合などを考えれば重要性がわかるだろう。

バークレー校でロボティクスを教えるKen Goldberg教授は、取材に対して「ニューラルネットワークにはブラックボックス的部分が残るため、Dex-Net 4.0ロボットがどのような基準で手を使い分けるのか完全に知ることはできない。しかし一定の傾向は認められる」とメールで答えている。

倒れても起き上がれるANYmal

すでに4脚ロボットはあらゆる地表条件で安定して歩行できる能力を備えている。しかもつまづいても(意地悪な人間に蹴られた場合でさえ)態勢を立て直すことができる。しかしひどく倒れた場合は起き上がることができなかった。

これはロボットの脚が直立した状態に適したメカニズムになっているためだ。しかしわれれわれも紹介したANYmalはスイスのチューリヒ工科大学(ETH Zurich)で開発されたロボットでさらに高い柔軟性を備えている(Continentalは宅配サービスへの利用を考えている)

もちろんロボットの柔軟性が高くなればもっとも適したユースケースを決めるはそれだけ難しくなる。そこでどんな応用が効果があるかを決定するシミュレーション・システムを使う方法が提案されている。

もちろんすべての状況をシミュレーションすることはできない。現在ある種の対象はシミュレーター内で正確に再現することが困難だ。しかしシミュレーターを使うことで今まで考えられなかった新しい適用分野が発見されることもあるし、効率化が大きく進むこともある。たとえば下の画像を見てみよう。

robot

どんな倒れ方をした場合でも脚を自由に動かせる空間がありさえすればANYmalは同じ方法を用いて難なく立ち上がる。しかしこれは最初からこのようにアルゴリズムを組んだ結果ではない。シミュレーションを無数に繰り返し、そのつどアルゴリズムにフィードバックさせていくうちにこのような洗練された動作ができるようになったのだという。

イケアの家具を組立てられるようになる…?

眼の前に3つのトレイが置かれているところを想像してみよう。左右のトレイは空だが中央のトレイには赤いボールと緑のボールがいくつか並べられている。そこで下の図のような紙を渡されたとしよう。

普通の知性を備えた人間ならこの紙を操作の指示として解釈を試みるだろう。赤丸の下に左向き矢印、緑の丸の下に右向き矢印がある。では赤いボールは左のトレイに、緑のボールは右のトレイに移せばよいと考えるのが普通だ。

われわれは普段何気なくこうした結論に達している。しかしこの種の直感的解釈には膨大な情報処理が行われている。紙に印刷された赤い丸が現実空間の赤いボールを意味しているとどうやったら判断できるのか? 形の類似だろうか? 矢印についてはだろうだろう? どうやって矢の向きを判断しているのか、またその向きがボールを移動するときの方向だと分かるのはなぜだろう? そもそも渡された紙が作業指示書だと判断できる理由は? 疑問は無数に出てくる。ロボットに初めて見る指示書を見せて動作を行わせるのがいかに困難か想像がつくと思う。

Vicarious AIのMiguel Lázaro-Gredilla のチームは「赤い丸、緑の丸」のようなできるだけ単純化した例を用いて、抽象的な指示でロボットを正しく作動させる研究に取り組んでいる。

もちろん実験はまだ初歩的な段階だ。しかしロボットに直感や常識をもたせることが可能であれば、やがて製品に付属する指示書を解読してイケアの家具を組み立てることだってできるはずだ。その段階に到達するまでにはまだかなりの期間が必要らしいが、それを言うならロボットが倒れたら最後起き上がれなかったのはそんなに昔のことではない。もちろん当時はロボットが対象物をつかむのに真空カップを使うかピンセットを使うかその場で判断することもできなかった。

ここで紹介したロボットのコンセプトやデモの詳細についてはScience Roboticsサイトで知ることができる。

原文へ

滑川海彦@Facebook Google+

評価額最高のAIスタートアップSenseTimeが常総市に自動運転車のR&Dと公園的な試走施設を開設

評価額が世界一高い人工知能スタートアップSenseTimeが、日本に舞い降りた。この北京に拠を置く企業は金曜日(米国時間1/11)に、日本の歴史都市常総市に自動運転技術のための施設をオープンした、と発表した。同社はこの、東京から50キロメートルの都市で、自動運転車の研究開発とロードテストを行なう。

日本における同社のこの拠点施設は、2017年の、日本の自動車大手Hondaとの協定に基づくものであり、両社が共同で自動運転技術の開発を行っていく。Alibabaが支援するSenseTimeはこの前45億ドルあまりと評価され、中国各地の小売商店や病院、警察などに導入されているオブジェクト認識技術がいちばんよく知られている。Bloombergによると今週同社は新たに、20億ドルを調達中である。

生後4歳のSenseTimeは、日本に機会を見出そうとしている中国の唯一のAI企業ではない。中国最大の検索サービスBaiduも、隣国に自動運転車を持ち込もうとしており、それを可能にしたのがSoftBankのスマートバスプロジェクトSB Driveと中国の自動車メーカーKing Longとのパートナーシップだ。

日本は近年、AIと自動運転車技術への大型投資を推進しており、それにより高齢化と労働人口の減少に対応しようとしている。日本政府の構想では、オリンピックが行われる2020年に自動運転車を東京の公道上で実用化する。日本の首都は昨年の8月に、自動運転タクシーの試行に成功している。

SenseTimeの試走公園(test park)は、日本の高名なイノベーションハブ筑波研究学園都市に近く、公園として地元住民に開放される。住民たちは、いずれ自分たちが乗ることになる自動運転車を、至近距離で見物できる。

常総市長神達岳志が声明文でこう述べている: “同社が自動運転技術のR&Dセンターを当市に置かれることは、まことに喜ばしい。自動運転車は、交通システムに革命的な変化をもたらすだけでなく、地方の交通問題の解決にも資すると思われる。SenseTimeの助力により、自動運転車が常総の路上を走行するところを見ることが、待ち遠しい。それが実現するためなら、われわれはいかなる支援も惜しまないつもりだ”。

画像クレジット: SenseTime

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Caperのスマートカートでレジなしショッピングへ――天井カメラ方式より安価で商品推薦もできる

Casper

小売業者はみなAmazonという怪物に反撃する方法を模索している。しかし顧客がレジの前に行列を作らなくてもする自動化スーパーを作るためには、天井のいたるところにカメラを設置し、映像を逐一リアルタイムで処理しなければならいというのでは参入の障壁が高すぎる。

スタートアップのCaperはもっと低コストで簡単にレジの行列を無くすことを目指している。これには顧客に最も馴染みがあるデバイスを利用する―ショッピングカートだ。

Caperはバーコードとクレジットカードのスキャナーを内蔵したショッピングカートを提供している。しかしこのスタートアップの最終目標は3D画像認識とスマート秤を利用して顧客がカートに商品を入れるだけで購入が済んでしまうテクノロジーだ。
Caperでは「われわれのカートを導入したストアでは顧客の支出が18%アップしている」と述べている。

Caperのカート

今日(米国時間1/10)、Caperは総額300万ドルの資金を調達したことを明らかにした。これには名門のFirst Round Capitalがリードしたラウンドの215万ドルに食品事業を得意とするエンジェル投資家が加わった。
Instacartの共同ファウンダー、Max Mullen、Platedの共同ファウンダー、Nick Taranto、 Jet’s Jetblackの共同ファウンダー、Jenny
FleissにY Combinatorも加わっている。ニューヨーク圏では2つの店舗がCaperのカートを採用しており、さらに投資を拡大する計画だ。

ショッピング自動化は激しい競争を生んでいる。5000万ドルを調達したStandard Cognition、Pandoraの元CTO、Will GlaserのGrabango、 Zippin、Inokyoなどのスタートアップはすべて天井のカメラを利用してたショッピング・システムでAmazon Goのキャッシャーレス店舗の拡大.に対抗しようとしている。しかしCaperのアプローチは既存の店舗に手を加えず、ショッピング・カートを導入して自動化を達成しようとする。いわばプラグ・アンド・プレイ・システムだ。【略】

Caperは画像認識と秤を併用し、バーコードのスキャンなしにショッピング内容を判定する。

“チップスを買ったならグアカモーレも要るのでは?”

Caperの共同ファウンダー、CEO、 Lindon Gao

Caperではスマートカートの導入が店舗に大きなメリットをもたらすと期待している。まず第一に、キャッシャーとして働いていた人材を顧客のショッピングを助けるカスタマーサービスや在庫管理のために有効活用できる。全体として労働力の効率的な活用ができるようになる。
2番目に、導入コストが低いため、店舗経営者はリソースを顧客のショッピングを増やす努力に振り向けられる。3番目に、スマートカートによって収集されたショッピング・データを陳列方式の改善や品揃えなどに活かすことができる。.

Caperのカートには表示スクリーン付属しており、カートに何を入れたかを表示すると同時にセール情報やアイテムの推薦ができる。

スマートカートが天井カメラより優れている点の一つは、Caperのカートがショッピングの手助けや商品のプロモーションができる点だ。Casperでは将来、顧客がカートに入れた商品に基づいて関連するアイテの推薦ができるようにしようと考えている。顧客がチップスをカートに入れると「グアカモーレ・ディップがセールになってます。売り場はここです!」などと表示されるわけだ。食品や日用雑貨ばかりでなく、手持ちのバスケットでもCasperの推薦機能は有効だろう(コンビニやブティックの場合)。ただし小型化、軽量化にはさらに努力が必要となる。.

Casperのファウンダー、Gaoによれば、スマートカートの導入は現場ですでに大きな効果を挙げており、現在取り組んでいるのはカート製造のサプライチェーンの最適化だという。スマートカートのようなプロダクトは車輪やカゴから電子機器で多様かつ多数のパーツを必要とする。メインストリームの製品になるためには製造過程を最適化し、コストを最小にする努力が何より重要となる。しかもカートはノートパソkンなどとは比べものにならない手荒い扱いをされる。Gaoは「われわれが製造しているのは基本的にロボットであり、非常に頑丈でなければいけない。顧客はカートをいろいろな場所にぶつけたり、押し放してひっくり返したりする。われわれは戦車なみの耐久性を目指している」と述べた。

原文へ

滑川海彦@Facebook Google+

CESのGoogleテーマパークでトラムに乗ってきた――すっかりディズニーランドのレベル

企業がCESに参加するのはまず第一に注目を集めるためだ。 ところが我勝ちの騒音と混雑の中ではこれが非常に難しい。ライバルがもっと大きいスクリーン、もっと派手なブース、もっと有名なセレブを用意するからだ。

そこで今年のGoogleは新機軸を出してきた。なんとまるごとテーマパークを作ってしまったのだ。ゲストはトラム―おもちゃの列車に乗ってアシスタントの能力を体験できる。

GoogleはCESの会場、ラスベガス・コンベンション・センターの駐車場に巨大な2階建てビルを建てた。Googleアシスタント・ライドは2階すべてを占める。トラムに乗るために行列を作っているところから体験が始まる。アニマトロニクスの「おばあちゃん」が話しかけてくるし、プロジェクターがアシスタントができることを巧みなストーリーで紹介する。「おばあちゃんのお誕生日にケーキを持っていきましょう! アシスタントがお手伝いします!」という具合だ。ほんの数日しか続かないアトラクションのためにどれほどのリソースが費やされたか、考えるのも恐ろしい。

私は外聞をはばかるほど何度もディズニーランドに行っている。ラスベガスのテーマパークはGoogleのロゴを外してミッキーを潜ませれば完全にディズニーランドのレベルだ。実際このテーマパークはディズニーランドからヒントを得ているはずだ。行列を作って待っている間におばあちゃんが話かけてくるのは「トイ・ストーリー・マニア」でミスター・ポテトヘッドが話かけてくるのを思い出させる。星の効果は「ピーター・パン・空の旅」にGoogleがテクノロジー上の改良を加えたものだろう。

この事業にどれほどコストがかかったのか計算してみる気も失せるが印象に強く残るエキジビションを作るのが目的だったら成功だ。ライバルのはるか、はるか、はるか上を行っている。私の中の冷静な部分は壮大な無駄遣いと見ようとしているが…そんなことを言い出せばCES自体がそうだ。.

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

Amazonよりも大規模な店舗の自動化を狙って、Standard CognitionがExplorer.aiを買収

Standard Cognitionは、小売店たちがジェフ・ベゾスの強大な力に立ち向かうことを手助けしようとしている。これまでに5000万ドルの資金を調達している自動チェックアウト(自動精算システム)のスタートアップが、顧客がレジで立ち止まることなくドアから出て行くことを可能にする、スキャンレス支払いテクノロジーを、より大きな店舗に展開しようとしているのだ。Amazon Goが2000平方フィート(185.8平方メートル、56.2坪)の小規模店舗を展開している一方で、Standard Cognitionは2万平方フィート(1858平方メートル、562坪)以上のドラッグストアや食料品店の整備に取り組んでいる。その目的を果たすために、Standard Cognitionは、初の買収としてExplorer.aiを手に入れた

自動チェックアウトの会社が、自動運転車のスタートアップを買収するのはなぜだろう?なぜなら追跡する相手が、買い物客であろうと歩行者であろうと、現実世界の洗練されたマップが必要とされるからだ。マシンビジョンが正確であるほど、対応できる店舗は大きくなる。また、Standard Cognitionは、Amazonのようにすべての棚にカメラを設置するのではなく、天井に設置されたカメラを使用しているため、より広いスペースを見渡すためのコストがはるかに安い。

Standard Cognitionは、まだ設立されて1年を過ぎたばかりだが、Y Combinator、Alexis Ohanian、Garry TanのInitialized Capitalによる支援を受け、そして7人の共同創業者からなる動きの速いチームによって支えられているために、Amazonを圧倒することができると考えている。前に向かって飛躍するためには、できることは何でもする覚悟だ。Standard Cognitionはすでに社内にマッピング技術を持っていたが、Explorer.aiのチームと技術は、10万平方フィート(9290.3平方メートル、2810.3坪)もの大型店舗を自動チェックアウト時代へと進化させる目標を加速させることができた。

「それは西部開拓時時代を思わせます。最先端で出来たての熱々の機械学習研究の成果を使うのですから。私たちは論文を読んで、公開されてから数週間でそれを実装し、アイデアを現場に出して、実用に耐え得るものに仕上げます…最先端のものを、蹴飛ばしても壊れない頑丈な機械の中に実装するのです」と語るのは、Standard Cognitionの共同創業者兼CEOのJordan Fisherである。「それは容易な仕事ではありませんし、私たちが要求する正確性はひたすら増すだけなのです。私たちの次世代マッピングを構築することができる、世界レベルの技術者と研究者のチームを得ることに、私たちは本当に興奮しています」。

AV(自動運転)からAC(自動チェックアウト)へ

Explorer.aiが設立されたのも2017年である、それがこれほど素早く買収されたということは、自動運転と自動チェックアウトの市場がどれほどホットであるかを物語っている。Akshay Goel、Nagasrikanth Kallakuri、そしてTushar Dadlaniは、自動運転車のスタートアップたちが皆、独自の地図を作成しようとしていることに気づいた。彼らは、複数のプロバイダからのデータをまとめて、さまざまな目的に応じた特別なマップを作成した。ほどなく彼らに対してお金を払おうとする、彼らと似たような規模のスタートアップたちが現れた。彼らはStory Venturesや初期のFacebookエンジニアであるNick Heymanなどから、100万ドル弱の資金を調達し、7人の従業員のチームへと拡大した。

Explorer.aiの共同創業者たち

しかし、結局Explorer.aiは、大企業たちは慎重すぎて外部の地図に頼ることはなかなかしないだろうということ、そしてそれが受け入れられるためには何年もかかるだろうということに気が付いた。「私たちの見立ては、自動運転車のための地図が商業的成功を収めるためには、かなりの時間がかかるだろうということになったのです」とGoelは私に語った。「パートナーシップで協力していた会社たちのほとんどは、早い段階から私たちを買収しようとしていました。私たちはもっと資金を調達するべきだろうか、それとも買収プロセスを検討し始めるべきなのだろうか?」その資金が減少する中で、チームは自問した。

Explorer.aiは資金調達のためのタームシートをいくつか入手したが、市場に素早く出ていくことができるかどうかには確信を持つことができなかった。「ほとんどあらゆる買収相手を検討しました」とGoelは語った。だがその中に、自然な買い手の候補となるUberやGoogleのWaymoは含まれていたのかと尋ねた私の質問には答えて貰えなかった。しかし、それから彼らは小売という意外な方向転換をした。「私たちがわかったことは、当然のことながら自動チェックアウトに関わる安全性の問題は、自動運転に比べてはるかに少ないということでした。そのことでStandard Cognitionが市場により速く進出できること、そして私たちの持つマッピング技術が自動チェックアウトに大きなインパクトを持っていることもわかったのです」。

両社は買収の金銭的条件を明らかにしなかったが、Fisherは私に対して「それは間違いなく競争的なプロセスでした。私たちはExplorerチームの気持ちと理解をしっかりと掴むことができたことに満足しています」と語った。彼らは、米国と日本の小売店におけるパイロットプロジェクトで働くために、Standard Cognitionの40人以上の従業員たちの一員として加わる。Goelは「投資家、創業者、そしてチームはみな満足しています」と付け加えた。すなわちこれは手にした金額が調達金額を上回ったことを意味している。

Explorer.aiは、Standard Cognitionが買収する前には、自動運転車のためのマップを作成していた

Standard Cognitionの顧客たちが問いかけている大きな疑問は、自動チェックアウトは費用対効果が高いのか、顧客にとって理解はしやすいのか、そして万引きによって利益が損なわれることは無いのかということだ。それはすなわち、設置費用を最小限に抑え、慣れやすくすることと指示を完全なものとし、誰かが商品を棚に戻したのか上着の中に隠したのかを区別できるようになる必要があるということだ。スタートアップは、きちんとシステムが動作することで、人間のレジ係はコンシェルジェとして生まれ変わることができると信じている。彼らが買い物客たちの探しものを見つける手助けをし、レジの列に並ばなくてもより多くの商品を買うことができるようにするのだ。

Standard Cognitionの共同創業者兼CEOのJordan Fisher

「どのようにすればこれを、スーパーの中で誰も故障することを心配することをしないレジのような、頑丈で動き続けるシステムにすることができるのか?」という問いこそが、Fisherと彼の新しい同僚たちが解決しなければならない課題である。「Amazonは全ての棚に数インチごとにセンサーを配置する、私たちが『棚ベースのアプローチ』と呼ぶ方法を追求しています。この方法があまり良くない点は、費用が高いことや、電気システムおよびコンピューターシステムが複雑なところです…これが自動チェックアウトがAmazon Goに適用されていて、より大きなWhole Foodsストアには適用されていない理由なのです。Amazonにやる気が欠けているのではなく、彼らのアプローチには技術的に無理があるからなのです。まあ数年のうちには、彼らはその課題に取り組むとは思いますが、現時点では彼らは自分自身の技術に縛られているのです」。

このため、Standard Cognitionは、独立系の小売店やチェーン店にAmazonと戦うための武器を与えることで、可能な限り素早くリードを奪いブランドを構築しようと努力している。Standard Cognitionはまた、元PandoraのCTOであるWill Glaser率いるGrabango(本日1200万ドルの調達を発表した)のような、他の自動チェックアウトスタートアップたちにも打ち勝たなければならない。Grabangoは現在、最大2万5000平方フィート(2322.6平方メートル、702.6坪)のサイズの米国の4つの小売チェーンと契約を結び、37人の従業員を擁している。Mountain Viewにポップアップショップを持つY Combinator出身のスタートアップInokyoもある。またTrigo Visionは200以上の店舗を持つイスラエルの食料品チェーンと取引をしている。

「1ヶ月前には、買収のことは念頭にありませんでした」とFisherは明かす。「私たちの目標は、自動チェックアウトを世界に提供することだけではなく、それを驚くほど迅速に行うことなのです。私たちは宇宙競争の始まりにいるのです。今から2〜3年後には、これは自動運転車と同じくらい混み合う可能性があると思います。私たちは現在リードしていますが、それはまだ十分なものではありません。私たちが望むだけの市場を獲得するには、私たちは数光年先を行く必要があるのです。(Explorer.aiの買収で)私たちは何日前に進むのでしょうか?世界征服のためのロードマップに沿って、私たちをどれほど前に進めてくれるのでしょうか?この買収で実際に目にできのは、確かなもので、ロードマップを真に進めてくれるものだったのです」。

[原文へ]
(翻訳:sako)

CES:LEDダウンライトにAlexaとJBLスピーカー内蔵――スマートホームのハブになる

一見するとなんでもない天井の照明だが、スマートホームを実現してくれる優れものだ。天井取付型のJuno AI ダウンライトはLEDランプの他にAmazon AlexaとJBLスピーカーを内蔵している。

Amazon Echoにテープルの一等地を占領させたりず、デバイスを視界の外に出してスマートホームを実現しようというアイディアだ。 このダウンライトは普段は目立たずに天井で待機しているが、呼びかけられると各種のデバイスの操作、音楽の再生などEchoができることをなんでもこなしてくれる。

Smart Home at CES 2019 - TechCrunch

Acuity Brands Lightingの副社長、住宅設備事業担当ジェネラル・マネージャーのJeff Spencerはプレスリリースで「いくつかのテクノロジーを統合することで、どんな家も多額の費用をかけず、簡単にスマートホームにできる。Juno AIは天井取付型なので目立たず、音声コマンドで各種コントロールが実行されるだけでなく内蔵のJBLスピーカーで優れたサウンド体験もできるようになった」と述べている。

こうしたデバイスはAmazonとGoogleがスマートアシスタントの機能とサードパーティーとの連携を強化するにつれて続々と登場するだろう。今年のCESを見るかぎり、AmazonもGoogleも単に自社のデバイスを売るよりもハードウェア・メーカーにテクノロジーをライセンスすることに力を入れているようだ。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

地球規模のカオスに隠されたパターンを抽出するAIを創るDARPA

複雑系の因果関係に関するもっとも有名な説明として、一匹の蝶が羽ばたくと、地球の裏側で台風が発生する、というものがある。その説明は思考を刺激してくれるかもしれないが、結局のところ役に立つことはない。われわれが本当に必要としているのは、1つの台風に注目したとき、それを引き起こした蝶がどれなのかを突き止めること。そして、できればその前に、その蝶が飛び立とうとするのを防ぐことだ。DARPA(米国防総省国防高等研究事業局)は、AIによってまさにそれが可能になるはずだと考えている。

この研究機関の新しいプログラムは、毎日のように発生する無数のできごとや、メディアの記事をふるいにかけて、それらの中に含まれる関連性の糸口、あるいはストーリーを識別できる機械学習システムを作ることを目指している。それはKAIROS(Knowledge-directed Artificial Intelligence Reasoning Over Schemas=スキーマによって推論する知識指向の人工知能)と呼ばれている。

ここで言う「スキーマ」は、非常にはっきりした意味を持っている。人間が自分の周囲の世界を理解する際に使う基本的なプロセス、という考え方だ。それによって人間は、関連するできごとを小さなストーリーにまとめている。たとえば、店で何かを買う場合を考えてみよう。通常は、まず店に入ってモノを選び、それをレジに持っていく。すると店員がそれをスキャンして、あなたはお金を払う。その後で店を出るのだ。この「何かを買う」というプロセスは、誰にでも分かるスキーマだろう。もちろんその中には別のスキーマ(製品を選ぶ、お金を払う)を含むことができるし、それがまた別のスキーマ(贈り物を送る、家で料理を作る)に含まれることもある。

こうしたことは、われわれの頭の中で想像するのは簡単だが、コンピュータシステムが理解できるよう、明確に定義することは驚くほど難しい。人間にとっては、長い間慣れ親しんできたことであっても、自明のこととは限らないし、法則に従っているわけでもない。重力加速度によってりんごが木から落ちるのとはわけが違うのだ。

しかも、データが多ければ多いほど、定義するのは難しくなる。何かを買う、というのはまだ簡単な方だ。冷戦や弱気市場を認識するスキーマは、どのように作り出せばよいのだろうか? それこそが、DARPAが研究したいところなのだ。

関連記事:この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

「山のような情報、そしてその中に含まれる静的な要素の中から関連性を発見するプロセスには、時間的な情報とイベントのパターンが必要となります。現在利用可能なツールやシステムでは、そうしたことを大規模に実行するのは難しいのです」と、DARPAのプログラムマネージャ、Boyan Onyshkevychは、ニュースリリースで述べている

同機関によれば、KAIROSは、「一見何の関係もないように見えるできごとやデータを認識して相互関係を導き出し、われわれを取り囲む世界に関する幅広いストーリーを作り、伝えることの可能な、半自動のシステムを開発することを目指している」ということだ。

どうやって? 彼らには漠然としたアイデアはあるのだが、専門知識を求めているところだ。問題は、そうしたスキーマは、今のところ人間が労力をかけて定義し、検証する必要があるということ。それなら、最初から人間が情報を調べたほうがマシということになりかねない。そこで、KAIROSプログラムは、それ自身を教化するAIも組み込もうとしている。

初期のシステムは、大量のデータを取り込んで、基本スキーマのライブラリを構築することに限定される。本を読んだり、ニュース記事を追ったりすることによって、上で述べたような、候補となるスキーマの長大なリストを作成できるはずだ。さらにそれによって、愛、人種差別、所得格差など、AIによって扱うことが難しい問題に対するより広範囲でつかみどころのないスキーマに関するヒントを得ることができるかもしれない。また、その他の問題が、それらとどう関わってくるか、あるいは異なるスキーマ同士の関連性についても得るものがありそうだ。

その後で、複雑な現実世界のデータを調べ、作成したスキーマに基づいて、イベントやストーリーを抽出することができるようになる。

軍事および防衛面への応用は、非常に明らかだ。たとえば、すべてのニュースやソーシャルメディアの投稿を取り込んで、銀行の取り付け騒ぎ、クーデター、あるいは衰退傾向にあった派閥の再興などの発生の可能性を管理者に通知するようなシステムが考えられる。諜報活動員は、今現在もこのようなタスクに全力を尽くしている。人間が関わることは、ほぼ間違いなく避けられないだろうが、「複数のソースから備蓄が報告されています。化学兵器による攻撃の記事が広くシェアされ、テロリストによる攻撃の可能性が指摘できます」などと報告してくれるコンピュータのコンパニオンがいれば、歓迎されるだろう。

もちろん、現時点ではそうしたことはすべて純粋に理論的なものだが、だからこそDARPAが研究しているわけだ。その機関の存在意義は、理論を実用化することにあるのだから。もし失敗したら、少なくともそれが不可能であると証明しなければならない。とはいえ、現在のAIシステムのほとんどが、非常に単純なものであることを考えれば、彼らが創ろうとしているような洗練されたシステムは、想像するだけでも難しい。まだ道のりが長いことは間違いない。

画像クレジット:agsandrewShutterstock

原文へ

(翻訳:Fumihiko Shibata)

Googleアシスタントが会話通訳できるようになる

Hey Google、‘誕生日’をフランス語で何て言う?」と尋ねると答えてくれるように、Googleアシスタントがその時々の翻訳ができるようになってしばらくたつ。

しかしこれは、異なる言語を話す人たちの実際の会話ではあまり役に立たない。そのため Googleは“Interpreter Mode(通訳モード)”と呼ぶものを導入しようとしている。

たとえば、もしあなたの言語が英語で、フランス語を話す人と会話したい場合、“Hey Google、フランス語の通訳者になって”と話しかけて通訳モードを起動する。

すると、双方向で通訳が行われる。英語で話して数秒するとGoogle Homeがあなたの話した内容をフランス語で繰り返す。相手が話すときは、そのフランス語は英語で繰り返される。この機能は開始にあたって27言語に対応する。

通訳モードはまずGoogle Homeスピーカーと、Google Home Hubのようなスマートディスプレイで使えるようになる。そしてスマートディスプレイには翻訳された内容がその場で表示される。

これは家庭では面白いトリックになりそうだが、 Googleは主に小売やカスタマーサービスなどの現場で役立つとみている。たとえば、ホテルのコンシェルジュ席にスマートディスプレイを置けば、世界中からの宿泊客をこれまで以上にサポートできるかもしれない。

Googleは今週、CESが開かれているラスベガスのいくつかのホテルで試験運用し、その後一般向けに展開するーしかしGoogleにありがちなことだが、明確なサービス開始日は明らかにしていない。

[原文へ]

(翻訳:Mizoguchi)

GoogleのCES 2019発表まとめ――すべてスマートアシスタントが関係

今朝(米国時間1/8)、、ラスベガスで開幕したCESでGoogleはコンシューマー向けプロダクトを多数発表した。いちいち詳しく調べているヒマがなくても心配無用だ。以下にまとめを用意した。

  • Googleは「音声対話型アシスタントが今月末までに10億台のデバイスに搭載される」と発表。
  • Googleは今日からiOSとAndroidの双方でGoogleマップでアシスタントが使えるアップデートを配信開始。Google自身でモバイルOSとの連携を最適化できるためAndoroid版の方がやや機能が豊富だ。しかしどちらのバージョンでも非常に便利な機能だ。
  • 近くアシスタンからSonosスピーカーを制御できると発表。これは1年前から予告されていたが、いよいよ実際にリリースされるのだろう。新しいSonos OneとSonos Beamの場合、マイクがビルトインされるようだが、最終的にはマイク内蔵でないSonosでもGoogle
    Home経由でも操作できるようになる。
  • 2019版Samsung TVはGoogleアシスタント互換となる。実現するのは今年後半。ユーザーがGoogle Homeまたはこの種のデバイスを持っていれば、 Samsung TVとペアリングし、電源のオン・オフ、音量調整、チャネル選択などの操作を音声でできるようになる。
  • 衛星放送のDishがアシスタントを導入する。 ng yDishが提供する音声対応リモコンからHopperセットトップボックスが操作できるようになる。
  • アシスタントからフライトのチェックインとホテルの予約ができるようになる。今日はUAのみだが、他のキャリヤにも順次対応する。コマンドは“Hey Google, check into my flight”だ。
  • Lenovoは 価格80ドルのアシスタント内蔵置き時計を開発。ベッドの枕元に好適。
  • アシスタントに新しく通訳モードが追加される。72カ国語でリアルタイム音声通訳が可能。
  • GoogleはAssistant Connectプログラムをスタート。デバイスなどのメーカーが既存のGoogle Homeデバイスとの連携し、その能力を簡単に利用できるようになる。 大きな処理能力を必要とする力技はGoogle Homeデバイスが受け持つ。 eインクの電子書籍リーダーが天気予報やカレンダーなどの情報を表示できるところがデモされた。デバイス自身はネットに接続していないが、Google Homeに接続させることで必要な情報を取得、表示することが可能になっていた。
  • GoogleはバッテリーのAnkerと提携した。Roav Boltシステムは自動車の12V電源(昔はシガーライターと呼ばれていたソケット)で利用でき、車内でのアシスタントの利用が容易になる。BluetoothまたはAUXで接続される。またGoogleはハイエンド・オーディオのJBLとも提携、スピーカーにノイズキャンセル機能が組み込まれ、エンジン音やロードノイズを低減する。またいちいちスマーフォンをアンロックせずに車内でアシスタントが利用できる。

Google Assistant

お気づきのように、今年のCESでGoogleはスマートアシスタントにもっとも力を入れている。発表のすべてになんらかの形でアシスタントが関わっていた。Googleはコンベンションセンターの会場の正面に2階建てのビルを建てたが、全館がアシスタントのショーケースだ。Googleがアシスタントを検索の次にくるエボリューションとみていることが明らかになった。

すくなくとも今後Googleの一般ユーザー向けサービス、プロダクトにはアシスタントが重要な役割を果たすことになるのは間違いない。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

AIがビデオチャットに映る自分を自動でメイク、背景ぼかしも可能な「PerfectCam 2」

スタートアップで働く人や起業家のみなさんは、普段からビデオチャットで社内外の人と話す機会も多いと思う。僕もその1人で、直接会って話すほかにビデオチャットで取材を行うことも多い。

でも、そんな時に気になってしまうのが自分の画面に映る背景だ。自宅からビデオチャットをする時なんかは、ちょっと気を抜くと干しっぱなしの洗濯物が写り込んでしまうなんてこともある。オフィスの壁やホワイトボードに事業計画などの情報を書くことも多いであろう起業家のみなさんも、この「ビデオチャット背景問題」には共感してくれるはずだ。

その背景問題を解決してくれるサービスが登場したので紹介しておこう。台湾のテクノロジー企業であるサイバーリンクが本日発表したWebカメラプラグイン「PerfectCam 2」だ。

PerfectCamでは顔認識技術によって人物と背景を見分け、背景のみをぼかすことができる。リアルタイムで輪郭を抽出してぼかし効果を入れるので、ビデオに映る人物が動いていてもOKだ。これがあれば、背景に写り込んだ下着も黒い物体ぐらいにしか見えないだろう。ぼかしの度合いはスライダーで調節可能なほか、ビデオチャットに映る自分に美肌効果を加えるなんてこともできる。

ぼかし機能に加えて、PerfectCamには「ARバーチャルメイク機能」も搭載されている。これは、AR技術を利用してAIが自分の顔にお化粧をしてくれるという機能だ。プリセットとして用意されたメイクは9種類。ビデオ会議が始まる5分前までうっかり寝てしまっていたとしても大丈夫だ。

PerfectCamはTwitch、YouTube Live、Facebook Liveなどライブ配信プラットフォームのプラグインとしても機能する。だから、Web会議などの用途だけではなく、YouTuberが背景をぼかす必要のある場所で撮影を行うときなどでも利用できるだろう。PerfectCamのホーム画面からSkypeやGoogle hangoutsなどのビデオチャットアプリを直接起動することも可能だ。

PerfectCam 2はサイバーリンクのオンラインストアから購入可能。1500円の1ヶ月プラン、3780円の3ヶ月プラン、1万4580円の12ヶ月プランの3種類が用意されている。また、1月末には法人向けプランも始まる予定だ。

下の動画を観ていただくと分かるように、PerfectCamのバーチャルメイク機能とぼかし機能はかなり高いクオリティで実装されていると思う。気になる人はこちらのオンラインストアからチェックしてみるといいだろう。

SonyのノイズキャンセリングヘッドホンがAlexaを導入、声で音楽再生をコントロール

ノイズキャンセリングヘッドホンにスマートアシスタントがないことを想像してみよう。それは、2017年へのタイムスリップだろうか? でもありがたいことにSonyは、今日(米国時間1/7)のCESのプレスカンファレンスで、ついに人気製品WH-1000XM3にAlexaなかったことを解決した。

このヘッドホンは今年の第一四半期のどこかで、ファームウェアを改造してAmazonのスマートアシスタントを載せる。ボタンをタップするとAlexaに命令でき、音楽再生のあれこれを指示できる。スマートホームデバイスのコントロールなど、ふつうのAlexaの仕事もできる。

ファームウェアのアップデートはWH-1000XM3と並行して旧モデルWH-1000XM2と、インイヤモデルのWH-1000Xでも行われる。長年わが国の最大の悪夢であった、まだAlexaがあらゆるデバイスにはないという病弊が、快癒に一歩近づいた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CES 2019:Qualcomm、自動車用スマートコックピットを発表

CES 2019の開幕を控え、Qualcommはラスベガスでプレスカンファレンスを開催し、Snapdragon自動車コックピット・プラットフォームの第3世代を公開した。これは同社として最新のAIベースのスマート自動車コントロール・システムだ。伝統的なカーナビから未来的な音声コマンド操作まで幅広い機能がウルトラ・モダンなデザインのインターフェイスに統合されている。

このプラットフォームはパフォーマンス、プレミア、パラマウントという3つのレイヤーを持つ。これはそれぞれエントリーレベル、ミッドレベル、ハイエンドの層を意味するが、コアとなるテクノロジーは同一でSnapdragon 820Aプラットフォーム上に構築されている。820Aは同社のAIエンジン、信号プロセッサー、CPU、GPUなどハードウェアをすべて管理する。

Automotive at CES 2019 - TechCrunch

システムにはQualcommのHexagonプロセッサーが含まれる。これは自然言語処理や外界の対象の認識と分類、機械学習アルゴリズムをを動作させる。またQualcomm Visionカメラから得た画像データを処理するコンピューター・ビジョン・ハードウェアも搭載されている。

ただしこのコンピューター・ビジョンは自動運転のために用いられるわけではなく、「車線レベルの詳細なデータを得てクラウドソーシングでロードマップを作成するなど多様なユースケースに対応してドライバーの運転をサポートする」ものだという。つまり適切なコンテキストの下で社内外をモニターして安全性を高め、運転をサポートするドライビング・アシスタント・システムだ。【略】

自動車メーカーや関連企業は現在すでにこのプラットフォームおよびシステム開発ツールの利用が可能だ。

CES 2019 coverage - TechCrunch

原文へ

滑川海彦@Facebook Google+

空港などのX線セキュリティマシンの能力をニューラルネットでアップするSynapseがシードで$6Mを調達…成田空港で試験運用中

最近の数年間でコンピュータービジョンの技術は大きく進歩しているはずだが、それでもなお、空港などの安全が重視される場所では、大量のX線撮影装置がさらに大量の人間の手を借りて、武器などの発見に使われている。

Synapse Technologyが作っているコンピュータービジョン技術の製品は、既存のX線マシンに付設するハードウェアアドオンで、本体機の保証を無効にすることなく、ニューラルネットワークを利用するアシスタントが、スキャン対象に対する‘視力’を増強する。

同社はこのほど、Founders Fundと8VC、およびVillage Globalがリードするシードラウンドで、600万ドルを調達した。

これまでの同社の主な対象は、政府の建物や学校など重要施設のセキュリティチェックだったが、本当はもっと大きな市場として空港をねらっている。空港も当然、同社の技術の市場だ。Synapseは現在、日本の成田空港でパイロット事業を行っており、同社によると、そのスキャナーにより禁止品目の検出率が従来に比べ14%増えたそうだ。

これまで500万あまりのバッグをスキャンしたが、今後は検出品目をもっと多様化していきたい、という。たとえば今同社は、その技術で3Dプリントされた武器を検出するテストを行っている。

Synapseの社長Ian Cinnamonは、本誌インタビューでこう語った: “これまでのX線マシンは物の判定を人間の目に頼ってきたから性能に限界がある。わが社のソフトウェアとAIは、人間よりも高い精度で武器を自動的に検出する”。

Synapseの技術は、機内手荷物の中の洗面用品をチェックするわけではない。現在の同社の技術は、銃や、ナイフのような鋭利な品物の検出にフォーカスしている。同社によると、空港の保安担当者たちの仕事が楽になるだけでなく、同社のAI技術により、今までは見つけられなかった大きな電子製品の中に隠されたオブジェクトを、彼らは見つけられるようになる。だから将来的に旅客は、自分のバッグの中にラップトップがあるだけではセキュリティチェックにひっかからなくなる。

空港の禁止品目は今どんどん増えているから、Synapseのねらいは人間労働者を置換することではなく、彼らが実際に調べなければならない品物の数を減らしてあげることだ。“わが社のアルゴリズムが活躍するようになればなるほど、人間労働者の能力もアップする”、とCinnamonは言っている。

今回の資金は、もっとさまざまな重要施設で同社のプロダクトが使えるようにするための技術開発と、新規雇用の増大に充てられれる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

この利口なAIは課せられたタスクをやり遂げるずるい方法を人の目から隠した

スタンフォード大学とGoogleのこの共同体研究は、見る人によって怖かったり、素晴らしかったりするだろう。航空写真から街路地図を作ったり、その逆もやる機械学習のエージェントが、“人間にはほとんど感知できない高周波の信号”を画像中に隠しておくことによって、ある種の騙し技(だましわざ)ができるようになるのだ。すごく賢い子に!

この現象は、コンピューターに最初からつきまとっている問題をあらためて思い出させる。コンピューターは、やれと言われたことを、そのとおりにやってしまうのだ。

研究者たちの意図は、読者にもすでにお分かりだろう。衛星画像をGoogleの正確なことで有名な地図に換える処理を、彼らはもっと速くしたいのだ。そのためにチームが作ったニューラルネットワークCycleGANは、大量の実験を経て、タイプXの画像(例: 航空写真)をタイプYの画像(例: 街路地図)に、正確かつ効率的に変換する。

初期の結果は、良好だったが、どこかがおかしかった。気になったのは、街路地図から元の航空写真を再構築するとき、前者(街路地図)にはない細部が大量に再現されてしまうことだ。たとえば、屋根からの太陽光の反射は街路地図を作るとき排除されるが、再構築された航空写真には魔法のように再現されている。

左が最初の航空写真、中央がそれから生成された街路地図、右は街路地図だけから生成された航空写真。どちらの航空写真にもあるドットが、街路地図にはない。

ニューラルネットワークが行なう処理の内部を覗き見することはきわめて困難だが、それが生成するデータを調べることは容易にできる。そしてささやかな実験から分かったのは、CycleGANが実は、人を騙していることだった。

エージェントに期待されているのは、各タイプのマップの特徴を正しく解釈して、それらを他方のマップの正しい特徴へマッチさせることだ。しかしエージェントの実際の評価では、再構築された航空写真がオリジナルに近いことと、街路地図の明確さが重視される。その重視のもとに、ニューラルネットワークの訓練も行われる。

そこでエージェントが学習したのは、XからY、YからXを作ることではなく、元の画像の特徴を変換後の画像のノイズパターンへと秘かにエンコードすることだった。航空地図の細部が、街路地図の視覚的データの中へこっそりと書き込まれた。それらは、人間の目には気づかない何千もの小さな色の変化として書き込まれたが、コンピューターはそれらを容易に見分けることができる。

そういう細部情報を街路地図の中へ忍ばせることはコンピューターの得意技のひとつだから、それは、“航空地図を街路マップの中へエンコードする”ことを学習した!。もはや、“リアルな”街路地図を作ることなど、彼の念頭にはない。航空地図の再構築に必要なすべてのデータを、完全に別の街路地図の上にも無害に書き込めることを、研究者たちは確認した:〔下図の下が“完全に別の街路地図”〕

右の航空写真が、変更や加工なしで左の地図の中へエンコードされた。

上の’c’のカラフルなマップは、コンピューターが意図的に導入したわずかな違いを視覚化している。どちらも航空地図の形を維持していることが分かるが、それは誇張や強調など、特殊な視覚化処理をしたから人間の目にも見えるだけである。

データを画像中にエンコードする技術は、ステガノグラフィ(steganography)と呼ばれ、画像の透かしや写真のメタデータ(撮影データ)として前から利用されている。しかし、コンピューターが自分に課せられた学習から逃れるために自分でステガノグラフィ作るのは、これが初めてではないか。この研究が発表されたのは昨年(2017)だから、‘最新’とは言えないかもしれないが、相当新しいことは確かだ。

これを、“機械が自力で賢くなった”として、もてはやす人もいるかもしれないが、実態はむしろその逆だ。機械は、高度な画像の各種タイプを互いに変換する難しい仕事ができるほど賢くはないから、人間にばれないような騙し技を見つけたのだ。エージェントの結果を、もっと厳しく評価していたら、それは避けられたかもしれない。研究者たちは、その方向へ進んだ。

例によって、コンピューターは求められたことを正確に行なう。だから、コンピューターへの指示は、きわめて詳細でなければならない。今回の場合、コンピューターが見つけたソリューションは、このタイプのニューラルネットワークの弱点に光を当てたという意味で、興味深い。コンピューターは、明示的に禁止されていないかぎり、詳細情報を自分に伝える方法を見つけて、与えられた問題を迅速簡単に解こうとするのだ。

実はこれは、コンピューティングの古い格言、PEBKACが教えていることでもある。“Problem Exists Between Keyboard And Computer”…問題はキーボードとコンピューターの中間にある*。人間に反逆するコンピューターHALも、“問題はすべて人間のエラーが原因だ”と言っている。〔*: 正しくは、Problem Exists Between Keyboard and Chair, キーボードと椅子の間、すなわち人間。〕

彼らのペーパー“CycleGAN, a Master of Steganography,”(ステガノグラフィの達人CycleGAN)は、2017年のNeural Information Processing Systemsカンファレンスで発表された。Fiora EsotericaとRedditのおかげで、このちょっと古いけどおもしろいペーパーを知ることができた。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

アメリカでスマートスピーカーは2018年に臨界質量に達した(世帯普及率41%)

今年は、Alexaにとって良いクリスマスだった。そのアプリはApp Storeで連日トップだったし、Alexaを動かすサービスが新しいユーザーの殺到で一時的にクラッシュしたほどだ。でもAlexaにとっては、Google Homeなどそのほかのスマートスピーカーデバイスと共に、ホリデーシーズンだけでなく今年全体が良い年だった。アメリカのスマートスピーカーの世帯普及率は2018年に41%に達し、2017年の21.5%に比べて倍近い増加だ。

RBC Capital Marketsのアナリストたちが12月にリリースした一連のレポートによると、アメリカにおける世帯普及率の倍近い増加は主にAlexaとGoogle Homeデバイスによるものであり、AppleのHomePodの貢献は小さい。

アナリストたちによると、スマートスピーカー全体の普及率41%のうちその約3/4、31%はAlexa対応デバイスが占める。ただし1世帯複数保有もあるので、Google Homeデバイス等=(41-31)=10%とはならない…後述。

彼らの予測では、2021年のAlexa関連の売上は180ないし190億ドルで、Amazonの全売上の5%近くに達する。‘Alexa関連’というのは、デバイスの売上だけでなく、音声によるショッピングやそのほかのプラットホームの売上も含む。今アメリカでは、各家庭等にインストールされているAlexaデバイスは1億台を突破しており、レポートはそのことを指して、Alexaは‘臨界質量’に達した、と言っている。

RBCはAlexaの開発におけるAmazonの進歩にも触れている。取り上げられているのは、夜間の侵入者検出や、煙(初期火災)の検知機能、インターネットがダウンしたときのローカルな音声コントロール、位置対応のリマインダー、高度なルーチン、メールの統合、拡張通話機能などだ。

Alexaのサードパーティアプリのエコシステムも2018年に前年比150%成長し、スキルの総数は6万を超えた。それは5月には4万、2017Q3には25000、2年前にはわずか5000だった。

Google Homeも2018年には勢いをつけ、Googleデバイスの保有率は2017年の8%から23%に増えた。1世帯の保有デバイス台数は1.7台となり、これによりアメリカにおけるGoogle Homeのインストールベースは約4300万台、アメリカ以外が約900万台となる。

しかし今後数年間の売上ではGoogle HomeはAlexaの後塵を拝することになり、Google Home関連の売上は今年が34億ドル、2021年が82億ドル、とされている。

でもPixelやNest、Chromecastなどを含めたGoogleのハードウェア全体の売上は、2018年が88億ドル、2021年が196億ドルと予想されている。

AppleのHomePodがRBCの調査対象になったのは今年が初めてだが、同社の推計によるとアメリカのスマートスピーカー市場でそのシェアは小さく、Amazonの66%、Googleの29%に対してHomePodは5%とされている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

四足ロボットANYmalがチューリッヒの地下の下水路を冒険旅行する

CheetahbotやSpotのような複数脚のロボットの多様な用途については、すでに多くが語られてきたが、でも実際にそれらが実現するためには、分野ごとに多くの困難がある。そして、下水道の点検という重要な仕事の訓練のために、このスイス製の四足ロボットは地下深くへと下(お)りていった。今後の実際の仕事には、人命救助もありうるだろう。

ETH Zurich / Daniel Winkler

このロボットはANYmalと呼ばれ、スイス国立工科大学、略称ETH Zurichと、そこからのスピンオフANYboticsの長期的なコラボレーションだ。その最新の冒険は、大学のあるチューリッヒ市の地下にある下水道の旅で、最終的には、検査や修理の自動化を目指している。

多くのロボットプラットホームと同様、ANYmalも長年の開発史を抱えている。でもカメラや、ライダーのようなセンサー類が小型化高性能化したのはごく最近のことなので、暗闇の中での作業も可能になり、第一候補として下水管という汚い場所でテストされることになった。

多くの都市が延々と長い々々地下構造を抱えており、しかもそれらの点検は専門家にしかできない。危険でかったるい仕事だから、自動化の最右翼候補だ。人間がやると1年に1度しかできない点検を、ロボットなら楽々、一週間に一度できる、としたらどうだろう。おかしい箇所を見つけたときだけ、人間を呼べばよい。災害で人が行けなくなった場所や、小さすぎて人が入れない場所でも、活躍してくれるだろう。

関連記事: MIT’s Cheetah 3 robot is built to save lives(未訳)

しかしもちろん、ロボット軍団が(前に何かで見たように)下水路に住めるためには、その環境を経験し学習しなければならない。最初は最小限の自動化にとどめ、徐々にやれることを増やしていくのだ。

ANYboticsの協同ファウンダーPeter Fankhauserが、ETHZのストーリーでこう言っている: “研究室でうまくいっても、現実世界でうまくいくとは限らない”。

ロボットのセンサーやスキルを現実世界の状況でテストすると、エンジニアたちが取り組むべき新しい知見と大量のデータが得られる。たとえば、完全に暗い環境でもレーザーを利用する画像タスクなら行えるが、大量の水蒸気や煙が充満していたらどうか? ANYmalは、そんな環境でも正しい感知能力を発揮できなければならない。それが、最初からの設計目標だった。

ETH Zurich / Daniel Winkler

彼らはまず、脚にセンサーを付ける方式を試した。良い結果とまずい結果の両方が得られた。次に試したのが、ANYmalが手のひらを壁に触れてボタンを見つけたり、温湿度や壁の質感を得る方法だ。この方法は、操縦者の即興や機転が必要で、完全自動化にはほど遠かった。まず、ロボットにやらせることを、リストアップしよう!。

下のビデオで、チューリッヒの地下を旅する下水道検査官ANYmalをウォッチできる。

画像クレジット: ETH Zurich

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

魚を拡張現実を生成するタンクに入れてみたらそれを本物の現実と区別できた

ニュージャージー工科大学の研究者たちが、グリーングラス(glass knifefish)の“姿勢維持”機能を調べているとき、動物の電気的感知器官をリアルタイムで騙(だま)すための拡張現実を作った。その魚はさまざまな穴を自分の家にして身を隠す習性があるが、研究者たちは、魚が自分を安全に保つために利用している自動的自律的なセンサー機能を、このやり方で知りたいと思った。

准教授のEric Fortuneはこう語る: “いちばん興奮したのは、この研究によって、われわれが10年以上前から夢見ていたやり方で、フィードバックを調べられるようになったことだ。ほとんどすべての動物が、自分の体を動かすことによってまわりの環境を感知しているが、この、運動によるアクティブな感知の基本的な過程を、拡張現実を利用してリアルタイムで調べたのは、おそらくこれが初めてだろう”。

魚がARのヘッドセットを装着したのではなく、研究者たちは水中で揺れる隠れ家の動きをシミュレートした。

Fortuneは曰く: “この魚が隠れ家の位置をフォローすることは前から分かっていたが、ごく最近分かったのは、人間の目の動きにも似た小さな動きを彼らが生成することだ。そこでわれわれは、拡張現実のようなものによって、魚の感知システムと運動システムとの関係を撹乱することはできないか、と考えた。しかし両者の結びつきを維持したままそれをやるのは、きわめて難しかった”。

その試験では、魚を管の中に入れて(上図)、管の動きと魚の目の動きが同期するようにした。魚が前や後ろへ動くとき、その動きは隠れ家の動きにも及ぶ。その動きを魚が見たとき、何が起きるのか。隠れ家の動きと魚の動きが同期したとき、魚はその動きが隠れ家の“リアル”な動き(単独の動き)でないことを、感知できた。つまり魚は、自分が仮想環境の中にいることを知っていた。

“動きの刺激の起源が独立のものであるときと、自分の動きのフィードバックであるときとを、魚は区別できた。この実験により、われわれが観察していた現象が、魚が自分の動きから受け取るフィードバックによるものであることが分かった。基本的にその動物は、自分のまわりの感覚世界を自分がコントロールしていることを、知っているようだった”。

もしかしたら魚は、Job Simulatorをプレイできるかもしれない。

“同じような実験を、人間の視覚についてもできるのではないか。それにより、神経生物学の貴重な知識が得られるだろう。また、視覚と運動のコントロールに関しては、人工的なシステムより動物の方がずっと上手だから、われわれが公開するデータを技術者が機械の制御に利用できたら、とても強力なフィードバックシステムが可能になるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AIにぬくもりを!お笑いAI開発わたしはの次の挑戦が始まる

写真左手前がわたしはで代表取締役CEOを務める竹之内大輔氏

お笑いAIを開発しているわたしは(株式会社わたしは)は、ANRIと個人投資家5名からの資金調達を発表した。調達金額は4200万円程度。具体的なメンバーは50音順で、ANRI3号投資事業有限責任組合、日下部 雅謹氏(KITERETSU代表取締役社長)、佐藤裕介氏(ヘイ代表取締役社長)、SUDAX氏(個人投資家)、松本 大氏(マネックスグループ代表執行役CEO)、三木寛文氏(個人投資家)。

わたしはは2016年4月創業で、お題、回答、ツッコミが可能な「大喜利AI」をメインプロダクトとしつつ、大企業と共同開発やAI技術の提供といった事業を進めてきた。今回の資金調達により、LINE登録者数8万1000人(2018年12月現在)を突破している前述の大喜利AIや「都市伝説ジェネレータ」などのコミュニケーションAIの機能拡張、「合成音声AI」「音楽生成AI」を応用したユーザーとAIが一緒にコンテンツを作成できるサービスの開発に注力するとのこと。

同社で代表取締役CEOを務める竹之内大輔氏は、東京工業大学の博士課程で哲学や数理論理学を研究し、複雑系科学を専門とする人物。今回の資金調達については「これまでも弊社だけが開発できる、世界唯一のAIを作ってきました。今回、そんな弊社の『一見するとふざけたアイデンティティ』に共感してくださる方々に株主になっていただけて大変心強く思います。これからは、より一層、『わたしはが作るAIだから、最高に面白いAIに違いない』と期待し続けてもらえるようなオンリーワンのAIカンパニーとして成長を加速させていきます」とコメントしている。

なぜ「お笑いAI」なのか。「大学に在籍時していたころから、どうすればコンピュータにに感情を持たせられるのかを日々考えていた」と竹之内氏。GoogleアシスタントやAmazon Echo、AppleのSiriに代表される音声コミュニケーションAIは、ジョークを言ったり歌を歌うこともあるが、的確な処理を求められるため、どうしても画一的な回答になってしまう。対応できない処理があると「すみません、わかりませんでした」などというフレーズで謝ってくる。

大喜利人工知能公式LINEアカウントもある

竹之内氏は「AI(コンピュータ)に感情を持たせるには、直球的な回答の周辺にある少し外れた受け答えなのでは?」と考え、東京工業大学の工学博士で自然言語処理を専門とする同社CTOの小橋洋平氏と、お笑いAIの開発を進めてきたという。実は同社の「大喜利AI」のポテンシャルは、NHKのBSプレミアムの番組「AI育成お笑いバトル 師匠×弟子」で実証済みだ。この番組は、千原Jr、ロッチ中岡、大久保佳代子などが師匠、大喜利AIが弟子となり、それぞれのキャラクターに合ったAIに育てていくという内容。完成したAIはボッドとして、千原Jrなどがいかにも言いそうなフレーズを返してくれる。

「番組ではお笑い芸人さんのAIですが、例えばどこかの県のAI、どこかの市のAI、さらにはママ友仲間のAIなどコミュニティの大きさにかかわらず、さまざまAIを開発できます」と竹ノ内氏。音声によるAI(コンピュータ)とのコミュニケーションの機会は今後さらに増えていく。同社が開発する感情を持ったAIが、スマートスピーカーやロボットに搭載される日を期待して待ちたい。

  1. example_1

  2. example_2

  3. example_3

  4. example_4

  5. example_5

■関連リンク(外部)
大喜利人工知能公式アカウント(LINE)
大喜利人工知能 育成プロジェクト(Twitter)
大喜利β(Twitter)

高齢者のほとんどが施設よりも在宅を望む、CherryHomeが$5.2Mを調達してAIによる在宅ケアに挑戦

高齢者ケアにAIを利用するスタートアップが新たな資金を獲得して、歩き方や行動の変化、そして転倒やぶつかりを検出できるようにしたい、と考えている。言い換えると彼らは、長期的に高齢者の健康をモニタして、変化を予測できるようになりたいのだ。

そのスタートアップ、Cherry Labsが作ったAIによる家庭用安全システムCherryHomeが、GSR Venturesから520万ドルを調達して、在宅高齢者ケアにテクノロジーを活用しようとしている。CherryHomeはコンピュータービジョンの独自のアルゴリズムを使ってカメラのデータを解釈し、仮想の“スケルトン”(人体骨格)を作る(上図)。それをAIが見て、家の中での出来事や人間の行動を分析する。たとえば、この状態を放置したら足を引きずって歩くようになりそうだ、とか。

競合するサービスSafely Youは、転倒に反応してアラートを送る。NestとLighthouseは、画像処理に初歩的なAIを利用している。そしてAmazonのRingは、屋外での安全をサポートする。

CherryHomeでは、すべての情報がローカルに処理されるので、ビデオが家の外に出ることがない(サーバーに送られたりしない)。ビデオの中では高齢者が上図のようにマッチ棒で描いたような線画で表現されるから、プライバシーが保たれる。この最後の部分が、とても重要だろう。

今度得た資金でCherryHomeは、在宅ケアサービスTheraCareと、介護施設のためのテクノロジーシステムTriCuraと共に、パイロット事業を興すことになった。どちらも、ベイエリアの企業だ。

CherryHomeのCEOで協同ファウンダーのMax Goncharovは次のように語る: “人間の生き方の中に、多くのアプリケーションの芽がある。家の中や外の安全、在宅高齢者ケア、スマートホームの完全な自律化、などなど、ニーズはさまざまだ。しかしテクノロジーによる改良がいちばん必要なのが、高齢者のケアだと私は思う”。彼によると、高齢者は現在、アメリカの人口の15%を占め、2030年にはアメリカ人の5人に一人は、退職後の年齢になる。いくつかの調査によれば、これらの人びとの多くが家にとどまることを願ってる。アシストの完備した施設へ移るのではなくて。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人間の爪のミクロン単位のゆがみから症状の治癒や悪化を判定する超小型センサーをIBM Researchが開発

IBMが今日(米国時間12/20)、人間の手の指の爪につけて、パーキンソン病なやそのほかの疾病の治療薬の効果をモニターする、小さなセンサーを開発した、と発表した。そのデータを分析する専用のソフトウェアと共にセンサーは、ユーザーが物を握ったときの爪の歪(ゆが)みを測定する。ほとんどどんな活動にも、物を握る行為があるので、そのソフトウェアが分析すべき大量のデータが生成される。

センサーを爪ではなく肌につけて運動をモニターし、筋肉や神経の健康を調べる方法もあるが、IBMのチームによると、皮膚を使う方法には感染など多くの問題があるので、爪の曲がりから得られるデータを使う方法を選んだ。

ただし、多くの場合に、爪はわずかしか曲がらないので、感度の高いセンサーが必要になる。研究者たちはこう説明している: “分かってきたのは、人間の指が、それらで物を握ったり掴んだり、曲げたり伸ばしたりするとき、一定のパターンで変形することだ。この変形の大きさは通常、ひと桁の数ミクロンのオーダーで、肉眼では見えない。しかし、ひずみゲージを使えば容易に検出できる。ご参考までに、人間の毛髪の太さは50から100ミクロン、赤血球の径は10ミクロン未満だ”。

現在のプロトタイプバージョンでは、センサーを爪に接着している。爪はけっこう丈夫なので、そのやり方でもリスクはほとんどない。肌につけるセンサーよりは、ずっと安全だ。センサーのデータはスマートウォッチへ行き、そこで機械学習のモデルを動かして、震(ふる)えなどのパーキンソン病の症状を検出する。モデルは、装着者が今何をしているかも検出できる(ドアノブを回している、ドライバーを使っている、など)。装着者が自分の指で数字を書くと、それも正確に判読できる。

今後は、このセンサーのプロトタイプとモデルの改良により、そのほかの疾病も認識し分析できるようにしたい、とチームは望んでいる。このセンサーが市販される時期については、まだ発表の段階ではないようだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa