自動運転経済の失業者たち

uber-self-driving-cars

今月、Uberの自動運転車が路上デビューする。予想よりも早かった。これは楽しみなサプライズだ…あなたがドライバーでなければ。ロボットに起因する失業問題は、いずれ他の業界にも波及するだろう。

100万人のUberドライバーはどうなるのか? 全米350万人のトラックドライバーは?そして、世界中でバスやタクシーを走らせている無数のドライバーたちは?

そういう仕事が一夜にしてなくなることはない。20年はかかるだろう。しかし、こうした労働環境変化への備えができなければ、たとえ多くの人々に利便を提供したとしても、一部の人々に苦難を強いることになる。

uber-volvo-self-driving

自動運転車が〈未来〉であることに疑いはない。何といっても安全だしリラックスできる。交通量を削減し、炭素排出量を削減する。そして、運転席で費やされていた知識労働者の時間を、生産的な時間へと振り向ける。

しかも車を走らせるための人件費より、ずっと安くつく。

Bloombergが次のように書いている。「通常料金の1マイル当たり1.30ドルが今は無料だ。将来的にも、[Uber CEOのTravis ]Kalanickによると、料金は低く抑えられる予定だという。それは郊外の長距離ドライブでさえも、1マイルあたりのコストは無人Uber車の方が自家用車より安いからだ」。そしてつい最近Uberは、自動運転トラック会社を買収したことを発表した。

落伍者

問題は、運転というものがレジ係やファーストフードのアルバイトと並ぶ非熟練労働であることだ。そういう仕事には必ずロボットがやってくる。テクノロジーは職を失う人たちに新しい仕事をもたらす、と言う意見もある。しかしその新しい仕事が、熟練を要さない仕事を失った人々によってなされる可能性は低い。

こう考えてみてほしい。自動車が発明された時、それまで人や物資を運んでいた低熟練労働者たちは脅かされた― 馬である。下のビデオを見れば、「より良いテクノロジーは、より良い仕事を馬に与える」という考えが滑稽であることがわかるだろう。「馬」を「人間」に置き換えても楽観的にはなれない。

こうした自動化へのシフトが経済にどう影響を及ぼすのか。置き換えられた低熟練労働者の収入は、自動運転車や料理ロボットやロボットレジ係のオーナーやデザイナーの手に渡る。これはマルクス主義者の悪夢だ。

ソフトウェアはすでに似たような現象を起こしているが、自律ロボットが増殖すれば、この革命はビットを越えて、原子の世界に侵略してくる。

次期大統領が今から国民に準備をさせ始める必要があるのはそのためだ ― できればイノベーションのスピードを損なうことなく。教育、職業訓練、就職支援サービスの充実は不可欠だ。いや、問題を認識して話題にするだけでもスタートとしては悪くない。

長期的には、テクノロジーが仕事を生み出すより、テクノロジーが仕事を取って代わる方が早い時代に、資本主義がいかに機能するかをじっくり厳しく見つめなおす必要がある。全員にフルタイムの役割が必要なのか?非効率や不況に陥ることなく、頂点の富を再分配して底辺を飢えさせないようにできるのか? 市民の感情というものは、どれだけパンを与えられたかではなく、どれだけ稼ぎだしたかに価値を見いだすものだろう。

これは決まった答えのない複雑な問題だ。答を見つけるためには膨大な時間が必要だ。しかし今日Uberは、その〈未来〉の到着時刻が予定よりずっと早まったことをはっきりと示した。

原文へ
 
(翻訳:Nob Takahashi / facebook

チェスと囲碁でトップに立ったロボットが、今度はテーブルサッカーの世界チャンピオンを目指す

foosballcreators

昔のコンピューターゲームには、人間同士でプレイするか、コンピューターを対戦相手にするか、という選択肢があった。しかし今では、現実世界の伝統的なゲームでもコンピューターの方が強くなり、人間の方が強いと言える卓上/盤上ゲームは、もはやないのではないか。次にコンピューターにやられるのは、何だろう? フーズボール(foosball, テーブルサッカー)だ。

École polytechnique fédérale de Lausanne(スイス連邦工科大学ローザンヌ校)のロボット工学の研究者たちが、平均的な人間プレーヤーに勝つシステムを作ったが、それはディープなニューラルネットワークが過去の数百万のゲームを分析した結果ではない。本物の戦闘ロボットである彼らに、何よりも重要なのはスピードと力だ。

プロジェクトを指揮したChristophe Salzmannがニュースリリースでこう言っている: “このシステムは小さな脳のある筋肉マンだ。とっても基本的なことしかできないけど、それで十分に勝てるのだ”。

当然ながら、テーブル本体も特製だ。というか、テーブルがロボットだ、と言ってもいい。透明なフィールドの下にカメラがあって、それが毎秒300フレームでボールの位置を追う。コンピューターは至近の選手を数分の1ミリの精度でボールを蹴れる位置へ移動させる。そしてモーターがバーを人間よりも速く回して、ボールを猛スピードで蹴り飛ばす。

robotfoos2robotfoos1

でも、名人のプレーヤーにはかなわない。コンピューターには、位置やバンクショット、相手の盲点などを活かしたトリックができないし、また、相手の位置から動きを予測することもできない。

このような‘知能’をコンピューターに授けるためにチームは、対戦相手のハンドルの動きをレーザーで追おうとしている。その方が、バーをカメラで追うより計算効率は高いだろう。今よりも高度なAIを、作れそうだ。でも、真価が問われるのは、ロボットだけでトーナメントをやるときだ。それもいずれやる、と彼らは言っている。

Why would you do this!

ほんまかい?!

プロジェクトは今も継続している。その状況は、ここで分かる。詳細は彼らのラボのWebサイトでも分かるが、でもそのロゴが問題だ(右図)。巨大なターミネーターの両手が、われわれの惑星を抱っこしている。しかし、どう見ても、人間の味方のようではない!

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Intel、ディープラーニングのNervana Sytemsを3.5億ドルで買収

screen-shot-2014-03-31-at-2-12-30-pm

米国時間8/9、Intelはディープラーニングのスタートアップ、Nervana Systems を買収すると発表した。これは同社内でのAIソリューションの役割を強化しようとする動きの一環だ。Recodeの報道によると、買収価格は3.5億ドル以上で、ここ数週間(控えめに言って)かなり活発だったIT業界M&Aのリストに名を連ねた。

「ディープラーニングのアルゴリズムを加速するNervanaの知的財産と専門知識は、IntelのAI分野での能力を拡大する」とIntelのEVP兼データセンターグループGM、Diane Bryantがブログ記事で語った。「Nervanaの持つソフトウェアの専門知識を活用することで、IntelのMath Kernel Libraryをさらに最適化し、業界標準フレームワークに統合していく」。

さらにBryantは、同スタートアップの専門知識は「IntelのAI戦略を強化し、ディープラーニングの性能や、Intel XeonおよびIntel Xeon PhiプロセッサーのTCO(総保有コスト)を改善するものである」と具体的に語った。

創立2年のスタートアップは、これまでにDFJ、Data Collective、Fuel Capital、Lux CapitalおよびAllen&Co. らの投資家から2500万ドル近くを調達している。以前同社は、AIソリューションに対するハードウェア中心のアプローチで注目を集め、以来ニューラルネットワークの学習に向けた技術開発に注力している。

カリフォルニア州サンディエゴを拠点とする48人のチームは、買収完了後IntelのData Centerグループに加わる。

NervanaのCEO・共同ファウンダー、Naveen Raoはブログ記事で、今後もディープラーニングのフレームワーク、プラットフォーム、およびハードウェア関連の開発を続けていくことを明言した。

Nervanaの技術と専門知識をIntelの戦略と組み合わせることによって、ディープラーニング/AIソリューションは次のステップへ進む。われわれは今後もサンディエゴ本社で活動を続け、会社の人材、ブランド及びスタートアップ精神を持ち続ける。

原文へ
 
(翻訳:Nob Takahashi / facebook

Tesla Model Xのオートパイロット、肺塞栓症の運転手を病院へ運ぶ

The interior view of a Tesla Motors Inc. Model S P90D, a model with some autopilot features, is seen during an exhibition featuring several self-driving cars outside of the Dirksen Senate Office Building in Washington, D.C., U.S., on Tuesday, March 15, 2016. Advocates of self-driving cars say the vehicles may revolutionize U.S. transportation enough so that the government can spend less money on roads, parking garages and public transportation systems. Photographer: Drew Angerer/Bloomberg via Getty Images

ミズーリ州に住むその男性は、Tesla Model Xの自動運転機能に助けられなければ、病院に無事たどり着けなかったかもしれない(via Slate)。Model XのオーナーであるJoshua Neally(37)は、職場の法律事務所からの帰宅途中、肺塞栓症に襲われた。Neallyが20マイル余りの幹線道路の運転をオートパイロットに任せると、システムは車とドライバーを病院近くの出口ランプまで運び、Neallyは残りの道のりを走りきった。

先のフロリダの死亡事故以来、Teslaのオートパイロットシステムは厳しい目にさらされているが、これはシステムがドライバーを助けた明白な事例だ。すぐ頭に浮かぶのは、Neallyが自動運転機能に頼るより、路肩に車を寄せ救急車を呼んだ方が総合的に安全だったのではないかという疑問だ。なにしろNeallyは症状が出た後の「走行状況の記憶」が殆どないことを認めているのである。

しかし、Neallyが運転を続けたことが正しい判断だったかどうかは別として、これはオートパイロットのような安全機能の重要性と必要性を証明する事例だ。医療緊急時など人命に関わる状況下で、われわれの行動について正常かつ論理的で誠実な判断を下せる人はほとんどいない。

Neallyは地元のNBC系テレビ局KY3のインタビューに答えて、肺塞栓症の症状を感じたとき「考えたのはERへ行かなくていけないということだけだった」と言った。言い換えれば、Neallyは事実上パニック状態にあり、とるべき行動はできるだけ早く病院へ行くことだと本能が命じたのだろう。

身体に著しく無理のかかった状態で運転を続けることは最良の選択ではないかもしれないが、それは人間的行動であり、またオートパイロットがNeallyを病院へ無事送り届けたことは実に感動的だ。もし、症状が深刻で運転を続けたり判断を下すことが身体的に不可能な場合、オートパイロットはフェイルセーフモードに入り、速度を落としハザードランプを点滅させながらゆっくりと路肩に車を寄せる。

果たしてこの状況下でドライバーは、車を止めて救急車を呼ぶより、システムがあるなら何とかして運転を続けるものなのか、またオートパイロットに運転させることは他の方法と比べて安全なのかどうかは議論のあるところだ。しかしはっきりしているのは、命の危険を感じた人間が合理的知識に基づく判断をするとは限らないことであり、それこそが、自立走行技術が最大の影響を及ぼせる場面だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

ホワイトハウスが人工知能に関する情報を一般募集、そしてIBMの提出物は優秀なAI入門書だ

shutterstock_161925818

人工知能の分野は今やとても大きいし、ありうるアプリケーションの種類もきわめて多様だ。その全体を簡単に説明することはほぼ不可能だが、IBMは挑戦し、そして成功したようだ。。

6月にホワイトハウスは、AIの可能性とリスクに関する情報を得るために、公式の情報リクエスト(request for information, RFI)を公布した

その要約には、こう書かれている: “AIの広義の受益者であるアメリカ人、すなわち一般消費者や学術研究部門、各産業の研究者たち、民間企業、慈善団体などから寄せられる見解は、多様な分野における現在と未来のAIのニーズへの理解を知らしめるために重要である”。

この要約に続いて、議論の対象とすべき個別の話題(トピック)のリストがある。それらは、未来のAIの公益や乱用に結びつきうるテーマの数々だ。

IBMはこの情報リクエストに応じて、同社としての見解を述べた。各トピック(WHからの質問項目)に対して、しっかりとした説明が書かれているから、これを読み終えたあなたは、仲間内でいちばんのAI通になるだろう。まあ、仲間の数にもよるけどね。

それをここで要約することは不可能だ。量が多すぎるが、各節はきわめて適切で、論争的ではなく、あくまでも教示的な内容だ。ちょっとだけ、引用しよう:

この惑星上の生命を支えている重要なシステムの、曖昧性や非効率の多くを排除できるものと信ずる。そしてAIシステムが、これらの意欲的な目標の達成を助けるツールであると信ずる。

それは基本的に楽観的な展望であり、当然ながらかなりIBM寄りだ。しかしそれでもなお、AIの現状と未来とリスクを理解するための読み物として、優れている。そして、“see more here”のリンクを飛ばしてはいけない。そこから先が、いちばん重要だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

この壁を歩くクモ型ロボットは、カーボンファイバーでハンモックを編む

spiderbot-stuttgart

家にクモ型ロボットのペアを解き放つというのは、ふつう危険な考えだ。しかし、留守中クモたちが不思議な数学的ハンモックを編んでくれるとしたらどうだろう? 直ちに恐怖は驚きに ― そして昼寝へと変わる。

この「Mobile Robotic Fabrication System for Filament Structures」はドイツ、シュツットガルトの大学、Institute for Computational Designで作られた。基本をなすコンセプトは「群れの構成」。数多くの小さなロボットたちが協力して一つの作品を作り上げる。ここではロボットたちが、壁に密着したルンバのようにカーボンファイバーを編んで安楽の場所を作る。その形はまるでスピログラフから飛び出してきたようだ。このプロジェクトは同大学の大学院生であるMaria Yabloninaの研究に基づいて作られた。

「今はまだこの製作システムを建築に応用する可能性を探り始めたばかりです」と 同大学のAchim Menges理事がDezeenに話した。「しかし、他の方法では実現できない全く新しい構造物を作れるという特徴は、大きな利点だと確信しています」

これは、ごく控え目に言っても、見ていて非常に楽しい。ロボットはカーボンファイバー糸のリールを備え、壁の基点に糸を固定すると、まるであやり取りをするように前後左右に動き回る。

相互にやりとりしながら壁を這い回り、群のように行動することによって、極めてユニークな構造を作り、全く新しい形で空間を活用できるようになる。

Mengesは自然界の経済と創意工夫に触発された。Mengesのチームは昆虫やロブスターの外骨格を参考にして構造を設計した。このロボットがクモ類をはじめとする糸を紡ぐ動物の影響を受けていることは間違いない(BBCの番組、“Life in the Undergrowth” に驚くべき紡績の達人たちの特集があるのでご覧あれ)。

現在の計画はロボットの数を増やし、天井や曲面の壁のような場所でも編物ができるようにすることだ。そうなればもっとユニークな創作が可能になる。ちなみに、黒い糸で編まれた不気味な空間で働いたり生活したりしたいかどうかは、もちろん全く別の問題だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

自動運転車の車載カメラは、歩行者だけでなく乗客も観察する

A member of the media test drives a Tesla Motors Inc. Model S car equipped with Autopilot in Palo Alto, California, U.S., on Wednesday, Oct. 14, 2015. Tesla Motors Inc. will begin rolling out the first version of its highly anticipated "autopilot" features to owners of its all-electric Model S sedan Thursday. Autopilot is a step toward the vision of autonomous or self-driving cars, and includes features like automatic lane changing and the ability of the Model S to parallel park for you. Photographer: David Paul Morris/Bloomberg via Getty Images

強力なセンサーとソフトウェアによって自動運転車は驚くほど周囲の状況を把握できるようになった ― しかし車のAIが気にしなくてはならないのは障害物や歩行者や他の車だけではない。自身の車内で起きていることも知る必要がある。ドイツの研究開発会社、Fraunhoferでは、研究者らがその開発に没頭している。

「私たちはセンサー技術を車内全体に拡大しようとしています」とFraunhoferの研究グループを率いるMicahel Voitが同社のブログに書いた。「奥行き知覚カメラを使って車内を撮影し、人数、体の大きさ、姿勢を識別して、そから各自の行動を推測することができます」。

Lots going on in this car that the AI would probably want to be aware of.

車の中にはAIが気にかけておきたい物事が数多くある。

車に何人がどこに乗っていて何をしているか知ることには数多くの利益がある。非常時 ― センサー故障等 ― に運転車がハンドルを握るのに要する時間がわかる。パパとママが昼寝している(自動運転車に乗る者の特権)間に後部座席の子供がシートベルトから抜け落ちたら、警告を受けることができる。衝突の際には人のいない部分がぶつかるようにハンドルを切ることができる。エアバッグが開くときにも人の大きさや位置に応じて調整することが可能になる。

もちろんこの中には現在の技術 ― 重量センサー等 ― で実現できるものもある。しかし乗客の緻密な情報を知ることは自動運転車の目標にとって大きな価値がある。既に様々な動きや日常的な物を識別する技術が進歩している ― サンバイザーに手を伸ばしているのか、チャイルドシートを設置しているのか等。

現在カメラはこの会社のドライビングシミュレーターにしか置かれていないが、今後はスマート機能を備えたミニバンに装着して実世界のテストに入る計画だ。

Fraunhoferは、Volkswagen Group Research、Bosch、Visteonをはじめとする企業と共にこの「インテリジェント・カーインテリア」プロジェクトに参加しており、プロジェクト全体がドイツ政府の助成金で運営されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

この検索エンジンは、自分の顔を検索結果と交換する

feat_faceswap

ウェーブのかかった長い髪の自分を想像したことはあるだろうか。きっと素適だろう。しかし、大枚をはたいてサロンに行ったり、Photoshopに何時間も費やすことなくいろんな髪型を試すにはどうすればいいだろうか。必要なのは自撮り写真とDreambitだけ。顔を交換できる検索エンジンだ。

システムはあなたの顔写真を分析して顔だけをうまく切り取る方法を見つける。次に、検索ワード ― 例えばカーリーヘア ― と一致する画像を検索し、あなたにあった位置に顔のある写真を探す。

ターゲットの画像に対しても同様のプロセスで顔マスクし、あなたの顔で置き換えれば出来あがり! カーリーヘアのあなたを何度でも何度でも試せる。ちょっと「マルコビッチの穴」のシーンを思い出させる。ただし相手の顔や状況によってはいくらでも薄気味悪くなる。その点ケリー・ラッセルはどんなヘアスタイルでも美しく見えることが下の図からわかる。

Diagram showing the process by which faces are detected, masked, and replaced.

The process by which faces are detected, masked, and replaced.

交換するのはヘアスタイルに限らない。映画でも場所でも絵画でも、交換できる位置に顔があれば置き換えてくれる。顎ひげのある人等、縁を見つけくい顔はうまくいかないことがあるので、ラスプーチンやガンダルフと入れ替わることはできないかもしれない。

Dreambitを作ったのは、ワシントン大学でコンピュータビジョンを研究するIra Kemelmacher-Shlizermanだ(彼女は顔認識拡張現実でも興味ある研究をしている)。そしてこのシステムは楽しく遊ぶためだけではなく、もっと本格的な応用の可能性も持っている。

Kemelmacher-Shlizermanは自動エイジ・プログレッションという過去の写真から現在の顔を合成するシステムも作っている。これは行方不明者の捜索に役だつ。

「行方不明の子供たちは、髪を染めたりスタイルを変えることが多く、顔だけのエイジ・プログレッションでは十分ではない」と大学のニュースリリースで彼女は語った。「これは行方不明者の容姿が時間と共にどう変わるかを想像する第一ステップだ」。

Kemelmacher-ShlizermanはTechCrunch宛のメールで、ソフトウェアはまだまだベータ段階でFBIが使うようなものではないと言っている。

Dreambitとその背後で動くプロセスについては来週SIGGRAPHで発表されるが、彼女の論文、“Transfiguring Portraits”は今すぐ読むことができる。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBM、Q2決算で予測越え。売上202億ドル、EPS 2.95ドル、クラウド売上30%アップ

shutterstock_157995017

ITの巨人IBMは先ほど第2四半期決算を発表し、売上は202.4億ドル、1株当たり非GAAP利益は2.95ドルだった。アナリスト予測の売上200.3億ドル、非GAAP EPS 2.89ドルをいずれも上回った。

しかし、非GAAP利益28億ドルは、1年前から25%減少した(GAAP純利益は25億ドル、29%減)。なお、決算は利益を示しアナリスト予測を上回ったが、数値は減少を続けている。1年前、IBMの売上は208.1億ドル、EPSは3.84ドルだった。

投資家は今日の決算報告を喜んでいるようだ。時間外取引で、IBM株は約3.3%、3.65ドル上げて163.51ドルをつけた。

IBMはコグニティブ・ソリューションとクラウドプラットフォームのリーダーとしてその地位を確立し続けている。そのために当社は、従来のIT市場の枠を越えた新しいビジネスチャンスに挑戦している」とIBMのChairman兼President兼CEO、Ginni Romettyが声明文で語った。「第2四半期、当社の戦略的課題分野は2桁成長を見せ、アナリティクス、セキュリティー、クラウドビデオサービス、およびWatson Healthという、いずれもIBMクラウドを活用し、業界で注目されている革新的サービスがこれを支えている。また当社は最近飛躍的進歩を見せている量子コンピューティング、モノのインターネット、およびIBMクラウドのブロックチェーンにも引き続き投資していく」

IBMはIT業界で最大かつ最も象徴的な会社だが、同社のレガシービジネス ― 例えばサーバーハードウェア、Zシステムビジネス等 ― は縮小を続けており、今四半期、システム部門は23%以上減少した。これが同社をはじめ、他の巨大IT企業や小さなスタートアップが、ビジネスの新しい波にこれほど力を入れ、投資している一つの理由だ。

IBMの場合、その対象はあらゆるIT分野にわたり、ブロックチェーン、Watson部門による人工知能と機械学習、社内(例えばビデオセキュリティー関連)) あるいは、IBMとの関係を拡大すると最近報じられたCiscoのような、外部との提携による様々なクラウドサービス等がある。

下の2つの表は最初が投資家向けプレゼンテーション、次が財務報告に使われたもので、こうした新しい分野は成長を続けているものの、他部門の減少を補うにはまだ足りていない。

Screen Shot 2016-07-18 at 21.36.16

Screen Shot 2016-07-18 at 21.24.31

Q2の明るい話題としては、クラウドサービスの成長が続いており、今期は30%上昇し最近12ヵ月の売上116億ドルはIBMの同四半期売上の17%を占めた。Watsonとアナリティクス、セキュリティー、およびソーシャル・モバイル技術の売上は合わせて12%伸び、同四半期に83億ドルの売上を生みだした。

IBMは他にもいくつかの部門で売上が減少している。

  • コグニティブ・ソリューションの売上は47億ドル、3.5%アップ。同セグメントのクラウド売上は54%増。
  • グローバスビジネスサービスの売上は43億ドル、2%減。
  • ITサービス&クラウドプラットフォーム(インフラサービス、技術サポートサービス、統合ソフトウェアを含む)の売上は89億ドル、0.5%減。
  • システム(システムハードウェア、オペレーティングシステム・ソフトウェアを含む)の売上は20億ドルで、23.2%の急落だった。
  • グローバルファイナンシング(金融および中古機器販売を含む)の売上は4.24億ドル、11.3%減。

2016年に入ってからIBMはM&Aに非常に積極的だ。同社は過去12ヵ月間に会社の歴史上最高金額を買収に費した、とIBM CFOのMartin Schroeterは言った。同四半期の投資の大部分が、IBMの成長するコグニティブ・ソリーションビジネスを支えている。Truven HealthのデータはWatson Healthを助け、 Bluewolf EZ Sourceは、API管理ツールとコンサルティングサービスでコグニティブ・ソリューションとクラウドサービスを支援するだろう。

決算会見中IBMは、近々Watsonをセキュリティーアプリケーションでもっと活用するつもりだと語った。これは同社が実施した他の戦略的買収とも一致している。IBMが今年2月に買収したResilient Systemsは、拡大するサイバーセキュリティーサービスの一環として、セキュリティー・インシデントレスポンス・サービスを提供する。

今後の四半期を占う上で興味深いのが、ヨーロッパ、中でも英国が会社に与える影響だ。今日(米国時間7/18)の決算では、通貨の影響は小さかったが、同社は英国を重要な海外市場の一つと捉えており、英ポンドの下落が今後の四半期に影響を及ぼすと予測している。HP、Dell等のIT企業は、通貨下落を補うために価格を改訂しており、果たしてIBMが後を追うかどうかが注目される。

Screen Shot 2016-07-18 at 21.35.42

[原文へ]

(翻訳:Nob Takahashi / facebook

ペンシルベニアの事故当時、Tesla Model Xのオートパイロットはオフだった

screen-shot-2016-06-30-at-4-58-21-pm

7月1日にペンシルベニアで事故を起こしたTesla Model Xは、当時オートパイロットが無効化されていた、とElon MuskがTwitterで発表した。この情報は当該車自身のログに基づくものだ。

[車載ログによるとペンシルベニアの事故当時オートパイロットはオフだった。もしオンになっていれば事故は起こらなかったかもしれない。]

Teslaはここ数週間、同社のオートパイロットによる半自動運転機能は、公道で試験するにはまだ早いと批判されている。Consumer Reportsも今日(米国時間7/14)、安全が確認されるまで機能を無効化するよう要請した

衝突時にオートパイロットが使われていなかったというニュースは、批判の一部を鎮めることはあっても決して全部ではない。事故の全容は未だ明らかにされておらず、またオートパイロットは原因ではないようだが、関与した可能性はある。詳しい調査結果が出るまで、判断は控えた方がよさそうだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

AP通信、マイナーリーグ野球の記事を「ロボット」記者が報道

今日(米国時間7/3)Associated Pressは、全国のマイナーリーグ野球(MiLB)の試合記事を人工知能を使って書くことを発表した。人工知能システムは、Automated Insightsのソフトウェア、およびマイナーリーグ野球の公式データ提供元であるMLB Advanced Media(MLBAM)のデータを利用する。

自動生成された記事が配信されるのは、AP Sportsの人間記者が取材も報道もしない、142のMLB協讃チームと13のリーグにわたるトリプルA、ダブルAおよびクラスAの試合だ。

したがって、もしテクノロジーが有望なスポーツ記者から「仕事を奪う」ことを心配しているなら、安心されたい。

APのスポーツ部門副ディレクターのBarry Bedlanによると、APはこのシステムの開発と運用のために、自動化の専門家を雇った。

この動きは全くの予想外ではなかった。この会社は、Zacks Investment Reseachのデータを使って、2014年7月からビジネスおよび金融の報道に人工知能を利用している。

APが、いわゆる「ロボット」報道を拡大する上で心配しているのは何かと尋ねられたBedlanは、「配信される内容は100%正確であることを確かめる必要がある。しかし、ひとたびソフトウェアが適切に設定されれば、正確性の問題はなくなる」。

AP Sportsは、一年をかけてAutomated Insightsのプラットフォーム、WordsmithをMiLBの記事作成のためにテストをした結果、AP Sportsの顧客である地方の放送局や新聞に配信し、彼らの視聴者や契約者に届けることになった。

統合は技術的には難しくなかったが、APでトップクラスの野球担当編集者や記者たちに、自動生成された野球記事の品質をチェック、評価、編集してもらうため一年かかった。

彼らはメジャーリーグを春季キャンプからワールドシリーズまで追いかけているため、捕まえるのは容易ではなかった。

APは、ソフトウェアとAIの利用を野球以外のスポーツにも拡張するに違いない ― 良いデータを早く揃えることさえできれば。

Bedlanは、「可能性はいくらでもあるが…スポーツ団体が正確性100%のお墨付きを与えるのに何時間、何日もかかるなら、新聞や放送やウェブサイトにとってニュース価値はなくなる。

MLBとAutomated Insightsは、MilBゲームのデータを数分以内に提供している、と彼は言った。

Bedlanは、APが記事は自動生成されたものであり人間が書いたのではない時は、そのことを明確に公表すると強調した。そして彼は、自動システムの利用によって、編集者や記者は、もっと調査の必要な大きなプロジェクトに専念できるようにすることが目的だと話した。

ニュース配信の自動化を進めているのはAssociated Pressだけではない。Celeste LeCompteが2015年9月に、NiemanReports.orgで“Automation in the Newsroom”と題してこう書いている。

「ProPublica、Forbes、The New York Times、Oregon Public Broadcasting、Yahoo、その他の会社はアルゴリズムを使ってビジネスやスポーツから教育、機会均等、公共の安全等に関する報道に役立てている。多くの企業にとって取材と配信の一部を自動化することは、記者の負担を減らすとともに、新しいデータ資源を活用する手段でもある」

果たして自動化が進むことによって、記者や編集者にスキルの衰えが起きるかどうか、今後に注目したい。

[原文へ]

(翻訳:Nob Takahashi / facebook

このサンショウウオ型ロボットは、両生類のように水陸を滑らかに動き回る

x3a9216

École Polytechnique Fédérale de Lausanne のマッドロボットサイエンティストたちが、また一つ生物模倣メカノイドを作った ― これはサンショウウオのしなやかな動きに基づいている。”Pleurobot” は、多関節からなる独自の頚椎を使って、両生類の動きを真似、地上や水上を滑るように進むことができる。

「動物の動きは、体と脊髄と周辺環境との実に興味深い相互作用から成っている」と、プロジェクトのリーター、Auke Ijspeertがビデオで説明している。「このプロジェクトの特徴はわれわれのとったアプローチにあり、実際の身体構造にできる限り近づけることを目標にした [

bones_of_sala

チームは、Pleurodeles waltl、別名イベリアトゲイモリのX線ビデオを長時間観察した。

骨と肢の角度を注意深く追跡した ― サンショウウオは、這うのも歩く泳ぐのも、事実上同じ基本動作を速度を変えるだけど実現している。つまり、早足とギャロップで、動きを切り替える必要がない。

その結果がこの骨格の驚異だ。脊髄分節はわずか11組で本来の40組(29組は必須ではない)よりはるかに少なく、関節によって動きの自由度を著しく減らした。サンショウウオの滑るような動きを模倣する見事な仕事だ。それは、脊椎動物の進化における重要な瞬間でもある ― つまるところ、彼らはわれわれの遠い祖先なのだから。

これは興味のためだけではない。移動行為と脊髄と脳の複雑な相互作用は、様々な分野に役立つ。

「これを理解することは、例えば神経機能代替の分野で非常に重要だ」とIjspeertがビデオで説明する。「人体内でこうした回路を長期間再び刺激できることは非常に重要であり、脊髄のしくみを理解するためにも必要だ。」

チームは様々なタイプの動作や神経回路を研究するために、他の「バイオロボット」も作りたいと考えている。

[原文へ]

(翻訳:Nob Takahashi / facebook

顔認識システム、百万人の顔データベースに大苦戦

faces

遍在するビデオカメラと高度な顔認識技術によって可能になる恐怖の監視国家を心配している人は多い ― しかし最新の研究によると、最高のアルゴリズムでも、百万人以上の顔を区別するとなると絶対確実からはほど遠いようだ。

ワシントン大学のMegaFace Challengeは、昨年末から行われている顔認識アルゴリズムの公開競技だ。狙いは、画像データベースサイズの桁が増えていった時、システムが人間に勝てるかどうかを見ることにある。

多くのシステムが何百万、何億人の写真を使って顔を学習しているが、実際のテストは「Labeled Faces in the Wild」等のセットで行われ、その数は1万3000枚ほどだ。しかし、実世界の状況はそれとは違う。

「顔認識アルゴリズムのテストは『地球規模』で行われるべきだと推奨するのは、われわれが最初だ、と研究チームのリーダー、Ira Kemelmacher-ShlizermanがTechCrunch宛のメールで言った。「多くの人たちがその重要性に同意すると思う。大きな問題は、公共データベースとベンチマークを作ることだ(同じデータを使って競争できる)。ベンチマークの作成は大変な作業だが、研究に大きく貢献する」

研究者らはまず、既存のラベル付けされた人々の画像から始めた ― 様々な分野の有名人のセットや、幅広い年齢の人々のセット等がある。彼らはそこに、FlickrからCreative Commonsライセンス付きの顔写真を入手し、「不正解ノイズ」として加えた。

彼らは、ノイズを10から最大100万まで増やしてテストをした ― 正解の数は変えずノイズだけを増やした。

megaface_results

テストの結果、少数の驚くほど頑強なアルゴリズムが浮上した。幅広い年齢セットで圧勝したのは、GoogleのFaceNetで、同システムとロシアのN-TechLabが、有名人データベースでは接戦だった(中国四川省のSIAT MMLabには特別賞)。

有名なところで名前がないのはFacebookのDeepFaceで、間違いなく有力な優勝候補のはずだ。しかし、参加は任意であり、Facebookはシステムを公開していないので、MegaFacesでの成績は謎のままだ。

上位2システムのいずれも、ノイズが増えるにつれ数字は確実に下がっているが、有効性はグラフの対数スケールほどには低下しない。GoogleがFaceNetの論文で主張する超高精度の値は、ノイズが1万件を超えると達成されなくなり、100万になると、他には大差をつけているものの、何かの目的に使えるだけの精度は得られなかった。

それでも、100万件のノイズの中から4人中3人を見つけるのはすばらしい ― ただし、その成功率は法廷やセキュリティー製品では通用しない。どうやら監視国家が現実になるのはまだ先のようだ。

研究成果は、一週間後にラスベガスで行われるConference on Computer Vision and Pattern Recognitionで発表される。

[原文へ]

(翻訳:Nob Takahashi / facebook

次のSiriは、感情を持つだろうか?

ai-assistant-empathy

【本稿の執筆者、Rupa Chaturvediは、Sentient Technologiesのビジュアル・インテリジェンス設計責任者】

AIアシスタントは絶頂期にある。先月Googleはその名もAssistantというAIアシスタントを発表し、「継続的な双方向対話」を可能にした。この分野には、AppleのSiri、AmazonのAlexa、MicrosoftのCortana、FacebookのM、未公開のVivを始め、数多くのライバルがひしめいている。

しかし今のところ、こうしたアシスタントたちは会議を設定したり、天気を教えてくれたり、コーヒーショップへの道順を示すことはできるが、まだ少々冷たく感じられる。人の気分や状況、個人的コンテキスト等々によって、反応を変えることはない。言い換えれば、感情がない。

それは何を意味するのか? 人類は常にテクノロジーを擬人化してきた。テクノロジーに感情的に関与し、信頼に基づく関係を期待し確立してきた。自動的な電話応等に腹を立てたり、重要なミーティングを知らせてくれた携帯電話に感謝したことが一度でもあるなら、これがわれわれの慣れ親んだ感覚だ。

問題は、われわれの健康や幸福にとって真に重要なテクノロジーは、その状態が単なる「物」を超えるという点にある。われわれは、テクノロジーに感情的に関与する。亡くなったスタンフォード大教授、Clifford Nassは、人間とコンピューターの関係は本質的に社会的なものであるとさえ主張した。言い換えれば、もし人間がテクノロジーと感情的な結び付きを持っているなら、われわれのニーズに感情移入するシステムを設計する方がよくないだろうか?

もし、人が機械と真にパーソナルで感情的なつながりを持てる、という考えに同意できないなら、 Ellieの事例を考えてほしい。EllieはAI心理学者で、PTSDを患う兵士の治療に用いられてきた。彼女は言語および非言語的ヒントを使って、AIアシスタントのように対話を構成する。ここで興味深いのは、患者は人間よりEllieと話すことを好むらしいことだ。Ellieのブレーンの一人、Albert Rizzoによると、患者は「判断されたと感じることがなく、印象操作に対する関心が低く、一般により多くの情報を提供するようになる」。

もちろん、心理学者と話すことは、アシスタントと話すのとは違う。しかし、人々が真の個人的苦脳について人間よりも機械に打ち明けやすい、というのは注目すべきだ。そして、AIアシスタントをデザインするにあたり、この教訓を心に留めておくことには価値がある。ユーザーは、自分を知り、理解しているテクノロジーを気味悪がったりしない。適切に行えば、むしろ反対だ。

基本的に共感とは、個人や個人の感じ方を理解することだ。人は常に変わり続けるという認識も必要だ。

では、どうやって感情的AIをデザインすればよいのか? どうやってアルゴリズムを人間的にするのか?まず、あまりに後ろ向きな発想を捨てることから始めることができる。アルゴリズムはもちろん山ほどのデータを必要とするが、飛行機のフライトを予約するために、ユーザーのすべてを知っている必要はない。もし、より人間的(即ち、より感情的)なAIを作ることによって問題に取り組むなら、人間的、社会的なレベルで対話することを考える必要がある。

われわれが見知らぬ人と会った時、相手の全データを聞き出そうとするだろうか?去年何を買ったか? メールアドレスとクレジットカード番号? 過去6ヵ月間の購入履歴に基づいて何が欲しいかを予測することは、知識だ。今われわれはそれができる。しかし、今日私が髪をおろして、くつろいでいたいことを知ることは、共感だ。この判断を、過去の多数の個人データからではなく、個人について下すことのできるアルゴリズムがわれわれには必要だ。

一つの方法は、音声認識で行っていることを再考することだ。今やAIは単語を理解できるできるが、その背後にある感情や論調を真に理解することはできない。もちろんそれは、人間が無意識下でいつも行っていることだ。そして、Mattersight等の会社は、数百万時間もの会話を分析して、個性や気分のヒントを見つけ出そうとしている。

つまり、そういうアルゴリズムは存在している。問題は、その使い方を変え、テクノロジーのためではなく、ユーザーのためにデザインすることだ。アシスタントには、人が何を言ったかを処理させるだけでなく、どのように話したかを理解することにも注力させる。ユーザーがどう感じるかを瞬間に理解できるAIは、共感をもって振る舞うことができる。あなたが浮かない気分の時にへらず口をたたかないAIや、急いでいるようなら対話を早く進めるAIを想像してみてほしい。ユーザーの気分によって、振る舞いを変えるAIだ。

もちろん、音声分析以外にも共感をもてるAIを作る方法はある。顔認識技術の向上によって、感情を直感的に捕えられるようになった。居間に置かれたAIアシスタントは、あなたが過去1時間に好きなコメディーを見て笑っていたのか、あるいは配偶者と言い争っていたのかがわかるので、あなたの表情や声のトーンに基づいて振る舞いや会話内容を変えることができるはずだ。ブラウザーの履歴や消費者プロフィールの似た他のユーザー情報に基づくのではなく、その場で瞬時に反応する。

基本的に共感とは、個人や個人の感じ方を理解することだ。人は常に変わり続けるという認識も必要だ。いい日もあれば悪い日もある。新しい趣味を始めたり、ダイエットで生活パターンを変えたり、休暇に出かけたり、仕事の大きな発表を控えていたり。毎日が違うように、すべての対話が異なる。共感をもつAIはそれを理解する必要がある。カレンダーに会議の日程を入れて、知らせてくれるAIアシスタントをデザインするのは、知識だ。「邪魔が入る」かもしれないことを知り、瞬時に日程変更する必要があることを知るのは、共感だ。

パターンを見つけられただろうか。共感をもつAIを作るためには、ユーザーをグループとして見るのではなく、個々のユーザーを個人として見る必要がある。それは人間がお互いの心理状態や意図を推しはかるのと同じように微妙な変化を読み取り、相手の反応を学習するシステムをデザインすることだ。それは人間が会話する時と同じように、進化しながら瞬時に行動を変化させるものを作ることだ。それは、ユーザーを本来の個別の人間として見ることのできるテクノロジーを作ることだ。そしてもし、次のAIが共感をもつものになるなら、それこそがわれわれのすべきことだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Apple、iPhoneに顔認識と物体認識を導入

screen-shot-2016-06-13-at-11-15-18

何年か前にレストランで撮ったあの写真を覚えているだろうか?バーで友達に見せたい、あのすてきなデザートは? これまでは何千枚もの写真をスクロールして探さなくてはならなかった。iOS 10の新しい写真アプリで、Appleは高度なコンピュータビジョン技術を駆使して、写真の発見やグループ分けを容易にした。

Appleが使用するコンピュータビジョン技術は、iPhoneまたはiPadの上で動作する。つまり、画像を全部クラウドにアップロードする必要がない。写真の顔を認識して人ごとにグループ分けできるほか、高度な物体認識も行うので、はるか昔の様々な物の写真を見つけることができる。言い換えれば、iPhoneはあなたが撮ったのが食べ物か馬か山かを知っているので、見つけ出すのはずっと簡単になる。

Appleによると、システムは画像にどんな人や物が写っているかを認識するために、1枚当たり110億回計算する。

Screen Shot 2016-06-13 at 11.14.14

ここからコンピュータビジョンと位置情報ベースの画像タグを合わせるのは簡単で、Appleは写真アプリの新しい “Memories” 機能で、友達ごとや位置ごとに写真をグループ分けできるようにした。

AppleはiOS 10を、過去最大の変更だと言い、新OSでは写真に興味のある人にとって数多くの改善が施されている。ロック画面からカメラを呼びだすのは、右から左にスワイプするだけだ。よくできている。

[原文へ]

(翻訳:Nob Takahashi / facebook

スタンフォード大学のロボット‘Jackrabbot’は歩行者が無意識に守っている説明の難しい複雑なルールを学習中

jackrabbot

人間の大人でも、人混みの中を歩くのが難しいことがある。ましてや、不器用で素朴な脳のロボットはどうだろう? 人にぶつかることを避けるために、“右へ行くべきか左か?”を一瞬々々ぎごちなく考えながら歩く、…スタンフォード大学の研究者たちは、彼らのロボット”Jackrabbot”が、そんな路上のルールを学習できる、と期待している。

同大のComputational Vision and Geometry Lab(コンピューターによる視界とジオメトリ研究所)はこれまですでに、歩行者の動きを追跡して予測するコンピュータービジョンのアルゴリズムを作ってきた。しかしそのルールはきわめて複雑で、群衆や歩道の幅、一日の中の時間帯、自転車やベビーカーの有無、等々大量の変数を含むため、まさしく、そのほかの機械学習のタスクと同じく、有益な結果を得るためには膨大な量のデータを必要とする。

LSTM-probmap

しかも、彼らが開発しているアルゴリズムは、完全に観察データだけを使用し、それをニューラルネットワークが解釈することを意図している。研究者たちが、ヒント(“この状況では人は必ず左へ行く”など)を与えてはいけない。

彼らのこれまでの努力は小論文に記され、今月の終わりごろ出るCVPRに掲載される。彼らが作った動き予測アルゴリズムは、多くの同種アルゴリズムよりも優れており、そのモデルは、人が集団の中で相互作用/反応する場合の複雑微妙ぶりをある程度学習できた。

現在、楽しげにめかしこんだJackrabbot(上図)は、人間が手動でコントロールしながら、研究のモデルをロボットの知覚に実装する方法を模索している。その本体は実はSegway RMP210の改造バージョンで、ステレオカメラとレーザースキャナーとGPSを搭載している。訓練用データは鳥瞰ビューを使用したが、ロボット本人には鳥瞰的視界を持たせずに、さまざまな歩行者の互いの距離と歩行速度から、空間中の各個人の座標を求め、彼らの動きを高い精度で予測させる。

cv_intersection

研究者のAlexandre Alahiは本誌へのメールで、“この夏には、私たちの社会的知覚を持つ予測モデルをロボットに実装したい。リアルタイムのデモは、年末までには行いたい”、と言っている。

人間の空間を無事にナビゲートできるロボットが、まだ万人の目の前ではないけれども、どこかSFにほとんど近いような場所に、出現しようとしている。しかし、われわれが日々、思考を必要とせずに行っていること…回りをスキャンしその場の障害物と運動物を判断し、それに応じて自分の動きを適切に計画すること…は、コンピューターにとってものすごく難しいことなのだ。

このようなプロジェクトの多様な蓄積の中から、最終的には、家の中や都市の中を人間と同じようにはやく安全に、他人に配慮しながら歩けるロボットが生まれるだろう。自動運転車がたぶん都市の道路の様相をすっかり変えてしまうように、自律性のある歩行者ロボットは、それがヒューマノイドであろうとなかろうと、歩道の状況を変えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

レット・イット・ビープ:Googleの自動走行車がクラクションを鳴らすようになった

google-car-horn

The Bulwer-Lytton Fiction Contestは、著者たちが最悪の小説冒頭を競う、毎年恒例の行事だ。Googleは、いくつかの理由により、今年これにエントリーすべきだ ― 最新の自動走行車プロジェクト報告 (PDF)の中で、同社はこう書いている:「当社の警笛アルゴリズムが改善されたため、われわれはクラクションを世界に発信し始めた」。

文のばかばかしさは置くとして、このニュースは実に興味深い。Googleは、これまでしばらくの間、自らの存在を他のドライバーに知らせる手段として、クラクシヨンを使用するテストをしてきたようだ ― ただし鳴らすのは室内でのみ。そうすることによって、人間の評価者は「警笛アルゴリズム」が的確かどうかを判断することができる。

能力が何らかの社内基準に達したことで、自動走行車はクラクションを2種類の方法で使用できるようになった。危険が差し迫った時、例えば反対車線の車が向かってきた時等には、昔ながらのけたたましいクラクションが鳴る。しかし、駐車場で誰かがバックして近づいてきたような時には、「短く静かな警笛をピッピッと鳴らす」と報告書に書かれている。

ブーブーや「ピッピッ」以外にも、Googleカーは歩行者、特に視覚の不自由な人々に車の接近を知らせるための、ハム音を発生できる。これは多くの電気自動車に課せられた問題であり、エンジン音の模倣からUFOライクなさえずりまで、様々な案がテストされてきた。Googleの説明にあるハム音は前者に近いと思われ、「個性」を出すために何らかの工夫がこらされているようだが詳細は明らかにされていない。町でGoogleカーに遭遇した幸運な読者は、最初のレポートを書けるかもしれない。

Google報告書の事故一覧部分はごくわずかだ。マニュアルモードで中央分離帯にぶつかった1件だけで、速度は9 MPH(14.5 km/時)だった。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookの新しい人工知能「Deep Text」は、あらゆる投稿を分類する

facebook-deep-text1

もしFacebookが、近況アップデートにあなたが書いた内容を知っていれば、その話題を気にかけている人に見せることができる。もし、「今タクシーを降りたところ」と「車が必要」を区別できるなら、Uberを呼びたいかどうかをあなたに尋ねられる。もし近況アップデートで何かを売ろうとしていることを知ったら、自動的に商品と価格をフォーマットできる。そしてもしFacebookが、有名人の投稿へのコメントでどんなものが面白いかを判別できるなら、あなたが本当に読みたいコメントを優先して表示することができる。

上に挙げたのはFacebookの最新人工知能システム、“DeepText”の重要な応用例だ。40万件の新規投稿と12万5000件の公開記事へのコメントが、毎分Facebookでシェアされている。Deep Textは、Facebookが毎秒数千件の20言語にわたる投稿を、人間に近い精度で分析する手助けをする。

Facebook Deep Text Ride Gif

DeepTextを使って、Facebook Messengerはあなたがいつ車に乗る必要があるかをが認識し、UberやLyftのアプリ内オプションを薦める。

Deep Textの最もわかりやすい応用例はMessengerに登場する。私が車に乗りがっているとDeep Textが考えると、Messengerは統合機能を利用してUberやLyftを薦める。”I need a ride” [車が必要]を認識するのは簡単だが、 “Should I call a car?”や”I can pick you up in 20” や “I’ll get an Uber” 等も拾う必要がある。

Facebookは、「人間が文章を理解する方法に近づくためには、コンピューターにスラングや言葉の意味の曖昧さ等を教える必要がある。例えば、誰かが “I like blackberry” と言った時、それは果物なのか端末なのか?」と説明する。

もちろん、プライバシーの懸念が一部の人々を心配させるだろう。今Facebookは、ユーザーのプライベートメッセージを分析することを強調している ― 以前Facebookが集団訴訟の標的になった案件だ。

Facebook Deept Text Analysis

Deep Textや様々な画像認識AIによって、Facebookは、コンテンツを書き手から読み手に渡す方法を大きく改善しようとしている。そうすることで、ユーザーが見る物を積極的にフィルターしたり推奨したりするためのノウハウや製品デザインを持たない、SnapchatやTwitterといった他のサービスに対して優位に立つことができる。

もしニュースフィードの記事が全部面白くなれば、ユーザーがFacebookに費やす時間は増え、さらに多くのテキストをシェアするようになり、Deep Textはさらに賢くなる。そしてFacebookのAIフィードバックの車輪はどんどん速く回転し、完璧なコンテンツ推奨エンジンへと向かうだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

ロボットがデートして交配して3Dプリントで子孫を産む‘Robot Baby’プロジェクト、進化(自然淘汰)の過程もある

robot-baby-bgw-1

オランダの研究者たちが、“繁殖するロボット”を作った、と主張している。繁殖とは、生殖能力がある、ということ。お子様向きに説明すると、二つのロボットの相性評価アルゴリズムが良い結論に達したら、ビューティフルなことが起きるのだ。それ以上詳しいことは、大人になったら分かるよ。このページを下へスクロールしてもいいね。

この“Robot Baby”プロジェクトのプレスリリースはこう述べている: “産業革命の次は産業進化だ。進化の重要な第一歩がこの画期的な発明であり、たとえば、未来における火星の植民地化に重要な役割を演ずる”。小さなどんぐりから大きな樫の木が育つ、とは言うけど、でも、彼らの主張は眉をよーく濡らして聞くべきだ。

“交配”し、“進化”するロボットの研究は、これまでにもいろいろあった。自己再生産能力のある“分子キューブ”や、生まれた子の中から優秀な子を選別する“ロボマザー”、互いに競争し共有し合う“遺伝子”のある“ロボフィッシュ”などなど。でもまだ、本物のGrey gooやロボットの軍隊は見たことがない。…ここは、クォーテーションマーク(引用符記号)の使いすぎで、編集長に叱られそうだ。

でも今度のプロジェクトには、概念実証の段階にすぎないとはいえ、何か新しいものがありそうだ。電動ブロックをランダムに構成したロボットが二つ(将来的にはもっと多く)あり、彼らはよろめきながら歩いて行くが、そのとき、なるべく明るい方向に向かう習性がある(人間の性質ならそれを走光性(phototaxis)と呼ぶ)。光源に早く到着した、運動能力の高いロボットだけを集めて合コンを行い、互いを評価し、番(つがい、夫婦)を選ぶ。

この、番の決定過程はもっと複雑だが、大雑把に言うと、構成ブロック数と脚の長さが同じで、光源への0.5メートルダッシュのタイムがほぼ同じであること、だ。

Robot-gezin-web_tcm270-767827

そうやって出会った二人はデートを数回行い、たちまち恋仲になる。そして、お互いの遺伝的素材(自分を動かしていたコードとハードウェア)を提出しあい、それらを混成して新しいロボットを作る。これが生殖の過程だ(分からなかった読者もいるかもしれない!)。

こうして生まれる赤ちゃんは、パパの右足とママの左足、しっぽ、姿勢安定装置を合わせた奇怪なキメラだ。そしてこの赤ちゃんの脳が言うとおりに各部材を3Dプリントし、それらを組み立てる。より優秀な新世代ロボットの、量産だ。

研究者たちの主張は、難解でもあるが不合理ではない。自己変容型ロボットは状況と環境に自力で適応し、人間の指示や命令を必要としない。

そして自然淘汰のアルゴリズムは、人間のちっぽけな脳の能力を超えたユニークなソリューションを作り出すかもしれない。たとえば、誰かがキリンにプロポーズしたら、あなたはそれを承認するか? しかしそれでも彼ら自身は、きわめてまともだ。この滑稽なビデオは、実際にキリンの解剖を記録している。

コンピューターによる自然淘汰があり、それによる進化もある、という説に納得しない方は、この“進化した仮想生物”を見るか、または、このすばらく楽しいスクリーンセーバーを動かしてみよう。

Robot Babyプロジェクトは、アムステルダム自由大学のAIの教授Guszti Eibenのロボットベビーだ。それは、移動式テクノロジー見本市Campus Partyで披露された。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビジネスとしてのビッグデータ分析はいまやっと“成熟期”に入ったばかり、今後の機会が大きいとVCたちは見ている

binary_data

[筆者: Harry-Stebbings](ベンチャーキャピタルに関するポッドキャストThe Twenty Minute VCのファウンダーでホスト。)

最近のインタビューで、“ビッグデータはいよいよこれからが本番だ”、と語ったFirstMark CapitalのMatt Turckによると、2010年にはシリーズA市場のわずか2.5%にすぎなかったビッグデータへの投資が、今ではVCたちの投資全体の7.5を超えている。そもそも、ビッグデータ分析という業態は、今どんな段階にあるのか? そして最近のAI熱は、ビッグデータと密接な関係があるのか?

エコシステムの成熟

ビッグデータのこれまでの進化には、三つの段階がある。まず、その形成期は、LinkedIn, Facebook, Googleなど少数の大手インターネット企業が支配した。彼らのもとに大量のデータセットが集まり、彼らにはレガシーのインフラストラクチャがないから身軽で、しかも優秀な技術者がたくさん集まった。彼らは、これからの世界が必要とする技術を作っていった。

そして次の第二の段階では、これら大手インターネット企業の技術者たちがスピンオフして自分のスタートアップを作り始めた。彼ら未来のユニコーン(10億ドル企業)候補たちは、彼らと同じくレガシーのインフラストラクチャのない企業を顧客にしていった。Turckはこう言う: “レガシーのインフラストラクチャがないことこそが、彼らのイノベーションの基盤だった”。そして彼らにとってイノベーションの最先端といえば、ビッグデータスタートアップの初期の顧客になることだった。

そして、今現在の第三段階が、大きな課題をもたらしている。さまざまな企業がビッグデータ技術に関心を持ち、採用を始めているが、それ自体はまだ、ごくごく初期的な段階なのだ。

第二段階のときと違って、今の企業は多くがレガシーのインフラストラクチャを抱えているから、ビッグデータ革命によって失うものも多い。彼らの既存のインフラストラクチャは、企業の現状をまがりなりにも支えているから、ビッグデータにとって大きなハードルになる。ビッグデータには、彼らの経営の核であるレガシーのインフラストラクチャを捨ててもよいほどの価値があることを、どうやって説得すべきか?

Turckは語る: “これからのスタートアップの仕事は、データによって企業経営がよりスマートになることを、顧客に理解してもらうことだ”。また、“大企業が率先してビッグデータ分析を試行的に導入していくこと、スタートアップがそこから食い込んでいくことも重要だ”。

AI

AIの最近の進歩と、それに対する関心の高まりは、ビッグデータがなければありえなかった。Turckは極論する: “AIはビッグデータの子どもだ”。たとえば深層学習(deep learning)のアルゴリズムが作られたのは数十年前だが、それが今や、大量のデータ集合を扱う実用技術になり、コストも実用レベルまで下がってきている”。だから、“AIが可利用性の高い実用技術へと開花結実してきたのも、ビッグデータのおかげだ”。

ビッグデータエコシステムの成熟と進化がこれからも続けば、AIがビッグデータのアプリケーション層の成長を導く触媒になるだろう。でも、ビッグデータは、今はまだまだ初期的な段階だから、今後のアプリケーションの多様化とともに、ビジネス機会としてのビッグデータはますます大きくなっていくだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))