GoogleとBlizzardが組んで、AI専用のスタークラフトを作った

starcraft_ai

人工知能はチェスや囲碁等の高度な頭脳ゲームをある程度習得した ― それでは、スタークラフト2のように、高度な戦略を迅速な反応が必要な戦術的思考と組み合わせたゲームはどこまで戦えるだろうか。おそらくかなり強いと思う。そしてGoogleのDeepMindとBlizzardの協同研究がそのことを証明してくれる。

このプロジェクトはAIがただスタークラフト2をプレイするだけではない ― それならゲーム自身に内蔵されたものから、あらゆる人間よりも速く操作するようにプログラムされたボットまで、既に数多く存在している。ザーグリングが大量のシージェタンクと戦うところをご覧あれ。たいていはザーグ味のスープが出来上がる(大音響注意)。

実際には、ゲームのためにAIに優しい環境を作ることを目的に、この見るからに厄介で複雑なゲームを理解するのに必要なAI機能をゲームに統合する。

例えば、ヘルスバーの読み方や人間のSVCとプロトスのプローブの見分け方を知り、それに応じて行動することができる。しかし、画面上の画像しか利用できないAIは、試行錯誤によって学習する必要がある。ただしこのAIは、誰が敵か、低地と高地をどう区別するか等のヒントをこっそり教えてくれるバージョンでプレイしている。

上の動画は、初期バージョンでAIが実際のピクセル上に様々な意味の「レイヤー」を重ねているところ。このカンニングペーパーを使うことでAIはもっと重要なことに集中できる。ワーカーユニットをいくつ作るか、ガスをいつ止めるか、武器とアーマーのどちらを先にアップグレードするか等だ。

ゲームをプレイしたり記録されたゲームを見ることで、AIは「マクロ」ゲームと呼ばれる戦略や戦術に関する知識を蓄積し、超人間的速度のアクションを活用してバトルや小競り合いで「マイクロ」を支配する方法を学んでいく。山ほどの情報を分析してゲーム中いつでも利用できるようにしておく必要がある ― 完璧なユニット制御も、優れたリソースを持つ敵に出し抜かれたり潰されたりしては意味をもたない。リアルなプレーヤーと同じく、AI「高次元アクションスペース」を移動しつつ、長期的記憶と計画を操る必要がある。

大切なのは勝利の栄光だけではない(一部ではあるが) ― このレベルのビジュアルと複雑なゲームプレイを扱うAIを作ることは、われわれのモデルの何が問題で、何に秀ているかを理解する助けになる。

興味が湧いた人cBlizzconで詳しい情報を見ることができる。あるいは少し待って、スタークラフト2のテスト環境が公開されれば、自分専用のAIを配備することもできる。

[原文へ]

(翻訳:Nob Takahashi / facebook

ホンダ、商品化に向けてAI研究所を東京に集約

9660320762_e88d38e576_k

ホンダが新しいAI研究センターを設立する。来年始めに活動を開始する同センターは、この分野の研究開発に特化する。新センターは、シリコンバレー、ヨーロッパ、および日本に分散しているホンダのAIチームを、東京中心部の一箇所に集めるとBloombergは伝えている。この統合は、感情を持つ自動車などのホンダのAI製品を商品化し、トヨタらのライバルに遅れをとるまいとする計画の一環だ。

この分野の活動を主に東京で行うことを決断した理由として、自動運転技術の開発を進める上でホンダの自動車部門の近くにいる方がよいことに加え、ホンダがシリコンバレーに匹適すると考える日本のAI専門家らへの期待がある。

現在AI研究は、主要IT企業のほぼ全社が手がけていて、その中にはカメラメーカーもいる。これを商品化するために一丸となって取り組み、近い将来消費者の購入決定に影響を与える何かを作ることは、この分野のプレーヤーになることを真剣に考えている企業であれば当然の行動だろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

ホンダ、商品化に向けてAI研究所を東京に集約

9660320762_e88d38e576_k

ホンダが新しいAI研究センターを設立する。来年始めに活動を開始する同センターは、この分野の研究開発に特化する。新センターは、シリコンバレー、ヨーロッパ、および日本に分散しているホンダのAIチームを、東京中心部の一箇所に集めるとBloombergは伝えている。この統合は、感情を持つ自動車などのホンダのAI製品を商品化し、トヨタらのライバルに遅れをとるまいとする計画の一環だ。

この分野の活動を主に東京で行うことを決断した理由として、自動運転技術の開発を進める上でホンダの自動車部門の近くにいる方がよいことに加え、ホンダがシリコンバレーに匹適すると考える日本のAI専門家らへの期待がある。

現在AI研究は、主要IT企業のほぼ全社が手がけていて、その中にはカメラメーカーもいる。これを商品化するために一丸となって取り組み、近い将来消費者の購入決定に影響を与える何かを作ることは、この分野のプレーヤーになることを真剣に考えている企業であれば当然の行動だろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBM WatsonとUdacityがパートナーしてネット上に人工知能の単科学位コースを開設(全26週)

ibm-watson-servers

社会人のスキルアップ&キャリアアップのためのネット教育をやっているUdacityが、IBM WatsonDidi Chuxing、およびAmazon Alexaとパートナーして、人工知能のナノディグリー*を提供していく、と今日(米国時間10/25)のIBM World of Watsonカンファレンスで発表した。〔*: nanodegree、ナノ学位、‘ミニ’よりもさらに小さな学位、特定単一科目限定。Udacity独特の用語である。〕

この課程のためのカリキュラムはIBM WatsonとUdacityが共同開発する。‘中国のUber’(のひとつ)Didi Chuxingは、このナノ学位を取った学生を雇用する。IBMも、だ。人工知能ナノ学位の開発に関し、Amazon AlexaがUdacityのアドバイザーとなる。

UdacityのファウンダーSebastian Thrunは、Googleのイノベーション部門Google Xと、その自動運転車開発事業を創始した人物だが、彼によるとこのAIナノ学位は、ソフトウェア開発にある程度精通している人が対象だ。

IBMでWatsonを担当しているVP Rob Highが同社のブログ記事に、このナノ学位の教程では、ゲーム、検索、ロジックとプランニング、コンピュータービジョン、自然言語処理などのアプリケーションやプラットホームの作り方を学生に教えていく、と書いている。

人工知能と倫理の問題についてThrunはこう言う:

“その問題は、ナノ学位のカリキュラムには含まれない。AIに関して恐怖を声高に広める人たちがいるが、AIと世界の支配や破壊は無関係だ。むしろそれは、退屈な繰り返し作業から人間を解放する。あなたがライターじゃなくて、オフィスで毎日同じことをしているオフィスワーカーだ、と想像してご覧”。

“あなたの仕事のやり方を見ていたAIは、あなたの仕事をあなたの100倍の効率でできるようになるだろう。あなたには、大量の自由時間ができる。AIと人間の心との関係は、蒸気機関と人間の体との関係とパラレルだ、と私は思う。どちらも、世界にとって、ポジティブなニュースだ”。

UdacityのAIナノ学位課程は、13週間の学期を2学期受ける。最初の学期は、2017年の初めに開く。

カリキュラムは目下開発中だが、教えるのは人間だ。ただしそれらの先生たちが、自分の授業のためのAIアプリケーションを開発するのは、かまわない。

UdacityはEdX, Courseraなどなどのエドッテック(edtech)プラットホームと競合している。どこも、今のテクノロジー社会における、一般社会人のスキルアップとキャリアアップを、売り物にしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

イーロン・マスク、完全自動運転車の全米横断テストドライブを2017年中に実施へ

autopilotnew

Elon Muskは自動運転車の提供スケジュールを本気で加速しようとしている。Tesla CEOは今日の電話会見で、来年中に無人Tesla車のテストドライブを開始したい意向を語った。

どんなテストか?街中を一周りするのではなく、全米横断だとMuskは言う。

「われわれのゴールは ― 私はかなり気に入っているのだが ― ロサンゼルスからニューヨークまで、完全自動運転のデモンストレーション走行を行うことだ。ロサンゼルスの自宅を出発し、例えばニューヨークのタイムズスクエアで降りると車は自動的に駐車する。これを来年中に実現したい。人間は一切手を触れる必要がない。充電を含めて」と今日の会見でMuskは話した。

この目標がどういうレベルなのかといえば、現在行われている自動運転車のテストは州境すら越えていない。もちろん国境も。それは非常に大きなゴールである。しかもMuskがこれも今日発表した、新たなハードウェアおよびシステムのアップデートによると、今後Teslaが製造する全車種にはこれを再現できる可能性がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Appleは、もう自動車を作るつもりがない(Bloomberg報道)

self-driving-car

Appleは、秘密とはいえない自動車プロジェクトに何年も前から取り組んでいる。内部でTitanと内部で呼ばれているそのプロジェクトでは、リーダーやロードマップが度々変わった。Bloombergの最新記事によると、同社は電気自動車の製造計画を中止するらしい。代わりに自動車チームは、自動運転技術に焦点を絞る。

さらに興味深いのは、Appleが自動車会社になることに二の足を踏んでいたらしく、明確な期限を設定していたことだ。もしAppleの自動車チームが2017年末までに有望なデモを見せられなけれは、会社はプロジェクトを中止するという。

当初Appleは、伝統的Apple製品を作ろうとしていた。ハードウェアとソフトウェアの両方をコントロールするという意味だ。Appleは自動運転テクノロジーを塔載した電気自動車を2020年以降に出荷する計画だった。

しかしAppleはそうした野望を縮小した。Bloombergによると、何百人もの技術者が会社を去ったり辞めさせられたりした。もはやAppleには電気自動車を作るつもりがないからだ。代わりにAppleは既存の自動車メーカーと提携する計画だ ― iPhoneよりもAndroid的だと考えればよい。そしてもちろん、Appleが最終的に車を製造決断を下す可能性はある ― 今ではないというだけだ。

長年Appleの幹部を務めるBob Mansfieldが、現在プロジェクトを率いている。Boombergは、彼こそAppleが自動車戦略をシフトしている理由だと言っている。8月と9月に大量の従業員がやめた理由でもある。

自動運転技術についてはかなり誇大宣伝されているが、われわれが完全自動運転車を買えるようになるのは、まだかなり先のことだ。それは複数年にわたる大きな資本を要するプロジェクトであり障壁も多い。もし、テクノロジーとエンジニアと戦略が適切でなければ、非常に高価な失敗を招くことになる。Appleが慎重に歩んでいる理由はそこにある。

しかし、自動運転技術に焦点を絞ることが正しい戦略であるとも容易には言えない。Teslaのように完全自動運転車を作ろうとしている会社もある。一方、Uberのように、自動車メーカーと組んで自動運転キットを作ろうとしている会社もある。Renault-Nissanのような既存自動車メーカーは、IT企業と提携することによって車の製造に集中しようとしている。

どの戦略が勝利を得るかまだ誰も知らない。しかし確かなことが一つある。熾烈な競争の中、企業は数年先に自動運転車で好位置に立つために、今投資する必要がある。Appleの自動車プロジェクトへの投資は多すぎるのか、それとも少なすぎるのか?今は誰にもわからない。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google、AIから偏見を排除する方法を研究中

Artificial intelligence and cybernetics

ガーベージイン・ガーベージアウト ― これは常にコンピューティングのルールであり、機械学習も例外ではない。基本的ぬAIは、教えられたことしか知らないので、データに何らかの偏見があれば、それに基づいて訓練されたシステムもそうなる。Googleは、そんな厄介で深刻な問題を引き起こしかねない状態を、”Equality of Opportunity” [機会均等]と名付けた方法を用いて系統的に回避しようとしている。

機械学習システムは、基本的に様々なデータ集合の性質学習する予測エンジンから成り、新たなデータを与えられるといくつかあるバケツのどれかに分類する。画像認識システムなら、車のタイプの違いを学習し、それそれの写真に「セダン」「ピックアップトラック」「バス」等のラベル付ける。

間違いは避けられない。スバルのBRATやシボレーのEl Caminoを考えてみてほしい。コンピューターがどう判断するにせよ、それは間違っている。この少数しか存在しない車両タイプのデータを十分に持っていないからだ。

この例の誤りから起きる問題は取るに足らないだろうが、もしコンピューターが車でなく人間を調べ、住宅ローン不払いのリスクによって分類したらどうだろうか? 共通パラメーターから外れた人々は、システムがデータに基づいて良好と考える条件に当てはまらない可能性が高くなる ― それが機械学習のしくみだからだ。

グループのメンバー情報に、繊細な属性、例えば人種、性別、障害、宗教等があった場合、不公平あるいは偏見をともなう結果を招きかねない」とGoogle BrainのMoritz Hardtがブログに書いている。「ニーズがあるにもかかわらず、繊細な属性に基づくこの種の差別を防ぐための十分吟味された方法論が、機械学習には存在しない」

Hardtは、同僚のEric Price、Nathan Srebroと共同で、この種の結果を避ける方法を説明した論文をまとめ、この種の結果を避ける方法を記載した。次のような数式がたくさん書かれている。

Kolmo-what now?

Kolmo-what now?

しかし要点はこうだ:望ましい結果が存在し、誤った属性のために正しい結果を得られない可能性があるとき、アルゴリズムが自らを調整して、その属性によらず結果の分布が均等になるようにする ― 即ち、本質的でない属性間に等しい価値を置くようシステムを訓練する。

チームが作ったこのインタラクティブ・チャートを使うと直感的に理解できるだろう。これは道徳的に正しい数字をひねり出すためのものではない。モデルの結果はむしろ予測を正確に反映している。もし、ある属性に意味があるなら ― 地域に基づいて信仰する宗教を計算したり、性別による医学的予測を行う場合等 ― それを判定基準に含めればよい。

機械学習が多くの業界で急速に広まる中、Googleの取り組みは実に思慮深く、極めて意義が大きい。新たなテクノロジーの限界とリスクをよく理解しておくことは大切であり、これは地味だが重要な活動だ。

著者らはNeural Information Processing Systems会議で論文を発表する — 誰もがバルセロナを訪れる良い理由だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Yahooがポルノを検出するニューラルネットワークをオープンソース化、ただし訓練はあなたの仕事

nsfw_score

インターネットの上のものに、どうやってNSFWを指定するのか? Yahooに聞こう。Yahooはそれをやっている。わいせつなコンテンツで訓練した、同社特製の、ポルノ検出ニューラルネットワークだ。そして今回、そのシステムがオープンソースになったから、誰もが使える。そう、そのとおり、フォークするのも自由だ。

それはもちろん冗談。Yahooのアルゴリズムは万能ではない。画像を見てNSFWだ、と判断するのは、もっとも手強い難問の一つだ。昔から、見れば分かるさと誰もが言うが、そう言える人は、全生涯をポルノを見て過ごした人だけだ。コンピューターには、そんな経験はない。

純潔無知なマシンもしかし、Yahooに捕まって何千もの画像で訓練され、画像認識エンジンにされてしまうと、腐敗のきわみに達する。もう、彼の純情は永遠に盗まれてしまった。しかしそれと引き換えに、あなたがネットで検索したとき、結果にいやらしいものが紛れ込む確率は低くなる。

でも、まじめな話、畳み込みニューラルネットワーク(convolutional neural networks, CNN)は画像を分類するための優れたツールだ。そのことは、これまでの数多い研究によって証明されている。特定のタイプの画像のデータベースで訓練すると、アルゴリズムは一定のパターンに対して敏感になる。犬を見分けるCNNなら、尻尾や鼻や、とがった口をたくさん見せられるだろう。車なら、車輪やドアの取っ手やラジエーターグリルを認識する。そしてポルノなら何を、…それはご想像におまかせしよう。

Yahooのシステムはいろんな画像を見て、それらに0から1までの点をつける。ポルノだと判断した画像の点は、1に近い。検閲目的だけでなく、いろんな状況で使えそうだ。刺激的な画像が歓迎される場面もあるが、Web上の大量のデータを相手にするときは、それらを篩い落とせた方が便利だ。

メールやメッセージを、プライバシー侵害にならずに、チェックすることもできる。同僚がいたずらで送ってきたNSFW画像を、職場でうっかり開く醜態は、たぶんなくなる。

オープンソースのコードをビルドしてエンジンができても、まだそれは全然訓練されていない。たくさんポルノを見せて訓練するのは、あなたの役目だ。でも今のインターネットの上なら、それは問題ないだろう。詳しい説明はYahooのブログ記事にある。そしてコードのダウンロードはGitHubからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Javaによるディープラーニングライブラリをオープンソースで提供するSkymindが$3Mを調達

Lines and dots interconnecting, conceptual illustration.

オープンソースでJavaのディープラーニングライブラリとその一連の実装ツールを作っているSkymindが今日、Tencent, SV Angel, GreatPoint Ventures, Mandra Capital, Y Combinatorらによる300万ドルの資金調達ラウンドを完了した。Y Combinatorの2016冬季クラスで育ったSkymindは当初、Joe MontanaのLiquid 2 Venturesやそのほかの著名なエンジェルたちから資金を得ていた。

協同ファウンダーでCEOのChris Nicholsonは、ディープラーニングの研究者たちが相次いで学究の世界を去り、大手テクノロジー企業の6〜7桁社員(年俸数十万〜数百万ドル)になっていく傾向を見て、Skymindの創業を着想した。人的資本はますます希少財になりつつあるから、多くの企業はディープラーニングという新しい技術にも、既存の人的資源で対応せざるをえない。誰もが使えるオープンソースのライブラリは、このような困難な一般状況に、一石を投ずることができる、と彼は考えた。

今世界で、最も多く(約80%)のプログラマーが熟達しているプログラミング言語がJavaである。Nicholsonと彼の協同ファウンダーAdam Gibsonは、これらのプログラマーがAIの開発もできるようになるための、方法はあるだろうか?と考えた。そしてその考えがライブラリDeeplearning4jへと結実し、Skymindの核となった。

Nicholsonは、SkymindはディープラーニングのRed Hatだ、と言う。エンタープライズソフトウェアをもっぱらオープンソースで作っているRed Hatは、今では年商15億ドルを超える企業に育っている。

Fortune 100社のためのソフトウェアをオープンソースで作り続けることは、決して容易ではない。しかし、オープンソースは企業に十分な競争力を与えるだけでなく、最良のエンジニアを雇用できる機会にもなる。

Skymindは今15名を雇用しているが、本社が裕福なパロアルトやSoMaなどにあって全員がそこに勤務している、という形ではない。チームのメンバーは、日本、韓国、オーストラリアなど世界各地に散在している。そしてこれらのエンジニアの多くが、Skymindのオープンソースコミュニティに属し、ライブラリの各部分を担当している。たしかに小さな本社がSoMaにあるが、それは同社のビジネスにとって重要ではない。

Skymind

フランスの大手通信企業(年商420億ドル)Orange SAはSkymindとその実装ツールSkymind Intelligence Layer(SKIL)を使って、ディープラーニングのプロジェクトを構築している。SKILは、Hadoopなどの既存のツールとSkymindとの接続と対話をサポートする。Nicholsonによると、金融サービスやeコマースなど従来からデータ量の多い業界からの引き合いも、このところ少なくない。その中には、中サイズの企業もいる。

Google(TensorFlow)、Amazon(DSSTNE)、Baidu(PaddleOne)などの巨大テクノロジー企業はそれぞれ自社で巨額を投じてオープンソースのディープラーニングライブラリを開発し、それらを外部のアプリケーションも利用している。しかしそれらは残念ながら、Javaのライブラリではない。

Skymindのライブラリは、先月だけでも22000回ダウンロードされ、各月の前月比で20%近く伸びている。Nicholsonによると、今後はデータサイエンティストのための開発ツールも作っていきたい。そのツールには、報酬方式の機械学習の一種である強化学習(reinforcement learning)へのアクセスを、既存企業のために民主化するパッケージも含まれるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaの「AIカー」は、人間ドライバーから学んだ知識だけを使って自動運転する

自動運転車への取り組みにはやり方がいくつかある。一つはアルゴリズムやルールをプログラムして、個別の状況でどう振る舞うべきかを車に教え込む方法。しかしNvidiaは、ディープラーニング手法を使って人間ドライバーから得た現実世界のデータを自動運転システムに提供し、運転の方法を自ら学ばせる ― まるでAI内蔵のスーパーティーンエージャーが、助手席に乗った経験だけで運転を覚えるように。

北米の平均的ティーンエージャーと同じく、Nvidiaのテスト車(BB8という愛らしい名前はスターウォーズのBB-8へのオマージュに違いない)は、まず駐車場で学習を始め、トラフィックコーンで区切られた車線を走って練習する。やがて卒業して路上に出ると、見通しのきかない交差点等の扱いにくい状況にも、何事もなかったように対応するようになる。

デモビデオは、このアプローチの潜在的優位性をいくつか紹介している。このシステムはカリフォルニアで訓練を受けたが、道路や運転環境の異なるニュージャージーでも問題なくテスト走行をこなした。車線標示のない道路でも、さらには夜間でも、特別なアルゴリズムを提供しなくても難なく走り通した。

Nvidiaによると、これは同社単独のプロジェクトであり、どの自動車メーカーも関与していない。次のステップはシステムの訓練を続け、時間と共にさらに賢くしていくことだという。

[原文へ]

(翻訳:Nob Takahashi / facebook

MicrosoftのProject Springfieldは、デベロッパーのバグ潰しを支援する

LAS VEGAS, NV - JANUARY 10:  A general view of the Microsoft booth at the 2012 International Consumer Electronics Show at the Las Vegas Convention Center January 10, 2012 in Las Vegas, Nevada. CES, the world's largest annual consumer technology trade show, runs through January 13 and is expected to feature 2,700 exhibitors showing off their latest products and services to about 140,000 attendees.  (Photo by David Becker/Getty Images)

今日(米国時間9/26)Microsoftは、アトランタで行われた同社のIgniteカンファレンスで、Project Springfieldを初めて披露した。このクラウドベースのツールは、デベロッパーがアプリケーションのバグを見つけるのを支援するもので、準ランダムな入力を与えて自動的にコードをテストするファズテストに、潜在的セキュリティー問題を見つめるための想定質問を生成するAIツールを組み合わせ作られている。

「自動車の衝突事故を思い浮かべてほしい」とMicrosoftの研究員、David Molnarが私に言った。現場を見てもなぜ衝突したのかはわからない。一般のファズテストは、いつコードがクラッシュしたかを教えてくれるだけだが、このツールのAI部分はソフトウェアがどのようにクラッシュしたかを推測する。開発チームは、このツールが「100万ドルのバグ」を見つける最適な方法だと繰り返し語った。同社のオペレーティングシステムや生産性ツールにセキュリティー問題があった時、配布後に修正するには膨大なコストがかかるからだ。

springfield_hero-539x303「ツールを実行すると、最も重要な部分に集中してデータを集める。こうした焦点を絞り合理的判断に基づくアプローチをとることによって、Project Springfieldは他のファズツールが見逃がすような脆弱性を発見できる」と今日の発表文でチームは語った。

デベロッパーが同サービスにバイナリーファイルをアップロードすると、クラウド上でテストが行われる。バグが見つかると、問題を再現するためのテストケースがデベロッパーに通知される。

Microsoftは、類似のツールをこれまで約10年間社内で使用している、とMolnarは言った。例えば、Windowsの潜在バグを検出するためにも使われているという。

一つ興味深いのは、このツールがソースコードを必要としないことだ。テストにはバイナリーを利用するため、他社から買うコードを評価したり、会社を買収する際にも使うことができる。

複数のファズテスト技法にAIを組み合わせることによって、他のテスト方式より多くのバグ ― および奥深いバグ ― を見つけることができる、とチームは言っている。

究極のゴールはこの技術を民主化し、開発パイプラインに簡単につないでどの会社でも利用できるようにすることだとMolnarは言う。MicrosoftがいつProject Springfieldをデベロッパーに提供するのか、Molnarは言わなかったが、今すぐプレビューにサインアップできると繰り返し話していた。

[原文へ]

(翻訳:Nob Takahashi / facebook

子どもの言語障害の早期発見を機械学習が支援、家庭でスマホで検診ができる

shutterstock_435914203

言語障害の検診は早めに、しかも複数回やれ、と言われる。でも、すべての子どもをタイミングよく検査できる設備と要員が完備している地域は、そう多くない。しかし、ここでご紹介するMITの研究結果が正しければ、少なくとも基本的な検査は、自動化され、家庭でもできるようになるだろう。

サンフランシスコで行われたInterspeech カンファレンスで、同校のコンピューター科学者たちが、その新しいテクニックを説明した。まだ開発の初期的な段階だが、かなり期待を持てそうだ。

神経の障害のために、会話(発話と相手の言葉の理解)がうまくできない子どもたちは、ある種のテストで一定のパターンを示す。それは、複数の画像を見せ、それらについてお話をさせるテストだ。休止や、特定の時制や代名詞でのつまづき、そういった小さなことが、深刻な問題の指標であることもある。

院生のJen GongとJohn Guttag教授が作ったそのシステムは、まず、子どもたちのそんなお話の録音を多数、機械学習システムに聞かせる。そのデータ集合を細かく分析することによって、システムはいくつかのパターンを学習する。それらは、健常者のパターン、発達障害に顕著なパターン、初期の言語障害を示すパターン、などだ。それらは、これまでの研究で確証されているパターンなので、問題はない。

専門教育を受け、訓練を積んだ専門家に代わるものではないが、でも専門家をアプリに詰め込むことはできない。システムは、現状で精度も実用レベルに達しており、どんなスマートフォンからでもできる検診なので、障害の早期発見早期治療に貢献するだろう。

でも、まだまだやるべきことはある。

“大量の良質なデータにより、今後ともシステムを訓練していく必要がある”、とGongは述べている。“子どもたちの発達過程はきわめて多様だから、健常と障害の両方について、いろんな子どもたちのデータを集めることが、システムのより良質な判断力を育てる”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Wikipediaの上ではボットたちが毎日のように喧嘩している

bots-glitch

ボットはWikipediaの便利なツールだ: 彼らは編集結果をアンドゥーする破壊行為を見つけ、リンクを加え、人間のご主人様が命じた面倒な仕事をこなす。でも、彼らのような自動化されたヘルパーたちですら、争いに巻き込まれ、同じ記事の上でお互いに、書いたり消したりを繰り返す。中には、長年続いている抗争もある。

それは必ずしも、本格的な戦争ではない。むしろ、家庭で繰り広げられる、エアコンの温度設定をめぐる争いに似ている。誰かが70度(華氏)にセットする。次の日にルームメートが71度にセット。翌日70に戻す。また71にされる。その繰り返しだ。必ずしも緊急の問題ではないが、オックスフォード大学のアラン・チューリング研究所(Alan Turing Institute)の研究者たちによると、それでも研究に値する。彼らは、単純なボットでも予想外の対話的行為に及ぶことがある、という。

彼らは10年間にわたる編集履歴を調べ、ボットがやることは、いろんな点で人間がやることとは違う、ということに気づいた。

ボットたちは機能が単純だから、自分がやってることの意味を知らない。2体のボットが長年にわたって、同じ箇所のアンドゥー/リドゥーを繰り返していることもある。その記事はいつまでも更新されず、ボットが互いに相手がやったことをキャンセルしているだけだ。人間の場合は、ミッション意識があるので、互いに相手を消し合うことはなく、一人の人間が他人の仕事の数百箇所を変えても、何も言われないこともある。

botbattles

English Wikipedia is by far the largest, and has the most total, but Portuguese bots reverted more often.

ボットが互いに相手の編集結果を消す/元に戻す行為は、国によって激しさが違う。10年間で、ドイツのボットは比較的礼儀正しく、お互い消し合う行為は、ボット1体につき平均約32回だった(1年平均3.2回)。逆に激しいのがポルトガル、ボット1体あたり188回やりあっている。それが何を意味するか、その解釈は読者にお任せしよう。

結局のところ、このような些細な小競り合いは、重大な結果には行き着かない。しかし研究者たちによると、それは、Wikipediaがとても注意深くコントロールされている環境だからだ。でも、少人数のお行儀の良い、公認のボットでも、抗争はつねにあり、それらは往々にして複雑、そして変化が激しい。野放しの環境では、もっとひどいだろう。研究者たちは、これは人工知能の分野の人たちにも参考になるはずだ、と述べている:

互いの相違を管理でき、不毛な抗争を避け、社会的かつ道徳的に許せるやり方で仕事ができる協力的ボットを設計するためには、何がどうやって、ボット間の対話的行為〔抗争など〕の契機になるのかを理解することが、きわめて重要である。

研究報告書“Even Good Bots Fight”(善良なボットでもファイトする)は、Arxivで無料で入手できる

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

NASAの小惑星捕獲計画が、ロボット宇宙船の提案を募集

arm_nasa_asteroid_mission

もうすぐ近くの惑星で、小惑星採鉱が可能になる。具体的には、2021年に、この惑星で。しかしNASAのAsteroid Ridirect Mission[ARM:小惑星移動計画]がそこへ到達するまでにまだ多くの課題がある。今日(米国時間9/20)NASAは公式「提案依頼書」を発行し、実際に小惑星移動を実行するロボット宇宙船について、パートナー4社に提案を要求した。。

このミッションは、最近実行されたOSIRIS-RExとは少々異なる。こちらは、小惑星へ行き、その一部を地球に持ち帰ろうというものだ ― 十分に困難だが、小惑星に関する最新の課題ではない ― 日本のハヤブサが既に成し遂げている(ちなみにそれは驚くべき功績である)。

ARMのゴールは、通過しようとする小惑星を、選び、持ち上げ、人の手が届きやすく安定した月の軌道に方向転換させることだ。その後宇宙飛行士が月を訪れた際にはこの比較的安全な環境で、ゆっくりと隕石を探し地球に持ち帰ることができる。

Boeing、Orbital ATK、Lockeed Martin、およびSpace Systemsの4社はいずれも「概念設計フェーズ」に参加し、宇宙船の基本部分を固めたが、今回は各社が他社と差別化するチャンスだ。例えば、ARMが惑星表面を探査するためのセンサーの構成や、着陸船の構造等は、未だに決定していない。

4社が提案書をまとめるまでに約1ヵ月ある。10月24日が締切で、NASAのJet Propusion Laboratoryが来年中に決定する。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBMとMIT、視覚と聴覚を人間のように理解するAIを共同研究

shutterstock_228897490

人間は何かが起きたのを見たり聞いたりした時、すぐにそれを言葉で表現できる。「青いシャツの女の子が、野球選手の投げたボールをキャッチした」とか「犬が海辺を走っている」とか。私たちにとっては簡単なしごとだが、コンピューターにとっては恐ろしく大変だ ― 幸い、IBMとMITが協力して、それを少しやさしくする方法を検討している。

新設の “IBM-MIT Laboratory for Brain-inspired Multimedia Machine Comprehension” (略してBM3Cと呼ぶことにする)は両組織による複数年にわたる共同プロジェクトで、コンピュータを使った視覚と聴覚の問題を集中して研究する。

チームを率いるのは、MITの脳認知科学科長、Jim DiCarloで、同学科とCSAIL(コンピュータ科学・人工知能研究所)およびIBMのWatsonチームのメンバーが新研究所に参加する。両組織間に金銭の授受はなく、特定の製品開発も行わない。活発で願わくば成果を伴う相互援助が生まれることを目標としている。

視覚情報処理の問題は様々な専門分野にわたるため、様々な方向から取り組む必要がある。例えば、カメラで物体を綿密に追跡できたとしても ― 物体を背景から切り分ける方法を知らなければ役にたたない。それができたとして ― 物体を認識できなかったら? さらには物体同志の関係も確定させなくてはならない…いずれも人間の脳が最も得意とするところだ。

image_descriptions

この分野にはGoogleも非常に関心を持っている。これは写真の要素を識別することに関する最近の研究論文だ。

これは研究所の名前に “brain-inspired”[脳からアイデアを得る]が入っている理由でもある。 人間の神経回路網の働くしくみをモデルにしたバーチャル神経回路網を使うことによって、研究所ではコンピュータが周囲の世界を解釈する方法について、あらゆる種類の興味深い成果を生み出してきた。

MITとのこの共同研究は、IBMが最近いくつか実施してきたものの一つだ。同社の認知コンピューティング担当VP、Guru Banavarが、ブログに詳細を書いている。他の共同研究には、意志決定のためのAIの研究、サイバーセキュリティー、言語のディープラーニング等がある。IBMは間違いなくAIの基礎研究に多大な投資をしてきており、万全の準備を整えようとするのは当然だ。これらの共同研究全体で、”Cognitive Horizons Network” と呼ばれるグループを構成している。

「現在われわれは、AIシステムの安全で倫理的な運用を支援するための、ベストプラクティス・システムを準備している。そこでは社会の規範や価値との一致も考慮される」とBanavarは書いている。

それがどんなものであるにせよ、社会の規範や価値が変化する速さを踏まえると、10年後の社会がどうなっているかも、どんなAIができているかも予測することは容易ではない。

[原文へ]

(翻訳:Nob Takahashi / facebook

自動車用AIのComma.ai、999ドルの自動運転アドオンを年内発売へ

comma-one

今年のTechCrunch Disrupt SFで著名なiPhone/PlayStationハッカー、George Hotzは、自身が設立した自動車AIスタートアップComma.aiが初めて販売する製品を披露した。Comma Oneは、999ドルのアドオン装置で24ヵ月分のソフトウェア購読料がついてくる。出荷は年内の予定。Hotzいわく、これを使うとマウンテンビューからサンフランシスコまで、ハンドル、ブレーキ、アクセルに一度も触れることなく車を走らせることができる。

これはふつうの車を完全自動運転車に変えるためのキットではなく、Teslaのオートパイロットに相当する機能を、新たに車を買うことなく実現するシステムだ、とHotzは説明した。「マウンテンビューからサンフランシスコまでハンドルに触らずに行ける」とHotzは言った。発売時に対応するのは少数の特定車種のみだが、いずれもっと多くのモデルでも使えるようにしたいとCooma.aiは言っている。

Commaの重要な決め手は「出荷できること」であり、これは他の企業にない特徴だとHotzは強調する。自動車メーカーやスタートアップは自動運転車プロジェクトを好んで発表するが(実際今日も1件発表があった)、そういう企業のほとんどはハードウェアすらなく、消費者に売れるものを全く持っていない。

「これは完動品だ。Teslaのオートパイロットとほぼ同等だ。」とHotzは言った。Comma Oneは内蔵の前方レーダーとカメラを利用しているため、センサーの数は多くない。「最も重要なセンサーはカメラだ。ビデオデータも取り込んでおり、Teslaでさえこれはやっていない。ビデオデータは全部持っている。」とHotzは言った。

  1. disrupt_sf16_geohot_george_hotz-3677.jpg

  2. disrupt_sf16_geohot_george_hotz-3681.jpg

  3. disrupt_sf16_geohot_george_hotz-3663.jpg

  4. disrupt_sf16_geohot_george_hotz-3669.jpg

  5. disrupt_sf16_geohot_george_hotz-3683.jpg

  6. disrupt_sf16_geohot_george_hotz-3684.jpg

  7. disrupt_sf16_geohot_george_hotz-3685.jpg

  8. disrupt_sf16_geohot_george_hotz-3686.jpg

  9. disrupt_sf16_geohot_george_hotz-3687.jpg

  10. disrupt_sf16_geohot_george_hotz-3688.jpg

  11. disrupt_sf16_geohot_george_hotz-3689.jpg

  12. disrupt_sf16_geohot_george_hotz-3691.jpg

  13. disrupt_sf16_geohot_george_hotz-3693.jpg

引き合いに出されるのは常にTeslaだ。同社のオートパイロットシステムは既に使われており、先週末にはアップデートが公開され、性能は大きく向上し、ブレーキをかけるべき時にかけない問題の可能性が減少した。「Teslaが自動運転車のiOSならうちはAndroidになりたいと思っている」とHotzは言った。

HotzはTeslaの死亡事故にも言及した。「毎年4万人の人たちが不注意のために亡くなっている。あれは『自動運転車に殺された』というような特殊なケースではなく、ドライバーが注意を怠ったケースだ。不運にもTeslaでそれが起きた。Teslaの対応は適切だったと思っている」とHotzは言った。

comma-one-2

Hotzのシステムは、Mobileyeの衝突防止シスムのような多くの主要自動車メーカーが使用している機能に対する批判精神をきっかけに生まれた。Comma Oneの目的は、既存の適応型クルーズコントロールや車線アシスト以上に運転を自動化する機能を提供することにある。「Mobileyeが未来のソフトウェアを作ると期待しているなら ― やめた方がいい」とインタビューの中でHotzは言った。

999ドルという金額は、一般消費者にも求めやすい価格を目指したものであり、それが可能になったのはCommaが安価な定型部品を使っているためだ。「年内に出荷できるよう全力を尽くしている。ただし、数はごく限られていることを改めてお伝えする」とHotzは言った。販売の詳細については近々発表される予定。

[原文へ]

(翻訳:Nob Takahashi / facebook

IBMのWatsonが作った人工知能映画(Morgan)の予告編ムービー

新しいもの好きなので、ハードルが低くなっていることはあるだろう。しかしこの予告編映画を人工知能が作り出したときくと、いろいろな意味でぞっとさせられる。予告編制作の対象となったのが、人工生命体を扱う映画であるのも「ぴったり」の感じだ。映画はまもなく公開されるSFスリラーの「モーガン」(Morgan)だ。創造者に反抗するAIを描いた映画の予告編を、AIが生み出すというのも興味深い。

Watsonも我々とともにあり!

ちなみにWatsonは、ホラー映画の予告編100本を分析して、ビジュアルおよびオーディオ的な特徴を見つけ出したのだそうだ。そして今回の予告編ムービーに結実させたというわけだ。背景に流れる音楽や、セリフのトーンに着目して、映画全体から予告編にふさわしいシーンを抜き出して制作したのだとのこと。

ともかく、人工知能によって制作された映画よりも、はるかにレベルの高い作品に仕上がっているように思う。

Via Engadget

原文へ

(翻訳:Maeda, H

FAA、操縦士から見えない場所でドローンを飛ばす許可をPrecisionHawkに与える

precisionhawkslatas

連邦航空局(FAA)はドローン技術スタートアップ、PrecisionHawkに、無人機による米国領空の有視界外飛行(BVLOS)を許諾した。

これは国で初めての適用除外例であり、企業が55ポンド(25 kg)以下の小型ドローンを事業に利用する方法を定めたパート107規約の発効と同日に決定した。

ノースカロライナ州拠点のPrecisionHawkは、農業に使用する固定翼ドローンの製造、およびドローンで集めた空中写真やデータの保存、分析を行うクラウドベースソフトウェア、DataMapperの開発を行っている。

TechCrunchの親会社、Verizon Communications Inc.の投資部門であるVerizon VenturesはPricisionHawkの出資者でもある。CrunchBaseによると、これまでにPrecisionHawkはベンチャー資金2900万ドルを集めている。

PrecisionHawkのドローン、Lancasterは、KespryParrotGIS UAV Ltd.等、いわゆるアグリドローン(農業用ドローン)がライバルになる。

同社のDataMapperは、DroneDeploy3DRのSite Scanを始め数多くある、ドローンユーザー向けマップ技術・データ分析プラットフォームと競合する。

PrecisionHawkのEVP、Thomas Haunは、「農業用に有視界外飛行の許可を得ることができた。これで一区画だけでなく農場全体を効率よく飛べるようになる」と語った。

適用除外といっても、PrecisionHawkがFAAの新しいパート107に定められた他のルールから外れて飛べるわけではない、とHuanは付け加えた。他の飛行機には航路を譲り、人の上空を避け、飛行できるのは日中のみ、等のルールに従う必要がある。

飛行中ビデオカメラでドローン操縦者に第一人称の視界を見せる代わりに、PrecisionHawkは同社が「低高度航空交通安全システム(LATAS)」と呼ぶしくみを使って、操縦者が他の飛行機や障害物を避けるのを助ける。このシステムはHarrisの航空交通データを利用している。

パート107.31のPrecisionHawkに対する適用除外は、FAAが与えた初めての “VLOS”(有視界)に関する免除だ。パート107が発効された日に、FAAは計76件の適用除外を発行したが、そのほとんどは夜間飛行を許可するものだった。

[原文へ]

(翻訳:Nob Takahashi / facebook

マーク・ザッカーバーグは、自宅のホームAIシステムを見せたがっている

iron-man-3-18

Facebook CEOのMark Zuckerbergは、この記事の読者より少なくとも数年先を生きている ― 今日(米国時間8/29)Zuckerbergは、ローマの聴衆に向けて(via Verge)、自宅の人工知能システムを来月デモしたいと話した。エアコン、照明等の機器を、顔認識や音声認識を利用して制御するシステムだ。

Zuckerbergにとってコンピュータ化されたホームアシスタントは今年の「パーソナルチャレンジ」であり、自ら設定して公表した年間目標だ。過去のチャレンジには、中国語の習得の他、毎月2冊本を読むという控え目なものもあるが、Zuckの自由時間にこれを実践することは、破壊されないHAL 9000を自分専用に作るより難しいかもしれない。

今年の挑戦がZuckerbergにとって必ずしも大失敗にならない理由がある。「このすごいAI技術を音声認識や顔認識で使っているFacebookエンジニア全員」がZuckを助けてくれるからだと、数時前に行われたQ&Aで答えた。

実際には何ができるのか? 来月には全詳細が明らかになると思われるが、ローマでZuckerbergが話したところによると、家に近づくとセキュリティーゲートが自動で開き、音声コマンドで部屋の温度を制御できるそうだ(今は本人の声しか認識しないようにプログラムされているので、妻のPriscilla Chanにはできないと言っていた)。

年間チャレンジ完了後にこのホームAIで何が出来るようになっていて欲しいかを、Zuckが最初に話したとき、スマートホーム機器の制御だけでなく、セキュリティーシステムが友達を認識して家に通したり、小さな娘の世話が必要な時に教えてくれるしくみが欲しいと言っていた。多くの仕事がVR環境で行われる未来を期待している人にとっては、自分専用のジャービス(AI執事)はさぞかし便利な存在になるだろう。

[原文へ]

(翻訳:Nob Takahashi / facebook

ハーバードのOctobotは、ソフトな材料だけで作られた初の自律型ロボット

2016_rt_mw_octobot_001

長年にわたり、ロボット工学は金属やプラスチックに代わるソフトな材料に目を向けてきた ― 全身ソフトなロボットまで作った。しかし、ハーバード大学が作ったこのOctabotは、硬い部品を使っていないだけでなく、初めての完全自律型だ。

Robert WoodとJennifer Lewisのふたりは、Wyss Institute for Biologically Inspired Engineering[ワイズ研究所]の所属で、今日Nature誌で発表した論文でOctobotについて書いた。この創作物が俊敏さで賞を取ることはないだろうが、一般にはコンピューターがロボットの動きを制御することで自律性を実現していることを考えると、これは実に画期的である。

「バッテリーや電子制御等の固い部品を、同等の柔いシステムで置き換えて組み立てることは、常に挑戦だった」とハーバード大学のニュースリリースでWoodが言った。「この研究は、全身が柔軟で単純なロボットの主要部品を簡単に製造できることを示すものであり、こうした部品はさらに複雑な設計の基礎となるだろう」

ロボットの大部分は3Dプリントで作られ、その後電源と動作を制御する経路が組み込まれる。動きは空気圧によるもので、ロボットの燃料である過酸化水素から発生した酸素を用いる。酸素が液体を手足に向けて押し出し膨らませる ― 仮にこれだけだとしても十分感心する。

しかしここで重要なのは、巧みに設計されたマイクロ流体ネットワークが自らにフィードバックを与え、1本の足が膨らみ終ると押し出すのをやめ、あらかじめ決められた順番で次の足を膨らましていくしくみだ。人や周囲から電源や指示を与える必要はない。

なお、このマイクロ流体ネットワークは、同じくWyss Institue所属の化学者で共同執筆者でもあるGeorge Whitesidesの業績に基づいている。

たしかにこれは、どの自律ロボットと比べても著しく単純だが、唯一初めてであることは間違いない。ソフトなロボット材料は多くの分野で期待されており、中でも人間の周囲 ― あるいは内部 ― を動き回る必要のあるロボットにとっては特に重要だ。。

チームはオクトパスデザインをさらに追求する計画だ ― 「骨なし」構造の威力と万能さを踏まえれば論理的な判断だろう。次期バージョンのOctobotは、泳いだり周囲の物体とやりとりしたりするようになる、と研究者らはほのめかした。

[原文へ]

(翻訳:Nob Takahashi / facebook