AI規制は観察と洞察に従うことが必須――Elon Muskが彼の意図を説明した

先の週末、Elon Muskは、人工知能に関する政府の規制を求めるコメントを発表した。これまでも彼は、この技術が放置されることによる人類への脅威に対する懸念を繰り返し表明して来ている。Muskは本日(米国時間7月19日)、国際宇宙ステーションの研究開発会議に参加していたが、その休憩時間中の談話の中で、参加者の質問に答える形で、この問題に対する彼の見方をさらに説明した。

Muskは、まず政府機関が設置され、AIとその利用に関する洞察を深めることを想定していること、ただしそのやり方は「背後から撃つようなやり方で」規制をするようなものであるべきではない、ということを明言した。土曜日のNational Governors Associationに於ける、「積極的な規制」の必要性に関する彼のコメントに対して、即座に或いは近い将来に規制が敷かれるべきだという主張だと解釈した者もいた。

実際にはそうではなく、Muskは、AIの利用と開発について、事実に基いたルールを導入するために必要な洞察を求めるプロセスを今すぐ始めるべきだ、と考えているのだと語った。Muskはこのプロセスを、FCC(連邦通信委員会)やFAA(連邦航空局)のような、業界における技術利用を規制するための、他の政府機関を設立するプロセスと比較している。「おそらくFAAがなくなれば良いのに、と考えている人はいないでしょう」と彼は語った。Musk自身が、起業家としてしばしば規制に欲求不満を抱いているにも関わらず、彼がAI規制に関する探求を始めることが大切だと考える理由はここにある。

TeslaのCEOはまた、なぜ彼がAIの潜在的脅威をそれほどまでに気にするのかの理由も少し説明した。彼はDeepMindのAlphaGoの例を挙げ、多くの専門家が予想していたよりも遥かに早く、最強の棋士たちが打ち負かされたことがその理由だと述べた。彼はまた、AI専用の処理装置の開発についても指摘した。これは、現在のGPU搭載バージョンよりもAIパフォーマンスを何桁も向上させることを目指しているものだ。

「これは本当に大きな問題になるでしょう。それは津波のようにやってくるのです」と彼は語った。

[ 原文へ ]
(翻訳:Sako)

IBM Watsonはウォール街の今の基準から見ると不評、Jefferiesが酷評レポートを発表

IBMのWatsonが今日、グローバルな証券大手JefferiesのJames Kisnerから、手厳しい批判を頂戴した。同グループは、WatsonへのIBMの投資が株主たちへのリターンを阻害している、と信じている。近年IBMは、重要な成長部門のひとつとしてWatsonをますます重視していた。それがまるで、IBMの未来を投射する影絵人形であるかのように。

かつて、IBMの競争上の優位性は、Fortune 500社との長年にわたる関係にあった。そんな中でWatsonは、一種のコンサルタントとして利用され、同社が企業との高額な契約を結ぶときには、それらの具体的なビジネスケースのためにWatsonのテクノロジーを実装してきた。しかし残念ながらIBMは、クライアントのニーズと、同社自身の技術力とのあいだのギャップを填めることに、今でも苦労している。

Jefferiesは、WatsonをスケールするというIBMのより広範な問題のケーススタディとして、IBM Watsonと大規模がんセンターMD Andersonとのパートナーシップの監査を取り上げている。MD AndersonはWatsonのプロジェクトに6000万ドルを浪費した挙句にIBMとの縁を切り、“人への治験や臨床的利用にはまだ適していない”、と断じた。

MD Andersonの悪夢は特例ではない。AI系のスタートアップのファウンダーの多くが、顧客である金融サービスやバイオテック企業がIBMと同様の経験をしている、と語っている。

しかしそれは特定の不具合に関する話ではなくむしろ、誇大なマーケティングや、ディープラーニングとGPUの稼働の欠陥、そしてデータ準備の要求が厳しすぎることを指している。

JefferiesがMonster.comのデータを使って集めた求人案件

求人の状況を見てみると(上図)、人工知能/機械学習/ディープラーニング関連でIBMは他のテクノロジー企業と肩を並べていない。ディープラーニングにいたっては、IBMの求人はAppleやAmazonに比べて死んだも同然だ。この図にGoogleやMicrosoft、Facebookなどを加えたら、IBMはもっと悲惨に見えるだろう。

Jefferiesのレポートが提供している情報は、新しくもなく、驚天動地でもないが、IBM Watsonが今抱えている問題をウォール街が気にし始めたことの、明らかな兆候だ。IBMの決算報告はいつも熱心に見ている方だが、しかし市場は短期的な成長を重視しすぎて、長期的な技術および戦略の持続可能性に目が行ってない。

お金を出し渋ることが仕事の一部であるCTOや、最新流行の役職であるCDO(chief data officer)たちに売る、という不毛なAI市場でIBMが槍玉に上がるのは十分に理解できるが、しかしAIは、大量の非定型データを吸い込んでインサイトを吐き出す、摩訶不思議なブラックホールではない。堅実なデータパイプラインと、AIに対する自己の業務レベルでの正しい理解が、利用者の最低限の必要条件だ。

今日のAIファーストの世界では、初期の成功がもたらした惰性は何の役にも立たない。今や機械学習のプラットホームなんか一山(ひとやま)なんぼで買えるし、GoogleやAmazonのような巨大テクノロジー企業が、そのためのクラウドのエコシステムに数十億ドルを投じている時代なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Nvidiaのチップ、Audiのレベル3自動運転車に搭載

この火曜日にAudiは来年登場予定の次世代A8はレベル3自動運転システムを搭載する初の量産車になることを明らかにした。Audi A8の自動運転システムにはNvidiaのテクノロジーが利用されており、「渋滞パイロット」機能を持つ。

Nvidiaはこれ以外にもA8のさまざまな能力を支えている。実際A8はNvidiaのチップを6基搭載しており、交通渋滞に対処するだけでなく、インフォテインメントシステム、バーチャルコックピット表示、後部座席用ヘッドレスト裏のタブレットなどを駆動する。

A8がレベル3になるということは、特定の状況、たとえば 時速60キロ以下あるいは高速道路を走行中などの場合、ドライバーは道路に注意を払う必要がなくなる。走行環境がそのような条件を満たすと、ドライバーは(現地の交通法規が許せば)車の運転に注意を払うことなく合法的に他の作業を行うことができる。ドライバーの操作が必要な状況になればシステムがドライバーにそれを要請する。

レベル3は現行のTeslaのオートパイロットより一段進んだ自動運転となる。Teslaのオートパイロットはレベル2に分類されており、ドライバーは走行中常に道路に注意を払い、即座に運転を代われる態勢を維持する必要がある。オートパイロットが高速道路で一定の範囲で速度を維持して走行することを主な目的としているのに対して、A8のシステムでは渋滞時にドライバーが一切の操作から解放されるのが大きな違いだ。

NvidiaのプロセッサはAudiのzFASシステムの頭脳となり、A8の自動運転を実現している。車両に装備されたレーダー、カメラ、レーザースキャナー、超音波センサーなどから得られたデータを処理し、車両が置かれた環境を総合的に認識する。渋滞パイロット・モードに入った場合、zFASシステムは自車の取るべき動作を決定する。このときシステムは毎秒25億回の入力を処理するという。

レベル3自動運転は本質的にある種の矛盾を抱えている。つまり一方ではドライバーはリラックスして他の作業をしてもよいとしながら、いざというときには即座に運転に戻らなければならず、完全に車任せにはできない。レベル4の自動運転になって始めてシステムが完全に車両をコントロールするようになる。自動運転中の事故の責任はシステム側にあるためAudiとNvidiaは自動運転システムに強い自信を持っているのだろう。

〔日本版〕自動運転のレベルについては日本もSEA(Society of Automotive Engineers)の区分を踏襲することを決定している。レベル3は「条件付運転自動化」とされ、システムが要請した場合を除いて車両側が加減速、ハンドル操作を含むすべての走行操作を実施する。詳しくは官民ITS構想ロードマップ2016(PDF)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleがローカルニュース記事を作成するソフトウェア開発に資金を提供した

GoogleのDigital News Initiativeが、英国に拠点を置くニュース通信社The Press Associationによる、自動ニュース作成プロジェクトのために、62万2000ポンド(80万5000ドル)の資金を提供した。この資金は、月に3万件以上のローカルニュースを生成するようにデザインされるソフトウェア、Rader(Reporters and Data and Robots)の開発を補助するものだ。

The Press Association報道関係者は、ニュースデータを読めるコンテンツへと変換するというソフトウェアの作成を行なうために、英国に本拠を置くニューススタートアップであるUrbs Mediaに依頼を行った。一度運用が開始されれば、世界中のニュース編集局でよく観察される、財政的困難によるサービス不足というギャップを、ソフトウェアが埋めてくれることが期待されている。

これは、The Associated Pressが米国内で、主に金融ならびにニッチスポーツ中心に取り組んできたモデルに似通ったものだ。Google Newsで“This story was generated by Automated Insights”(この記事はAutomated Insightsによって自動生成された)という注釈の入ったニュースを検索してみれば米国内のニュースが現れる。

The Press Associationの主幹編集者であるPeter Cliftonは、財務状況を告げるニュースリリースで、この提携は、現在のメディアの大量死滅状況の中で、ローカル紙がなくなり、結果的に書かれることのなくなるような記事たちに焦点を当てるものだ、ということを強調しつつ、今回の動きを「本物のゲームチェンジャー」と呼んでいる。もちろん、彼はまた、この動きが人間の関与を完全になくすことはないと付け加えた。

「熟練した人間のジャーナリストは、まだこのプロセスに不可欠です」と彼は説明した。「しかしRadarで人工知能を利用することにより、これまで手作業で提供することが不可能だった地元のニュースを、カバーすることができるようになるのです」。人間は記事のキュレーションと編集に関わり、うまくいけば、「フェイクニュース」が政治的局面のあらゆる側面に対して害をなすこの時代に、間違って不正確な情報を報じてしまう可能性を減らすことができるだろう。

ロボットライターは、人間の仕事を置き換えるのだろうか、あるいは単にサポートするだけなのだろうか?おそらくそれぞれを少しずつということになるだろう。人間のニュースライターたちが、繰り返し指摘するのは、AIが作り出す物語の言葉には、ニュアンスと熱量が欠けているというものだ。それはおそらく正当な批判だが、ロボットニュースの登場を、直接的な原因ではないにせよ、この業界における更なる雇用喪失を正当化するものとして理解することはたやすい。いずれにせよ人間のライターたちが解雇されていくならば、こうしたソフトウェアを導入することで、ニュースの喪失という打撃は和らげられることだろう。

この記事はAIによって生成されたものではない、なお公平を期すならば、私はまだコーヒーを飲んでいない。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGESHUTTERSTOCK

機械学習のDeepMind、国際展開を開始――最初の海外オフィスはカナダのアルバータ州エドモントンに

Alphabetの人工知能企業、DeepMindは本拠であるイギリスから海外への展開を開始した。最初の海外オフィスはカナダのアルバータ州エドモントンに置かれる。アルバータ支社はアルバータ大学と緊密に連携して調査・研究に当たる。

リーダーはアルバータ大の研究者、Rich Sutton、Michael Bowling、Patrick Pilarskiらとなる。最近、カナダでは人工知能開発に力を入れており、大学人が教育、研究を続けながら民間企業のプロジェクトにも貢献できる道が開かれつつある。これはその一例といえるだろう。

Sutton、Bowling、Pilarskiに加えてAdam Whiteも非常勤教授としてアルバータに戻りチームに参加する。またノーリミットのテキサス・ホールデムで人間のプロ・ポーカー・プレイヤーを破ったことで話題になったAIシステム、DeepStackの共同研究者6人もメンバーとなるという。

アルバータ大学との取り決めにはDeepMindが研究資金の提供を続けることが含まれる。Googleカナダのコミュニケーション担当ディレクターAaron Brindleは「この提携の目的は世界的にトップレベルの研究者をもっと大勢アルバータに引きつけることにある。これによって〔アルバータ大学の所在する〕エドモントンをテクノロジーのハブにしたい」と述べた。

DeepMindのアルバータ・チームのリーダー3人はいずれも「成功した方法を繰り返し、失敗した方法を避ける」という人間の学習方式をコンピューターにシミュレーションさせる方法を研究している。Sutton教授はまたDeepMindが2014年にGoogleに買収される前にの会社の最初のアドバイザーとなっている。アルバータ大学のメンバーは世界チャンピオンを破ったAI碁のAlphaGoやAtariのゲームを学んでプレイするAIシステムの開発にも参加していた。

画像: DeepMind

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AI分野以外では、企業は研究よりも開発に重点を置いている

もしAIの世界のニュースを追い続けてきていたならば、企業は純粋な研究から撤退するどころか、倍賭けしようとしているという誤った印象を受けているるかも知れない。しかし現場の事情はもっと複雑だ、ハイテク企業はR&Dのうち、D(開発)の部分により多くの資金を使い、変化をもたらす研究に関しては、資金に乏しい大学に依存している。

デューク大学Fuquaビジネススクールの、新しいデータ視覚化プロジェクトであるGolden Goose Project(金のガチョウプロジェクト)は、企業内そして広範な生態系の両方で、どのように研究が適用されているかを定量化するデータだけではなく、パテントと研究成果の統計も用いることで、このパラダイムシフトを強調しようとしている。

例えば、IBMの特許件数は継続的に増加しているが、従業員の名前を連ねた論文の数は1992年をピークに減少を続けている。

しかし、こうしたすべてのデータは企業内研究の減少を示しているものの、決して企業が革新的ではなくなって来ているということを示している訳ではない。そうではなく、研究の展開を促進するための新しいパイプラインが開かれているのだ。

スタートアップは、研究を商用化し、それを既存の企業へと持ち込むためのエンジンとしての役割がますます高まっている。総合的にみれば、スタートアップは研究そのものにはほとんど貢献していないが、新興技術を魅力的にするための大切な役割を果たしている。

残念なことに、革新を支える大学のバックボーンは、政治的関心事に包囲されているように見える。研究は連邦政府から大きな助成を受けている。ゲイツ財団やチャン・ザッカーバーグ・イニシアチブのような個人の慈善団体は、この空白を埋める手助けをしてくれるが、そうしたグループにもできることには限界がある。

影響が少ない幸運な研究分野は、人工知能だ。GoogleによるDeep Mindの5億ドルでの買収のような、研究グループの巨額買収は、内部的なAI研究をより多く行いたいという業界全体の要望を表している。この渇望は、企業の収益部門から、研究グループを可能な限り引き離して欲しいという研究者たちの希望を、企業に配慮させることを余儀なくしている。

「誰もがAIを扱う能力を持つ必要があります」と、研究を推進するデューク大学教授のAshish Aroraはインタビューで私に語った。「大学はAI研究者を十分に輩出していないので、企業は社内に投資しなければなりません」。

しかしこうした研究は、Facebook、Microsoft、Googleなどの企業がAIで大きな進歩を遂げるのを助けているが、企業革新に普遍的に適用できる公式ではない。経営者たちは、しばしば研究と開発の間に明確な線を引くために苦労しており、長い目で見れば独立した価値ある研究を貫くのは困難だ。

Golden Goose Projectの主な欠点の1つは、1980年から2006年の間に収集されたデータのみを考慮に入れていることだ。その時期、何千億ドルもの市場価値が創出されたが、現在への適用性は限定されている。

国立科学財団(NSF)は、このデータ視覚化プロジェクトを支援する上で重要な役割を果たした。Aroraは、助成金を用いて研究を継続し、できるだけ早く足りない年を埋めたいと語った。

[ 原文へ ]
(翻訳:Sako)

社員の能力開発が急務な知識経済の時代には教育のNetflixが必要だ

[筆者: Rob Harles, Karl Mehta]

・Rob HarlesはAccenture Interactiveのマネージングディレクター。

・Karl MehtaはEdCast, Inc.のファウンダーでCEO、Code For IndiaのCEOでもある。

毎日46億点の新しいコンテンツが生産されているのだから、私たちの知識への飢えはとっくに満たされている、と思えるかもしれないが、しかし情報の生産と流通は消費の機会や分布とパラレルではなく、それは情報をただそこへ置けば解決する問題でもない。

私たちは情報の中で溺れ死のうとしているが、しかし同時に、私たちの生産性を本当に高め、コラボレーションとイノベーションを促進してくれる知識には飢えている。

役に立つ知識が必要になると、私たちは広くWebを検索したり、口コミでエキスパートを見つけたり、設計のお粗末な会社の文書共有システムを探しまくったりする。どの方法も、効率が悪い。

必要な知識を見つけるための、もっと良い方法があるべきだ。そのような方法はユーザーのニーズに適応し、真の対話と強力な学習体験を通じて、継続的に知識の適切な推奨や提案ができるソリューションでなければならない。

エンターテイメント産業に倣って学習をもっと容易にする

NetflixSpotifyRedditのような、人力または自動化されたキュレーターのいるコンテンツアプリケーションが登場するまでは、視たい/聴きたい番組や音楽、ニュースなどのメディアを見つけるために、いくつものソースを訪ねる必要があった。しかし今では、自分が消費したいエンターテイメントやメディアを容易に発見でき、それらはユーザーの関心に基づいて個人化(パーソナライズ)されている。

多くの点で今のエンターテイメントサービスのやり方は、知識管理や学習開発のアプリケーションにも適した方式だ。

学習と知識の発達を支援する産業は、教育のアクセス性と適切性を高めるプラットホームであるべきだ。それは、知識の吸収と普及拡散が円滑にシームレスに行える場でなければならない。Netflixが、求めるエンターテイメントをすぐ届けてくれるように、私たちが必要とする知識と学習は、必要なところへ、必要なときに、簡単迅速に届くべきだ。

幸いにも、それを実現するテクノロジーが育ちつつある。人工知能(AI)と機械学習を利用するそれらのソリューションは、学習の過程とそのためのコンテンツを、集積、キュレート、そして個人化できる。

企業の成功は優れた学習文化を持つことにかかっている

“学習する能力と、学習を迅速にアクションに翻訳する能力は、企業に最強の競争力をもたらす”、GEの元CEO Jack Welchはそう言った。

データを見ると、Welchが正しいことが分かる。Institute of Corporate Productivity (I4CP)のCEO Kevin Oakesによると、業績の良い企業では、そうでない企業に比べて、社員たちが自分の獲得した知識を4倍多く同僚と共有している

重要なのは、雇用者が学習の文化を作ることだ。学習の文化(learning culture)とは、その中で知識がもっと自由に獲得され、吸収され、交換される社風だ。それを実現するためには、いくつかの障害を克服しなければならない:

  • 社内的には、いろんな物事のエキスパート(subject matter experts, SMEs)がいて、その人たちの心の中に知識がある。そんなエキスパートは、日頃の評判や担当業務から容易に見つけることができる。そして、そんな社内的エキスパートが持つ重要な知識を素早く明快に公開し、社内でその知識を必要とする者全員が共有できるための、場や方法が必要である。
  • 会社の外には、コンテンツが至るところにあるが、どのコンテンツが良質で、権威があり、適切であるか分からない場合がある。したがって、適切で有益な(そして安全な)外部コンテンツを集めて、社員たちがそれを消費できるための仕組みを作る必要がある。

これらの社内的および社外的なソリューションでとくに重要なのは、ただ単に学習のためのコンテンツを集めて、キュレートして、カスタマイズするだけのテクノロジーを採用するのではなく、それはまた、学習と共有のためのコンテンツを手早く作れるテクノロジーでなければならない。効率的な学習文化の構築のためには、それが重要だ。

これが知識のNetflixだ

AIを用いる新しいプラットホームは、知識労働者が必要とするコンテンツを、適切なタイミングで届ける。そういう理想的な学習と知識開発のためのソリューションは、とくに次の項目を重視する:

  • 集積: 適切な情報を一箇所に集めること。企業の学習管理システム(Learning Management System, LMS)やイントラネット、そして外部のリソースなどなどから。
  • キュレーション: AIと機械学習を利用して、そのときの状況に合った適切なコンテンツを適切なタイミングでチームにもたらすこと。
  • 個人化: 学習用コンテンツのリコメンデーションを、さまざまな要素の分析に基づいて、個人の特性やニーズに合った形で行うこと。
  • 創造: 多くの中小企業が持っている言葉にならない知識を、解放すること。そのための最良の方法は、社内にコンテンツライブラリを作ってコンテンツを迅速かつ便利に供給することだ。

次の10〜12年間で、人間の今の仕事の半分はなくなる、と言われている。だからこそ、学習の機会とその消化しやすい方法や仕組みを、すべての社員に提供することが、きわめて重要なのだ。

それはいわば、社内における知識の民主化だ。個々の学習機会が十分に個人化され、また社内的および社外的なコンテンツのアクセス性を増し、そして社員たちに成長のためのスキルと知識を与える取り組みを、強化しよう。それは、これまでの企業では、時間がない、人がいない、とかいって、おろそかにされていた分野だ。でも今や、どの企業でも、社員の能力開発は最重要の課題だ。

時間がなくても、人がいなくても、今ではAIと機械学習が助けてくれる。社員を入れ替えるのではなく、今いる社員の学習を前進させ、彼らの明日のキャリアパスを築いていける。

参考記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ニューラルネットワークの内部動作を理解するための完全自動化システムをMITの研究所が開発

MITのComputer Science and Artificial Intelligence Lab(コンピューターサイエンスと人工知能研究所, CSAIL)が、ニューラルネットワークの内部を調べて、それらが実際にどうやって判断をしているのかを知るための、方法を考案した。その新しいプロセスは二年前にチームがプレゼンしたものの完全自動化バージョンで、以前は人間が調べて同じ目的を達成していた。

ニューラルネットワークの動作の理解に人間が介入しなくなったことは、研究の大きな進歩だ。これまでのディープラーニングのテクニックには、彼らの動作に関する不可解な部分が多かった。いったいどうやってシステムは、その判断結果に到達しているのか? そのネットワークは信号処理の複数の連続した層を使って、オブジェクトの分類やテキストの翻訳などの機能を実行するが、ネットワークの各層がどうやって判断しているのかを、われわれ人間が知るための方法がほとんどなかった。

CSAILのチームはのシステムは、ちょっと手を加えたニューラルネットを使い、その個々のノードが入力画像に反応するときの反応の強度を返させる。そして、最強の反応を生成した画像を分析する。この分析は最初、Mechanical Turkのワーカーたちが行い、画像中の具体的な視覚的コンセプトに基づいて分類をしたが、今ではその仕事が自動化され、分類はマシンが生成する。

すでにこの研究から、ニューラルネットの動作に関する興味深いインサイトが得られつつある。たとえば白黒の画像に塗り絵をするよう訓練されたネットワークは、そのノードの大きな部分に集中することによって、絵の中のテクスチャ(絵柄、模様、パターン)を同定する。またビデオの中にオブジェクトを見つけるよう訓練されたネットワークは、そのノードの多くがシーンの同定に動員され、一方、シーンを同定するよう訓練されたネットワークはその逆に、多くのノードにオブジェクトを見つけることに集中した。

私たちはそもそも、分類や認識を行う人間の思考を完全には理解していないし、ニューラルネットはその不完全な理解に基づく人間の思考の仮説的なモデルだ。だからCSAILの研究は今後、神経科学の疑問も解き明かすかもしれない。そのペーパーは今年のComputer Vision and Pattern Recognition(コンピュータービジョンとパターン認識)カンファレンスで発表されるが、人工知能の研究者たちの、大きな関心を喚(よ)ぶことだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ロボットたちに、触れることを通して世界を学ぶことを教える

ゆっくりと、しかし、確実に、ロボットのBaxterは学んでいる。それは一連のランダムな「掴み」から始まる。大きくて赤いロボットが、あまり器用とはいえない手つきで、目の前のテーブル上の物体を押したり突いたりしている。この、1日8時間かけて1ヶ月に5万回もの掴みを繰り返すプロセスは、私たち人間にとっては極めてうんざりするような代物だ。ロボットは触覚フィードバックと試行錯誤を経て学習している。あるいはプロジェクトの背後にいるカーネギーメロン大学のコンピュータサイエンスチームが言うように、それは世界に関して赤ん坊のように学習しているのだ。

チームは、“The Curious Robot: Learning Visual Representations via Physical Interactions,”(好奇心旺盛なロボット:身体的な相互作用を介した視覚的表現の学習)という論文の中で、人工知能はオブジェクトと反復的に相互作用を行なうことで、どのように学ぶことができるのかを示している。「例えば」とCMUの学生は書く「赤ん坊はオブジェクトを押したり、突いたり、口の中に入れたり、投げたりして、ものの有りよう(representations)を学ぶ。この目標を達成するために、われわれは、オブジェクトをテーブル上で、押したり、突いたり、掴んだり、観察したりする最初のシステムの1つをBaxter上に構築した」。

私たちがCMUキャンパスに到着するまでに、Baxterはありがたいことに、既に何度も何度もこのプロセスを繰り返した後だった。研究室の助手であるDhiraj Gandhiが、私たち向けにデモを行ってくれた。ロボットはテーブルの向こう側に立っていて、Gandhiはオブジェクトをテーブルの上に並べた。鉛筆ケース、ノーブランドのPower Ranger、いくつかの車のおもちゃ、ミーアキャットのぬいぐるみなどがあり、多様で複雑な形状のために選ばれた100均アイテムのような小間物も入っている。

このデモは、よく知られているオブジェクトと馴染みのないオブジェクトの組み合わせで行われていて、その違いはすぐに明らかになった。ロボットはオブジェクトを認識すると、タブレットで作られた顔を笑顔にしながら、しっかりと対象を掴み、それを適切な箱に入れる。もし良く知らないオブジェクトの場合には、顔を赤らめ困惑の表情を浮かべる … とはいえ更に5万回の掴みを繰り返せば、解決することはできる。

この研究は従来のコンピュータービジョン学習に大きな変化をもたらすものだ。従来のシステムは、ラベルの入力を伴う「スーパーバイザー」プロセスを通してオブジェクトの認識を教えられていた。CMUのロボットはすべてを自分自身で学習する。「現時点では、コンピュータビジョンで起こっていることは、受動的なデータが与えられるということです」とGanshiは説明する。「画像とラベルの取得方法との間には相互作用はありません。私たちが望んでいることは、オブジェクトと相互作用しながら、能動的にデータを取得することです。そうしたデータを通じて、他のビジョンタスクに役立つ機能を学びたいと思っています」と語った。

触れることの重要性を説明するために、Ganshiは70年代半ばの実験を引用した。この実験では英国のある研究者が2匹の仔猫の発達を研究した。1匹は普通に世界と触れ合うことができたが、もう1匹はオブジェクトを見ることだけが許され、実際に触れることは許されなかった。その結果、正常な仔猫たちがするようなことを出来ない、哀れな仔猫が1匹残されることになった。「環境とやりとりを行った方は、どのように足を付けば良いかを学ぶことができました」と彼は説明した。「しかし観察しか許されなかった方はそれができなかったのです」。

このシステムは、Kinectと同様の3Dカメラを使用している。Baxterが収集した視覚的および触覚的な情報は、ディープニューラルネットワークに送られ、ImageNetの中の画像と相互参照される。タッチデータが追加されることによって、ロボットの認識精度は、画像データのみで訓練されたロボットに比べて10%以上良いものになった。「これは非常に励みになる結果である」と、チームはその論文に書いている「なぜならロボットタスクと意味的分類タスクの相関関係は、何十年にもわたり想定されていたものの、決して実証されたことはなかったからだ」。

研究はまだ初期段階だが、この先有望だ。将来的には、ZenRoboticsが開発したゴミをリサイクル品から取り除く、分類ロボットのような用途にタッチと視覚が使われることになるかもしれない。「実際の環境にシステムを投入するまでには、まだまだ大きな課題を解決していかなければなりません」とGanshiは言う。「私たちはその課題を解決したいと考えていますが、今はそこへ向かって赤ん坊のように進んでいるところなのです」。

[ 原文へ ]
(翻訳:Sako)

Waymoの自動運転車、砂漠に出かける――実用化には過酷なテストが必須

カリフォルニアの基本的に穏やかな気候で自動運転車をテストするのはビデオ・ゲームを「初心者レベル」でプレイするようなものだ。現在の自動車は型式認証を受けるためにははるかに過酷な環境で正常に機能することを実証しなければならない。実用化を目指すなら自動運転車も同じことに挑戦する必要がある。

Alphabetグループの自動運転プロジェウト、Waymoはすでに 真冬の環境でテストを済ませているが、今回はクライスラーのミニバン、Pacifica をとてつもない熱さになる砂漠に連れ出してロードテストに挑んだ。

センサーのテストのために砂漠のロードテストを実施。ものすごく暑い。目的地はラスベガスとデスバレー。

デスバレーは世界でもいちばん暑い地域の一つだ。独立記念日の休暇前後になると道路はタイヤを溶かすほどになる。こうした高温は精密な電子機器に思わぬエラーを引き起こすことがある。消費者向けプロダクトにおける製造責任の問題を考えると、こうした環境でのテストは必須だ。

Waymoは自動運転システムをあらゆる条件で繰り返しテスト中だ。新しいデバイスが組み込まれるたびにそれがあらゆる条件で正しく作動することを確認するのは実用化における重要なステップとなる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

MITのドローンは飛行と走行を切り替え、互いに協調して都市交通を最適化する

MITの”Computer Science and Artificial Intelligence Lab”(CSAIL:コンピュータサイエンスと人工知能研究所)は、飛行と地上走行の両者が可能なドローンの新しいプロトタイプを開発した。バッテリー寿命、速度、効率性の観点から最適な手段を探るために用いられる。それは未来の自律型都市交通がどのように運営されるかをプレビューするもので、飛行する車両たちが、お互いに協調しながら密集した都市環境を、シームレスに道路と空路を切り替えながら移動する。

MITで開発されたシステムは、旧来の道路、建物、模式的な公園などを備えた都市ブロックの縮小モデルの中で動作する。現時点ではプロトタイプは理論的には同時に80台の車両を効率的に協調させることができる。着地点、街路、飛行禁止地区その他を、問題なく扱うことが可能だ。

CSAILの研究者たちは、車輪で地上を走行できる8台のクワッドコプタードローンを作製した。これらは走行なら252メートル、飛行だけなら90メートルまでの移動が可能だ。チームは、鳥や昆虫を含む、自然に存在する多くの動物たちが、利便性と必要性に応じて飛行と歩行を切り替えていることを指摘している。そして彼らの作ったロボットも同様に、バッテリー寿命を最大化できるように両方のモードを切り替えるようにデザインした。

写真提供:Alex Waller, MIT CSAIL.

フライングカーは、密集度の高まる都市環境での移動方法を改善する方法を、探している研究者や民間企業の間で、関心が高まっている領域だ。しかしながら、純粋な飛行は地上走行よりも遥かに大きなパワーを必要とするため、バッテリーの寿命が大きな制約として残されている。現在のバッテリー技術では充電無しでの連続飛行が難しいのだ。混合システムは、理論的には、バッテリ技術の改善の必要性を最小限に抑えながら、トラフィックを軽減し、最終的にはフライングカーをより早期に実現するために役立つ。

これは、フライングカーを日常生活に本当に役立てる方法として、私がこれまで見たものの中では最もクールなアイデアの1つだ。明らかに、本格的なシステムという意味では、コンセプトから現実に至るまでにはまだまだ長い時間がかかるが、いずれにせよこれが始まりだ。

[ 原文へ ]
(翻訳:Sako)

ロック画面上のパーソナルAI

【編集部注】著者のJarno M. Koponenは、デザイナー、ヒューマニスト、そして以前メディアディスカバリーのためのスタートアップRandomを共同創業した。

この著者による他の記事:

過去10年間、興味深く関連性の高いデジタルコンテンツを発見するための、主なユーザーインターフェイスはニュースフィードだった。今日、FacebookやTwitter、LinkedIn、Instagram、Pinterestなどのニュースフィードが、あなたのソーシャルネットワークやお気に入りの情報源から、興味深いニュースや瞬間を引き出続けている。

これがいま変わろうとしている。パーソナルモバイルデバイスのロック画面上のプッシュ通知が、ロック画面を新しいニュースフィードに変えようとしているのだ。こうして、ロック画面は、あなたが気にかける必要があると考えているアップデートやコンテンツに、アクセスして体験するための主要なインターフェースになりつつある。

したがって(アプリではなく)ロック画面とモバイルデバイスは、すべての個人データフローを結び合せる場所となり、ほどなくフィードを決定するための機械学習アルゴリズムが、パーソナルハードウェアの上で実行されるようになるだろう。

これは根源的な変化だ。デジタルエクスペリエンスのパーソナライズ方法が変わることになるだろう。そしてAIシステムがあなたから学習する方法も変えることになるだろう。そして、Facebook、Google、Appleなど業界大手企業間のパワーバランスも変えることになる。

ロック画面をめぐる戦い

私たちは久しくプッシュ通知に慣らされてきた。2014年に、ウォールストリートジャーナルのChristopher Mimsは、プッシュ通知の力を最大限利用した、Yoアプリの大成功を予想した

Yo自身は成功できなかったが、プッシュ通知を使うアプリとその影響は広がる一方だ。今日、プッシュ通知を囲む状況は急速に変化している。AndroidとiOSの両方で、プッシュ機能のアップデートがかなり早いペースで進められてきたからだ。

そうした通知は、単純なテキストボックスから、より豊かでより微妙な体験を可能にする柔軟な要素に変わりつつある。これらはいわゆる「リッチな通知」(rich notifications)と呼ばれるものだ。デザイナーと開発者たちは、これらの新しい可能性を受け入れ、より魅力的なユーザー体験を可能にしている。イマドキの通知には、共有などのインタラクティブな機能だけでなく、フォーマット付テキスト、より大きな画像、ビデオ、動的インフォグラフィックスなども含まれている。その結果、ユーザーはロック画面上で直接、ますます多くのコンテンツを消費している。

ロック画面は利用者の注意を引き付けるべき場所になってきている。このため、すべてのアプリは、より有意義で魅力的な通知を提供しようと鎬(しのぎ)を削っている最中だ。オックスフォードのロイターインスティテュートのNic Newmanは、このことを「ロック画面をめぐる戦い」と呼んでいる。 この戦いの中では、アプリケーションたちは、ブランドを意識し最適化されたミニ製品として通知を提供できる、マイクロプラットフォームへと変容しつつある。

リッチな通知からスマートな通知へ

ロック画面上の新しいリッチな対話は、新しいユーザーインターフェイスのパラダイムをもたらし、パーソナライゼーションに大きな影響を与える。

プッシュ通知がロック画面に自動的に表示されることで、わざわざ他の手段を用いることなく、興味深いことを発見することが可能になる。また同時に、ロック画面は物事を時間順に提示するという制約には縛られてはいない。プッシュ通知を使用することで、状況を自然に把握することが可能になる。明示的な指示がなくとも通知はロックスクリーンの上に自動的に出現するからだ。

重要なことは、コンテンツにアクセスするためにアプリを開く必要がないということだ。現在は、ニュースアプリからの通知を通してロックスクリーン上で直接ニュースの続報を読むことができる。アプリを開くことなく、会話に参加したり、写真をチェックしたり、ライブビデオを見たり、コンテンツを共有したりすることができる。

パーソナライズされたロック画面フィードを使用することで、デバイスは本当にスマートで個人的なものになる可能性がある。

私たちがFacebook、Twitter、そしてPinterestのニュースフィードで見てきたように、継続的に増加するアップデートフローを吟味するための、パーソナライゼーションアルゴリズムが必要とされている。近いうちにロック画面自身もパーソナライゼーションアルゴリズムでフィルタされるようになるだろう。

既に、ユーザーからのインタラクションがアプリからロック画面へとシフトする中で、iOSとAndroidの両者が、ロック画面への表示方法やアクセス方法の自動化を始めている。Androidは、有用な通知を自動的にまとめるスマート通知バンドルを提供するし、iPhoneは時間や場所などの、個人的なコンテキストに基づいてアプリを強調表示する。どちらのプラットフォームでも、ウィジェットは開発対象の一部であり、アプリを開かずとも豊富なインタラクションとコンテンツを提供する。

個人の拡張として、モバイルデバイスはその個人が利用するすべてのアプリを含んでいるため、それを個人データの宝庫として利用することができる。インターフェースとして、ロック画面は、アプリ固有のインタラクションデータと、デバイスが提供する豊富なコンテキストデータを組み合わせることができる。

具体的には、ロック画面に対してパーソナライズのための新しいアルゴリズムレイヤーが導入されることになる。ロック画面は、あなたのソーシャルなやりとりやコンテンツの消費パターン、お気に入りのアプリ、映画、ビデオ、音楽などをキャプチャーする。こうした豊富なデータは、機械学習システムにフィードされ、より適切かつ文脈にそった個人的な提案や推奨事項を提示する目的に使用される。

ほどなくロック画面が、プッシュ通知をアクティブかつ自動的にフィルタリングして、どのアップデート、提案、メッセージ、アプリ、ムービー、レシピ…そして広告が表示されるかを決定するようになる。パーソナライズされたロック画面フィードを使用することで、デバイスは本当にスマートで個人的なものになる可能性がある。

スマート通知からパーソナルAIへ

ロック画面でのやりとりがより豊かになることで、生成されるデータもより豊かになる。モバイルデバイスは、これまで以上に、利用者の行動を正確に学ぶようになる。

これにより、あなたを本当にユニークな個人として理解し、既存のパーソナライゼーションのギャップを超えた新たなチャンスが生まれる。個々のアプリは(例えFacebookであっても)、このことを実現できなかったし、今もできていない(注:Facebookは自分自身のモバイルデバイスを作成しようとして失敗した)。

パーソナルハードウェアはパーソナライゼーションと機械学習の不可欠な構成要素になりつつある。

Geometric Intelligenceの創業者であり、NYUの教授でもあるGary Marcusは、AIシステムはより少ないデータ量から学ぶことができるはずだと主張している。それらは子供のように、連続的に、反復的に、そしてすべてから学ぶことができて、そうした学習を有用な方法で一般化し、適用し、外挿することができるはずなのだ。

パーソナライズされたロック画面は、最もパーソナルなデバイス上で動作するAIと、所有者の個人を結びつけるユニークなインターフェイスを提供する。

そのようなマシン学習システムを作成するために欠けている部品が、最もパーソナルなハードウェア上に常駐し動作するパーソナルAI(もしお望みなら 「人工天使」(algorithmic angel)と呼ぶこともできる)であるならば、それは子供のように利用者と共に学ぶことができる。

パーソナルデバイス上で実行され進化する、そうしたパーソナルAIは、豊富なインタラクションやコンテキストデータが与えられ、教育を受け続ける。それは利用者のフィードバックとパーソナルなパターンに基づいて、徐々に進化していく。

パーソナルAIは、利用者から直接学びながら、さまざまなデジタル環境に存在する専用の社内外のエージェントを利用して、クラウド上のコンピューティングパワーを同時に利用することができる。さらに、これらの個々のエージェントは、例えば株式市場のヒントから最適化された旅行オプションに至るまでの、対象領域固有のデータ、情報、ならびに推奨事項を処理して提供することができる。究極のパーソナルAIは、より良いバージョンへの進化を目指して、協調し競争を繰り返す。

あなたのパーソナルAIを制御するのは誰なのか?

ロック画面で発生するすべてのものはキャプチャされ、パーソナル体験の向上に使われる — Facebookや他のアプリたちが直接にではなく、もっぱらGoogleとアップルによって。Google AssistantとSiriはより機敏でスマートなものになる。

Googleはすでに独自のアルゴリズムとハードウェアを使用して、機械学習をデバイスに持ち込んでいる。同時に、彼らは通知を最適化するための開発者向けツールを提供している。Appleも似たようなものだ。Samsungは最近買収した「次世代AIアシスタント」Vivを使って、この動きに追いつこうとしている。

この先パーソナルAIは「人工天使」(algorithmic angel)となって、未来のアルゴリズム的現実環境の中で、個人情報をしっかりと保全してくれるようになるだろうか?それとも、それは単にパーソナルデバイスを究極のマーケティング体験へと変え、ユーザーが下すすべての意志決定に影響を与えようとするだけものになるのだろうか?

パーソナライズされたロック画面とパーソナルAIの新しい時代は、個人が制御できるアルゴリズムという人工天使のアイデアを、これまで以上にタイムリーなものとするだろう。倫理委員会と合意条項が、できはじめてはいるものの、それらは十分なものではない。私たちの意思決定はインテリジェントな機械学習システムによって増強されるので、私たちにはこうしたスマートな実体を、明示的に理解可能な形でガイドし制御することのできる、説明可能なアルゴリズム、インターフェイス、そして手法が求められている。

ユーザーインターフェイスとしてのロック画面は、そのための新しいインターフェイスを提供する。

iPhoneのホーム画面を次々に左にスワイプして、パーソナルAIの設定と好みを見ることができるようにしたらどうだろうか?ロック画面をスワイプするだけで、これらのAIのさまざまなバージョンにアクセスして、特定の瞬間にどのバージョンがアクティブであるかを決定できるようにしたらどうだろうか?おそらく、AIの提案の背後にある推論理由について気軽に問いかけることができたり、直感的なジェスチャーや触覚、音などを使ってお互いに理解しやすいやりとりを重ねることができるようになるだろう。

究極の「会話型UI」とは、意識的に開いたり呼びかけたりしなければならないアプリやボットではない。それは常に存在して利用可能なものであり、利用者とその(デジタルならびに物理的な)環境との間の継続的な「会話」に従事するものだ。

パーソナライズされたロック画面は、最もパーソナルなデバイス上で動作するAIと、所有者の個人を結びつけるユニークなインターフェイスを提供する。これにより、モバイル機器からARおよびVR環境に適用可能な、次世代のヒューマンマシン対話方式およびインタフェースを設計するための、全く新しいチャンスが開かれる。同時に、人間と機械の思考の協調をよりシームレスな形で強化することが次のステップとなるだろう。

[ 原文へ ]
(翻訳:Sako)

Facebook、機械学習の訓練時間を大幅に短縮――視覚的認識処理に大きな進歩

スピードが問題となる検索テクノロジーの世界では深層学習モデルの訓練に割く時間は1分ずつがきわめて貴重だ。今朝(米国時間6/8)、Facebookは論文を発表し、この問題に対する独自のアプローチを紹介した。Facebookによれば、ImageNetのResNet-50深層学習モデルの訓練時間を29時間から1時間に短縮することに成功したという。

Facebookがこのようにドラスティックな進歩を遂げることができた理由は、画像認識訓練をこれまでより多数のGPUに分散して並行処理させることに成功したからだ。Facebookはこれを「ミニバッチ」と呼んでいるが、以前のベンチマークでは256種の画像を8基のGPUに分散処理させていた。今日発表された論文のケースでは、ミニバッチのサイズが大幅に拡張され、8192種類の画像を256基のGPUに分散させている。

われわれ一般ユーザーはGPUボードを256枚も持っていないが、大企業や十分な資金のある研究グループならその程度は持っているのが普通だ。処理をこれほど多数のGPUに分散させ、精度を大幅に犠牲にすることなく訓練時間を著しく短縮することに成功したのであれば影響は大きい。

Facebookチームは今回の方法では、初期の学習率を落としているが、これは従来バッチのサイズが大きいと処理が不可能となる問題を避けるためだった。ここでは数学的詳細にはあまり立ち入らないが、ResNet-50では確率的勾配降下法(stochastic gradient descent)が用いられている。

確率的勾配降下法で重要となる変数の一つは学習率(learning rate)だ。学習率は訓練を行う際のステップサイズを決定する。分散処理のサイズが変化すれば学習率も変えなければならず、この部分を最適化できるかどうかが最終的効率にとって決定的だ。

機械学習のデベロッパーはつねに妥協を強いられる。精度をアップしようとすれば学習させるデータセットのサイズを大きくしなければならず、訓練に必要な時間が増大する。当然コンピューティング・リソースも多く必要となる。その意味で、機械学習モデルは精度、スピードのいずれかを優先するデザインとすることが可能だ。しかしいくら20秒で学習が完了しても精度が悪くては役に立たない。

他の多くの研究プロジェクトとは方向を異にし、FacebookのFAIR ( Facebook AI Research)とAML(Applied Machine Learning)の両チームは密接に協力しながら並行処理のサイズを拡大することに努めてきた。Facebookのチームは今回の論文を出発点として、ここで明らかになった問題点をさらに研究していく計画だ。

FacebookのAMLチームのメンバー、Pieter Noordhuisは「今回の研究では答えよりむしろ質問を増やす結果になった。訓練用画像数が8000のあたりにティッピングポイントがあり、これを超えると再びエラー率が急増するが、その理由が分からない」と述べている。

深層学習のフレームワークはFacebookが開発してオープンソース化したCaffe2が用いられた。今回の実験はFacebookが開発したBig Basin GPUサーバー上で実行された。さらに詳しく知りたい場合、Facebookが発表した詳細はこちら

画像:Toast and Jam Films

[原文へ]

(翻訳:滑川海彦@Facebook Google+

これが自動運転車が見ている道路だ(ビデオ)

自動運転車はLiDAR、ビデオカメラ、レーダーなど多様なセンサーを利用して自車周辺の情報を収集する。では 詳細な3Dデジタルマップと車載センサーからの情報を総合するとどうなるだろう?

Civil Mapsのプロダクト・マネージャー、Anuj Guptaの説明によれば、このテクノロジーは6次元自由度の環境内で自動運転車が注意を集中すべき領域を特定するものだという。6次元自由度というのはドローンやVRシステムの分野でもよく知られた概念だ。つまりXYZ3軸についてそれぞれ並行運動と回転運動を考えた空間だ(横方向の揺れがロール、縦方向の揺れがピッチ、旋回運動ががヨーと呼ばれる)。デジタルマップとローカル情報を組み合わせれば自動運転車は注意すべき空間を特定して計算量を節約する。つまり一定の計算能力を効果的に利用できる。

マップデータとセンサーデータを統合することによる計算能力の集中によるコスト削減効果はきわめて大きいという。自動車メーカーは自動運転車の路上での安全性と効率性を確保しつつ、製造コストのとバランスを取らねばならない。

もちろんCivil Mapsはマップデータを提供する企業なので、プロダクトを自動車メーカーに売り込むためには、製造コスト削減能力をわかりやすく示す必要がある。「プディングの証明は食べてみることだ」ということわざもあるとおり、実地テストにまさるものはない。そこでCivil Mapsではミシガン州のハイウェイで自動運転車を走行させ、マップデータの利用によって自動車の環境内の位置を局限することによる計算量の削減効果をデモしている。

〔日本版〕Civil Mapsのサイトはこちら

[原文へ]

(翻訳:滑川海彦@Facebook Google+

トップ棋士に3連勝したAlphaGo、引退を表明

盤上ゲームの中で最も戦略的とされる囲碁を打つために開発された、GoogleのAlpha Goが引退することになった。中国で世界最高レベルの打ち手をことごとく破ってからの引退ということになる。最後に対局したのは、世界トップランクの柯潔だ。中国で行われたイベントにて3局戦ったが、いずれもAlphaGoの勝利(3-0)となった。

AlphaGoはもともと、ロンドンのDeepMindにより開発されたものだ。DeepMindは2014年に5億ドルほどの金額でGoogleに買収されている。尚、今回のイベントでは人間5人を同時に相手にするいわゆる「相談碁」でもAlphaGoが勝利している。AlphaGoが世界的な注目を集めたのは、昨年前世界チャンピオンのイ・セドルを破ってからだ。今回の柯潔との対局や相談碁、あるいはペア碁を見るに、どうやらAlphaGoは次のレベルに到達しているようだ。

AlphaGoの引退を発表した、DeepMindのCEOであるDemis Hassabisは次のように語っている

囲碁発祥の地とされる中国で、世界トップレベルの棋士と連戦することは、AlphaGoにとっても進化のための最高の機会となりました。このような最高の機会を経験し、AlphaGoは引退させることといたしました。

今後、AlphaGoの開発チームは「次のレベル」のための開発に注力することとなります。アルゴリズムをより汎用的なものに改造し、この世の中に存在する複雑な問題を解決するためのお手伝いができるようになればと考えています。想定しているのは、病気の治療方法の発見や、消費エネルギーの劇的削減、革新的な新素材の開発などです。

ボードゲームの中でもっとも複雑だとされる囲碁にチャレンジすることで、AIの能力を高め、人間と関わるやり方も磨いてきたわけだ。Googleだけでなく、Tencentもゲームの中でのAIの活用/成長を狙っている。ゲームの世界で、その可能性を実証して注目を集めることで、次のステップに進む準備が整ったと判断したのだろう。AlphaGoは、新たな段階に進むことを決断したわけだ。

これまでにもDeepMindは、実用分野での可能性を探ってきている。昨年にはイギリスの国民保険サービスとの間で情報共有について合意している。但しこれは、営利企業に対して膨大な数の個人データを引き渡すことになるわけで、反対の声もおおくあがっている。現在は個人情報補語監視機関(Information Commissioner’s Office:ICO)による精査が行われているところだ。

こうした混乱は、AI技術自身がもたらしたものではない。しかし活躍の機会を、現時点で十分に活用できていないということにはなる。

「医療分野においても、AIが新たな知識や問題の解決法をもたらすことができれば、これは大きなブレイクスルーとなるわけです。はやくそうした場での活躍を実現したいと考えているのです」とHassabisは述べている。

そのようなわけでAlphaGoは囲碁から離れることになる。但し、ただちに完全に手が切れるというわけではない。DeepMindは、イ・セドル戦からのAlphaGoの進化過程を報告書としてまとめる予定なのだという。また、囲碁初心者が囲碁の魅力を知り、また経験者がより高いレベルになるための学習ツールの開発も行なっているのだとのこと。中国で行われたイベントでも見られたが、柯潔もAlphaGoから学び戦術を自分のものとして取り入れたりしている。そのような可能性をもったツールが登場するのは大いに楽しみだ。

原文へ

(翻訳:Maeda, H

GoogleがAIスタートアップ育成専門のVCを立ち上げたらしい

Axiosの記事によると、Googleは人工知能にフォーカスした新しいベンチャーキャピタル事業を立ち上げたようだ。

Googleがコメントを拒否したその記事は、新しいVCの立ち上げは長年Googleのエンジニアリング担当VPだったAnna Pattersonが指揮し、Alphabet Inc.のVC部門GVで仕事をしているベンチャー投資家ではなく、エンジニアたちの輪番制で起業にあたった、という。

GoogleのCEO Sundar Pichaiが先日のI/Oカンファレンスで“モバイルファースト”から“AIファーストへ”、と宣言したぐらいだから、同社がAI専門の投資部門を立ち上げても不思議ではない。

今年のI/Oでは、発表されるもののほとんどすべてが、AI絡みだった。Tensor Processing Unit(TPU)のアップデートがあり、研究用にも企業用にもAIのモデルの教育訓練と実行が速くなったと謳われた。Google HomeやPixelスマートフォンから提供されるパーソナルアシスタントGoogle Assistantは、新しいAI技術のおかげで会話の能力が一層充実すると約束された。

データサイエンスと機械学習のコンペを主催するKaggleを買収したことも、今回のAI投資部門の新設と無縁ではないだろう。

Axiosによると、PattersonとGoogleは、必要ならGVからの共同投資も行う、という。投資案件のサイズは、当初100万ドルから1000万ドルまで程度、ということだが、全体で年間どれぐらいの投資規模になるのか、その話はまだない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AlphaGo対人類の囲碁対局、5人がかりでもAlphaGoの勝ち

世界ランク1位の柯潔が連敗するなど、囲碁ももはや人工知能に対抗できなくなりつつあるのかもしれない。それならばと、5人のトッププレイヤーがチームを組んでAlphaGoに挑む対局が行われた。しかし金曜日に行われたこのデモンストレーション対局でも、AlphaGoが勝利をおさめた。

5人で「相談碁」をプレイした人間側チームのメンバーは、陳耀燁、周睿羊、ビ・イクテイ、時越、および唐韋星だ。AlphaGo側はもちろん1人(1台? 1本?)だ。勝負はAlphaGoの中押し勝ち(人間チームのギブアップ)で決着した。

なお、この日は人間+AlphaGoと、別の人間+AlphaGoのペア碁も行われた。こちらで対局したのは「古力+AI」と「連笑+AI」だ。勝負は連笑側の中押し勝ちとなった。

解説者によると、相談碁を行ったメンバーたちはAlphaGoの打ち方を楽しむために打っているようだとのことだった。AlphaGoの動きを見て、どのような着手が効率的なのかと研究しているような感じであったらしい。AIと人間の新しい関わり方だと注目するむきも多かったようだ。

結果としては人類の惨敗となったわけではあるが、心配する必要はない。AIはあくまでも人間の味方であるのだ。

……今のところは。

原文へ

(翻訳:Maeda, H

AlphaGo、世界ランク1位のプロ棋士に連勝

AlphaGoは、AIの実力が人間を上回ることを再度証明してみせた。人間の方が上回る点がないわけではなかろう。しかし少なくとも囲碁に関しては、AIの実力が人類を上回るようなのだ。

AlphaGoがその名を轟かせたのは、トップレベルの棋士であるイ・セドルを4対1で破ってからのことだ。しかしそこにとどまらず、AlphaGoは世界ランク第1位の柯潔にも連勝してみせたのだ。この対局は全3局が予定されており、今週中に第3局が打たれる予定となっている。

柯潔は現在19歳。第1局は半目勝負(非常な僅差)であったものの、今回は中押し負け(途中でのギブアップ)に追い込まれてしまった。AlphaGoのアナリストによれば、序盤はむしろ柯潔がうまく打っていたのだとのこと。

「これは勝てるのではないかと、どきどきしていたんだ。中盤では勝ちそうだと思ったよ。でもAlphaGoの方はそう感じていなかったのかもしれないね。こちらは心臓の音が聞こえるほど舞い上がっていたけどね」と、対局後に柯潔は述べていた

対局はもう1局残っている。しかし第3局の結果がどうであれ、AlphaGoは世界が認めるナンバーワンプレイヤーを破ったことになるわけだ。歴史の転換点とも位置づけられる対局だったかもしれないが、中国では一切ライブストリーミングもされず、大きな不満の声も上がっている。

AlphaGoを生んだのはロンドンに拠点をおくDeepMindだ。2014年にはGoogleが同社を5億ドルほどて買収している。プロ棋士に勝利するという話は広く世間の耳目を集めるが、DeepMindは囲碁以外の知的活動分野でも世の中の課題を解決し、実用的AIを構築しようともしている。

ただし、そちらの方面ではまだ十分な結果が出ているとは言えない状況だ。たとえばイギリスのNHS(National Health Service:国民保険サービス)との間で、避けられる死を防ぐための医療を構築するためにデータ共有することとしたが、このデータ共有については不適切なものであるとの判断が下されてもいる。

膨大な数の患者データを、Googleの所有する企業に提供することが適切かどうかについて大いに議論になっているわけだ。DeepMindとNHSとの共同プロジェクトについては、データ保護の観点からも検証しているところでもある。

原文へ

(翻訳:Maeda, H

SoftBankのNvidia株は時価40億ドルと報道――Vision Fundのプレスリリースから推定

先週末、日本のソフトバンクはVision Fundの最初の資金調達をクローズしたことを発表した。今回の出資コミットメントの総額は930億ドル〔約1兆円〕で、出資者にはApple、Qualcomm、Foxconnらが並んでいる。同時にソフトバンクがすでにNvidiaの株式を所有していることも何気なく発表されていた。

今日(米国時間5/24)のBloombergの記事はソフトバンクが所有するNvidia株式は時価40億ドル相当と推測している。これは持ち分が4.9%とした場合の価格で、Nvidiaの第4位の株主となる。

土曜日に発表されたVision Fundのラウンドのクロージングに関するプレスリリースには、同ファンドが「SoftBank Groupが買収した(あるいは買収が承認された)投資対象を買収する権利がある」旨書かれている。

この一節には投資対象としてNvidiaに並んでARMの24.99%の株式(昨年ソフトバンクが310億ドルで買収している)、 OneWeb、SoFiなども記載されていた。

われわれの取材に対し、ソフトバンクの広報担当者はNvidiaへの投資あるいはBloombergの記事についてコメントすることを避けた。

TechCrunchが最近報じたとおり、NvidiaのGPUは機械学習の爆発的な発達を支えるハードウェアの重要な柱となっている。AIはソフトバンクのVision Fundがもっとも力を入れている分野の一つで、孫正義CEOは、今年初めに、「次の30年はスーパー・インテリジェントなAIの時代になる」という見解を明らかにしている。孫CEOによれば、このことが1000億ドルのファンドをこれほど大急ぎで組成する理由なのだという。そうであれば、Nvidiaに大口投資を行ったのもこのビジョンの一環なのだろう。

そうであるにせよ、ソフトバンクが近年、巨額の投資を行っていることは事実だ。インドのフィンテックのユニコーン企業、Paytmに14億ドルを投資したことが発表されている。ロンドンのVRスタートアップ、Improbableが5億200万ドルを調達したラウンドではリーダーを務めた。、また50億ドルを中国におけるUberである配車サービスのDidi Chuxingに、17億ドルをOneWeb,に追加投資している(ソフトバンクは衛星コミュニケーションのOneWebに10億ドルを昨年出資した)。

NvidiaやARMの持ち分を含めてソフトバンクの投資のかなりの部分は直ちにVision Fundに移管されるだろう。ファンドはまたWeWorkにも投資する可能性がある。

Vision Fundは巨大だが、孫CEOは「普通のファンドだ」と語っている。なるほど規模も前代未聞のサイズだが、ビジネスモデルも詳しく検討する価値があるだろう。孫氏は今年初め、Bloombergのインタビューに答えて 「これらの会社のに対するわれわれの投資の大部分は20%から40%の利益をもたらすと同時に、筆頭株主、取締役会メンバーとして会社のファウンダーたちと将来戦略について話合うチャンスを与えてくれる」と語っている。

どうやら孫氏は金で買える最上のスーパー・インテリジェントAIの能力を最初に試せる少数の人間の1人になりそうだ。

画像: David Becker/Getty Images/Getty Images

〔日本版〕上場企業の株式取得にあたって情報公開義務が生じるのは5%であるところ、ソフトバンクのプレスリリースにはNvidiaの株式を所有していると記載されていたものの、これまで詳細が公開されていなかったことからBloombergは4.9%と推定したもの。なおVison Fundに対する出資者はソフトバンク・グループ他、以下のとおり。 SoftBank Group Corp (“SBG”) 、Public Investment Fund of the Kingdom of Saudi Arabia (“PIF”)…Mubadala Investment Company of the United Arab Emirates (“Mubadala”)、Apple Inc. (“Apple”)、Foxconn Technology Group (“Foxconn”)、Qualcomm Incorporated (“Qualcomm”)、Sharp Corporation ("Sharp")。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook本社で犬種判別人工知能に挑戦――フリードランダーのJudah vs. the Machinesビデオ

人工知能を作るにはまずいろいろと教え込まねばならない。犬種を判別させるなら、見たところボロ雑巾みたいに見える犬も何という犬種なのか教える必要がある。

Judah vs. the Machinesシリーズはコメディアンで俳優のジュダ・フリードランダーが「人類を救うために人間が世界のトップ人口知能と対決する」という番組で、今回はFacebookの本社に応用機械学習チームを訪れた。

フリードランダーは サタデー・ナイト・ライブの内幕パロディーとして人気を博した NBC放映の30 RockシリーズのFrank Rossitano役が有名だ。フリードランダーはメンロー・パークのFacebook本社、1 Hacker Wayを訪問し、世界最大のテクノロジー企業で人々が働く様子を観察した。無料ランチなどFacebookの福利厚生を十分体験した後、フリードランダーは機械学習チームと対決した。といってもフェイクニュースやFacebook Liveのライブ配信に不適当なコンテンツを判別するために現に用いられている人工知能ではない。犬の種類を判別するコンピューター・ビジョンだ。

フリードランダーは応用機械学習チームの責任者、ホアキン・カンデラ(Joaquin Candela)からFacebookでの人工知能の利用について説明を受けた。自然言語理解についての会話ではFriedlanderは自分のアイディアをいくつか述べた。その後、犬種当て人工知能と対決したが、その様子は上のビデオご覧いただきたい。

FacebookのAIはもちろん完全ではない。しかし犬種の見分けに関してはフリードランダーを上回ることに成功した。おかしなことにフリードランダーとAIの双方を迷わせた犬種はプーリだった―マーク・ザッカーバーグの愛犬、Beastで有名な犬だ。 Facebookがなぜ人工知能に犬を判別をさせようとしているのかは不明だが、数秒で曲名を教えてくれるShazamのようなサービスが人気なら、犬を判別するバージョンがあってもいいのかもしれない。

Judah vs. the Machinesの他のエピソードはこちらから視聴できる

〔日本版〕ビデオでは0:48あたりから普段見る機会が少ないFacebookキャンパスが紹介されている。1:33から無料カフェテリアや広場に置かれたピンポン台などが紹介される。2:30から機械学習のチーフ、ホアキン・カンデラの話を聞いている。カンデラは「人工知能でFbの投稿を翻訳するのは難しい。きわめて多種類の言語が用いられている上にセンテンスにいきなり絵文字が使われたりする」と困難さを述べるとフリードランダーは「それでは絵文字言語を作ったらどうか?」と半分真剣な提案。「どの投稿を無視したかも情報となる」という説明に「Facebookはわれわれをスパイしているのか!」とジョーク。3:30から犬種判別チャレンジ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+