Elemental PathのAI恐竜おもちゃ、予約開始――ステモサウルスで子供たちがSTEMを体験

Elemental Pathが最初の人工知能おもちゃ、CogniToyをデビューさせたのは2016年のTechCrunchがCES 2016の一環で開催したStartup Battlefieldだった。このときKickstarterで予約を行ったCogiToyは恐竜のおもちゃでIBM Watsonを利用し話しかけられた言葉を認識する能力があった。

今回開発されたのは新しい世代の恐竜ロボットで、その名もSTEMosaur(ステモサウルス)という。デザインはlementalの最初のロボットに似ているが、サイズが小さく、半透明なグリーンで子どもたちが組み立ててプログラミングも行うようになっている。

もうひとつ重要な変更点は、ステモサウルスはWatsonではなくElementalの独自のAIソフトを利用することだ。

ファウンダーのDonald Coolidgeはわれわれのインタビューに答えて、「Watsonはエンタープライズ業務、ことに製薬会社の業務に適したソフトで、もともと子供向けではない。マーケットにできるだけ速くプロダクトを出すためにWatsonは大いに役立ったが、第一世代のロボットを通じて十分にデータも集まったので、これをベースに独自の子供向けソフトを開発した」と説明した。

新しいステモサウルスはIndiegogoで予約受け付け中だが、 Coolidgeは「途中で立ち消えになったり、出荷されるまでに3年も待つようなプロジェクトではい」と請け合った。ロボットはすでに製造中であり、今年のクリスマスには十分に間に合うという。

Coolidgeの前回の恐竜おもちゃは大好評で、当初のKickstarterのキャンペーンで予定した数の5倍も売れた。これによりCoolidgeは新製品開発のための資金400万ドルを得たという。またAmazonを含むいくつかの販売チャンネルも確保した。

Elementalでは前回同様のヒットを期待しているようだが、そうなる可能性は十分にある。Indiegogoはキャンペーン締め切りまで15日あるが、すでに当初の目標の2万5000ドルの2倍以上の予約を集めている。

今度のクリスマスのプレゼントにグリーンの恐竜おもちゃを考えている向きに注意しておくと、このロボットの対象年齢は7歳以上だ。またIndiegogoでは119ドルで基本ユニットが入手できる。その後の小売価格は139ドルとなる。

〔日本版〕STEMはScience, Technology, Engineering and Mathematicsの頭文字でアメリカにおける科学技術教育の強化を図ろうとしてアメリカ国立科学財団が21世紀初頭に造語したとされる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AIが「考えた」どこか見覚えのあるセレブの顔

この地球上に足りないものがあるとすれば、それはセレブだろう。もしも十分な数のセレブが既にいるとすれば、こんなに続々と新しい人が登場するはずもない。今こそコンピューターの力を借りるときだ!と思いきや、実は既にそのような研究は進められている。セレブの顔を認識できる(なんと羨ましいことだろう!)AIが、ある研究で何十人ものセレブを「考え出す」というタスクを課せられた。その結果は……見てのお楽しみだ。

上図を見ればおわかりの通り、生成された画像は宣材写真として使えるレベルではない。左下の男性の写真は、背景の一部が左耳と重なりあっていて見栄えが良いとは言えない。上列真ん中の女性のイヤリングも未完成といった感じで、右下の男性の耳は残念なことになっている。その一方で、テイラー・スウィフト風の女性の出来はまぁまぁだ。また、この6人は実在しないにもかかわらず、画像からは何かしらのパーソナリティが感じられる。

次の6人を見てみよう。今回は髪が問題のようだ。左上の女性の髪は一部が飛び出しているし、上列真ん中の人の髪には何個か穴が開いている。右上の女性の前髪は、顔全体に影響を及ぼしているようだ。下列真ん中の男性は変なタイミングで写真を撮られたように見え、左下の男性にいたっては右半身が欠けている。

と、冗談はこのくらいにして、全体の出来はなかなかではないだろうか。近くで見ないと本物のセレブかどうか判別できないくらいの画像を機械が作り出せるというのも驚きだ。Nvidiaが行ったこの研究の論文は、来年のICLRに応募中で、こちらのリンクから実物を読むことができる。

彼らが利用した「General Adversarial Networks(GAN)」とは、同じデータ(今回の場合で言えばセレブの顔写真)を使ってトレーニングされた、ふたつのネットワークのことを指している。そのうちのひとつは、与えられた写真と似たものを生成するためのネットワークで、もうひとつは顔写真を認識するためのものだ。

前者(生成ネットワーク)が新しい写真を生成し、後者(認識ネットワーク)がその写真を評価してフィードバックを送り返す、というのが大まかなフローで、恐らく最初はひどい結果だっただろう。しかしトレーニングを繰り返すうちに、生成ネットワークが生み出す画像は、認識ネットワークが「まぁ、このくらいならティファニー・ティーセンに見えなくもないな」というレベルに達するようになる。

Nvidiaのシステムによって生成された写真の例

Nvidiaの研究で新たにわかったのが、トレーニング開始時は解像度が低いデータを使い、徐々にサイズを大きくしていったほうが、システムの機能が向上するということだ。これは直感的にも理解できる。最初に輪郭など大まかな顔の構造をつかまないと、ただの肉の塊や、口だけリアルなわけのわからない怪物もセレブと認識されてしまう。

また徐々にトレーニングデータの内容を変化させることで、トレーニングにかかる期間も短縮できる。解像度の高い画像を生成するのはなかなか難しい上、はじめは大した結果もでないので、大きなデータを与える必要もない。できるだけゴミを減らして簡単に画像を生成できるようにしないと、単に大量のゴミと残念な結果が生まれるだけなのだ。以前のシステムによって生成された下の画像を見れば、その意味がわかるだろう。

Nvidiaの研究者も「本物の写真と同じくらいのクオリティに達するまではまだまだ時間がかかるだろう」と認めている。その一方でNvidiaは、本記事に掲載した写真からもわかる通り、同システムが本物の人間とほぼ見分けがつかないレベルの画像を生成できる世界初のシステムになるかもしれないと期待を寄せている。

ただ一点だけお伝えしなければいけないのが、トレーニングに使う画像の種類を絞らないと、下図のようにギョッとするような動物や、悪夢のような光景が描かれた画像が生成されてしまうということ。

上の画像はクリックすればフルサイズで表示されるので、勇気がある人はお試しを……

原文へ

(翻訳:Atsushi Yukutake

ビデオゲームのテクノロジーがニューラルネットの実用化に貢献した

【編集部注】著者のOphir Tanzは、GumGumのCEOである。GumGumはコンピュータービジョンの専門知識を持つ人工知能企業で、広告からプロスポーツに至る世界中のさまざまな分野にAI技術を応用しようとしている。カーネギーメロン大学で学士・修士の学位を修めたTanzは、現在ロサンゼルスに住む。

id SoftwareのJohn Carmackが、1993年にDoomをリリースしたとき、彼はその血なまぐさいファーストパーソン・シューティングゲーム(1人称視点でのシューティングゲーム。最初に3D環境を採用したものの1つであり、あっという間に人気作になった)が、その後の機械による情報処理を、如何に変えてしまうかには全く自覚がなかった。

その6年後にはNvidiaが、急成長するゲーム業界向けに、3Dグラフィックスの生成に特化した、初めてのグラフィックプロセッシングユニット(GPU)であるGeForce 256をリリースした。それから17年。GPUはその開発の元々の動機であったハイエンドゲームだけではなく、人工知能(AI)の大きな進歩のための原動力ともなっている。

より強力なGPUの誕生により、深層機械学習とニューラルネットワークは、私たちが関わる仕事や運転する車から、医者に行ったときに受ける診断までの、およそ全ての社会的様相を変えようとしている。

私たちがこれまでに書いた「数学抜きのニューラルネットガイド」の第1回(数学知識もいらないゼロからのニューラルネットワーク入門)と第2回(Why the Future of Deep Learning Depends on Good Data――深層学習の未来が良いデータに依存している理由)では、深層学習がどのように機能しているのか、そして何故AIの成功にはデータが重要なのかについて、それぞれ解説を行った。シリーズの第3回となる今回は、今日の深層学習ブームの先導に役立っている処理系の開発に焦点を当てる。まずは、GPUとCPUの仕組みの違いを理解することが役立つ。

GPUとCPU

今なら読者も既に「中央処理装置」あるいはCPUという用語には馴染みがあるだろう。これはコンピューターの中にある頭脳である。コードを読み込んで、数の計算からHDビデオの再生、そして様々なプログラムを、淀みなく一斉に実行してくれるものだ。あのしつこかった「インテル入ってる」マーケティングキャンペーンを覚えているだろうか?あれはCPUのことを宣伝していたのだ。

しかし、CPUがコンピューターの唯一の頭脳ではない。マシンの中には、特定のタスクに対してはCPUよりも優れた性能を発揮する機構が抱えられているのだ。そうしたものの中で、最も重要なものがグラフィックスプロセッシングユニット(GPU)だ。これらのチップは、いくつかの点ではCPUに似ているものの、その他の点では大きく異なる。

最新のCPUの多くは、その内部に2〜8個の「コア」(本質的にはミニCPU)を持っていて、それぞれが同時に異なる操作を処理することができる。これらのコアは、投入されたどのような命令でも処理することができ、お互いにシームレスに切り替えることができる。このため、ビデオを見ながらソフトウェアをダウンロードし、同時に、特に引っかかりも感じずに親友たちとSnapchatを楽しむこともできるのだ。

野球のボール、ボウリングのピン、斧、りんご、卵などを同時にジャグリングするサーカスのパフォーマーを想像してみて欲しい。非常に目まぐるしく、彼はリンゴをかじりながら、斧を置いて火の付いた松明を拾い上げる。これがCPUである。要するに一度に様々な仕事をこなすことのできる何でも屋だ。


これとは対照的に、最新のGPUは数千ものコアを持っているが、そのデザインは遥かにシンプルだ。それぞれのコアは特定の1つの仕事しかできないが、しかし集団としてその仕事を、正確に同時に、何度も繰り返し、非常に素早く行うことができるのだ。

GPUサーカスパフォーマーは、ボウリングピンしか扱うことができないが――その代わりに同時に1万本ものピンをジャグリングすることができる。一方CPUは、万能でなければならない上に、柔軟にマスチタスキングも行わなければならないために忙しく、そんなに大量のボウリングピンを一度に扱うことができない。

この性質は、たとえばゲーム環境の中で3Dグラフィックスを創りだすために数十億のポリゴンを生成するといった、膨大な繰り返し演算が必要な仕事を行なう場合に、GPUを圧倒的に優位なものとする。そして、膨大な量のデータに対して、何度も何度も同じ操作を繰り返さなければならないニューラルネットワークのトレーニングに対しても、GPUが理想的なものとなるのだ。

遊びの中のGPU

GPUは、毎秒数十億回の複雑な数学的計算を行うことで、その魔法を実現している。

ビデオゲーム環境は、小さな三角形で構成されている。それらは様々な方法で組み合わされて、スクリーンの上に表示される土地、空、山、宇宙船、怪物などを形作っている。それらの三角形は、それぞれ環境内での位置、他の三角形に対する角度、色、テクスチャなどを示す、異なる数字で構成されている。GPUはこれらの数値を取り込み、それを平たいディスプレイ上のピクセル(画面上の点)に変換する。画面がリフレッシュされるたびに、またはシーンが少しでも変化するたびに、GPUは新しいピクセルを生成するために計算を行わなければならない。これが、最終的にコール・オブ・デューティーやグランド・セフト・オートといったリッチな3Dゲーム環境を生み出している。

毎秒60フレームで動作するHDディスプレイの場合、GPUは一度に1億2000万ピクセルを生成する必要がある。このため非常に強力なCPUであっても、1つのフレームを描画するのに1〜2秒が必要となる。しかし、同時に実行される何千ものGPUコアに仕事を分割すれば、仕事はほぼ瞬時に終了する(こうしたプロセスは並列処理と呼ばれる)。

非常に雑なたとえだが、この違いはミケランジェロを雇って天井にフレスコ画を描かせることと、数千人の職人を雇ってそれぞれに天井の1平方インチのエリアを担当させることの違いのようなものだ。

2010年に、米国空軍が1760台のプレイステーション3をデイジーチェーンで接続して、スーパーコンピューターを作ることができたのも、このGPUの圧倒的な馬力のお陰だ。その当時、それは米国防総省の中で最も強力なコンピューターだったが、従来のスーパーコンピューターよりも90%以上安価であり、電力消費量も10分の1だった。

RAMの中の象

画像認識にGPUを使用するのは、逆方向の動作だ。数値を画像に変換する代わりに、画像を数値に変換するのだ。

たとえば数千のGPUで構成されたニューラルネットワークを構築したとしよう。それぞれGPUが数千のコアを持つそのネットワークは、本質的にスーパーコンピューターだ。今このスーパーコンピューターに、ゾウを識別する方法を教えたいと考えているとする。教師あり学習と呼ばれる方法を利用するならば、考えられるすべての角度から撮影された数十万の象の画像に「象」というラベルを貼って、ネットワークに供給するところから始めることになる。ネットワークは、各画像内のすべてのエッジ、テクスチャ、形状、そして色をマッピングして、そのラベルを有する画像と一致する数学的パターンを特定しようと試みる。

学習過程では、ネットワークが見るもの全てを象であると判断しないように、ゾウを含まない画像も投入することになる。これにより、ネットワークは徐々にモデルを調整し、全体的な精度を向上させることができる。ネットワークは各画像でこのプロセスを連続して行い、それぞれの新しいパス毎に象探索アルゴリズムを改良して行く。

そして出来上がったスーパーコンピューターに新しいイメージを入力すれば、そのイメージが象であるか否かが判断される。もしニューラルネットワークが間違った場合には、より多くのトレーニングで調整が行われることになる(バックプロパゲーションと呼ばれるプロセスである)。画像認識能力が向上しなくなったときが、訓練の終わるときだ。

ここで一番クールなのは以下の点だ:あなたはニューラルネットに対して、象というものは暗い灰色の肌、長い柔軟な鼻、丸みを帯びた背、そして太い脚を持っているものだ、ということを伝えたわけではない。伝えた事はただ「ここに『象』と呼ばれる大量のデータがあります。その共通の性質を把握しなさい」ということだけだ。実際には、ネットワーク自身が、象がどのように見えるかを、自分自身に教えたのだ。

大量計算兵器

GPUがニューラルネットワークの訓練に非常に優れている理由の1つは、行列乗算と呼ばれるものに優れているからだ。つまり、1つの数値テーブル(たとえば、画像のある部分のピクセル値)を別のテーブル(別の部分のピクセル値)と乗算するような演算に優れているということである。ニューラルネットワークは行列の乗算に大いに依存しているため、GPUを使用することで、場合によっては数カ月または数週間かかるトレーニング期間が、数日から数時間に短縮されることがある。

現代のGPUは多くのオンボードメモリを搭載するようになって来ているため、コンピューターのメインメモリとの間でデータを往復させることなく、計算処理を行うことが可能だ。これにより計算はさらに速くなる。またスケーラビリティも優れている。投入するGPUが多ければ多いほど、一度に処理できる計算量が増えるからだ。そしてそれらはプログラム可能なので、手書き文字認識や音声認識などの、さまざまなタスクを実行するようにプログラムすることができる。

ひ弱な人間たち

画像内の物体を認識する際に、GPU駆動のニューラルネットにはどれくらいの性能があるのだろうか?実はそれらは既に人間よりも優れているのだ。2015年には、GoogleとMicrosoftの両者が、毎年恒例のImageNetコンピュータービジョンチャレンジの中で、画像の中の物体の認識能力において、人間よりも正確な深層ニューラルネットを発表している。グラフィックスチップメーカーのNvidiaは、GPUを使ったニューラルネットのトレーニング速度が、わずか3年で50倍になったと主張している。

GPUがそれほどまでに急速に進歩した理由は――お金のためだ。昨年世界中で、ビデオゲームは1000億ドルの売上を果たした――これは映画、音楽、書籍を合わせたものよりも多い額である。ゲームの驚くべき収益性が、GPUやその他のテクノロジーへの研究開発への多大な投資を可能にしたのだ。昨年 Nvidiaは1つのGPUの開発に20億ドル以上を費やした。そのGPUは深層ニューラルネット専用に作られたものである。一方Googleやその他の企業は新しい「Tensorプロセッシングユニット」に取り組んでいる。これもニューラルネット専用に設計され、より多くのデータを効率的に扱うことができるものだ。

こうした投資は、ビデオゲームをはるかに超えた様々な領域で回収されることになる。Googleは、GPUを使ったニューラルネットを使用してAndroidでの音声認識を行い、Googleマップ上の外国語の道路標識の翻訳を行う。Facebookはそれらを使ってあなたの友人たちの顔を認識し、あなたのニュースフィードをカスタマイズする。ニューラルネットは、運転手のいない車の中でのインテリジェンスを提供し、木と一時停止標識の識別を行なう。またそれは、診断医がMRIの中の腫瘍と健常組織との違いを見分ける手伝いをして、癌の早期兆候の検出にも役立つ。そしてそれは原子力発電所の部品に入った亀裂を見つけることも可能だ。

そしてまた、スーパースマッシュブラザーズのプレイがかなり得意だ

いつか、GPUを使うディープニューラルネットによって可能になった発見が、あなたの命を救う日が来るかもしれない。それは皮肉にも、最初のファーストパーソン・シューティングゲームの副産物なのだ。

[原文へ]
(翻訳:Sako)

Facebookが写真から自動的にアバターを生成する研究結果を発表

アバターの作成。いったい誰が、そんなことに使える時間を持っているというのだ?もちろんその「誰が」はコンピューターだ。もしこのFacebookも研究が製品化されたら、髪型や、肌の色や、ヒゲの長さを選ぶのにただの1秒も無駄に使う必要はなくなる。

コンピュータービジョン国際会議(International Conference on Computer Vision)で発表された論文(PDF)で、Lior Wolfたちが報告したのは、入力した実際の顔から、絵文字ジェネレーターによる最高の出力結果を生み出す、機械学習システムの構築だ。

読者はおそらくこう思っているかもしれない。待て待て、確か今年の始めにGoogleが同じことをやっていなかったか?と。ある意味その通り。しかし、両者には重要な違いがある。Googleのバージョンもクールだが、様々な顔に共通する様々な特徴に関するランク付けと説明を人間の作業に頼っていた。例えば巻き毛、鼻のタイプ、目の形などなど。そして、これらは特定の特徴の表現としてイラスト化されていた(非常によくできていたと私は思う)。

本質的には、コンピューターが目立つ特徴、例えばそばかす、を見つけて、それに対応する部分アートをデータベースから引き出してくる仕掛けになっている。それは上手く行くものの、その結果は特徴を定義する人間の入力に大きく依存している。

Facebookのアプローチはこれとは異なっている。ここで追求されているアイデアは、手元にある道具(顔の部品や調整手段)を総動員して、与えられた顔を最高にそれっぽく表現できるシステムを追求することだった。つまり既存のツールである、emojiでも、Bitmoji(shudder)でも、Miiでも、VRフェイスジェネレーターでも何でも、そうしたタスクを達成するために使うことが可能だということだ。研究者の言葉を言い換えれば、これらはいつでも人間がやっていることだ、ならばなぜAIを使わないのか?ということになる。

システムは、元の顔と生成された表現の両方に対して、あたかも同じ人物の2枚の写真であるかのように、同じ分析と特徴同定アルゴリズムを使用することによって、このことを(ある程度)達成している。結果として、2つの顔から得られた数値が似通っている場合には、それは2つの顔が視覚的にも十分似通っていることを意味している。(この漫画的な顔を使う限り、ある程度以上は良くはならないということでもある)。

論文に掲載されたこの図では、一番左に元の顔の画像があり、左から2番目に手で作成されたemojiがあり(比較のために置かれていて、システムでは利用されない)、そして今回のシステムの異なるアルゴリズムによる例が示されて、さらに3Dアバターシステムによる例が続く。

この技法の優れている点は、特定のアバタータイプに結び付けられていないため、(理論的には)いずれのアバタータイプに対しても動作するということだ。システムは様々な表現を実際の顔と一致させ、どれが良いものかを判定する。

Facebookはこの情報を多くの有用な目的のために使用することができる——おそらく直近に考えられるのは、専用絵文字システムだ。ユーザーが新しい髪型やヒゲを整えた写真をアップロードするたびに、プロファイルが自動的に更新される可能性さえある。しかし、アバターマッチング機能は、他のサイト向けにでも行うことができる——例えばFacebookから他のVRゲームにサインインした際に、即座に説得力のある自分のアバターを登場させることができる。少なくとも、自分の絵文字の肌の色のディフォルトが黄色ではなくて実際の色に近くなることには、多くの人は反対しないだろう。

完全な論文は、AI会議で発表されたものなので、当然ながらかなり技術的なものだ。

[ 原文へ ]
(翻訳:Sako)

トヨタ、人工知能で人を理解する「Concept-愛i」シリーズを拡大 3タイプを東京モーターショーに出展

トヨタは、自動運転技術を搭載した電動パーソナルモビリティのコンセプトカー「Concept-愛i(コンセプト・アイ)」シリーズを拡大する。今年1月にラスベガスで開催されたCESで初公開した同名の4輪モデルに加え、ユニバーサルな小型モビリティ「Concept-愛i RIDE」と、セグウェイ風の歩行空間向け3輪電動スクーター「Concept-愛i WALK」を新たに追加し、10月25日に開幕する東京モーターショー(一般公開は28日から)に出展すると発表した。この3台は、クルマがドライバーの感情や好みを理解できるように人工知能技術を搭載し、人とクルマがパートナーの関係になることを目指すという。

トヨタによれば、Concept-愛iシリーズは、人を理解する「Learn」技術をベースに、自動運転技術による「安全・安心」(Protect)と、エージェント技術によって移動の楽しさを充実させる「新しいFun to Drive」(Inspire)を提供するという。例えば、表情や声色、位置情報、さらにはSNS発信までも手掛かりにしてドライバーを理解し、多少遠回りになってもドライバーにとってより楽しいと思われるルートを提案する。また、五感全てを読み取れるので、ドライバーのまぶたが落ちてきたら注意したり、イライラ感を察知したらシートをリズミカルに伸縮したり、憂うつそうな時はドライバーの好きな曲を流したりする。さらに、ドライバーが危険な状態や高ストレス状態に陥った際には、運転機能を完全に引き継ぐことも可能だという。

こうした触れ込みに対し、気持ち悪いと感じる人もいるだろう。

トヨタはConcept-愛iでクルマを「機械を超えたパートナー」にすることを目指すと述べている。なお、ディープラーニングの人工知能システムに投資している自動車メーカーは、決してトヨタだけではない。

各車のスペックも紹介しておくと、Concept-愛iは電動パワートレインを搭載し、航続距離は約300km。カーシェアリング・サービスでの活用を想定した2シーターのConcept-愛i RIDEは、車いす利用者の乗降や車いすの積み下ろしを支援するガルウィングドアと電動スライド式シートを備える。ステアリング・ホイールやアクセル・ペダル、ブレーキ・ペダルの代わりにジョイスティックを採用し、航続距離は約100~150km程度。3輪のConcept-愛i WALKは、ステア操舵機能、小さな回転半径を特徴とし、航続距離は約10~20kmとなっている。

トヨタは2020年頃、Concept-愛iの一部の技術を搭載した車両で、日本における公道実証実験を開始する予定だ。

AutoBlog 日本版からの転載。

1000億ドルでは足りない、SoftbankがVision Fundの続編続々編を計画中

Softbankが最初の最大1000億ドル規模のVision Fundの後続となるファンドの調達を準備しているようだ。今日、Nikkeiの取材に応じたCEO Masayoshi Sonはこう述べている: “Vision Fundは最初のステップにすぎない。10兆円(880億ドル)では全然足りない。積極的にもっと大きくしていきたい。Vision Funds 2, 3, 4などを2〜3年ごとに設立していきたい”。

Vision Fund 1が発表されたのは2016年10月で、その最初のクローズ(930億ドル)は今年の5月だった。投資の主対象は人工知能と物のインターネット(Internet of Things, IoT)だ。

Sonによると、このファンドの背後には‘人工超知能’の到来が迫っていると彼は確信しているので、急いでいるのだ、という。“それがやってくることは確実だと本当に信じているので、それが急ぐ理由だ。大急ぎでキャッシュをかき集め、投資していきたい”、と2月に語っている。

その巨額な後続ファンドの調達先がどこになるのか、まだ明らかではないが、最初のVision FundのバックにいたのはApple, Qualcomm, Foxconn, アラブ首長国連邦の国家資産ファンド, サウジアラビアの公的投資ファンドなどだ。

次のVision Fundの投資家に関してSoftbankのスポークスマンはこう述べた: “Mr. Sonは彼の投資戦略観について一般的なお話しかしていない。具体的な計画に関するお話はまだない”。

NikkeiへのコメントでSonは、ファンドのサイズに関する予想や、次の10年間における主な投資対象について述べている。

“ファンドの設立能力を10兆円から20兆円、さらに100兆円へと大きくしていける仕組みを今作っている”。そして全体としてそのファンドは、“10年間で少なくとも1000社に投資しているだろう”。

Nikkeiによると、Vision Fundsの主な投資ターゲットはユニコーンである。まだ上場していないが推定時価総額が10億ドルを超えるスタートアップだ。

また、一件の投資案件の規模は、最大で約8億8800万ドル(≒1000億円)である。

本誌TechCrunchは、最初のVision Fundのこれまでの投資先企業のリストを作成している。

また本誌TechCrunchは、Uber-Softbankの契約が“ほぼ確実に”来週締結される、と報じた〔未訳〕。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

CiscoがAIと機械学習を用いてITの障害予測を助ける

私たちはITシステムから送られてくる通知の数が、人間が追跡できる能力を上回ってしまうことがあることを、もう何年も前から気が付いていた。これまでも機械がそれを助けて来た。そして人工知能や機械学習の出現が、その能力を加速している。本日(米国時間10月17日)Ciscoは、そうしたテクノロジーを用いて、重大な問題が起きる前に、顧客が不具合を発見することを助けることを発表した。

Ciscoのソリューションは、AIを使う他の企業たちのものと似ている。そして機械学習が人間の能力を拡大し、システムから送られてくる膨大な情報をふるいにかける支援をするのだ。今回同社は、こうしたニーズに対応するために、2種類のサービスセットを用意した。

第1のものは“Business Critical Services”という名前で、分析、自動化、コンプライアンス、そしてセキュリティツールを統合したものだ。名前だけを聞けば特に目新しいものではないだろう。これらを使ってシステムの健康を追跡するのだ。Ciscoによれば、顧客のシステムダウンのリスクを軽減しつつ、最も重要なビジネスサービスを追跡する際の複雑性を、軽減してくれるということだ。

この種の追跡サービスは、Ciscoが今年始めに37億ドルで買収したAppDynamicsが提供しているものと同じである。今回のサービスがAppDynamicsの資産から開発されたものかどうかははっきりしない。しかしこれは彼らがビジネスの構築に使っていた種類のモニタリング機能だ。

第2のサービスセットは“Cisco High Value Services”と呼ばれるものだ。顧客のIT部門に対して、ソフトウェア、ソリューション、そしてネットワークサポートの観点から、より親密なサービスを提供する。

IDCのChris Barnardは、こうしたサービスは、近代化プロセスに苦労している企業たちが、たとえ社内の専門知識が欠けていても、最新状態を保つことができるようにするものだと語る。「ビジネスシーンがあまりにも速く変化してしまうために、デジタルトランスフォーメーションに追従することが、一部の企業にとっては難しいものになっています。その結果、彼らはスキル、専門知識、そして能力を持つ大きなベンダーパートナーたちに頼り、この人材ギャップを埋めようとしているのです」とBarnardは、ある声明の中で語っている。この場合、その大きなベンダーパートナーとは、Ciscoということになるだろう。

Ciscoはこれらのプロダクトを企業向けだとしているが、IoTビジネス全体が、不具合の発生以前にそれを予測するというアイデアの上に構築されるものである。これまでも、Splunkのような会社がAIと機械学習を利用し、ITシステムからやってくる沢山の通知をフィルタリングして、担当者に予測と報告を行っていた。これはDataDogやNew Relic(AppDynamicsの競合相手)のような、パフォーマンスモニタリング会社が提供していたものと同様のものである。

Ciscoは最先端テクノロジー、ネットワークハードウェアの専門知識、そしてネームバリューを使って、変化する技術環境への対応に苦しむビジネスたちを支援しようとしている。

原文へ
(翻訳:sako)

FEATURED IMAGE: JUSTIN SULLIVAN/GETTY IMAGES

LINEのスマートスピーカー「Clova WAVE」は本日正式発売、LINE MUSICとセットで1万2800円

LINE取締役CSMOの舛田淳氏

午前にはGoogleがスマートスピーカー「Google Home」の日本での発売を明日10月6日だと発表したが、LINEのスマートスピーカー「Clova WAVE(以前の名称は「WAVE」)」は本日10月5日の15時より正式発売を開始した。

Clova WAVEの価格は当初発表より1000円値下げした1万4000円。ただし3月末まではキャンペーンとして、音楽ストリーミングサービス「LINE MUSIC」(月額980円)の12カ月利用権をセットして、1万2800円(いずれも税込み)で販売する。Clova WAVEの販売サイトのほか、Amazon.co.jpや楽天市場で販売。月末には家電量販店などでも販売する予定だ。

「Clova WAVE」

Clova WAVEは6月にLINEのプライベートカンファレンスで発表されたスマートスピーカーだ。自社グループで独自開発した音声AI「Clova」を採用している。

8月23日より一部機能に限定した先行体験版を提供開始しており、LINE MUSICの4000万曲以上の楽曲を再生(雰囲気やアーティスト名、アルバム名などで再生可能)できるほか、天気予報や「LINEニュース」と連携した最新ニュースの読み上げ、テレビやライトのIRリモコンの操作(今後はエアコンのIRリモコンにも対応予定)などが可能だ。

正式発売にあたり、新たにコミュニケーションアプリ「LINE」との連動機能を強化。新着メッセージの通知や読み上げにも対応したほか、Clovaのアプリ上で「LINE家族アカウント」と呼ぶLINEアカウントを通じて、家族間でのメッセージのやり取りが可能になった。

また、先行体験版でもニーズの多かったというClovaとの連続会話(あいさつからスタートし、調子を聞き、天気を聞く、といったやり取り)も可能になった。今後は声での話者認識や音声での多言語翻訳、カレンダー管理やメモ帳機能、ショッピングやデリバリー、タクシー配車といった機能も提供していく予定。また外部パートナーとの連携も進める。radiko提供のラジオ再生、ヴァル研究所提供の経路検索、レスキューナウ提供の鉄道運行情報、アイフリーク モバイル提供の童話朗読なども準備中だ。

追加される機能の一部

日本の住環境やユーザーを捉える

同日開催された発表会でLINE取締役CSMOの舛田淳氏は、あらゆるデバイスがインターネットに接続し、最適化されていく“ポストスマートフォン”の時代の到来について語った。スマートフォン全盛の現在は、タッチやタイピングといった入力インターフェースが一般的だが、それが音声に変化していくと説明する。「長らく続いたGUIの時代からVUI(Voice User Interface)の時代に変化しようとしている」(舛田氏)

Google Homeの日本発売が決定し、Amazonもスマートスピーカー「Amazon Echo」を年内に発売すると発表しており、各社が日本の市場続々進出して居る状況だ。発表会で記者から競合優位性について尋ねられた舛田氏は、「(アプリの)LINEを作ってから、ずっとチャレンジャー。できることをやってきた。日本の住環境、ユーザーの状況を最も最適に捉えていきたい」と答える。例えば他社がスマート家電などとの連携をうたう中で、普及率を考慮しIRリモコンから連携を進めていることもその1つの施策だし、家族アカウントを通じたLINEでのコミュニケーションも同様だ。

また、日本にフォーカスした施策だけでなく、音声認識に関しても大幅なアップデートを準備しているという。ただし詳細なロードマップについてはスケジュールが変更になる可能性もあるとして公表していない。「詳細はずれることもあるので公開していないが、いろんなチャネルで事前の案内をしている」(舛田氏)

画像認識リアルタイム百科事典Google Lensが今年の終わりごろPixelスマートフォンで実用化

Googleが、Google Assistantに接続する画像認識アプリLensを初めてデモしたのは、5月に行われたデベロッパーカンファレンスGoogle I/Oだった。当時それは、大いに人気を博したが、そのときの発表の多くがそうであったように、リリースの日程などは明らかにされず、“近く”(soon)という言葉だけがあった。それからほぼ5か月になる。

今日(米国時間10/4)のGoogleのハードウェアイベントでは、Lensの最初のプレビューが同社のPixelスマートフォンに今年の終わりごろ登場する、と発表された。あくまでも、プレビューだ。そしてそのほかのデバイスには、“随時”ということだ。

LensはGoogleのさまざまな機械学習サービスを利用している。画像認識の能力にGoogle Translateのリアルタイム翻訳と、Google Assistantを結びつける。たとえば花のスナップと撮ると、Lensが花の名前を教え、そのほかのことも教えてくれる。ランドマークや名所旧跡、それにレストランですら、情報を教える。

I/Oで拍手の音がたぶんいちばん大きかったのは、Wi-FiルーターのSSIDとパスワードを読んで、ユーザーのスマートフォンをそこに自動的に接続するLensの機能だった。



[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Rasa Coreはチャットボットのコンテキスト判断用機械学習モデルを人間参加の半自動で作る

会話を扱うコンピューターシステムにとっては、コンテキストがすべてだ。人間はそのことを意識しないけど、日常のとてもシンプルな会話でさえ、複雑なコンテキストの産物だ。会話システムが人間の能力になかなか追いつかないのも、コンテキストという難問があるためだ。しかしベルリンのRasaは、対話的な学習とオープンソースのコードを利用して、この会話するAIの問題を解決しようとしている。

そのRasa Coreというシステムのやり方は、多くのAIスタートアップと似ていて、Amazonの
Mechanical Turkのような人力サービスを利用して機械学習のモデルが持つ不正確さを修正する。ただしRasaが使うのはMechanical Turkではなく、誰でも参加できる方式で、開発中のボットと人が短い会話をし、それによりモデルを訓練しアップデートしていく。

人とボットが会話をする様子を、上の図で見ることができる。上図では「利息を比較する」にチェックが入っているが、それは、ユーザーが求めている確率がもっとも高いと思われるアクションだ。それを見た人間トレーナーは、正しい/正しくないで答える。その結果をモデルは学習し、次に同じ状況に直面したら、もうその質問をしない。

Rasaのチームによると、ボットが使い物になるまでに行う人間とのサンプル会話は、数十回で十分だ。しかし、もっとたくさんやれば精度は上がるし、ユーザーフレンドリーにもなるだろう。

“IBMがWatsonで作った会話モデルを見たけど、ちょっとがっかりした”、とRasaの顧客の大手保険会社Helveticaに勤務し、会話型AIのプロマネでもあるFlorian Nägeleは述べる。“決定木が一つだけで、コンテキストをほかの木に持っていけない”、と彼はWatsonについて言う。

Rasaのよいところは、訓練データなしで顧客が自力でモデルを作れることだ。理想的には誰もがサンプル会話の自分用の大きなコーパスを持っていて、それを使って会話システムを訓練することだが、技術スタッフのいない企業では、それも難しい。

Rasa Coreは、オープンソースとしてGitHub上にある。またRasa Coreと本誌が昨年12月に取り上げたRasa NLUには、企業向け有料バージョンもある。有料版には、アドミン用管理インタフェイスや、カスタマーサポート、テストの自動化、コラボレーションによるモデルの訓練、といったサービスが付随する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

福岡発AI・IoTスタートアップのスカイディスクが7.4億円を調達、提供分野の拡大と海外展開目指す

AIやIoT を活用したソリューションを提供するスカイディスクは10月3日、ニッセイ・キャピタル、 DG Daiwa Ventures、環境エネルギー投資、山口キャピタル、加賀電子、ドーガンベータ、アーキタイプベンチャーズを引受先とする第三者割当増資により、総額7.4億円を調達したことを明らかにした。

スカイディスクは2013年に福岡で設立。2016年の1月にニッセイ・キャピタル、アーキタイプベンチャーズ、ドーガンが運営するファンドから1億円を調達していて、今回はそれに続く資金調達となる。

センサデバイスからAI分析サービスまでワンストップで提供

スカイディスクの特徴はAI・IoTを現場で導入するのに必要な機能をワンストップで提供していることだ。

具体的にはデータを取得するための「センサデバイス」、そのデータをクラウドに届けるための「通信システム」、取得したデータを蓄積する「データ蓄積クラウド」、貯まったデータを分析するための「AI分析・学習モデル」といった技術やシステムを全て自社で保有。様々な業界の課題に合わせて、IoTとAIを活用したソリューションを提供している。

その1つが先日TechCrunchでも紹介した、スマホのマイク機能を使って取得した「音」により、設備機器の異常診断ができる「スマート聴診棒」だ。

従来は熟練の担当者が機器の発する音をたよりに行っていた異常診断業務。高度な技術や経験が必要になる属人的な業務であり、後世へノウハウを継承することも現場の課題となっていた。

そこでスカイディスクではIoTとAIを活用し、若手の担当者でも対応できる仕組みを構築。ある電力会社のニーズからできあがったシステムだったが、他社でも同様の課題を抱えていることを知り、正式なサービスとしてリリースした。

スマート聴診棒

設備保全分野に限らず、スカイディスクでは農家向けにハウスの気温や湿度などを自動測定できるシステムや、フィットネススタジオ向けに施設内の室温や酸素濃度を感知するシステムなども提供している。

プロダクトアウト型から、マーケットイン型の企業体へ変化

「(2016年1月に)出資を受けてからビジネスサイドのメンバーも増え、プロダクトアウト型の企業体からマーケットイン型へシフトしてきている。顧客のニーズや痛みをAIやIoTでいかに解決していくのか探るアプローチへ変わった結果、スマート聴診棒のようなサービスが生まれた」

そう話すのは、スカイディスク代表取締役CEOの橋本司氏。この1年半ほどで5名だった同社の社員は約25名までに増えた。事業が前進するきっかけになったのは、チーム編成が変わったことに加え顧客の変化もあったからだという。

「以前は『IoTって何?』という顧客が多かったが、今では『AIやIoTを活用してこのような課題を解決できないか?』という声が増えた。問い合わせもIoT推進部のような新設された部署だけでなく、実際に課題を抱えている事業部からいただくように変わってきている。現場の課題が明確なため取り組みやすく、仮に対応できない場合も断りやすい。状況判断のサイクルが早くなり、事業の成長に繋がっている」(橋本氏)

スカイディスク代表取締役CEOの橋本司氏

この1、2年ほどで「AIやIoTの活用に貪欲になった企業が増えてきている」(橋本氏)という実感があるからこそ、さらに多くの顧客に自社の技術を提供できるように資金調達へと踏み切った。今後スカイディスクではAIエンジニアやビジネス開発人員を増やした上で、「提供分野の拡大」と「海外展開」の2つに取り組む。

たとえば現在同社が注力している設備保全分野では、工場やビルの機械装置だけでなく、鉄道やトンネル、橋梁といったインフラにも拡大していきたい考えだ。扱うデータについてもスマート聴診棒のような「音」に加え、「振動・電流」から故障予兆が検知できるサービスを準備し顧客のニーズに応える。

また九州工業大学と介護領域でのIoT活用に関する共同研究をスタート。これまで着手できていなかった分野でもチャレンジを始めていく計画だ。

そしてAIやIoTを活用したサービスを提供できるのは、日本国内の企業だけではない。特に設備保全の問題などは世界でも共通する部分が多いという。橋本氏によると「主にアジア圏で実際に話が出てきている」そうだ。日本で作った事例の海外展開やその逆パターンなど、これから1、2年で国を超えた取り組みも行っていくという。

OracleがそのプラットフォームにAIアプリ開発サービスを追加

Oracleはクラウドへの参入が遅れ、ここ数年はそのキャッチアップに躍起になっていた。そのために、顧客たちがクラウドベンダーに要求する幅広いサービスに対応しようと努力を重ねてきたのだ。こうした流れの中で、同社は本日(米国時間10月2日)Oracle OpenWorldにて、サービスとしての人工知能を、その提供品目に追加した。

本日のOracleは、新しい自律型データベースぴかぴかの新しいブロックチェーンサービスといった一連の大型発表で大忙しだった。この人工知能サービスは、これらの発表の延長線上に位置付けられる。

人工知能は開発者にとって大きな賭けとなっている。いま開発者たちは、人工知能の深い知識は必要とせずに、AI機能の活用を比較的容易にしてくれる一連のツールとテクノロジを必要としているのだ。

興味深いことに、本日発表されたAIサービスは、Oracle自身が顧客向けのAI活用アプリケーションを構築するために、社内で利用してきたツールの拡張なのだ。このサービスは、顧客が独自のAIアプリケーションを構築しようとする際に、同様のツールセットを提供できるようにデザインされている。

Oracle適応型インテリジェンス向けの製品およびデータサイエンス担当副社長であるJack Berkowitzは、社内のサービスチームは、社内の開発者たちと一種の共生関係で協力していると述べ、以下のようにTechCrunchに語った「可能な限りユースケースを押し広げようとしています。(社内開発チームが)私たちに技術を提供し、私たちはその技術を活用しています。私たちは社内最大の顧客なのです。そうした部分をまとめて、(インテリジェントな)アプリケーションを構築することができるようにしたのです」。

Oracle Cloudの上級副社長であるAmit Zaveryは、これはブロックチェーンのように、顧客に対して一連のサービスを提供し、それらのサービスの上にアプリケーションを構築するためのツールを提供するものだと述べている。このために、共通のフレームワーク、ライブラリ、開発ツールを提供し、プラットフォームサービスとして利用できるようにすると彼は語った。このサービスを使うことで、開発者たちは、Google Tensorflow、Caffe、あるいはNeo4jなどの一般的なツールを利用して、しばしば高負荷を要求する機械学習をNVidia GPUの上で実行することができる。

Zaveryによれば、Oracleは顧客がAIアプリケーションをより簡単に構築できるように、努力を重ねているという。「これらのフレームワークとツールに関して私たちがわかったことは、統合されたものとしてのセットアップは容易ではなく、進化の速度が速いため、APIという観点で何を利用すべきかに追従することは難しいということなのです」。今回のサービスは、開発者に対するそれらの問題を軽減するようにデザインされている。

一般的なAI開発プラットフォームに加えて、同社はチャットボット、IoT、そして適応型インテリジェンスアプリなどの特定のサービス提供を、今後数週間で利用可能とする予定だ。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BLOOMBERG/GETTY IMAGES

オンラインミーティングソフトウェアのZoomが、ARとAIをミーティングに持ち込む

Zoomは、その第1回ユーザーカンファレンスZoomtopiaに於いて、人気のミーティングソフトウェアに対する一連の機能拡張を発表した。拡張現実(AR)ミーティングの導入、議事録の自動作成、そしてSlackやFacebook Workplaceを含む様々なパートナーとの完全な統合などが含まれている。

まずARから始めよう。現段階ではまだ限られた機能だが、これはZoomによるミーティングに拡張現実機能を導入した最初のものだ。CEOのEric Yuanによれば、これはオンライン授業を強化することが目的だということだが、課題もある。教師がARのヘルメットを着用する必要があり、現在サポートされているのは(今のところ)Metaのみだということだ。それでもYuanによれば、生徒たちは教師が拡張現実の中に見ているものを何でも見ることができるということだ。例えば、もし教師が太陽系を表現したものの回りを歩くとすれば、それを生徒たちはZoomプラットフォーム上で見ることになる。生徒側が特別な機器を持つ必要はない。

同社はまた、FacebookによるWorkplaceやSlackを含む、一般的なエンタープライズワークフロー/コラボレーションツールとの統合を発表した。これまでもZoomは、Slackと一緒に使うことができていたが、今回はさらに緊密な統合である。ユーザーが単純にSlackの中で”/zoom”と入力するだけで、他のSlackユーザーをミーティングに招待することができる。同様に、Facebook Workplaceの中で”zoom”とタイプすれば、Zoomのライブミーティングが開始される。

同社はまた、人工知能への初めての関心を、記事録の自動作成という形で示した。これによって議事録を人間が記述する必要がなくなり、検索可能な議事録が作成される。AIを使用することで、ミーティング内の全ての発言がテキストに変換される。そして誰の発言だったかも併せて識別される。

オンラインミーティングソフトウェアビジネスは、GoToMeeting(LogMeIn)、BlueJeans Network、Fuze、そしてUber Conferenceといった同種のサービスを提供する会社間での競争が激化している。大手ベンダーもこのマーケットで活動を行っている、例えばFacebook Workplace、Microsoft Teams、Google Hangouts、Cisco WebEx、そしてCisco Sparkなどだ。

興味深いのは、Yuanは、2007年にCiscoに32億ドルで売却されたWebExの、創業者の1人であるということだ。彼の新しい会社は、この1月に発表された1億ドルのラウンドを含み、これまでに1億4500万ドル以上を調達している。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: PEOPLEIMAGES/GETTY IMAGES

Amazon MusicがAlexaの機能を搭載

Amazonが、Amazon MusicにAlexaの機能を組み込んだ。iOS版およびAndroid版の双方に実装され、音声コントロールが行えるようになったのだ。Amazonの発表によれば、使えるのはアメリカ、イギリス、ドイツ、およびオーストラリアだとのこと。音声コマンドで実施できるのは、再生する曲、アーティストの指示であったり、あるいはドライブ、ランニングなどといったシチュエーションに応じた曲をリクエストすることだ。EchoスピーカーでAlexaを利用していた人にとっては馴染み深い機能だろう。

やはりEchoで利用できる機能だが、歌詞はわかるが曲名がわからないといった曲をリクエストすることもできる。

Echoスピーカーでは、天気予報やニュースの問い合わせだとか、あるいはタイマーやリマインダーの設定に並んで、音楽再生も代表的ユースケースとなっている。そのような状況の中、音楽アプリケーションにAlexaを導入するのは当然の選択といえるだろう。

今回のAlexa導入により、SpotifyやApple Musicとの差別化を行なって、第3位のポジションからの脱却を目指す意味もある。なるほどApple MusicはSiri対応ではある。ただしそれはAppleユーザーに対してのみの話だ。Siriと連携したApple Musicを楽しめるのは、iPhone利用者に限られているのだ。

Amazonは、Alexaのモバイルアプリケーション対応を徐々に進めつつあるようだ。

今年になって、まずはiOS版のショッピングアプリケーションにAlexaを導入し、夏にはAndroid版でも対応した。

Amazonとしては、Echoデバイスを使っていない人々にもAlexaおよび音声アシスタントの便利さを感じてもらい、そして自らの商機を広げようとする意図があるのだろう。Echoの購入を考えている利用者に対して、さまざまなアプリケーションを通じてAlexaの魅力を伝えようとしているわけだ。Amazon Musicの利用者がAlexaの便利さを感じてくれれば、Google HomeやAppleのHomePodではなくてEchoを選択する可能性も高まることになる。

Alexaと連携するのはAmazon Musicの最新版での話だ。旧版を持っている場合には最新版にアップデートする必要がある(訳注:日本では未対応です)。

原文へ

(翻訳:Maeda, H

NvidiaがスマートシティプラットホームMetropolis AIでAlibabaやHuaweiとパートナー

NvidiaのスマートシティプラットホームMetropolis AIは、まるでDC Comicsのスーパーマンの漫画にあったような名前だが、実際にはそれはGPUを使用するインテリジェントなモニタリングツールで、渋滞の解消とか、行政サービスの適正配分、迷子の老人や子どもの発見など、さまざまな業務を助ける。このほど同社は、Mtropolisの本格的な普及を目指してAlibabaおよびHuaweiとパートナーし、またMetropolisの一般供用バージョンにはそのSDK、DeepStreamを含めることになった。

Metropolisはビデオを使用し、2020年までには10億台以上の、インターネットに接続されたカメラを世界中の都市に据え付けて、警察や都市計画などあらゆる行政サービスをアシストするデータ分析AIアプリケーションを稼働させる。

Nvidiaは今日北京で行われた同社のGTXカンファレンスで、そんなアプリケーションの一端を紹介した。たとえば中国のHikvision Research Instituteのプロジェクトは、Jetson, Tesla P4, DGX-1といったNvidia製品〔主にディープラーニング関連〕を組み合わせて、顔画像と個人プロフィール情報のマッチングを90%の確度で行う。

こういった監視システムにはオーウェルの‘ビッグブラザー’的な気色悪さがつきまとうが、円滑で安全な都市交通ネットワークのための自動化情報システムが実現するためには、それが必要な第一歩だろう。たとえばAlibabaが考えているのは、都市計画部門における行政サービスの改善だ。またHuaweiなどは、もっぱら警察用アプリケーションに注力している。後者はそれこそ、ビッグブラザー問題を内包するかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ニュースをAIに読ませて、全国の警官発砲事案を発見する

過去数十年間に、警察官に殺された人数が何人かと尋ねてみると、相手によってその結果は大きく異なる可能性がある。地方や連邦当局は、活動家並びに研究グループなどとはまた別のやり方で、それらを計算するかもしれない。そこで、警官の関わる死亡事故を、全国のニュースレポートからAIシステムに抽出させることで、より良い結果を得ようと試みるプロジェクトが登場した。

マサチューセッツ大学アムハースト校のBrendan O’Connorが指摘するのは、 事案の集計方法はところによって異なるものの、報道の曖昧性はとても少ないということだ。発砲の正当性は自体は論争になるかもしれないが、警官が発砲して誰かがを射殺したという基本的な事実を蔽い隠すことは難しい。もしコンピューターがそれらを発見することを学べれば、それは単純ではあるが有効な、全国的情報網として機能することだろう。

O’Connorとその同僚は、まず2016年のGoogle Newsのニュース記事から、警官(例えば “officer” や “cop” という単語が出てくる)または死亡(例えば “shot” や “died”)に言及しているものを抽出した。そしてこの結果から、重複や明らかなミスを取り除き、射殺に直接関連するテキストの部分(例えば「警察官BakerがJohn Doeに向け発砲し、Doeは死亡した」といった文)を特定した。

そして機械学習システムがこれらを用いて、警官に遭遇したことによって死亡した人びとのデータベースを構築しようと試みた。この訓練のための検証用データとして、研究者たちは、ジャーナリストのD. Brian Burghartが手作業で編集した、既存の警察関係の死亡事案データベースであるFatal Encountersを利用した。

システムが最も自信を持っていた20人の名前。偽陽性は容易に同定された。

結果として得られた学習モデルは、Fatal Encountersが2016年最終四半期に収集していた警官の発砲事案の、57%を発見することができた。その数字だけを聞くと、それほど有効なもののようには思えないかもしれないが、これはこの先有望な技術なのだ。より多くのデータとさらなる訓練によって、この数字はかなり増えて行くだろう。厳密なチェックを行なうBurghartのような人びとは依然として必要だが、現在の状態でもシステムはスピードアップの役に立つ。

実際このAIシステムは、論文の結論に記載されているように、単独での利用を想定されたものではない。

1つの目標は、私たちのモデルを半自動システムの一部として利用することだ。そこでは人間が、候補として挙げられたランキングリストを手動でチェックする。

AIの最高の応用方法は、人間要素を置き換えるのではなく、補完するものでなければならない。研究者たちは、もしこのシステムがもう少し進化したなら、ニュースから別の種類の事案を抽出するように調整することもできるだろうと語っている。例えば警官が命を救ったといったニュースの抽出だ。

著者らはこの論文を、コペンハーゲンで開催された計算言語学会2017で発表した

[ 原文へ ]
(翻訳:Sako)

販売管理システムのApttusが契約管理に人工知能を導入

AIや機械学習は、今日のソフトウェアにとって、急速に欠かせないものになっているようだ。見積もりから決済までのサービスを提供するApttusは、契約処理部分の作業にAIを投入することで、非効率なシステムをスピードアップし、契約締結の速度を上げようとしている。

従来、契約は販売プロセスのボトルネックになっていた。ApttusのCEOで創業者Kirk Krappeが説明するように、契約ワークフローには一連の意思決定ポイントがある。企業はAIを使用して、進むべき方法を選択し、どれを優先させるかを決定することができる。

「契約管理と人工知能を組み合わせた組織は、リスク、サイクルタイム、コスト、交渉結果に関わる考慮事項に対して、明快なトレードオフを行う能力を持つことができるようになります」とKrappeはTechCrunchに語った。

同氏によれば、企業の経営幹部たちはこの能力を持つことで、幅広い企業目標に関連付けながら、様々な意思決定を管理する高い柔軟性を得ることができるということだ。「コスト削減を重視する組織もあれば、一方リスク軽減や売上成長の最大化を重視する組織もあります」と彼は説明する。

「このため、契約管理に適用されるAIは、あらゆる種類の組織において、将来の成長を促進し、生産性を向上させる可能性を秘めています。最高法務責任者および法務執行責任者たちは、この方式を無視することはできません。そして彼らと彼らの部門の価値を高める手段として、これを取り込むことができるのです」と彼は語った。

言い換えれば、人工知能を契約プロセスに適用することで、企業はより効率的に作業することができる。そのことでセールスプロセス全体を動かして、素早く成果へと結びつけることができるのだ。それは、契約書の作成、承認、署名を待っている法務部のボトルネックをなくすか、大幅に削減してくれる筈だ。

純粋な効率性の向上以外にも、このソフトウェアは、あなたの会社を保護するために欠けている条項を推奨してきたり、相手から提案された契約書の中から、自社に財務上のリスクを与える可能性のある条項を発見したりすることができる。そして、サードパーティの用語を契約データベースに組み込むことができるため、必要に応じてサードパーティの契約から適切な用語を取り込むことができる。

Apttusのシステムが、Salesforceプラットフォームの上に構築されているにも関わらず、Microsoft AzureのAIアルゴリズムを今回の製品機能の構築に利用したのは興味深い。 彼らはこれを単純なタイミングの問題であると説明した。彼らがこの機能の開発に取り組み始めたのは、Salesforceが6月にEinstein AI APIを公開したはるか以前なのだ。

Apttusは、販売プロセスの見積りから決済までのパートを処理する。営業担当者がCRMツールを使用して顧客に関する情報を追跡している一方で、見積もり依頼によって営業プロセスが開始されると、Apttusのようなツールが後を引き継ぐ。販売が完了すると、Apttusが契約も処理して、最終的に代金を回収する。

このAIによって拡張された契約管理機能は既に利用可能だが、有償のアドオンとして提供されている。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: GUIDO ROSA/GETTY IMAGES

GoogleのAIのトップは曰く、人工知能という言葉自体が間違っている、誇大宣伝を生む温床だ

Googleエンジニアリング部門のSVP John Giannandreaが、TechCrunch Disrupt SFで、人工知能に関する優れた談話を語った。とくに彼は、人びとは汎用の人工知能に対して心配しすぎだ、と考えている。

数年前にGiannandreaは、人工知能を4歳の子どもにたとえた。しかし今日はその説を改め、もっとひどい、と言う。“4歳児ほどの汎用的能力*もない”、と彼は述べる。〔*: 汎用的, general purpose, 知識を一般化してさまざまな目的や状況に対応/応用できる能力。〕

“今はAIに関して大量の誇大報道がある。多くの人が、汎用AIの勃興をめぐって、いわれのない不安を抱えている”、とGiannandreaは語る。“機械学習や人工知能はきわめて重要であり、産業に革命をもたらすだろう。Googleは検索エンジンのような、そのための建設工具を作って、生産性を高めようとしている”。

本誌TechCrunchのモデレーターFrederic Lardinoisは、さらに突っ込んで、AIアポカリプスを心配しているか、とGiannandreaに尋ねた。

彼は答えた: “AIアポカリプスに関しては、まったく心配していない。例によってそれは誇大宣伝とお手軽コメントの常套句であり、そんなものを専門に作ってる人たちがいるのだよ”。残念だったね、Elon Muskさん!。

AIアポカリプスに関しては、まったく心配していない

— John Giannandrea

また、強力な機械学習応用製品を作れるのが、Googleのような巨大テクノロジー企業だけであることも、不安や心配を招いている。Googleのような企業はデータの巨大な集積を独占し、独自のプロセッサーまで作り、数十億もの消費者に到達できる能力を持っている。

しかしGiannandreaによると、Googleは人工知能のコミュニティとの開かれた会話を維持する必要がある。データセットに関しては、Googleは機会均等化に努めている。“実際には、人びとが考えるほどの膨大なデータは要らないのだ。それに、オープンな大型データセットもたくさんある”、とGiannandreaは述べる。“われわれも、ビデオや画像のデータセットを公開しているし、他社も同じことをしている”。

そしてGoogleの社内でも、大学等の研究者と会社の技術者たちが一緒に仕事をしている。“われわれ技術者は、そういう研究者たちや製品開発の専門家たちと密接な関係を維持している”、とGiannandreaは語る。

さらに同社は、偏りをできるかぎり避けるために、同社のAIプロダクトのアーキテクチャを外部と共有していく必要がある。“機械学習の動作や結果が公平公正であることのために、われわれは大量の時間を投じている”、とGiannandreaは述べる。“データに偏りがあったら、偏りのあるシステムが作られてしまう。Google内部でも、また研究者との協働においても、機械学習の公平公正さと、データの偏りを防ぐことには多大な努力を投じている”。

そして彼によると、そもそも人工知能という用語が、正しい言葉ではないかもしれない。Giannandreaによると、人工知能という言葉にはあまり意味がない。“できれば、人工知能という言葉は使いたくないね。ビッグデータも、そんな言葉のひとつだ。漠然としすぎているし、明確な定義もない。まだ、マシンインテリジェンスの方がましだな”。

  1. tcdisrupt_sf17_johngiannadrea-3051.jpg

  2. tcdisrupt_sf17_johngiannadrea-3056.jpg

  3. tcdisrupt_sf17_johngiannadrea-3058.jpg

  4. tcdisrupt_sf17_johngiannadrea-3061.jpg

  5. tcdisrupt_sf17_johngiannadrea-3063.jpg

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのBrain TeamのAI研究者たちは毎日何をしているのか

GoogleのBrain Teamの連中は、毎日何をしてるだろうか。あなたと同じように、メールチェックに大量の時間を取られているかな。最近のRedditのAMA(Ask Me Anything, 何でも訊(き)いて)で、GoogleのAI研究者11名が、毎日彼らがやってることを述べている。メールはここでも多いが、学術論文を斜め読みするとか、同僚とブレーンストーミングをする、といった高尚な話題もある。

GoogleのBrain Teamは、同社で人工知能を研究している研究グループのひとつだ。グループのリーダーはGoogleのシニアフェローJeff Dean、彼はMapReduceの中心人物の一人だが、ほかにもいろんな実績がある。

Deanの一日の時間は、メールを送る、技術文書に注記する、研究者たちとのミーティング、コードをレビュー、コードを書く、講演やその準備などに費消される。チームのリーダーだから、Brain Teamを売り込む仕事も重要だ。

チームのだれもが例外なく大量の時間を費やすのが、自分の研究やチームの共同研究に関連するペーパーをarXiv読むことだ。チームの研修生Sara Hookerは、朝食、ときには昼食や夕食で、同僚とおしゃべりし、同じ問題でも研究者によって視点や取り組み方が違うことを知るのが、とても好きだそうだ。そして今の最先端の話題に後れないためにも。

これまで自分たちが考えてもみなかったようなAIのアプリケーション体験することも、彼らは好きなようだ。Hookerはその例として、宇宙探検を挙げる。

自分の出身大学の仕事を兼務している者も、何人かいる。NIPS(Neural Information Processing Systems)など、業界の重要なカンファレンスの企画運営に関わっている人もいる。

そして彼らは、自分で手を汚すことが好きだ。それは主に、hugeでmassiveでgiganticでcosmicでcolossalなGPUクラスター上で、徹夜も厭わず大きな実験をすることだ。Jasmine Hsuのように、コンピューターではなくロボットを使えるラッキーな研究者もいる。彼女はソフトウェアのボットではなくリアルなボットの上で、シミュレーションやモデルのテストなどをやって、研究中のアイデアのプロトタイピングをしている。一日中デスクに張り付いていることが好きな人は、あまりいない。

そこの研究者たちが考えることだけに費やしている時間で、ぼくたちならいくつかのことを学ぶことができるだろう。Daniel TarlowとNicolas Le Rouxは二人とも研究者で科学者だが、主な仕事は今やってるプロジェクトの舵取りや、今後のプライオリティの計画だ。彼らは毎日、それに集中している。

〔参考記事: 同グループ前年のAMA

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMとMITがAI研究パートナーシップを締結した、10年間で2億4000万ドルが提供される

IBMMITは本日(米国時間9月6日)、MIT-IBM Watson AI Labを高名なマサチューセッツ州ケンブリッジの地に設立するために、10年間で2億4000万ドルに及ぶ契約に合意した。

このラボは、IBMのAIのリサーチVPであるDario Gilと、MIT工学部長のAnantha P. Chandrakasanが共同議長を務める予定だ。

ビッグブルーは、IBMの研究者たちとMITの学生そして教員が、高度なAI研究を行うために、お互いがすぐ近くで仕事のできるラボに2億4000万ドルを投じるのだ。パートナーシップが生み出す知的財産がどうなるのかに関しては、現在のところ少々不透明なところが残されている。

私たちにわかっていることは:MITはこの研究に関連する論文を発表する予定であり、その一方でそのなかで生み出される優れたコードをオープンソース化する計画だということだ。知的財産の中にはIBMのプロダクトならびにサービスの中に組み込まれるものもある。MITはこの契約の一環として、AIベースのスタートアップをいくつか生み出すことをを望んでいる。

「共同ラボの主な任務は、MITの科学者たちとIBM(の研究者たち)を集めて、AIの未来を形作り、科学のフロンティアを推進することです」とIBMのGilはTechCrunchに語った。

その目的のために、両者は、IBMの科学者とMITの学生コミュニティに対して、共同研究のアイデアを提出するように要請する予定だ。幅広くなりがちな取り組みの焦点を絞るために、彼らは研究の指針となるいくつかの原則を打ち立てている。

これには、まず第1に、ニューラルネットワークに基く深層学習を使う、特定のアプリケーンを超えたゴールを目指すAIアルゴリズムの開発することや、企業の中の複雑な問題を解決するためのより一般化された方法を発見することが含まれる。

また第2に、彼らは機械学習の力を量子コンピューティングと結びつけたいと考えている。量子コンピューティングはIBMが現在特に力を入れて開発している分野だ。AIには量子コンピューティングの開発を推進する潜在力があり、逆に量子コンピューティングとそれがもたらす計算パワーもAIの開発を推進する可能性がある。

IBMのWatson Security and Healthcare部門が、ケンドールスクエアにあるMITのすぐ近くに位置していることもあり、両者はこの2つの産業界の問題に集中することで合意した。また、2つのチームは、AIが及ぼす社会的および経済的影響の、社会での理解を助けるために協力する予定だ。

これはMITとIBMの双方にとって大変大きな取引だが、Chandrakasanは、このラボはキャンパス全体のAIイニシアティブの1つに過ぎないことを明言している。それでも双方は、今回の新しいパートナーシップが、IBM内部やマサチューセッツのスタートアップコミュニティ、とりわけヘルスケアとサイバーセキュリティ分野での新しいビジネスに結びつく、多くの研究と商業的ブレークスルーをもたらすことを望んでいる。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: PHOTO: RICK FRIEDMAN/CORBIS/GETTY IMAGES/GETTY IMAGES