中小企業営業チームの見込み客発掘精製過程を機械学習で自動化するGrowlabsがシードで$2.2Mを調達

生後6か月とまだ非常に若いスタートアップのGrowlabsは、マシンインテリジェンスを利用して外回りの営業チームを支援している。このほどシードラウンドで220万ドルを調達した同社は、チケットアプリのUniverseを作ったBen Raffiが創業し、これにJaclyn KleinとSafeer Jiwanが加わった。Growlabsは、小さな営業チームの効率を上げることによって、企業の顧客獲得コストを減らすお手伝いをする。

Universeの経験からRaffiが学んだのは、顧客獲得コストを肥大させずにアプリケーションをスケールするのが、とても難しいことだ。チームが80%の時間を調査と、メールの乱発に費やしても、それが売上に結びつく保証はどこにもない。

“見込み客の生成に努力したが、結果は良くなかった”、とRaffiは語る。“何もかも、いきあたりばったりだった”。

Growlabsを使うと、営業チームがターゲットのタイプと業種を指定すると、Growlabsが自動的に見込み客を生成し、メールを送り、結果を評価する。

Growlabsは機械学習と3億5000万件の見込み客候補のデータベースを組み合わせて、一番売りやすいターゲットを見つける。対話のデータをすべて集めて、今度はいつメールを送るべきか、フォローアップは何回必要か、などをアドバイスする。

ターゲットに対しては、基本的な分析のほかに、自然言語処理によりメールの内容を分析する。メッセージを分類すると、どの役職にはどんな売り込みが効果があるか、などのフィードバックが浮かび上がってくる。CTOが関心を向けても、CMOはさっぱり、ということもある。

課金は有効見込み客の生成数に対して行われるから、高価な一律会費制のSaaSサービスを使えない零細企業でもGrowlabsの顧客になれる。Growlabsのいちばん小さい顧客でも、このサービスを使って毎月数千通のメールを送っている。大きな顧客なら、2万とか3万になる。

今日の資金調達ラウンドは主にエンジェルたちと、B2Bの営業活動の経験のある戦略的投資家たちが主体だ。Growlabsは今、社員が8人だが、同社自身がこれからますます、中小企業への営業を成功させていかなければならない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の体験と学習を民主化・大衆化したいPaperspaceがY Combinatorらに支えられてGPU VMを導入

Amazon, Microsoft, Googleの三社とあえて同時にたたかう企業はめったにないが、でも弱冠3歳のPaperspaceは、データサイエンティストを優遇することによってクラウドコンピューティングのニッチを開拓できる、と考えている。今日(米国時間5/3)同社は、Nvidia Pascal GPUを使用する仮想マシンを立ち上げた。そこには機械学習のフレームワークがすでにインストールされており、Paperspaceはプロシューマーや熱心なデータサイエンティストたちから成る新興市場にも対応しようとしている。

“Amazon Web Services(AWS)は素晴らしいけど、気軽に手を出せない”、とPaperspaceの協同ファウンダーDillon Erbは言う。

クラウド上の機械学習を、もっと、とっつきやすいものにするために、PaperspaceはユーザーのWebブラウザー上に、彼らが日常使い慣れているLinuxのデスクトップを提供する。そこから誰もが、安全なシェルや端末を使ってコードを実装できる。インタフェイスはWeb、ハードウェアはGPU、そしてPaperspaceは、2560 CUDAコアのPascalチップと16GBのメモリを1時間65セントという低料金で提供する。

“この1年半ぐらいで、GPUを要望する人が急に増えてきたね”、とErbは述べる。

このような、民主化された機械学習の市場サイズが、どれぐらい大きいのか小さいのか。それはまだPaperspaceにも分からないが、同社のユーザーたちがローンチした仮想マシンは5万を超えている。かなりの需要があることは確かだが、まだ同社としてはきわめて初期的な段階だ。

クラウドから機械学習を提供する、いわゆる、サービスとしての機械学習(Machine learning as a service, MLaaS)のスタートアップは、このところあまり人気がない。理由はいろいろあるが、そのひとつは、高度な技術を持っているエンジニアたちの市場と、開発過程を初心者のために単純化するプロダクトとのあいだに、ミスマッチがあることだ。

PaperspaceをBonsaiH2O.aiなどと同列に扱うことはできないが、それでも上記のたとえは当てはまる。すでに大企業を顧客として抱えている既存のクラウドコンピューティングサービスも、今後ますます民主化へ向かうだろう。だから機械学習プラットホームの民主化は、必ずしも処女市場ではない。しかもデータセンターをスクラッチで(ゼロから)立ち上げアップグレードしていく費用は、膨大である。

Y Combinatorとニューヨーク大学、そしてInsight Data Scienceが、Paperspaceの初期からのパートナーだ。GPUを使う同社の新しい仮想マシンは、Insightが専門技術者の教育訓練に利用する。YCも同社のシンプルで使いやすいシステムを、今後のAIスタートアップの育成事業に利用するために、今実験を行っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebookのテキスト分類ライブラリfastTextがモデルのサイズを縮減してモバイルにも対応

今朝(米国時間5/2)、Facebookの人工知能研究所(Facebook AI Research, FAIR)が、同社の超高速でオープンソースのテキスト分類ライブラリfastTextのアップデートをリリースした。発表された当初のfastTextは90の言語の語ベクトルで訓練されていたが、今回のアップデートで295言語になる。また、モデルのサイズ、ひいてはメモリの必要量を抑える工夫が盛り込まれている。

fastTextのようなテキスト分類機能があれば、言語分析に依存する多国語ツールの開発が容易になる。クリックベイト(釣りネタ)のタイトルを見つけたり、スパムをフィルタするためには、言葉を解釈して分類する機能が必要だ。

fastTextは元々、対応ハードウェアの種類や性能を問わない、という設計だったが、でも、実行には数ギガバイトのメモリを要した。高度なハードウェアを贅沢に使える研究所ならそれでもよいが、モバイルでそれをやるのは、到底無理だ。

でも今回は、Facebookのもうひとつのオープンソースプロジェクト類似性検索(Facebook AI Similarity Search, FAISS)とのコラボレーションで、メモリの必要量を数百キロバイトに抑えることができた。FAISSは、大量のデータを扱うことにどうしても伴うメモリの問題を、部分的に解決している。

膨大な量の情報のコーパスは、多次元のベクトル空間でうまく表現できる場合が多い。Facebookなど多くの企業が、これらのベクトルの比較をコンテンツとユーザー選好を比較するために最適化しているが、コンテンツを他のコンテンツと比較することも重要だ。そのためにFAISSのチームが導入した方法が、fastTextのメモリ要量の縮減に大きく寄与した。

“特徴枝刈り(feature pruning)や量子化、ハッシング、再訓練など、いくつかのテクニックを使ってテキスト分類モデルのサイズを、よく使われるデータ集合で訓練したときには100KB未満に縮小することができた。正確さやスピードは、犠牲にしていない”、とFacebookの研究者たちは2016年12月のペーパー“fastText.zip: Compressing Text Classification Models”で述べている。

その研究者たちは、今後はさらなるモデルサイズの縮減が可能だ、と仮説を述べている。その場合、スピードを維持しつつモデルを縮小することが課題になる。でも今日からは、GitHub上のアップデートされたライブラリにアクセスして、研究と工夫を始めることができる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニングで蜂たちを致死的な害虫から救う養蜂家作のアプリBeeScanning

Makoto Koike(小池誠)のディープラーニングによる胡瓜(きゅうり)選別機のことは、今では誰もが知っている。世界中のホビイストたちが、機械学習を利用して彼らの問題のソリューションをハックしている。先日は、スゥエーデンの養蜂家で発明家のBjörn Lagermanが、エンジニアたちと研究者たちのチームに助けられて、BeeScanningというアプリを作った。このアプリは、スマートフォンで撮ったふつうの写真に巧妙なコンピュータービジョン技術を適用して、蜂のコロニーに危険な害虫(ミツバチヘギイタダニ, Varroa)の兆候を見つける。

蜂に寄生して文字通りその命を吸い取ってしまうそのダニは、蜂と養蜂家の悪夢だ。放置すると、コロニー全体がやられてしまう。だから継続的な監視が必要だが、これまでのダニ発見方法は時間がかかってたいへんだった。でも早期に発見して退治しないと、彼らは指数関数的に増殖してしまう。

そこで、機械学習の知識と技術が役に立つ。蜂の背中の色は黒だが、ダニは赤い。オブジェクト認識のアルゴリズムを使えば、蜂の画像中に害虫を素早く見つけられる。

彼のグループは今、世界中の10000の蜂のコロニーから40000の画像を集めている。それらの画像でモデルを訓練したら、手作業で害虫の数を数えたデータと突き合わせてベンチマークする。その面倒で時間のかかる処理には、蜂をアルコールで洗ってダニを分離する作業も含まれる。

BeeScanningは養蜂家がダニを素早くチェックする方法だが、同時に研究者のコミュニティにとっては、その害虫を研究するための新しいツールでもある。Lagermanは、今の化学薬品を使う処置には長期的な持続性がない、抵抗性のある蜂を見つける方法も必要だ、と強い口調で語る。

BeeScanningはごく最近、Kickstarterに登場した。来月はとりあえず5000ドル、長期的には35万ドルの募金が目標だ。お金の最初の用途は、データベースを作って一般の関心を高めること。Lagermanは12月が締め切りのEuropean Innovation Programなど、サードパーティからのサポートも期待している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニング・アプリケーションの開発〜デプロイ過程をシンプルに一元管理するBitfusion Flex

BitfusionがDisrupt NY 2015でローンチしたときは、GPUやFPGAなどのコプロセッサーを利用するコンパイル済みのライブラリをデベロッパーに提供してアプリケーションのスピードを上げる、というビジネスだった。それは2年前のことだ。今では、そんな技術の最大の市場が、ディープラーニングのモデルの訓練だ。同社がローンチしたときには、それらはレーダーに映っていなかった。でも、当然とはいえ、Bitfusionが今まさにフォーカスしているのが、その市場だ。

今日同社は、Vanedge Capitalがリードするラウンドによる500万ドルのシリーズA資金の調達を発表した。そのラウンドには、新たな投資家Sierra Venturesとこれまでの投資家Data Collective, Resonant VC, そしてGeekdomが参加した。同社の計画では、このお金は研究開発の強化に投じられ、そしてとくに、AIプロジェクトの構築と管理を支える、フレームワークを特定しないプラットホームBitfusion Flexにフォーカスされる。

今ベータのBitfusion Flexは、デベロッパーが単一のプラットホーム上でAIアプリケーションのライフサイクル管理ができるようにする。デベロッパーは単一のダッシュボード上で開発、訓練、そしてデプロイまでも実行し管理できる。内部的にFlexはコンテナを使って実験やモデルを複数のローカルマシンやクラウド間で容易にスケールし移動できるようにしているが、しかしベアメタル上のデプロイもサポートしている。

ただしFlexは、モデリングそのものを容易にしてくれるわけではない。TensorFlow, Torch, Caffeなど、フレームワークの選択とセットアップはアプリストア的なインタフェイスでできるが、その強みは、これらのアプリケーションを作って動かすために必要なインフラストラクチャの管理にある。したがってFlexは、フレームワークのことは気にしないし、またアプリケーションをどこへデプロイするのかも気にしない。

このサービスを利用して行う工程の管理は、Web上(ブラウザー上)のインタフェイスからでもできるし、またコマンドラインインタフェイスからでもできる。そしてたとえば開発時には、リモートのGPUをローカルなラップトップから使ったりできるのだ。

BitfusionのCEOで協同ファウンダーのSubbu Ramaはこう語る: “ディープラーニングのプロジェクトは、現状ではプロトタイプから先へ進めない人が多い。今は至るところで猫も杓子もディープラーニングをやりたがるが、Global 2000社には人がいない”。そこでBitfusionはFlexでもって、インフラストラクチャの管理という面倒な仕事を抽象化し、企業がやっと雇えたデータサイエンティストたちがアプリケーションに集中できるようにする。

Flexのベータ終了は数か月後の予定だ。オースチンに本社のある同社は、今後シリコンバレーでのプレゼンスを大きくしたい。ただし研究開発の多くは今後もずっと、オースチンでやっていきたい、という。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ニューラルネットワークを使って、ゲームのアニメーションのぎこちなさを減らす

最近のゲームのグラフィックス精度には目を見張るが、クリエーターが表現に苦労することの一つが人間の滑らかな動きだ。本物のモーションキャプチャーデータを利用したニューラルネットワークに基づくアニメーションシステムを使えば、アバターの歩いたり走ったりジャンプする動きをもっと自然にできるかもしれない。

もちろん最近のゲームをプレイしたことのある人なら、すでに多くのゲームでスムーズな動きが実現しているのをご存知だろう ―― しかしそのためには、アニメーターたちがさまざまな動きをライブラリーから選びあらゆる場面にリンクさせる忍耐強い作業が必要だ。女性キャラクターが2階に登りながら弓を引き、さらにかがみこんだらどうなるのか?彼女が細い棒の上でバランスを取っている間に撃たれたらどうなるのか?可能性は無限にある。

エジンバラ大学とMethod Studiosの研究者が、さまざまな動きのモーションキャプチャーの部品を組み合わせる機械学習システムを作った。例えば「この方向へ行く」と入力すれば、地形を考慮して、例えば駆け足から小さな障害物を飛び越える場面にもっとも適したアニメーションを出力する。

駆け足からジャンプへと遷移するカスタムアニメーションを作る必要はない。アルゴリズムが判断してスムーズな動きを生成し、アニメーションのタイプが切り替わる際の不快な動きはない。多くのゲームエンジンが、足の位置やアニメーションのブレンドなど間に合わせの機能を提供しているが、これはもっと本格的なものを目指す新しい方法だ。

機械学習は以前からこの分野に導入されてきたが、ビデオでも言っているように、生成されるシステムはかなり原始的だった。動きが間違っていたりアニメーションが抜けることがあり、それはどれを使えばいいのかシステムにはわからないからだった。アニメーションの状態を決めつけすぎて動きがぎこちなくなることもある。

これを避けるために研究者らは、ニューラルネットワークにフェーズ機能を追加することで、例えばジャンプの途中で歩く、といった異なるタイプのアニメーションをあやまって混ぜることを防いだ。

「われわれの方法はデータ駆動なので、キャラクターは単にジャンプのアニメーションを再生するのではなく、障害物の高さに基づいて動きを連続的に調節している」と新しい方法を説明するビデオで研究者が語った。

これをそのままでゲームに使うことはもちろんできないが、アニメーションのブレンディングや作成のもっと高度な方法を作るための出発点になるだろう。これは、アニメーターの不満が減り、キャラクターの動きはもっと自然になるという意味かもしれない。あとは、エイリアンや蜘蛛やその他の生き物など、ふだんモーションキャプチャースタジオで見かけないものはどうするかだけが問題だ。

Daniel Holden、Taku Komura(以上エジンバラ大学)、Jun Saito(Method Studios) の3名が今年のSIGGRAPHで発表する。Holdenのウェブページに詳しい情報がある。

[原文へ]

(翻訳:Nob Takahashi / facebook

Google AssistantのSDKをデベロッパーに提供、製品のプロトタイプへの使用は自由で無料

Googleは前から、Assistantをさまざまなハードウェア企業やデベロッパーから成る大きなエコシステムへ公開したい、と言っていた。今日(米国時間4/27)同社はその方向へ大きく一歩前進し、Google AssistantのSDKローンチした。デベロッパーはこれを使って、自分のハードウェアにAssistantの知能を組み込める。たとえばスマートミラー(鏡)とか、Google Home的な器具や装置、絶対禁酒を誓った人が秘かに楽しむロボットのバーテンダー(上図)など、何でも好きなものを作れる。

ただしGoogleのAPIを自由に使えるのは、プロトタイプを作るときだけだ。商用製品を作るときには、Googleの正式の許可が要る。

SDKはPythonのコードで提供され、人気のRaspberry Pi 3をはじめ、さまざまなハードウェアプラットホームで使える。GoogleのgRPC APIを使えば、Assistantをそのほかのハードウェアプラットホームにも統合でき、またJava, C#, Node.js, Rubyなどの言語を使える。このSDKを使えば、自分のハードウェア製品が音声コマンドを聞き取り、それらをGoogle Assistantのサービスに送り、適切な応答を受け取ることが容易にできる。

Googleによると、SDKを使っているデバイスはAssistantのすべての能力を利用できる予定だが、現状は違う。リリースノートにはたとえば、アラームとタイマーをセットできない、と書いてある。音楽の再生、ニュース、ポッドキャストもだめだ。ホームオートメーションの機能の多く、および、Uberなどサードパーティサービスの呼び出しは、まだGoogle Homeにしかできない。

Assistantに話しかけるAPIはすでに公開されている。この“Actions on Google” APIは、サードパーティのアプリケーションをGoogle Homeに統合するためのものだ。またPixelスマートフォンや今後のAlloでも、Assistantがサポートされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebookが最初のCaffeに大きな柔軟性を持たせたディープラーニングフレームワークCaffe2をオープンソース化

今日(米国時間4/18)FacebookはCaffe2をオープンソースにした。それは、最初のCaffeに次ぐディープラーニングフレームワークで、そのCaffeはカリフォルニア大学バークリー校で始まったプロジェクトだ。Caffe2は、効率的にデプロイできる高性能な製品を作ろうとするデベロッパーに、大幅な柔軟性を与える。

FacebookがCaffeのコミュニティにエンゲージするのは、これが初めてではない。10月にはCaffe2Goを発表したが、それはいわば、モバイルのCPUとGPU向けに最適化されたCaffe2だ。そもそも、名前の中に‘Caffe2’がある。そのときCaffe2Goが注目されたのは、リリース時期がたまたまStyle Transferと一致したからだ。

もうひとつ注目すべきは、同社が最初のCaffeのエクステンションをリリースしたことだ。それによってCaffeが、大きなオーディエンス向けのサービスを構築しているデベロッパーにとって、魅力的になった。Facebookは従来、リソースをそれほど必要としないディープラーニングのプロジェクトには、研究用途向けに最適とされるTorchライブラリ〔2015年にオープンソース化〕を使ってきた。

でも最近のテクノロジー企業はどこも、自社の機械学習フレームワークはスケーラビリティが優れている、と強調するようになった。Caffe2の開発リーダーYangqing Jiaは、MXNetと、スケーラビリティをめぐるAmazonの主張 をどう思っているだろうか。彼は比較のためのベンチマークにあえて言及しないが、しかしそれはベンチマークが無意味だからではなく、そもそも機械学習アプリケーションの性能は実装に大きく左右されるし、また学習モデルの質にも依るからだ。しかもそれらにはほぼ必ず、“DIY的な”バラつきや変動がつきまとう。

Caffe2のリーダーYangqing Jiaと事業開発のリーダーAlex Yu

“フレームワークというものには多かれ少なかれ必ずスケーラビリティの問題がつきまとうが、そんな中でCaffe2は、頭一つぐらい他を抜いていると思う”、とJiaは説明する。

Facebookは、Caffe2とPyTorchの両方に多くのリソースを注いでいる。今日の発表には、ハードウェアとデバイスとクラウドのレベルでのパートナーシップが伴っている。Caffe2の事業開発を統轄するAlex Yuは、どのカテゴリーでもパートナーとしてマーケットリーダーをねらった、と言っている。たとえばハードウェアではNvidiaやIntel、デバイスではQualcomm、クラウドではAmazonとMicrosoft、といったぐあいだ。この中にGoogleの名はないが、Google Cloud Platformとのパートナーシップも、今後無視されることはありえない。

Caffe2はリリースの前から、Facebook内部で大々的にデプロイされてきた。また、元のCaffeと同じく、デベロッパーコミュニティの育成にも力を入れる。CaffeからCaffe2へのモデルへの変換は、ユーティリティスクリプトで簡単にできる。ドキュメンテーションとチュートリアルはFacebookが提供、そしてCaffe2のソースコードはGitHub上にある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Hondaのシリコンバレーの研究所Silicon Valley LabがHonda Innovationsという名の新会社へ脱皮

Hondaはシリコンバレーの研究所をHonda R&D Innovations, Inc.という名前の会社にした。通称はHonda Innovationsだ。自動車以外の研究開発も行い、また将来のプロジェクトではスタートアップなどの企業とのパートナーシップも目指したい、とHondaは言っている。

Honda Innovationsの本社はそれまでの研究所と同じくマウンテンビューに置かれ、CEOはHonda Silicon Valley LabのシニアプログラムディレクターだったNick Sugimotoだから、明らかに前の形から多くを引き継いでいる。今後追究する主なプロジェクトは、IoT、インターネットに接続された車や都市、マンマシンインタフェース、ロボット、AIなどのマシンインテリジェンス、そして一人乗り車両や共有経済サービスなどだ。今は、未来のHondaの車にWaymoの自動運転技術を利用する、という話が進められているが、この新しい企業はそれのためのHondaの窓口にもなる。

またHondaのソフトウェア開発部門およびアクセラレーター部門とも言えるDeveloper StudioとXcelerator事業も、新会社の管轄になる。後者は、成長初期から後期にかけてのスタートアップをサポートしていく。基本的にこれはHondaのアメリカにおけるテクノロジー方面の子会社であり、だいたいどの自動車メーカーにも類似のエンティティがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleの敵対的AI(GANs)はAI開発における現実データへの依存を減らす

AIの開発で最大の難関が、人間による大量の入力が必要なことだ。最初に、AIに解かせるための適切なデータを見つけて入力しなければならないし、さらにそれ以前に、AIを有能にするための訓練で大量のデータ入力が必要だ。GoogleのAI研究者Ian Goodfellowは、Elon Muskらが率いるOpenAIに出向したあと、最近またGoogle Brainに戻った人物だが、彼によると、ニューラルネットワークに別のニューラルネットワークを組み合わせることによって、この二つの問題を解決できるかもしれない、という。

実はFacebookでも同様の研究論文を、AI研究のトップYann LeCunnとAIエンジンイアSoumith Chintalaが昨年の6月に書いている。その中で彼らは、生成能力のある敵対的ネットワーク(generative adversarial networks, GANs)を利用する自動〔==無監督〕学習、すなわち人間が介入する必要のない機械学習を説明している。これを最初に考えたのはGoodfellowだが、Wired誌によると、その有効性の証明にはモントリオール大学における研究者たちの(アルコールの力も借りた?)激論を要した。

このシステムでは、二つの互いに対立するニューラルネットワークが、対立する情報を相手に提供しあう。たとえば一方が犬のリアルな画像を合成しようとしていると、他方はおかしな点を指摘し、相手の失敗を批判する。このような試行と批判を繰り返すことによって、生成を担当する方のシステムが、意外なやり方で性能を上げ、能力をアップしていく。

GANsを利用すると、AI研究者たちは、画像生成システムなどが時間をかけて改良されていくために必要な、人間による入力信号の修正を減らせるだけでなく、医療のような厳しい分野でも、有益なAIや機械学習ツールを生成するために必要な実データの量を最小化できる。GoogleのDeepMindはイギリスの国民保健サービス(NHS)とパートナーし、個人の保健医療データを利用しようとして問題になっているが、GANs を使えば実データではなく人工的な患者データを利用してAIを訓練できるかもしれない。

GoodfellowがGoogleに戻ったことは、GANsをめぐる大手テクノロジー企業間の競争(や協力)が激しくなっていることを、示している。もちろんその競争は、将来におけるAI開発のスピードをアップすることにもつながる。またAIベースの保健医療サービス等の受益者たちも、プライバシー侵犯の心配から解放され、関係者全員のウィンウィンの構造が出来上がるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのAutoDrawはAIを使って落書きをプロの絵に変えてくれる

絵は誰にでも描けるものではない。ちなみに私はまるでだめだ。しかしGoogleは、AutoDrawで新しい体験を提供する。機械学習アルゴリズムを利用して、あなたの落書きをプロの描いた絵のように変えて、まるで絵心のある人のように見せてくれる。

AutoDrawはスマートフォンでもデスクトップでも使えて、やり方は実にシンプルだ。自分なりに最高のピザや家や犬やバースデーケーキの絵を描くと、アルゴリズムがあなたは何を描こうとしていたのかを解釈する。そしてくねくねとした線をデータベースにある絵と比較して、一致しそうなものをバーチャルキャンバスにリスト表示する。気に入ったものがあったらクリックすればAutoDrawがあなたの素人作品をもう少しいいバージョンで置き換える。

なお、自分の絵をプロジェクトに寄贈したいアーティストはここで登録できる。

実はこのプロジェクトのテクノロジーはGoogleのQuickDrawという実験プロジェクトで使っていたものとと同じだ。ただしQuickDrawはどちからというとゲームに近く、決められた物体の絵を描いて20秒以内にAIシステムに認識してもらうのが目的だった。AutoDrawでは自由な実験が可能なので、ここで説明を読むよりも、AutoDraw.comへ行って試してみるのが一番だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

トップ棋士およびAlphaGoによるイベントを5月に開催

GoogleのDeepMindが世界最高レベルの囲碁プレイヤーを破ったのは大きなニュースだった。Googleとしては、人間とAIを対決させることにより、地球上最強の囲碁棋士に対峙しうるものかどうかを確認したいとう気持ちがあったように思われる。

そしてこのたびGoogleは、中国棋院および中国政府の協力を仰ぎ、トップ棋士および中国のAI研究者を招いて5月23日から27日にかけて、AIの限界を探るサミットを開催することとなった。このサミットではAIの実力を探るとともに、人間とは異なるAI風の着手に対して、人間がいかに対応していくのかということを確認することも目的のひとつとなっている。

このイベントは5日間にわたって開催され、「囲碁の未来」(Future of Go Summit)と題されている。それぞれの対局者がAlphaGoとペアを組むペア碁も行われる。またAlphaGoを加えた団体戦なども行われることになっている。さらにメインイベントでは、世界最高ランクの棋士である柯潔を相手に、三番碁も行われる。

今回のイベントには、中国中のAI研究者たちが招かれ、AlphaGoの現在および可能性についての議論が行われることともなっている。現実の世界における諸問題を解決するためのステップとしたい考えだ。

AI進化の研究についての話はともかく、一般的にはAIとのペア碁が注目を集めることとなるだろう。対戦相手の着手に対して、いかなる連携先述が生まれるかは注目に値する。

原文へ

(翻訳:Maeda, H

GoogleのDeepMindが社内的に使っていたニューラルネットワークライブラリSonnetをオープンソース化

GoogleのDeepMindが今日(米国時間4/7)、同社のオブジェクト指向のニューラルネットワークライブラリSonnetをオープンソースにする、と発表した。SonnetはTensorFlowに置き換わるものではなくて、同社内部の研究のためのベストプラクティスとよくマッチした高レベルのライブラリだ。

DeepMindが同社のブログ記事で述べているところによると、このライブラリはさまざまに異なるモデルへの切り替えが容易にできるように最適化されているので、実験を行うエンジニアが自分のプロジェクトの全体を手直しする必要がない。そうするためにチームはTensorFlowに変更を加え、複数のモデルを容易に階層として見なせるようにした。DeepMindはまた、さまざまな共有形式における透明性を加えた。

Sonnetをオープンソースにするのは、DeepMind自身の利益でもある。コミュニティがDeepMindの内部的ライブラリをよく知るようになれば、ペーパー等でのモデルの共有がやりやすくなる。また逆に、マシンインテリジェンスのコミュニティが自分たちの仕事にSonnetを採用することによって、ライブラリへの寄与貢献がよりやりやすくなる。

[TensorFlowと互換性があるので、コードのミックスができる。]
[Sonnetのオープンソース化でモデルのオープンソース化も容易になる。ペーパーの共有範囲も広がる〔Sonnet語がDM方言でなく標準語(共通語)になる〕。]

DeepMindはこのところ、オープンソースに熱心に取り組んでいる。たとえばオープンソースのAPIを開発して、研究をStarCraft IIの上でできるようにしている。12月にチームはDeepMind Labをリリースして、AI研究の一般化汎用化に貢献した。それは、OpenAIのUniverseにも似ている。オープンソースプロジェクトはDeepMindのWebサイト上で自分のホームページまでもらっている。

ライブラリはGithubで入手できる。ライブラリを内部的に変えるたびに、オープンソース版のアップデートを行うつもりだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleの機械学習専用カスタムチップはGPU/CPUマシンの15〜30倍速い…同社ベンチマークを発表

【抄訳】
Googleが同社の機械学習アルゴリズムを高速に実行するカスタムチップを独自に開発したことは、前から知られていた。その Tensor Processing Units(TPU)と呼ばれるチップが初めて公開されたのは、2016年の同社のI/Oデベロッパーカンファレンスだったが、詳しい情報は乏しくて、ただ、同社自身の機械学習フレームワークTensorFlowに向けて最適化されている、という話だけだった。そして今日(米国時間4/5)初めて、同社はこのプロジェクトの詳細ベンチマークを共有した。

チップの設計をやってる人なら、Googleのペーパーを読んで、TPUの動作に関するややこしいすばらしい詳細情報を理解できるだろう。でもここで主に取り上げたいのは、Google自身のベンチマークの結果だ(客観的な第三者の評価ではない)。それによるとTPUは、Googleの通常の機械学習のワークロードを、標準のGPU/CPU機(IntelのHaswellプロセッサーとNvidia K80 GPUs)より平均で15〜30倍速く実行できた。また、データセンターでは電力消費が重要だが、TPUのTeraOps/Wattは30〜80倍高い。将来は高速メモリの使用により、これよりもさらに高くなるという。

なお、これは実際に使われている機械学習モデルを使った場合の数字であり、モデルの作成は関わっていない。

Googleによると、一般的にこの種のチップはconvolutional neural networks畳み込みニューラルネットワーク、画像認識などによく使われる)向けに最適化されることが多いが、Googleのデータセンターのワークロードではこの種のネットワークは全体の約5%にすぎず、大多数はmulti-layer perceptrons(多層パーセプトロン)のアプリケーションだ、という。

【中略】

Googleには、TPUを自分のクラウドの外で可利用にする気はないようだが、しかし同社は、これを勉強した誰かが将来、彼らが作る後継機により、“バーの高さをさらに上げる”ことを期待する、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

BaiduのAIチームが知識を一般化できる人間的能力を仮想エージェントに与えた

Baiduの人工知能チームが、重要な進歩を達成した: 上図のような2Dの環境で“生きている”仮想エージェントに、その世界での歩き方・進み方を、自然言語のコマンドで教えた。そのために言語能力を、肯定や否定を通じて強化した。とくにすばらしいのは、エージェントが“zero-shot学習”の能力を持ったこと、言い換えるとAIエージェントが初歩的な文法感覚を持つようになったことだ。

人間の場合それは、赤ちゃんのころに発達する能力だから、記憶にないのがふつうだが、でも親が子どもに教えるときは、それと同じことをしているのだ。子どもに画像を見せて、言葉を繰り返すと、肯定的な強化(ほめる、など)が十分にあれば、その子は言葉と画像を結びつけるようになる。そして、すごい!、物の名前をおぼえたのだ。

しかしBaiduが画期的なのは、エージェントが、学習したコマンドを新しい状況に適用できたことだ〔ゼロショット学習〕。コンピューターは通常、それまでに獲得した知識を新しい物事に当てはめることが得意ではない。Baiduの研究チームは、その違いを次のように説明している:

過去の知識を新しいタスクに適用することは、人間にはとても簡単だが、現在のエンドツーエンドの学習マシンにとっては依然として難しい。“ドラゴンフルーツ”の形状を知っているマシンに“このドラゴンフルーツをナイフで切れ”と命じても、このコマンドに含まれているデータセット(切れ、ナイフで)を明示的に訓練されていなければ実行できない。対照的にわれわれのエージェントは、ドラゴンフルーツの視覚的外見について知っていることを、“Xをナイフで切れ”というタスクに伝送する能力を示した。“ドラゴンフルーツをナイフで切れ”を、事前に明示的に訓練されていなくても”。

このように、前に使ったスキルを一般化できる能力は、人工知能の大きな進歩だ。つまりそれは、まるで人間がやるように、知識を学んでその既得の知識を他へ適用できることを示した。昔のビデオゲームのような、単純な2Dの環境だけど、信じがたい成果だ。ぼくの脳には、できないかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MatrixのVoiceボードがあればRaspberry Piで動くAlexaを作れる

Matrix Labsが、Raspberry Pi用の音声認識AIのクラウドファンディングに成功した。これがあれば誰でも、自分ちの地下室でAlexaを作れるだろう。Rodolfo SaccomanとBrian Sanchezが初めて作ったボード製品Creatorは、Raspberry Piの上部にフィットし(上図)、8つのマイクロフォン、温度センサー、紫外線センサー、圧力センサー、3Dの位置センサーなどがついている。しかし、もっとシンプルなVoiceは、直径3.14インチのボード上にオープンソースの音声認識プラットホームVOICE RECOGNITIONを搭載し、花びら状に配置した7つのMEMSマイクロフォンがXilinx Spartan6 FPGAと64 Mbit SDRAMに接続され、そして18個のRGBW LEDと64のGPIOを装備している。つまり、音声認識によるライトショーが可能だ。

99ドルのVoiceはもうすぐ発売だが、Creatorはここで買える

同社はAzoic VenturesとRokk3r Labsから生まれ、これまでに580万ドルを調達した。99ドルの新製品は、オンラインでもうすぐ発売される(上述)。基本的にMatrixが目指しているのは、ロボットの自作キットだ。

Saccomanは曰く、“目標は人びとのアプリケーションや事業やアイデアを実現可能にするイネーブラー(enabler, 可能にするもの)をハードウェアで提供することだ。とくに、機械学習やコンピュータービジョン、人工知能などを初心者のデベロッパーでも簡単に利用・実装できるようにしたい”。

  1. img_0586a.jpg

  2. img_0587a.jpg

  3. img_0588a.jpg

  4. img_0590a.jpg

  5. img_0593a.jpg

  6. img_0594a.jpg

  7. img_0596a.jpg

  8. img_0597a.jpg

ご覧のようにVoiceとCreatorはRaspberry Piの上部にフィットして、相当高度な機能性を提供する。DIYファンが主なターゲットだが、完全にオープンソースなので製品のベースとしても気軽に使える。すばらしくクールなキットだから、将来の地球を征服するロボットがRaspberry Piで動いていたら、歓迎するね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Deep Mindの前にはDeep Blueがあった、初めて人工知能に負けた名棋士Garry KasparovがDisrupt NYで語る

多くの人がGarry Kasparovを世界最強のチェス棋士と見なしているが、でも彼の名前が大衆的に知られるようになったのは、IBMのDeep Blueとの歴史的な対戦によってだ。彼の負けは、人間と機械やコンピューターや情報、そしてとりわけ人工知能との関係がこれから変わっていくことを示す、象徴的な出来事だった。

Kasparovは5月に出版される著書で、あの対戦と、それを契機とする彼自身の知的探究について述べている。その彼が、Disrupt NY(ディスラプト・ニューヨーク)のステージで、彼が機械学習を、人間の敵ではなく、人間を補助するものとして受け入れるようになったことを話す予定だ。

今後機械学習はいろんな分野で利用されていくと思われるが、Kasparovが語る彼のユニークな見方では、機械学習が徹底的に探求された最初の分野のひとつがチェスだ。

Kasparovは世界的な人権活動家でもあり、ロシア連邦の大統領Vladimir Putinに対しても容赦ない。ロシアとアメリカの政治的な関係は今微妙だから、Kasparovが今日の地政学的な状況についてどう考えているか、興味深い。

今の彼はHuman Rights Foundationの理事長であるほかに、二つの本、How Life Imitates ChessWinter Is Comingの著者でもある。上で述べたように、三冊目の著書Deep Thinkingが5月に出る。

彼は、Foundation for Responsible Roboticsの役員顧問団のメンバーでもあり、またOxford Martin Schoolの客員研究員として、人間と機械の意思決定について研究している。

5月17日にニューヨークのマンハッタンに来られた方は、人間の知性の限界や、人工知能のようなツールを、世界を加速するというより、世界をより良くしていくために利用すべき、人類の責任について、いろいろ学べるだろう。

チケットはここでお買いください。

本誌TechCrunchがいろいろなイベントを開催できるのは、スポンサーのおかげです。スポンサーになることに関心のある方は、こちらへお言葉をください。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Uberの自動運転テスト車、サンフランシスコの路上に戻る

今日(米国時間3/27)Uberは、少数の自動運転車による路上試験をサンフランシスコで再開したことを正式に認めた。Uberは、先週土曜日にアリゾナ州で無人運転中の車が衝突事故に巻き込まれた後、米国での無人運転テストを全面的に中断していた。

「今日午前にサンフランシスコにおける試験運用を再開した」とUberの広報担当者が本誌に伝えた。

広報担当者によると、Uberのアリゾナ州およびピッツバーグ市の自動運転車は今も休止中で、近日中に路上に戻る予定であることも語った。

Uberはアリゾナの事故の後、自動運転車の試験を全面的に中止した。まずアリゾナ州で、続いてサンフランシスコとピッツバーグの2都市でもテスト走行を中止して調査結果を待った。

Uberの自動運転車は無人で運転する能力を持っているが、試験車では人間ドライバーが助手席に座り、必要があれば運転を代われるようにしている。

現在サンフランシスコで試験中の2台は、ほかの場所で試験中のそれぞれ12台の車両とは開発段階が異なっているようだ。これが他の都市に先駆けてサンフランシスコで路上試験を再開した理由だと思われる。

アリゾナでの事故に関するこれまでの報道によると、Uberテクノロジーの責任は回避されているように見える。地元警察は、通常の(=人間が運転する)自動車がその時自動運転モードだったUber車に進路を譲らなかったために事故が起きたと言っている。

しかし同社の自動運転試験計画は、安全性に関して以前批判を受けたことがあり、信号無視と思われる事例もあった。これについてUberは、その時車は自動運転モードではなかったと主張したが、 New York TimesはUber関係筋2人の情報に基づきこれに反する事実を示唆した。

自動運転技術の安全性に関する疑問以外にも、Uberは企業カルチャーについて様々な批判を浴びてきた。元従業員による性差別に対する告発によって経営陣への圧力が続いている(社長のJeff Jonesが騒動の中今月辞任した理由でもある

[原文へ]

(翻訳:Nob Takahashi / facebook

Elon Muskの新会社Neuralinkは人間の脳が人工知能に‘後れない’ようにする

シリアル・アントレプレナー(serial entrepreneur, 連続(的)起業家)Elon Muskがまた新しい会社を作った。今度のは、テクノロジーによって脳の能力を拡張する、という主旨の企業だ。その新会社Neuralinkは、Wall Street Journal紙のおかげで今日(米国時間3/27)表沙汰になったが、元々Muskは、人工知能の進化に人間が歩調を合わせられるための脳-コンピューターインタフェイスに取り組んでいた。

Muskは去年のCode Conferenceで、“ニューラル・レース(neural lace)”というもののアイデアを述べた。それは、人間の脳に直接接続して、これまでの入力方法…キーボード、マウス、トラックパッドなど…のように帯域の制約のない、人間とコンピューターの対話を実現する技術だ。その後彼は自分の研究が進んでいるとツイートし、さらに最近では、彼がそのための会社を作るつもりだ、という噂が出回った。

ただしWSJの記事によると、Neuralinkは当面は人間の脳の能力の拡張を目指さない。むしろ同社が探求するのは、危険な、あるいは慢性的な症状を、脳のインタフェイスによって緩和することだ。

記事によると、それらの症状とは、てんかんや重症のうつ病などだ。今でも電極を脳に挿入するパーキンソン病の治療法などがあるが、Neurallinkはそれら既存の医療技術を出発点とし、それらの改良努力に集中することによって、より容易な開発と、当局からの承認の得やすさを目指す。この、あえて低いハードルをクリアすれば、人間の脳の能力の拡張という長期的な目標に向けて、会社の体制を整えることができるだろう。

まわりくどいやり方に見えるかもしれないが、これはMuskが大きなアイデアに取り組むときの標準的な方法だ。SpaceXとTeslaも同じモデルを用い、後年ほど野心的ではない短期的な製品から始めて、大きな目標…火星着陸船や長距離EVの大衆化など…に向けての持続可能な勢いをつける。

MuskはNeuralinkに関して、これまでのTeslaやSpaceX、The Boring Company(トンネル利用による都市交通の高速化)などと同じく、本気で取り組むだろう。しかし彼は人工知能について、人間にリスクをもたらすかもしれないと見ているだけに、彼が追究するリスク回避のソリューションは、他の惑星への植民や化石燃料からの卒業などと同じく、彼にとっても重要な意味を持つだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ARMの次世代チップは人工知能にフォーカスした設計になる

ARMが今日発表したDynamIQなるものは、同社の次世代モバイルプロセッサーの基礎となる新しい技術だそうだ。モバイルのチップメーカーは将来の製品について語るとき、すごく饒舌だが、とくに今回のARMは“マイクロアーキテクチャの2011年以降における最大の変化”という、最大級の主張だ。

同社がとくにプロセッサーのスピードを強調するのは、将来の人工知能を意識しているからだ。確かに人工知能は、今後数年間、モバイルコンピューティングにおいてもますます主流の技術へと成長していくだろう。それは、スマートアシスタントや自動運転車や、それらを超えるものが、おびただしく繁茂する未来だ。

このチップメーカーのAIに関する主張は、確かに謙虚ではない。3年ないし5年後には、今の50倍の性能になるそうだが、しかしその数字は、同社によれば、あくまでも今あるAIアルゴリズムに基づく“控えめな予想”だそうだ。

その技術の普及についても、ARMは控えめな言い方をしない。そのほかのモバイルチップメーカーが自分の製品について言うときと同じく、同社も、モバイルに限定されないさまざまな広範囲なコンピューティングプラットホームをターゲットにする、と言う。確かに同社はここ数年のIoTデバイスの大ブームにおいて、多芸なコンポーネントメーカーとして自己を確立したから、これだけ大言壮語する資格があるかもしれない。

DynamIQチップの同社による位置づけは、(今後ワークロードがさらに増える自動運転車の)車載用と、インターネットに接続される家庭用デバイス、そしてもちろん、スマートフォンなどなどだ。Microsoftはすでに12月に、今後のアプリケーションの基礎をまとめ上げ、それらのアプリケーションはARMのモバイルプロセッサーに載る、と発表した。そのオペレーティングシステムが、より多様なデバイスに使われることを期待しているのだ。

またMicrosoftは先週ARMにおいしい言葉を進呈し、Windows Server OSは同社のチップでも動く、と言った。そのニュースが、今日の発表の前触れだったのかもしれない。ARMはDynamIQのアーキテクチャを、サーバーやクラウド、そして最近の新しいネットワーキングアプリケーションを担うコンピューティングハードウェアにも、推していくつもりだからだ。

発売日などは発表されなかったが、2021年までには、ハードウェアパートナーたちが今よりも1000億多いARMベースのチップを売る、と述べた。2013年から2017年までの販売総数はおよそ、その半分なのだが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))