Google、データサイエンス、機械学習のKaggle買収を確認

今日(米国時間3/8)、Googleはデータサイエンスと機械学習をオンラインでホスティングするKaggleを買収したことを発表した。TechCrunchでは昨日、GoogleがKaggleを買収するという情報があることを伝えたが、これは事実であると確認された。

この発表は現在サンフランシスコで開催中のGoogle Cloud Nextカンファレンスで行われた。ただし買収金額などの詳細は明かされていない。そうではあってもGoogleがKaggleを傘下に収めたこと自体は驚きではない。Kaggleのプラットフォームを利用するデータサイエンティストが10万人単位で存在するため、同社の買収はGoogleのAIコミュティーでの地位を大きく高めるだろう。Googleはクラウド事業でAmazonと正面から競争を挑む展開になってきたため、可能な限り有利な条件を整備する必要があるはずだ。

Kaggleの買収によってデータサイエンティストの間でもGoogleブランドはいっそう権威を高めそうだ。もちろん同社はTensorFlowプロジェクトなどで機械学習のコミュティーの有力なメンバーだが、自動運転やディープ・ラーニングなどで人工知能が現実に応用される例が増えるにつれて競争は激化している。こうした新分野では大小を問わず多くの企業にチャンスがある。人間の最強棋士を破ったアルファ碁が劇的に示したような進歩が他社に起きれば、少なくとも可能性としては、AI分野におけるトップクラスの地位からGoogleが押しのけられることになる。

Kaggleの買収は、同社のAIコミュニティーにおける影響力を考えるなら、人材獲得の面でもGoogleにメリットをもたらすだろう。GoogleはPinterest(画像検索テクノロジーに力を入れている)などと競争していくために、今後ますますディープ・ラーニング分野でトップクラスの人材を必要とする。Kaggle買収は同社の高度なテクノロジーを取得できたことはもちろんだが、GoogleがAI分野全般での地位を高めるという目的もあったに違いない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

NvidiaのJetson TX2でカメラやセンサーなどネットの末端デバイスが高度なAIを持つ

Nvidiaの組み込みシステム用コンピューティングプラットホームJetsonに、次世代製品が登場した。組込みシステムといっても、開発対象は主に、交通監視カメラや製造用ロボット、スマートセンサーなどネットに接続されるデバイスで、今回の新製品Jetson TX2は前世代のTX1の倍の性能を持ち、また省電力モードでは本来の半分以下の電力消費で同じ処理能力を発揮する。

TX2はPascalベースのGPUと、Nvidia製64ビットクワッドコアARMチップ2基、RAM 8GB、高速フラッシュストレージ32GB、という構成である。ネットワーキングは802.11ac Wi-Fi、Bluetooth、1GB Ethernetを内蔵する。これらによりネットワークのリーチが長くなり、エッジデバイス(ネットワークの末端のデバイス)が分散ニューラルネットワークを動かして、オブジェクトや音声、まわりの環境などを正しく判定し、自動航行などを助けることができる。

Jetson TX2と並んで発表されたJetPack 3.0はJetson系列用AI SDKの新バージョンで、ディープニューラルネットワーク向けにはTensorRT 1.0, cuDNN 5.1をサポートし、コンピュータービジョンではVisionWorks 1.6、およびそのほかの最新のグラフィクスドライバーとAPIsをサポートする。

Ciscoは、同社のエンタープライズネットワークデバイスSparkに、TX2とJetsonを利用して顔や音声認識など、ローカルなAI機能を実装する、と言っている。それらの機能により、確かにセキュリティや認証が末端レベルで強化されるだろう。またTX2はAIを研究しようとする学生や研究者たちにとって、費用が非常に安上がりですむ。今日ローンチした新しいJetson開発キットは、アメリカとヨーロッパの予約価格が599ドルで、3月14日に発売される。

一方TX2モジュールは第二四半期に399ドルで発売される。既存のJetson組み込みコンピューティングプラットホームTX1とTK1は、値下げして提供を続ける。

このようにエッジデバイス(ネットワークの末端)が高度なAI機能を持つことにより、コネクテッドシティ(インターネットに接続された都市)はインテリジェントシティ(多様な電脳機能を持つ都市)へと成長する。電脳機能はもはや、中央のサーバーが独占するものではない。末端のさまざまな部位が何らかの知能を持つことによって、ネットワーク全体でものごとがスムーズに動くようになる。そしてネットワークの各ノードが知性主体ならば、インフラストラクチャの継続性とか、レイテンシーの懸念などを心配する必要もなくなる。Jetson TX2による世代更新など、エッジの機能・性能の向上により、未来がまた一歩近くなる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニングの導入でパワーアップしたGoogle翻訳にサポート言語がさらに増加

昨年の秋にGoogleは、Google Neural Machine Translation(GNMT)と呼ばれる新しい翻訳システムを導入した。それは、語句だけではなく文全体に、多層的ニューラルネットワークを利用するいわゆるディープラーニングを適用することによって、翻訳の質を大幅に上げようとするシステムだ。11月の時点でそれは、8つの言語ペア(後述)に適用されたが、今日からは新たにロシア語とヒンズー語をベトナム語がサポートされる。

Neural Machine Translationが昨年の時点でサポートした言語ペアは、英語とフランス語、ドイツ語、スペイン語、ポルトガル語、中国語、日本語、韓国語、トルコ語だ〔8ペアだが、片方はつねに英語〕。これらが世界の人口の約1/3をカバーし、Google Translateのクェリの35%以上を占める、と当時のGoogleは言っていた。

今日発表された新たな言語は、アメリカ国内だけでも、ベトナム語はネイティブスピーカーが129万2448人、ロシア語は83万6171人、ヒンズー語は58万6173人いる、とGoogleは国勢調査のデータを挙げている。今後数週間で、タイ語など新たな言語がさらに加わる予定だ。

Google Translateは、月間ユーザー数が5億あまり、1日の翻訳量は1400億語に達する、とThe New York Timesの12月の記事が報じている。その記事によると、翻訳システムのAIへの完全移行は今年の年内に完了するそうだ。

hindi_googletranslate_v2b

Neural Translationは機械学習における最新の技術を利用するから、これまでの翻訳システムに比べて大きな進歩であり、翻訳がより正確になるだけでなく、言葉の扱い方が人間のそれに近くなる。つまり従来のように、センテンスの各部分をひとつひとつ訳していくのではなく、まずセンテンス全体の構造や形を見る。それによって翻訳システムは文のコンテキストが分かるようになり、より適切な翻訳が可能になる。そして最後に、出来上がったセンテンスを正しい文法に則って調整し並べ替える。

しかもニューラルネットワークシステムの特性として、時間の経過とともに自分を改良し、長く使えば使うほどより自然な翻訳ができるようになる。

この、ニューラルネットワークを利用するGoogle翻訳は、今日(米国時間3/6)から供用開始される。それはtranslate.google.comにおける翻訳サービスだけでなく、Web上の検索、検索アプリ、そしてiOSとAndroid向けGoogle Translateアプリも含まれる。Google Chromeブラウザーにおけるページの翻訳にも、近日中に適用される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

インターネットのあちこちを探しまくって目的のコード片を見つけてくれるDeepCoder、プログラマーの生産性は上がるか?

markus-spiske-207946

ぼくはプロのプログラマーではないけど、でも彼らを真似て、多くのコードをStackOverflowのQ&Aからもらっている。Flaskに認証を加えるやり方は? そんなの簡単。sendmailのシャットダウンの仕方は? ほら、これさ。そして、今やインターネット上のすべてのコードのおかげで、ロボットが年俸18万ドルのプログラマー並に優秀だ。

そのシステムはDeepCoderと呼ばれ、コードのコーパスを検索して仕様どおりに動くコードを構築する。すでにプログラミングのコンペに‘参戦’したこともあり、またコードではなく、複雑なプロダクトを作るための大きなデータセットを見つけることもできる。

彼らのペーパーより:

たとえばIPSシステムを作るためには二つの問題を解決しなければならない。最初に、その問題の解になりそうな適切なプログラムの集合を見つける。そして次は、手元の要件に照らしてそれらのプログラム集合をランク付けする。どれが、今抱えている問題の解として使えそうか? この二つの問題はどちらも、問題の具体的な内容に依存している。したがって、プログラムを組み立てていくための最初の重要な決定は、ドメインスペシフィックな言語を選ぶことだ。

 

このシステムは使ってるうちに次第に賢くなり、どんな場合にどんなコード片が良いのかを、自分で見分けるようになる。そして、そうやって‘学習’を重ねるたびに、ユーザーはプログラムをより早く書けるようになる。

ケンブリッジ大学のMatej BalogとMicrosoft ResearchのAlexander L. Gaunt, Marc Brockschmidt, Sebastian Nowozin, Daniel Tarlowがこのプロダクトを作り、その使い方に関するペーパーを共著した。ただし、このようなシステムを使って、小さなコード片から大きなプロジェクトを構築することはできない。そういうのを、‘ないものねだり’と言う。

こういった、既存のコードの切り貼り再利用は、多くのプログラマーが実際にやっていることだから、ディープラーニングの優れた応用と言えるだろう。データベースの更新のようなシンプルなCRUDアプリケーションには、十分に使えると思う。入社したばかりの初心者プログラマーにやらせる仕事がなくなる、と言えるかもしれない。でもAIロボットが地球と人類を支配して、人間の仕事が完全になくなってしまうのも、悪くないね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleのCloud PlatformがGPUをサポート

tesla-m40-header

3か月前にGoogleは、2017年の早い時期に、機械学習などの特殊なワークロードためにハイエンドのグラフィクスプロセシングユニット(graphics processing unit, GPU)のサポートを開始する、と発表した。2017年の早い時期とは今のことだから、Googleは言葉に違(たが)わず今日から、Google Cloud Platform上でGPUを使えるようにした。予想通りそれはNvidiaのTesla K80で、ユーザー(デベロッパー)はひとつのCompute Engineマシンで最大8つを動かすことができる。

GPUベースの仮想マシンを使えるのは当面、三つのデータセンター、us-east1, asia-east1, そしてeurope-west1だけだ。ひとつのK80コアに2496のストリームプロセッサーと12GBのGDDR5メモリがある(K80ボードには2つのコアと24GBのRAMがある)。

image02

複雑なシミュレーションを動かしたり、TensorFlow, Torch, MXNet, Caffeeなどのディープラーニングフレームワークを使っているときには、計算力はどれだけあっても過剰ではない。GoogleがこれらのGPUインスタンスでねらっているのも、ハイエンドマシンのクラスタを常時動かして機械学習のフレームワークを駆動しているようなデベロッパーだ。このGoogle Cloud GPUは、GoogleのCloud Machine Learningサービスおよび同社のさまざまなデータベースとストレージのプラットホームに統合される。

GPUの利用料金単価はアメリカでは1時間70セント、ヨーロッパとアジアのデータセンターでは77セントだ。時間単価としてはお安くないが、Tesla K80の2コア/24GB RAMのアクセラレータは、たちまち数千ドルの節約を稼ぎだしてくれるだろう。

この発表から数週間後にGoogleはサンフランシスコで、Cloud NEXTカンファレンスを開催する。そこではおそらく、同社の機械学習をもっと多くのデベロッパーに使ってもらうための企画が、発表されるだろう。

image00-1

〔参考記事: AWSのGPUインスタンス

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Magic Leapがスイスを拠点とするDacudaの3D部門を買収 ― ヨーロッパ進出は同社初

magicleap-shutterstock_344631905

AR分野のスタートアップであるMagic Leapは、これまでに14億ドルを調達しているものの、いまだにプロダクトをリリースしていない。そんな同社は、コンピュータービジョンとディープラーニング事業の拡大とヨーロッパへの進出を狙い、同社2度目となる買収を行ったことが確認された。

Magic Leapは、チューリッヒを拠点とするコンピュータービジョン分野のスタートアップ、Dacudaの3D部門を買収したことが明らかとなった。Dacudaがこれまでに注力してきたのは、コンシューマー向けのカメラで利用する2Dおよび3Dイメージングのアルゴリズムだ(カメラだけではなく、カメラが搭載されたデバイスであればどんな物にも適用可能)。「ビデオを撮るのと同じくらい簡単に3Dコンテンツをつくる」ということだ。

DacudaはWebサイト上の短いプレスリリースで今回の買収を発表している。それによれば、Dacudaの3Dチームは全員Magic Leapに移籍し、創業者のAlexander Ilic氏はMagic Leap Switzerlandを率いることになるという。

「Dacudaは無事、当社の3D部門をMR分野のリーディング企業であるMagic Leapに売却しました。Dacudaの3Dチームは全員Magic Leapに移籍し、同社初となるヨーロッパでのプレゼンスを築いていきます。Magic Leapがチューリッヒにオフィスを持つことで、コンピュータービジョンとディープラーニング分野におけるリーダーシップをさらに強化することができます。そして、これからMagic Leap Switzerlandを指揮するのは当社の創業者、Alexander Ilicです。Peter WeigandとMichael Bornの指揮のもと、DacudaはSunrise、Crealogix、Unisys、SITAなどの顧客とともに、プロダクティビティ分野のソリューションに再度フォーカスしていきます」。

以上をご覧になると分かるように、この2社が具体的にどのように協働していくかという点は言及されていない。だが、この買収が最初に噂された先週(Dacudaのブログに3D部門の売却を示唆するポストが投稿され、LinkedInのプロフィールを「Magic Leap所属」と変更する従業員がいた)、Tom’s Hardwareは、この買収によりDacudaが開発した技術によってMagic Leapが1部屋分のスケールをもった6自由度(6DoF)トラッキングを手掛けるようになると予測した(3D環境におけるイメージキャプチャーセンサーを向上する)。

Magic Leapがヨーロッパに進出するのはこれが初めてのことだ。だが、それよりも重要なのは、同社が拠点とするスイスはコンピュータービジョン分野の研究開発において非常に評価が高い国だということである。

スイスにはAR/VR技術に取り組むスタートアップや学術機関が多く存在する。特に、コンピュータービジョンやディープラーニングの分野ではそれが顕著だ。そのため、Magic Leapがスイスでのプレゼンスを持つことで、同国のAR/VRシーンにダイレクトに入り込むことができる。

(このエコシステムに着目する大企業も多い。2015年にAppleによって買収されたモーションキャプチャーのfaceshiftも、チューリッヒ出身のスタートアップだ)。

今回の買収により、Magic Leapは良いタイミングで、人材強化とスイスのエコシステムへのコネクション作りを達成したと言える。ご存知の読者もいるかもしれないが、つい先日、Magic Leapのプロダクト情報役員の離脱、そして同社のテクノロジーとハードウェアがあまり良い状態ではないとするレポートリークするという事件があった。それにより、少なくとも短いタームでみた場合、Magic Leapは本当に45億ドルのバリュエーションに見合う価値を生み出せるのかという疑問が残ることとなった。

今回、買収金額などの詳細は明らかになっていない。Dacudaの創業は2009年で、CrunchBaseによれば、同社はこれまでに金額非公開の資金調達ラウンドを実施。それに加えて、Kickstarterを利用したクラウドファンディングによって54万2000ドルを調達している。この資金は、同社が2014年に発表した「PocketScan」と呼ばれる手持ちスキャナーの開発費用に充てられている(このプロダクトは過去にTechCrunchでもカバーしている)。

また、この買収について明らかになっていないことがもう1つある。それは、Dacudaの3D部門がこれまでに獲得したパートナーシップの行く末だ。

例えば、同社は昨年10月、スイスを拠点にAR/VRを手掛けるMindMazeとのパートナーシップを締結している。「MMI」と呼ばれる新しいプラットフォームを構築するためだ。MindMazeの説明によれば、このプラットフォームは「モバイルベースの没入型アプリケーションとソーシャルVR向けに開発された、世界初のマルチセンサリング・プラットフォーム」だという。また、同社は今後「位置トラッキングとマルチレイヤー・インタラクションの分野でGoogleのdayDream Viewがカバーしきれていない部分にアプローチするため、全世界のユーザーにテクノロジーを提供していく」としている。TechCrunchは現在、今回の件についてMagic Leapに問い合わせしている最中だ。彼らから何らかのコメントが得られれば、記事をアップデートしていく。

Magic Leapが他社を買収するのは今回で2度目となる。1度目は、同社が2016年に買収したイスラエルのサイバーセキュリティ企業、Northbitだった。

[原文]

(翻訳: 木村 拓哉 /Website /Facebook /Twitter

YahooがTensorFlowをApache Sparkで高度なスケーラビリティへアップ

Servers in Data Center

Apache Sparkの模範市民Yahooはかつて、CaffeによるディープラーニングモデルのスケーラビリティをSparkの並列処理で高めるフレームワーク、CaffeOnSparkを開発した。そしてそのYahooが今回は、TensorFlowOnSparkと呼ばれるプロジェクトをオープンソースで公開した。今度のそれは、SparkとTensorFlowを組み合わせることによって、大規模なクラスターで動くディープラーニングモデルを作るデベロッパーにとってTensorFlowフレームワークを、より魅力的にするものだ〔==TensorFlowのスケーラビリティを高める〕。

ビッグデータ時代の人気者になったApache Sparkは、効率の高い並列処理を可能にするオープンソースのフレームワークだ。Hadoopのようなシステムを追う形で出てきたSparkは、たとえばNetflixのような企業における大量のユーザーデータの処理を支え、リコメンデーションのスケールアップを可能にしている。

GoogleのTensorFlowやCaffeのような機械学習のフレームワークの登場によって、機械学習の専門知識のない者でもディープラーニングのモデルを作れるようになった。抽象度の高いライブラリがオープンソースで存在するからデベロッパーは、車輪を再発明する苦労から解放されて、いきなりモデルそのものを作ることができる。

ビッグデータの処理を高効率なクラスタリング並列処理で支えるSparkは、機械学習、中でもディープラーニングが必要とする膨大な量の、そして高速であることを要する、データ処理にも向いている。Yahooは自社で利用するためにCaffeOnSparkを作ったが、Caffe用のツールは機械学習のコミュニティのごく一部にとってしか恩恵がない。それに対して、人気がすごく高いフレームワークがTensorFlowだ(下図)。そこでYahooは、ディープラーニングのための大量高速データ処理をSparkにやらせるその処理枠組みを、TensorFlowに移植し、コミュニティの尊敬をかちとることを目指した。

YahooはTensorFlowとSparkのあいだに橋をかけるために、既存のツールSparkNetやTensorFrameを参考にしたが、最終的には一から自分で作る方が良い、と結論した。その結果デベロッパーは、自分の既存のTensorFlowプログラムを比較的簡単に、TensorFlowOnSparkを使うよう改造できる。

ディープラーニングのフレームワークは、デベロッパーたちが特定の“部族”に凝り固まる傾向がある。たとえばJavaで書かれたSkymindのDeeplearning4jは、最初からSparkを統合しているオープンソースのフレームワークだが、このライブラリの人気は6位と低い。そして他方には、複数種類のGPUにまたがるスケーラビリティを誇るMXNetがある。その特長がAmazonの関心をとらえ、AWSの努力によりMxNetはApacheのインキュベータに加入した

TensorFlowOnSparkはオープンソースだが、Yahoo自身による改良努力は今後も続く。入手は、YahooのGitHubから可能だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

書評―『グーグルに学ぶディープラーニング』

TechCrunch Japanでも機械学習やディープラーニングを含めた人工知能について何度も取り上げている。最近ではGoogleのリアルタイム翻訳や日本発のニューラルネットワークを利用した線画着色システムの記事を掲載している。

そこでこうしたトレンドを横断的に見渡せる入門書があると便利だろうと考えていたが、 最近、日経BPから刊行された『グーグルに学ぶディープラーニング』が役に立ちそうなので紹介してみたい。

本書ではまず人工知能の一部が機械学習、機械学習の一部がディープラーニングという位置づけを説明し、続いてGoogleのデータへの取り組みを中心として実例が紹介される。「入門」篇ではニューラルネットワークを利用したディープラーニングが解説されている。ニューラルネットワークの入力層では画像の各部分の明暗などの物理的情報が得られるだけだが、脳のシナプス構造を模した層を重ねるにしたがって高度な情報が生成され、最後に「この写真はネコだ」というような判断が下される。60ページのイラストはこの関係が直感的にわかりやすい。

後半では企業の導入事例が紹介されている。特に三井住友フィナンシャルグループではディープラーニングをクレジットカード不正の検知に利用して大きな成果を収めているというのが興味ある例だ。オンライン取引の不正検知では数年前からアメリカでディープラーニングを利用した取り組みが注目されているが、日本の大手銀行系組織でもすでに実用化されているようだ。

本書はIT実務者、企業管理職向けの入門書なのでディープラーニングの積極面の紹介が中心となっている。そこからはやや脱線するかもしれないが、「弱いAI」と「強いAI」について補足しておいてもいいかもしれない。「強いAI」というのは「人間の知能そのものを再現する」ことを目標にしたアプローチで、初期のAI研究の主流だったが、実はことごとく失敗している。通産省が主導して鳴り物入りで10年間も開発を続けた日本の第5世代コンピュータは「強いAI」のいい例かもしれない。

その後「汎用知能」を目指す「強いAI」に代わって、「結果を出せればよい」とする「弱いAI」が登場した。1997年にチェスの世界チャンピオンを破ったIBMのDeep Blueに対して「強いAI」から「本当の知能ではない」という批判が出た。このとき、コンピュータ科学者のDrew McDermottはNew York TimesにYes, Computers Can Think (イェス、コンピュータは思考できる)という記事を書いた。この中の「Deep Blueが本当は考えていないというのは飛行機は羽ばたいていないから本当は飛んでいないというのと同じだ」という反論は「弱いAI」の立場を代表する言葉としてあちこちで引用されるようになった。

本書でも詳しく紹介されているが、機械学習が成果を挙げるには、機械の能力の進歩と同時に機械に学習させるための膨大なデータが必要となる。つまりハードウェアの能力とインターネットの普及によるデジタル情報量の爆発が「弱いAI」を可能にしたといえるだろう。あるマシンにネコが写っている写真を10万枚入力するとそのマシンはネコが認識できるようになる。「弱いAI」の立場からは機械がネコを認識できれば当面それでよい。

人工知能は現在ガートナーのハイプ・サイクルにいう「流行期」に入ってきた。人工知能がニューラルネットワークやディープラーニングによって強化されると、次第に「汎用知能」を構成したいという誘惑が生じる。つまり「強いAI」的な考え方の復活だ。「機械が知能をもち、なんでもできるようになる」という「強いAI」的約束はわかりやすく、流行期の過剰期待を作り出すのに非常に効果的だ。

しかし、流行期の山が高ければ幻滅の谷も深くなる。このあたりは人工知能利用にあたって現在もっとも警戒しなければならない点だろう。『グーグルに学ぶディープラーニング』の末尾ではGoogleの機械学習の責任者ジア・リー氏にインビューしている。そこでリー氏が「AIの技術ありきではなく、現実世界で解決すべき課題の内容そのものが私たちにとって最も大切」と語っているのは重要な指摘だ。

本書は日経BPの専門誌、日経ビッグデータに掲載された記事を中心に再構成、補筆したものだという。日経ビッグデータの杉本昭彦編集長から献本いだいた。

滑川海彦@Facebook Google+

AWSのディープラーニングフレームワークMXNetがApacheソフトウェアの一員になる、対TensorFlow戦略の一環

Connecting lines, computer illustration.

Amazon Web Servicesの推奨ディープラーニングフレームワークMXNetが今日(米国時間1/30)、Apache Incubatorに加わった。このインキュベータに受け入れらることは、オープンソースのプロジェクトがApache Software Foundationの一員になるための第一歩だ。

Apache Software Foundationは、何千人ものデベロッパーによる、世界中のさまざまなオープンソースプロジェクトのメンテナンス努力を支えている。今後はMXNetも、Apche流儀の実績豊富なオープンソース方式を採用し、またApacheのコミュニティにアクセスできる利点も享受していく。

MXNetは、デベロッパーによるディープラーニングモデルの構築を助ける、今や数多いフレームワークの一つで、それらを使えることによってデベロッパーは、ユースケースごとに‘車輪を再発明’することを避けられる。さまざまな機械学習方式の中でもディープラーニングはとくに、大きなデータ集合からパターンを掘り出す処理に向いている。

それらの中でMXNetの差別化要因は、多様な言語に対応していることだ。デベロッパーはC++とPythonという主軸言語のほかに、R, Scala, MATLAB, JavaScriptなども使える。

MXNetのもうひとつの特長が、スケーラビリティだ。昨年Amazonがこのフレームワークの内部的利用と対外的推奨をを決めたとき、画像認識アルゴリズムを動かすGPUの数が多くなると、ほかのフレームワークに比べてスループットが良い(速い)、と言っていた。ただ速いだけでなく、MXNetは‘拡張効率’が良くて、GPUの台数増加率の85%の高いスループット向上が得られる、という。〔例: GPUの台数を2倍(200%)にすると、スループットは1.85倍に向上する。〕

しかしディープラーニングのフレームワークの中でMXNetは、ユーザー数の多さではGoogleのTensorFlowなどの後塵を拝している。AmazonがMXNetを推奨フレームワークにすることを決めたのは、デベロッパーたちの関心を高める意味もある。AWSはMXNetを機械学習コミュニティの人気者に育てるべく、コードとドキュメンテーションで尽力している。今回Apache Software Foundationの一員になったことも、この目標の実現に貢献するだろう。

Blue - TensorFlow, Yellow - Theano, Red - MXNet, Green - DL4J

青: TensorFlow, 黄色: Theano, 赤: MXNet, 緑: DL4J

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データサイエンスで癌に打ち勝つ


【編集部注】著者のNancy BrinkerはSusan G. Komenの創業者であり、癌の啓蒙に関する国際的コンサルタントである。この記事で示された意見は彼女個人による見解である。また共著者のElad Gil博士はColor Genomicsの会長兼共同創業者である。

癌治療の探求の複雑さは、何十年にもわたって研究者たちを困らせてきた。治療法は目覚ましい進歩を遂げてきたものの、癌は世界の主要な死因の1つとして残っているため、まだまだ厳しい闘いは続いている。

しかし、科学者たちはまもなく、その複雑さを別の方法で攻撃できる重要な新しい味方 — インテリジェント・マシン — を手に入れるかもしれない。

ゲームの世界の例を考えてみよう:昨年Googleの人工知能プラットフォームであるAlphaGoは、この宇宙にある星の数よりも多い動きを擁する囲碁という壮大で複雑なゲームの中で、韓国のグランドマスター李世乭(Lee Sedol)をディープラーニングという技術を用いて打ち負かした

機械学習とAIに用いられたものと同じ技術を、癌の治療が必要とする大規模な科学的パズルに適用することができる。

1つのことは確かである。より多くのデータを扱うことができなければ、これらの新しい方法で癌を克服することはできない。しかし例えば医療記録や、遺伝子検査、そしてマンモグラムなどを含む多くのデータセットが、私たちの最高の科学する心と私たちの最高の学習アルゴリズムからは手の届かないところに隔離されている。

良いニュースは、がん研究におけるビッグデータの役割が中心に置かれるようになり、大規模で政府が主導する数々の新政策が次々に進んでいることだ。例えばそうしたものの例には、米国退役軍人省のMillion Veteran Program、英国の100,000 Genomes Project、1万1000人以上の患者のデータを保持していて、あらゆる場所の研究者がクラウドを介して分析することができるNIHのThe Cancer Genome Atlasなどが挙げられる。最近の研究によれば、2025年までに20億ものヒトゲノムが配列決定される可能性がある。

遺伝子検査を含んだ新鮮なデータの需要を促進する他の傾向もある。2007年には、1人のゲノムの配列決定には1000万ドルのコストがかかった。現在はこれを1000ドル以下で行うことができる。言い換えれば、10年前は1人に対して配列決定を行ったものと同じ費用で、今は1万人をまかなうことができるのだ。その意味合いは大きい:特定の種類の癌のリスクが高いという突然変異があることを発見することは、ときに命を救う情報にもなり得る。コストが大衆にも手の届くようになるにつれ、研究もより大規模なものになる。

研究者たち(および社会)の主な課題は、現在のデータセットには、量と民族の多様性が欠けていることだ。さらに、研究者はしばしば制限的な法的条項や、共有パートナーシップを嫌う態度に直面する。組織がゲノムデータセットを共有している場合でも、契約は一般的に個々のデータセット毎に個々の機関の間で行われる。今日では偉大な作業を行ってきた大規模な情報センターとデータベースがあるが、アクセスを加速するためには標準化された規約やプラットフォームに関するより多くの作業が必要だ。

これらの新技術の潜在的な利点は、リスクの特定とスクリーニングを超えて行く。機械学習の進歩は、癌薬剤の開発と治療の選択を促進するのに役立つ。医師が患者と臨床試験を組合わせることが可能になり、癌患者のためのカスタム治療計画を提供するための能力を向上させるのだ(最も初期の成功例の1つがハーセプチンだ)。

私たちは、癌研究やAIプログラムにデータを利用しやすくするためには、3つのことが必要だと考えている。第1に、患者がデータを簡単に提供できるようになるべきだ。これは、医療記録、放射線画像、そして遺伝子検査などが含まれる。検査会社と医療センターは、データ共有が容易かつ合法的に行われるように、共通の同意書を採用する必要がある。第2に、AI、データサイエンス、そして癌の交差点で働く研究者には、より多くの資金が必要だ。チャン・ザッカーバーグ財団が医薬品の新しいツール開発に資金を提供しているように、医療アプリケーションのために新しいAI技術へ資金を提供する必要がある。第3に、すべての民族の人びとに焦点を当てて、新しいデータセットが生成されるべきだ。私たちは、癌研究の進歩にすべての人がアクセスできるようにする必要がある。

[ 原文へ ]
(翻訳:Sako)

いまさら聞けない機械学習入門

wtf-machine-learning

機械学習についての沢山の記事を目にして、何やら深遠なものが発見されつつあると思う人もいるかもしれないが、実際はその技術はコンピューティングと同じくらい古いものだ。

歴史上最も影響力のある計算機科学者のひとりであるアラン・チューリングが1950年に、コンピューティングに関する彼の論文の中で「機械は考えることはできるか?」という問いかけを始めたことは偶然ではない。空想科学小説から研究室に至るまで、私たちは長い間、自分自身を人工的な複製が、私たちに自分自身の意識の原点、より広義には、私たちの地上での役割、を見出すことの役にたつのだろうかと問いかけてきた。残念ながら、AIの学習曲線は本当に急峻だ。歴史を少しばかり辿ってみることによって、機械学習が一体全体何物であるのかに関しての、基本概念位は見出してみたい。

もし「十分に大きな」ビッグデータを持っていれば、知性を生み出すことができるのか?

自分自身を複製しようとする最初の試みには、機械に情報をギチギチに詰め込んで、上手くいくことを期待するようなやり方もあった。真面目な話、ただ膨大な情報を繋ぎ合わせすれば意識が発生するといった、意識の理論が優勢を占めていた時もあった。Googleはある意味このビジョンの集大成のように見做すこともできるが、同社がすでに30兆ページのウェブを収集したにも関わらず、この検索エンジンが私たちに神の実在について問いかけ始めることを期待するものはいない。

むしろ、機械学習の美しさは、コンピューターに人間のふりをさせて、単に知識を流し込むことではなく、コンピューターに推論させ、学んだことを一般化させて、新しい情報へ対応させるところにある。

世の中ではよく理解されていないが、ニューラルネットワーク、ディープラーニング、そして強化学習は、すべて機械学習である。それらはいずれも、新しいデータに対する分析を行うことのできる一般化されたシステムを作り出す方法である。別の言い方をすれば、機械学習は多くの人工知能技術の1つであり、ニューラルネットワークとディープラーニングといったものは、より広範なアプリケーションのための優れたフレームワークを構築するために使用できるツールだというだけのことだ。

1950年代のコンピューティングパワーは限られていて、ビッグデータへのアクセスもなく、アルゴリズムは初歩的だった。これが意味することは、機械学習の研究を進めるための私たちの能力は、極めて限られていたということだ。しかし、それは人びとの研究の意欲を削いだりはしなかった。

1952年のこと、Arthur Samuelはアルファ・ベータ法と呼ばれるAIの非常に基本的な形式を利用して、チェッカープログラムを作った。これは、データを表す探索木上で作業する場合に、計算負荷を減らす方法の1つであるが、全ての問題に対する最善の戦略を常に与えてくれるわけではない。ニューラルネットワークでさえ、Frank Rosenblattの懐かしのパーセプトロンが現れたものである。

いずれにせよ読む必要のある、複雑で大げさなモデルScreen Shot 2016-08-25 at 1.53.58 PM

パーセプトロンは随分と時代に先行したものだった、機械学習を進めるために神経科学を利用したのだ。紙の上で、そのアイデアは右に示したスケッチのようなものだった。

それがやっていることを理解するために、まず大部分の機械学習問題は、分類(classification)もしくは回帰(regression)の問題に分解できることを理解しなければならない。分類はデータをカテゴリ分けするために用いられ、一方回帰モデルは傾向からの外挿を行い、予測を行う。

パーセプトロンは、分類装置の1例である – それはデータの集合を受け取り、複数の集合に分割する。この図の例では、それぞれの重みの付いた2つの特徴量の存在が、このオブジェクトを「緑」カテゴリーだと分類するために十分であることが示されている。こうした分類装置は、現在は受信ボックスからスパムを分離したり、銀行における不正を探知するために使われている。

Rosenblattのモデルは一連の入力を使うものだ。長さ、重さ、色といった特徴にそれぞれ重みのついたものを考えてみるとよい。モデルは、許容誤差以内に出力が収まるまで、連続的に重みを調整していく。

例えば、ある物体(それはたまたまリンゴであるとする)の重量が100グラムであると入力することができる。コンピュータは、それがリンゴであることを知らないが、パーセプトロンはその物体を、既知のトレーニングデータに関する分類装置の重みを調整することによって、「リンゴのような物体」あるいは「リンゴではないような物体」に分類することができる。そして分類装置が調整されると、それは理想的には、これまで分類されたことのない未知のデータセットに対して再利用することができる。

まあ仕方がない、AI研究者たちでさえ、こうしたことには混乱しているのだ

コンピュータと少年パーセプトロンは、機械学習の分野で行われた多くの初期の進歩の、ほんの1例に過ぎない。ニューラルネットワークは、協力して働くパーセプトロンの大きな集まりのようなものである。私たちの脳や神経の働き方により似通っていて、それが名前の由来にもなっている。

数十年が過ぎて、AIの最先端では、単に私たちが理解した内容を複製しようとするのではなく、心の仕組みを複製する努力を続けている。基本的な(または「浅い」)ニューラルネットワークは、今日まだ利用されているものの、ディープラーニングが次の重要事項として人気を博している。ディープラーニングモデルとは、より多くの層を持つニューラルネットワークである。この信じられないほど満足感の得られない説明に対する、完全に合理的な反応は、その層とは何を意味するのかと問うことだ。

これを理解するためには、コンピューターが猫と人間を2つのグループに分類できるからといって、コンピューター自身はその仕事を人間と同じようには行っていないことを認識しておかなければならない。機械学習フレームワークは、タスクを達成するために抽象化のアイデアを活用する。

人間にとっては、顔には目があるものである。コンピュータにとっては、顔には線の抽象を構成する明暗のピクセルがあるものだ。ディープラーニングの各層は、コンピュータに同じオブジェクトに対して、違うレベルの抽象を行わせるものである。ピクセルから線、それから2Dそして3Dへ。

圧倒的な愚かさにもかかわらず、コンピューターは既にチューリングテストに合格した

人間とコンピュータが世界を評価する方法の根本的な違いは、真の人工知能を作成するための重大な挑戦を表している。チューリングテストは、AIの進捗状況を評価するために概念化されたものだが、この事実は無視してきた。チューリングテストは、人間の反応をエミュレートするコンピュータの能力を評価することに焦点を当てた、行動主義のテストである。

しかし模倣と確率的推論は、せいぜい知性と意識の謎の一部でしかない。2014年の時点で私たちはチューリングテストに合格したと考える者もいる、5分間のキーボードによる対話の間、30人の科学者のうち10人を、人間を相手にしているものだと信じさせることができたからだ(にもかかわらずSiriは質問の3件に1つはGoogleを検索しようとする)。

それで、「AIの冬」のためにジャケットを用意する必要はあるのか?

こうした進歩状況にもかかわらず、科学者や起業家を問わず、AIの能力への過剰な約束は迅速だった。この結果引き起こされた騒ぎと破綻は一般的に「AIの冬」(AI winters)と呼ばれている。

私たちは、機械学習によっていくつもの信じがたいことができるようになってきた、例えば自動運転車のためのビデオ映像内の物体の分類をしたり、衛星写真から収穫の予測をしたりといったことだ。持続する短期記憶は、私たちの機械に、ビデオ中の感情分析のような時系列への対処をさせることを可能にしている。ゲーム理論からのアイデアを取り込んだ強化学習は、学習を報酬を通じて支援するための機構を備えている。強化学習は、Alpha GoがLee Sodolを追い詰めることができた、重要な要因の1つだった。

とは言うものの、こうした進歩にもかかわらず、機械学習の大いなる秘密は、通常私たちは与えられた問題の入力と出力を知っていて、それらを仲介する明示的なコードをプログラムするものなのに、機械学習のモデルでは入力から出力を得るための道筋を特定することが常にできるわけではない、ということなのだ。研究者はこの挑戦を、機械学習のブラックボックス問題と呼んでいる。

ひどくがっかりする前に指摘しておくならば、人間の脳自身もブラックボックスだということを忘れてはならない。私たちはそれがどのように動作しているかを本当に知らず、抽象の全てのレベルでそれを調べることもできない。もし誰かに、脳を解剖してその中に保持されている記憶を探させてくれと頼んだら、即座にクレイジーというレッテルを貼られてしまうだろう。しかし、何かを理解できないということはゲームオーバーを意味しない。ゲームは続くのだ。

この記事では、機械学習を支える多くの基本的な概念を紹介したが、将来の「いまさら聞けない(WTF is …?)」シリーズのための沢山のネタがテーブル上に残されている。ディープラーニング、強化学習、そしてニューラルネットは、それぞれより深い議論に進むことが可能だが、願わくばこの記事を読んだ後、読者のこの分野への見通しが良くなって、日々私たちがTechCrunchで取り上げている沢山の企業間の関連が理解しやすくなることを期待している。

他の「いまさら聞けない(WTF is)」シリーズ

いまさら聞けないコンテナ入門

いまさら聞けないクリックベイト入門【英語】

いまさら聞けないミラーレスカメラ入門【英語】

[ 原文へ ]
(翻訳:Sako)

PixelはこれからのGoogleそのものを体現したものだ、Andoroidではなく

pixel

Googleは今日、沢山のデバイスを発表した、しかし、ほぼすべてのものの中心として特に言及されたのはAssistantへの注力と、Googleのサービスの品揃えが提供できるものに関する説明だった。私は今、衛星回線を使ったキーノートを見た後、ここトロントでGoogleカナダの広報責任者であるAaron Brindleと、今のGoogleにとってハードウェアはどのような意味を持つのか、そして人工知能と機械学習に関する同社の仕事が、そのデバイスとどのように組み合わされるのかについて話し合った。

「今日の最も重要なメッセージの1つは、Googleがとても真剣にハードウェアを取っているということです」と、Brindleは語った。「Androidのエコシステムを通して私たちが知ったことは、イノベーションの速さは本当に驚くべきものだということです – 日々Androidを使っているユーザーが14億人もいるのですよ。しかし、ユーザの方々にベストAndroidを提供することが目的ではありません。私たちの狙いはベストGoogleをユーザーの方々に届けることなのです。だから、私たちはAIとMLの周りでやっている投資や研究のすべてを、ハードウェアの頭のてっぺんからつま先までに詰め込んでいるのです」。

Brindleは、AndroidのOEMパートナーによって行われている偉大な仕事がたくさんあることを認めた上で、Google自身は消費者に提示できる追加オプションを探し続けていると語った。また彼は、Googleがデバイスメーカーとしてハードウェアとソフトウェアに注力するだけでなく、ビジネス面でのセールスとマーケティングの重要性にも気が付いていることを示唆した。

「Androidの世界で、1つの機種がすべてをまかなうことができないことは事実です。私たちは何かをナットとボルトのレベル(基礎レベル)から作り上げるところに大きなチャンスがあると思っているのです」と彼は語った。「ソフトウェアとハードウェアだけではなく、マーケティングやサポート、そして小売の手段、私たちが何か欠けていると感じたもの全てです」。

私たちがこの先実際の小売店舗を見続けられるかどうかはともかく、Googleは既にウェブを通した機器販売においては、米国内で150ドル以上の購入をオンラインGoogle Storeで行った購入者に対して、新しい分割払いオプションを提供している。

Screen Shot 2016-08-25 at 1.53.58 PM

小売の経験は、Googleのハードウェアに対する新しいアプローチの一部だ。

Assistantがどのように働くのか、そしてその印象的な賢さはどこから得られるのかについては、BrindleはそれがPixelの中核であると述べ、そしてつい最近改善されたGoogleのAIの能力によって、こうしたことが可能になったことを説明した。

 「Assistantがこのデバイスの隅々までを満たし、またその中核であるとお聞きになったことでしょう。これが新しい電話の看板なのです」と彼は説明した。「これはAIの進歩に基づいています – 本当に驚異的な進歩です。最後のNexusからの1年という意味ではなくて、ここほんの数ヶ月のことなのです。例えば、翻訳や画像認識などの進化です」。

Brindleは、カナダのこの領域におけるリーダーシップを考えると、この国におけるGoogleの活動がこれらの取り組みの実際の中核であると述べた。

「そうした研究のすべてが、私たちがAIの中で行っている仕事から来ています。そしてAI領域の最高の研究者の何人かはここカナダを拠点としてるのですよ」と彼は続けた。「だから[Googleの特別研究員の]Geoffrey Hintonの機械学習に関する業績、特にニューラルネットに関する彼の仕事との統合と、それが私たちのAIの進化を促した方法、それが全てそこにあるのです」。

Googleのアプローチは、単にエンドツーエンドの携帯電話の体験を与えるだけでなく、そのプラットフォーム次世代体験を届ける包括的アプローチを作り上げようというものだ。それはAI(人工知能)とML(機械学習)を基礎として構築され、PixelやPixel XLのようなデバイスを完璧に適合した配信手段として利用しようとするものだ。これはまだ転換点そのものではないが、これは間違い無くGoogleの自身のアイデンティティとビジネスに対するアプローチの大転換を示唆するものである。

[ 原文へ ]
(翻訳:Sako)

ディープラーニングが計算機の視覚に果たす役割

Close Up of blue eye with computer circuit board lines, digital composite

【編集部注】著者のClaire Bretton氏はdaco.ioの共同設立者の1人である。daco.ioはディープラーニングを使ったユニークな競合トラッキングツールを開発するするスタートアップである。以前、彼女はパリに拠点を置くトップ戦略コンサルティング会社のマネージャーだった。ESCPヨーロッパから修士号を取得している。

21世紀の最大の課題の1つは、コンピューターをより人間の脳に似たものにすることだ。私たちは彼らに話し、理解し、そして問題を解いて欲しい – そして今、私たちは画像を見てその内容を認識して欲しいと思うのだ。

長い間盲目だった私たちの最も賢いコンピューターたちは、今や見ることができるようになった。

これは、ディープラーニングによって可能になった革命である。

機械学習:最初のステップ

機械学習を理解することはとても容易だ。そのアイデアは、大規模なデータベース上でアルゴリズムを訓練して、新しいデータに対して得られる出力を予測できるようにすることだ。

ここでは単純な例を示そう:私たちは樹齢を直径を使って予測したい。このデータベースには3種類のデータだけが含まれている:入力(x, 木の直径)、出力(y, 樹齢)、そして属性(a, b:木の種類, 森の位置)だ。これらのデータは、1次関数y = ax + bによって関連付けられている。このデータベースを使った訓練を通して、機械学習アルゴリズムは、xyとの間の相関関係を理解して、属性の正確な値を定義することができるようになる。この訓練段階が完了すると、コンピューターは、新たな直径(x)から正しい樹齢(y)予測することができるようになる

これは、過度に単純化した説明だが、画像認識について説明するときにはもっと複雑なものとなる。

コンピューターの場合、画像は数100万の画素の集まりだ – それは沢山のデータ処理を必要とし、1つのアルゴリズムで処理するには多すぎる入力である。そこで研究者たちはショートカットを見つけなければならなかった。最初のソリューションは、中間の特性を定義することだった。

コンピューターに猫を認識させたいと想像して欲しい。まず初めに、人間は主要な猫の特徴を全て定義しなければならない:丸い頭部、2つの尖った耳、1つの鼻…こうした主要な特徴が定義されれば、良く訓練されたニューラルネットワークアルゴリズムは、十分なレベルの正確さで、画像を分析しそれが猫であるか否かを判断することができる。

ミリリットル、猫

では、より複雑なアイテムを選んだ時にはどうなるだろう?

たとえば、ドレスをどのようにコンピューターに説明すればよいだろう?

ML-キャラ

あなたはここで画像認識のための基本的な機械学習の、最初の限界に突き当たったということだ:100パーセントに近い認識ポテンシャルを持つ識別特徴を定義することは、しばしば不可能なのである。

ディープラーニング:人間の介入なしに、見て学ぶ

2000年代になって、Stanford大学のAI LabとVision LabのディレクターであるFei-Fei Liが、重要な直感を得た:子供たちはどのようにものの名前を学ぶのだろうか?彼らはどうやって猫やドレスを認識することができるのだろう?両親いちいち特性を示しながら教えるわけではない、その代わり子供が対象を見るたびに、その物/動物の名前を教えるのだ。親たちは、視覚的な例を使って子供たちを訓練している。なぜ私たちは同じことをコンピューターに対してできないのだろう?

しかし、このとき2つの問題が残っていた:データベースの存在とコンピューティングパワーだ。

まず、「コンピューターに見ることを教える」ための十分に大きなデータベースはどのように入手することができるだろうか?この問題に取り組むため、Liと彼女のチームは、Image Netプロジェクトを2007年に立ち上げた。180カ国の50000人以上の人と協力して、彼らは世界最大の画像データベースを2009年に作成した:22000のカテゴリをカバーした、1500万枚の命名と分類が成された画像群だ。

コンピューターは今大規模な画像データベースで自分自身を訓練し、重要な特徴を特定することができるようになっている、そしてそれには人間の介入が不要なのだ。3歳の子供のように、コンピューターは名前の付いた数百万枚の画像を見て、自分自身でそれぞれのアイテムの主要な特徴を理解する。これらの複雑な特徴抽出アルゴリズムはディープニューラルネットワークを使い、何十億というノードを必要とする。

mlのドレス

これはディープラーニングの始まりに過ぎない:私たちはなんとかコンピューターが3歳児のように見ることができるようにした。しかしLiがTED talkで話したようにまだこれからなのだ:「本当の挑戦はこれからです:私たちはどうすればコンピューターを3歳から13歳に、そしてそのはるか先へ進めることができるでしょうか?」

[ 原文へ ]
(翻訳:Sako)

初期ステージベンチャーファームPearのデモデイ報告

img_1265

昨日(米国時間9月1日)、パロアルトにある法律事務所の広大な駐車場は、沢山のTeslaで埋められていた。天井の高い会議室には100人のトップ投資家たちが集まった。ここで彼らは、13のスタートアップが、自分たちに注目すべき理由を述べる各4分間のプレゼンテーションに耳を傾けた。

登壇したスタートアップは、みなおよそ起業半年以内のものばかりで、すべて現役の学生または最近の卒業生が率いている。いずれも創設3年のPearによるLaunchpadプログラムのメンバーなのである。Pearは初期ステージベンチャーファームであり、毎年トップ校に通う、会社を作りたいコンピューターサイエンスの学生を募集して、オフィスと同時に、使用目的に制限も義務もない5万ドルを提供している(最近まで、同社Pejman Mar Venturesとして知られていた)。

これまでのところ、Pearはこれらの学生チームを賢く選んできたようだ。1年前にプレゼンテーションを行った8つのグループのうち1つのスタートアップはGoogleに買われ、他に4つがシード資金調達に成功している。Pearが開始された2014年の最初のクラスからも、スタートアップのFancyThatがPalantirに買われている

明らかに、昨日集まったベンチャーキャピタリストたちは、熱狂的なようだった。Canaan PartnersのパートナーであるRoss Fubiniはプレゼンテーションの途中で「今年一番のデモイベントに思える」とツイートしている。別の投資家、Lux CapitalのパートナーShahin Farshchiは、イベント後私たちに語った「素晴らしかったね、全ての人に対して何かしらの意味で。消費者向けの会社、分析とAIの会社、そして私のような投資家のためのディープテクノロジーも」。

そこに参加しておらず、おそらく好奇心旺盛な読者のために、以下にその内容を紹介しよう:


Allocate.aiこの会社は、AI搭載のタイムシートを作成している。これは作業チームがどこにどのように時間を使うべきかをより良く理解する手伝いをするプロダクトだ。(スタンフォード大学とカリフォルニア大学サンタバーバラ校出身の)創業者たちによると、米国では4500万人がタイムシートに記入していて、これによる時間的損失は金額にして110億ドルに達するとの推定である(その時間に価値がありながら、1日15分以上を請求に必要な情報収集に使っている弁護士のことを想像してみると良い)。彼らはそれをより効率化し、市場をさらに大きなものにすることができると主張している。もしあなたが同意し、彼らに連絡をとりたい場合は、founders@allocate.aiまで。


BlackSMSこの技術を使ってユーザーは、暗号化されパスワードで保護され、自己消去を行うiMessagesを送信することができる。メッセージは偽の代替テキストの内に隠したり保護したりすることができる。これは様々なケースで有効だろうと私たちを感心させた。これについて私たちが正しいことを願おう。その20歳の創設者、Tyler Weitzman – 中学時代から30あまりのアプリを構築してきたと言う – は、「BlackSMSにすべてを賭ける」ためにスタンフォード大学を中退した。

詳しく知りたければ、TCが今年の前半に書いたより長い記事を、ここで読むことができる。Weitzmanに連絡するには、founders@black-sms.comに電子メールを送れば良い。


Capella Spaceこのデータ会社は、靴箱サイズの衛星群を介して宇宙から持続的かつ信頼性の高い情報を提供することができると言っている。他のスタートアップの衛星とはどのように異なるのだろうか?その技術は合成開口レーダー(SAR)を使っている。これが意味することは、雲を通り抜ける電波の反射を使い太陽光の反射を必要としないため、夜や厚い雲に覆われているときでも、地球の表面に向けて電波を送り画像を得ることができるということだ。(他の多くの衛星群はその代わりに、光学技術に依存している)。

Capellaには競合他社がいて、Ursa Space Systemsもその1つである。 Ursaは現在、旧来の(つまり大きくて嵩張る)衛星に搭載された合成開口レーダーを使って得た情報を顧客に売っていて、そして独自の衛星群を開発することを計画している。しかし、現時点では勝負の行方はまだ見えていない。founders@cappellaspace.comで創業者に連絡することができる。


IMG_1194


DeepLIFT Technologiesこの会社は、入力を観察し繰り返されるパターンや他のものを識別することによって、任意のディープラーニングプロセスを理解し説明することができると言う、一連のアルゴリズムを開発した。

なぜ彼らのように、機械学習が上手くいく理由をわざわざ掘り下げるのだろう?1つの理由は、規制当局が「ブラックボックス」技術に対する押し戻しを始めているからである。最も顕著なのは、最近EUが機械学習モデルが、EU市民に影響を与える判断に利用される場合、その内容について「説明を受ける権利」を保証する法案を制定させる条項を導入したことだ。

創設者は、同社は資金を調達していないと言っている(私たちがこれを信じるかどうかは別として)。彼らはまた、現在彼らの技術は全米8箇所のゲノム研究室で使用中で、既にGoogleのモバイル開発チームとAlphabetのライフサイエンスの子会社であるVerilyを含んだ形で、Alphabet社からの強い関心が寄せられていると語った。彼らへの連絡先はfounders@deeplift.aiである。


Hotlineこのスタートアップは、ファンが直接有名人とつながることができる、メッセージングベースのプラットフォームを提供する。今のところ、それはFacebookのメッセンジャー、SMS、およびKikを使って単一のスレッドを介した通信を可能にする。基本的なアイデアは、メッセージングにTwitterのような対話性をもたらすことである。例えば、ランナーのウサイン・ボルトのファンは、おそらくボルトと1分でつながり、すぐにスイマーであるマイケル・フェルプスと、プラットフォームを変えたり他のダイアログボックスを開いたりせずにやりとりをすることが可能になる。

ハーバード大学、アマゾン、マッキンゼー – 創設者たちは印象的な経歴を持っているが、正直このプロダクトにはそのような雰囲気は漂っていない。大切なことかどうかは分からないが、早期のSnapchatのことを思わせることはなかった。彼らへの連絡先はfounders@hellohotline.comである。


Kofaこのスタートアップの技術は、あらゆる場所でアナリストを「スーパーチャージ」する。売り文句はこうだ:アナリストたちは予測モデリングや地理空間分析と膨大なその他の材料を理解しようとして苦労しているが、それは企業における彼らの役割の中心ではない。Kofaは、彼らにこの問題の一部を解決するための再利用可能なポイントアンドクリックのツールを与えると言う。その技術はまた、アナリストが互いの仕事の上に、別の仕事を構築することを可能にする。

私たちは、これがどの程度ユニークなのかはわからないが、Kofaの創設者は以前FancyThatを設立した者たちだ。彼らはPalantirに在籍していたが(前述したようにPalantirはFancyThatを買収した)、今年の初めに同社を離れ再び自分たち自身で起業した。これまでのところは上手くやっているようだ。彼らは既にいくつかのプリシード資金を調達していて、読者がこの記事を読む時には顧客と「6桁の契約を締結しつつある」ということだ。


IMG_1286


Motifこのスタートアップが目指しているのは、カスタマーサービス担当者が、簡単かつ即座に助けを求めているユーザーの画面を引き継ぐことである。これらすべてが1行のJavaScriptで実現されている。Motifはまた、事前に定義されたユーザーアクションの前後5分間のユーザーの画面を、サポート企業が記録することができるようにする。もし最初に心に浮かんだことが「プライバシーはどうなる?」ならば、目を閉じて、最後に画面上にあるものについて、電話越しにだれかに説明しようとしたとき、それがどれくらい時間がかかったかを思い出してみよう。Motifが、今後このような苦悩から私たちを救うことができるなら、私たちはそれを受け容れる。

チームの大きさがどれほどかは明らかではない。創業者Allan Jiangは現在スタンフォード大学でコンピュータサイエンスを学んでいて、2018年に卒業予定であることは確かである。彼への連絡はfounders@usermotif.comへ。


Novaこの会社は移民が米国の会社からのローンにアクセスすることを助けようとしている。米国の貸金業者には移民のクレジット履歴に簡単にアクセスする手段がないため、通常移民からのローンの申し込みは不可能ではないにせよ、とても困難である可能性が高い。ではNovaのソリューションは?世界中のグローバルな信用調査会社と貸し手を接続することだ。移民はNovaと提携している金融機関に融資を申請し、貸し手はAPIを経由して得られる情報を使って意思決定を行う。なおAPIで取得されるファイル1件ごとに貸し手はNovaに30ドルを支払う。これで完了だ。

同社は、2ヶ月前に開業し、既に3金融機関と提携している。創業者たち(全員がスタンフォード)に連絡する際にはfounders@neednova.comへ。


Plutoこのスタートアップは、小売業者が顧客を獲得するための新しいチャネルとして、メッセージングアプリを活用することを助ける、SaaSプラットフォームを提供する。例えばトリーバーチのようなブランドは、もはやメールプロモーションや広告だけに頼るというわけにはいかない。Plutoの技術を用いれば、顧客がFacebookメッセンジャーを開けた際に、後で買うためにオンラインショッピングカートに保存してまだ買っていないカラープロックPコートについて、企業から顧客にリマインダーを送ることができる。いままで行われてこなかったことだ。

創業者への連絡はfounders@getpluto.coまで。


Script写真を撮り、それをオンラインステッカーに変換し、メッセージングアプリを離れることなく送る。または友人や他のコミュニティのステッカー作品にアクセスして、会話を離れることなく、彼らのステッカーを送信する。

Hotlineと同様に、私たちにとってこの会社は、会社としては物足りなく、単なる機能提供のためには過剰のような気がするのだが、しかし機能も増え多くの人びとがこれを「選んで」いるようである。Scriptの創業者チーム(全員がスタンフォードから)によれば、過去4ヶ月間でサービスを知った何千人ものユーザーが、既に320万ステッカーを作成したそうである。役立つ情報かどうかは不明だが、CEOのKatia Ameriは同社を開始する前に、Pearのベンチャーアソシエイトとして2年間を過ごしている。

Ameriと彼女の共同創業者たちへの連絡はfounders@script.meへ。


Synocateこのスタートアップは、大学入学やキャリアアドバイスのための市場を構築中である。まず手始めに入試小論文を提出しようとする高校生のためのエッセイ編集ツールの提供を開始し、1エッセイにつき49ドルで、彼らが入学しようとしている大学の学生からのフィードバックを行っている。

特に目新しいものを聞くことはできなかった:野心的な高校生とその親の要望に応えようとする沢山のスタートアップが既に存在している。そして、それはとても巨大な市場であり、圧倒的に成功しているものは存在していない。創業者への連絡はfounders@synocate.comへ。


xSeerカーネギーメロンその他のPh.Dのチームによって設立されたこの会社は、数10億のデータポイントを取り込み、直感的に大規模なスケールで可視化を行う洗練されたビジュアル分析ソフトウェアを作成している。例えば保険会社などの顧客企業が、現在ターゲットにしておらず、本来ならばターゲットにするべき人たちを発見することなどを容易にする。

もしもっと詳しい情報のために創業者たちに連絡をしたい場合(彼らはまた秀逸なデモプログラムも持っている)はfounders@xseer.ioへ。


Viz私たちにとっては、この会社が1番興味深いものに思えた(Farshchiも同意見だ)。一言で言えば、それは一般的には放射線科医や他の技術者の専門知識を必要とする、超音波診断に対するディープラーニングの適用である。不安な患者たちが長い間待ち望んでいたものになる可能性がある。具体的には、そのソフトウェアは、超音波診断画像を他の数百万の画像や動画(ひとりの放射線科医師が一生に見ることのできる以上の数だ)と比較することによって、担当医師が画像を解釈する能力を上げ、迅速な対応がとれるようにする。

これは「熱い」領域だ。数年前、起業家Jonathan Rothbergは、Technology Review誌のインタビューで、新しい種類の超音波画像診断システムの開発に対して1億ドルを投資したと語った。その新しいシステムは「聴診器程度に安価」で「医者の効率を100倍にする」ものだということだった。最初は腰部の診断に焦点を当てているVizは、そのソフトウェアを使って、既存の機械で同じ仕事ができるようにすることを目指している。

創業者たちへの連絡はfounders@viz.aiへメールを送ること。

[ 原文へ ]
(翻訳:Sako)

低消費電力の深層学習で新分野開拓、日本のLeapMindがシリーズAで3.4億円の資金調達

unspecified2012年設立の日本のスタートアップ企業、LeapMindは今日、伊藤忠テクノロジーベンチャーズ、米Visionnaire Ventures Fundアーキタイプベンチャーズを引受先とした第三者割当増資で総額約3億4000万円の資金調達を完了したことを発表した。創業者でCEOの松田総一氏によれば、LeapMindはGPUを含む高い処理能力や大容量メモリーを前提としたこれまでの深層学習と違い、精度を落とさずに必要となる計算リソースを減らすことに取り組むスタートアップだ。

特に画像認識や音声認識といった応用分野で、深層学習が大きな前進を見せているのは皆さんご存知の通り。ただ、これまでの深層学習の応用はクラウドだったりGPUをふんだんに投入する「力技」の競争という面があった。ニューラルネットワークは人間の中枢神経系と同じく多数のノードを層状にして積み重ねるもので、最近この層数が深くなっている。現在の深層学習ブームの背景の1つに計算テクニックの発展があったのは間違いないが、それでも計算量は多い。精度を上げるために計算リソースをぶち込むのが「最先端」の研究だ。ボードゲームへの深層学習の適用で圧倒的な成果を見せつけたAlphaGoは、1000個以上のCPU、100個以上のGPUを組み合わせるような取り組みだった。

一方、LeapMindの松田CEOによれば、もっと劇的に計算量を減らすことができる研究が、この1年ほどで出てきているのだという。層と層の間の計算の受けた渡し方の計算順序を工夫したり、受け渡しの数値を実数ではなく2値にしてしまうような研究があるという。例えば、この論文によれば「バイナリCNN」を使った画像分類ベンチマークでは、メモリー効率32倍と58倍の速度向上を達成。精度は2.9%劣るだけだったという。

松田CEOによれば、LeapMindはこうした最新の研究を参照してプロダクトを実装している。深層学習の人気ライブラリの1つ、Caffeに含まれるモデルをLeapMindで実装したところ、Caffeで450MBの容量となったニューラルネットのモデルが、LeapMindでは45KBで保存できた例もあるという。このときの精度はオリジナルのCaffeが58%であるのに対して、52%と十分なものだったという。

すでにできていることを少し精度を落として低コスト、低リソースでやるというインセンティブはアカデミックな世界にはあまりないのか、この方面への研究は注目度が低い。世界的にみると競合としては、VicariousMovidiusといったところがあるが数は少ないのだそう。「この分野を徹底して研究しているLeapMindのほうが大学の研究者より詳しいこともある」(松田CEO)という。

低商品電力になると何ができるのか?

leapmind

Droneに高度な画像認識モジュールを搭載するイメージ図

低商品電力で深層学習が利用できるとなると、例えば冷蔵庫に搭載もできるだろうという。冷蔵庫の中身の残りものを画像認識してレシピを提案するといった応用があったとき、最新GPUを搭載してガンガン熱を出してしまっては冷蔵庫という自らの存在を否定するような製品になってしまうが、低商品電力で非力なチップで処理できれば応用可能性が開ける。松田CEOは「今後、名刺入れにさえ深層学習が入ってくるような世界を目指す」としていて、現在はNTTデータ、KDDI、DNP、小糸製作所などと共同研究を進めているほか、実験的プロダクトをいくつか出している

今後は企業と組んで消費者へ届けるアプリケーションを発掘・開発していくほか、自社でモデルを作成してモジュール化した「Juiz System」をSaaSモデルで売っていくモデルの2通りでマネタイズを考えているそうだ。より広く生活者に深層学習の恩恵を届けるためには、それぞれの応用分野を詳しく知っている各企業に任せる、ということだそうだ。

unspecified-2

ところで深層学習を省電力対応していく方向性が今後ひとつのトレンドになるのだとしたら、その技術的アドバンテージのコモディティー化は早そうだ。LeapMindは企業として何の差別化ができるのだろうか? 「確かに2年後ぐらいには技術は平準化していくと思います。ただ、その間にユーザーや共同開発の企業を増やします。そこから入って来るトレーニングデータが大事」(松田CEO)。たとえアルゴリズムでGoogleに勝てなくても、例えば日本人がどんな食事をしていて何が好きなのかといったことの予測精度ではGoogleに勝てるだろうという。「だからバラマキ戦略をやっているのです。深層学習を商用まで持っていけてる企業は少ないですし、より広い企業と繋がる努力をしているAI企業も少ないのです」(松田CEO)