SalesforceがAIを利用して自然言語の質問をSQLに翻訳、事務系社員でもデータベースを利用できる

SQLはプログラミングの世界ではやさしい方だが、ふつうの人たちがリレーショナル・データベースを対話的に利用したいと思ったときには、やはりその学習曲線は急峻だ。そこでSalesforceのAIチームは、SQLを駆使できない人でもデータベースを使えるために、機械学習を利用できないか、と考えた。

彼らの最近のペーパーSeq2SQL: Generating Structured Queries from Natural Language using Reinforcement Learning(強化学習を使って自然言語からSQLを生成する)は、機械学習でよく使われるシーケンス変換モデルを利用している。強化学習の要素を加えたことによりチームは、自然言語によるデータベースへのクェリをSQLに翻訳するという課題に対し、かなり有望と思われる結果を得た。

すなわちミシガン大学のデータベースに対し、データベースにフットボールの優勝チームを尋ねるクェリで、正しい結果が得られた。

このプロジェクトに関わった研究員の一人、SalesforceのVictor Zhongは、こう語った: “クェリの正しい書き方は一つではない。自然言語で言われた質問*に対し、それを表すSQLのクェリは二つも三つもあるだろう。われわれは強化学習を利用して、同じ結果が得られるクェリを使うよう、学習を誘導した”。〔*: 自然言語は、語形はまったく同じでも、話者の込めた含意がさまざまに異なることが多い。〕

どなたもご想像できると思うが、ボキャブラリーがとても大きいと、機械翻訳という問題はたちまち複雑困難になる。しかし、翻訳の可能性の多様性を野放しにせずに、どの語に関しても少数に限定してやると、問題はよりシンプルになる。そのためにSalesforceにチームは、ボキャブラリーを、データベースのラベルに実際に使われている語に限定した。つまりそれらの語は、SQLのクェリに実際に登場する語だ。

SQLの民主化は、これまでにもいろいろ試みられている。たとえば最近Tableauに買収されたClearGraphは、データをSQLでなく英語で調べることを、自分たちのビジネスにしている。

“データベース本体の上で実行されるようなモデルもある”、とZhongは付言する。“しかし、社会保障番号を調べるような場合は、プライバシーの懸念が生じる”。

ペーパー以外でSalesforceの最大の貢献は、モデルの構築に利用したデータセットWikiSQLだ。最初に、HTMLのテーブルをWikipediaから集める。これらのテーブルが、ランダムに生成されるSQLクェリのベースになる。これらのクェリを使って質問を形成するが、それらの質問はAmazon Mechanical Turkで人間に渡されてパラフレーズ(語形変化)される。それぞれのパラフレーズは二度検査され、人間によるガイダンスが付く。そうやって得られたデータセットは、このようなデータセットとしてはこれまでで最大のものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftがディープラーニングを超高速化するFPGAシステムBrainwaveをベンチマーク結果と共に発表

今日(米国時間8/22)の午後Microsoftは、クラウド上で遅延のほとんどないディープラーニングを動かせるFPGAベースのシステム、Brainwaveを発表した。初期のベンチマークによると、IntelのStratix 10 FPGAsを使った場合Brainwaveは、大きなGated Recurrent Unit(GRU)の上でバッチなしで39.5 Teraflopsを維持できる。

MicrosoftはこれまでFPGAに注力し、FPGAの大きなクラスターを同社のデータセンターでデプロイしている。アルゴリズムはFPGAに書き込まれ、高い効率を得るとともに、プログラムの書き換えを容易にしている。FPGAのこのような専用化により、機械学習、とくにそのための並列処理が効率化される、と期待されている。

これらの成果を踏まえてMicrosoftは、FPGA中へ専用プロセッサーDPU(Dataflow Computing Unit)ないしDNN(Deep Neural Network)プロセシングユニットを合成した。このようにディープニューラルネットワークにフォーカスすることによってMicrosoftは、そのインフラストラクチャを研究のニーズに応じて高速化し、リアルタイムに近い処理を提供できる、と期待している。

FPGA自体はレトロな技術だが、最近ではその開発対応の素早さが見直されている。FPGAに取り憑かれているかのようなスタートアップMipsologyは、Amazonと密接に協働して、Amazon Web Servicesやそのほかのプラットホームでその技術を使えるよう、努めている。

これまでの数十年間が汎用CPUとその進化の過程だったとすると、最近の数か月は汎用の逆の、特定のタスクに秀でたカスタムチップに開発の主力が移行している。そして中でもとくにその注力が厚いのが、機械学習のための専用チップだ。

いちばん知名度が高いのが、GoogleのTensor Processing Unit、TPUだ。このチップはTensorFlow向けに最適化され、初期のベンチマークは将来有望と見なせる結果だった。しかしそのほかの主要テクノロジー企業も、その多くがサイドプロジェクトとして未来のコンピューティング、量子チップやFPGAなどに取り組んでいる。そして大企業がそうなら、スタートアップもそのゲームに参加しようとする。RigettiMythicWaveなどが、そんなスタートアップの例だ。

BrainwaveがMicrosoft Azureの顧客にいつから提供されるのか、それはまだ不明だ。現時点でこのシステムは、人気の高いGoogleのTensorFlowと、MicrosoftのCNTKに対応している。同社はこの技術を利用して、ディープラーニングのパフォーマンスを画期的に向上させるつもりだから、今後もさまざまなベンチマークが相次いで発表されることだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビデオストリーミングの高画質化+中断のないスムーズ化にMITの研究者がニューラルネットワークを併用

MITのコンピューター科学と人工知能研究所(Computer Science and Artificial Intelligence Lab, CSAIL)は、途中でぶち切れない、スムーズなストリーミングビデオを志向している。そのためにMohammad Alizadeh教授のチームが開発した人工知能システム‘Pensieve’は、その都度正しいアルゴリズムを選ぶことによって、中断のない最良の再生を確保する。

その方法には既存の技術の改良も含まれ、たとえばその一つYouTubeの適応ビットレート(adaptive bitrate, ABR)は、モザイクなどで画質を落とすことによって、スムーズな再生を維持しようとする。MITのAIは、今デバイスがどんなネットワーク条件に遭遇しているかによってアルゴリズムを切り替え、えんえんとひとつだけの方法を使い続けた場合の弱点を抑える。

そのアルゴリズム切り替え法によると、ストリーミングビデオの中断は10〜30%少なくなり、画質は10〜25%向上した。ビデオを長時間見るときには、これぐらいの改善でも相当大きな効果を感じるだろう。

  1. pensieve-overview.jpg

  2. pensieve-outperforming-existing-approaches.png

  3. pensieve-neural-network-detailed-diagram.jpg

しかもCSAILのPensieveは、完全にアルゴリズムだけに頼るのではなくニューラルネットワークを使用し、ストリーミングの最終的な画質に応じてNNにごほうび(reward)を与えることによって、NNを鍛えていく。それにより、どんな場合にはどんなアルゴリズムとその変数セットを選ぶか、ということをNNが学習していく。たとえばビデオをバッファリングするときのアルゴリズムの選択にも、固定的なルールには従わないというのが、このシステムの大きな特長だ。

チームによると、システムの振る舞いをエンドユーザーが(好み等に応じて)カスタマイズすることもできる。たとえば再生時に、画質重視、スピード重視、データの現状保全重視、などから選ぶこともできる。

Pensieveはオープンソースのプロジェクトとして来週ロサンゼルスで行われるSIGCOMMで発表される。チームは、もっと大量のデータセットで訓練すれば画質もスピードも大幅に向上する、と期待している。また今後は、通常のビデオよりもビットレートがものすごく高いVRビデオも使って、Pensieveの性能を上げたい、と彼らは考えている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

SalesforceのAIがソーシャルメディア上に自社製品が写ってる画像を見つけてくれる

企業が自分の社名やブランド名、製品名などへの言及をソーシャルメディア上に探すことは前から行われているが、画像中にロゴや製品が写っているのを見つけることは、当時はできなかった。しかしSalesforceの人工知能Einsteinは最近、そんな能力を持つに至った。

同社が今日発表したEinsteinのVision for Social Studio機能はマーケターに、言葉を探す場合と同じやり方で、ソーシャルメディア上に製品等の関連画像を探す方法を提供する。そのためにこのプロダクトは、Einsteinのとくに二つのアルゴリズム、画像分類アルゴリズムとオブジェクト検出アルゴリズムを利用する。前者はビジュアルサーチにより、製品やブランド名を画像中に見つける。そして後者は、それらが載っていた品目を同定する(例: 雑誌のページの上)。

最近のAIはとりわけ、感知や認識の能力が優れている。それは、画像の認識能力を訓練するアルゴリズムが進歩したためだ。最近では電子計算機の計算能力のコストは大幅に下がっており、そこに大量の画像をネット経由で放り込んでもそれほどの費用にはならない。そのために、大量の画像データでAIを教育訓練することが、誰にでもできるようになったのだ。

Salesforceのマーケティング担当VP Rob Beggによると、それ(画像認識とそのための訓練)は、人間よりもマシンに適した仕事でもある。“企業のマーケティングという視点から見ると、今のソーシャルメディア上のツイートやポストはものすごく多い。しかしAIは、その大量の情報の中にわれわれが求めるものを見つけることが得意だ”、と彼は語る。

彼によるとたとえば、ネット上に車に関するポストは山ほどあるが、でも今やっている広告キャンペーンと関連性のあるものは、ほんのわずかしかない。AIは、その、わずかしかないものを、簡単に見つけてくれる。

Beggが挙げるユースケースは三つある。まず、自分たちの製品を人びとがどのように使っているかが、分かること。第二に、画像中に隠れている自社製品やブランドを見つけ出すこと。そして三つめは、俳優やスポーツ選手など有名人が自社製品を使っているシーンを見つけること。

EinsteinのVision for Social Studioは、訓練により、今では200万のロゴと、60のシーン(空港など)、200種の食品、そして1000種のオブジェクトを認識できる。どの企業にとっても、はじめはこんなもので十分だ。ユーザーがカスタマイズすることは現状ではできないから、特定のロゴやオブジェクトを認識しないときは、今後の、カスタマイズ可能バージョンを待つべきだ。

Beggによると、Vision for Social Studioはマーケターのような技術者でない者でも容易に利用でき、彼/彼女にビジュアル認識ツールという新しいレパートリーが加わる。この新しい機能は、Salesforce Social Studioのユーザーなら今すぐ利用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMがディープラーニングのモデルの訓練を分散並列処理で短時間化するライブラリを発表

二か月前にFacebookのAI研究所FAIRが、大規模な分散ビジュアル認識モデルの、かなり感動的な(==短い、はやい)訓練時間を発表した。今日(米国時間8/7)はIBMが反撃に出て、独自の数字を発表した。IBMの研究グループによると、1000のクラスに対応する画像分類モデルResNet-50を、256のGPUを使用するシステムで50分で訓練できた。つまり、Facebookのモデルよりもはやい、と言いたいのだ。FacebookがCaffe2を使った結果では、同じResNet-50を、8kのミニバッチ方式で、256のGPU上で1時間で訓練できた。

しかしそもそも、それのどこが重要なのか? 分散処理はAIの研究でも重要な関連分野だが、でもそれは、科学的というより、あまりにも技術的なテーマだ。しかもディープラーニングのような大きなジョブは、ジョブを分割し、複数のCPU(ここではGPU)に分担させて同時並行的にやるのが、大規模高速コンピューティングの昔からの定石だ。

しかしディープラーニングのモデルの訓練では、GPUの台数と処理速度が単純に比例しない。1台のGPUで2分かかる訓練が、2台のGPUだと1分で済むか、というとそうは行かない。タスクの分割と結果の再結合という面倒な処理が、かなりの時間を食う。

IBMが約束しているのは、大きなディープラーニングの問題を数百の小さな問題に分割して効率的に行う、分散ディープラーニングライブラリだ。それらは単一のコンピューティングジョブが目的ではなくて、IBMやFacebookが毎日のようにやっているのは、何百万もの顧客のためのモデルの訓練だ。大手のテクノロジー企業はどこもそんな課題を抱えているが、企業により問題により変数の数や性質が異なるため、それらを単純に横並びで比較することはできない。

しかし、分散処理の漸進的な改良にもそろそろ限界があるのではないか。IBM Researchでシステムのスピードとメモリを担当しているディレクターHillery Hunteによると、今やどこも最適解に近づいている、という。

“今やシステムの能力の限界まで来ているから、最適解に近いと言える。今後の改良の大きさがどの程度になるのか、そもそも学習時間にこれ以上の改良は可能なのか、そろそろ問うてみる必要がある”。

IBMは今後ResNet-50だけでなくResNet-101も分散訓練を試してみる予定だ。101は50よりもずっと大きくて複雑なビジュアル認識のモデルだ。チームによると、GPU 256基の分散システムの上で、データセットとしてImageNet-22kを使って行ったResNet-101の訓練では7時間を要した。それは、かなり良好な結果だそうだ。

“この分散訓練は小さなシステムにもメリットはある”、とHunterは言う。“しかもGPUが256とか、システムが64までは(小さなシステムでは)要らないからね”。

このディープラーニングライブラリは、TensorFlowやCaffe、Torchなど、主なオープンソースのディープラーニングフレームワークで利用できる。自分で試してみたい方は、PowerAIから入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

本人が何も装着せず、電波の反射波を利用する非侵襲型(当人が意識しない)の睡眠モニタをMITで開発

MITの研究者たちが、睡眠をワイヤレスでモニタする新しい方法を公開した。それは反響定位法(エコーロケーション, echolocation)に似ていて、電波を睡眠者に当てて反射波を捉え、体の影響による電波の変化を調べる。

チームはこれまでも、低出力の電波をモニタリングに利用する方法をいろいろトライしてきたが、今回のはその最新の成果だ。今回はAIを利用することによって、睡眠者の体のわずかな動きでも、電波の変化の中に捉えることができた。それにより、睡眠ステージ(浅い深い、REM/NREM)、睡眠中の運動、呼吸率など、睡眠のパターンに関する有意味な情報を得ることができた。

テストは25名のボランティアに対し、100晩かけて行われた。研究の指導教授Dina Katabiによると、そのシステムは80%の正確度で睡眠パターンを検出できた。それは業界標準の睡眠テストEEGにほぼ匹敵する。

睡眠の追跡調査はFitbitやApple Watchのようなウェアラブルでもある程度行われているが、それらはもっぱら、スマホが内蔵している加速度計を使って体の動きを検出し、それにより睡眠のパターンを判断している。

“ウェアラブルもいいけど、われわれのねらいは、目に見えないものを捉えることだった”、とKatabiは語る。“それは家庭の中で、みんなが忘れてしまうぐらい目立たないが、しかしそれと同時に、ワイヤレスの信号だけを使って健康上のあらゆる問題をモニタできる”。

そのワイヤレスシステムは、取り上げる要素がウェアラブルよりずっと多い。動きだけでなく、呼吸や心拍も捉える。それでいて、まったく生活の邪魔にならず、ベッドから数メートル以内の棚や壁に目立たない形で置ける。

使用する電波はWi-Fiよりずっと弱く、一家の中で複数台を複数の人に対して使える。調整などは要らない。被験者にとって、まったく気にならない存在であることも、本機の理想的な性質だ。

本人がその存在を忘れている状態で長期の検診ができるから、パーキンソン病やアルツハイマー病のような睡眠障害と関係の深い疾病のモニタにも向いている。ただし、そこまで一般化大衆化するためには、まずFDAなどの認可が必要だ。結果はすでに良好だから、それも大丈夫だと思えるが。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AI対AIやAI対人間を“戦わせる”ことでイノベーションを喚起するNIPSカンファレンスのコンテスト

ちょっとした競争心が、イノベーションのきっかけになることがある。そこでNeural Information Processing Systems(NIPS)カンファレンスは、競争するAIシステムを今年のテーマにした。そして、人が歩くときの筋肉の動きを模倣するシステム、雑学クイズ・チャンピオン、画像の微妙な操作など、さまざまなテーマで競い合うことになった。

NIPSの今年のこの新しい企画には23種の‘競争するAI’がテーマとして提案され、最終的に5つに絞られた。カンファレンスが行われるのは12月の初めだが、どれも、片手間で簡単に作れるようなシステムではないので、戦いは今からすでに始まっている。どのテーマもすでに、応募作は相当多い。

コンテストは一つ々々が独立していて、スポンサーが付いたり、賞金が出るものもある。

走ることの学習: これはたぶん、視覚的にいちばんおもしろいコンテストだろう。このシステムは人間が歩く動作をするときの、脳による筋肉と骨のコントロールを模倣する。生理学と物理学のシミュレーションだが、滑る床や階段、弱い筋肉、といった障害も設定されている。目標は歩き方を知っているAIを作るだけでなく、脳性麻痺の人に手術をした場合、歩き方にどんな影響が現れるか、といった問題意識もある。コンテストの詳細はスタンフォード大学のニュースリリースにあり、リーダーボードのGIF画像がなかなかおもしろい。AmazonがAWSのクレジット3万ドルぶんを賞金として提供している。

NNの敵対的攻撃と防御(Adversarial Attacks and Defenses): 私たちはすでに、画像を認識するニューラルネットワークをあちこちで見ている。それらは人間の顔や、猫、風景などを認識する。それらは、あらゆる種類の低レベルデータに対する独特のロジックで動くから、その判断を騙して、まったく違うものに認識させてしまうことも可能だ。もちろん、画像そのものを別のものに変えたりはしない。このコンテストは、NNを騙す悪役と、それに対する防御を作品として募集する。〔訳注: この項については、Google検索やWikipediaなどで、Generative Adversarial Net, GANを勉強すると、理解できると思います。〕

人と会話できるAI: このコンテストの目標は、できるかぎり人間のように振る舞えるAIを作ることだ。ボットと人間が対面して、両者に、最新のニュースやWikipediaの記事などを読ませ、それについてなるべく長く会話をする。応募作品に制限はないが、最優秀のボットが12月のNIPSに出場する。優勝賞金は1万ドルだ。チャットボットの進化に前から関心のあるFacebookが、“プラチナスポンサー”になり、本誌TechCrunch DisruptのStartup Battlefieldに出たMaluubaが、“シルバーパートナー”になる。それらの意味は、よく分からないけど。

人間対コンピューターのQ&A: このコンテストの応募者は、小型のWatsonを作る。そのWatsonは、Jeopardyで人間を負かしたときのバージョンぐらいの実力が必要だ。システムは一回に一つずつ、クイズのような質問を与えられ(例: ローマ帝国の第四代の皇帝は誰か?)、人間よりも早く、少ない語数で…もちろん正解を…答えたらポイントをもらう。NIPSで、人間とコンピューターの決戦を見ることになるだろう。“エキシビションマッチで人間チームと対戦するときのシステムの組み合わせは、出場者(システムの作者)が決めてよい”そうだ。

遺伝子突然変異の臨床的応用性のある分類法: 癌の悪性腫瘍を生じさせている遺伝子と、それらの腫瘍を破壊する遺伝子が分かったら、癌の拡大を防げるかもしれない。でもそれは、専門家たちによる、難しくて時間のかかる研究開発過程だ。しかし、もしも、何千もの遺伝子突然変異に関するそれら専門家たちの注記注釈にアクセスできたら、ニューラルネットワークを使った機械学習に出番があるかもしれない。すくなくとも、今後の研究対象を絞り込むぐらいは、できるのではないか。優勝賞金1万ドルは、Memorial Sloan Kettering Cancer Centerが提供する。すでに、685の応募作が寄せられている!

コンテストの結果が分かるのは12月だが、作品の応募だけでなく、議論に加わることは今からでもできる。参加は、自由だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

高校生が3Dプリントと機械学習を利用して祖父のための網膜診断システムを制作

もしもあなたが、ぼくと同じように、自分はこれまでの人生でまだたいしたことしてないな、と日頃思っているなら、Kavya Kopparapuのこのプロフィールを読まない方がよいかもしれない。このティーンエイジャーはまだ高校生なのに、ぼくが大学卒業後これまでにやったことよりも、すごいことをやってのけた。いちばん最近では、彼女は祖父の、誰にでもよくある目の不具合を診断する、安くてポータブルなシステムを作った。その症状は気づかれないことが多く、しかし放置すると失明に至る。

3Dプリントで作ったマウントに装着したレンズが、iPhoneで網膜をスキャンし、何千もの網膜画像で訓練された機械学習システムが、一般公開されている既存のサービスをいくつか使って診断をする。彼女はその作品を、先月行われたO’Reilly’s AIカンファレンスで発表した。

もっと詳しく知りたい人は、IEEE Spectrumの記事彼女のブログを読んでみよう。ぼくは、Kopparapuの次のプロジェクトを知りたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Intelの第二四半期は予想を上回る好成績、データセンターも首位の座を堅持

Intelは今日(米国時間7/27)の午後、148億ドルの売上と72セントの一株当たり利益を発表した。それらはアナリストたちの予測144億1000万ドルと68セントを確実に上回っている。

同社の通常取引の株価は22セント/0.63%上がり、34ドル97セントで終わった。決算発表の直後には、Intelの株価は3.43%上がった。現在は時間外取引で36ドル17セントになっている(~1:05pm PST)。

Intelは今、企業として興味深い立場にいる。同社の未来が人工知能関連の能力にかかっていることを、同社自身が知っている。ウォール街における同社の命運を決めるのは、153億ドルで買収したMobileyeを、やがて巨大な産業になる自動運転車業界のニーズに応える、高収益のビジネスに育てられるかどうかだ。Intelによると、買収手続きは2017年のQ3に完了する。

しかし今日は、三つの買収(Mobileye, Movidius, Nervana)があったにも関わらず、重要な話題は今なおデータセンターだ。Intelは同社のx86チップで長年データセンターを支配してきたが、最近はAMDの攻勢が著しく、データセンター市場におけるIntelのトップの座がいつまで安泰か、わからなくなっている。しかし現時点では、Intelはこのビジネスで9%の成長を達成できた。

前年同期2016Q2のIntelの売上は、135億ドルだった。その時点での前年同期比成長率は3%だったが、本日の2017Q2では9%の前年同期比成長率になった。

今回の決算発表のプレスリリースで、同社のCFO Bob Swanはこう述べている: “本年前半の好調とPC事業への期待の高まりにより、目下、通年売上と同EPSの予想を上方修正している”。

Intelの2017Q3の予測は、売上が157億ドル、EPSが80セントだ。Q4を含む全年売上の予測は613億ドル、EPSは3ドルだ。この値の一部は、買収完了後のMobileyeの貢献部分である。

同社は本日の決算報告で、通年の営業利益率の向上を課題として挙げた。

今本誌TechCrunchはIntelのIR部門に追加取材をしているので、情報が得られ次第、お伝えしよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ネットマーケティングのHubSpotがAIによる営業トークの効果アップを目指してKemviを買収

マーケティング・テクノロジー*のHubSpotが、人工知能と機械学習で営業を支援するKemviを買収した。〔*: たとえばソーシャルメディアへのパブリシティ活動を代行する。〕

数か月前にKemviが立ち上げたDeepGraphは、一般公開されているデータから営業のベストタイミングを見つけるデータ分析ツールだ。売り込み先の企業の、業務の変化とか、何かの記事の発表、などのタイミングに合わせて、売り込みを仕掛ける。また、今後起きることを見越して、先取り的に営業を展開することもできる。

KemviのファウンダーでCEOのVedant Misraはこう説明する: “インターネット上の膨大な量のテキスト情報から、業界や世界の最新の動向を取り出し、営業やマーケティングの能力を高めることが、うちの仕事だ”。

そしてHubSpotの側としては、同社の戦略担当常務Brad Coffeyによると、同社はそのプラットホームへのAIの導入を志向していた。彼曰く、AIや機械学習は今安易に使われているバズワードだが、Kemviは営業の人たちの現実的なニーズに対応しているので、魅力を感じた。

“重要なのは、顧客に具体的な価値を提供することだ”、とCoffeyは語る。“彼らにはそれがある。顧客が事業の成長のために必要としている情報、彼らのお客さんの心をつかむ情報、そういう情報をマーケティング部門や営業に提供できる。機械学習やAIは情報を精選するために利用するのであり、単に勉強のために導入するのではない”。

Kemviのチームは、Misraを含めて二名だ。彼らがHubSpotに入って、その技術をHubSpotのプラットホームに統合する。同時にそれと併せて、既存のKemvi/DeepGraphの顧客に対する移行プランもある。“彼らも、HubSpotとの合体を喜んでくれるだろう”、とMisraは語る。

この買収の財務的条件は公表されていない。Kemviは過去に、 Seabed VC, Neotribe Ventures, Kepha Partnersなどから100万ドルを調達している。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

この顔認識システムは、映画の観客が喜んでいるかどうかを追跡する

映画制作がアートと同じくらいサイエンスになってきた今、映画会社は観客の反応を測定するためにかつてない方法を必要としている。喜んでくれたのだろうか? どのくらい…正確には?42分の時点で? カリフォルニア工科大学とDisney Researchは、表情認識ニューラルネットワークを使って、観客の反応を知り、予測しようとしている。次世代のニールセンレーティングの基盤になるかもしれない。

この研究プロジェクトは、ハワイで行われたIEEEコンピュータービジョンおよびパターン認識会議で発表され、劇場での表情を確実かつ比較的簡単にリアルタイムで追跡する新しい方法を演示した。

認識には、factorized variational autoencoderと呼ばれるものを使う。数学的背景は説明しようとも思わないが、動きのある表情のように複雑なものの本質を抽出することに関して、従来の方法よりも優れている。

研究チームは映画(もちろんDisney作品)を見ている観衆を録画することで、大量の表情データを収集した。高解像度赤外線カメラで観客の動きと顔を撮影し、得られたデータ(約1600万個のデータポイント)をニューラルネットワークに送り込む。

システムの訓練が終わったら、映画を見ている観客をリアルタイムで追跡して、様々な時点で見せる表情を予測する。研究チームによると、システムが観衆に慣れるのに10分ほどかかり、その後は笑いや微笑みを確実に予測できるようになるという(泣き顔や恐怖はまだ追えていないようだ)。

もちろんこれは、この種のテクノロジーの応用例の1つにすぎない ―― 群衆の監視や、その他の複雑なデータをリアルタイムで解釈する場面にも適用できるだろう。

「人間の行動を理解することは、行動的社会的に優れた知識を持つAIシステムを開発する上で基礎をなす」と同大学のYisong Yueはニュースリリースで言った。「例えば、高齢者を見守り世話をするAIシステムを開発するには、ボディーランゲージのわずかな動きを捕らえる能力が必要だ。人間は不満足であったり問題を抱えていることを明示的に言うとは限らないのだから」。

[原文へ]

(翻訳:Nob Takahashi / facebook

Qualcommのモバイルチップ化したディープラーニングフレームワークが完全にオープン化

モバイルのチップメーカーQualcommは、あらゆる種類のデバイスの上でディープラーニングを利用するソフトウェアの開発ができるようにしたい。同社がそのSnapdragonシリーズのモバイルプロセッサー用にNeural Processing Engine(NPE)を作ったのも、そのためだ。そのNPEのソフトウェア開発キットを、誰もがQualcomm Developer Networkから入手できるようになった。これはそのSDKの最初の一般公開リリースで、スマートフォンや車載プラットホームなど、さまざまなデバイスの上で行うAIコンピューティングの、大きなそして多様な可能性を開くものだ。

このフレームワークの目的は、SnapchatやFacebookなどがモバイルのカメラアプリでやっているような画像のスタイル変換〔eg.“ゴッホふう”〕や各種のフィルタなどのUXの実装を簡単に可能にし、ユーザーの写真に対するもっと精度の高いアプリケーションを作れるようにすること。また、シーン検出や顔認識、オブジェクトの追跡や回避、自然言語処理といった各種のファンクションをディープラーニングのアルゴリズムによって高性能にすることも、目的に含まれる。要するに、これまでは強力なクラウドサーバーや先進的なプロセスにお願いしていたようなタスクを、デバイス上でローカルにできるようにしたいのだ。

NPEの初期的アクセスを獲得したデベロッパーの中にはFacebookもおり、同社はすでに画像やライブビデオ上のARの性能を、QualcommのSnapdragon SoC上のAdreno GPUを使って従来の5倍にすることに成功している。

NPEはTensorflowやCaffe2など一般的によく使われている一連のディープラーニングフレームワークをサポートし、Snapdragon 600/800シリーズのプロセッサープラットホームで使用できる。

今後ますます多くのテクノロジー企業がAIベースの計算機能をリモートサーバーからローカルなプラットホームへ移して、信頼性を高めるとともにネットワーク関連の面倒な要件から逃れようとするだろう。そうなるとこれはQualcommにとって巨大な財産になり、モバイルの次に優勢になるテクノロジーのトレンドが何であれ、それに乗り遅れるおそれはなくなるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIとコンピュータービジョンを使って農地の点検と分析を行うProsperaがシリーズBで$15Mを調達…農学の広範な学際化を目指す

テルアビブのProsperaは、コンピュータービジョンと人工知能を利用して農地の様子をチェックする。同社はこのほど、Qualcomm Venturesが率いるシリーズBのラウンドで1500万ドルを調達した。ほかにCisco Investments, ICV, 以前の投資家Bessemer Venture Partnersらがこのラウンドに参加した。これで同社の調達総額は2200万ドルになる(シリーズAは2016年7月に本誌が取り上げた)。

新たな資金は、グローバル市場への参加の拡大と、農家と接する現場担当者の増員に充てられる。農家が収入を上げるためには、“インドアからアウトドアへの移行が必要だ。アメリカの土地の40%は農地だから”、と協同ファウンダーでCEOのDaniel Koppelは語る。

シリーズAを獲得してから同社は、ヨーロッパ、メキシコ、アメリカなどに新しい顧客を開拓してきた。顧客の中には、流通大手のWalmart, Tesco, Sainbury’s, Aldiなどに産品を納めている農家もいる。

  1. prospera-image-7.jpg

  2. prospera-deck-image-after.jpg

  3. prospera-deck-image-before-copy.jpg

Koppelによると、同社の技術も、害虫や病害の自動検出から、“農業生産のあらゆる側面のチェック”へと進化してきた。それには、作物栽培学, 耕種学, 農地管理学などの専門的農業科学の分野が含まれ、また生産性を上げるための労働管理も無視できない分野だ。

今ではDJIAgribotixなどのドローン企業がアグテック分野に進出しているが、Prosperaの場合も、投資家のQualcommCiscoが、ドローンの利用を同社に導入しようとしている。

Koppelは、それらドローン屋さんたちをコンペティターとはみなさず、むしろ将来のパートナーと考えている。“ドローンは私たちの分析のための、価値ある新しいデータを提供してくれるだろう。データが一層充実すれば、われわれが顧客に提供できる価値も大きくなる”、と彼は語る。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調

MovidiusとIntelが79ドルの小さなUSBスティックに、ディープラーニングを収めた。これでハードウェアのAI化が、超簡単になる。

昨年の4月にMovidiusは、このデバイスの最初の試作機を披露した。当時の名前はFathom Neural Compute Stickだったが、結局発売まではこぎつけず、同社はその後、Intelに買収されることに忙殺された。

Movidiusの長年の目標は、このような画像を扱うディープラーニングを、同社のビジュアルプロセシングユニット(VPU) Myriad 2を使ってクラウドからエッジへ移すことだった。そのチップは、セキュリティカメラやドローン、ARヘッドセットなど、至るところで使われ、まわりのいろんなものを認識していた。

今回Movidius Neural Computer Stickと名前を改めた製品は、同社のそんなVPUをUSB 3.0のスティックに放り込んで、デベロッパーや研究者たちが、プロトタイピングやヴァリデーション、推論などのアプリケーションをオフラインでデプロイできるようにする。クラウド依存に比べると、レイテンシも電力消費も一挙に激減する。

これをRaspberry Piのような定置型(notモバイル)のコンピューターに接続すると、そのデバイスがプル&プレイのインテリジェンスを持つ。実はこのニュースは、Intelが自社のコンピュートモジュールEdison, Joule, Galileoから手を引いたと報じられてからちょうど1か月後に出てきたのだ。

買収されたことによってMovidiusの自由度が増し、ひとつのデバイスに複数のスティックをプラグインして強力なディープラーニング能力を持たせる、なんてこともできるようになった。製造環境も断然良くなったため、お値段もかつての99ドルから79ドルに下げることができた。量産も、完全にOKだ。

さっそく買ってみたい人は、RS ComponentsMouserへどうぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Apple、機械学習研究サイトを開設

Appleは機械学習に関する研究論文と同社の発見を共有するための専用ブログを開設した。Apple Machine Learning Journalと名付けられたそのサイトはまだガラガラで、ニューラルネットワークの訓練のために合成画像をリアル化することに関する記事が1件あるだけだ。

この動きは興味深い。なぜならAppleは自社の研究プロジェクトについて何も語らないのが普通だからだ。これまでにAppleはいくつか重要なオープンソースプロジェクトに貢献し、Safariを動かしているブラウザーエンジンであるWebKitや、Appleの最新プログラム言語でiOS、macOS、watchOSおよびtvOSに使われているSwiftなども開発している。しかし、人工知能プロジェクトに関する研究論文を掲載するブログは、Appleとしては新しい試みだ。

これはいくつかの理由で興味深い。第1に、この研究論文はすでにarXivで公開されている内容だ。今日のバージョンは同じものを少しやさしい言葉で書き直している。結果を図示するためのGIFも追加されている。

この論文によると、Appleは写真に写った顔などの物体を認識するためにニューラルネットワークを訓練する必要があった。しかし、そのために何億枚もの写真ライブラリーを作る代わりに、Appleはコンピューター生成画像を合成し、本物らしく見せるフィルターをかけた。こうしてニューラルネットワークの訓練を速く安価に行うことができた。

第2に、Appleはサイト開設の挨拶文で、フィードバックをメールするよう読者に呼びかけている。さらにページの下にはAppleの求職情報へのリンクが大きく表示されている。Appleがこの場を利用してこの分野の有望なエンジニアを探そうとしていることは明らかだ。

第3に、機械学習に関しては多くの人がAppleを批判し、GoogleやAmazonの方が進んでいると言っている。そしてAppleに動きがなかったのは事実だ。GoogleのアシスタントやAmazonのAlexaなどの消費者向け製品はAppleのSiriよりずっと優れている。

その一方でAppleは、端末上のフォトライブラリーの解析や、iPhone 7 Plusの深度効果、ARkitによる拡張現実への取組みなどでは大きな成果を見せている。Appleはこれまでの評価を一新しようとしている。

[原文へ]

(翻訳:Nob Takahashi / facebook

一般庶民の日常的法律問題を助けるDoNotPayの訴訟書式チャットボットがついに1000種を超えた

[画像: 駐車券問題の対応]

自作のチャットボットDoNotPayが駐車券争いで役に立ち、一躍話題になった19歳のJoshua Browderはそれ以来、できるだけ多くの、よくある法律的ニーズをできるかぎり自動化して、司法を民主化したいという彼のクェストに、さらに没頭を続けた。その結果Browderは、アメリカのすべての州とイギリスで、これから訴訟を起こす人びとの訴訟文書の作成を助ける、およそ1000種あまりのボットを作ってしまった。

最初のDoNotPayボットは、徐々に新しい機能を加えていくにつれて、何のためにどうやって使うのかわからない、と訴えるユーザーが増えてきた。そこで彼はその路線をやめて、個々の訴訟案件タイプごとのアシスタント機能をできるだけたくさん作り、フルサービスの消費者向け法律ツールとして出直すことにした。

今日ローンチした新しいDoNotPayは、庶民がぶつかるあらゆる法律問題…出産育児休暇を認めないブラック企業、家主地主の契約違反、などなど…で、誰でも訴訟用のトランザクションフォームを書ける。その1000以上あるボットは、自然言語で検索できるから、ユーザーが自分の問題を述べれば、DoNotPayが自動的に関連のアシスタントへ連れて行く。

Browderはこのツールを作るときに、関連書式や法律の地域(州〜国)ごとの違いが膨大で、しかもそれらに対応しなければならないと覚悟した。今のDoNotPayはユーザーの位置を自動的に確認して、その地域に合った適切な情報を提供する。

[世界初のボット弁護士が今や1000種の案件をさばく]
[お困りの問題はなんですか?]
[出産休暇を延長したいんです]
[それはたいへんですね.やり方をお教えしましょう]

ここまで大きくなれば、誰もがVCからの資金や、収益化について考えるだろう。でもBrowderはVCには目もくれず、自分の作品が無料であることにこだわる。彼は今Greylockの社員起業家だから、給料もアドバイスも会社からもらえるのだ。

今後は、結婚、離婚、倒産などもっと面倒な法律処理にも対応したい、と彼は考えている。IBMはDoNotPayに対し、Watsonの利用をタダにしてくれている。ユーザーが自然言語で検索できるために、Watsonが必要なのだ。そんな技術も自分で作りたいが、今のところ彼の関心はほかのところ…訴訟関連とユーザー対策…にある。

今Browderがとくに力を入れているのは、エンゲージメントの増大だ。今のユーザーは数か月に一回ぐらいのペースで利用しているが、利用頻度がもっと増えても平気で処理できるほどの能力を、システムに持たせたい。

それが達成できたら、収益化が視野に入るだろう。Browderは、今でも自分が何をやりたいのかはっきりしていない、というが、一応構想としてあるのは、一部のボットには企業をスポンサーにできる、ということだ。たとえば駐車券問題のボットには、自動車販売店がスポンサーになりたがるかもしれない。

DoNotPay(そんな金払うな!)の語源となった駐車券問題ボットでは、人びとの930万ドルを節約し、37万5000件の紛争を扱った。今や、社会を変えたといっても過言ではない。そのツールは、AIの必要性を人びとが自然に理解できる理想的なケーススタディだ。技術的に革命的なところは、何もなくってもね。

VCたちがIPに私権の鎧を着せて、独創的なアルゴリズムや機械学習の博士号を守ろうとするのは当然だが、でも結局のところは、世界に対するAIのインパクトの多くは、既存の技術をうまく利用する、彼のような熱心な自由人の発想から生まれるのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google Cloudの機械学習スタートアップコンペ、優勝3チームが決定

3月のCloud Nextカンファレンスで主催者のGoogleが、機械学習を利用するスタートアップのコンペを行うと発表した。共催者としてData CollectiveEmergence Capitalが名を連ねた。それから4か月経った今日(米国時間7/13)、350あまりの応募者の中から選ばれた10社が、Googleがサンフランシスコに設けたLaunchpad Spaceのステージで、決勝のプレゼンを競った。

決勝の賞は3つあり、Data CollectiveのDCVC賞とEmergence CapitalのEmergence賞、そしてGoogleのCloud Platformを使うスタートアップに授与されるBuilt with Google賞だ。なお、決勝出場者全員に、GCPのクレジット20万ドルが提供される。VC二社は彼らが選んだ優勝スタートアップにシード資金を提供することになっており、審査過程に最初から参加した。

このイベントは、マシンインテリジェンスのスタートアップと仲良くしておきたい、と願うGCPのマーケティングないしパブリシティの一環でもある。GoogleのクラウドはAmazonやMicrosoftに比べるとまだユーザーが少ないので、大量のデータを生成してそれらをどこかに保存しなければならないタイプのスタートアップたちと“お友だち”になることは、重要なマーケティング戦略のひとつだ。コンペに参加したファウンダーたちは、KubernetesとTensorFlowがGCPのセールスポイントだ、と指摘する。それを20万ドルぶん使えるクレジットも、悪くないよね。

それでは優勝チームを以下にご紹介しよう:

DCVC賞 – BrainSpec

BrainSpecのCEO Alex Zimmerman

50万ドルの投資

BrainSpecは医師がMRIのデータから脳の代謝産物を測定するためのプラットホームだ。代謝産物は細胞プロセスの化学的な結果で、脳の損傷やアルツハイマー病などの脳疾患を理解するための鍵、と言われている。

医師は従来、MRスペクトロスコピーと呼ばれる複雑なプロセスで組織の化学的分析を行い、脳神経疾患の指標を検出していた。BrainSpecは、Webのインタフェイスとクラウドベースの統計分析により、このテクニックを単純化する。

DCVCのパートナーMatt Ockoは同社への投資の理由として、BrainSpecが対象とする問題の市場のサイズが大きいことを挙げる。このスタートアップは、特定分野の強力な専門知識や技能をプロダクトに活かし、製品化と公的認可に向けての明確な道程を有している。

Emergence Capital賞 – LiftIgniter

LiftIgniterの協同ファウンダーAdam Spector

50万ドルの投資

TC Disrupt Battlefieldにも出場したLiftIgniterは、企業がユーザーに配布するコンテンツを個人化する。AmazonやSpotifyなどの大手は独自の高度なリコメンデーションシステムでユーザーの関心を喚起しているが、そのほかの多くの企業は、そこまで行っていない。

YouTubeの、機械学習によるリコメンデーションシステムを作ったことのある同社のチームは、そんなサービスをAPIで提供する。同社によると、その個人化リコメンはA/Bテストで負けたことがなく、180万のARRと22%の前月比成長率を達成している。

このチームはBuilt with Google賞で二位になったので、GCPのクレジットを50万ドル獲得している。

Built with Google賞 – PicnicHealth

PicnicHealthのCEO Noga Leviner

100万ドルのGCPクレジット

PicnicHealthは、同社の集中管理型デジタル医療記録システムに機械学習を適用して、製薬企業や研究集団向けに分析データを提供する。

データの取り出しはそれにより自動化されるが、その匿名記録に人間ナースのチームが注釈をつけていく。この種の分析データは、とくに製薬企業が重視するので、同社は有料ユーザーの中心層と考えている。

患者はこのプラットホームの消費者ユーザーとして、自分のデータをコントロールでき、また自分のケアプロバイダーを入力する。それから先は、記録の収集、分析、リリースをPicnicが自動的に行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBM Watsonはウォール街の今の基準から見ると不評、Jefferiesが酷評レポートを発表

IBMのWatsonが今日、グローバルな証券大手JefferiesのJames Kisnerから、手厳しい批判を頂戴した。同グループは、WatsonへのIBMの投資が株主たちへのリターンを阻害している、と信じている。近年IBMは、重要な成長部門のひとつとしてWatsonをますます重視していた。それがまるで、IBMの未来を投射する影絵人形であるかのように。

かつて、IBMの競争上の優位性は、Fortune 500社との長年にわたる関係にあった。そんな中でWatsonは、一種のコンサルタントとして利用され、同社が企業との高額な契約を結ぶときには、それらの具体的なビジネスケースのためにWatsonのテクノロジーを実装してきた。しかし残念ながらIBMは、クライアントのニーズと、同社自身の技術力とのあいだのギャップを填めることに、今でも苦労している。

Jefferiesは、WatsonをスケールするというIBMのより広範な問題のケーススタディとして、IBM Watsonと大規模がんセンターMD Andersonとのパートナーシップの監査を取り上げている。MD AndersonはWatsonのプロジェクトに6000万ドルを浪費した挙句にIBMとの縁を切り、“人への治験や臨床的利用にはまだ適していない”、と断じた。

MD Andersonの悪夢は特例ではない。AI系のスタートアップのファウンダーの多くが、顧客である金融サービスやバイオテック企業がIBMと同様の経験をしている、と語っている。

しかしそれは特定の不具合に関する話ではなくむしろ、誇大なマーケティングや、ディープラーニングとGPUの稼働の欠陥、そしてデータ準備の要求が厳しすぎることを指している。

JefferiesがMonster.comのデータを使って集めた求人案件

求人の状況を見てみると(上図)、人工知能/機械学習/ディープラーニング関連でIBMは他のテクノロジー企業と肩を並べていない。ディープラーニングにいたっては、IBMの求人はAppleやAmazonに比べて死んだも同然だ。この図にGoogleやMicrosoft、Facebookなどを加えたら、IBMはもっと悲惨に見えるだろう。

Jefferiesのレポートが提供している情報は、新しくもなく、驚天動地でもないが、IBM Watsonが今抱えている問題をウォール街が気にし始めたことの、明らかな兆候だ。IBMの決算報告はいつも熱心に見ている方だが、しかし市場は短期的な成長を重視しすぎて、長期的な技術および戦略の持続可能性に目が行ってない。

お金を出し渋ることが仕事の一部であるCTOや、最新流行の役職であるCDO(chief data officer)たちに売る、という不毛なAI市場でIBMが槍玉に上がるのは十分に理解できるが、しかしAIは、大量の非定型データを吸い込んでインサイトを吐き出す、摩訶不思議なブラックホールではない。堅実なデータパイプラインと、AIに対する自己の業務レベルでの正しい理解が、利用者の最低限の必要条件だ。

今日のAIファーストの世界では、初期の成功がもたらした惰性は何の役にも立たない。今や機械学習のプラットホームなんか一山(ひとやま)なんぼで買えるし、GoogleやAmazonのような巨大テクノロジー企業が、そのためのクラウドのエコシステムに数十億ドルを投じている時代なのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マイクロソフト、AI研究所を創設してGoogleとDeepMindに挑戦

本日(米国時間7/12)Microsoftは、汎用人工知能技術の開発に重点を置く新しい研究所を設立したと発表した。場所はMicrosoftのレドモンド本社内で、科学者100名以上からなるチームが、自然言語処理から機械学習、知覚システムまで様々な分野のAIを研究する。

単一の作業に特化することなく様々な分野の問題に効率よく取り組むことのできる汎用AIを作ることは、多くの先端企業が目指しているゴールだ。例えばGoogleは、自社のGoogle Brainプロジェクトおよび2014年に買収したDeepMindの成果を利用して、汎用性の高いAIを開発しようとしている。DeepMindは現在Googleの親会社でもあるAlphabetの子会社になっている。

Microsoftの新たな挑戦はMicrosoft Research AIと呼ばれ、社内のAI専門家に加えて、認知心理学など関連分野の専門家を積極的に採用してチームを強化していく、とBloombergは書いている。新研究所はMITのCenter for Brains, Minds and Machines[脳・知性・機械センター]とも正式に提携する。産学協同による研究はAI開発分野では珍しくない ―― Microsoft、Google、およびUberを始めとする各社は学術組織に協力を約束することで関連する学問を専門にする学生を採用候補として確保している。

研究所の設立に加え、Microsoftは会社全体の監督機関として、AI倫理監視委員会を設置する。これもまた業界のトレンドを追うものだ。Microsoftは、DeepMind、Amazon、Google、Facebook、およびIBMと倫理的AI開発のための会社間契約を結んでおり、GoogleとDeepMindにも独自のAI倫理委員会がある

[原文へ]

(翻訳:Nob Takahashi / facebook

Toyotaが別会社としてVCを立ち上げ、AIスタートアップの育成をねらう

今やToyotaは、AIのためのVCファンドを立ち上げた最新のFortune 500社だ。初期のファンドの総額は1億ドルで、VC稼業はToyota Research Instituteの子会社という形になる。この自動車メーカーは自らの戦略的位置づけを、企業戦略としての戦略的投資を行うファンドではなく純粋にROI指向としており、つまりふつうのVCとして営利を追うよ、という意味だ。

ファンドのマネージングディレクターはJim Adler、彼はToyota ResearchのVPだったが、プロダクトを担当した経歴がある。AdlerをトップとするToyota AI Venturesは、すでに3つの投資をしている:

Nauto — 自動運転技術

SLAMcore — ヴィジュアルトラッキングとマッピングのアルゴリズム

Intuition Robotics — 高齢者のお相手をするコンパニオンロボット

彼らが主張するVCとしての優位性は、経営に関する実戦的なアドバイスもできる、という点。そしてもちろん、Toyota Research InstituteがAIに関する本格的なアシストをするから、スタートアップのコア技術を磨ける。

ぼくがこれまで会った業界上位のファウンダーたちの多くは、資金調達に何も問題はないから、コーポレートベンチャーはなるべく避けたい、と言う。コーポレートベンチャーは、戦略的投資家ではなくてROI追求型だと約束しても、なんとなく眉唾感がある。とりわけ、流動的なシード段階では、小さなIPや戦略的リスクをめぐってすら、コーポレートの関与には不安がある。

Adlerはしかし反論する: “この種の議論に関してはスタートアップに主導権を持たせる。これらの投資からIPを取り出すためにVCをやるのではない”。

Toyotaは、上記不安感不信感の源泉となる利益相反を避けるために、ファンドを自己のバランスシートに載せずに、独立の企業にする。独立のVC企業として、主にシード段階とシリーズAをねらう気だ。

大企業のベンチャー部門を効果的に経営するのは難しいし、しかもAIスタートアップが対象となると、さらに難しい。資本が満ち足りたAIスタートアップのエコシステムが必要とするのは、データであり、本格的な企業顧客であり、そしてプロダクトに関する経験と専門知識を持つアドバイザーだ。企業のベンチャー部門、という形のVCは全世界で4兆あると言われるが、誰もそのことを真剣に考えない。成功を夢見るToyotaは、今から自分がどんな世界に飛び込んでいくのか、よく知っているはずだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))