役に立つAIシステムを作ることは、まだまだ難しい

【編集部注】著者のMartin WelkerはAxonicの最高経営責任者である。

TensorFlowやOpenAIのようなAIフレームワークのサポートがあったとしてもなお、人工知能は依然として、大勢のWeb開発者たちが必要とするものよりも、深い知識と理解を必要とする。もし動作するプロトタイプを作ったことがあるのなら、あなたはおそらく周囲では最もスマートな人物だ。おめでとう、あなたは非常に独占的なクラブのメンバーということだ。

Kaggleに参加すれば、実世界のプロジェクトを解決することで、それに相応しい報酬を得ることさえできる。全体的にみれば価値のある立場ではあるが、ビジネスを立ち上げるのには十分だろうか?結局、市場の仕組みを変えることはできない。ビジネスの観点から見れば、AIは既存の問題に対する、もうひとつの実装に過ぎない。顧客が気にするのは実装ではなく結果だ。つまり、AIを使ったからといって万事解決というわけにはいかないのだ。ハネムーンが終わったら、実際の価値を生み出さなければならない。長期的に見れば、大切なのは顧客だけだ。

そして顧客はAIについては気にしないかもしれないが、VCたちは気にしている。プレスもそうだ。それも大いに。その関心の違いは、スタートアップたちにとって、危険な現実歪曲空間を生み出す可能性がある。しかし、間違ってはならない。普遍的な多目的AIを作成したのではない限り、濡れ手に粟というわけにはいかないのだ。たとえあなたがVCのお気に入りであったとしても、顧客のための最後の1マイルはきちんと歩ききる必要がある。ということで運転席に座り、将来のシナリオに備えるために、どのような準備ができるのかを見てみることにしよう。

主流AI列車

AIは、ブロックチェーン、IoT、フィンテックといった、他のメジャートレンドとは異なるもののように見える。もちろん、その未来は極めて予測不可能だが、そのことは、どのような技術にもほぼ当てはまることである。AIの持つ違いとは、単に様々なビジネスだけでなく、人間としての私たちの価値が危険に晒されているように見える点だ。意思決定者であり創造者でもある私たちの価値が、再考を迫られているのだ。そのことが、感情的な反応を呼び起こしている。私たちは自分自身を位置付ける方法を知らない。

非常に限られた数の基本的な技術があり、そのほとんどが「深層学習」という用語の傘の下に分類されるものである。それがほぼ全てのアプリケーションの基礎を形作っている。例えば畳み込みおよびリカレントニューラルネットワーク、LSTM、オートエンコーダー、ランダムフォレスト、グラジエントブースティングなどだ。

AIは他にも多くのアプローチを提供しているものの、上に挙げたコアメカニズムたちは、近年圧倒的な成功を示してきた。大部分の研究者は、AIの進歩は(根本的に異なるアプローチからではなく)これらの技術を改善することで行われると考えている。ということで、以下これらの技術を「主流AI研究」と呼ぶことにしよう。

現実的なソリューションはいずれも、これらのコアアルゴリズムと、データを準備し処理する非AI部分(例えばデータ準備、フィーチャエンジニアリング、ワールドモデリングなど)とで構成されている。一般的にAI部分の改善により、非AI部分の必要性が減少する傾向がある。それはAIの本質に根ざしていて、ほとんどその定義と呼んでも良いようなものだ――すなわち個別の問題に対する取り組みを時代遅れなものにしていくのだ。しかし、この非AI部分こそが、多くの場合、AI駆動型企業の価値なのだ。そこが秘密のソースというわけだ。

AIにおけるすべての改善は、この競争上の優位性をオープンソースの形にして、誰にでも利用可能なものにしてしまう可能性がある。その結果は悲惨なものとなるだろう。Frederick Jelinekはかつて「言語学者をクビにする度に、音声認識装置のパフォーマンスが上がります」と語った。

機械学習がもたらしたものは、基本的には冗長性の削減なのだ。すなわちコードのデータ化である。ほぼすべてのモデルベース、確率ベース、およびルールベースの認識技術は、2010年代の深層学習アルゴリズムによって洗い流されてしまった。

ドメインの専門知識、フィーチャモデリング、そして数十万行のコードが、今やわずか数百行のスクリプト(と十分な量のデータ)によって打ち負かされてしまうのだ。前述のように、主流AI列車の経路上にある独占コードは、もはや防御のための資産とはならないことを意味する。

重要な貢献は非常に稀である。真のブレークスルーや新しい開発のみならず、基本コンポーネントの新しい組み合わせ方法でさえ、行うことができるのは非常に限られた数の研究者たちだけだ。この内側のサークルは、あなたが想像するよりも遥かに小さなものなのだ(そこに属するのは100人以下の開発者たちだ)。

何故そうなのか?おそらくその理由は、コアアルゴリズムであるバックプロパゲーションに根ざしている。ほぼすべてのニューラルネットワークは、この方法によって訓練されている。最も単純な形式のバックプロパゲーションは、大学1年の最初の学期でも定式化できる程度のものだ――洗練とは程遠い(とは言え小学校レベルということはない)。こうしたシンプルさにもかかわらず(あるいは、まさにその理由によって)その50年以上にわたる興味深くきらびやかな歴史の中で、ほんの僅かな人たちだけが幕の裏側をのぞきこみ、その主要なアーキテクチャに対して問いかけを行ったのだ。

もしバックプロパゲーションの意味合いが、早い時期から今日のように理解されていたなら、(計算能力は別にして)私たちは現在既に10年先を進んでいたことだろう。

70年代の簡素な原始ニューラルネットワークから、リカレントネットワークへ、そして現在のLSTMへと進んできたステップは、AI世界に起きた大変動だった。にもかかわらず、それはわずか数十行のコードしか必要としないのだ!何世代にも渡って学生たちや研究者たちが、その数学に取り組んで、勾配降下を計算し、その正しさを証明してきた。しかし最終的には、彼らの大部分は納得して「最適化の一方式だ」と言って作業を進めたのだ。分析的理解だけでは不十分なのだ。差をつけるためには「発明者の直感」が必要だ。

研究のトップに立てることは極めて稀(まれ)であるため、全企業の99.9%が座ることができるのは助手席に過ぎない。コア技術は、オープンソースのツールセットとフレームワークとして、業界の主要プレイヤーたちから提供されている。最新のレベルを追い続けるためには、独自の手法は時間とともに消滅していく。その意味で、AI企業の圧倒的多数は、これらのコア製品と技術の消費者なのだ。

私たちはどこに向かっているのか?

AI(および必要なデータ)は、電気、石炭、金などの多くのものと比較されて来た。技術界が、いかにパターンや傾向を探し出そうと躍起になっているかがわかる現象だ。なぜならこの知識が、自分たちのビジネスを守るために必要不可欠だからだ。さもなくば、この先の投資が、ひとつの単純な事実の前に無駄になってしまうだろう。その事実とは、もし主流AI列車の経路上にビジネスを築いてしまったら、未来は暗いという事実だ。

既にビジネスに向かって猛烈に突き進んでいるエンジンがある中で、考慮すべき重要なシナリオがいくつか存在している。

第1のシナリオは、主流AI研究列車は急速に減速する、あるいは既に停止したというものだ。これは、これ以上アプローチできる問題クラスが存在しないことを意味する。つまり、私たちは列車を降りて、顧客のために「ラストマイル」を歩かなければならないということを意味するのだ。これは、スタートアップたちにとって大きなチャンスとなる。なぜなら持続可能なビジネスを創出するチャンスを秘めた、独自技術を構築する機会が与えられるからだ。

第2のシナリオは、主流列車が現在の速度で進み続けるというものだ。その場合には、避けることも、列車を降りることも一層困難になる。個別のアプローチに対するドメイン知識は、大企業による「オープンソース化」によって急速に危機に晒されることになる。過去のすべての努力には価値がなくなるかもしれないからだ。現在、AlphaGoのようなシステムは、オープンソースのフレームワークが提供する標準(バニラ)機能とは別に、非常に高い割合の独自技術が必要とされている。しかし近いうちに同じ機能を備えた基本的なスクリプトを見ることになったとしても、私は驚きはしないだろう。しかし「予測もつかない未知のできごと」(unknown unknown)は、次のステージで解決できるような問題クラスだ。オートエンコーダーとアテンションベースのシステムは、そのための有望な候補だ。

主流AI研究列車は急速に減速する、あるいは既に停止した。

次のシナリオは、列車はさらに加速するというものだ。そして遂には「シンギュラリティは間近」ということになる。そのことについての本が何冊も書かれている。それについて異を唱えている億万長者たちもいるし、私もその件に関しては別の記事を書くつもりだ。ここでの究極の成果は、汎用人工知能だ。もしこれを達成できれば、すべての賭けは終了となる。

そして最後に、ブラックスワン(予想もつかなかったことが起きる)シナリオがある。誰かがガレージで、現在の主流とは全く似ていない次世代のアルゴリズムを発見するというものだ。もしこの孤独なライダーが、それを自分自身のために使うことができなら、私たちは史上初の自力1兆ドル長者(trillionaire)を目撃することになるだろう。しかし、これはどこから来るのだろうか?私はこれが何もないところから突然出てくるとは思っていない。それは、主流技術と放棄されたモデルベースのアルゴリズムとの組み合わせになるかもしれない。2010年代には、ニューラルネットが発展し、研究の基礎の一部が失われていた、かつて有望だったアプローチ(シンボリックアプローチなど)にも目が向けられた。現在のAIで行われている活動も、その他の関連した研究フィールドを復活させている。いまや研究者で溢れていないような、「あまり知られていない」技法やアルゴリズムを発見することは難しくなりつつある。それにもかかわらず、ゲームを変えるアプローチを見つけたり、復活させたりする外部者が登場する可能性は捨てきれない。

勝者は誰か?

以上をまとめて、この極めて難しい質問を行うことにしよう。これに対する答は、上記のシナリオだけでなく、あなたが何者であるかに依存する。リソースと既存の資産が戦略の鍵であるために、ビジネスの出発点がこの方程式では重要な要素である。

AIチャンピオンズリーグでは、十分な資金力を持ち、重要な才能を引き付けることができる企業の数は少ない。これはどちらかと言えば現在はコストがかかるプロセスなので、収益源は他に求めなければならない。こうしたことから、プレイヤーはよく知られたGoogle、Facebook、Microsoft、IBMたちに限定されることになる。彼らは現行のオープンソーススタックとは異なる、巨大な独自システムを構築し、新しいクラスの問題に取り組んでいる。ある程度の時間が経過したら、活力のあるコミュニティを構築するために、彼らはこれを次世代のオープンソースフレームワークに組み込むだろう。

こうしたプレイヤーたちは、より良いアルゴリズムを訓練するのに適した、既存のプラットフォームも所有している。AIはメガトレンドかも知れないが、企業のためのそして企業による、日々のビジネスへの適用も、彼らの成功のためには重要である。こうしたプラットフォーム:Amazon、Facebook、Google Apps、Netflix、さらにはQuoraさえもが、AIを利用してそのコアビジネスモデルを守り強化している。彼らはAIによって顧客により良いサービスを提供する方法を発見しているが、その一方、自身のコアビジネスを、人工知能を用いてやっていることとは別のものとしている(少なくとも表向きは)。

一方、一部の新興プラットフォームは、彼ら自身のツールセットに、AIを組み込む方法を見出している。こうした企業たちは、なによりもまずAIがビジネスを可能にしてくれた、そして収益化を可能にしてくれたと主張している。こうしたビジネス例の1つが、文法チェッカーのGrammarlyである。

一見したところでは、既存のベンダーでも自分で簡単に開発できる、気の利いたアドオンのように思えるだろう。しかし、内容はもっと複雑だ。彼らはここで2つの資産を構築している。さらなる品質向上のためのコミュニティ生成データセット、そしてより持続可能な、広告パートナーのための驚くほどパーソナライズされたマーケットプレイスだ。

そしてツールメーカーたちもいる。Mark Twainが語ったように、金を掘るのは他人に任せて、その横でシャベルを売るのだ。そのやり方はかつてうまくいったが、おそらく今回もうまくいくだろう。データの提供、コンテストの開催、人材の交流、人びとの教育。企画のためには、すべてのAIの志望者が必要とする(または望む)ものを見つけ出せばよい。そしてそれで稼ぐのだ。

UdemyはAIコースを教え、Kaggleは企業を支援しデータサイエンティストたちにスキルを習得させるための、AIコンテストを創始した。AIのコアコンピテンシーを構築する必要もない、企業たちは成功するためにペタバイト規模のデータを必要としているからだ。そして彼らのほとんどは教師あり学習を採用しているので、それを監督する人間も必要なのだ。

そしてAIコンサルティングというニッチな領域を見つけた企業もある。巨人の提供するオープンソースフレームワークの肩の上でさえも、やるべきことがまだたくさん残っているのだ。

Element AIのような企業は、そうした追加のAI関連の仕事を行う部品を、プロダクトやサービスに組み込むことを可能にした。確かに、最近行われた1億200万ドルの調達によって、彼らは成功のために必要な十分な資金を得ることができた。

出番を待っているその他の企業たちもある。人工知能ソリューションを持ち、既存のビジネスプロセスを置き換えようとしている企業たちだ。しかし、こうした企業たちは、2つの点で課題に直面している。1つは同じ問題を解決するための、オープンソースプロジェクトを開発することが可能であること、そしてもう1つは、既存のベンダーが同じ問題を解決するために、より自動化されたソリューションに対して多額の投資を行っていることだ。

業界で最も重要な要素は、非常に少数の研究者グループの中で起こっている、主流AI研究のスピードだ。彼らの研究成果は、ほとんど遅れることなく、AIチャンピオンプレイヤーたちによって開発されているフレームワークの中に取り込まれる。その他大勢の私たちは、人工知能列車の乗客か、もしくはその経路上にある障害物だ。結局のところポジショニングが全てである。自分たちの位置付けを上記のコンテキストを考慮して決定する企業は、のぞむ目的地に辿り着ける可能性があるだろう

[原文へ]
(翻訳:sako)

FEATURED IMAGE: MF3D/ISTOCK

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。