SaaSプロバイダのServiceNowが会話型AIスタートアップのPassage AIを買収

ServiceNowは米国時間1月28日、顧客の複数言語によるチャットボット構築を支援するスタートアップ、Passage AIの買収を発表した。これは、ServiceNowによるデジタルサービスプラットフォームの刷新の継続に役立つはずだ。なお、両社は買収条件を明らかにしていない。

ServiceNowのチャットボットソリューションは、顧客やユーザーからの問い合わせに自動的に対応する手段を提供する。今回のPassage AI買収により、ServiceNowはAI(人工知能)関連の人材とAI技術も手に入れた。

ServiceNowにとってさらに興味深いのは、Passage AIが「チケットを送信したり、クエリを処理したり、APIを通じて直接アクションをおこなったりするための会話型インターフェース」 のための、IT自動化コンポーネントを所有していることだ。また、人事管理の自動化機能も追加され「ServiceNow Virtual Agent」や「Service Portal」、複数言語の 「Workspaces」 などのツールに「Now Platform」 を横断して組み込める、インテリジェントなツールが提供される。

多言語のサポートは魅力的な契約の1つだったと、ServiceNowのAIエンジニアリング担当シニアディレクターであるDebu Chatterjee(デブ・チャタジー)氏は考えている。チャタジー氏は声明で、「ディープラーニング、会話型AI機能をNow Platformに組み込むことで、ドイツ語による仕事の依頼や、日本語による顧客の質問をバーチャルエージェントが解決できるようになる」と述べた。

現在、チャットボットによる顧客の一般的な問題の解決を模索している企業が増えている。そしてボットが質問に答えられない場合にのみ、人間が介入することになる。Passage AIはこの成長分野でServiceNowに貢献する。

Crunchbaseのデータによると、2016年にローンチされたPassage AIは、これまでに1030万ドル(約11億円)を調達している。同社のウェブサイトにはMasterCard(マスターカード)、Shell(シェル)、Mercedes Benz(メルセデス・ベンツ)、ソフトバンクなどの大手顧客が掲載されている。また今回の買収は、AIに特化した別のスタートアップであるLoom Systemsを買収してから、1週間も経たないうちに行われた。同社は業務データの自動化に注力している。

今回の買収手続きは今四半期中(1月〜3月)に完了する見込みだ。また、ServiceNowは1月29日の水曜日午後に決算を発表する。

[原文へ]

(翻訳:塚本直樹 Twitter

AIが営業トークを自動解析し“売れるトーク”との違いを提示、コグニティが1.9億円を調達

録音データを基に営業トークを解析し、個々に対して改善案を提示する「UpSighter」開発元のコグニティは1月15日、XTech Venturesとディップを引受先とする第三者割当増資により総額1.9億円を調達したことを明らかにした。

コグニティは代表取締役の河野理愛氏がソニーやディー・エヌ・エーを経て2013年に立ち上げたスタートアップ。2017年にグローバル・ブレインなどから約1.5億円を調達するなど過去にも複数回の資金調達を実施済みで、シリーズBとなる本ラウンドを含めると累計調達額は5億円となる。

同社が展開するUpSighterはテクノロジーを活用して、組織の営業力の底上げを手助けするサービスだ。

営業成績の良いメンバーのセールストークを録音・アップロードすることで“お手本となるトークのパターン”を検出。そのトークパターンを使って現場に合ったアルゴリズムを開発し、各メンバーの録音データと照らし合わせることで、お手本との差分や具体的な改善点を示した「自動フィードバックレポート」が一人ひとりに対して提供される仕組みだ。

解析結果の例

レポートでは営業トークの中で実際に「どのような情報が、どのくらいの割合で話されているか」を可視化。たとえば話の起点となる意見や提案、数値などの客観的根拠説明、事例の表現、具体的な説明など、それぞれの項目ごとにお手本や平均との違いをグラフにする。

その上で課題となる部分を掘り下げたり、良いトークへと変えるために必要な言い回しなどを提示。今後やるべきこととして具体的なフィードバックを提供してくれる点が特徴だ。

これまで営業スタッフの研修・教育においては“経験値”に頼るケースが多く、指導が属人化しがちであるとともにそれぞれの違いなどを明確に示すことが難しかった。河野氏によると「UpSighterを使うと数値でエビデンスを残しながら指導を受ける・指導されることが可能になる」ため口頭指導よりも納得感が高く、導入企業からは新人の営業成績の改善が早いといった評価や、成績の伸び悩むシニア従業員への指導が楽になったとの評価を受けているという。

企業の視点では営業部門の業績向上や底上げが見込めるほか、エース人材が教育に使う時間を削減することもできる。新人に向けた指導結果として、電話でのアポイントメント獲得率が64%から78%に上昇するなどの成果にも繋がっているそうだ。

特に「顧客のニーズを引き出すようなトークを必要とする顧客単価の高い金融や製薬、不動産業界の利用が多い」(河野氏)とのことで、これまでパーソルテンプスタッフやフォーバルなど上場企業を中心に120社以上に導入。UpSighterについてはOEM提供も行なっていて、すでにコンサルティングやソリューション企業など5社がOEMによる商品化に至っている。

また昨年12月には主に地銀などを対象とした金融業界向けサービスや、個人利用も可能なプレゼン解析サービスをローンチするなどUpSighterシリーズのラインナップを拡充。UpSighter自体は解析数などに応じた従量課金制で展開しているが、新サービスでは実験的に初期費用なしの月額制(SaaSモデル)での提供も始めた。

スティーブ・ジョブズや国内ビジコン優勝者のプレゼンと比較できる「UpSighter for プレゼン!」

少しだけコグニティの技術について補足しておくと、同社では「CogStructure(コグストラクチャー)」という独自開発した情報分類フレームワークを保有していて、これによってコミュニケーションを解析している。

CogStructureは人工知能研究分野における「Knowledge Representation(知識表現)」と呼ばれる領域に属し、人の思考パターンや構成を記述可能にして、推論しやすくする技術アプローチなのだそう。コグニティでは英国認知言語学者の50年前の論文をベースとして、日米両言語におけるインターネット上の様々な文書や動画の構成を記述・変換する実験から始め、独自のルールへと拡張進化させてきた。

創業から7年間かけてCogStructure変換されたデータは1万5000データ(トークや文書)以上。このデータがあるため各企業の初期検証に必要なデータ数が少なくすむほか、磨き上げたフレームワークによって固有名詞や言語差に影響されることなく構成要素を比較でき、業界やシーンが違うコミュニケーションも対象にできるという。

CogStructure変換を始めとするデータ解析のプロセスでは人の作業によるアノテーション(タグ付け)と機械学習を組み合わせて実施。アノテーションの工程では個人差を取り除くべく複雑な業務も単純な作業へ分割し、日本の工場生産方式を取り入れながら精度を担保してきた。またこの作業を国内外含む100名以上のメンバーが各地から完全リモートワークで行なっているのも面白い点だ。

今後コグニティでは大企業だけでなく中小企業や部署単位での利用など、顧客の視野をさらに広げるべくUpSighterシリーズの拡販・新サービスの開発に力を入れる計画。合わせて自動判別のためのR&Dや、IPOも視野に入れセキュリティ面を含めた会社整備を加速させる。

UpSighterは1on1 Meeting、採用面談、昇進試験など「人事領域」での利用も増えているようで、今後もこれまで蓄積したデータを軸に各事業領域のパートナー企業との協業も含め、マーケットニーズに合わせたサービスを展開していきたいという。

コグニティ代表取締役の河野理愛氏と投資家陣。前列中央が河野氏

テック業界を支配するスマホの「次」に何が起こっているのか?

テクノロジー業界において、この10年はスマートフォンの時代だった。2009年時点では、Symbian OSがまだ支配的な「スマートフォン」のOSだったが、2010年にはiPhone 4、Samsung Galaxy S、Nexus Oneが発売され、現在、AndroidとiOSがアクティブなデバイス数で合計40億台を誇る。スマートフォンとアプリは、もはや破壊的な新しいプラットフォームではなく成熟した市場だ。次は何がくるのだろうか。

その問いは、次に必ず何かがくることが自然の法則であることを前提としている。この前提が正しそうに見える理由は簡単だ。過去30年以上にわたり、それぞれの分野が重なっている、世界を変える3つの大きなテクノロジープラットフォームへのシフトを我々は経験してきた。3つの分野とはコンピューター、インターネット、スマートフォンのこと。いずれ4つめが地平線のかなたに現れることは避けられないように思える。

AR/VR、ブロックチェーン、チャットボット、IoT、ドローン、自動運転車(自動運転車はプラットフォームだ。まったく新しい周辺産業が爆発的に生まれる)と、過去数年間、次の候補に事欠くはなかった。しかし、いずれも楽観的な予測をはるかに下回っていることに気づくだろう。何が起こっているのだろうか。

PC、インターネット、スマートフォンの成長の勢いが、これまで揺らいだりつまづくようなことはなかったように思える。ここに、インターネットのユーザー数の推移がある。1995年の1600万人から1998年には1億4700万人に増えた。2009年以降のスマートフォンの販売推移はこのとおりだ。Androidはわずか3年で100万台未満から8000万台以上になった。これが、主要なプラットフォームへのシフトだ。

PC、インターネット、スマートフォンの成長をAR/VR、ブロックチェーンといった候補のそれを比べてみよう。不公平な比較だとは思わない。それぞれの分野が「大きな何か」になると主張する事情通がいる。もっと手堅い予測をする人々でさえ、ピークの水準は小さいかもしれないが、少なくともスマートフォンやインターネットと同じ成長の軌道を描くといういう。だが実際のところ、どうだろうか。

AR / VR:2015年にさかのぼるが、筆者は非常に有名なVCと話をした。そのVCは自信満々に、2020年までに最低でも年間1000万台のデバイスが出回ると予想した。実際どうなったか。2017年から2019年までにかけて370万台、470万台、600万台と推移し、Oculusは再編中だ。年間27%の成長率は確かに悪くない。だが「一貫して27%」という成長率は、次の大きな何かになると主張するには、少し心配になるといったどころではない。「3年で10倍」からはさらに遠い。2020年までにMagic Leapが深刻な状況になると予想した人はほとんどいなかった。やれやれ。他のAR / VRスタートアップは「残念な」状況だというのが最も的確な説明だ。

ブロックチェーン:ビットコインは正常に機能していて、2010年代にテクノロジーに起こった最も奇妙で興味深いことだと思う。しかし残りのブロックチェーンはどうだろうか。筆者は広い意味で仮想通貨の信奉者だ。だが、2017年半ばに仮想通貨の敬虔な信者に対して、2019年末までに企業向けブロックチェーンが実質的に死んでしまうとか、分散型アプリケーションの使用が依然として数千台に留まっているとか、スモールビジネスへの担保付き貸し付け以外に本当の新しい利用事例は発生しなかったなどと言おうものなら、彼らを怒らせることになったはずだ。そして、まだその段階にとどまっている。

チャットボット:真面目な話、チャットボットはついこの間まで未来のプラットフォームとしてもてはやされていた(Alexaは、端的に言うとチャットボットではない)。「世界は書き直されようとしており、ボットは将来大きな存在になる」。これは実際の発言からの引用だ。Facebook Mは未来のものだったが、もはや存在しない。マイクロソフトのTayも未来のものだったが、もはや存在しない。Zoに取って代わられた。ご存知でしたか。筆者は知らなかった。そして今やそのZoも存在しない。

IoT:最近の記事のタイトルをいくつか見てみたい。「なぜIoTが一貫して予測を下回っているのか」「IoTは死んだのか」「IoT:昨日の予測と今日の現実」。ネタバラしをすると、最後のタイトルは、現実が予測を超えて成長したことについての記事ではない。むしろ「現実は予想を超えてバラ色ではないことが判明した」といったものだ。

ドローン:現在、ドローンの領域では本当にクールなことがたくさん起こっている。筆者は何でも最初に試したい人間だ。しかし、ドローンによる物理的な荷物配送ネットワークを形成の実現には程遠い。Amazonは2015年にPrime Airの計画をもったいぶってチラ見せし、2016年最初のドローンによる配送を開発した。世の中はすばらしい出来事が起こることを期待していた。そしてまだすばらしい出来事を期待しているが、少し期待しすぎている部分はあると思う。

自動運転車:我々にはもっと多くのことが約束されていた。Elon Musk(イーロン・マスク)氏の誇張についてだけ言っているのではない。2016年からこういうタイトルの記事が出始めた。「2020年までに1000万台の自動運転車が路上に」「5年後に真の自動運転車が登場、フォードが発表」。一応、Waymoの好意で、フェニックスでクローズドパイロットプロジェクトが実施されているが、それはフォードが話していたものではない。フォードは「ハンドル、ブレーキ、アクセルペダルがない自動運転フォード車が、5年以内に大量生産される予定だ」と言っていた。それは、今から18カ月後のことになる。「1000万台」の予測に至っては12カ月しかない。筆者が多少の懐疑論を展開しても許してもらえると思う。

もちろん、これらは成功していないようだということを意味しているのではない。AirPods、Apple Watch、Amazon Echoファミリーなど、多くの新製品がヒットした。ただし、これら3つはすべて、新しいプラットフォームというよりも新しいインターフェイスだ。ゴールドラッシュなどではなく、1つの銀の鉱脈にすぎない。

機械学習やAIをリストから外したことに気づいているかもしれない。実際には定性的な飛躍が確かにあったが、a) 急成長が続くというよりは、Sカーブの平坦部分に突入してしまったという一般的な懸念がある  b)いずれにしろ、AIはプラットフォームではない。さらに、ドローンと自動運転車はいずれも汎用自動化という名の壁に直面している。つまりAIの壁だ。AIは多くの驚くべきことが行えるが、2020年に1000万台の自動運転車が走る、というかつての予想は、AIがあれば自動運転は十分に可能だと予測したことを意味しているが、実際のところ予想よりもずっと遅れている。

いずれのテクノロジーも、次の10年を決定づける存在になり得る。ただし、考慮しておくべきもう1つの点として、いずれもそうはならないかもしれないという可能性があることだ。あるテクノロジープラットフォームが成熟し始めると同時に、別のプラットフォームが必然的に台頭し始めるというのは、反論の余地がない法則ではない。「次の大きな何か」の前に、長い空白があるのではないか。その後、2、3つのことが同時に発生するかもしれない。もしあなたが、今度こそその店に入ろうとしていると公言しているなら、筆者は警告したい。店の前で長い間待つかもしれないということを。

画像クレジット:Robert Basic / Wikimedia Commons under a CC BY-SA 2.0 license.

[原文へ]

(翻訳:Mizoguchi)

AIトラベルアシスタントボットのEddy TravelsがTechstars主導のプレシードラウンドを終了

テキストとボイスメッセージを理解するAI(人工知能)を利用したトラベルアシスタントボットのEddy Travels(エディトラベルズ)は、リトアニアのTechstars Toronto、Practica Capital、Open Circle CapitalのVCファンドがリードし、アメリカ、カナダ、イギリスのエンジェル投資家らが参加した約50万ドル(約5500万円)のプレシードラウンドを終了した。

2018年11月にローンチしたEddy Travelsは、全世界で10万人以上のユーザーがいるという。

旅行者はEddy Travelsボットに音声やテキストメッセージを送ることで、最適なフライトのためのパーソナライズされた提案を受けられる。使いやすさのおかげで、現在は月間4万回のフライト検索が行われている。これは主要な旅行ポータルと比べると少ないがFacebook Messenger、WhatsApp、Telegram、Rakuten Viber、Line、Slackなどのチャットアプリで利用できるボットとしては悪くない。

チームは現在、宿泊施設、レンタカー、その他の旅行サービスへの拡大を目指している。Eddy Travelsの検索は、SkyscannerとEmirates Airlineとの提携によって動作している。

Eddy Travelsの創設者はリトアニア出身のEdmundas Balcikonis(エドマンダス・バルシコニス)氏、Pranas Kiziela(プラナス・キジエラ)氏、Adomas Baltagalvis(アダム・ホワイトヘッド)氏で、本社はカナダのトロントにある。

 

[原文へ]

(翻訳:塚本直樹 Twitter

インテルがAIチップメーカーのHabanaを約2200億円で買収

Intel(インテル)は米国時間12月16日の朝、イスラエルのAIチップメーカーことHabana labs(ハバナ・ラボ)を買収したことを明らかにした。買収金額は約20億ドル(約2200億円)で、Nervana SystemsやMovidiusなどが名を連ねる人工知能分野への最新の巨額投資だ。

Habanaは7月、GPUベースのシステムを4倍上回る性能を実現したGaudi AIトレーニングプロセッサを発表した。Intelが人工知能分野に参入しようとしていることから、同社がIntelの買収のターゲットになっているという噂は以前からあった。インテルがモバイル分野で味わったような、過去の失敗を繰り返したくないのは明らかだ。

これまでのところ、インテルが2024年までに約240億ドル(約2兆6000億円)の市場規模に成長するとされる分野で、この戦略は同社に明らかな優位性をもたらしているように見える。インテルによると、2019年だけで「AIからの収益」の売上は35億ドル(約3800億円)を超え、前年比20%増となる見込みだという。

インテルでEVPを務めるNavin Shenoy(ナビン・シェノイ)氏は、このニュースに関するリリースで「この買収によりAI戦略が強化される。AI戦略とは、インテリジェントエッジからデータセンターまで、あらゆるパフォーマンスニーズに対応するソリューションを顧客に提供することだ」と述べた。「具体的には、Habanaは我々のAIワークロードを進化させ、高性能なトレーニングプロセッサファミリーと標準ベースのプログラミング環境にて、データセンター向けのAI製品を提供する」

Intelは当面、Habanaを独立した事業部門として運営しつつ経営陣をそのまま残し、主にイスラエルを拠点とする事業運営を続ける予定だ。HabanaのAvigdor Willenz(アビグドール・ウィレンツ)会長は引き続き、両社に助言を行う。

[原文へ]

(翻訳:塚本直樹 Twitter

“サードパーティの技術者集団”としてイノベーション創出に取り組むQueueが7000万円を調達

ソフトウェアや自社技術の開発を行うテクノロジー企業のQueue(キュー)は12月11日、インソース、マネジメントソリューションズ、プルータス・マネジメントアドバイザリー、東大創業者の会応援ファンド、その他個人投資家より総額で7000万円の資金調達を実施したことを明らかにした。

Queueは東京大学工学部出身の柴田直人氏らが2016年11月に創業したスタートアップだ。現在代表取締役を務める柴田氏は自身が在籍していた研究室でロボティクス領域の研究に取り組んでいたほか、2016年まで東大松尾研究室の共同研究員を務めるなど機械学習領域の知見も持つ人物。Queueには柴田氏を中心にソフトウェア開発者やコンピュータサイエンスの研究者などの技術者が約20名集まっていて、自社技術の開発やその技術を軸としたクライアントとの共同研究を進めている。

特にこれまでの3年間で力を入れていたのは、ソフトウェアによって業界に大きなインパクトを与えられるような領域でのプロダクト開発や共同研究だ。Queueのテーマとなっているのが「イノベーションデバイド(技術革新格差)」の解消。テクノロジーによるイノベーションが十分に進んでいないような業界のプレイヤーとタッグを組み、その分野の知見と先端技術を掛け合わせることで新たなアイデアを形にすることを目指してきた。

たとえば医療分野では東大病院とディープラーニングを活用して緑内障自動診断の共同研究を実施。この成果はNature Scientific Reportにも掲載されている。

「医療や製造業のようにテクノロジーによって大きなイノベーションを起こせるポテンシャルのある領域はまだまだ多い。そういった業界を変えていくには何が必要かを考えた時に、パートナーとして一緒に挑戦できる『サードパーティの技術者集団』がいれば面白いのではないか。そんな考えからスタートして、業界の専門知識を持ついろいろな企業と一緒にプロジェクトを進めてきた」(柴田氏)

Queueの1つの特徴は、得意領域である機械学習や画像解析などの技術をエンジンとして提供するだけでなく、アプリケーションに落とし込むところまでを担えること。柴田氏によると「エンジンをもらっても自社でプロダクト化できないで困っている企業もいる」そうで、そこも含めてサポートできるのが強みだ。

製造業向けSaaS「blue assistant」は、まさに創業70年の老舗機械商社である三栄商事との共同プロジェクトから生まれたプロダクト。機械学習を用いた類似度検索エンジンを独自に開発し、図面の検索に要する時間を圧倒的に短縮することで現場の業務効率化を実現した。

blue assistantの場合はQueueの自社サービスとして運営しているが、Queueの持つ技術をライセンス提供という形で組み込みプロダクトを一緒に伸ばしていくような形もあるそう。この辺りの細かい座組みは企業ごとによって異なるとのことだった。

今後はR&Dに加えて自社プロダクトの展開も

創業者の2人とCTOは東大の同期メンバー。引き続き「サードパーティの技術者集団」としてイノベーションデバイドの解消に取り組むほか、今後は自社プロダクトの開発も強化していく

今回Queueに出資している投資家陣は人材や財務、マネジメントの各領域でコンサルティング業を行なっている企業が中心。Queueとしては各社とも連携しながら「テクノロジーの実装業」にフォーカスしてさまざまな業界の課題解決を継続しつつ、今後は自社単独で開発するプロダクトにも力を入れていく方針だ。

その1つとして最先端のプロダクトやサービス、アイデアに関する情報をデータベース化した「SUNRYSE.」を開始した。このサービスでは50カ国300以上にわたるスタートアップのサービス内容やビジネスモデル、技術的な特徴などをまとめて提供する。

「Crunchbase」などのようにファイナンスの情報がメインではなく、プロダクトやアイデアに焦点を当てていることが特徴。新しいアイデアを出す前段階として「まずはチーム内でイノベーション事例を共有しながら知識をアップデートし、議論を深めていく」ためのツールとして企業向けに展開する。

料金は1ユーザーあたり月額5万円からで、すでに上場企業など約10社で導入が決まっているとのこと。現時点ではアイデアをストックできるボード機能やコメント機能などシンプルな機能が多くデータベースとしての色が強いが、今後はチーム内でのコラボレーションを加速させる仕組みを加えながらSaaS型のプロダクトとしてアップデートしていく計画だという。

無料で使えるAI搭載ドラレコアプリ「スマートくん」公開、AI事業のニューラルポケットが開発

画像や映像を解析するAI技術の研究開発と事業化に取り組むニューラルポケットは12月6日、自社開発のAIを組み込んだドライブレコーダーアプリ「スマートくん」のiOS版を公開した。

同サービスは数万円するような既存のドラレコ端末を用意せずとも、市販の一般的なスマホ用スタンドに自身のスマホを設置するだけで、簡単にドラレコ機能を使えるというもの。一般的なドラレコアプリに搭載されている常時録画や動画保存・再生といった「運転録画機能」に加えて、AIを活用した「運転レポート/サポート機能」を搭載している。

スマートくんでは急発進・急停止などの動作や周辺に映る物体(自動車や歩行者、信号機など)を走行中にリアルタイムでAIが検知。たとえば車間距離を解析して他の車両に接近しすぎた場合にアラートをする、といった形でドライバーの運転を支援する仕組みがあるのも特徴だ。

2020年を目処に音でアラートをする機能を導入するほか、取得した運転データからレポートを出力する機能やそのほかの運転サポート機能なども順次追加していく計画。これらは全てスマホ端末内で処理を行うため、アプリのインストール時を除けば基本的に通信量は発生しない。映像の録画や録画データの確認も含めてスマホが1台あればOKだ。

個人ユーザーが自家用車で活用する際はもちろん、法人についても無料で使うことが可能。利用の際に個人情報の登録も必要ないが、ニューラルポケットでは個人情報に紐付けない形で道路上のデータを取得し、このデータを用いて各企業や自治体と連携しながら事業開発を進める方針だという。

要はコンシューマー向けのアプリではあるものの、そこからマネタイズをするつもりはなく、集めたデータを使って新しい事業に繋げていきたいという考え。便利な機能を搭載したアプリを無料で提供する代わりに、ユーザーからはアプリを通じて取得できる混雑状況・道路情報といった交通データをもらう構造だ。

スマホがあれば簡単にドラレコ導入、モビリティ事業の足がかりに

ニューラルポケットは3月の資金調達時などにも紹介している通り、根幹となるAI技術の研究開発とその技術の社会実装を進めるスタートアップ。現在はファッション、スマートシティ、デジタルサイネージの3領域を軸にしていて、今回のドラレコアプリを含むモビリティ事業はスマートシティ領域の1つとなる。

同社の取締役COO周涵氏によると、2018年時点でドラレコの搭載率はだいたい3割程度なのだそう。ドラレコの利用に関心があるドライバーは一定数いるものの、価格と使い勝手がネックとなり思いの外普及していないのではないかという。

スマートくんの場合はアプリ自体が無料なので、必要な料金はスマホを設置するためのスタンドを購入する費用ぐらい。設置工事の手間などもかからないほか、映像の録画や確認が全てスマホだけで行えるスムーズさもウリだ。

近年はディー・エヌ・エーの「DRIVE CHART」や米国スタートアップのNautoが展開する「ナウト」など、AIを活用したドラレコやそれに関連する取り組みが徐々に広がりつつある。ただ車載端末ではなくスマホアプリでそのような仕組みを取り入れたものは「これまでになく、世界初になるのではないか」(周氏)とのこと。ニューラルポケットとしては導入のしやすさと機能性を兼ね備えたドラレコアプリとしてユーザーに訴求していく。

同社ではソフトバンクやトヨタらの共同出資会社であるMONET Technologiesが設立した「MONETコンソーシアム」に12月4日付けで加盟したことも本日公表済み。スマートくんで集めたビッグデータも活用しながら、道路情報の収集および街づくりへの展開、自動運転の実現に向けた環境データ整備など、関係企業や自治体・官公庁とも連携しながらモビリティ事業の開発を進めるという。

AIによる食事内容追跡のFoodvisorが約5億円を調達

フランスを拠点とするスタートアップのFoodvisorは、アプリの200万ダウンロードを達成した後、資金調達ラウンドで450万ドル(約4億9000万円)を獲得した。Agrinnovationがラウンドをリードしており、またさまざまなビジネスエンジェルも参加している。

Foodvisorについては先月にも記事で取り上げているが、簡単にいえばこのスタートアップは、ディープラーニングによる画像認識を利用し、ユーザーが何を食べようとしているかを検出する。そして食品の種類を検知し、また各品目の重さを推定することも可能だ。

同社は、カメラのオートフォーカスに関するデータを利用し、皿とスマートフォンとの間の距離を計算する。そして、プレート内の食品の面積を算出する。記録する前に手動での情報の修正もできる。米国時間11月28日の資金調達ラウンドで、このスタートアップはアプリを改善し、さらに15人を雇用する計画だ。アプリは最近米国でローンチされ、同社はこれをいい機会だと捉えている。


[原文へ]
(翻訳:塚本直樹Twitter

Microsoft AzureがFarmBeatsのプレビュー版を公開し農業テックに参入

Microsoft(マイクロソフト)がフロリダ州オーランドで開催中のイベント「Ignite」で、同社はこれまで主に研究目的だったプロジェクトのAzure FarmBeatsを、パブリックプレビューとしてAzure Marketplaceで米国時間11月4日から公開すると発表した。FarmBeatsは、IoTセンサー、データ分析、機械学習を組み合わせた同社のプロジェクトだ。

GROSSDERSCHAU, GERMANY – AUGUST 14: In this aerial view a combine harvests summer wheat at a cooperative farm on August 14, 2015 near Grossderschau, Germany. The German Farmers’ Association (Deutscher Bauernverband) is due to announce annual grain harvest results this week. Some farmers have reported a disappointing harvest due to the dry weather in recent months. (Photo by Sean Gallup/Getty Images)

この日の発表でマイクロソフトは「FarmBeatsの目的は、農家が自分の農場のデータとデータドリブンの洞察によって理解を深め直感を強化するものだ」と説明した。FarmBeatsは、センサー、衛星、ドローン、気象観測などさまざまなソースからデータを集め、AIと機械学習によって農家にアクション可能なインテリジェンスを提供することを目指している。

さらにFarmBeatsは、ここで収集され、評価されるデータを利用するアプリを作る開発者のためのプラットフォーム的なものになることも狙っている。

マイクロソフトは開発プロセスに関し、次のように説明している。衛星画像は活用するが、それで農場のすべてのデータを捉えられるわけではない。現場に設置されたセンサーなどのデータが必要で、さまざまな種類のデータをまとめて分析する必要がある。また農場ではインターネットの接続環境が十分でないことも多いため、FarmBeatsはテレビの空いている周波数帯域を利用して接続するマイクロソフトの取り組みを初めて利用するチームになった。そしてもちろん、データの収集にはAzure IoT Edgeを活用する。

[原文へ]

(翻訳:Kaori Koyama)

希少疾患の治療法をAIで探るHealxが約61億円を調達

AIを使って希少疾患の新しい治療法を探るスタートアップであるHealx(ヒーレックス)が、シリーズB投資で5600万ドル(約61億円)を調達した。

このラウンドを率いたのは英国ロンドンに拠点を置くベンチャー投資企業Atomico(アトミコ)だ。そこに、 Intel Capital(インテル・キャピタル)、グローバル・ブレイン、btov Partners(ビートゥーヴィー・パートナーズ)が加わった。さらに、 前回投資を行ったBalderton Capital(バルダートン・キャピタル)、Amadeus Capital Partners(アマデウス・キャピタル・パートナーズ)、Jonathan Milner(ジョナサン・ミルナー)氏も参加している。

Healxは、今回調達した資金で同社内に治療法パイプラインを開発し、国際的なRare Treatment Accelerator(希少疾患治療アクセラレーター)プログラムを立ち上げたいと話している。このプログラムは、患者グループと手を組み希少疾患のための創薬の効率化を図るものだ。

さらに、新しい治療法を発見し「24カ月以内に」臨床試験に持ち込む体制を整えることも目指す。現状からすると驚くほどの短期間だ。しかも、希少疾患の多くは、治療法開発の目を向けられることすらない。

「世界には、7000種類の希少疾患があり、4億人が罹患しています(半数は子ども)。その95%には、いまだに認証された治療法がありません」とHealxの共同創設者でCEOのTim Guilliams(ティム・ギリアムズ)氏はTechCrunchに語った。

「新薬の発見と臨床開発の従来モデルでは、費用、スケジュール、有効性の面での負担が膨大です。通常、新薬を市場に送り出すまでには、20〜30億ドルの費用、12〜14年の開発期間、95%の失敗率を負うことになります」。

特に患者数の少ない疾患では、現状のモデルは使えないとギリアムズ氏は言う。新薬の発見と開発にかかるコストが大き過ぎるため、薬の売り上げでは単純に投資の元が取れないからだ。そこでAIを使って既存の医薬品の別の使い道を探るという「抜本的な方向転換」が必要になる。

「認証された医薬品に注目し、AIの能力をうまく使うことで、希少疾患のための治療薬の発見プロセスを、高速で高効率なものにできました」と彼は主張する。「それ以来、私たちは、2025年までに100種類の希少疾患の治療法を臨床試験に持ち込むことを使命にしています」。

もちろん、AI技術を創薬に応用しているのはHealxだけではない。また、AIの使用はそれほどの大冒険でもない。例えば、BenevolentAI(ベネボレント・エーアイ)は数多くの大ニュースで世間を驚かせているが、直近では、評価額の引き下げを行ったと報道された。しかしギリアムズ氏は、Healxのアプローチが、Recursion Pharmaceuticals(リカージョン・ファーマスーティカルズ)や Insilico Medicine(インシリコ・メディシン)といった同業他社とは異なっていると話している。

「私たちの目標とアプローチはまったく違います。私たちは希少な遺伝性疾患に特化していて、世界的な希少疾患の生医学のナレッジグラフを所有しています。さらに私たちは、新しい分子を開発するのではなく、すでに認証されている医薬品の価値を最大限に高めているのです」。

加えてギリアムズ氏は、Healxの技術はデータ駆動型であり「仮説に依存しない」ため、従来型の標的を定めた創薬とは大きく異なるとも話している。「私たちは医薬品の組み合わせを予測し、大変な短期間で臨床に持ち込むことができます。そして私たちは、戦略的パートナーであり疾患の専門家でもある患者グループと密着して作業を進めます」と彼は言い足した。

Healxの共同創設者で、バイアグラの発明者の一人でもあるDavid Brown(デイビッド・ブラウン)博士が、いくつもの医薬品を発明し市場に送り出した人物であることも付け加えておくべきだろう。彼の医薬品は、400億ドル(約4兆3500億円)以上もの利益をもたらした。「そのやり方を私たちは知っています」とギリアムズ氏。

Healxは、その革新的なモデルの正当性をFRAXA Research Foundation(フラクサ研究財団)で立証したと主張している。脆弱X症候群は自閉症の大きな原因のひとつとされる遺伝子異常だが、その治療法で認証されたものはまだひとつもないとのことだ。その状況を、HealxとFRAXAが変えられるかも知れない。まもなく、複数の治療法を組み合わせた臨床試験が開始される。その他の希少疾患の治療法の臨床試験も、2020年後半にはスタートする。

Atomicoのアイリーナ・ハイバス氏

私は、AtomicoのプリンシパルであるIrina Haivas(アイリーナ・ハイバス)氏にも話を聞いた。投資の決め手となったHealxの魅力と、こうした企業を支援する際のリスクについて、Atomicoを代表して話してもらった。創薬とはわらの山から針を探し出すようなものであり、さらにその発見を製品化にまで持っていかなければならない。言い換えれば、未知の要素が非常に多く、市場に送り出すまでに大変な時間がかかるということだ。

「Atomicoを支援すると決めた理由のひとつは、まさに、うまくいけばHealxは希少疾患に苦しむ4億の人たちの人生を劇的に改善できると信じ、その大胆で長期間におよぶ賭けに物怖じしないところでした」と彼女は話してくれた。

「もちろん、そのような野心的な賭けには、ある程度のリスクが伴います。しかし同社の場合、その“途方もない探し物”問題を、これまでのように人が行うよりも、AIでうまく解決できることを示す兆候が、初期のあらゆるサインの中に見られたのです。もちろん、最終的にそれが証明されるのは、治療法が製品化されたときですが」

そうは言いつつ、彼女はHealxのようなスタートアップは、企業の新しいカテゴリーを創出するとも警告している。なぜなら、それは従来型の技術でも、従来型のバイオ製薬でもないからだ。

「投資家の観点からすると、別の枠組みが必要になるでしょう。それに慣れるまでに時間がかかる投資家もいるかもしれません」と元外科医の投資家である彼女は言っていた。

著者:Steve O’Hear

[原文へ]

(翻訳:金井哲夫)

MITが米商務省のブラックリストに載った中国のAI企業SenseTimeとの関係を見直す

マサチューセッツ工科大学(MIT)によると、同大は現在、中国のムスリム系少数民族に対する人権侵犯の疑いで米商務省のエンティティリストに載せられた8つの中国企業のひとつであるSenseTimeとの関係を見直している。

MITのスポークスパーソンはBloomberg(ブルームバーグ)に次のように語っている。「MITには長年、堅固な輸出管理機能があり、輸出管理に関する規制やコンプライアンスを常時注視している。MITは合衆国商務省のエンティティリストに加えられた団体とのすべての既存の関係を見直し、必要に応じてその関係のあり方を変更する」。

SenseTimeの代表者はBloombergに対し「合衆国商務省のこの決定には深く失望している。すべての関係当局と密接に協働して、状況を完全に理解し解決したい」とコメントしている。

ブラックリストに載ったいくつかの企業は、ウイグル族などのムスリム少数民族を迫害するために中国政府が使ったと思われる大量監視システムにソフトウェアを供給した、中国の技術的にも業績的にも上位のAI企業である。

現在100万人以上のウイグル族が収容所に拘置されていると信じられている。人権監視活動家の報告によると、彼らは強制労働や拷問に苦しめられている。

SenseTimeは時価総額が世界最大のAI企業で、CCTVカメラなどを使用する中国政府の国営監視システムにソフトウェアを提供した。同社は昨年ローンチしたMITのIntelligence Quest構想に最初に参加した企業で、それは「世界の大きな課題に直面する可能性のあるAIに技術的突破口を開くこと」を目標としている。この計画はこれまで、MITの研究者たちによる27のプロジェクトに資金を提供した。

今年の初めにMITは、経済制裁に違反したとされるファーウェイとZTEとの業務関係を終了した

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

マイクロソフトのナデラCEOが「コンピューティングの未来はエッジにある」と講演

Microsoft(マイクロソフト)のCEOであるサティヤ・ナデラ氏は、ワシントンで開催されたカンファレンス「Microsoft Government Laders Summit」で講演し、Azureクラウドを「世界のコンピューター」だとしたものの、「エッジコンピューティングこそ未来だ」と述べた。

Amazon(アマゾン)やGoogle(グーグル)などクラウドコンピューティングを主力業務とするライバルは「Windowsを持つマイクロソフトのポジショントークだ」と反論するかもしれないが、多くの企業はクラウドに完全に移行してはいない。

ナデラ氏は「コンピューティングはまずローカルで実行され、抽出されたデータがAIや機械学習のような強力な能力を必要とする処理のためにクラウドに送られる」からだとその意味を説明した。情報はクラウドに出て行く前にローカルに入ってこなければならない、ということだ。

実際、ナデラ氏が指摘するように、コンピューティングの将来は「ローカルかクラウドか」というように二分できるものではない。エッジコンピューティングとクラウドコンピューティングは相互に補完する関係にある。ナデラ氏は「新しいコンピューティングのパラダイムはインテリジェントクラウドとインテリジェントエッジによって動かされる」という。

ナデラ氏はこう述べている。

エッジ・コンピューティングのコンピューティング全般に与える影響を真に理解するめには2030年までにインターネットには500億のデバイスが接続されることになると予測したレポートを吟味する必要がある。これは驚くべき数字だ。現在我々のWindowsマシンは10億台ほどある。スマートフォンが数十億台あるだろう。これが2030年には500億台になっているだろうというのだ。

この調査が予測する500億台の大半はIoT(Internet of Things)デバイスだろう。こうしたデバイスが莫大なデータを生み出す。こうしたデータの奔流を処理するためには従来とは全く異なる方法を考え出さねばならないだろう。ナデラ氏は「エッジデバイスは我々の身の回りのあらゆる場所に存在することになるため、あらゆるビジネスプロセスにおけるコンピューティングについての考え方を大きく改める必要がある」という。ナデラCEOは「ユースケースが(聴衆の多くが関わっている)公共部門であるか民間ビジネスであるかどうかにかかわらず、データの生成が爆発的に増加するにつれて、人工知能による処理が必須となる」という。

ナデラ氏はこれによって人工知能の新たなユースケースが出現するだろうとして次のように述べた。

もちろん、豊富なコンピューティングリソースが利用できるなら、データとAIを組み合わせた新しい処理アセットを構築するできる。これは単一のアプリケーション、単一のエクスペリエンスであってはならず、既存のAIに頼ったものであってもいけない。つまり、大量のデータを処理してそこからAIを構築する能力が必要とされる。

ユーザーがこのような処理にAzureやWindowsなどMicrosoftのプロダクトを使ってくれるならナデラ氏は大いにハッピーだろう。エッジツールであれば、IoTからのデータをローカルに集約するData Box Edgeが2018にリリースされている。実際、マイクロソフトのプロダクトをするかどうかに関わらず、ナデラ氏の見通しは正しいものと思われる。

コンピューティングがエッジにシフトするにつれ、ベンダー企業が提供するテクノロジーやサービスがいかに広範囲であれ、ユーザーが単一のベンダーに縛られることは少なくなるだろう。

原文へ

(翻訳:滑川海彦@Facebook

ムスリム少数民族に対する人権侵犯に加担した8つの中国企業が米商務省の禁止リストに載る

SenseTimeやMegviiなど、中国のテクノロジー企業8社が、ウイグル族など中国の少数民族に対する人権侵犯に加担しているとして、合衆国政府のエンティティリストに載せられた。米商務省の発表によると、これらの企業を含む、多くが中国政府の政府機関である28の組織は、新絳(シンジャン)ウイグル自治区における「ウイグル族やカザフ人などムスリムの少数民族に対する弾圧や不法拘禁、ハイテクによる監視などの実施に」関与している。

国連によると、新絳地区のムスリム住民の最大12人に1人、すなわちおよそ100万人が抑留所に拘置され、強制労働や拷問の対象になっている。

エンティティリストに載った企業は、米国のサプライヤーから製品を購入するためには新たに許可証を申請しなければならない。しかし承認を得るのは困難で、実質的には米企業とのビジネスを禁じられた形になる。今年始めにエンティティリストに載ったファーウェイの創業者でCEOのRen Zhengfei(レン・ツェンフェイ、任正非)氏は、そのほかの財務的影響に加え、同社は300億ドルを失うことになると述べた

米国時間10月7日にエンティティリストに置かれた政府機関は、新絳ウイグル自治区人民政府公安局とその関連機関だ。テクノロジー企業はビデオ監視メーカーDahua TechnologyとHikvision、AIのYitu、Megvii、SenseTime、およびiFlyTek、デジタル鑑識企業Meiya PicoとYixin Technology Companyだ。

時価総額が世界最大のAIスタートアップSense Timeは、中国政府に国の監視システムのためのソフトウェアを供給した。そのシステムは、CCTVカメラや警官が装着するスマートグラスなどから成る。

Face++のメーカーMegviiとYitu Technologyはともに、顔認識技術に特化し、監視社会的な大量監視システムで使用するソフトウェアに関して中国政府と協働した。The New York Timesによると、Hikvisionは 少数民族を見つけるシステムを作ったが、昨年それを徐々に廃棄し始めた。

Human Rights Watchの2017年の報告書によると、音声認識技術のiFlyTekは新絳省の警察局に声紋技術を供給した。それは、大量監視のためのバイオメトリクスデータベースの構築に使われた。

ブラックリストに載ったことの影響の大きさは、各社の米企業との関わりの深浅にもよるが、しかし貿易戦争以降、米国の技術への依存を減らし始めた中国企業が多い。例えば、鑑識技術のMeiya Picoは中国の国営誌Chinese Securities Journalで、売上の大半は国内企業向けであり、海外は1%に満たない、と言っている。

TechCrunchは8社にコメントを求めたところ、Hikvisionのスポークスパーソンは声明で次のように述べた。「Hikvisionは本日の米政府の決定に強力に反対する。その決定は世界中で人権を改善しようとするグローバル企業の取り組みを妨害するであろう。セキュリティ産業のグローバルなリーダーであるHikvisionは人権を尊重し、米国と世界の人民を真剣に保護すべき責任を担う。Hikvisionは過去12か月政府職員たちと関わってきたがそれは、会社に関する誤解を解消し、彼らの懸念に応えるためであった」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

その道約20年のベテラン医師が「内視鏡AI」で医療の発展目指す、AIメディカルサービスが約46億円を調達

写真左からグロービス・キャピタル・パートナーズ 福島智史氏(シリーズBラウンドリード投資家)、AIメディカルサービス 代表取締役CEO多田智裕氏、代表取締役COO山内善行氏、インキュベイトファンド 村田祐介氏(シリーズAラウンドリード投資家)

近年日本でも医師が立ち上げたヘルステックスタートアップや弁護士が創業したリーガルテックスタートアップを始め、さまざまな業界の専門家がテクノロジーを活用して「現場に新しい風を吹き込む」ような事例が増えているように思う。

今回紹介するAIメディカルサービス(以下AIM)もまさにその1社。約20年にわたり内視鏡医を務めてきた多田智裕医師が、“現場の困りごと”をAI技術を用いて解決しようと創業したスタートアップだ。

そのAIMは10月4日、グロービス・キャピタル・パートナーズなど複数の投資家を引受先とした第三者割当増資により約46億円を調達したことを明らかにした。今回は同社にとってシリーズBラウンドの調達。投資家陣は以下の通りだ。

  • Globis Fund VI, L.P.およびグロービス6号ファンド投資事業有限責任組合(グロービス・キャピタル・パートナーズ)
  • WiL Fund II, L.P.(WiL)
  • 未来創生2号投資事業有限責任組合(スパークス・グループ)
  • Sony Innovation Fund by IGV(ソニーと大和キャピタルホールディングスが創設したInnovation Growth Ventures)
  • 日本ライフライン
  • 日本郵政キャピタル
  • Aflac Ventures
  • 菱洋エレクトロ
  • 次世代企業成長支援2号投資事業有限責任組合(SMBCベンチャーキャピタル)
  • DCIベンチャー成長支援投資事業有限責任組合(大和企業投資)
  • その他個人投資家1名

現在AIMが研究開発を進めているのは胃や食道、大腸、小腸といった消化器に対する内視鏡検査を支援するAIプロダクトだ。「AIを用いた医療画像診断」と言うとピンとくる人も多いかもしれないけれど、内視鏡で撮影した静止画や動画から病変の検出や状態の判別、範囲表示までを一貫してサポートする。

これまでは学習データの整備や研究開発を中心に取り組んできた同社だが、今回の調達を機に日本発のリアルタイム内視鏡AIの製品化を見据えて、薬事承認に向けた準備なども加速させていく計画だ。

多い時には「1時間で3000枚もの画像」をチェック

「1番の課題は現場の仕事量が医師の処理能力を大幅に超えているということ。アナログからデジタルフィルムの時代へと進化した結果、内視鏡で撮影される画像の量が爆発的に増え、目視でチェックすることに限界を感じていた」

多田氏は内視鏡医の現状についてそう話す。東京大学医学部付属病院や虎ノ門病院など複数の病院を経て、2006年にただともひろ胃腸科肛門科を開業。自身が院長を務めるこのクリニックでは年間約9000件の内視鏡検査を行う。

多田氏が所属する医師会では月に数回専門医によるダブルチェックを実施するそうなのだけど、多い時には1人の医師が1時間で3000枚もの内視鏡画像をチェックしなければならない。

アナログフィルムだった時代に比べると画像の量は約3倍。専門医の数はほぼ横ばいのため、1人当たりの負担がそのまま3倍に膨らんだようなものだ。しかも日中は通常通り診療を行なっているから、チェックをするのはもっぱら業務終了後の夜。多田氏自身、数年前からこの働き方は厳しいと限界を感じていたという。

とは言えこの仕事はその道のプロである専門医以外が担うことはできない。これまでは特に革新的な解決策も生まれてこなかったので、現場で医師がひたすら頑張るしかなかった。

そんな時に多田氏が“たまたま”出会ったのがAIテクノロジーだ。2016年にAIの研究者として有名な東京大学の松尾豊氏の講演会で、AIによる画像認識能力の進歩と現状を知り「画像診断が得意なAIなら自分たちの課題を解決できる」と感じた。

そこで松尾氏に内視鏡にもAIの力を使えるか尋ねたところ「CTやMRIの領域ではそのような研究事例があるが、内視鏡に関しては国内外でやっている人を知らない」という旨の答えが返ってきたという。

「誰もやっていないなら自分でやってみよう」。そう考えた多田氏は後輩から紹介してもらったAIエンジニア、繋がりのある医師や地元のクリニックなどと一緒に内視鏡AIのPoC(概念実証)に自ら取りかかる。

最初に研究開発を進めていたのは、内視鏡で撮影した画像から胃がんの原因である「ピロリ菌」の有無を区別するAI。約4〜5ヶ月にわたる研究の末に開発した製品の実力は、医師の平均値を上回った。正答率は約9割、人間の医師も含めたテストでは23人中4位の結果だったという。

そうは言ってもピロリ菌の診断だけでは十分ではない。PoCを通じて手応えを掴んだ多田氏が次に取り組んだのは胃がんを診断するAIの開発だ。

当時はまだ個人で取り組むプロジェクトでしかなかったが、より本格的に研究開発を進めるべく2017年9月にAIMを創業。そこから正式に会社としての挑戦がスタートした。

研究では6mm以上の胃がん検出感度約98%を実現

AIMが開発する内視鏡AIでは撮影された画像において「何が」「どこに」あるのかを識別したり、「その画像が何なのか」のカテゴリ分けを行う。たとえば同社は「早期の胃がん」に対応したAIを最初の製品にしようと考えているが、このAIでは胃の写真からどこに病変があるかをあっという間に検出する。

2018年1月には研究結果として静止画から6mm以上の胃がんを98%の精度で
発見(検出感度約98%)できたことを発表。ちなみに画像1枚あたり0.02秒で診断するというスピード感だ。

現在は静止画に加えて動画からリアルタイムで胃がんを検出するAIの開発にも着手。こちらは静止画に比べて難易度が上がるため少し精度は落ちるものの、それでも検出感度は約92%ほどを誇る。

研究としてはすでに食道がんや大腸がんにも取り組んでいるが、製品化の第一弾は胃がんの計画。なぜ胃がんが最初なのか、多田氏にその理由を聞いてみたところ「専門医でも見分けるのが難しい場合も多く、現場のニーズが最も大きいから」だという。

実際に「胃がんは1割程度が見逃されている」と推定されているそう。仮に内視鏡AIを使うことで早い段階から胃がんの可能性に気づけるようになれば、医療の質も上がりインパクトは大きい。もちろん技術的なハードルは上がるが、現場を経験しているからこそ、胃がんから始めることにはこだわった。

「イメージとしては優秀なアシスタントがついてくれるようなもの。今までは見逃してしまっていたような病変に気づけるようになれば、より良い医療が実現できる。患者さんは今よりも高精度の検査が受けられるようになり、医師側の検査の負荷も減らせる」(多田氏)

今は消化器内視鏡分野で日本を代表する医療機関約80施設と共同で研究開発を進めている。当初こそプロダクトの構想を知った人から「医者がいらなくなるのでは?」という声も多かったそうだが、時間が経つに連れて便利だねという声が増えた。

「あくまでAIは診断の補助となる確率を示すだけであり、確定診断を下すわけではない。そういう意味で医師とAIは対立するのではなく、医師プラスAIという構造で良い医療を実現するために協力する関係になる」(多田氏)

内視鏡AIなら世界で戦えるチャンスがある

多田氏が内視鏡AIに可能性を感じてから約3年。現在までの間にこの領域で徐々に新たなプロジェクトも立ち上がり始めている。

日本国内でもNECが国立がん研究センターとともに、AIを活用したリアルタイム内視鏡診断サポートシステムの実用化に向けた取り組みを発表。オリンパスは今年3月にAIを搭載した内視鏡画像診断支援ソフトウェアを発売した。ちなみに同社は2018年10月にエルピクセルへ出資もしている。

一口に内視鏡AIと言っても対応している症例やフォーマットが異なるので単純には比べられないが、この領域でもAIの活用が進み始めているのは間違いないだろう(今の所は「大腸ポリープ」「静止画」に関する取り組みが多い一方で、AIMでは「早期の胃がん」を最初のターゲットとし、「動画」対応も進めているという)。

画像診断AI系のプロダクトにおいて、1つのポイントになるのが学習させる教師データの質と量だ。内視鏡AIの判断精度を高めていく上では、簡単には見分けがつかないような画像に対しても正しい情報を与えることのできる専門医の協力が不可欠。このアノテーションを支える仕組みが、実はAIMの大きな特徴と言えるかもしれない。

上述したように同社は現在約80施設の医療機関とタッグを組んでいる。がん研究会有明病院や大阪国際がんセンター、東大病院などに所属する世界的に有名な医師たちとのネットワークはなかなかすぐに真似できるものではないだろう。多田氏自身も約20年間にわたって複数の病院や自身のクリニックで内視鏡医を続けてきた、この分野のエキスパートだ。

AIM代表取締役COOの山内善行氏(過去に自身で創業したQLifeをエムスリーに売却した経験を持つシリアルアントレプレナー)の言葉を借りれば、病院や大学の垣根を超えて「オールジャパンに近いような、強力な体制で取り組めている」状況。すでに数万枚に及ぶ診断済みの内視鏡画像をAIに学習させてきた。

世界最大の消化器系学会とされるDDW(Digestive Disease Week)では、12本もの演題が採択。そのうち1題は「Best of DDW」にも選ばれた。今後はこの技術の実用化に向けて取り組むフェーズになる

そもそも内視鏡は日本で開発された医療機器。現在も日本製の内視鏡が多くのシェアを獲得していて、世界でブランドも確立されている。この分野において優れた専門医が集まっているのも日本だ。

近年AIの研究開発や社会実装においては中国やアメリカが最先端を走っている印象が強いが、内視鏡AIに関しては日本初のスタートアップが世界で戦っていけるチャンスもある。

「一矢報いたい気持ちはあるし、その基盤もある。データがあって、現場で内視鏡を使いこなしている専門医もたくさんいる日本が1番ノウハウを貯めているので開発にあたってのアドバンテージは大きいし、しっかり活かさないといけない。それができれば『日本の内視鏡は質が高い』というブランドがすでに確立されているので、その上に乗っかることでスピーディーに拡販できる可能性がある」(山内氏)

多田氏によると「世界で見てもまだ類似製品がない状態と考えている」ので、当然AIMでは最初からグローバル展開も視野に入れながら事業を進めていく方針だ。

現場感を基に研究開発、薬事承認に向けた取り組みも加速

冒頭で触れたように今回AIMは複数の投資家から約46億円を調達した。同社では2018年8月にインキュベイトファンドから約10億円を調達しているほか、経営陣の出資や国の助成などを含めると創業2年で累計62億円近い資金を集めたことになる。

前回調達からの約1年は学習データを集める部分に特に力を入れていたが、ここからは製品化を見据えた取り組みを本格化する。臨床試験の推進やパイプラインの拡充、優秀な人材の獲得、設備投資などに投資をして、日本発のリアルタイム内視鏡AIの開発および薬事承認を目指していく。

多田氏と山内氏に今後のAIMの事業におけるカギとなる要素を聞いたところ、まさにこの「薬事承認」がネックになるとのことだった。

内視鏡AIは薬機法の規制を受けるので、まずは認可承認を得なければ実際に製品化することはできない。薬事承認に入ると2年ほどの審査の間はプロダクトのバージョンアップもできなくなるので、どのタイミングで、どのような製品として薬事承認を迎えるかという薬事戦略は非常に重要だ。

逆にこの薬事承認の壁を乗り越えられれば、一気に事業がスケールするイメージもあるそう。「今までいろんな医療機器がでてきたが、(内視鏡AIは)患者さんにとって追加の負担がない。医師にとっても通常の業務フローを大きく変えずに利用できるのは大きな特徴」(多田氏)だという。

創業以来スタートアップとしてハイスピードで研究開発を進めてきたAIMだが、多田氏はそんな今でも同社の代表を勤めながら、内視鏡医として現場にも立ち続けている。

「(この領域は)内視鏡の医療現場を深く知っている人じゃないと、現場の人にとって本当に使い勝手の良い本質的な製品は作れないと思っているので、医療現場にも立ち続けていく」(多田氏)。そこまでしてチャレンジを続けるのは何より自分自身がペインを大きく感じていて、このプロダクトを欲しているからだ。

「よく技術先行の知財ベンチャーだと思われがちだけど、自分たちはそうじゃない。先に現場の課題があって創業者の多田自身がそれを体感して、それを何とか解決できないかという思いから始まった。その過程で偶然AIに出会い、技術者を誘ってきて今がある。完全に現場のニーズから生まれた事業であり、その考え方は今も大事にしている」(多田氏)

だからこそAIMでは内視鏡の分野以外に事業を広げるつもりはない。海外には出ていくが、調達した資金も含めてリソースは全て内視鏡につぎ込む。

日本から生まれた内視鏡という発明。その内視鏡をテクノロジーを用いてアップデートするAIMの挑戦はまだまだ始まったばかり。実際に製品を世に出すまで、そして出して以降も様々な壁はあると思うけれど、スタートアップとしてこの領域でチャレンジする同社の今後に注目だ。

機械学習と画像認識のAIで歯科医療を改善するVideaHealthが約5.6億円調達

若きスタートアップVideaHealthの(ビデアヘルス)CEOを務めるFlorian Hillen(フローリアン・ヒレン)氏が歯科医療の問題に取り組んだのは約3年前だった。

MITとハーバード大学で学んだヒレン氏は、機械学習と画像認識を何年も研究し、その技術を切実に求めている分野に研究成果を応用したいと考えた。

歯科医療は、最初のターゲットではなかったかもしれないが、若き起業家が本気で取り組むべき市場だった。

「誰もが歯医者に行く。そして治療室の中ではレントゲンが主要な診断機器だ」とヒレン氏は言う。「しかし、歯科医療には品質基準がない。3人の歯科医を受診すれば、3種類の意見を言われるかもしれない。

VideaHealth(あるいは競合のPearl)は、同社が開発した機械学習技術を使って歯科医療全般にわたって治療の標準を決めることができるとヒレン氏は言う。これは歯科ビジネスが米国の大部分で大規模なサービス提供者に集約されつつある今、非常に魅力的だ。

Screen Shot 2019 09 16 at 16.33.16 1

画像出典:VideaHealth

歯科医療従事者は,一部の医療専門家(レントゲン技師など)と比べて自動化の恩恵に預かりやすい。歯科医は診療所で複数の役割を担うため、画像認識のような先端技術は治療の効率を高めることが期待され、失業者を生み出すものではない。

「放射線医療ではAIが放射線技師と競合する」とヒレン氏は言う。「歯科医療では歯科医が確実にかつ正確迅速に患部を発見する手助けをする」。

もっと多くの患者を診察し、もっと時間がかかって侵襲的な手法を用いることなく問題を見つけられるようになれば、医者にも患者にとっても有益だとヒレン氏は言う。

ヒレン氏が会社を設立してからまだ1年ほどだが、すでにZetta Venture PartnersやPillar、さらには最近540万ドルのシード資金を投資したMITのDelta Vなど、複数の投資家を引き込んでいる。

すでに同社は、中西部で950箇所以上のの歯科医院を経営するHeartland Dentalなどの組織と提携して共同作業を勧めている。現在社員は7名で、今回の資金は雇用の促進と研究開発に使う予定だ。

Screen Shot 2019 09 25 at 2.53.42 PM

Photo courtesy of VideaHealth

 

[原文へ]

(翻訳:Nob Takahashi / facebook

現実さながらのフェイク映像を簡単に作れる「Xpression」が2.3億円調達、次世代CG技術の開発加速へ

動画や静止画に映っている誰かの顔を乗っ取り、あたかも本人が実際にしゃべっているような映像をスマホから簡単に作れる——。そんなちょっと不思議だけど、ワクワクする体験を手軽に楽しめる「Xpression」というiOSアプリを知っているだろうか。

ユーザーがやることは素材となる動画や静止画を選び、スマホのカメラに向かって喋りかけるだけ。そうすれば自身の顔と素材に映る人の顔を入れ替え、現実さながらの映像をリアルタイムで生成することが可能だ。

たとえば有名人のスピーチ動画を使って本人からビデオレターが届いたような“サプライズ映像”を作ることもできるし、前もって撮影しておいた友人の動画を使って“その友人が絶対に言わなそうなこと”を言っている映像を作ったりもできる。

このプロダクトを手がけるEmbodyMeは、ディープラーニングを用いた映像生成技術などを開発する日本のスタートアップだ。同社は9月12日、複数の投資家を引受先とする第三者割当増資とNEDOの助成金により総額で約2.3億円を調達したことを明らかにした。

EmbodyMeでは調達した資金を活用してコア技術の研究開発を進める計画。「AIで目に見えるあらゆるものを自由自在に作り出す」というビジョンの下、ゆくゆくは次世代コンピューターグラフィックスの中心を担うような存在を目指していきたいという。

同社では過去にもインキュベイトファンドから9000万円、日本政策金融公庫の資本性ローンによる融資で4000万円を調達していて累計調達額は約3.6億円となった。なお本ラウンドの投資家は以下の通りだ。

  • DEEPCORE
  • インキュベイトファンド
  • Deep30
  • Techstars(米国の有名アクセラレータの1つ)
  • SMBCベンチャーキャピタル
  • 漆原茂氏

現実と区別がつかないリアルな映像をスマホから簡単に生成

Xpressionは冒頭でも触れた通りスマホから簡単にフェイク映像を作れるアプリだ。

EmbodyMe代表取締役の吉田一星氏によると、数年前に話題になった「Face2Face」など近しいコンセプトの研究はあるものの、プロダクトとして実用化しているものはまだない状況。既存の研究とは映像を生成するのに必要な素材や処理時間、動作環境などにおいても大きな違いがあるという。

「類似研究は17時間分の同じ人のビデオを用意した上で、約2週間の前処理時間が必要。なおかつリアルタイムでは動かないといった点が課題になっている。自分たちの技術は静止画や短いビデオでも問題なく、前処理は全く必要ない。さらにモバイルでもリアルタイムに動かせるのが特徴だ」(吉田氏)

実際のところXpressionはどのような技術で成り立っているのか。具体的には以下の3つのディープラーニングモデルを同時に動かすことで、リアルタイムで現実に近いコンテンツを生成している。

  • カメラ越しにユーザーの顔の形状と表情を3Dで推定するモデル
  • 素材となる動画や静止画から、3Dで顔の形状と表情を推定するモデル
  • 口の中など映像として存在しない箇所を画像生成し補完するモデル

表情を推定する技術(3D Dense Face Tracking )においては、従来使われてきた技術が70点以下の2Dのポイントを推定するのに留まっていたところ、Xpressionでは5万点以上の3Dのポイントを推定できる仕組みを構築。より詳細な表情認識を実現する。

同様の技術自体はAppleも保有しているが、3Dセンサーを使っているためハイエンドなiOSマシンが必要。Xpressionの場合は一般的なカメラがあればどのマシンでも動かせるのがウリだ。

また「存在しない箇所を画像生成する」モデルについては近年言及されることも増えてきたGAN(Generative Adversarial Network : 敵対的生成ネットワーク)を活用。吉田氏によると「静止画だけでなく動画を生成でき、モバイルでもリアルタイムに動かせるのは他にはない特徴」だという。

これらに加えて、機械学習の学習データを集める仕組みとして50台のカメラと偏光LEDライトを保有し高精度な3Dフェイシャルモデルをキャプチャできる設備も整えた。

米国の有名アクセラに採択、「ミーム」文化に合わせた新アプリも

EmbodyMe代表の吉田氏は前職のヤフー時代から、スマホのインカメラを使ってキャラクターや他の人物になりきれる「怪人百面相」や自分の分身となるアバターを生成し動かせる「なりきろいど」を開発してきたエンジニアだ。

2013年ローンチの怪人百面相は「Snapchat」や「SNOW」に搭載されているフェイスエフェクト機能のようなもの、2015年ローンチのなりきろいどはVTuberになれるアプリに近い。これらの技術をいち早くプロダクト化してきた吉田氏を中心に、EmbodyMeには先端技術の開発に携わった経験を持つエンジニアが集まっている。

EmbodyMe代表取締役の吉田一星氏

2018年にローンチしたXpressionは、同社が現在取り組む基盤技術を実用化したプロダクトの1つという位置付け。同サービスに関する論文はSIGGRAPH Asia Emerging Technologiesに採択されるなど、技術的な観点でも注目を浴びている。

現時点のアプリダウンロード数は非公開だが、海外比率が約7割と海外ユーザーの利用も多い。今年に入って米国の著名アクセラレータープログラム「Techstars」にも採択され、現地のプログラムに参加。ポジティブな反響も多かったようで、年内を目安にコミュニティ要素などを加えて大幅にバージョンアップしたアプリ(サービス名は同じ予定)を公開することも計画している。

「米国には大きな『ミーム』文化があり、大雑把に説明すると日本における『ボケて』のようなアクションが大規模に行われていて、いろいろな人が同じネタをパロディ化してYouTubeなどに投稿することが広がっている。(Xpressionは)その文化にすごく合致するので、ユーザーが面白い動画を投稿したり、楽しめるようなコミュニティを作っていきたい」(吉田氏)

近年、特に海外ではディープフェイク技術がフェイクニュースなどに使われる可能性も懸念されている。Xpressionもその性質上、悪用される恐れもあるが、電子透かし技術(対象となる映像が自分たちの技術で作られたのか判別できる技術)などを取り入れながら対策をする方針。著作権についても企業と組みクリアにした形で、より多くの素材を使える仕組みを作っていきたいという。

狙うは次世代コンピュータグラフィクスの中心を担う存在

EmbodyMeのメンバー

現在EmbodyMeは基盤技術の研究開発に軸足を置いている段階で、今回の資金調達もそれを加速させることが大きな目的。「アプリは技術のショーケース的な意味合いもある」と吉田氏が話すように、会社としては今後同サービスに限らず、自社技術を用いた別領域のプロダクト開発も検討していく。データを集めながら基盤技術を育てていくことが狙いだ。

たとえばXpressionの技術を使えば「事前に自身のスーツ姿や仕事スタイルの映像を撮影しておくことで、パジャマやすっぴんの状態でも“ちゃんとした格好に見える”ビデオ会議ツール」なども実現可能。動画広告用のクリエイティブ作成やVTuber用のアプリなどエンタメ領域、AIスピーカーと絡めた映像生成ツールなども同様に基盤技術の活用方法として考えられるそうで、すでにプロトタイプの開発が進んでいるものもあるという。

また日本政府がXpressionの技術を使ってG20サミットのプロモーション映像を制作した事例など、他社と共同でプロジェクトに取り組むケースも生まれている。同アプリとほぼ同じものをスマホSDKとして提供する、コア技術の一部を提供するなど座組みは都度異なるが、引き続き他社とタッグを組むことによる技術のアップデートも視野に入れていく。

吉田氏いわく現在は「研究としても初期段階で、自分たちの将来的な構想を踏まえても10%ぐらいまでしか到達していない状況」なのだそう。まずは声や文字だけから表情を動かせる技術、その次は頭部や体全体を動かせる技術などへ少しずつ技術を拡張していくことを目指すが、最終的に見据えているのは「コンピュータグラフィックス(CG)領域での挑戦」だ。

「CGは90年代にアニメーションやゲーム領域で商業的にも大きく成功したが、2020年代にかけてディープラーニングの発展などにより従来とは全く違う形で映像や画像を生成できる技術が生まれ、今までのCGを置き換えていくと考えている。あらゆる人がものすごく簡単にどんな映像でも作れる時代がきた時に、いち早くプロダクトを出して中心的なポジションにいたい」(吉田氏)

Yelpのウェブサイトと検索結果がパーソナライズ化

米国時間8月27日、Yelpはユーザーの個人設定に基づいて検索結果とウェブページをパーソナライズできるようにすると発表した。

ベジタリアンのユーザーや子連れで行きやすいレストランを見つけたいユーザーは、検索のたびにその情報を入力する必要がなくなる。いったん設定しておけば、その後はその条件を優先した結果が表示される。

同社コンシューマープロダクト責任者のAkhil Ramesh(アキール・ラメシュ)氏は「2人のユーザーが同じコンテクストで同じ検索をしても結果は異なる。これはYelp史上初めてのことだ」と言う。

この機能を使うには「Personalize your experience」(体験をパーソナライズ)からオプションを選択する。オプションには、食事の条件(ベジタリアン、ビーガン、グルテンフリーなど)、ライフスタイル(子供がいる、車を持っている、ペットがいる)、アクセシビリティのニーズ(車椅子、ジェンダーニュートラルの化粧室)、好きな料理、その他の好み(書店が好き、夜のデート向けなど)がある。

この設定を済ませると、検索結果に反映するようになる。結果には「ベジタリアン料理多数」「中華好きのあなたにおすすめ」などと表示されるので、パーソナライズされていることがわかる。ウェブページではユーザーが気に入りそうな店がハイライトされる。

この機能の登場は遅すぎるようにも思える。人気アプリやウェブサイトの多くは、すでにすっかりパーソナライズされているからだ。なぜYelpは今、この手法を取り入れることにしたのか。

その理由のひとつとしてラメシュ氏は、食に対する関心の多様化を挙げる。また「我々には長年にわたって蓄積してきた、構造化されてはいないものの有意義で質の高いコンテンツがある。このコンテンツはリアルな体験を表しているものだ。ここ数年、我々の機械学習とAIは飛躍的に発展した。そのため、我々が持つ高品質なコンテンツをベースに本当に役に立つ機能を作ることができた」とも語る。

ラメシュ氏は、すべての行動をアルゴリズムに反映させるのではなく、明示的にYelpと共有した設定から結果を示すと強調する。とはいえ「どの機械学習のアルゴリズムにも偏りはたくさんあるだろう」とも述べた。

同氏は、このアプローチを「人間的な方法」と説明する。つまり、誰かと会話をするときに「その人が週末に何をしたかを想定しようとはしないでしょう。その人にただ質問し、会話をするだけです」。

同時にラメシュ氏は、アプリ内での行動全般が検索結果に影響を与えることが有用であることも多々あるため「この2つのバランスを探っているところだ」とも語った。

好みはタイミングや状況によって変わることもある。あるものを食べたくないとか、子供抜きで食事に行くこともあるだろう。そこで設定はいつでも変えられる。また、ウェブページからいずれかを選択し、詳しく見ていくこともできる。

このことがYelpの広告ビジネスにどう影響するかをラメシュ氏に尋ねたところ、最初に目に入る広告には影響が現れないが、設定と関連づけて「XXX料理好きのあなたに」というメッセージの広告は表示されるようになるとの説明だった。

同氏は「最終的にユーザーの設定に基づいて広告が表示されるだろうが、ETA(拡張テキスト広告)は表示されない」と付け加えた。

画像:Yelp

[原文へ]

(翻訳:Kaori Koyama)

安価なエッジデバイスにディープラーニング搭載、AIoT時代の開発基盤構築へIdeinが8.2億円を調達

「やりたいのはセンシングをソフトウェアを用いて高度にしていくこと。画像認識や音声認識などの信号処理技術によって、従来の物理的なセンサーでは取れなかった実世界の情報を取得してソフトウェアで分析できるようになった。自動車産業を代表に、製造や物流など様々な分野がソフトウェアでビジネスをしていく形に変わる中で、その基盤となるサービスを提供したい」

そう話すのはIdein(イデイン)で代表取締役を務める中村晃一氏だ。近年サーバーではなく末端のデバイス(エッジデバイス)で画像や音声データを処理する「エッジコンピューティング」が注目を集めているが、Ideinは安価なエッジデバイスにディープラーニングを搭載する技術を持つスタートアップとして知られる。

7月には手軽にエッジコンピューティング型のシステムを構築・運用できる開発者向けプラットフォーム「Actcast」のβ版を公開。今後はActcastのADKを用いて開発したアプリケーションを売買できるマーケットプレイス機能などを備えた正式版のリリースも見据えている。

そのIdeinは8月19日、グローバル・ブレインなど複数の投資家を引受先とした第三者割当増資により総額8.2億円の資金調達を実施したことを明らかにした。調達した資金は同社のメインプロダクトであるActcastの本格的な事業展開に向けた人材採用の強化や業務環境の拡充に用いる計画だ。

Ideinとしては2017年7月に数社から1.8億円を調達した後、2018年2月にアイシン精機と資本業務提携を締結して以来の資金調達。今回同社に出資した投資家陣は以下の通りだ。

  • グローバル・ブレイン6号投資事業有限責任組合及び7号投資事業有限責任組合(グローバル・ブレイン)
  • HAKUHODO DY FUTURE DESIGN FUND投資事業有限責任組合(博報堂DYベンチャーズ)
  • Sony Innovation Fund by IGV(Innovation Growth Ventures)
  • SFV・GB投資事業有限責任組合(ソニーフィナンシャルベンチャーズとグローバル・ブレインが共同設立)
  • DG Lab1号投資事業有限責任組合(DG Daiwa Ventures)

エッジコンピューティングを普及させるために必要なこと

ここ数年エッジコンピューティングがホットな領域となっている背景には、サーバー集約型(オンプレ・クラウド型)AIシステムの課題がある。

「従来のソフトウェアと違いAI技術を使ったサービスの大きな違いは常時動き続けるのが基本。扱うのは画像や音声といったデータのボリュームが大きいもので、膨大な生データを処理するため計算の負荷も高い。結果的に通信コストとサーバーコストが従来のWebサービスとは比べ物にならないくらい、桁違いにかかってしまう」(中村氏)

高コストであることが現在AIの発展を阻害している1つの要因であり、まずはそれを解決したいというのがIdeinの考えだ。末端デバイスで計算を行うエッジコンピューティングの場合、サーバーに送るのは必要なデータのみ。通信回数が桁違いに減るので通信コストを削減でき、計算用のサーバーがいらないためサーバーコストも抑えられる。

加えてサーバーのスペックがボトルネックになることによるスケーラビリティの問題を回避できるほか、プライバシーの観点でも個人情報や機密情報が漏洩するリスクも減らせる。

もちろんエッジコンピューティングを普及させるためにはクリアしなければいけない課題もある。中村氏が主要なものとして挙げるのが「エッジデバイスの価格」「ソフトウェアの入ったデバイスがばら撒かれた際のシステム開発やメンテナンス」「ビジネスモデル」の3点だ。

「サーバーでやっていた計算をデバイスに持っていくので高額になりがち。画像認識機能を持ったカメラが1台数十万円で販売されているのが現状だ。また様々な場所にソフトウェアの入ったデバイスがばら撒かれた時、たとえば数千個のデバイスに1個1個ソフトウェアが入っている場合にどのようにメンテナンスを行うのかはものすごく重要なポイントになる」

「ビジネスモデルもやっかいな問題。デバイスにソフトウェアを乗っけるので、組込みソフトウェアのライセンス販売のようなビジネスになりやすく、クラウドでサブスクリプション型のサービスとはギャップがある」(中村氏)

安価なデバイスへディープラーニング搭載、遠隔運用の仕組みも

この3つの課題をクリアし、幅広い開発者がエッジコンピューティング型のシステムを構築する手助けをするのがActcastだ。

前提としてIdeinは自社のエッジ技術を使った受託開発を主力にしているわけでも、ディープラーニング用のコンパイラを販売しているわけでもない。開発者向けのクラウドサービスを提供するスタートアップであり、サービスのユーザーである開発者に対してエッジ技術を無償で提供している。

同サービスの特徴の1つは安価なエッジデバイスで高度な計算ができること。これは上述した「エッジデバイスが高額になってしまう」問題を解決する技術であり、前回の記事で詳しく紹介した点だ。

IdeinではかねてからRaspberry Pi上でディープラーニングモデルによる高度な計算を実行できる仕組みを研究してきた。エッジAIに取り組むプレイヤーはいくつか存在するが、演算量をできるだけ減らすためにモデル圧縮を採用する企業が多い。一方でIdeinはモデル圧縮ではなく“プロセッサー側をハックする”というアプローチをとった。

「自分たちがやったのはプロセッサー側に乗っているGPUを汎用的な計算に使えるように、アセンブラからコンパイラまでソフトウェアスタックを丸ごと作るということ。プロセッサーの引き出せる性能を上げるとともに、高い効率で使えるコンパイラ技術を研究した」(中村氏)

中村氏によるとモデル圧縮を採用した場合「精度の維持が難しい」ことに加え「開発者が作ることのできるアプリケーションに制約が出てくる」ことがネックになるそう。Ideinは別のアプローチを取ることで安くても精度を落とさず、なおかつ開発者がより自由にアプリケーションを作りやすい仕組みを整えた。

ユーザーはActcastのSDKを利用すると追加のハードウェアを用意せずともRaspberry Piのみでエッジデバイス向けのアプリケーションを開発することが可能。TensorflowやChainerなど既存のフレームワークで開発したモデルをそのままの精度で動かせる。

また中村氏いわくこの技術ばかりがフォーカスされがちなのだそうだけれど、実はより重要なのが「遠隔からソフトウェアを書き換えられること」だという。

「AI技術のようなものは開発者もユーザーも最初から正確なニーズを掴むのは難しく、やりながらアップデートすることが重要。やればやるほどデータも蓄積され精度が上がるので『1回作りきって現場に設置したら終わり』というやり方では上手くいかない。Actcastでは核となるアプリケーションの遠隔インストールや設定変更機能を始め、エッジコンピューティングシステムを構築しようとする際に必要な『ディープラーニング以外の部分』を一通り揃えている」(中村氏)

正式版ではApp Storeのようなマーケットプレイスの仕組みを

上述した特徴に加え、今後予定している正式版には同社のビジネスのキモとなる「マーケットプレイス」など新しい概念も追加される。

これはApp Storeのような感覚で、ActcastのSDKを使って開発したアプリケーションを売り買いできる仕組みだ。各アプリの価格は1デバイス、1日単位で自由に設定可能。エンドユーザーはミニマムで様々なアプリを試すことができ、ベンダーもいいものを作ればサブスク型のスケーラブルなビジネスを確立するチャンスを手に入れられる。

中村氏によるとエンドユーザー側からは特にリテールやセキュリティ業界からの問い合わせが多いそう。Actcastを上手く使えば従来は受託開発会社などと時間とコストをかけてPoCから取り組んでいたようなプロジェクトも、より安価に最小単位から現場でテストできる。これまでコストなどが理由でAI活用に踏み切れなかった企業や個人にとっても新しい選択肢になるだろう。

このマーケットプレイスはIdeinにとっての収益源でもあり、同社はApp Storeと同様にベンダーから手数料を得る計画。開発用ツールの提供などは無償で行うことで、より多くのベンダーが参加しやすい環境を作っていきたいという。

IdeinではActcastのパートナープログラムも展開中で(現在は24社が参加)、多くのパートナーとの協業を通じて魅力的なプラットフォームサービスの構築を目指すとのことだ。

シリコンへの回帰が新たな巨大ハイテク企業を生む

Netflixを見まくったり、ネット対応の新しいドアホンを家に取り付けるごとに、私たちは大きなデータの潮流を引き起こす。わずか10年の間に帯域幅消費量は100倍に増え、今後も、人工知能、仮想現実、ロボティクス、自律運転車といったレイヤーを重ねることで、その量は減るどころか増える一方となる。Intelによると、1台のロボットを90分間走らせただけで4TBのデータが生成されるという。これは、同じだけの時間、私たちがチャットをしたり、動画を視たり、その他のインターネットで楽しい時間を過ごしたときに発生するデータ量の30億倍以上になる。

ハイテク企業は、サービス満載の巨大なデータセンターを建設して対応してきた。しかし、データ消費量は、もっとも野心的なインフラの造設も追いつけないほどのペースで伸び続けている。つまり、現在のテクノロジーに依存している限り、データ処理の需要は決して満たされないということだ。

データ処理の鍵を握るのは、言うまでもなく、半導体だ。このトランジスタを無数に埋め込んだチップが今日のコンピューター産業を駆動している。この数十年間、技術者たちはより多くのトランジスタをより小さなシリコンウェハーに押し込む技術の開発を推し進めてきた。現代のIntelのチップは、1mmサイズのシリコンの上に10億個以上のトランジスターが詰め込まれている。

この流れは「ムーアの法則」として知られている。Intelの共同創設者Gordon Moore(ゴードン・ムーア)氏が1965年に残した有名な言葉を彼の名にちなんでそう呼んでいる。それは、チップに搭載できるトランジスタの数は1年ごとに2倍になる(後に2年ごとに改められた)というものだ。従って、コンピューターの演算速度と性能は2倍になる。

小型化を進めつつ性能を飛躍的に伸ばしてきたチップは、私たちのテクノロジーを、この50年ほどの間、着実に牽引してきた。しかし、ムーアの法則は終わりに近づいてる。素材物理学という不変の法則が存在するためだ。現在のプロセッサーの製造技術では、もうこれ以上のトランジスタをシリコンウェハーには載せられないのだ。

さらに困ったことに、私たちをここまで引っ張り上げてくれたx86という、今日広く使われている汎用チップのアーキテクチャは、これから一般的になりつつある新しいコンピューターの利用法には適してない。

つまり、新しいコンピューティングアーキテクチャが必要になるということだ。実際私も、今後2~3年の間に、新しいシリコン・アーキテクチャやデザインがいくつも開花するものと予測している。それらは、大量のデータに長け、人工知能や機械学習、そしていわゆるエッジコンピューティング機器などに特化した機能に最適化されたものだ。

新しいアーキテクチャ

そうした専門性を持つ新しいアーキテクチャは、すでに方々の最前線に現れている。Nvidia(エヌビディア)のGPU(Graphic Processing Units)、Xilinx(ザイリンクス)のField Programmable Gate Arrays、Altera(Intelが買収)、Mellanox(Nvidiaが買収)のスマートネットワークインターフェイスボード、そしてMayfieldが投資したスタートアップFungibleのデータプロセッシングユニット(UPU)と呼ばれるプログラマブルプロセッサの新たなカテゴリーなどだ。DPUは、あらゆるデータインテンシブな作業負荷(ネットワーク、セキュリティ、ストレージ)に対応するよう目的を絞って作られる。Fungibleは、それをフルスタックのプラットフォームに結合して、データセンターで従来の主力であるCPUと並行して使えるようにする。

これらの、そしてその他の目的に合わせて設計されるシリコンは、セキュリティからスマートドアホン、はては自律運転車やデータセンターに至るまで、固定化された仕事を熟すエンジンとなる。こうしたイノベーションを起こす、そしてそれを生かす市場には、新しい企業が現れるだろう。実際、これらのサービスが成長し、その性能が生命線となる5年後には、まったく新しい半導体のトップメーカーが登場すると私は信じている。

さあ、あらゆるものがつながる接続時代の強力なコンピューター施設を立ち上げよう。それはデータセンターだ。

データ保管やコンピューティングは、ますますエッジで行われるようになっている。つまり、そうした処理を必要とする私たちのデバイスに近い場所だ。ドアホンの顔認証ソフトウエアや、VRゴーグルで繰り広げられるクラウドを利用したゲームなどもそれにあたる。エッジコンピューティングなら、そのような処理を10ミリ秒以内で熟せるため、エンドユーザーのために、もっと多くの仕事ができるようになるのだ。

現代のx86 CPUアーキテクチャの算術計算では、大規模な、または大容量のデータサービスを展開することが難しい。自律運転車は、データセンターレベルの敏捷さと速度に大幅に依存する。歩行者が横断歩道を渡っているときに、データのバッファリングなどしていられない。私たちの作業インフラは、そして自律運転車などが必要とするものは、これまでになくデータ中心(大きなデータセットの保存、読み出し、マシン間での転送)になってきているため、新しい種類のマイクロプロセッサが必要になる。

この他に、新しい処理アーキテクチャを必要とする分野に人工知能がある。AIのトレーニングと推論(たとえばスマート・ドアホンが安全な人間か不審者かを見分けるなど、データから推論を行う際にAIが用いる処理)の両方だ。グラフィック・プロセシング・ユニット(GPU)は、そもそもゲームを処理するために開発されたのだが、AIのトレーニングや推論では、従来のCPUよりも効率が高いことがわかった。

しかし、AIの作業(トレーニングと推論)を処理するためには、画像分類、オブジェクト検出、顔認証、自律運転などのための専用のAIプロセッサが必要になる。これらのアルゴリズムの実行に必要な演算では、ベクトル処理や浮動小数点演算を、汎用のCPUに比べて劇的な高速度で行わなければならない。

AI専用チップに取り組んでいるスタートアップに、SambaNova、Graphcore、Habana Labsなどがある。これらの企業は、機械知能のための新しいAI専用チップを開発した。それはコストを下げることでAIの導入を促進し、性能を劇的に向上させる。有り難いことに、彼らのハードウェアを使うためのソフトウェア・プラットフォームも用意されている。もちろん、 Google独自のTensor Processing Unitチップを開発)やAmazon(EchoスマートスピーカーのためのAIチップを開発)といった大手AI企業も同時のアーキテクチャに取り組んでいる。

モノのインターネット(IoT)と呼ばれるネット対応ガジェットが、ようやく増えてきた。パーソナルツールや家庭用ツール(暖房のコントローラー、煙感知器、歯ブラシ、トースターなど)の多くが、非常に低電力で動くようにもなった。

CPUファミリーのARMプロセッサは、そうした役割を担うようになるだろう。これらのガジェットは、複雑な演算も大きな電力も必要としないからだ。そこではARMアーキテクチャは理想的だ。少ない数の命令を処理するように作られていて、その分、高速処理が可能になる(1秒間に何百万という命令の中を駆けめぐる)。しかもそれは、複雑な命令の実行に必要とされるパワーの数分の一で済む。やがては、ARMベースのサーバー・マイクロプロセッサがクラウド・データセンターで活躍するようになるとさえ、私は考えている。

これらすべてはシリコンの上で行われるため、私たちはそもそものルーツに回帰することになるだろう。私は、シリコンバレーにシリコンを呼び戻す投資家を応援したい。そして彼らが、新たな半導体巨大企業を生み出すものと信じている。

【編集部注】著者のNavin Chaddha(ネイビン・チャダー)氏は、消費者向けおよび企業向けのアーリーステージのハイテク系企業を対象とした投資会社Mayfieldの代表。現在27億ドル(約2870億円)の運用資金を有する。

[原文へ]

(翻訳:金井哲夫)

Googleがモバイル学習アプリSocraticを買収してiOS版を再提供

Google(グーグル)は先週の発表の中で、宿題ヘルパーアプリSocratic(ソクラティック)の買収を公表しし、アプリに対する同社のAIテクノロジーの追加サポートと、iOSでの再提供について詳しく説明した。買収はどうやら水面下で行われていたもので、Googleによればアプリの買収自体は昨年だったという。

創業者の1人のLinkedInアップデートによれば、それは2018年3月のことだった。Googleは買収の詳細に関する質問にはコメントを拒否した。

Socraticは、すべての生徒が学習できるようにするコミュニティを作成することを目標に、2013年にChris Pedregal(クリス・ペドレガル)氏とShreyans Bhansali(シュレヤン・バンザリ)氏によって創業された。

当初このアプリは、Quoraに似たQ&Aプラットフォームを提供し、生徒たちの質問に専門家たちが答えていた。SocraticがシリーズAで600万ドルを調達した2015年の時点では、そのコミュニティは約50万人の生徒を抱えるまでに成長していた。その後同社は、ユーザー同士のつながりよりも、実用性に置くようになった。

2015年に提供が開始されたモバイルアプリでは、簡単な説明を得ることができるように宿題の写真を撮る機能が提供された。これは、Photomath、Mathway、DoYourMathといった、この分野の他の多くのアプリに類似した機能だ。

ただし、Socraticは単なる数学ヘルパーではない。科学、文学、社会科などの課題にも取り組むことができるのだ。

2018年2月には、Socraticはアプリのソーシャル機能を削除することを発表。そして6月には、同社はユーザーが投稿を行っていたQ&Aウェブサイトを閉鎖することになる。この決定は、失望したユーザーたちからのちょっとした反発を招いた。

Socraticは、アプリとウェブサイトは異なるプロダクトであり、同社は前者に集中することを戦略的に選択したのだと説明した。

「私たちは、他の人たちと同様に、現実の制約に縛られています。すべてを行うことはできません。それは必要に応じて意思決定とトレードオフを行うことを意味しています。この決定は特に痛みを伴うものでした」と、当時のコミュニティリーダーだったBecca McArthur(ベッカ・マッカーサー)氏は書いている

その戦略とは、明らかに、SocraticをGoogleのAIを活用したプロダクトにすることだった。現在Socraticのエンジニアリングマネージャーであるバンザリ氏が執筆したGoogleのブログ投稿によれば、アップデートされたiOSアプリは、ユーザーを支援するためにAIテクノロジーを使用している。

質問する

iOSアプリの新しいバージョンでも、写真をスナップして回答を得たり、自分自身の質問をしたりすることができる。

例えば、生徒が教室での配布物を写真に撮ったり、「距離と変位の違いは何?」といった質問をすると、Socraticは最も適切な検索結果を返してくる。その後には説明やQ&Aセクション、そして関連するYouTubeビデオやウェブリンクさえもが続いている。それはまるで、宿題に関する質問に特化した検索エンジンのようなものだ。

Googleはまた、学生の質問を分析して、必要なリソースへ導くための基礎概念を特定できるアルゴリズムを、構築し訓練したと説明している。さらに支援が必要な学生のためには、アプリは概念をより小さく、理解しやすいレッスンに分解することができる。

googleai v2

さらに、アプリには、教育者たちの支援を受けて開発された、高等教育と高校の1000個以上のトピックに関するガイドが含まれている。学習ガイドは、学生がテストの準備をしたり、ただ特定の概念をより良く学習したりするためにも役立つ。

エクスプローラー56kHA30

「教師と生徒のための教育リソースを構築する中で、私たちは彼らが直面する課題と、それを私たちがどのように支援できるのかについて、多くの時間を割いて彼らと語り合い合いました」とバンザリ氏は語る。「私たちは、生徒たちが勉強中にしばしば『行き詰まる』と聞きました。教室の中でなら、質問に教師が素早く応答してくれますが、自分で学習しているときに答を何時間を探すことは、生徒たちにとって苦痛なのです」と彼は言う。

ここがSocraticが役立つ場所だ。

とはいえ、この買収は他の点でもGoogleに役立つ可能性があるという。宿題ヘルパーへの重点的な注力に加えて、この買収はプラットフォームをまたがるGoogle Assistantテクノロジーを助けることになるかもしれない。なぜなら仮想アシスタントは、GoogleのKnowledge Graphがまだ取り込んでいない、より複雑な質問に答える方法を学ぶことになるからだ。

AIが搭載された、GoogleによるSocraticの再提供バージョンは、米国時間の8月15日にiOS上で提供された。そのリリースノートには、アプリが現在Googleの所有になったことも書かれていた。

アプリのAndroidバージョンは、この秋に登場する予定だ。

[原文へ]

(翻訳:sako)