GoogleがAndroid 8.1にNeural Networks APIを導入、今日からデベロッパーベータを提供

今日Googleは、Android Oreo(v8.1)のデベロッパー向けベータの配布を開始した。

今回の大きな目玉はNeural Networks APIで、これによりスマートフォン上でハードウェアアクセラレーション〔後述〕によるNNの推論を行い、訓練済みの機械学習モデルを高速に実行する。この種の計算をエッジに持ち込むことによって、ネットワークのレイテンシーと負荷が減り、機密データがデバイス上に留まることによって、エンドユーザーに多大な便宜をもたらす。

このNN APIにより、スマートフォン上で画像分類をしたり、ユーザーの行動パターンから次にやることを予見する、といったアプリが可能になる。Googleによると、このNeural Networks APIはTensorFlow LiteやCaffe2などのフレームワーク使いこなすための“基礎としての層”として設計した、という。

このAPIはデバイス上にAI専用チップがあればそれを利用できるが、なければふつうにCPUを使う。GoogleのスマートフォンPixel 2には専用チップPixel Visual Coreが載っており、Googleは前にも、8.1のプレビューが使えるようになったらそれが実際に動く、と言っていた(つまり今日だ)。

Neural Networks APIはユーザーのデバイスを酷使するが、Googleは8.1でAndroid Go用の最適化を導入し、デベロッパーがもっとベーシックなスマートフォン用にはその軽量バージョンのAndroidを使えるようにした。それは、今年の5月にI/Oカンファレンスで発表された簡易版Androidだ。

Goは、接続性の良くないところで使う低スペックのスマートフォン用だ。今回のアップデートではRAMが1GBに満たないデバイス向けのメモリの最適化が行われ、またそれらが8.1以降で動いている場合には、配布するアップデートを対象デバイスのシステムメモリに応じて選択できる。

そのほか、8.1デベロッパープレビューではAutofillがアップデートされて、パスワードマネージャーがこのフレームワークを使いやすくなった。また、そのほかのバグパッチやセキュリティパッチも、いろいろ行われているはずだ。

Android 8.1が消費者の手に渡るのは12月の予定だが、デベロッパーは今すでに、このベータにアクセスできる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CiscoがAIと機械学習を用いてITの障害予測を助ける

私たちはITシステムから送られてくる通知の数が、人間が追跡できる能力を上回ってしまうことがあることを、もう何年も前から気が付いていた。これまでも機械がそれを助けて来た。そして人工知能や機械学習の出現が、その能力を加速している。本日(米国時間10月17日)Ciscoは、そうしたテクノロジーを用いて、重大な問題が起きる前に、顧客が不具合を発見することを助けることを発表した。

Ciscoのソリューションは、AIを使う他の企業たちのものと似ている。そして機械学習が人間の能力を拡大し、システムから送られてくる膨大な情報をふるいにかける支援をするのだ。今回同社は、こうしたニーズに対応するために、2種類のサービスセットを用意した。

第1のものは“Business Critical Services”という名前で、分析、自動化、コンプライアンス、そしてセキュリティツールを統合したものだ。名前だけを聞けば特に目新しいものではないだろう。これらを使ってシステムの健康を追跡するのだ。Ciscoによれば、顧客のシステムダウンのリスクを軽減しつつ、最も重要なビジネスサービスを追跡する際の複雑性を、軽減してくれるということだ。

この種の追跡サービスは、Ciscoが今年始めに37億ドルで買収したAppDynamicsが提供しているものと同じである。今回のサービスがAppDynamicsの資産から開発されたものかどうかははっきりしない。しかしこれは彼らがビジネスの構築に使っていた種類のモニタリング機能だ。

第2のサービスセットは“Cisco High Value Services”と呼ばれるものだ。顧客のIT部門に対して、ソフトウェア、ソリューション、そしてネットワークサポートの観点から、より親密なサービスを提供する。

IDCのChris Barnardは、こうしたサービスは、近代化プロセスに苦労している企業たちが、たとえ社内の専門知識が欠けていても、最新状態を保つことができるようにするものだと語る。「ビジネスシーンがあまりにも速く変化してしまうために、デジタルトランスフォーメーションに追従することが、一部の企業にとっては難しいものになっています。その結果、彼らはスキル、専門知識、そして能力を持つ大きなベンダーパートナーたちに頼り、この人材ギャップを埋めようとしているのです」とBarnardは、ある声明の中で語っている。この場合、その大きなベンダーパートナーとは、Ciscoということになるだろう。

Ciscoはこれらのプロダクトを企業向けだとしているが、IoTビジネス全体が、不具合の発生以前にそれを予測するというアイデアの上に構築されるものである。これまでも、Splunkのような会社がAIと機械学習を利用し、ITシステムからやってくる沢山の通知をフィルタリングして、担当者に予測と報告を行っていた。これはDataDogやNew Relic(AppDynamicsの競合相手)のような、パフォーマンスモニタリング会社が提供していたものと同様のものである。

Ciscoは最先端テクノロジー、ネットワークハードウェアの専門知識、そしてネームバリューを使って、変化する技術環境への対応に苦しむビジネスたちを支援しようとしている。

原文へ
(翻訳:sako)

FEATURED IMAGE: JUSTIN SULLIVAN/GETTY IMAGES

Nvidiaに負けたくないIntelがニューラルネットワーク専用プロセッサーNervanaを年内発売

今朝(米国時間10/17)WSJのD.LiveイベントでIntelが公式に、同社のニューラルネットワークプロセッサーNervanaを披露した。この機械学習のユースケースを想定したチップ系列は、開発時のコードネームがLake Crestだった。

このチップの基本技術は、Intelが昨年8月に3億5000万ドルで買収したNervana Systemsに負っている。このニューラルネットワークプロセッサー(Neural Network Processor, NNP)チップは標準的なキャッシュ階層を廃し、チップ上のメモリをソフトウェアが管理することによって、ディープラーニングのモデルの訓練を高速化する。

Intelはここ数か月、Nvidiaに完敗することを避けようと躍起になっていた。今成長著しいAI市場に向けて舵を切ることにより、このレガシーのチップメーカーは、これまでに築いた業界とのコネを利用して生き残ろうとしている。その点に関してIntelの目標は、2020年のAI部門の売上を現在の100倍にすることだ。

NervanaはNNPとしてスケーラビリティと数値計算の並列化を売りにしている。また、強力な双方向データ転送能力も、重要なセールスポイントだ。Intel独自の数値フォーマットFlexpointを使うことによって、スループットを上げているという。また回路のサイズを縮小したことによって並列処理を高速化し、同時に電力消費量を減らしている。

もちろんニューラルネットワークのパラメーターを大量のチップに分散して効率を上げることは、他者も当然ねらっている。Nervanaと並んで今後市場にどんなものが出てくるか、今から楽しみだ。

今日の発表には、ベンチマークがなかった。間に合わなかった。発売は年内だそうだが、大丈夫か。Facebookは技術情報をIntelと共有して、このチップの開発に協力してきた。

Intelは、Nervanaを軸とする総合的な製品ラインを目指しているようだ。次に出るAI向けXeonプロセッサーは、噂ではコードネームが“Knights Crest”だそうだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

デベロッパーが使う機械学習のモデルがグローバルなトレンドに合うようにするTensorFlow Lattice

GoogleのTensorFlowのチームが今日(米国時間10/11)、デベロッパーが使用する機械学習のモデルが、訓練データにノイズがあった場合でもグローバルなトレンドに合っているようにするためのツールTensorFlow Latticeをリリースした。Latticeはルックアップテーブルのようなもので、それにより、モデルを制約するマクロのルールを定義する過程を単純化する〔単なる表で表す〕。

ルックアップテーブル(lookup table, 参照表)は、データの入力(キー, 鍵)と出力(ヴァリュー, 値)を対照させたデータ表現だ。一つのキーに一つのヴァリューが対応している形がいちばん理解しやすいが、複雑な多次元のファンクションではキーが複数になることもある。TensorFlowのチームのアプローチは、訓練データを使ってルックアップテーブルのヴァリューを訓練し、一定の制約下で精度を最大化するものだ。

このやり方にはいくつかの利点がある。まずそれは上述のように、単調関係(monotonic relationship)を定義しやすい。もっとふつうの言葉で言えば、入力がある方向に動けば出力も同じ方向に動く、というデータ間の単調な関係をデベロッパーに保証する。

チームは、車と交通量の例を挙げている。車が増えれば交通量も増える、という単調関係。このような状況では、単調性がルックアップテーブルのパラメータの制約として表現される。これらの制約は、事前の知識を利用して出力(結果)を改良する。モデルが、ユニークだけれども前と似た問題に適用されるときには、とくにそれができる。

さらにまた、高価な計算に頼るよりも単純な参照表を使った方が効率的な場合があり、そのときは一つ一つの入力/出力ペアをいちいち計算するよりも推定(補完)で間に合う。それにラティステーブル(格子表)は、従来の方法に比べて、デベロッパーにとっての透明性が増す。

TensorFlowは、デベロッパーがラティステーブルを使ってさまざまな問題を解くときのために、4種類の推定ファンクションを提供している。さらに詳しい情報は、GitHub上にある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

一般企業とデベロッパーの機械学習導入を助けるPetuumがSoftbankらから$93Mを調達

機械学習のデベロッパーの不足が産業界の足かせになっている今、スタートアップも大手テクノロジー企業も人工知能を商用化するために必要なツールの民主化に取り組もうとしている。その方面の最新のスタートアップPetuumは今朝(米国時間10/10)、Softbankおよび Advantech Capitalからの、9300万ドルのシリーズBを発表した。

昨年カーネギーメロン大学の機械学習の教授Dr. Eric XingとDr. Qirong Ho、そしてDr. Ning Liが立ち上げたPetuuは、機械学習の開発を支える二つの部位のためのソフトウェアを作っている。ひとつは、データの準備と機械学習のモデルの選択を自動化することだ。機械学習の初心者である一般企業は、このようなツールの助けがなければ、TensorFlowやCaffeのような、広く使われている機械学習のフレームワークすら、使いこなすことができない。

そしてモデルが決まったら、今度はPetuumは、ユーザーが使用するハードウェアの特性や制約に合わせた最適化を、デベロッパーをアシストしながら行う。こちらが、二つめ。その主な工程は、ハードウェアを仮想化して障害を取り除き、分散GPUクラスターの管理という余計なステップをなくすことだ。

Dr. Xingはこう語る: “私たちのAIの扱い方は、職人芸ではない。私たちはきわめて標準化されたビルディングブロックを作って、それらをLegoのように組み立てたり、組み立てなおしたりする”。

PetuumのファウンダーEric Xing博士とピッツバーグの同社オフィス

つまり同社のサービスは、さまざまな機械学習の問題を解くことではなく、ユーザー企業とそのデベロッパーたちが、0の段階から1の段階へ踏み出せるために、そのプロセスを自動化することだ。ただしPetuumはそれと同時に、エキスパートたちが十分に使えるシステムも目指している。この両立が、かなり難しい。

Dr. Xingは曰く、“Excelの使い方は誰でも知ってる。一般社員はExcelを使って表を作るだろう。それと同時に、高度な技能を持ってる統計家が何かの現象のモデルを作るときも、Excelを使うことがある”。

また、市場戦略も難しい。テクノロジー業界がいくら大金を投じてAIを称揚しても、投資家たちの多くはヒューリスティックスで不確実性を管理する方向へ向かおうとする。そこでは、AIが得意とする水平的な〔業種業態の違いを問わない〕プラットホームが、役に立たない。

それに、機能の開発と支出の均衡が必要なスタートアップが、MLaaSやMLプラットホームでGoogleやAmazonに対抗するのは難しい。Dr. Xingは自分のチームのスキルを高く評価しているが、Softbankらからの資金はありがたいはずだ。H2O.aiAlgorithmiaなどの競合他社にはまだ、これほどの資金源はないだろう。

なお、同社はヘルスケアやフィンテック分野の顧客を開拓中だ。しかし長期的には、あらゆる業種業態に対応する気はない。ベータテストにはさまざまな業界から参加しているが、しかし今後は、他の業種業界に対して、このプラットホームをベースとするソリューションを同社以外のスタートアップが構築できるだろう。

今日の投資はSoftbank本体からで、930億ドルのSoftbank Vision Fundからではない。将来このファンドから投資されるのかは、不明だ。Petuumの現在の社員は70名で、今後は製品開発と営業とマーケティングを同時に増員したい、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Rasa Coreはチャットボットのコンテキスト判断用機械学習モデルを人間参加の半自動で作る

会話を扱うコンピューターシステムにとっては、コンテキストがすべてだ。人間はそのことを意識しないけど、日常のとてもシンプルな会話でさえ、複雑なコンテキストの産物だ。会話システムが人間の能力になかなか追いつかないのも、コンテキストという難問があるためだ。しかしベルリンのRasaは、対話的な学習とオープンソースのコードを利用して、この会話するAIの問題を解決しようとしている。

そのRasa Coreというシステムのやり方は、多くのAIスタートアップと似ていて、Amazonの
Mechanical Turkのような人力サービスを利用して機械学習のモデルが持つ不正確さを修正する。ただしRasaが使うのはMechanical Turkではなく、誰でも参加できる方式で、開発中のボットと人が短い会話をし、それによりモデルを訓練しアップデートしていく。

人とボットが会話をする様子を、上の図で見ることができる。上図では「利息を比較する」にチェックが入っているが、それは、ユーザーが求めている確率がもっとも高いと思われるアクションだ。それを見た人間トレーナーは、正しい/正しくないで答える。その結果をモデルは学習し、次に同じ状況に直面したら、もうその質問をしない。

Rasaのチームによると、ボットが使い物になるまでに行う人間とのサンプル会話は、数十回で十分だ。しかし、もっとたくさんやれば精度は上がるし、ユーザーフレンドリーにもなるだろう。

“IBMがWatsonで作った会話モデルを見たけど、ちょっとがっかりした”、とRasaの顧客の大手保険会社Helveticaに勤務し、会話型AIのプロマネでもあるFlorian Nägeleは述べる。“決定木が一つだけで、コンテキストをほかの木に持っていけない”、と彼はWatsonについて言う。

Rasaのよいところは、訓練データなしで顧客が自力でモデルを作れることだ。理想的には誰もがサンプル会話の自分用の大きなコーパスを持っていて、それを使って会話システムを訓練することだが、技術スタッフのいない企業では、それも難しい。

Rasa Coreは、オープンソースとしてGitHub上にある。またRasa Coreと本誌が昨年12月に取り上げたRasa NLUには、企業向け有料バージョンもある。有料版には、アドミン用管理インタフェイスや、カスタマーサポート、テストの自動化、コラボレーションによるモデルの訓練、といったサービスが付随する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

iPhone 8にはAppleが設計した独自のGPUが新しいA11 Bionicチップとともに載っている、機械学習のためだ

iPhone 8のカメラには、A11 Bionicという新しいチップが載っていて、それは6-coreチップを上回るパワーを秘めているが、今日(米国時間9/12)の発表でいちばん重要なのは、たぶんそこではない。

AppleがiPhone 8に載せたのは、独自に設計したGPUなのだ。GPUの、大量のコアの配列を動員する高速かつ強力な計算力は、自然言語処理や画像認識など機械学習のタスクにうってつけだ。ハイスペックなGPUはもちろんゲームにも向いているが、デバイスの配列をベースにしてSiriのエコシステムに人びとを閉じ込めたいAppleにとっても、これ〔カスタムGPU〕は大きな一歩だ。

ここまでの道も、長かった。4月には、AppleがiPhone用の独自のGPUを設計している、と囁(ささや)く声があった。機械学習のためにカスタムハードウェアやGPUを作って、ハードウェアをそのニーズに向けて最適化しようとしているのは、Appleだけでなない。しかしAppleにとっては、Siriとカメラと今後の機械学習ツールのために最適化されたツールを作ることが目的だ。

それにまたこれは、拡張現実におけるAppleの取り組みにとっても重要だ。デベロッパーには、拡張現実を開発するためのツールを提供して彼らの気を引きたい。またスマートフォンが高品質な消費者体験をサポートして、その魅力を一層高めれば、それもより多くのデベロッパーの心を捉える。

一方A11 Bionicの重要な特長は、下図に‘表示’されている:

Appleは通常、スマートフォンのアプリやそれが取り扱うプロセスの高度化ニーズに対応して、プロセッサーの高速化と効率化に努めてきた。でも今回独自のGPUを使うようになったことは、長年その部分を独り占めしてきたNvidiaを袖にすることだから、重大事件だ。しかもそれは今後、デベロッパーにとっても重要な意味を持つ。

今回本誌TechCrunchは、iPhoneイベントの記事やライブブログがめちゃめちゃ多いから、ぜひお楽しみいただきたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))



PyTorchとCaffe2両モデル間の変換ツールをFacebookとMicrosoftが共作、機械学習商用化のスピードアップ

FacebookとMicrosoftが今朝(米国時間9/7)、互いブログ記事で、ONNX、すなわちOpen Neural Network Exchangeというものを発表した。機械学習のデベロッパーはこのツールを使って、PyTorchとCaffe2のあいだでモデルを互いに変換し、研究開発や実装に要する時間を節約できる。

Facebookは前から、機械学習に関してFAIRとAMLという二つのグループを区別している。Facebook AI ResearchすなわちFAIRは最先端の研究開発を担当し、Applied Machine Learning, AMLはさまざまなプロダクトにインテリジェンスを実装する。

この両者は、使用するディープラーニングフレームワークも異なる。FAIRはPyTorchを使い慣れているが、こちらはリソースの制約がないコンピューティング環境でもっとも高度な研究開発の成果を追究する。

しかしユーザーのスマートフォンやコンピューターには能力の制約が当然あるから、実装役のAMLは、リソースを有効利用できるよう最適化されているCaffe2を使う。とくにその実装系のCaffe2Goは、非力なモバイルデバイスの上で機械学習のモデルを使えるよう、最適化されているCaffe2だ。

FacebookとMicrosoftが今日発表したツールを使うと、PyTorchのモデルとCaffe2のモデルを互いに容易に変換できる。二つのフレームワークを容易に行き来できることにより、 研究の伝播を広く早くし、また商用化の過程もスピードアップできる。

しかしながら、すべての企業がPyTorch/Caffe2のペアを使っているわけではない。TensorFLowベースの研究はきわめて多いし、そのほかの重要なフレームワークも使われている。また機械学習の商用化のレベルでは、モデルを特定のデバイスに最適化されたフォーマットに容易に変換するための研究開発も行われている。

たとえばAppleのCoreMLは、ごく限られた数のモデルを変換できる。しかし現時点でCoreMLはTensorFlowすらサポートしていないし、コンバーターの自作はかなり難しそうだ。GoogleやAppleが、特定のハードウェア向けの、機械学習フレームワークの最適化をもっとサポートするようになると、今度はそれらの相互運用性が課題になってくる。

Open Neural Network Exchangeは、Githubのここでリリースされている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

IBMとMITがAI研究パートナーシップを締結した、10年間で2億4000万ドルが提供される

IBMMITは本日(米国時間9月6日)、MIT-IBM Watson AI Labを高名なマサチューセッツ州ケンブリッジの地に設立するために、10年間で2億4000万ドルに及ぶ契約に合意した。

このラボは、IBMのAIのリサーチVPであるDario Gilと、MIT工学部長のAnantha P. Chandrakasanが共同議長を務める予定だ。

ビッグブルーは、IBMの研究者たちとMITの学生そして教員が、高度なAI研究を行うために、お互いがすぐ近くで仕事のできるラボに2億4000万ドルを投じるのだ。パートナーシップが生み出す知的財産がどうなるのかに関しては、現在のところ少々不透明なところが残されている。

私たちにわかっていることは:MITはこの研究に関連する論文を発表する予定であり、その一方でそのなかで生み出される優れたコードをオープンソース化する計画だということだ。知的財産の中にはIBMのプロダクトならびにサービスの中に組み込まれるものもある。MITはこの契約の一環として、AIベースのスタートアップをいくつか生み出すことをを望んでいる。

「共同ラボの主な任務は、MITの科学者たちとIBM(の研究者たち)を集めて、AIの未来を形作り、科学のフロンティアを推進することです」とIBMのGilはTechCrunchに語った。

その目的のために、両者は、IBMの科学者とMITの学生コミュニティに対して、共同研究のアイデアを提出するように要請する予定だ。幅広くなりがちな取り組みの焦点を絞るために、彼らは研究の指針となるいくつかの原則を打ち立てている。

これには、まず第1に、ニューラルネットワークに基く深層学習を使う、特定のアプリケーンを超えたゴールを目指すAIアルゴリズムの開発することや、企業の中の複雑な問題を解決するためのより一般化された方法を発見することが含まれる。

また第2に、彼らは機械学習の力を量子コンピューティングと結びつけたいと考えている。量子コンピューティングはIBMが現在特に力を入れて開発している分野だ。AIには量子コンピューティングの開発を推進する潜在力があり、逆に量子コンピューティングとそれがもたらす計算パワーもAIの開発を推進する可能性がある。

IBMのWatson Security and Healthcare部門が、ケンドールスクエアにあるMITのすぐ近くに位置していることもあり、両者はこの2つの産業界の問題に集中することで合意した。また、2つのチームは、AIが及ぼす社会的および経済的影響の、社会での理解を助けるために協力する予定だ。

これはMITとIBMの双方にとって大変大きな取引だが、Chandrakasanは、このラボはキャンパス全体のAIイニシアティブの1つに過ぎないことを明言している。それでも双方は、今回の新しいパートナーシップが、IBM内部やマサチューセッツのスタートアップコミュニティ、とりわけヘルスケアとサイバーセキュリティ分野での新しいビジネスに結びつく、多くの研究と商業的ブレークスルーをもたらすことを望んでいる。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: PHOTO: RICK FRIEDMAN/CORBIS/GETTY IMAGES/GETTY IMAGES

意思決定AIプラットフォームの提供を目指すProwler.ioが1300万ドルを調達

幅広い人工知能ベースのスタートアップが市場に参入してくるのを眺めていると、果たしてAIシステムというものは人間と同様の意思決定ができるのだろうかという、拭えないそして大きな疑問が湧いてくる。

ケンブリッジ大学からのスタートアップであるProwler.ioは、確率的モデリング、強化学習、ゲー​​ム理論に基づいた新しい種類の意思決定プラットフォームを開発している。上の疑問に対してAIコミュニティが肯定的な回答をすることを期待してのことだ。

Prowler.ioは、また別のAI企業であるVocalIQの元従業員である2人の人物によって創業された(VocalIQはローンチの13ヶ月後にAppleによって買収されている)。同社は本日(米国時間9月4日)その拡大のために1000万ポンド(1300万ドル)を調達したことを発表した。

新しい投資者であるCambridge Innovation Capitalに主導された今回のラウンドには、Atlantic Bridgeだけでなく、昨年の200万ドルのシードラウンドにも参加したPassion Capital、Amadeus Capital Partners、そしてSG Innovateも参加している。

人工知能はますます混み合った領域になりつつある。CB Insightsは、2016年には550社のスタートアップが658件の取引を行い、50億ドルの資金調達を行ったものと推定している。この数字は、わずか160件の取引しかなかった2012年に比べて60%増加している。これらのスタートアップに加えて、さらに立ち上がろうとする企業たちや、Google、 Apple、Amazon、Facebook、Baidu、そしてMicrosoftのような大きなテクノロジー企業がAIテクノロジーに投資を進めている。

AIはまた買収に向けての成熟も遂げている領域だ。多くの大規模テクノロジー企業は、新しいタレントを取り込み、彼らが既に作り上げたものを手に入れるために、AIスタートアップたちを買収している。CB Insightsによれば、2012年以降AIに焦点を当てたスタートアップが、250社以上買収されていることを指摘している。

Prowler.io自身は、そうした競合相手たちからは距離を置いていると認識している。何故なら現在AIの最大領域である認知機能(コンピュータービジョンや画像認識に関係)には焦点を当てず、意思決定の領域に注力しているからだ。

「当社にとって重要なことは、他の大きなAI企業が何に取り組んでいるのかではなく、何に取り組んでいないのかということです」と語るのはCEOのVishal Chatrathだ。ChatrathはProwlerをVocalIQのキーメンバーであったDongho Kim博士(現在はProwlerのCTO)と一緒に創業した。

“Big 5″(Google、Apple、Amazon、Facebook、Microsoft)や機械学習を採用する企業たちを眺めると、彼らは皆膨大なデータを利用したディープニューラルネットワークに集中している、とChatrathは言う。「これらは分類と知覚の問題を解決するためないは素晴らしい力を発揮します。これを使えば犬を犬であると言うことができるのです。そうやって、あなたが一旦世界を分類したら、何が何かはわかってしまいます。しかし、意思決定のギャップは残されたままなのです」。

問題は、ディープニューラルネットワークにはある種の意思決定を教えることはできるものの、それらは依然としてシステムを訓練するために多くのデータに依存しているということだ。「現実世界では、何千万ものデータを得るという贅沢は考えられません。あなたが行なうすべての選択には、ダイナミックな環境におけるマイクロ意思決定が含まれています」。

(かつてはNokiaの自動車関連部門の責任者でもあった)Chatrathが説明しているように、自動運転システムは車の周囲で起きる全てのことを検知することは可能だが、その中でシステムが何に注目し、運転上の決断をする際に何を評価をすべきかは遥かに難しい問題だ。また、知覚と評価に関する同様の課題は、他の多くのシナリオにも適用できる。

Prowler(直訳では「餌などを求めて徘徊する者」という意味:という名前は、この問題を解決するために、あらゆる角度からの挑戦を行なうという姿勢を表したものだ)は、この問題に対して、従来の機械学習の上に構築される数学と統計からの学びに着目している。

そのプラットフォームが利用するものは「新しい状況に対して一般化され、データ駆動を用いることで戦略を洗練し変化する環境に適応していく」確率的モデル、不確定性を推定し考慮する強化学習アルゴリズム、そしてマルチエージェント環境で他の人間やAIがどのように振る舞おうとしているのかを推定するゲーム理論だ。

ゲームチェンジャーとしての可能性は秘めているものの、その開発はそれほど迅速には進んでいない。Prowlerは、著名な学者たちをたくさん雇っているものの、まだ製品化は行われておらず、契約した顧客もいない(Prowlerそのものの話を始める前から、インタビューの最中にもChatrathが誇らしげに語ったことは、同社が際立つ実績を持つ教授や研究者たちを、その50人の従業員のなかに擁しているということだった)。いずれにしても、見込み客の中には開示できない潜在的な顧客が複数含まれている。

「NDAを交わして契約を締結するための複数の交渉に入っているところです、ゲーム業界の中の1つとは最終段階に差し掛かっています」と彼は語った。配車業界や金融業界からも多くの問い合わせが寄せられて来ている。注目すべきことに、これまで寄せられた問い合わせはすべて、先方から自発的に送られてきたもので、口コミに基くものであったということだ。

Prowlerが現在取り組んでいることの1つは、学習エンジンと意思決定エンジンという2つの部分からなるプラットフォームのための最高のアーキテクチャの構築だ。スタートアップは学習エンジン自身は自社で抱え、意思決定部分を顧客と構築する考えだったが、データを変更できるようにサンドボックス化を望む企業もある。

一方、同社は投資家たちの支援を受け続けており、このプラットフォームを立ち上げて、現在世の中にある意思決定のための他のソリューションよりも、意思決定を本当に効果的に進めることができるかどうかを示す必要に迫られている。

Cambridge Innovation Capitalの投資責任者であるAndrew Williamsonは、その声明の中で次のように述べている「PROWLER.ioは、現在最も扱いにくい問題に挑戦するために、世界レベルの研究者たちを集めました。ケンブリッジ大が擁する、確率的モデリング、機械学習とゲーム理論の専門知識を活用できることは、非常にエキサイティングです。重要問題の解決に適用される、PROWLER.ioのチームとテクノロジーの組み合わせは、同社にとって大きな商業チャンスを生み出すことでしょう」。

[ 原文へ ]
(翻訳:Sako)

両義的な文の機械翻訳で正しい訳語をガイドするGoogleのTransformerシステム

機械学習が翻訳にも大きく貢献することが実証されてきたが、弱点もある。たとえば翻訳モデルには、逐語主義(一語々々仕事をしていく)という性癖があり、それが深刻なエラーに導くこともある。Google Researchの今日(米国時間8/31)のブログ記事が、この問題の性質と、それに対する解決方法を詳述している。

同社の自然言語処理の部署にいるJakob Uszkoreitが、問題をうまく説明している。次のような二つのセンテンスがあるとしよう:

I arrived at the bank after crossing the street.

I arrived at the bank after crossing the river.

もちろん、これらの“bank”の意味は同じではない。でも、その意味はセンテンスを最後まで読まないと分からないから、アルゴリズムはこの語を拾ったとき間違った訳を与えるかもしれない。いろんな文章を注意して読むと、このような曖昧性は至るところにあることに気づく。

ぼくならセンテンスを書き換えるが(StrunkとWhiteはこれについて警告している)、もちろんそれは翻訳システムの能力にはない。また、このような曖昧なケースのすべてに対応できるように、ニューラルネットワークの振る舞いを変えることも、たいへんすぎて非現実的だ。

Googleのソリューションは、Attention Mechanismと呼ばれる。同社はそれを、Transformerと名付けたシステムへ実装した。それはセンテンス中の各語をすべてのその他の語と比較して、お互いのあいだにどれぐらい重要な影響関係があるか調べる。たとえば、“he”が話しているのか、“she”が話しているのか、それとも“bank”のような語に特別の意味があるのか…。

訳文を構築するとき、Attention Mechanismは各語を、他のすべての語の末尾につけた形で比較する。下のGIF画像は、その様子を表している。…ある程度はね。

今週のこの記事〔未訳〕を読まれた方は、すでにAttention Mechanismの用例をご存知だろう。その記事では協同ファウンダーが、この問題にはいちばん苦労した、と言っている。そして、Googleのポストが参考にしているコーネル大学のペーパーも教えてくれた。もちろん、Googleがそのペーパーの記述を模倣しているわけではない。しかしDeepLの実装はとても効果的で、Googleのよりも良いかもしれない。

Googleのやり方には、面白い副作用があって、システムのロジックをのぞき見できる: Transformerは各語に、すべてのほかの語との関連性をスコア(得点)で与える。下図では色の濃淡がスコアだが、左のセンテンスではitはanimalとの関連性が濃く、右のセンテンスではitはstreetとの関連性が濃い: 〔tired(疲れている)のはanimal、wid(広い)のはstreetだ〕

これは、うまいやり方だよね。少なくともぼくは、そう思う。この例では“it”がstreetかanimalかに関して曖昧性があり、最後の語を知らないとどっちが正しいか分からない。人間は教わらなくても分かるが、機械には、何でも教えなければならないのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

SalesforceがAIを利用して自然言語の質問をSQLに翻訳、事務系社員でもデータベースを利用できる

SQLはプログラミングの世界ではやさしい方だが、ふつうの人たちがリレーショナル・データベースを対話的に利用したいと思ったときには、やはりその学習曲線は急峻だ。そこでSalesforceのAIチームは、SQLを駆使できない人でもデータベースを使えるために、機械学習を利用できないか、と考えた。

彼らの最近のペーパーSeq2SQL: Generating Structured Queries from Natural Language using Reinforcement Learning(強化学習を使って自然言語からSQLを生成する)は、機械学習でよく使われるシーケンス変換モデルを利用している。強化学習の要素を加えたことによりチームは、自然言語によるデータベースへのクェリをSQLに翻訳するという課題に対し、かなり有望と思われる結果を得た。

すなわちミシガン大学のデータベースに対し、データベースにフットボールの優勝チームを尋ねるクェリで、正しい結果が得られた。

このプロジェクトに関わった研究員の一人、SalesforceのVictor Zhongは、こう語った: “クェリの正しい書き方は一つではない。自然言語で言われた質問*に対し、それを表すSQLのクェリは二つも三つもあるだろう。われわれは強化学習を利用して、同じ結果が得られるクェリを使うよう、学習を誘導した”。〔*: 自然言語は、語形はまったく同じでも、話者の込めた含意がさまざまに異なることが多い。〕

どなたもご想像できると思うが、ボキャブラリーがとても大きいと、機械翻訳という問題はたちまち複雑困難になる。しかし、翻訳の可能性の多様性を野放しにせずに、どの語に関しても少数に限定してやると、問題はよりシンプルになる。そのためにSalesforceにチームは、ボキャブラリーを、データベースのラベルに実際に使われている語に限定した。つまりそれらの語は、SQLのクェリに実際に登場する語だ。

SQLの民主化は、これまでにもいろいろ試みられている。たとえば最近Tableauに買収されたClearGraphは、データをSQLでなく英語で調べることを、自分たちのビジネスにしている。

“データベース本体の上で実行されるようなモデルもある”、とZhongは付言する。“しかし、社会保障番号を調べるような場合は、プライバシーの懸念が生じる”。

ペーパー以外でSalesforceの最大の貢献は、モデルの構築に利用したデータセットWikiSQLだ。最初に、HTMLのテーブルをWikipediaから集める。これらのテーブルが、ランダムに生成されるSQLクェリのベースになる。これらのクェリを使って質問を形成するが、それらの質問はAmazon Mechanical Turkで人間に渡されてパラフレーズ(語形変化)される。それぞれのパラフレーズは二度検査され、人間によるガイダンスが付く。そうやって得られたデータセットは、このようなデータセットとしてはこれまでで最大のものだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleはモバイル検索時に見つかったビデオに6秒間のプレビューを表示するようにする

Googleは本日(米国時間8月18日)、モバイル検索結果ページを大幅に更新することを発表した。利用者の問い合わせがビデオを見つけてくるたびに、Googleはそのビデオが実際に見たいものかどうかを判断するのに役立つ、6秒間の無音のクリップを表示する。

この機能は現在ウェブで見ることのできる大部分のビデオに対して有効で、特にYouTubeだけに限られてはいない。実際、このプロジェクトを担当するGoogleのプロダクトマネジメント担当ディレクターEmily Moxleyによれば、Web上のビデオはすべて対象となるが、最新のビデオではまだサーバー側でのプレビュー生成が間に合っていないこともあり得るということだ。

ビデオの人気はますます高まっているが、それが情報を得るために最も便利な方法ではないということもよく理解されている。結局のところ、サムネイルは、実際の動画がどのようなものかについての多くの情報を提供するものではない(そして動画の制作者たちは、どのようなサムネイルが最も多くのクリックを生み出すかについてのノウハウを蓄積している…)。

理想的には、Googleの新機能が、少なくとも曖昧性の一部を取り除き、本物を探している時に、退屈なもので時間を無駄にしないことがわかるようにしてくれる。Googleが示した例には、 サルサダンス動画の検索が挙げられている。単にプロのダンスを撮影したものもあれば、実際にステップを教えてくれるビデオもある。

当然ながら、Googleはこの機能を有効にするために、機械学習機能を使用することに決めた。なぜなら、どのようなビデオでも、最初の6秒が代表的なクリップであることはあまりないからだ。そこで、Googleのアルゴリズムは実際にビデオ全体を分析して、どの6秒間をクリップするかを決定する。チームはアロゴリズムがどのように見せる場所を決めているかについての詳細については語らないが、GoogleプロダクトマネージャーのPrashant Bahetiによれば、アルゴリズムは動画の個々のシーンに何が写っているかを判別し、それぞれのシーンの開始と終了を探し、どのシーンが代表的なクリップかを決定している。

ただし、現在問い合わせへの内容への対応には、アルゴリズムは対応していない。ビデオの中で、ユーザーの問い合わせに関連した部分に直接リンクしてくれる以前リリースされたFeatured Snippetとは異なり、表示されるスニペット(断片)は常に同じものだ。とはいえ、現在会社は、このことに対する対応の検討を行なっているとMoxleyは説明した。

これらのプレビューには広告は一切含まれていないこと、そしてデフォルトでは、Wi-Fi接続を使用しているときにのみプレビューが再生されることに注目したい。必要ならば、モバイル通信使用時にビデオプレビューを有効にすることもできる。あるいはAndroid用GoogleアプリとGoogle Chromeでは、設定で動画プレビューを完全に無効にすることも可能だ。

現時点では、この機能はモバイル上のGoogleアプリまたはChromeでのみ利用できる。デスクトップ上ではまだ利用できない。Googleの広報担当者は、これは、同社が現在モバイルユーザーに焦点を当てているからだと説明しているが、この機能を全てのプラットフォームに展開するために、特に大きな課題があるとは考えにくい。

(日本時間8月19日15時現在、訳者のiOS上のGoogleアプリではまだ確認できていない)。

[ 原文へ ]
(翻訳:Sako)

ディープラーニングは、数百年の時を超えて植物標本の中から新種を発見できるかもしれない

機械学習のテクニックは、大量のデータを掘り下げて行かなければならない状況で、そこそこ十分な品質の仕事を素早く行うことが必要なときに役立つ。この技術が、世界中に保存されている、膨大な植物標本のバックログを扱うために、大変優れている方法であることがわかった。数百万もの標本たちが、デジタル化され識別されるのを待っているのだ。その中にはまだ科学によって同定されていないものも含まれている可能性がある。

世界中にはそのようなコレクションが数千以上も存在していて、上に示したような標本が3億5000万点余り収蔵されている。それらの中には数万もの新種が隠されているのではないかと考えられている、しかしそれらの標本全てを、手作業で入念に調べ上げ、最新の分類へと整理し直ための労働コストは、恐ろしく高額なものになる。

それだけではなく、徐々に消滅しつつある植物の収蔵庫たちにある貴重な情報は、ますますデジタルファースト化されていく科学コミュニティの中で役立てるために、現代化を進める必要がある。

そこでディープラーニングシステムの出番だ。コスタリカ工科大学およびフランス国際開発農業研究センターの研究者たちは、そのテクノロジーを、こうした膨大なデータ集に対して適用すべき時が来たと感じた。

彼らは、植物サンプルの画像25万個を用いて植物同定アルゴリズムを訓練し、それを用いて新しい標本シートの同定を行わせた。それは人間の専門家が選んだ種を、5回のうち4回は正確に同定し、アルゴリズムによる更なる数回の推測で正答率は90%に高まった。

読者がどの分野で仕事をしているかによって、そうした結果は良いものとも悪いものとも解釈できるだろう。しかし、この種の作業は科学であると同時にアートでもあり、対象の種の標本のばらつきはとても大きいため、2人の分類学者が異なる結論に至ることもあり得る。なので、最初の段階でほとんどの場合に正しい結果が得られるならば、それは本当に素晴らしい結果なのだ。そしてもしうまく同定されない場合は、もちろん、未知の種を示すかもしれないため、特に注意を注ぐべき対象だと印をつけておくことができる。

予期していなかったことだが、研究者たちは、アルゴリズムが例えばフランスの植物標本を使って訓練されていた場合でも、ブラジルの標本にも有効に適用できることを発見した。この学習結果の有効な転移は関係者を安心させた、何故なら新しいシスムを初めから作る必要がなく、各コレクション毎あるいは植物標本のスタイルに合わせて調整する必要がないことを意味するからだ。

しかし、このシステムの専門知識は、フィールドで植物を識別するときに使うような生の葉のスキャン写真に対しては適用されなかった。乾燥と固定のプロセスは生の葉とは非常に異なる画像を生み出すので、システムが「学習した」ものは、未乾燥の葉には適用されなかったのだ。とはいえそれは予測されていたことであり、その科学的用途のための有効なシステムは既に別のものが使われている。

そしてご心配なく。これで植物学者が失業するという訳ではない。

「人びとは、この種の技術は、植物の専門知識の価値を低めることになるのでは、と感じています」と共同著者のPierre BonnetはNatureに語った 。「しかしこのアプローチは、人間の専門知識があるからこそ可能になっているだけに過ぎません。人間の専門知識が不要になることはないのです」。

システムの基礎が確立されたので、研究者たちはそれを拡大しようとしている。植物が収集された時期や場所、開花や成長などの段階に関するメタデータなどは、正確性を高め、新たな研究の機会を提供する。例えばある種類の葉のサイズが100年以上の気候変動の中でどのように変わって来たかを体系的に比較するなど。化石や動物標本のための同様のシステムも、このチームの成果を利用することができる。

この研究成果は、今週BMC Evolutionary Biology誌に掲載された。

[ 原文へ ]
(翻訳:Sako)

機械学習は高級ブランド品の真偽を見分けることもできる…物の顕微鏡レベルの特質を比較

賢人かつて曰く、“帽子の後ろにLとVがあるはずじゃ、スワップミート*のやつにはないぞ”。そして今では、賢人がいなくてもテクノロジーの力で、あなたが買ったLouis VuittonやPradaやCoachが本物か分かるのだ。そのシステムはスマートフォンに小さな顕微鏡を接続して、各時代における、本物と偽物の違いを学習し判断する。〔*: swap meet, 物々交換売買会、今の日本語で言うなら“フリマ”。よく、ニセモノを買ってしまう。〕

ニューヨーク大学のLakshminarayanan Subramanian教授はこう語る: “われわれのシステムの原理は、本物の製品の顕微鏡レベルの特質は、その製品がどんなに多くても同じなので、製品を偽物と区別するために利用できる、というところにある”。

研究者たちはEntrupy Inc.というスタートアップを作ってこの技術を商業化した。ファウンダーはニューヨーク大学の博士課程を卒業したVidyuth SrinivasanとSubramanian教授だ。有料会員になると、月に10数回、偽物本物の検証ができる。

このシステムは非侵襲的で、商品を傷めない。これまでに300万もの画像で訓練されているから、試料の評価をほとんど瞬間的にできる。瞬間、といっても15秒ぐらいだが、その間に、織物や、皮革、錠剤、靴、玩具などの真偽を区別する。一部の電子製品も、真偽の見分けが可能だ。

“分類の精度は98%以上だ。システムの利用はスマートフォンからできるし、日常的な品物ならほとんど何でも扱える”、とSubramanian教授は語る。

Entrupyはこれまで260万ドルの資金を獲得し、財布や時計をはじめ、真偽を見分けた品目数は1400万点にものぼる。偽物だ!と売り手に怒りをぶつける前に、このシステムの審査結果を証拠として入手するとよいだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

BlizzardとDeepMindがStarCraft IIをAI研究室として開放

StarCraft IIはここのところAlphabetのDeepMind AI研究のターゲットとなっていた。英国のAI企業(DeepMind)は、昨年からBlizzardのこのSF戦略ゲームに参加し、ゲームに基づいたオープンなAI研究環境を構築する計画を発表していた。この環境を用いて、誰もが世界のトップStarCraftプレイヤーに打ち勝つことのできるような、仮想エージェントの構築に参入することができるようにするためだ。そして今回、DeepMindとBlizzardは、その扉を環境に対して開いた。機械学習API、大規模なゲームリプレイデータセット、DeepMindのためのオープンソースのツールセットなどの新しいツールが提供される。

今回のStarCraft II APIのBlizzard側の新しいリリースには、クラウドの中で実行できるように作られたLinuxのパッケージだけではなく、WindowsとMacへのサポートも含まれている。それにはオフラインでのAI同士の対戦サポートも含まれ、さらにエージェントを教育するために匿名化された実際の人間によるゲームのリプレイデータも含まれている。これはまずは6万5000の完全なマッチデータから始まり、次の数週間のうちには50万以上になる予定だ。

StarCraft IIは基本的にAIの研究にとって非常に有用な環境だ、なぜなら、ゲームは複雑で多様であり、個別のマッチの勝利のために複数の道筋があるからだ。プレイヤーはまた、資源の管理や生成だけでなく、軍隊への指揮、守りを固める構造物の配備など、さまざまなことを同時に行う必要がある。さらに、ゲームボードに関するすべての情報がすぐに利用できるわけではない、つまりプレイヤーは敵の行動について仮定と予想を行わなければならないということだ。

それは実際に大規模なタスクだ、そこでDeepMindとBlizzardは、異なるサブタスクを「管理可能なチャンク」に分解する「ミニゲーム」も含めている。その中には特定のユニットの構築、リソースの収集、地図を用いた移動などを教えてくれるティーチングエージェントも含まれている。こうしてゲームを区分化することで、試合全体をマスターする複雑なエージェントを最終的に組み合わせる前に、個々の研究者たちからの技法を比較検証し詳細化してみることが可能になる。

ここでの目標は、StarCraft IIをどんな人間よりも上手くプレイできるAIを作り出すことだ。これはDeepMindが古の物理ボードゲーム囲碁に対して、AlphaGoソフトウェアで行なったことと同じ目標だ。DeepMindはこのことを通じて既存の研究を前進させたいと考えている、それゆえに大きなリサーチコミュニティへのアピールと、今回のようなツールのオープン化を行なったのだ。

[ 原文へ ]
(翻訳:Sako)

AI対AIやAI対人間を“戦わせる”ことでイノベーションを喚起するNIPSカンファレンスのコンテスト

ちょっとした競争心が、イノベーションのきっかけになることがある。そこでNeural Information Processing Systems(NIPS)カンファレンスは、競争するAIシステムを今年のテーマにした。そして、人が歩くときの筋肉の動きを模倣するシステム、雑学クイズ・チャンピオン、画像の微妙な操作など、さまざまなテーマで競い合うことになった。

NIPSの今年のこの新しい企画には23種の‘競争するAI’がテーマとして提案され、最終的に5つに絞られた。カンファレンスが行われるのは12月の初めだが、どれも、片手間で簡単に作れるようなシステムではないので、戦いは今からすでに始まっている。どのテーマもすでに、応募作は相当多い。

コンテストは一つ々々が独立していて、スポンサーが付いたり、賞金が出るものもある。

走ることの学習: これはたぶん、視覚的にいちばんおもしろいコンテストだろう。このシステムは人間が歩く動作をするときの、脳による筋肉と骨のコントロールを模倣する。生理学と物理学のシミュレーションだが、滑る床や階段、弱い筋肉、といった障害も設定されている。目標は歩き方を知っているAIを作るだけでなく、脳性麻痺の人に手術をした場合、歩き方にどんな影響が現れるか、といった問題意識もある。コンテストの詳細はスタンフォード大学のニュースリリースにあり、リーダーボードのGIF画像がなかなかおもしろい。AmazonがAWSのクレジット3万ドルぶんを賞金として提供している。

NNの敵対的攻撃と防御(Adversarial Attacks and Defenses): 私たちはすでに、画像を認識するニューラルネットワークをあちこちで見ている。それらは人間の顔や、猫、風景などを認識する。それらは、あらゆる種類の低レベルデータに対する独特のロジックで動くから、その判断を騙して、まったく違うものに認識させてしまうことも可能だ。もちろん、画像そのものを別のものに変えたりはしない。このコンテストは、NNを騙す悪役と、それに対する防御を作品として募集する。〔訳注: この項については、Google検索やWikipediaなどで、Generative Adversarial Net, GANを勉強すると、理解できると思います。〕

人と会話できるAI: このコンテストの目標は、できるかぎり人間のように振る舞えるAIを作ることだ。ボットと人間が対面して、両者に、最新のニュースやWikipediaの記事などを読ませ、それについてなるべく長く会話をする。応募作品に制限はないが、最優秀のボットが12月のNIPSに出場する。優勝賞金は1万ドルだ。チャットボットの進化に前から関心のあるFacebookが、“プラチナスポンサー”になり、本誌TechCrunch DisruptのStartup Battlefieldに出たMaluubaが、“シルバーパートナー”になる。それらの意味は、よく分からないけど。

人間対コンピューターのQ&A: このコンテストの応募者は、小型のWatsonを作る。そのWatsonは、Jeopardyで人間を負かしたときのバージョンぐらいの実力が必要だ。システムは一回に一つずつ、クイズのような質問を与えられ(例: ローマ帝国の第四代の皇帝は誰か?)、人間よりも早く、少ない語数で…もちろん正解を…答えたらポイントをもらう。NIPSで、人間とコンピューターの決戦を見ることになるだろう。“エキシビションマッチで人間チームと対戦するときのシステムの組み合わせは、出場者(システムの作者)が決めてよい”そうだ。

遺伝子突然変異の臨床的応用性のある分類法: 癌の悪性腫瘍を生じさせている遺伝子と、それらの腫瘍を破壊する遺伝子が分かったら、癌の拡大を防げるかもしれない。でもそれは、専門家たちによる、難しくて時間のかかる研究開発過程だ。しかし、もしも、何千もの遺伝子突然変異に関するそれら専門家たちの注記注釈にアクセスできたら、ニューラルネットワークを使った機械学習に出番があるかもしれない。すくなくとも、今後の研究対象を絞り込むぐらいは、できるのではないか。優勝賞金1万ドルは、Memorial Sloan Kettering Cancer Centerが提供する。すでに、685の応募作が寄せられている!

コンテストの結果が分かるのは12月だが、作品の応募だけでなく、議論に加わることは今からでもできる。参加は、自由だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

高校生が3Dプリントと機械学習を利用して祖父のための網膜診断システムを制作

もしもあなたが、ぼくと同じように、自分はこれまでの人生でまだたいしたことしてないな、と日頃思っているなら、Kavya Kopparapuのこのプロフィールを読まない方がよいかもしれない。このティーンエイジャーはまだ高校生なのに、ぼくが大学卒業後これまでにやったことよりも、すごいことをやってのけた。いちばん最近では、彼女は祖父の、誰にでもよくある目の不具合を診断する、安くてポータブルなシステムを作った。その症状は気づかれないことが多く、しかし放置すると失明に至る。

3Dプリントで作ったマウントに装着したレンズが、iPhoneで網膜をスキャンし、何千もの網膜画像で訓練された機械学習システムが、一般公開されている既存のサービスをいくつか使って診断をする。彼女はその作品を、先月行われたO’Reilly’s AIカンファレンスで発表した。

もっと詳しく知りたい人は、IEEE Spectrumの記事彼女のブログを読んでみよう。ぼくは、Kopparapuの次のプロジェクトを知りたいね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ネットマーケティングのHubSpotがAIによる営業トークの効果アップを目指してKemviを買収

マーケティング・テクノロジー*のHubSpotが、人工知能と機械学習で営業を支援するKemviを買収した。〔*: たとえばソーシャルメディアへのパブリシティ活動を代行する。〕

数か月前にKemviが立ち上げたDeepGraphは、一般公開されているデータから営業のベストタイミングを見つけるデータ分析ツールだ。売り込み先の企業の、業務の変化とか、何かの記事の発表、などのタイミングに合わせて、売り込みを仕掛ける。また、今後起きることを見越して、先取り的に営業を展開することもできる。

KemviのファウンダーでCEOのVedant Misraはこう説明する: “インターネット上の膨大な量のテキスト情報から、業界や世界の最新の動向を取り出し、営業やマーケティングの能力を高めることが、うちの仕事だ”。

そしてHubSpotの側としては、同社の戦略担当常務Brad Coffeyによると、同社はそのプラットホームへのAIの導入を志向していた。彼曰く、AIや機械学習は今安易に使われているバズワードだが、Kemviは営業の人たちの現実的なニーズに対応しているので、魅力を感じた。

“重要なのは、顧客に具体的な価値を提供することだ”、とCoffeyは語る。“彼らにはそれがある。顧客が事業の成長のために必要としている情報、彼らのお客さんの心をつかむ情報、そういう情報をマーケティング部門や営業に提供できる。機械学習やAIは情報を精選するために利用するのであり、単に勉強のために導入するのではない”。

Kemviのチームは、Misraを含めて二名だ。彼らがHubSpotに入って、その技術をHubSpotのプラットホームに統合する。同時にそれと併せて、既存のKemvi/DeepGraphの顧客に対する移行プランもある。“彼らも、HubSpotとの合体を喜んでくれるだろう”、とMisraは語る。

この買収の財務的条件は公表されていない。Kemviは過去に、 Seabed VC, Neotribe Ventures, Kepha Partnersなどから100万ドルを調達している。

関連記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

マーケティングオートメーションのZeta Globalが、機械学習テクノロジーを下支えするためにBoomtrainを買収

David A. Steinbergと、元Apple CEOのJohn Sculleyによって設立された、マーケティングオートメーションプラットフォームのZeta Globalは、本日(米国時間7月18日)、機械学習を中心に置いたマーケティングプラットフォームであるBoomtrainを買収したと発表した。同社に近い消息筋によれば、買収価格は3500万ドルから4000万ドルの間だということだ。Boomtrainは本日の買収以前に、総額1477万ドルを調達していた。

これは創業から10年が経ったZetaにとって10件目の買収であり、本日のニュースは4月に公表された同社の1億4000万ドルのシリーズFラウンドに続くものだ。このときには同社は約13億ドルと評価されていた。

Zetaの共同創業者でCEOのSteinbergが語ったように、チームは機械学習分野を用いた自社の取り組み(既に多数の特許を所持している)の活性化を手助けできる、機械学習中心のマーケティング会社を買収することを検討していた。AdobeとMarketing Cloudのような、Zetaの競合相手たちは、明らかに同じ方向へ進もうとしている。出版業界に重点を置いていたBoomtrainを手に入れることで、Zetaはそのサービスを先に推し進めるための中核をなす企業を発見したのだ。

現在のBoomtrain製品ポートフォリオは暫くの間継続される予定だが、Steinbergが最も興奮しているのは、Boomtrainの機械学習の知見をZetaプロダクトポートフォリオ全体に使用する計画に対してだ。「私たちは、その機械学習、意思決定、マーケティングオートメーションを私たちのマーケティングクラウド全域に100%統合します」と彼は言う。「私たちにとっては大きな技術的挑戦です。私たちはこれを見たときに、これは買収なのか開発なのか?と自問しました」。

最後には、チームはスピードを十分に上げるためには、そのテクノロジーと相手チームを手に入れるしかないという結論に達した。「これまでの私たちのチームはとても素晴らしい者たちです」とSteinbergは言う。「しかし私たちは、新しいチームが、AI /機械学習の視点から、業界がどこに向かうのかという点に対する新たなビジョンを真にもたらしてくれたように感じたのです。私たちにとっては、疑問の余地なく、これはすべて時間に関わることなのです。私たちだけでは、それを進めるためには長い時間がかかり、結局のところChris(Chris Monberg。BoomtrainのCTO兼共同創業者)のような人材を雇う必要があったでしょう」。

米国とバンガロールにいる約60人のBoomtrainの従業員たちが、Zetaに合流する。現在のBoomtrainのバンガロール事務所は、Zetaのインド第3の拠点として維持される。Boomtrain自身はその顧客に代理店サービスを提供しているものの、Zeta自身はこれに焦点を当てないということをSteinbergは明言した。「私たちは代理店ではありませんし、代理店ビジネスを行いたいとも思っていません」と彼は言う。「私たちはソフトウェア企業なのです」。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: OLIVER BURSTON/GETTY IMAGES