Google Translateの言語が100を超え、世界のオンライン人口の99%をカバー

shutterstock_348701531

Googleのオンライン翻訳ツールが、10周年の日も近い今日(米国時間2/17)、大きな節目を迎えた。新たに、ハワイ語やクルド語など13の言語を加えたGoogle Translateは、100言語を超えて対応言語数が103になった。

Googleの主張によると、2006年4月に始まったこのサービスは今、世界のオンライン人口の99%をカバーしている。

Google Translateは2004年に企画された。当時協同ファウンダーのSergey Brinは、同社が使用料を払って使っていた翻訳プログラムに、激しく頭にくる体験をした。その翻訳ソフトウェアは、韓国語のメールを、”The sliced raw fish shoes it wishes. Google green onion thing!”、という、めちゃくちゃな英語に翻訳したのだ。

Google Translateは機械学習と人間ボランティアを併用し、後者が翻訳の正しさや、おかしさをチェックしている。ブログGoogle Translate Blogで同社が言っているところによると、新しい言語を加えるためには、その言語で書かれた文の別の言語への翻訳が、大量にネット上に存在しなければならない。それがあれば、機械学習は学習をすることができる。一方、人間ボランティアは300万人いて、翻訳を修正したり、別の訳語を提案したりしている。

今日加わった新しい言語は、Amharic(アムハラ語, エチオピアで使われている); Corsican(コルシカ語); Frisian(フリジア語, オランダとドイツ); Kyrgyz(キルギス語); Hawaiian(ハワイ語); Kurdish(クルド語); Luxembourgish(ルクセンブルク語); Samoan(サモア語); Scots Gaelic(スコットランド高地ゲール語); Shona(ショナ語, ジンバブエ); Sindhi(シンド語, パキスタンとインド); Pashto(パシュトー語, アフガニスタンとパキスタン); Xhosa(コーサ語, 南アフリカ)。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

TensorFlowライブラリによる機械学習モデルの、本番アプリケーションへの実装を助けるAPI集TensorFlow ServingをGoogleがリリース

2016-02-16_1335

Googleが今日(米国時間2/16)、TensorFlow Servingローンチした。これは、デベロッパーが着想した機械学習モデルの、プロダクション環境における実装を助けるオープンソースのプロジェクトだ。TensorFlow Servingはその名のとおり、Googleの機械学習ライブラリTensorFlowに向けて最適化されているが、しかし同社によると、そのほかのモデルやデータをサポートするよう拡張もできる。

TensorFlowのようなプロジェクトがあれば、機械学習のアルゴリズムを作ったり、それらを特定のタイプのデータ入力に対して訓練することが容易にできるようになるが、TensorFlow Servingはこれらのモデルをデベロッパーのプロダクション環境で(本格的なアプリケーションで)実際に使えるようにする。デベロッパーはTensorFlowを使って自分のモデルを訓練し、それからTensorFlow ServingのAPIを使ってクライアントからの入力に反応できるようにする。Googleによると、TensorFlow Servingは、マシンのGPUリソースを使って処理を高速化できる。

Tensor_Flow_Diagram1_TrainingPipeline_FINAL

ただしGoogleによると、このようなシステムがあるからといって、機械学習モデルのプロダクションへの実装工程が速くなるわけではない。デベロッパーはしかし、アーキテクチャやAPIの安定性を維持しながら、ほかのアルゴリズムやモデルを試すことができる。さらにまた、デベロッパーがそのモデルをアップデートしたり、出力が新しい入力データによって変わったりしても、アーキテクチャの安定性は維持される。

TensorFlow Servingは、Go言語ではなくC++で書かれている。そのソフトウェアはパフォーマンスの向上のために最適化されており、同社によると、16コアのXeon機上で1コアあたり毎秒10万以上のクェリを処理できる。

TensorFlow Servingのコードとチュートリアル類は、Apache 2.0のライセンスによりGitHubで入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

MicrosoftのiOSアプリ“Fetch!”はあなたの犬の(そしてあなた自身の!)犬種を当てる

fetch

【抄訳】
Microsoftの新しい画像認識ソフトですら、私の犬の犬種は分からない。でも、それはしょうがない。しかし、あなたの犬が殺処分施設から救ってきた雑種犬でなければ、最新のMicrosoft Garageプロジェクト: Fetch!を楽しめるかもしれない。このiPhoneアプリは、犬の写真を見てその犬種を当てる。正確に当てられないときは、至近の犬種である確率のパーセンテージを出す。

そう、今あなたが思ったとおり、犬でなくて人間でもよい。

このアプリは、機械学習で何ができるかを、おもしろく見せる、というシリーズのひとつだ。今回のは、画像を見て、その内容に関する何らかの判断をする。人間が自然に行う直感的判断のようなものを、マシンは教えられること(“学習”)によって身に付ける。

[100%の確率でボーダーコリーです]
Screen Shot 2016-02-12 at 10.29.29 AM

 

Fetchでも分かるように、その学習過程は相当難しい。人間はいくつかの断片的な情報から、これまでに知った/学んだことに基づいて、その場で犬種などを当てることができる。しかしマシンは、正しい画像と犬種に関する専門的データとマシンインテリジェンスを組み合わせて、教えてやる必要がある。

このアプリの場合は、ディープニューラルネットワーク(deep neural networks)と呼ばれる機械学習のテクニックを使っている。

“…Microsoftはこのような分野ではとても進んでいる。互いによく似ている犬種でも見分けるし、同じ犬種の色違いにも対応できる。そのほか、犬種ごとの細かい違いが分かるのだ”、と、イギリスケンブリッジのMicrosoft Researchでこの犬種プロジェクトを作ったチームのディレクターMitch Goldbergが説明する。

“ディープニューラルネットワークのいいところは、あとから加えた新しい犬種を、新しい犬種だと理解できることだ。それはとても難しい問題なんだけどね”。〔通常のNNは、すでに学習済みの何かにマッチさせようとする。〕

というかFetchは、機械学習の難しさを一般のユーザーに分かってもらうためにMicrosoftが作った一連のプロジェクトの一つなのだ。

たとえば昨年Microsoftは、人間の写真からその人の年齢を推測するサイトを作った。結果は、Fetchと同じく、当たったり当たらなかったり。

さらに同社は、感情を識別する機械学習ツールに取り組んでいるし、

顔にヒゲをはやして行う資金募集キャンペーン”Movember”を賛助するMyMoustacheプロジェクトも作った。それは、同じような技術で顔面のヒゲ率を判断する。

それに、二人の人間が双子かどうかを判断するサイトも作った。

でも、今回の犬種アプリもおもしろい。うまく当たれば!

 

【中略】

このアプリに友だちの顔を見せると、その人に似た犬種を当てようとする。それらは、けっこう当たってる、と言える!?:

[アイリッシュウォータースパニエル]
1-Fun-Home-Result-1000px

 

ヒラリー・クリントンを、ウェストハイランドホワイトテリヤ、と判断した:

 

【中略】

私自身はマルチーズと判断され、まあそれは許せるけど、わが家の体重49ポンドの雑種犬がチワワはないよねぇ:

[91%の確率でチワワです]
IMG_3021

 

マシンたちよ、もっと勉強しないとダメだぞー。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoftが機械学習ツールキットCNTKをGitHubに移しMITライセンスを適用

shutterstock_192614108

Microsoftが今日(米国時間1/25)、デベロッパが同社のComputational Network Toolkit(CNTK)を使って深層学習(ディープラーニング, deep learning)アプリケーションを作りやすいように、プロジェクトをGitHubに載せ、MITのオープンソースライセンスを適用することにした。Microsoftがこのツールキットをオープンソースにしたのは2015年の4月だが、コードはMicrosoft自身のCodePlexサイトでホストされ、これまでは大学向けの、制約のあるライセンしかなかった。

前のライセンスでも研究者たちはプロジェクトにアクセスできたが、プロダクション用途に使うとか、大学の外の環境でいじくることには向いていなかった。今度の新しいライセンスと、GitHubへの移行により、Microsoftはそのほかのユーザも惹きつけたいと願っている。

speed-comparison

Microsoftのチーフスピーチサイエンティスト(chief speech scientist)Xuedong Huangは今日の発表声明の中で、CNTKはとくにスピードが高度に最適化されている、と述べている。“CNTKツールキットは、これまでわれわれが見たどれよりも、桁外れに効率的である”、とHuangは言っている。ここでHuangが比較対象にしているのは、Googleが最近オープンソースにしたTensorFlowや、TorchTheanoCaffeなどのプロジェクトだ(上図)。

Microsoftの主張によると、CNTKのアドバンテージは、シングルコアの上でも使えるし、また、GPUベースのマシンの大規模なクラスタでも使えることだ。しかも、他社のプロジェクトに比べてスケーラビリティが良く、多くのマシンに対応できる(もちろん今その検証はできないけど)。

Microsoftは昨年、もうひとつの機械学習ツールキットDMTKを、ひそかにローンチしている。DMTKは”distributed machine learning toolkit”(分散機械学習ツールキット)の頭字語で、大量のデータを効果的に分析することに力点を置いている。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

未来の高度な人工知能技術の私蔵化を防ぐ非営利団体OpenAIがそうそうたる創立メンバーでスタート

artificial-intelligence-503592_1920

今日(米国時間12/11)、非営利の人工知能研究団体OpenAIの創立が発表された。そのトップは、Googleの研究員Ilya Sutskeverだ。前日には、Facebookが同社のAIハードウェアをオープンソース化した。

その存在理由は、こう説明されている:

目標はデジタルインテリジェンスの高度化をできるかぎり人類全体の利益に資する形で推進すること。それが、経済的(financial)な利益目的に制約されないことだ。

グローバルな支払い決済サービスStripeのCTOだったGreg Brockmanが、OpenAIのCTOになる。このほか多くの著名人が名を連ねており、中でもY CombinatorのSam Altmanと
Tesla/SpaceXのElon Muskが共同で理事長になる:

この団体の創立メンバーは、世界のトップクラスのリサーチエンジニアとサイエンティストである: Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma, John Schulman, Pamela Vagata, そしてWojciech Zaremba。Pieter Abbeel, Yoshua Bengio, Alan Kay, Sergey Levine, およびVishal Sikkaはアドバイザーとなる。OpenAIの共同理事長は、Sam AltmanとElon Muskだ。

資金提供者は、Altman, Brockman, Musk, Jessica Livingston, Peter Theil, Amazon Web Services, Infosysおよび YC Researchで、寄付額の合計は10億ドルだ。Muskが公共的なAI研究に出資するのは、AIがSkynetになってしまうのを防ぐため、といわれる。OpenAIへの出資や理事長就任も、そのねらいの延長だろう。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

メッセージングアプリでコンピュータサイエンスおたくがデザイン偏重のWebに復讐する

chatapps

[筆者: Indus Khaitan](Oracleに買収されたエンタプライズモバイルのBitzer Mobileの協同ファウンダ。その前はソーシャルメディアのコンテンツ発見プラットホームSezWhoのCTO。)

初期のWebサイトは単純なHTMLだった。長いHTML文が何でも表現し、左右対称のページレイアウトが好まれた。CSSがなかったので、今日のように、HTMLのコードが三次元的に肥大することはなかった。ぼくは最初からCSSが嫌いで、今でも大嫌いだ。

敬愛すると同時に憎たらしくもあるデザイナーたちが、ぼくのWebを乗っ取ってしまった。彼らは、ぼくのシンプルなHTMLのコードを、CSSとJavaScriptの煮えたぎるマグマの中に放り込んだ。Webサーバ以外の部分では、元々デザイナーだった友だちの多くが、Webデベロッパやアプリのデベロッパになった。

しかしぼくは、あくまでもコンピュータサイエンスのエンジニアなので、Webデザインという軽薄なアートに手を染めることはなかった。その代わり、お金を払った。たくさんのお金を、Webデザイナーたちに払った。

Webのフロントエンドの開発は、今や混乱のきわみだ。フォームの記入欄を表示するといった簡単なことでも、10とおり以上ものやり方がある。そしてそれらのやり方は標準性がなく、どれもばらばらだ。ささやかなHTMLをCSSで粉飾し、それにJavaScriptを加えてページを100%混乱させる。言うまでもなく、同じマークアップコードを複数のJavaScriptフレームワークが管理していると、混乱は倍増する。もっとひどいのは、複数のデベロッパが触ったページだ。それは、複数の外科医が昼休みにバーガーを食いながら手術をした患者の体になる。

モバイルアプリともなると、デザイナーへの依存度がWebの10倍になる。さまざまな画面サイズや、解像度、ボタン、画像、それらと絡み合うテキスト…これらを管理しなければならない。そしてルックスがすべてに優先するから、関係データベースの湖から流れ出るビットの内面的な美を鑑賞する楽しみは、消え去る。

でも、解脱の時が近づいている。チャットのウィンドウが、新しいユーザインタフェイスになりつつある。エージェント(人間またはマシン)と会話をする、仕事はそれだけだ。今日の、ごてごてしたWebページと違って、メッセージングアプリにはマークアップがなくて、テキストをネットワークに乗せるだけだ。Human Computer Interaction(HCI)の理論は、人間の日常の動作に倣え、と教える。メッセージングアプリなら、それが可能だ。

チャットでコンピュータサイエンスが再び輝きを取り戻す。

メッセージングアプリは今でも、新種が続々出ている。Magic, GoButler and Operatorなどなど、WeChatの成功の後を追うアジア製が多い。いずれも単純なテキストメッセージをやりとりするだけがアプリの仕事だが、料理の注文も、タクシーの呼び出しも、航空券の予約も、何でもできる。どれも人間の生活を助ける人間コンシェルジュが相手だが、中には人間とマシンの対話もある。後者の場合でもしかし、人間の日常の会話を真似ている。人間がエージェント(人間または機械)に話しかける。向こうにいる人間またはマシンがメニューを説明し、配達してほしい品物の購入トランザクションが完了する。

チャットでコンピュータサイエンスが再び輝きを取り戻す。Webページやアプリの画面で、何をどこに置こうか考えるのではなく、チャットアプリでは、機械学習やデータ構造をめぐって本物のイノベーションが起きている。単純なテキストによる会話が定型データへと整理され、JSONのペイロードを介してどこかのAPIに投入される。

今日では、アプリの多くを人間がサポートしている。ときには、人間の大群が。でも彼らの仕事には、機械学習の技術が使いやすくなったために、完全に自動化できるものが多い。たとえば、誰でも使える機械学習エンジンIBM Watsonをベースとして、(Facebookが買収した)wit.aiのような新進スタートアップが続々登場している。Y Combinatorの傘下にも、MonkeyLearnのような機械学習大衆化サービス、AIaaS(artificial intelligence-as-a-service)が増えているという。

機械学習をクラウドサービスとして使えるようになり、メッセージングがユーザインタフェイスになれば、今や時代は再び、コンピュータサイエンスおたく(nerd)のものだ。メッセージングアプリによって、今日のWebページが陥(おちい)ってしまった軽佻浮薄なフレームワークにおさらばできる。そして、人間と機械の対話の、単純性を取り戻せるのだ。

[原文へ]。
(翻訳:iwatani(a.k.a. hiwa)。

スタンフォード大学の研究者らは自閉症の治療にGoogle Glassを取り入れる

screen_shot_2015-10-16_at_3-20-55_pm11

GoogleがGlassの実証研究を再検討するなか、スタンフォードの研究者らはこの端末を自閉症の子供が感情を認識し、識別するのを助けるために活用している。

スタンフォード大学の事務所ビル内にひっそりと存在する小さなオフィスでCatalin VossとNick Haberは、自宅でも自閉症の治療を続けられるよう、顔を認識してトラックする技術と機械学習を組み合わせる研究を行っている。この Autism Glass Project(自閉症治療のGlassプロジェクト)は、スタンフォード医科大学院のWall Labの取り組みの一つで、月曜日の午前中に研究の第2フェーズをローンチしたと伝えた。

このソフトウェアは機械学習を活用して、Vossが顔の「アクション・パーツ」と呼ぶ特徴を検知して抽出する。

プロジェクトの第2フェーズでは、100人の子供を対象とし、自閉症を自宅で治療するためのシステムの有効性を調査する。Autism Glass Projectのソフトウェアは、端末が向けられた人の顔の感情を識別し、端末を装着しているユーザーに対してその人の表情を言葉で表す。

画像認識を活用して感情を子供たちのために翻訳することは、ほんの最初のハードルに過ぎない。チームが取り組んでいるさらに大きな課題は、子供たちが端末から学び、最終的に端末がなくても良いようにすることだ。

「いつも装着していなければならないものにはしたくありませんでした」とHaberは強調する。

端末がない状態での学習を検証するため、チームはプロジェクトの第1フェーズを昨年ローンチした。その間、研究所内で40の研究を行った。当初、Wall Labは一台のGoogle Glass端末しか所有しておらず研究には制限があったが、Google がさらに35台の端末を寄付したこと、そして今年の6月初旬にはPackard Foundationが37万9408ドルをこのプロジェクトを補助金として寄付したことで状況は好転した。

Screen_Shot_2014-09-15_at_5.27.53_PM[1]

子供たちとコンピューター画面とのインタラクションを研究した後、チームは子供たちが「周囲の環境と関わる」ことができる第2フェーズを設計したとVossは話す。彼らのチームは、MITのMedia Labが開発した「Capture the Smile(笑顔をつかまえよう)」というゲームを研究に採用した。

このゲームでは、Glassを装着した子供たちは特定の表情の個人を探す。このゲーム内のパフォーマンス、そして動画分析とクイズ内容を合わせてモニタリングすることで、各研究参加者の持つ自閉症の「数量的な自閉症状の表現形」を導き出すことができる。自閉症状の身体的な表れを数値的に観察することで得られるものだ。それを長期間トラックしていくことで、チームは端末を利用することで子供たちの感情認識を助けていることを実証することができるだろう。

研究の第2フェーズは数ヶ月間に渡って行う予定だ。このプロジェクトの独自のテクノロジーにより自閉症の治療プロセスに保護者が深く関わることが可能となる。

「子供が母親にどれくらいの割合で話をしているかや、子供が母親を見ている時間などを知ることができます」とVossは言う。

この研究で子供たちは、Google Glassの端末を日に3回、毎回20分ほど装着する。Wall Labの研究者にとってそれだけの時間でも、子供たちが何を見ているかを分析することで視覚的な関わりが感情を認識するプロセスにどのような役割を果たしているかを深く理解にすることにつながるという。

プロジェクトの第2フェーズはおおがかりのようだがVossと彼のチームにとってこれはまだ多くあるステップの内の最初の方だという。Wallはこの治療法が補償され、広く利用できるようにするためには、臨床データを集め、米国医師会の承認を得る必要があるという。

Wall はこのテクノロジーが広く臨床の場で使用が認められれば、このチームの自閉症治療のボトルネックを広げるという目標を達成できると話す。現在この研究には100名ほどの参加者がいるが、研究を続けることでこれまでにない広範なデータセットを獲得し、ソフトウェアと技術を改良していくことができるだろう。今日から彼らのウェブサイトで、プロジェクトの参加希望者の受け付けを開始している。

彼らのテクノロジーが広まるのはもう少し先のことだが、この技術は自閉症のスーパーヒーローを描いた小説のシリーズにも取り上げられている。Alexei Russell著の「Trueman Bradley」シリーズの2つ目の本で、主人公は感情を「見る」ことができる眼鏡を受け取る。これは、Voss、Haberと彼のチームへの賞賛だ。

「考えてみると、私たちは自閉症の子供たちにスーパーパワーを与えているのとそう違わないようです」とVossは話す。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

Appleがスマートフォン上で人工知能で写真を分類するアプリのデベロッパPerceptioを買収

apple-logo-dark

AppleがディープラーニングのPerceptioを買収したことを、今日(米国時間10/5)Bloombergに確認した。Perceptioのプロダクトは、人工知能を使ってスマートフォン上の写真を分類するアプリだ。

昨年10月のRe/codeの記事によると、Perceptioの技術ではデータをクラウドに保存せずモバイルデバイス本体の上で高度な計算処理ができる。ファウンダのNicolas PintoとZak Stoneは、写真共有アプリSmoothieも作った。

PintoのTwitterプロフィールによると、彼はMITとハーバードのリサーチサイエンティストおよびコンピュータ科学の講師だそうだ。一方Stoneは、ハーバードでコンピュータヴィジョンのPhDを取得している。

AppleのスポークスマンColin JohnsonはBloombergに、“Appleは小さなテクノロジ企業をときどき買収するが、その場合一般的に買収の目的や今後の計画を議論しない”、と述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

翻訳サービスのUnbabelが翻訳者にヒントを提供するSmartcheck機能を導入

shutterstock_291280838

人間による編集と機械学習を併用する、Y Combinator支援の翻訳プラットホームUnbabelが今日(米国時間9/11)、Smartcheckと呼ばれる新しい機能を発表した。

Unbabekの基本システムは、インテリジェントな翻訳エンジンをベースとする翻訳サービスだ。仕事を求める翻訳者はそこに登録し、翻訳者を探している顧客は言語や専門分野などで検索する。現在は22の言語の45のペア(スペイン語を英語に翻訳、など)をサポートしている。

その機械学習の部分では、翻訳システムがシステム内で行われる翻訳から学習する。翻訳のパターンを認識して、特定の語句の特定の翻訳のされ方を覚え、それを基準として正しい翻訳とそうでない翻訳を見分ける。

UnbabelのCEO Vasco Pedroはこう述べる: “システムが徐々にお利口になっていく。人間編集者の仕事をモニタして、よくある誤訳を見つけるとコミュニティにフィードバックする”。

翻訳料金は語数ベースで、翻訳者の能力は1時間800語以上が期待されている。翻訳者の報酬は時間給なので、Unableとしては速い方がありがたい。そこでスピードアップとエラーの減少の二兎を、Unableは追わなければならない。

そこで登場したのが、Smartcheckだ。この機能は翻訳の過程で誤訳の可能性を指摘するだけでなく、正しい訳のヒントも与える。

Shows example of the Unbabel Smartcheck feature.

“翻訳者が翻訳をしていく過程でヒントを与え、検討を要する部分を高輝度化する”、とPedroは説明する。

指摘は単語のスペルのような単純な問題もあれば、主観的な言い方を避けよ、とか、顧客が求める文体でない、など高度な指摘もある。

システムはこれらのヒントを、翻訳エンジン内の翻訳者の仕事をモニタすることによって習得する。つまり人間翻訳者は機械から教わるが、その前に機械は人間翻訳者から学ぶのだ。

同社の登録翻訳者は今約32000名で、およそ380社が利用している。7月は同社の売上が初めて10万ドルを超えるという、最高記録に達した。

今同社の料金制度は、それまでの月額会費制から、語数ベースの翻訳料へ移行しつつある。

同社はY Combinatorの2014年冬季クラスに参加し、150万ドルを調達した

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Appleは人工知能と機械学習関連のエンジニアの採用を強化する予定

apple-wwdc-20150247

ロイター通信によるとAppleは最低でも86名の人工知能と機械学習の専門家を採用しようとしているらしい。iOS 9の主要機能が「Proactive提案」なのも理由の一つだろうが、Appleはスマートフォンを更にスマートにする考えのようだ。

Appleはこれまでモバイル端末のデジタルアシスタントの分野では遅れを取ってきた。Siriは音声入力のインターフェイスの先駆けではあったが、Google NowはiOS 8で提供していないスマートな機能を多く提供している。

しかし、次のような機能がiOS 9に搭載される予定だ。検索画面は、ユーザーのいる場所や行動を元にアプリや連絡先を提案するようになる。例えば、自宅にいる時はゲームを薦めたり、仕事にいる時はビジネス向けのアプリを薦める。

カレンダーとメールでは、iOSは過去のイベントやメールを参照して、メールの受取人やイベントを提案する。他には、モバイル端末を車のBluetoothに接続した場合、iPhoneはユーザーがドライブする時にいつも聞いている曲を元にプレイリストを提案する。

カレンダーは次のミーティングに向かうために何時に出発すれば良いかを知らせたり、フライト時間や予約をカレンダーに入力するよう促す。また、iPhoneユーザーはSiriに誕生日パーティーの時の写真を表示するように指示するなど、Siriに色々なことを依頼できるようになる。

しかし、今日の採用の噂からするとAppleはそこで留まる予定ではないようだ。採用される機械学習エンジニアはAppleで難しい課題に取り組むことになるだろう。Appleは6月に開催されたWWDCでユーザーのプライバシーの重要性を強調していた。例えば、iMessageは暗号化したプロトコルを使用しているため、AppleはiMessageを分析してそれを元にパーソナライズした機能を提供することはできない。Appleがユーザーのメッセージの内容を見ることは決してないのだ。

一方Googleは、Google Nowをこれから登場予定のGoogle Now on Tapで強化を図る。Android Marshmallowではユーザーはモバイル端末で起きていることに連動した情報を得ることができる。例えば、ホームボタンを長押しするとSpotifyで聞いている曲の歌詞を見たり、友人がテキストメッセージで送ったレストラン候補のレビューを検索することができる。

Appleは少しずつだが、追いつこうとしている。iOS 9では、画面上の情報を元にSiriにリマインダーを設定することができる(「車に乗る時にこの場所のリマインダーを送って」といった具合だ。)iOS 10では更に多くの機能が期待できるだろう。Appleがプライバシーを守りながらどこまでできるかに注目しよう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

サービスの新機能の実装において、そのための機械学習モデルをアジャイルに作っていくための汎用ツールキットFeatureFuを、LinkedInがオープンソース化

4278432941_c272d3bf82_o

LinkedInが今日、同社の内部ツールFeatureFuをオープンソースにする、と発表した。このツールキットはデベロッパが、統計的モデルや意思決定エンジンを作る際に必要となる機械学習モジュールの構築に利用される。

そのねらいは、サービスのさまざまな機能を作るための、いわば”機能工学(feature engineering)”まわりの知識や技術を、同社の外部のデベロッパが利用できるようにすることだ。機械学習をベースとする機能工学とは、身の回りのさまざまな現象に関する詳細な知識を利用して、機械学習のモデルを構築することだ。

LinkedInによると、同社の関係提案機能のような大規模なリコメンデーションシステムの多くが、少なくとも二つのチームによって管理されている。ひとつはオフラインのモデリングを担当する部分、もうひとつはオンラインの機能提供/モデル評価を担当する部分だ。このことから生ずるさまざまな問題を、FeatureFuは解決しようとする。

LinkedInのシニアソフトウェアエンジニアBing Zhaoは次のように述べる: “大規模なリコメンデーションシステムは、安定性を欠く脆弱なシステムが多い。FeatureFuを使えばそういうシステムの上でもクリエイティブでアジャイルな開発ができ、新しい機能の実装にこれまでのように数週間〜数か月もかからない”。

これまでのやり方では、機能の作り方をすこし変えただけで、ほかのチームに大量の仕事が発生したり、ほかの機能やモデリングの実験が困難になったりした。

FeatureFuは、Exprと呼ばれる小さなJavaのライブラリを使用する。それを利用すると、デベロッパは既存の機能集合に手を加えることなく機能の変更や新規実装ができるようになる。Zhaoはこのシステムの利点を、“オンラインの機能生成フレームワークへ一度デプロイしたら、その後のさまざまな派生的機能も、機能本体のコード変更を必要とせずに、簡単に実装できるようになる”、と説明する。

ではなぜ、LinkedInはこのツールをオープンソースにすると決めたのか? それはZhaoによると、“会社であるソフトウェアが必要になったら、まず既存のオープンソースのプロジェクトに使えるものがないか、探す。それがなければ、自分たちで作る。企業やプロダクトの重要な差別化要因となるソフトウェア以外は、オープンソースにした方が多くの人たちの利益になる”。

Zhaoは、FeatureFuが今後あちこちで採用されることを期待している。“FeatureFuは多くの機械学習システムのための共通技術になりうる。これを使うと機能制作の工程がよりアジャイルになり、しかもアジャイルは、機械学習アプリケーションが成功するための重要な鍵のひとつだ。だからわれわれは、自分たちの作品を業界と共有したい”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

サービスのパーソナライズを可能にするアルゴリズムの進化に必要なもの

funhouse


パーソナライズした体験をもたらすアルゴリズムは、昨日選んだものにも、今日選ぶもの、明日選ぶものの全てに影響を与えるようになる。

しかしパーソナライズ化が上手く行っていない所もある。私たちは興味のない、ユーザーの気を引こうとする広告に継続的に出くわす。デジタルのパーソナルアシスタントはそんなにパーソナライズされていない。ニュースフィードの深いアルゴリズムの溝がユーザーと友人を引き離しているし、オンラインで見るコンテンツは同じものがずっと繰り返し表示されている。

パーソナライズのための私たちの偶像は、遊園地の鏡張りの迷路に映る自分の姿のようだ。パーソナライズ化の過程でユーザーは抽象化され、デジタルという鏡に投影されたユーザーの興味関心は実際のものと乖離してしまっている。

パーソナライズ化のために埋めるべきギャップ

現在のパーソナライズされた体験が未完成なのには、5つの主要な要因がある。

データギャップ:これは、アルゴリズムの環境によりユーザーに関するデータが限定されていることで起きる。システムは、ユーザーに提供する体験とそれに対するフィードバックのループの文脈でしか、ユーザーを理解することができない。システムに外部のデータソースからの情報を入力したとしても、ユーザーの興味や好みの一部しか理解することができない。

計算処理ギャップ:計算処理の能力と機械学習テクノロジーの限界を指す。現在最速のシステムでも、複雑な個人をシステムのルールに従って理解するには遅すぎるのだ。同時に、最も先進的な機械学習のソリューションも、コンピューターがユーザーのことを遅滞なく学び、順応するには、まだ十分ではない。

パーソナライズ化の過程でユーザーは抽象化され、デジタルという鏡に投影されたユーザーの興味関心は実際のものと乖離してしまっている。

興味ギャップ:ユーザー、プラットフォーム、そしてサードパーティーの関係者(例えば、マーケッター)の意図が合致しないことを指す。つまり、ユーザーが見るものやできることは、誰の興味や好みを元に優先順位が決定されているかという問題だ。ユーザーは広告に興味がないかもしれないが、彼らの意思とは関係なく表示される。誰かがユーザーの注意を引くために料金を支払っているのなら、ユーザーが選べる範囲が狭まるのだ。

行動ギャップ:ユーザーの本当の意図と利用できるものの不一致を指す。例えば、ユーザーは存在していない「これは面白くない」ボタンを押したいと思っているかもしれない。あるいは、特定の画像を今後一切見たくないと思うかもしれないが、そのようにできる方法が存在しないといった場合だ。ユーザーの行動はフィードバックループの限定的な環境に収まるように簡略化されているのだ。

コンテンツギャップ:プラットフォームやアプリケーションにユーザーが求めていることやニーズにぴったり合うコンテンツがないことを指す。また、提供しているコンテンツの多様性が限定的な場合もある。例えば、スポーツニュースやレストラン情報のアプリやウェブサイトは関連するコンテンツがなくなる場合がある。トピックがニッチであるほど、ユーザーにとって継続的に有益なコンテンツが提供されるチャンスは少なくなる。

また、パーソナライズ化の根幹には普遍的なパラドックスが存在している。

パーソナライズ化は、デジタルの体験を個人の興味や好みに適応することを約束している。同様にパーソナライズ化はユーザーに影響を与え、毎日の選択や行動を起こす基準となり、ユーザーを形作っている。複雑でアクセスできないアルゴリズムが、ユーザーの代わりに見えない所で選択を行っている。それらは、ユーザーが認識できる選択肢を減らしている。つまり、個人の裁量を制限しているとも言える。

パーソナライズ化におけるギャップと内在するパラドックスにより、パーソナライズ化は不十分で未完成のままだ。ユーザーにとってアルゴリズムが自分の意図ではなく、他の誰かの意図を汲んでいるように感じてしまうのはそのためだ。

アルゴリズムによるパーソナライズ化の中核に人を置く

パーソナライズにより、個別ユーザーに対して更に良いサービスを提供するためには3つのデザインと開発の道が考えられる。

まず、パーソナライズ化には新しいユーザーインターフェイスの枠組みとインタラクションモデルが必要だ。直接的なアクションやそうでないアクションを効率的に学習してパーソナライズするインターフェイスは、データギャップを埋めることができる。同様に、システムがユーザーがしていることとそうでないことを学習することで、計算処理ギャップも埋まっていく。興味ギャップの問題を解くには、ユーザー自身が表示されるものを直接コントロールできるようにすべきだろう。ユーザー主導で異なるコンテンツやサードパーティーからの関連コンテンツを混ぜることのできるインターフェイスが必要だ。これによりユーザーは、自分に対し表示されているものを知ることができる。システムの透明性は、ユーザー自身が自分の好みを調節することを可能にし、プラットフォームやサードパーティーにとっても有益に働くだろう。

行動ギャップを埋めるには、本当の意図や反応を反映したカスタム絵文字やジェスチャーといった文脈も意識したインタラクションを実現する、ユーザー順応のインターフェイスが必要だ。また、システムはユーザーが興味を持ちそうなものが利用可能になった時、あるいは具体的なアクションが取れるようになった時に通知することでコンテンツギャップの減少につながるだろう。それは、腕に着けた端末の振動や、デバイスの画面の賢い通知メッセージといった形かもしれない。新しいインターフェイスは、リアルタイムではなく、パーソナライズ化した「自分時間」を優先するようになる。

次にパーソナライズ化には、関連したもの、意外なもの、タイムリーなもの、成熟したコンテンツを混ぜて提供することだ。データギャップと計算処理ギャップの観点では、より多様な選択肢を提供することで、システムがユーザーの本当に興味のあるものを詳しく理解することができるようになる。ユーザーは、自分の興味関心をより詳細に伝えることができる。そしてシステムは、ユーザーの行動から、これまで知り得なかったあるいは、形式通りではないものの中に関連性を見出すことができるだろう。

興味ギャップに関しては、関連情報と意外な情報を混ぜることで、ユーザー自身がどの情報を優先するかを決定することができる。関連した情報の中でも多様な選択肢を用意することで、システムが限定した情報の箱の中にユーザーを閉じ込めることがなくなる。時に表示される関連のないコンテンツも体験を阻害することはない。関連性があるかどうか、セレンディピティを起こす内容であるかどうかは、どちらも主観的で文脈に依存しているものだ。アルゴリズムはユーザーが新しいことを探索するのに前向きな時と、目標があり、特定の情報を求めている時を判別することができるようになる。

行動ギャップを狭めるためには、多様な賢いレコメンドで、ユーザーが自身のルールで選択することができるだろう。システムはユーザーの短期と長期における関心をそれぞれ理解し、ユーザーの情報ニーズを予測することができるようになる。タイムリーであるかどうかは、関連性と同義ではない。大量のコンテンツは、時間の経過と共に魅力や意味を失うのではない。コンテンツギャップは、幅広く分野の濃い内容の興味深い情報が集まるほど、効果的に埋まっていくことだろう。

そしてパーソナライズ化は、集合的知識と人工知能を取り入れるべきだ。物事の関連がすぐに分かり、コンピューターはより賢くなって、物事は更に効率的になる。計算処理ギャップを減少させるためには、人と機械の情報の流れを加速させることだ。人は(まだ)この世界で最もパターン認識に優れたシステムだ。私たちは協力して、意味のあるサインを見つけだすことができるだろう。人工知能が順応するインターフェイスと予測を立てる学習システムを強化することにより、人による意味付けを活用することができる。

人が主軸となるパーソナライズ化は、人がキュレートしたシグナルと順応する機械学習のソリューションを統合する。この方法で知的なシステムは、個人及び集合的なインタラクションと洞察により進化することができる。そして、人の想像力と非合理性がアルゴリズムの決定による制限を打破するだろう。

パーソナライズ化のパラドックスはどうだろうか?パーソナライズ化の領域の中には、客観性は存在しないし、客観的な視点もあるべきでもない。ユーザーがアルゴリズムを形作り続け、アルゴリズムもユーザーを形作り続ける。それがさらに私たちにとって有益になるよう、人が周りの物事の関連性や意味付けを主観的に行う方法をパーソナライズ化アルゴリズムが理解する必要がある。

結局の所、パーソナライズというコンセプトは、産業的な大量生産とマーケティングの世界から派生したものだ。アルゴリズムの力を借りた意思決定を行う新時代に移行しつつ、個人の能力に重きを置くには、パーソナライズ化アルゴリズムではなく、選択アルゴリズムを作らなければならないということかもしれない。

そのようなアルゴリズムをどこが構築することになるのだろうか?

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

ディープラーニングと検索エンジン最適化の新たな時代

thinker


編集部記:Nathan Sikesは、Crunch Networkのコントリビューターである。
Nathan Sikesは、
FoxtailmarketingのプロダクトのVPを務め、実践的なSEOとデジタルマーケテイング手法の調査と導入に注力している。

ディープラーニング、あるいは深層構造ラーニングのコンセプトは、ここ数ヶ月で頻繁に話題に上るようになった。世界に名だたる複数の大手検索関連企業がこの分野に力を入れ、進歩が見られるからだ。Google、Facebook、MicrosoftにBaidu(中国の検索エンジン)は、このテクノロジーに投資することでアプリケーションの進化を加速し、更には比較的新しい人工知能(AI)技術の活用も進んでいる。

この記事では、ディープラーニング技術とそれが今日のオンライン世界における検索エンジン最適化(SEO)にどのような影響を及ぼすかについて述べたい。ディープラーニングとは何か、そしてその歴史を簡単に振り返り、AI技術で私たちの身の回りのデジタル世界を創造し、より良くしようとしている主要プレイヤーの動きを見ていこうと思う。

本物の人工知能を探し求めて

ディープラーニングの影響を本当に理解するには、それが何であり、どこから来たかを知る必要があるだろう。ディープラーニングの起源を一つの場所や人に特定することはできないが、この分野に詳しい人なら、現代ディープラーニングの父はGeoffrey Hintonであると同意するだろう。現在彼は、Googleとトロント大学で活動している。Hintonは、1980年代にBackpropagation の開発に貢献し、最近ではNeural Computation and Adaptive Perception Program(ニューラルコンピューティングと適応知覚プログラム)で研究し、変化を求めていた分野を点火することとなった。「過去2、30年間Hintonは、ニューラルネットワークとディープラーニングの最前線を牽引してきました」とKai Yuは話す。彼は、Baiduのディープラーニング研究機関でディレクターを務めている。「私たちはこのような早いスピードで市場に影響を与える機械学習や人工知能を経験したことがありません。驚くべきことです」と続けた。

多くの企業はディープラーニングがこれからの時代を形作ると捉えている。また、この新しい商業サイエンスを有効に活用するのに多額の資金やリソースも必要ないことを知っている。

Hintonの功績は、現在人工ニューラルネットワークとディープラーニングの研究に取り組んでいるほとんどの大手企業に見ることができる。現在Facebookで働くYann LeCunは、1980年代にHintonと共にBackpropagationを開発していた。Baiduのチーフサイエンティストを務めるAndrew Ngは、GoogleのDeep Learning Projectを立ち上げ、Hintonとそこで何年も共に働いた。これら数人のエンジニアは、それぞれ競合する企業で働いているが、力を注いで追い求めているものは同じだ。本物の行動学習をする人工知能の開発だ。

10年以上前、ビジネスの世界はディープラーニングの分野に背を向けた。チップの処理能力の限界と人工ニューラルネットワークで用いるデータセットは、Hintonと彼の同士が掲げた仮説を実行不可能なものとし、時代が追い付いていなかった。

2015年に先送りすると、ポテンシャルのあるアプリケーションで溢れる全く新しい環境がある。これに気がついたのは何も大手企業だけではない。Clarifaiのような小さな組織も、拡張された学習能力を広告やコンテンツのキュレーションのための調整やフィルタリングに使用している。他にもMoz(SEO企業)のような企業も、カスタマーにより優れたプロダクトとサービスを提供するこの技術が、これからの時代を形作ると捉えている。「Mozのような企業も機械学習技術を部分的に一定のレベルは使用しています。ディープラーニングは全く活用していませんし、多くのニューラルネットワークの技術も使用していません。しかしその方向に向かうことはあると思います」とMozのブログでRand Fishkinは説明している。

多くの企業はディープラーニングがこれから時代を形作ると捉えている。また、この新しい商業サイエンスを有効に活用するのに多額の資金やリソースも必要ないことを知っている。IBMのWatson Analyticsは、500MBまでアップロードでき、ディープラーニング用のリアルタイムのアプリケーションを無料で試すことができるフリーミアムサービスを提供している。Google Adwordsや他の販売に関連する数値をツールに入力することで、スタートアップ企業でも、データの中に関連性や予測するのに役立つ情報が得られるだろう。Watson Analytics以外にも、他社が開発していて、活用しているテクノロジーを見てみよう。

Google Research:Googleは、Forbesの「2015年、最も価値あるブランド企業」のリストの三位に入った。ただ、誰もが彼らは検索で一位であることに異論はないだろう。Googleは、この10年で機械学習能力で多くの進化を果たした。彼らは、画像、動画、言語の理解を深めるための開発に力を入れている。

Googleは調査、買収(2014年に買収したDeepMindなど)やImagenet Large Scale Visual Recognition Challenge(単語と画像を紐付けるデータベース)とのパートナーシップなどを通して、ディープラーニングの新しい分野での検証と適応に注力してきた。最近Googleは、初めて見る画像を説明するためのキャプションを自動で付ける機能を公表した。Googleの検索アルゴリズムにこのような画像認識と検索機能が実装された場合を想像してみよう。

そんなに遠い未来のことではないだろう。Geoffrey Hintonは、Redditの「Ask Me Anything(何でも聞いて)」のセッションで「次の5年で最も面白い分野は動画とテキストの内容の理解だと思います。次の5年内に、例えばYouTubeの動画から、何が起きている内容かを説明する機能が出来ていなければ、がっかりします」と説明している。

Facebook FAIR:世界で最も人気のSNSは、検索でも強いプレイヤーに成長した。今後もこの分野においてマーケットシェアを拡大していくだろう。Facebook AI Research (FAIR)はFacebookが人工知能とディープラーニングを未来のソーシャル、購買活動とメディアへの応用に注力していることを表すものだ。事実、彼らの顔認識ソフトウェア、Torch(ディープラーニングのための開発環境)のオープンソースモジュールへの貢献、最近ではMike Schroepfer (FacebookのCIO) がFacebook AIが 動画内の登場人物の動きを認識できるようになったことを発表したことを考えると、Facebookは、ディープラーニングによる学習能力を最も活用している企業であると言えるかもしれない。

Microsoft Project Oxford:最近発表したhow-old.netの顔認証プロジェクトで Microsoftの技術を多くの人が知ることとなった。しかしほとんどの人はこのプロジェクトは、Microsoftの機械学習研究チームによって製作されたことを知らない。Microsoftのブログによると「数人の開発者が、ウェブページと機械学習APIを統合し、リアルタイムでアナリティクスをストリームするこのソリューションを全て構築するのに、一日しかからなかった」と伝えた。これは始まりに過ぎない。このようなプロジェクトの他にも、近い内にProject OxfordとCortana(Microsoftの「パーソナルアシスタント」)がWindows 10とInternet Explorerの代替ソフトであるEdgeに実装されるだろう。

WolframAlpha:WolframAlphaは抜群の知名度があるとは(まだ)言えないが、ここ数年の人工知能の分野の有力なプレイヤーである。彼らの究極の目標は、何もかもコンピュターで処理できるようにすることだ。まずは、専門的な知識と能力が要求される分野に注力している。彼らは最近、画像認識、新たな問題の作成、言語認識と更にはFacebookの分析まで開発対象を拡大した。

何故これが重要なのか?

もし人工知能が検索に統合されたらどうなるかと想像する時期を超え、それがいつ行われるかという時期に到達した。上記の企業は、それの実現に向けて業界を引っ張っている。これらの情報を鑑みた上で、ディープラーニングが次の5年間で検索にどのような影響を及ぼすのだろうかという予想をいくつか記載する。

新しいSEOの基準:あなたがオンラインのマーケターでこれらの技術に心躍らないのなら、この分野はあなたに合っていないのかもしれない。このタイプの人工知能を搭載した検索エンジンで、マーケターは画像優位のSNS、動画共有サイト、スライドでのプレゼンテーションプラットフォームといった新しいチャネルを有効に使うことができるようになる。また、検索者に役立つ画像や動画を提供し「信頼」を得ることもできるだろう。

画像でカスタマーのイマジネーションを喚起したり、注意を引くことが今後更に重要になってくると、検索を用いる企業は気が付いている。

スパムサイトの死:Googleは長い間スパムサイトとの戦いを繰り広げてきた。スパム手法を用いるサイトのランキングを下げるための専用アルゴリズム Penguinまで開発した。私の予想では、姑息なリダイレクト、中身が薄く価値の無いスパム手法を用いるウェブサイトは大幅に減少すると考えている。これにより、より安全で整ったウェブが出現するだろう。

デバイスとの連携の改善:Googleのモバイルゲドンのアップデートが、このタイプのアップデートの最後ではないはずだ。Facebook(Oculus)、Microsoft(Hololens)のような企業が仮想現実のヘッドセットを押し出すのなら、どのような端末にどのようなウェブサイトを表示させるべきか学習し優先順位を付けることができる、賢い検索エンジンが必要になる。

隠れ場所がなくなる:検索エンジンの企業の人工知能が賢くなり完璧に近づくほど、ユーザーをトラックする機能も高まるだろう。Verizon、AT&TやFacebookが最近リリースした、次世代の「スーパークッキー」のような技術が誕生し、オンラインでユーザーが隠れることが困難になる。

画像コンテンツの重要性が増す:ミレニアル世代は、彼らより上の世代より遥かに広告を見ない。 Simply Measured(ソーシャルメディアのアナリティクス企業)によると、Facebook上の全てのブランド投稿の62%、エンゲージメントの投稿の77%は写真だった。通常のテキストだけの投稿は少ない。更にHubspotの調査では、魅力的な画像要素とグラフィックスをブログ投稿やソーシャルメディアのコンテンツに加えることで、最大94%の閲覧数の増加と37%のエンゲージメントの増加が得られるそうだ。

画像でカスタマーのイマジネーションを喚起したり、注意を引くことが今後更に重要になってくると、検索を用いる企業は気が付いている。そのようなコンテンツが近い内に優先されるようになるだろう。

[原文へ]

(翻訳:Nozomi Okuma /Website/ twitter

画像:NeydtStock/Shutterstock

IBMがApache Sparkプロジェクトに3500名を投入、未来に生きる道はオープンソースしかないと悟る

5439493601_dc049b0258_o

IBMが今日(米国時間6/15)、オープンソースのビッグデータプロジェクトApache Sparkに3500名の研究員を割り当てる、と申し出た。また併せて同社は、同社の機械学習ツールIBM SystemMLのオープンソース化を発表して、それをビッグデータと機械学習の最先端の地位に押し上げたいという意図を鮮明にした。

この二つの技術はIBMが最近志向している、クラウドとビッグデータとその分析技術、およびセキュリティを軸とする自己変革戦略の一環だ。今日の発表と並行してIBMは、Sparkを同社の分析プロダクトの核とすることと、企業等のSparkプロジェクトを支援する商用サービスDatabricksとも協働していくことを誓った。

Sparkは、ビッグデータを処理するエンジンとしては世界最速を自称している。

IBMアナリティクス部門の製品開発担当VP、Rob Thomasはこう言う: “Sparkはビッグデータ分析のオペレーティングシステムだ、と考えたい。将来的には、ビッグデータを利用するときには誰もがSparkを使うようになるだろう。Sparkを使うと、データへのユニバーサルなアクセスができるからだ”。

Thomasによると、Sparkはその成長のペースがオープンソースの歴史上最速にはやかったため、IBMも注目せざるをえなかった。これまでの数年間、Sparkを使ってきたが、昨年Apacheのプロジェクトになってから、一層、注目度が高まった。

DatabricksサービスとIBMとの仲は、まだほんの数か月だが、彼らは機械学習がこのApacheプロジェクトの弱点だと聞かされて以降、IBMの機械学習技術に深く関わるようになった。

こういう場合のIBMのやり方として、単に3500名の研究員を投入するだけでなく、もっと全面的な関わりになる。同社は、同社のPaaS Bluemixの顧客に、今ではアプリケーションの重要素材としてSparkを使わせている。

さらに同社の10あまりの研究部門がSpark関連のプロジェクトに取り組んでおり、近くサンフランシスコにSpark Technology Centerというものをオープンしてデータサイエンス振興のためのコミュニティの形成に取り組み、Sparkを利用する各種のアプリケーションを作っていくとともに、Spark本体の開発も加速する。

IBMのプロジェクトには教育の部分があるのがふつうだが、今回もその例外ではない。IBMの発表によれば、同社はAMPLabやDataCamp、MetiStream、Galvanize、MOOCのBig Data Universityなどと協働して、Sparkを使いこなせるデータサイエンティストを最終目標として100万名育成する。立派な目標だけど、今現在データサイエンティストは、世界中からかき集めても最大で25万人ぐらいしかいないという説もあるから、遠大な目標でもある。

IBMはこれら一連の活動を慈善事業として行うわけではなく、ビッグデータが今後の同社のビジネスの重要な核になる、と信じているからだ。それが全面的に活性化できるための、多様な要素からなる基盤を今から築いておきたい。しかもオープンソースのプロジェクトに本気でコミットすることで、オープンソースのツールを使ってビッグデータや機械学習に取り組んでいる多くの企業との良好な関係形成を図れる。それによりIBMには、コンサルティングなど、そのほかのビジネス機会も開ける。

IBMはお金持ちだから、SparkやOpenStackのようなオープンソースプロジェクトにそのリソースを投ずることによって、会社の体質そのものをリフレッシュし、未来の新しいビジネスに向かう道を築きたいのだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

画像や映像に写っている物だけでなく場面全体の状況も認識する人工知能をMITで研究開発中

mit-objectsscenes-1

コンピュータの能力は、一歩々々、人間に近づいていると言われる。今週ご紹介するのはMITのComputer Science and Artificial Intelligence Laboratory(コンピュータ科学と人工知能研究所)の研究プロジェクトで、画像や映像から物を認識し、さらに、その場の状況を認識する。これはコンピュータをさらに賢くするための、重要な機能の一つだ。

人間が画像を見ると、そこで今何が起きているのかをおおむね直観的に判断できる。しかし今のコンピュータビジョンや機械学習システムは、それが苦手(にがて)なため、車の自動運転とか荷物の配達などのインテリジェントなシステムの進歩を阻んでいる。状況認識に取り組んだMITの研究者たちは、これまであったシステムよりも33%高いパフォーマンスを実現したという。

今週彼らが発表した論文によると、その彼らのシステムは、画像を見て、そこで何が行われているかを判断するだけでなく、その状況を構成する個々の物も認識する。つまり、全体の認識だけでなく、個別の認識もできる。

おもしろいのは、研究者たちは自分たちの状況認識技術が約50%の認識精度を達成した理由を、正確に把握していない(なお、人間の状況認識精度は約80%)。とにかくそのシステムは画像中の何らかの視覚的特徴を拾って、それらを返しているのだ。人間もやはり、いくつかの特徴から、状況を判断している。たとえばベッドが写っていれば寝室、長いテーブルと椅子とスピーカーホンがあれば会議室だ、と判断するだろう。

高度な機械学習システムでは物の認識と場面の認識が一体化しているだけでなく、お互いを強め合っている、とチームは考えている。もしそうなら、いまよりもずっと賢いコンピュータの研究開発が一層加速され、言うまでもなく、ユートピアまたは黙示録の世界が訪れてしまうだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

国の研究所からスピンアウトしたスタートアップDescartes Labsは衛星画像の分析データを農業分野などに売る

descartes_headshots_proofs-56

【抄訳】
合衆国政府の研究機関で7年間仕事をした連中がこのほど、深層学習(deep-learning, ディープラーニング)による画像分析を行うスタートアップ(非公開企業)Descartes Labs(デカルトラブス)としてスピンオフし、330万ドルの資金を獲得した。

Descartes Labsが主に行うのは、衛星画像を分析してそこに写っているものを理解し、それらから有意なデータを取り出す仕事だ。Descartes LabsはLos Alamos National Lab(ロスアラモス国立研究所)から昨年8月に公式にスピンオフしたが、投資家が関心を持つようになった今は、活動を加速させようとしている。そのために、サンフランシスコとロスアラモスの両方で人を増やし、またコンピュータの能力もパワーアップしたい。

Descartes LabsのCEO Mark Johnsoはこう言う: “うちがやっているのは、ふつうの画像認識技術ではない。うちでは画像に対して物理学を適用し、犬やコーラの缶を探したりはしない。遠隔探査と天体物理学には共通の部分が多いことが、分かってきた。空でたくさんの写真を撮る場合は、センサが正しく調製されていなければならないし、それらの写真を正しく縫い合わせて、大量の分析をしなければならない[天体物理学]。そしてそのときの望遠鏡を地球方向に向けたら、(地球〜地表に対して)それとまったく同じ問題を抱えることになる[遠隔探査]”。

同社はこれから、地球全体の農業を調べ始める。合衆国などでは農業のデータが充実しているが、そういうところは全地表のごく一部にすぎない。だから、データを衛星の画像に頼ることになる。そしてそうなると、それはお役所の問題ではなくて、Descartes Labsが機械学習を駆使して取り組むビッグデータの問題になる。

衛星から来るデータは、可視スペクトルのものだけではない。たとえば赤外線領域のデータは、農作物を調べるためにとても役に立つ。

このような大規模な問題に取り組んでいるDescartes Labsのところには、相当強力なコンピュータがあるに違いない、かな? ところが、以前なら巨額な国の予算を使えるところにしかなかったような強大な処理能力が、今ではAmazonのAWSやGoogleのCloud Compute Engineなどから安価に得られるのだ。今や国の研究機関の一部ではなくなったDescartes Labsも、自前で巨大なスーパーコンピュータを作ったり買ったりする代わりに、それらのサービスを安く利用している。

同社の機械学習のコードの効率が良いから、それで十分だ、という面もある。彼のチームが優秀だということでもあるが、たとえばロスアラモスの科学者だったMike Warrenは、宇宙の素粒子1兆個の振る舞いを調べるシミュレーションを動かしたこともある。そのほかのスタッフも科学者や宇宙研究者で、画像認識や機械学習を支えるハードサイエンスに取り組んでいる。

ビジネスの展望はすでにはっきりとある。たとえば衛星画像から得られる農業に関するデータは、商品取引などの業界で珍重される。彼らはその限られたデータから、世界中の主要作物の作柄を予測したりするのだ。そういうデータの質を高めることの方が、各作物の栽培や輸出入に関する大雑把なデータよりも、同社のビジネスにとって価値がある。

2014-10-12-L8-044034_10N_008_066_543

衛星画像の応用分野はもっと多様だが、同社はとりあえず農業からスタートすることにしている。農業の分野も、同社がやってるような大きな視野のデータは、まだどこにもないからだ。Johnsonによると、330万ドルはプロダクトを世に出すためには十分な額であり、スタートアップにつきものの多少の失敗やその修正も許される、という。

投資家の一人Venky HarinarayanはKosmixのファウンダだった人物だが、その会社は買収されて今ではWalmart Labsになっている。

1972-09-18-LM1-047034_10N_008_066_321

その彼が曰く、“生まれたばかりのスタートアップの重要な課題の一つが、具体的な市場を見つけることだ。大きな市場ではなくて、今後急速に成長する市場が欲しい。大きな市場は、ほやほやのスタートアップにとって荷が重すぎる。大市場の攻略には、大きな資本が必要だ。スタートアップが対応しやすいのは、だから急速な成長が見込める市場の方だ”。

Descartes Labsはロスアラモス国立研究所で7年間育てられて、そのあとスピンアウトした。しかし、国のお金で動いている研究所からのスピンアウトは必ずしも簡単ではない。まず、交渉事項がうんざりするほど多い。また、これまで資金の心配をしたことのない人たちは、スタートアップを経営するノウハウを持っていない。そこで投資家たちは、Descartes LabsのCEOとして、Ziteの元CEOで、FlipboardのプロマネでもあったMark Johnson、すなわちスタートアップのベテランを持ってきたのだ。

【後略】

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

自動化マーケティングの将来…データから顧客や市場の現実を知ることがベース

marketingfuture

[筆者: Vik Singh]
編集者注記: Vik SinghはInferの協同ファウンダでCEO。それまでの彼はSutter Hill Venturesの正社員起業家。彼は検索やソーシャルネットワークやコンテンツオプティマイゼーションの分野で13件の特許を持っている。

その業界に詳しいDavid Raabの説では、マーケターの三人に二人は既存のマーケティング自動化ソフトウェアに大なり小なり不満である。またBluewolfの調査報告書“State of Salesforce”は、マーケティングソフトへの投資のわずか7%しか、まともなROIを得られないという。この、企業や商店に大きな利益をもたらすはずの自動化マーケティングは今、標準性を欠く乱雑な多様化とユーザの不満が激化しているのだ。

Marketing Automation Market Share (Source: Datanyze)

マーケティング自動化サービスのマーケットシェア(出典: Datanyze)

自動化マーケティングがそうなってしまった原因は、そのルーツがメール爆弾であることにある。そういうシステムはユーザのターゲットページや入力フォームやWebのアクティビティデータやトリガや、などなどに長年勝手に貼り付いてきたから、だんだん、やることが多くなって肥大し、ユーザがうんざりするような、口数ばかり多い無能ソフト/アプリケーション/サービスへと頽落した。

たとえば下の図はEloquaのスクリーンショットだが、この積み木ゲーム(Jenga)のような画面を見ると、われわれ自動化マーケティングの連中が今マーケターたちに提供しているものが、どんだけややこしくて脆(もろ)いものであるか、が分かる。われわれ、と言ったのは、こんな面倒な推奨ワークフローをマーケターに提示しているのは、Eloquaだけではないからだ。

Infer TC Image

自動化マーケティングが自動化しない

最大の問題は、上図のようなワークフローが、良い見込み客を見つけるための画一的で普遍的な法則とされ、具体的なデータに基づく指針になっていないことだ。

たとえば、こんなワークフローだ: “ユーザがこのリンクをクリックして、そのあと、あのリンクを二度クリックしたら、二日後にこのメールを送りなさい…”。これが、絶対的なルールとして書かれている。ユーザがWebサイトのデザインを変えたら、この(多くの人が無視したであろう)ワークフローは、もう使えない。

こんな低レベルな構成では、多様な現実への対応がほとんどできない。こういうワークフローを作った者がいなくなったら、どうするのだ? ワークフロー地獄は深刻なパフォーマンスの問題ももたらす。

私が実際に見たある企業は、自動化マーケティングシステムのすべてのワークフローを8時間以上もかけて処理してから、やっと見込み客をCRMシステムに渡していた。ネットで見つけた見込み客に営業が接触するまで、8時間以上もかかるのだ。自動化マーケティング約束した、スピードと単純化と、そしてまさに自動化は、どこにあるのだ?

2018年にはどのマーケティングプラットホームが優勢か?

今は、自動化マーケティングを再発明すべき時だ。そのプラットホームは、スケーラブルで応答の速いデータベースと、データに連携したワークフローシステムを提供する必要がある。それは、見込み客や顧客に関するデータを調べることに最適化された、軽いシステムでなければならない。また、サードパーティが特殊な目的の応用システムを構築できるために、クリーンなAPIを提供すべきだ。

そんな方向に向かうための条件は、早くも整いつつある。まず、膨大な量の外部データ、先進的なデータサイエンスと、さまざまな特殊目的に対応するマーケティングアプリケーションの登場。3年後の2018年には、新世代の自動化マーケティングソフトウェアが出揃うだろう。そして2018年に優勢になっているマーケティングプラットホームは、予測能力があって、どんな見込み客に対しても適切なリコメンデーションを出力する、オープンなプラットホームだ。

最初に予測ありき

明日のプラットホームは、何もかも詰め込んだ一枚岩的な自動化マーケティングシステムではなく、インテリジェントで痩身で、多くの小さな専門的アプリケーションに接続できる基幹プラットホームだ。それは豊富なデータに基づいて、顧客とのさまざまなタッチポイント(接触点)に適切なリコメンデーションを配布する。

最新のデータサイエンスと、それに基づくビッグデータ分析や機械学習技術により、そこらにあるさまざまなデータから重要な信号を読み取ることが、できるようになっている(Netflixのムービーのリコメンデーションは一体どうやっているのか、考えてみよう)。またコンピューティングのインフラストラクチャが安価になったので、多様な顧客モデルの作成とそれらに基づく具体的な個人化を、個々の企業に合わせてできるようになった。今ではConversicaLyticsRelateIQ、そしてInferのような企業が予測分析を誰の手にも届くようにし、見込み客の育成やキャンペーンの最適化、見込み度の判定など、自動化マーケティングのこれまでの課題だった項目に対しても、より効率的で効果的なソリューションを提供している。

予測能力のある人工知能(predictive intelligence)は今、すべての企業がこぞって求めている。それがさまざまなニッチのアプリケーションと結びついたプロダクトやプラットホームは今後、誰にでも使えて、具体的なアクションに結びつくシステムとして普及するだろう。それは使いやすいだけでなく、企業の進化の方向性に即したものでなければならない。そんなシステムは、ワークフローの構成など面倒なタスクも自動化するので、ユーザはパフォーマンスのチューニングとか劣化などを心配する必要がない。こういう予測型のシステムは、一人々々の顧客のアクションについて自分で学び、適応し、そして自分を改良していく。

マーケティングとセールスを循環させるリコメンデーション

(フルサークル (full-circle)リコメンデーション)

一人の顧客や見込み客に、マーケティングとセールスが別々に対応すべきではない。未来のプラットホームは顧客データをめぐる派閥性を解消し、すべての、マーケティング/営業機能を一元化する。今すでにKnoweldgeTreeなどのサービスは、営業とマーケティングとのあいだの風通しを良くすることによって、それを実現しようとしている。次のベストアクションやベストコンテンツが、片方の独断で決まらないようになる。

顧客に関する予測も、営業とマーケティングが共有する。セールスデータの履歴をよく吟味して、良い見込み客とはどんなタイプか、を見つけ出す。そしてその情報を、営業とマーケティングの両方に浸透させる。さらに、その結果に対しても然りだから、この情報活動には循環性がある。そこで‘フルサークル’と呼ぶ。

良い見込み客を拾い上げるための予測モデルを、短期的なCR(コンバージョンレート)重視型から長期お買い上げ重視型に変えることができれば、カスタマーサクセスチームがそれを利用して顧客のロードバランスを図れる。

オープンなプラットホームを目指せ

次世代のマーケティングプラットホームは強力なAPIを提供する。Autopilotがその好例だが、でもどんな企業でも、焦点を絞った、インサイトに満ち満ちた、由緒正しいツールを作ることはできる。それらは今はびこっている、何でも屋のような、インテリジェンスのないプラットホームより10倍も優れている。

たとえば仕込みキャンペーンをやる場合は、予測インサイトと痩身的システムならではのスケーラビリティを利用して、それまで無視してきた仕込み用データベースから見込み客を見つけるだろう。そういうデータベースは、見込み客の見込み度の得点を、彼らのWebビヘイビアに応じて絶えず更新しているから、仕込み客を見つけるのにはうってつけだ。そしてそういう見込み度の高い見込み客に個人化されたメールを送ったり、そのリストをセールスに回すことによって、仕込みキャンペーンが回り出す。

今ではマーケティング関連のサービスが2000近くあると言われる。CRMのSaaS化や自動化マーケティングが流行(はや)ってきたためだが、SalesforceのAppExchangeの影響も大きい。でも自動化マーケティング関連のサービスは、まだ幼児期にあるため、充実したエコシステムやAPIがなく、したがって成功例に乏しい。

でも、個々のアプリケーションのレベルでは、優れたものが現れ始めている。そして今後のオープンなマーケティングプラットホームは、CRM型ではなくデータ型(データ分析型)になるだろう。そもそも、CRMにデータを提供したり、またCRMからデータを拾う側、すなわちデータサイドが、顧客情報を長期的に多く集積しており、それらが効果的に分析されれば、マーケティングに大きく貢献しうるのだ。

クラウドコンピューティングが伸びていくとき、“ソフトウェアの終焉”という言葉が言われたような意味で、予測型プラットホームは自動化マーケティングというカテゴリーに革命をもたらす。未来のマーケティングは、キャンペーンの管理や見込み客の行動調査などを超えたものになる。

新しいプラットホームは、ワークフローとプログラムとアクションの形を、今後ますます強力になる予測インサイトの枠組みの中で変えていく。それらのワークフロー等は、マーケティングとセールスのあいだのギャップを、予測を糊としてCRMと自動化マーケティングをくつける(一体化する)ことにより、橋渡しする。

身軽でスケーラビリティの大きいデータプラットホームというものがまずあり、そこに予測のレイヤを置く。そしてコンバージョンを高めセールスを成功に導く良質なアプリケーションが、予測を活用する。初めに予測ありきのソフトウェアが世界を食べている。今その歯は、マーケティングとセールスに食らいついたところだ。覚悟を決めよう。

〔訳注: 本稿の筆者は、機械学習による予測ソフトのベンダ。自分が前に買ったり調べたりしたものに基づいて、来る日も来る日も、同じようなものの広告ばっかし見せてくれるのは、そういう‘機械的’ソフトが猛威を揮っているから。マーケティングが、その企画者実行者の人間知と人間性と創造力に基づく、クリエイティブな営為、新しいものや新しい発想を作り出す仕事であることは、ここでは完全に無視されている。本当のヒット商品や人気店は、どうやって生まれているのか、考えてみよう。データの集積と分析は重要だが、それらの処理の形や方向性を決め、処理結果から何かに気づくのも、人間性の能力だ。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleとどう違う? エキサイト翻訳が15年目の機能拡張で専門用語を強化

screenshot_335

オンライン翻訳サービスの老舗「エキサイト翻訳」。2015年8月に15周年を迎えるこのサービスが機能拡充を実施した。8系統106分類の分野を選択することで、それぞれの専門用語にも対応した翻訳が可能になる(現状は英語のみ)。数個のボタンがついた程度で、以前と比べて正直見た目の大差はほとんどない。だがビジネスや専門分野の翻訳において使い勝手が大幅に向上しそうだ。

このサービスの詳細を伝える前に、まずは僕らが普段利用している翻訳サービスに大きく2つの種類があるという話をしたい。僕は今回紹介するエキサイト翻訳に加えて、Google翻訳を利用することが多い。正直どちらが優れているというよりかは、両者が得意とするコンテンツ、苦手とするコンテンツが結構違っていて、片方でうまく翻訳できない場合でも、もう片方ではうまく翻訳できる、なんてことが少なくないからだ。

それもそのはずで、(知っている人からすればとっくに知っている話だろうけど)この2つのサービス、同じ機械翻訳とはいえ翻訳エンジンの内容がまったく違うのだ。

統計ベース、ルールベース2つの翻訳エンジン

まずGoogle翻訳だが、これは「統計ベース」の翻訳エンジンを使用している。これは大量の対訳データを収集して、その統計データを元に翻訳の仕方を学習するというものだ。データがあればあるほど自然な表現にもなるし、訳文の精度も高まっていく。

ただし、統計ベースの翻訳エンジンでは、データの内容や分量によってそのクオリティが大きく変わる。基本的には日常会話や口語文、スラングなんかは得意なのだけれど、説明書や技術書、ビジネス文書なんかあまり得意ではないのだそう。統計ベースの翻訳サイトといえばGoogle翻訳のほか、Microsoft Translator(BingやFacebook、Twitterの自動翻訳など)

もう1つあるのが「ルールベース」の翻訳エンジンだ。これは文章の構文「主語」「述語」「目的語」といったように解析し、それぞれに対して辞書にある意味を当てはめて翻訳するというものだ。辞書をベースに翻訳をするため、一貫性がある翻訳結果を返すし、辞書を増やせば増やすだけ、幅広い業界の用語にも対応できるというわけだ。

もちろん弱点はある。文法的に正しくない文章であれば翻訳もうまくいかないし、辞書を使うので自然な翻訳文は苦手だ。だから日常会話なんかの翻訳はうまくいかない。これはエキサイト翻訳のほか、Yahoo!翻訳やLINE翻訳、Weblio翻訳といったポータル系の翻訳サービスに導入されている。

技術者や大学生のニーズに対応

この翻訳エンジンの違いを理解すると想像できるかも知れないが、エキサイト翻訳の利用者に多いのは、技術職や学生(特に大学生)。これはつまり専門書や仕様書、論文といった専門性の高い、ルールベースの翻訳エンジンの得意領域を多用するユーザーが多いということだ。そんなこともあって今回、専門用語辞書が追加されたのだそう。

この辞書の重要性が分かるのが多義語の処理。例えば「power」という単語はITや電気といった分野によっては「電源」を意味するが、「体力」だったり「支配力」だったりといろいろな意味を持っている。今回最適な分野を選択することで、こういった単語、文章もスマートに翻訳してくれるのだそうだ。

「retirement-accounting」というちょっと聞き覚えのない単語で実際に試してみよう。Google翻訳だとハイフンがそのまま訳されてしまって「退職-会計」となり、これまでのエキサイト翻訳だと「退職アカウンティング」とこちらもよく分からない言葉になる。それが新機能で「社会学系:金融」の辞書を選択すると「除却会計」となり、正しい「retirement」の解釈がなされることになる。ちなみにエキサイト メディアサービス本部ポータルメディア部の井上佳央里氏いわく、統計ベースとルールベースの翻訳サービスは、「競合として見るのではなく、用途によってどちらも使うのがおすすめ」とのこと。

このほかエキサイトでは、機械翻訳ではどうにもならない場合のために、500円(1文字6円程度)から人力で翻訳するというサービスも提供している。

Algorithmia―研究者とスタートアップをつなぐユニークなアルゴリズムのマーケットプレイス

Algorithmiaは昨年8月に240万ドルの資金を調達したスタートアップだが、強力なアルゴリズムを発明した研究者とソフトウェアのデベロッパーを結びつけるマーケットプレイスのプライベート・ベータテストを開始した。

このマーケットプレイスにはすでに機械学習、音声画像処理、コンピュータビジョンなど800のアルゴリズムが登録されており、デベロッパーのさまざまなニーズに応じられるようになっている。

このサイトにアルゴリズムを登録した発明者は、そのアルゴリズムの利用者から料金を受取ることができる。Algorithmiaではアルゴリズムの募集にあたって懸賞金システムを用意している。ソフトウェアのデベロッパーが特定の機能を果たすアルゴリズムを募集すると、その分野に詳しい研究者が、料金を取り決めた上で、スクラッチで開発を始めるという仕組みだ。

このサービスに登録されたアルゴリズムのデモとして、サイトにはウェブ・クローラーの動作をシミュレートするアプリが公開されている。これには7人の研究者のアルゴリズムが利用されているという。クローラーの動作はビジュアル化され、ノードの重要性に基いて色分けされる。ノードごとのページランクも一覧表示される。

〔日本版〕Algorithmiaのデモは、デモとは思えない強力なアプリで、興味深い情報が得られる。 http://jp.techcrunch.com/ などと入力してMap Siteボタンを押すとトップドメインから順次下位ノードをクロールする。デフォールトでは20段階先までクロールする。紫色がもっともページランクの高いノードとなる。マウスをホバーさせるとURLが表示され、クリックするとリンク先内容がサムネールで表示される。 http://www.yahoo.co.jp/ のような巨大サイトを20段階クロールするのには数十秒かかるが、ダイナミックなビジュアルを見ているだけでも面白い。またサイトの構造がよくわかる。 クロールを5,6段階に制限すると個別のノードが見やすくなる。

画像:Algorithmia

[原文へ]

(翻訳:滑川海彦@Facebook Google+


新薬の候補物質をスパコン+ニューラルネットで迅速に見つけるAtomwise

カリフォルニア州Mountain Viewの彼のアパートから電話に出たAtomwiseの協同ファウンダAlex Levyは、“医者や薬屋に行かなくても、自分の家で、はしかの治し方が分かるんだよ”、と言った。

Y Combinatorの今の‘在学生’であるAtomwiseは昨年、一般的によくある疾患や、希少疾患の治療法を見つけるためのプロジェクトを10以上ローンチした。いずれも、治療に費用や時間がかかりすぎる病気だ。同社はエボラ出血熱ではIBMと協働し、はしかの治療法ではカナダのダルハウジー大学と共同研究をした。Levyによると、同社は、多発性硬化症の治療薬候補を見つけるために、わずか数日で820万種の化合物を調べた。

一般的に、新薬を開発して市場に出すまでには平均12年の年月と約29億ドルの費用を要する。開発される薬のうち、めでたく家庭の薬棚に収まるのは、ごくわずかだ(治験にまで行くのは5000件の研究開発案件のうち、わずか1つ)。

まだ存在しない仮説的な薬を調べることもできる。

—-Atomwise協同ファウンダAlex Levy

Atomwiseは、スーパーコンピュータと人工知能と、何百万もの分子構造を調べる特殊なアルゴリズムを使って、新薬発見のローコスト化を実現しようとしている。

“それはまるで超人の脳みたいに、何百万もの分子を分析してそれらの作用を、数年ではなく数日で調べる”、とLevyは言う。その仮想薬物発見プラットホームは、ディープラーニングを行うニューラルネットワークがベースだ。それは、既存の薬の分子構造と作用に関する何百万ものデータポイントを自分で学習するところから、仕事を開始する。

Atomwiseが使っているディープラーニング技術は、GoogleのDeepMindと同じようなタイプだが、応用の対象が医薬品という重要な分野だ。症状と治療薬のペアを見つけていくこの技術は、理論的にはまだ存在しない、今後ありえるかもしれない病気の治療薬を見つけて、何百万もの命を救うかもしれない。

“まだ存在すらしていない仮説的な薬を調べることもできる”。とLevyは言う。“新しいウィルスが登場すると、Atomwiseはその弱点を見つけて仮説的な治療法を素早く特定し、テストできる”。

また、現在市場に出回っている薬の化学構造をあらためて調べて、既存の疾患の治療可能性を見出すこともある。Atomwiseは今、FDAに承認され市場に出回っている薬の分子構造を調べて、エボラ治療薬の候補を見つけようとしている。

[写真: 細胞上で増殖するエボラウィルス]

今、多くの医療専門家たちが、今後20年で抗生物質耐性菌が急増して、あらゆる抗生物質が効かなくなり、巨大な医療危機をもたらす、と警告している。Atomwiseのスーパーコンピュータは、そんな手強い菌にも効く薬を見つけるかもしれない。

Atomiseが見つけた化合物がいきなり家庭の薬棚にやってくるわけではないが、しかし大量の分子構造を調べて候補を見つけるという作業を、コンピュータが短時間でやってくれることは、ありがたい。原理的には人間研究者は、そのあと、つまり候補物質を調べるという作業だけをやればいいから、新薬発見〜市場化に要する時間も短縮されるはずだ。

ただしAtomwiseはまだ若い企業で、治験にまで行った薬はまだ一つもない。製薬業界にとっては、大助かりな技術と思えるけど。

“もちろん試験は必要だけど、そこに至りつくまでの推量的作業を、すべてうちが代行できる”、とLevyは言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa