自動車保険も将来はAIになる…Liberty MutualがAPIポータルを開設

solaria-labs-api

Liberty Mutual Insurance傘下のテクノロジーインキュベーターSolaria Labsが、デベロッパーが同社のAPIにアクセスするためのポータルを作り、そこでは一般公開されているデータと独自の保険情報を併用して、ユーザーにより安全なルートを教えたり、万一の事故時の損害を見積もる。

そのAPIのAIは、事故後の修理費を見積もる。Liberty Mutual InnovationのアシスタントVP Ted Kwartlerがメールにこう書いている: “自動被害見積もりアプリのAIは、匿名化された請求写真で訓練されている”。ユーザーが事故に遭ったら、たとえば折れ曲がったフェンダーの写真を撮ってアプリにアップロードする。するとAIはそれを何千もの写真と比較して、それとよく似たパターンを見つけ、スマホを持って現場にいるユーザーに修理費の見積もりを伝える。

APIはまた、車の盗難、駐車情報、事故などに関する一般公開情報を集めて、ユーザーに安全なルートや駐車スペースを教える。さらに、独自の保険情報により、ユーザーにとってより役に立つ情報を提供する。“保険の専門知識と消費者情報を合わせて、利用できるサービスやデータの整理の仕方などをガイドする”、とKwartlerは述べる。

写真は匿名化されてAIの訓練に利用され、ルートを判断するために使うデータは一般的に公開されている。“Liberty Mutualは同社が集めた、個人を同定できるデータを、法律で定められた機関以外のサードパーティにシェアしない”、とKwartlerは付言している。

このAPIを使ってみたいデベロッパーはSolaria LabsのWebサイトで登録すれば、今後のアップデートも受け取れる。なお、APIの一般供用は数か月後からだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

人工知能が人工知能をプログラムする時代がやってきた

2017-01-20-ai-shutterstock_175625024

プログラムをプログラムするのは誰か? 近々、人間ではなく別の人工知能プログラムが高度な人工知能プログラムを書けるようになるという。MITのレポートによれば、Google Brain始め機械学習ソフトを開発している多くの組織でこのことが確認された。人工知能によって作成された人工知能プログラムの性能が人間が開発したプロダクトと同等であるか、場合によっては上回わっていたという。

すると機械学習プログラムを書けるデベロッパーでさえ失業の危険にさらされるのだろうか? 早まってはならないが、そういうことではない。まず現状では人工知能に人間に役立つ機械学習プログラムを書かせるためには膨大なコンピューター処理能力を必要とする。Google Brainにおける「人間以上のプログラム」を書かせる実験では人工知能に画像認識プログラムを書かせるために画像処理能力があるプロセッサを―なんと!―800台も協調作動させる必要があったという。これは安くつく話ではない。

しかしこうした手法の優位な点もはっきりしている。必要なコンピューター・リソースを減少させるための開発も進んでいる。機械学習の開発を機械まかせにできるとなれば、この分野における人的資源の不足という問題を根本的に解決できるだろう。現在スタートアップや大学は少しでも機械学習分野の知識がある人材を獲得しようと激しく争っている。また膨大なデータをコンピューターに読み込ませてパラメーターを調整して機械学習システムを訓練するという退屈な仕事をコンピューター自身に任せることができるなら、研究者は人間にとってもっと役立つ、あるいはもっと重要な分野に集中できる。

AIが別のAIをチューニングすることには別のメリットもある。現在のAIシステムの学習曲線はかなり急だ。つまり意味のある結果を得るためには最初に大量のデータを必要とする。AIによる機械学習の改良が実用化されれば、当初必要とされるデータ量を大きく減少させることができるかもしれない。自動運転システムにも影響が大きいだろう。自動運転車の開発の場合、プロトタイプで延べ100万キロも走り回ってやっと実用化の入り口にたどり着いたかどうかというのが現状だ。

MITのメディアラボでは他の機械学習ソフトを利用できるソフトの開発をオープンソースで公開している。将来はあらゆる産業分野でコンピューターによって人工知能をプログラミングすることが主流となっていくはずだ。

AIの専門家は機械学習システムの構築には人間の努力が大量に必要であることを指摘するだろう。それは正しいが、同時にそうした努力の一部分であれ、機械に肩代わりさせることができれば影響は大きい。機械学習システムの開発のハードルが大きく下がるはずだ。自動運転システムを含め、数多くの分野でAIを利用したプロダクトが市場に出るだろう。しかし同時にAIの普及が人間の努力を不要にするとかあらゆる分野で失業を増やすといった不安が根拠のないものであることも明らかだ。

Featured Image: mistery/Shutterstock

〔日本版〕人工知能と機械学習の関係についてはいろいろな立場があるが、ここではとりあえず人工知能という上位区分に機械学習も含まれると解釈している。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

DeepgramがオープンソースにしたKurを使えばディープラーニングのDIYが楽にできる

screen-shot-2017-01-18-at-10-09-36-am

Y Combinator出身のDeepgramは、機械学習を利用して顧客企業のためにオーディオデータの分析をやっている。その同社がこのほど、Kurと呼ばれるディープラーニングツールをオープンソースにした。この分野に関心のある人たちは、自分のアイデアを形にするのがより容易になるだろう。同社はまた、10時間ぶんの録音データを10秒単位に切り刻んたものを、訓練用の教材として提供している。

ディープラーニングライブラリのKerasと同じくKurも、ディープラーニングのモデルを構築して訓練するプロセスを高度に抽象化している。そうやってディープラーニングをより容易にすることによってKurは、画像認識や音声分析などのタスクの、敷居を低くしている。

DeepgramのCEO Scott Stephensonの説明によると、立ち上げ当時の同社はLibriSpeechを使っていた。それは、パブリックドメインのオーディオブックを、初期の機械学習モデルを訓練するために細かく分割した、ネット上のデータセットだ。

しかしDeepgramは、車輪を再発明しているわけではない。同社のデータダンプとオープンソースのプロジェクトがあれば、大学やテクノロジー企業は、Tensorflow, Caffe, Torchなどのフレームワークを利用しやすくなる。画像認識用にはImageNetデータベースがあるし、音声用にはVoxForgeがよく使われているが、オープンソースのデータセットはもっといろいろある方がよい。

“自動運転車も、出発点は画像の分類技術だ”、とStephensonは語る。“つまり、誰かに最初、小さなかけらみたいなものを与えれば、やがて人びとが寄ってたかってモデルを変えるようになり、これまでとは違うことが、できるようになるんだ”。

デベロッパーがKurを自由に使えるようになれば、Deepgramが欲しい人材も育つ。今、機械学習やデータサイエンスの分野では、そういう実地教育を、大手のテクノロジー企業ならどこでもやっているし、成果も上げている。

デベロッパーがモデルやデータセットや重みを共有してイノベーションを加速するためのソーシャルサイトKurhub.comを、もうすぐ同社はオープンする。今日リリースされるデータセット用の重みは、いずれDeepgramがリリースしたいと考えているので、DIY派の人びとも、プロセッサーを酷使する訓練で苦労しなくてもよくなる。10時間のオーディオデータというと、訓練用のデータとして大きくはないが、それでもモデルの訓練にはGPUを使った場合で約1日、一般市販のコンピューターなら相当長くかかる。

Deepgramのデータセットを全部使ったら、適当に自分のデータを加えればよい。必要なものは、音声の録音を10秒単位で刻んだWAVファイルだ。パブリックドメインで提供されている録音データを、データに飢えているディープラーニングのモデルにたくさん食わせてやれば、精度はさらに向上する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械と人間の役割分担を見つめ直してみよう

South Korean Go game fans watch a television screen broadcasting live footage of the Google DeepMind Challenge Match, at the Korea Baduk Association in Seoul on March 9, 2016. 
A 3,000-year-old Chinese board game was the focus of a very 21st century showdown as South Korean Go grandmaster Lee Se-Dol kicked off his highly anticipated clash with the Google-developed supercomputer, AlphaGo. / AFP / JUNG YEON-JE        (Photo credit should read JUNG YEON-JE/AFP/Getty Images)

【編集部注】執筆者のKatherine BaileyAcquiaのデータサイエンティスト。

最近騒がれている機械学習のバイアスや倫理上の問題から、数字とデータには限界があることは明らかだ。偽ニュースの失態や、自然言語処理の分野で有名な研究者がその解決にあたっている様子を見ると、自分たちが解決しようとしている問題を明確にすることこそが1番難しい問題なのだとわかる。いつどのようにスマートマシーンを使うか、という判断には人間の力が欠かせない。そしてスマートマシンを賢明かつ安全に利用するためには、目的のレベルが上がるほど、人間が積極的に関わっていかなければならない。

スマートマシンを使った物事の判断における、クリティカル・シンキングの能力も、そろそろ計算能力のように高めていく必要があるということだ。計算能力に関しては機械を頼ることができる一方、クリティカル・シンキングについてはそうはいかず、近いうちに機械が人間に追いつくということもないだろう。倫理的な問題について考えたり、どのような問題であれば計算能力を頼りに解決することができるかという判断を下すのは人間固有のスキルなのだ。

数字とデータだけでは足りない場合

最近一部の研究者が、顔の特徴からその人の犯罪性を予測できる根拠をみつけたと発表した。”Automated Inference on Criminality using Face Images(顔写真を使った犯罪性の自動推測)”という論文の中でXiaolin WuとXi Zhangは、顔写真から犯罪者と非犯罪者を高い確立で見分けるために、さまざまな機械学習の手法を用いてどのように分類システムを構築したかについて述べている。結局この論文は、不完全かつ無責任に機械学習技術を利用しているとして激しく非難された。この場合、恐らく彼らの計算は間違っていなかったが、そもそものアイディア自体に問題があったのだ。

ふたりはアルゴリズムを信用するあまり、自分たちの思い込みに気づけなかった。彼らは司法制度には偏りがないといった、自分たちの発見を完全に色眼鏡で見てしまうような思い込みをしていたのだろう。このような問いについて考えられないと、どれだけ優秀なスマートマシンを持ってしても、どうにもならない結果に陥ってしまう。

スマートマシンの勝利

恐らく近年で最も印象的なスマートマシンの功績は、昨年3月の囲碁の世界チャンピオンとの対決におけるAlphaGoの勝利だろう。Googleの子会社であるDeepMindの研究者が開発したこのシステムは、複数の機械学習の手法を驚くほど洗練された形で利用し勝利をおさめた。

倫理的な問題について考えたり、どのような問題であれば計算能力を頼りに解決することができるかという判断を下すのは人間固有のスキルだ。

その手法の中には、何百万という数の過去の試合のデータをもとにしたものや、AlphaGo自身との対戦結果をもとにしたもの、また全ての手(宇宙に存在する原子の数よりも多い)を考えなくてもいいようにショートカットを考案するための最新の統計手法などが使われていた。しかし試合自体はスマートマシンがあったからこそ勝てたものの、そのシステムを設計したのは人間にほかならない。

同じ言葉の繰り返しのように聞こえるかもしれないが、私たちがスマートマシンを使って問題を解決したとき、それは単にその問題がスマートマシンによって解決できる問題であっただけで、だからといってスマートマシンが人間と同じレベルに達したということにはならない。つまり、もしもある課題がデータと数字の組み合わせで解くことができるものであれば、それはスマートマシンが解決すれば良い課題だ。そしてデータと数字だけでは解けない問題に対しては、まずシステムを設計しなければならない。

欠かすことのできない人間の役目

もしもAlphaGoを設計する人のクリティカル・シンキングに誤りがあれば、結果的にAlphaGoの囲碁のレベルは下がるだろう。しかし犯罪性の予測のような問題の場合、クリティカル・シンキングのレベルが低いと、システムによって誤って犯罪者だと認識されてしまった人はもちろん、ほかにも恐ろしい結果が生まれることになる。

スマートマシンに対する恐れの中心には、人間が置いてけぼりにされることへの恐れがある。つまり、ひとたび機械が人間のできることを全てこなせるようになってしまえば、人間の必要性がなくなってしまうのではないかと多くの人が考えているのだ。しかしこれは単に、スマートマシンとは何かということへの誤解から生じる不安でしかない。

スマートマシンは人間のために人間がつくった単なるツールに過ぎない。機械は囲碁の試合で勝てるかもしれないが、その試合を選ぶのはいつも人間だ。

私たちはツール自体の素晴らしさ(確かに本当に素晴らしいツールはたくさんあるが)ではなく、そのツールがうまく設計されているかや、道理に反することなく人間の役に立っているかといった点にもっと注目しなければならない。トレーニングデータにバイアスは含まれていないだろうか?フォールス・ポジティブの結果何が起きてしまうのか?このような問いに答えられるのは人間だけであり、その絶対的な必要性は今も昔も変わらない。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

機械学習を利用して肺がんの兆候を早期発見する技術でKaggleが賞金100万ドルのコンペを主催

lungs-money

データサイエンスのコンペを毎年主催してほぼ10年になるスタートアップKaggleが、今度の賞金総額100万ドルのコンペでは、肺の中の癌になりそうな病変組織を見分ける今よりも良い方法を募る。この2017 Data Science Bowlと名付けられたコンペの資金提供者はLaura and John Arnold FoundationとBooz Allen Hamiltonだ。

目標を限定したコンペで高額賞金、というケースは、今回が初めてではない。昨年の同コンペでは心臓病の兆候を見つけるデータ分析技術に20万ドルの賞金が提供された。さらにその前年は、海の健康診断、という課題だった。

でもこれまでで最高額の賞金は、今年の100万ドルだ。優勝者が50万ドル、2位、3位、4位がそれぞれ20万、10万、2万5000ドルとなる。〔4位は複数か?〕

Kaggleは2010年にAnthony GoldbloomとBen Hamnerが創設した。これまですでにKhosla Ventures, Index VenturesなどからシリーズAで1100万ドルを調達している。

Goldbloomは本誌に、“うちは、データサイエンスのホームのような企業でありたい”、と語った。

同社の収益源は、このサイトでコンペを行う企業や財団などからの出資金の一部だ。また80万名近い会員のための求職求人掲示板からの収益もある。

2017 Data Science Bowlがローンチしたのは今朝(米国時間1/12)だが、すでに300のチームからの提出物がある。Goldbloomによるとこれらの提出物の多くは、提出の早さを競って自慢するためだ、という。しかし2017年4月12日の締め切りまでに、一日平均5件の提出がある、という予想だ。

参加チームは、国立癌研究所(National Cancer Institute)が提供する肺のスキャン画像を使って自分たちのモデルを作る。目標は、今のソリューションが不適切である最大の理由、すなわち高い偽陽性率を、大幅に減らすことだ。

GoogleのDeepMindMicrosoftには、どちらにも、目のスキャン画像を分析して今後失明になりそうな兆候を見つける機械学習モデルとそのためのリソースがある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

鳥のように着陸できるドローン、イギリスで研究中

ラジコン機やクオドコプターでは着陸がいちばん難しい。操縦を誤って池に落としたり木にひっかけたりした経験があるユーザーは多いはずだ。数百ドルのドローンならともかく、テロリストを監視する数百万ドルのスパイ機などでは着陸失敗は笑いごとではすまない。着陸時の安全性を高めるテクノロジーがどうしても必要だ。

現在、イギリスのブリストル大学とBMT Defence Servicesが共同してこのテクノロジーを研究している。

チームは標準的なラジコン・システムと特殊な形状の主翼を備えたドローンで研究を行っている。この主翼は飛行中に大きく形状を変えることができる。着陸寸前に大きな角度で引き起こしを行い、地上滑走なしで鳥が止まるように着陸できるようにすることが目的だ。ビデオを見たところではまだ本当に「鳥のように着地する」ところまではいっていないが、研究チームは地上滑走に必要なスペースを大幅に減少させることは可能と考えている。

プレスリリースによれば、

現行のUAVは一定の形状に固定された翼をもつため飛行の柔軟性に乏しい。われわれの研究の当面の目的は従来の固定したUAVの翼に鳥の羽のように大きく変化する構造を与えることだった。こうした複雑な翼構造を制御するためBMTは機械学習アルゴリズムを利用した。これにより操縦者は鳥の飛行のような自然の動きをUAVの着陸に取り入れることができるようになる。

この可変構造の翼は大きく空気を抱き込むようにしてUAVの高度を上げて速度を落とし、従来の翼形状の機体よりも急角度で降下する。まだ完成していないようが期待が持てるテクノロジーだ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

「AIを搭載」は「全て自然」同様の技術的ナンセンスだ

computer-with-mask

人工知能と卵の値段の共通点は何だろうか?

さて、今あなたはお店で9から10種類の卵からどれかを選ぼうとしている。ある1つがあなたの目を捕える「全て自然(All natural)」。まあ、いいんじゃないかな、自然であることは良いことだし、30セントばかり高いだけだし。ということであなたはそれを買う。さて、そうして選んだ鶏や卵は他のものよりも、より「自然」であるかもしれないし、そうではないかもしれない。なぜなら公式には、それどころか一般的な合意としても、自然に対する定義は存在していないからだ。それは何でもないもののために、あなたに30セント余計に支払わせるための戦略だ。全く同じことが技術でも問題になりつつある…そこにAIを伴って。

公式には、あるいは一般的に合意された人工知能の定義は存在しない。どうしてそうなのかについて興味が湧いたのなら、WTF is AI(いまさら聞けないAI入門【英語】)という記事を投稿してあるので、楽しんで貰いたい。しかし、こうしたコンセンサスが欠如しているからといって、大小様々な企業がAIを革新的な機能として取り込むことを止めるわけではない。そのスマートテレビ、スマートプラグ、スマートヘッドフォン、その他のスマートなガジェットに対しての取り込みを(ここで言う「スマート」とは、もちろんもっとも緩い意味で使われている。多くのコンピューターのように、彼らは岩のように使えない代物なのだ)。

ここには2つの問題がある。

それはおそらくAIではない

最初の問題はこれだ。AIは非常に曖昧に定義されているため、あなたのデバイスなりサービスなりがそれを持っていると言うのは本当に簡単だ。そしてテレビ番組や水利用パターンの膨大なデータをニューラルネットワークを供給するから、どうしたこうしたというもっともらしい響きを持つちんぷんかんぷんで、それをバックアップするのだ。

「それは完全にデタラメな用語です」と言うのは、名前は明かさないがある有名ロボット会社のCEOだ。とはいえそのロボットの中には多くの人がAIと呼んでもおかしくはないものが採用されている。それは有能さの認識を生み出すために用いられるマーケティング用語なのである。何故ならほとんどの人は無能なAIを想像することができないからだ。邪悪なことはあり得ても(「申し訳ありません、デイブ、私にはそれはできません」)、無能なことはありえない。

最近機能リストに詰め込まれている、こうしたバズワードとしてのAIの大活躍は、部分的には人工知能と結びついたニューラルネットにその原因がある。深入りしてみなくとも、この2つは同じものではないのだが、マーケティング担当者達はまるで両者が同じようなものであるような扱いをする。

最近私たちが耳にするニューラルネットワークとは、数学的分析を通じてデータのパターンを解きほぐすことによって、大量のデータを処理する斬新な方法である。この方法は、脳がデータを処理する方法に触発されているので、人工知能という用語が当てはまる1つの文脈に沿っているとは言える。しかし他のより重要な文脈では、とても誤解を招きやすいものでもある。

人工知能は、独自の意味や含意を持つ用語であり、それらはニューラルネットワークが実際に行うものとは一致しない。私たちはAIを十分には定義できていないかもしれないが、いくつかのアイデアは持っている。そして、これらのソフトウェアは興味深く、汎用性があり、作成に当たって人間の思考プロセスからインスピレーションを得てはいるものの、それらは知的ではないと言っても過言ではない。

また開発のどこかの時点で、畳み込みニューラルネットワークだろうが、ディープラーニングシステムだろうが、手持ちの何かが使われた場合には、そのソフトウェアは「AIを搭載」の類であると謳われることになる。

何しろ専門家でもAIが何かを言うことができないのだ、消費者に何を期待できるというのだろうか?それは単なる機能リストの1項目に過ぎず、他の部分同様に、読む人にとっては不透明なものである可能性が高い。しかし、彼らはAIがハイテクの産物だと知っているし、大企業によって採用が続いていることも知っている。なのでAIを搭載する機器は良いものに違いない。ちょうど「自然」卵を他のブランドに優先して選ぶ人のようだ。たいした正当性もないままに安易にラベルが箱に貼られただけかも知れないものを。

そして、もしそれがあったとしても…

第2の問題は、何がAIであり何がそうでないかを決めるような、ある程度の基準が仮にあったとして、私たちがあるシステムがその基準に合致すると認めたとしても、AIによるソリューションが適さない種類の問題が存在するということだ。

例えばある企業は、テレビ番組を推薦するAI搭載エンジンを売り込んでいる。それについて考えてみよう。そうした主観的なトピック周辺で得られる限られたデータセットに、ディープラーニングシステムを適用することで、一体どんな洞察が得られるのだろうか?「CSI:マイアミ」を好きな人への推薦を決めることは難しいことではない。彼らは「PERSON of INTEREST 犯罪予知ユニット」やその類のものを好むだろう。これらは、精査の後にやっと明らかになったり、把握のためにはスーパーコンピュータを何時間も使ったりしなければならないような、微妙で隠れたパターンではない。

そして実際、Jaron LanierがThe Myth of AI(AIの神話【英語】)で適切に説明したように、データは人間に由来するので(例えば「これを見たひとは、こちらも見ています」といったもの)、人工知能は、それが下す全ての判断に関して完全に人間の知性に依存しているのだ。嗜好の発見、何を好み何を好まないかの選択、エピソード・演技・演出の品質の判断といった難しい部分は、人間が既に済ませている。そしてコンピューターがしていることといえば、人間の知性を検索して関連性の高い結果を返していることだけなのだ。

wtf-machine-learning

同様のことは、あなたの使用状況をモニターして何かを推薦したり、あなたがそこにいないことを知ったときにエネルギーを節約する、サーモスタットやシャワーヘッドのようなIoTデバイスにも当てはまる。AIをあなたの家庭にもどうぞ!牛乳が少なくなっていることを教えます!誰がドアの前にいるのかを識別します!これらも、同様に見せかけのものだ。データセットはまばらでシンプル、出力は2値、または非常に限られたものに過ぎない。そして、あるデバイスが、あなたが過去30年間使用してきたものほどは無能ではないという理由だけで、それがスマートだということにはならない。逆に、知能に対するこれらの主張は実に… 人工的だ

AIが多くのものを有意義に改善できるというのは、ハイテクカンパニーが作り上げたフィクションなのである、ついでに言うならばそもそもAIそのものがフィクションなのだ。こうしたモデルが結論に到達する方法はしばしば不明瞭であるため、機械学習に依存することは彼らの目的にとって有害である可能性すらある。

これもまた、しばしば卵の容器に見られるようなマーケティングトリックの1つなのだが…これまでに、この卵を産んだ鶏は皆菜食主義で育成されている、という主張を見たことがあるだろうか?さあ思慮深くなろう!問題は鶏は菜食主義者ではないということだ、彼らは何百万年もの間ミミズや虫を食べて生きて来た。そして、実際には、生来の食生活を奪うことは、生活と卵の質に悪影響を及ぼす可能性が高い。(ついでに言えば「放牧で育てられた(pasture-raised)」も類似の宣伝文句だ)。

多分今あなたはこう考えていることだろう、よしわかったミスターAIエキスパート殿、もしこれらのどれもがAIではないというなら、何がそうなのか?それに私が、クリックを誘うような見出しを書く段になると、AIという用語にうるさく言わないのは何故なのか?

まあ、これはすべて私の意見に過ぎないのだが、私たちが大企業や大学によって研究開発されている、概念としてAIの話をしているときには、少々定義を拡大してみても構わないと思う。そこで私たちが話題にするのは本当に芽生えつつある段階のソフトウェアなので、多くの人がAIとして理解するような傘の下に収まるアイデアに対して、細かくあげつらうことには意味がない。しかし企業がその本質的な曖昧さを目眩ましの宣伝文句に使うときには、私は反対の声を挙げるべきだと考えている。だからそうしたのだ。

誤解を招き、誇張され、あるいは完全にでっちあげられた機能リストは、ハイテク業界における神聖なる伝統なので、こうした動きも目新しいものではない。しかし、新しい胡散臭い言葉が、トレンドを血眼で追うマーケティング担当者の語彙に加わろうとするときに、きちんと指摘しておくことは良いことだ。おそらくいつかは冷蔵庫の中に本当にAIを見出す日も来るだろう。しかしそれは今日ではない。

 

(訳注:「申し訳ありません、デイブ、私にはそれはできません」というのは「2001年宇宙の旅」に出てくるAIの台詞)

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: BRYCE DURBIN / TECHCRUNCH

日本のCAMPFIREが約3億円を調達:レンディング事業参入とAIの研究開発へ

screenshot-from-2017-01-10-12-06-28

クラウドファンディング・プラットフォーム「CAMPFIRE」を運営する株式会社CAMPFIREは本日、第三者割当増資を実施し、合計で3億3000万円を調達したと発表した。

今回の資金調達に参加した投資家は以下の通りだ:D4V1号投資事業有限責任組合、GMOインターネット株式会社、SMBCベンチャーキャピタル株式会社、East Ventures、株式会社iSGSインベストメントワークス、株式会社サンエイトインベストメント、株式会社セプテーニ・ホールディングス、株式会社ディー・エヌ・エー、株式会社フリークアウト・ホールディングス、ほか個人投資家3名。

また今回の資金調達に伴い、お金のデザインを立ち上げた谷家衛氏が取締役会長に、フリークアウト・ホールディングス代表取締役の佐藤裕介氏が社外取締役に、富士山マガジンサービスCTOの神谷アントニオ氏が社外取締役に、データサイエンティスト・オブ・ザ・イヤーの原田博植氏が執行役員CIOに就任する。

支援金の総額は16億円

CAMPFIREがクラウドファンディング・プラットフォームを立ち上げたのは2014年6月のこと。その後、2016年2月に共同代表である家入一真氏が代表取締役に就任し、同時期にサービス手数料をそれまでの20%から5%にまで大幅に引き下げた。同社によれば、この手数料率は国内最安値の水準であり、これがCAMPFIREの特徴1つでもある。

実際、手数料率を引き下げた頃から掲載プロジェクトへの「支援金」が急速に伸びた。現在の支援金総額は16億円で、過去4年間の支援金総額を2016年の1年で上回るほどに急成長している。

screenshot-from-2017-01-10-12-09-18

レンディング事業への参入と、人工知能のR&D

今回調達した資金を利用して、CAMPFIREはレンディング事業への参入と、機械学習を中心とした人工知能の研究開発を行う。

レンディング事業への参入を決めた背景について代表取締役の家入一真氏は、「現状の購入型のビジネスモデルにとらわれないところにチャレンジしたかった。お金をよりなめらかに流通させることが目的」と語る。

OLYMPUS DIGITAL CAMERA

CAMPFIRE代表取締役の家入一真氏

もう1つの資金の使い道は、人工知能の研究開発だ。家入氏によれば、CAMPFIREはこれまでにも機械学習の研究開発を進めていたという。

具体的にはプロジェクトの審査にこのテクノロジーを利用しているようだ。家入氏は、「機械学習を利用して目視による審査を自動化することで、手数料を下げることができると考えた。これから参入するレンディングビジネスでは難しいとは思うが、これまでの購入型のクラウドファンディングでは審査をほぼ全自動化することも可能だと考えている」と話す。

機械学習の活用方法はもう1つある。それは、掲載するプロジェクトの「見た目」の改善だ。プロジェクトの支援金額はタイトル付け方や本文の構成によって大きく左右される。CAMPFIREはこれまでに同社に蓄積されたデータを分析し、支援を受けやすいタイトルの付け方やコンテンツの構成方法を提案していく。

国内におけるクラウドファンディングの市場規模は約480億円。CAMPFIREによれば、そのうちの8割が貸付型であり、今後は数千億円規模の成長が見込まれるという。CAMPFIREが次に狙う領域はここだ。

製品化への道に潜む「AIの溝」の超え方

Blue Little Guy Characters Full Length Vector art illustration.Copy Space.

【編集部注】執筆者のSimon ChanはSalesforce Einsteinのプロダクト管理担当シニアディレクターを務めており、以前はPredictionIOの共同ファウンダー兼CEOでもあった。

AIが私たちの生活やビジネスをより良くしているという、うきうきするようなニュースを毎日耳にする。AIは既にX線写真を解析し、モノのインターネットを動かし、営業・マーケティングチームの次の一手を考え出すほどまでになった。その可能性は無限大に広がっているようにさえ見える。

しかし全てのサクセスストーリーの背景には、研究段階から抜け出せずに終わった無数のプロジェクトが存在する。というのも、機械学習の研究の成果を製品化し、顧客にとって本当に価値のあるものへと転換することは、理論上うまくいくアルゴリズムを組むよりもよっぽど難しいことが多いのだ。私が過去数年間に出会った企業の多くは同じ問題に直面しており、私はこれを「AIの溝」と呼んでいる。

最近行われたApacheConで、私はこの問題に関する考察を発表した。本記事では、AIを扱う企業が直面するであろう技術・プロダクト面での溝を越えるために必要な上位4つのポイントを紹介したい。

crossing-the-ai-chasm-new-2

技術面におけるAIの溝

新しいデータ AIとデータは切っても切れない関係にある。例えばチャットボットをトレーニングするためには、顧客からのリクエストとそれに対する正しい回答例をアルゴリズムに読み込ませなければならない。通常そのようなデータはCSVのように、きれいに整えられた静的なフォーマットで準備されることが多い。

静的データを使って、上手く機能するAIデモを開発することはできるが、実際に使っていくうちに賢くなっていくような、自動学習タイプのAIには常に新しいデータが必要だ。そのため各企業は機械学習モデル開発の早い段階で、新しいデータをもとに定期的にAIモデルがアップデートされるような仕組みを構築しなければならない。

一方でライブデータを利用するためには無数の技術的な問題を解決しなければならない。スケジューリングやアップデート時にダウンしない仕組み、プロダクトの安定性やパフォーマンスモニタリングなどがその一例だ。さらに新しく取り入れたデータのせいで何かが起きてしまったときのために、問題が起きる以前の状態へプロダクトを復元できるような仕組みも必要だ。これが次の論点にもつながってくる。

トレーニング用データの品質管理 AI企業は製品開発当初からデータ品質に気をつけなければならない。特にユーザーから集めたデータを利用する場合にはなおさらだ。機械学習のプロセスが自動化されること自体は素晴らしいことだが、それが仇となる場合もある。最近Twitter上で問題を起こしたチャットボットは、自動化が誤った方向に進んでしまった典型例だ。

実際のところ、AIの溝とはそこまで恐ろしいものではない。

件のチャットボットは自由に会話できるようになる前に、不要なモノを省いてモデル化された公なデータをもとにトレーニングされていた。しかしその後、現実世界のユーザーとの不適切な会話からデータを読み込み始めると、ツイート内容が急激に悪質なものに変化していった。ガーベッジ・イン・ガーベッジ・アウトは機械学習の基礎的な法則であり、優秀なAIシステムは問題の芽を発見すると、人間の手が加えられるように管理者へアラートを発するようになっている。

プロダクト面におけるAIの溝

正しいゴールに向けた最適化 どのような回答をAIに求めているかを明確にすることにAIの成功はかかっている。トレーニング開始当初から、インプットされる問題とその回答、そして何を良い・悪い回答とするかということをハッキリと決めておかなければならない。データサイエンティストは、このような基準をもとにAIモデルの正確性を見極めていくのだ。

まずはゴールの設定だ。AIを使う目的は売上の最大化なのか、ユーザーエクスペリエンスの向上なのか、手作業で行われているタスクの自動化なのか、それともまた別の目的があるのか?AIプロダクトが成功をおさめるためには、ビジネス上のゴールがきちんと反映された評価基準を利用しなければならない。

この点に関し、Netflixのアルゴリズムコンテストからは学ぶべきことが間違いなくある。Netflixは新しい映画レーティング・アルゴリズムの開発者に100万ドルを授与したものの、DVDレンタルから動画ストリーミングへサービス内容が移行したことから、当初のゴールが当時の状況にマッチせず、結局そのアルゴリズムを現実で利用することができなかったのだ。

評価基準を設定するときには、以下のポイントを抑えておく必要がある。1)本当に意味がある数値を計測する 2)新しいライブデータを使って評価を行う 3)関係者が理解でき、かつ重要だと思えるように評価結果を説明する。そして3点目は人間とAIの交流という重要なポイントにつながってくる。

人間とAIの交流 人間というのは複雑な生き物だ。そのため、人間とAIが関わり合いはじめると、研究所でデータだけを相手にしていたときには浮かんでこなかったような問題が生まれてくる。消費者は信用できないようなAIプロダクトは利用しない。そして企業は予測モデルがどれほど正確か見せることで信用を勝ち取ろうとするが、ほとんどの消費者はいくら素晴らしい数値を見せられても専門的な内容を理解することができない。

結果的に企業は、プロダクトのUXやUIを利用して消費者の信用を築いていかなければならなくなる。例えばAppleはバーチャルアシスタントのSiriを最初にリリースしたとき、ユーザーのいる国に応じてデフォルト設定の声の性別を変えていた。さらにGoogleの自動運転車では、可愛らしいフレンドリーな顔が表示され、安全性に不安を感じている利用者の気持ちを落ち着けるようになっている。アルゴリズムの見せ方は、問題だけでなく解決策にもつながっているということを覚えておいてほしい。

実際のところ、AIの溝を越えるということはそこまで恐ろしいことではない。よく練られた計画と共に、下ではなく前を見ながら進んでいけば良いだけなのだ。そしてAI第一の企業になるためには、顧客第一でなければならないということをお忘れないように。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

人体とテクノロジーの融合のこれまでとこれから

A man with a computer chip inside his head

【編集部注】執筆者のDaniel Waterhouseは、Balderton Capitalのジェネラル・パートナー。

”人間”と”機械”の距離が縮まりつつある。機械学習によって、仮想現実はより”リアル”に感じるようになり、これまで人間の脳でしか処理できないとされていたことも、AIがどんどん再現できるようになってきている。このような技術の力によって、テクノロジーはこれまでにないほど人間の体に近づいており、だんだんと奇妙な感じさえしてくる。

しかし、これからもっと奇妙なことが起きようとしている。

まずはこんな問いからスタートしてみよう。VRモードのMinecraftで教会の屋上の端っこに立っているのと、ノルウェイの山の絶壁に立っているのではどちらの方が怖いだろうか?私は両方を体験したが、Minecraftをプレイしているときの方が強いめまいを感じたのを覚えている。

私たちの脳は、進化を通して私たちが住む世界を理解し、種の保存を念頭に置いて数々の判断を下せるようになった。この仕組みのおかげで高さを恐れる感覚が養われていき、「高い場所の端には寄るな、落ちて死ぬかもしれないぞ」と感じられるようになったのだ。

実際のところ私たちが見ているものは、目を通して得た情報を脳が処理したものだ。つまり、私たちが見ているものは現実ではなく、私たちが進化の中で有用と考えるようになった現実の一部を脳が読み取ったものなのだ。そのため、私たちがどのように”見るプロセス”を”見ているもの”に変換していくのかが分かれば、VRが作り出す幻想を現実よりもリアルに感じられるようになる。その例が先ほどのMincraftとノルウェイの山の話だ。

VR内で教会の屋根の上に立つことが生死に関わるリスクだと人間が認識しないようになるには、かなりの時間がかかると予想されている。むしろ今後数年の間に、脳が特定のパターンで物事を認識するように仕向けるテクノロジーが発展していくだろう。

同時に、私たちの脳に関する理解も日を追うごとに深まっている。神経の可塑性に関する最近の研究の結果、脳の一部が損傷しても、トレーニングを通じて他の部分がその機能をカバーできることが分かっている。今後さらに脳の詳細が明らかになれば、そのうち人工的な刺激の処理方法をプログラムで調整し、今日のVRよりもリアルな体験ができるようになるかもしれない。

さらに新たな種類のスマートイヤホンや音声ソフトの登場で、聴覚を欺く方法も明らかになってきた。OculusはOculus Rift用のイヤホンを最近発表し、没入感の提供に力を注いでいる一方、以前H__rと名付けられていたアプリは、音声フィルタリングの技術を使ってノイズを心地良い音に変える機能を備えている。

VRが作り出す幻想を現実よりもリアルに感じられるようになるかもしれない。

自分たちのことを”人工嗅覚の専門家集団”と呼ぶThe eNose Companyは、人間の鼻の機能を再現できるテクノロジーの開発に成功した。彼らの技術は、肺のテスト機器警察犬の代わりとしての応用が検討されている。

このようにさまざまなテクノロジーが発展していく様子を見ていると、仮想世界と現実の境界が分からなくなるほどのフルVR装置(ヘッドセット、イヤホン、グローブ、さらには嗅覚や味覚の代わりになるセンサーのセット)がそのうち誕生しても不思議ではない。

それどころか、記憶に関連したシナプスの結合を強化する脳内物質を発生させる方法がみつかれば、現実ではできない体験をVR上でできるようになる可能性もある。トランセンデンスの世界やマイノリティ・リポートのVRポッドも、そう遠い話ではないのかもしれない。

このような技術が発達した結果、テクノロジーが私たちの体と密接に絡み合うようになってきた。しかし、テクノロジーと人体の相互作用は、VRの中だけで力を発揮するわけではない。機械上で脳の作用を再現しようとしているAIの技術がここに混ざりあうことで、テクノロジーと人体の融合はさらに面白くなっていく。

技術者は何十年にも渡り、脳の仕組みを利用してとても複雑な問題を解くことができるアルゴリズムを構築しようと努力してきた。そして、コアアルゴリズムの進化やコードのスマート化、さらにはコンピューターの機能が向上したことで、最近ではこの分野でも大きなブレイクスルーが起きている。

脳全体を再現した汎用AIまでの道のりはまだまだ遠く、実現までにどのくらいの時間がかかるかや、実際に汎用AIを作ることができるかどうかさえも現時点では分かっていない。そもそも、脳を再現した機械を作る前に、私たちは自分たちの脳のことを完全に理解しなければならない。

画像認識や言語学習など、脳のさまざまな機能を研究することで、脳でどのような処理が行われているかや人間の学習プロセスについて解明することができる。脳は新しい概念について学ぶとき、似たような例をたくさん確認必要があるのか、または自力で新たな概念を学ぶことができるのだろうか?言い換えれば、脳のアルゴリズムは教師あり(Supervised)なのか、それとも教師なし(Unsupervised)なのだろうか?

本当の意味で教師なし学習を行えるAIの開発にあたって、今後何年間も関係者が頭を悩ませることになるだろう。そして、関係者の中にはこの新たな分野を受け入れはじめた(=数多くの企業買収を行っている)大手テック企業も含まれている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

機械学習とディープラーニング専用チップの製作を目指すCerebras Systemsが$25Mを調達

chip

Benchmarkが年内にまた大きな投資をしようとしている。今回は、Cerebras Systemsと呼ばれるハードウェアスタートアップだ。情報筋によると、そのラウンドには他の投資家たちも参加し、金額はほぼ2500万ドル、最終的には3000万ドルもあり、ということだ。

Cerebras Systemsに関する情報は、インターネット上も含めてきわめて乏しい。情報筋の説では、同社が作っているのはディープラーニングに特化した次世代型専用チップだそうだ(GPUか?)。LinkedInにはこんな記述がある(Google検索で得られる唯一の情報がこれ):

“Cerebrasは第一級のベンチャーキャピタル〔複数形〕と指導的技術者〔複数形〕が支えるステルス・モードのスタートアップである。われわれはこれまで複数回の起業に成功してきた起業家集団であり、他が挑戦を尻込みするような問題をもっぱら解決してきた。われわれは、完全性と情熱と現実的な問題解決能力と、ユーモアのセンスに価値を置く。われわれはつねに、常軌を逸した人びとのチームへの参加を求めている”。”

LinkedInによると、SeaMicroの協同ファウンダーでCEOのAndrew Feldman(同社の買収後はAMDに在籍)が、Cerebras SystemsのCEO、となっている。また同社のCTO Gary Lauterbachも、SeaMicroの協同ファウンダーでのちにAMDに移籍、となっている。

これからはAIや機械学習を利用するアプリケーションがますます増えてくるから、このような専用チップの需要およびその増加は、確かにありえると思われる。FacebookやGoogleのような企業は、これからもますます多くのデータを集め、それらに対して大規模に機械学習を適用していくだろうから、彼らもまた、新しい進化したハードウェアと、モアベターなアルゴリズムを必要とするだろう。

Amazonは最近、デベロッパーが従来のCPUではなくGPUのパワーをを必要に応じて利用できるための、ツールをリリースした。これなども、GPU並の性能を有する専用プロセッサーへの需要があることの、明白な証左だろう。したがって、コンピューティングのパワーと効率を大きくアップできる専用チップをプロダクトとして掲げる新興スタートアップが資金を吸引するのも、当然だ。

今、同社に関する情報をなんとかして集めようとしているので、何か得られ次第この記事をアップデートしよう。Benchmarkはノーコメントを貫いているが、LinkedInからリーチしたFeldmanは、同社はまだステルス・モードで、まだ、、メディアに何かを発表できるタイミングではない、と述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoftがインドで目の健康のために機械学習を活用、Google DeepMindに対抗

machine-learning-msft

同じ企業間競争でも、障害者の生活が少しでも良くなるための競争なら、大いに奨励したいね。Microsoft Indiaは、GoogleのDeepMindのやり方に倣って、インドにデータドリブンの視覚障害者支援サービスを導入するための研究グループ、Microsoft Intelligent Network for Eyecare(目のケアのための人工知能ネットワーク)を立ち上げた

DeepMindの眼科医学へのアプローチはイギリスがターゲットだったが、Microsoftは必ずしも対象国を限定しない。同社はアメリカ、ブラジル、オーストラリア、そしてもちろんインドの研究者たちの協力を求めながら、機械学習モデルを教育訓練し、失明の原因となる症状をシステムが同定できるようにする。

Microsoftの中心的なパートナーとなるハイデラバードのL V Prasad Eye Instituteは、インドの名門病院のひとつだ。このプロジェクトはとくに子どもに力を入れ、屈折矯正手術の結果や、子どもの近視率の変化の予測、といった意欲的な課題に取り組んでいく。

GoogleのDeepMindは、イギリスのNational Health Serviceとパートナーして目のスキャンを分析し、湿性で年齢と関連する黄斑変性や糖尿病性網膜症を検出する…これら二つは、失明に導く症状だ。それは、症状の早期発見によって早期治療を可能にし、目の損傷の重症化を防ぐ、という考え方だ。

アイケア(eyecare, 目のケア)は、これまで医学とは無縁だったような企業が、保健医療分野で機械学習のポテンシャルをテストするための、人気分野になりつつある。人間の健康状態の中でも目の状態や症状は、画像分析によくなじむからであり、それはイコール、機械学習の当面の得意分野でもある。医療診断へのコンピューターの利用は決して新しい技術ではなく、放射線画像の分析などは何年も前から行われている。しかしテクノロジー企業はこのところとくに熱心に、独自の研究開発テーマとしてこの分野に取り組んでいる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

あの鳥は何だろう?と思ったら写真を撮って鳥認識アプリMerlinに見せよう、数秒で分かる

blackburnian-flow2-smallfull

あれはヒメハジロかな? それともオオバン? アビじゃないの? ではなるべく近くで写真を撮り、鳥の種を確認するアプリMerlinに見せよう。数秒で教えてくれるから、まるでそれは、鳥類学者になりたいきみのためのShazamだね。

もう1年あまり前から、写真を認識する機能はMerlinの大きなエコシステムのごく一部でしかないけど、最近コーネル大学の愛鳥家たちが、モバイルアプリでそれができるようにした。写真を撮ってそれをズームすれば、あとはMerlinのデータベースが仕事をしてくれる。

飛んでいるミサゴをGalaxy S4で撮るのは難しい。接写なら水辺の方がいいね。

飛んでいるミサゴをGalaxy S4で撮るのは難しい。接写なら水辺の方がいいね。.

もちろん、スマートフォンの広角カメラでは、小鳥たちの良質な接写は難しい。でもアプリの作者によると、ヘタな写真でも90%は正しく当てるそうだ。確信が持てないときは、いくつかの質問に答えるとよい…どんな鳴き声か、喉に細い帯状の模様があるか、などなど。すると精度は100%に近くなる。オフラインでも利用できるけど、そのためにはあらかじめ、200メガバイトものデータをダウンロードしなければならない。

コーネル大学の協力を得て実際にこのアプリを作ったVisipediaの協同ファウンダーPietro Peronaはこう語る: “このアプリはうちの学生たちの7年間の努力の成果であり、コンピュータービジョンと機械学習の最近の大きな進歩に支えられている”。

もう一人の協同ファウンダー、コーネル大学のSerge Belongie教授は曰く: “今後は鳥だけでなく、蝶や蛙、植物など、いろんなものを視覚的に判定できる、誰もが使えるオープンなプラットホームを作っていきたい”。

アプリはAndroid iOSも無料だが、データをダウンロードして使うためには、500メガバイトぐらいの空きスペースが必要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが機械学習のためのデータ可視化ツールEmbedding Projectorをオープンソース化

main-qimg-5f48d8daf87ff55bd5d230b42939cc7c

今朝、GoogleはデータビジュアライゼーションツールEmbedding Projectorをオープンソース化すると発表した。このツールは機械学習の研究者がTensorFlowをインストールして走らせなくとも、データを可視化するためのツールだ。

次元やベクトルといった概念は、誰もが簡単に理解できるものではないだろう。問題は私たちが3次元の世界に生きていることだ。私たちは縦、横、高さがあると知っているため、4次元、5次元、6次元がどのようなものか想像するのが難しい。クリストファー・ノーランのインターステラーに登場した多次元の世界が奇妙に思えるのはそのためだ。

次元を私たちがいる世界のことと考えるのではなく、データだけについて考えてみよう。例えば、2つの家を比べると場合を考えてみてほしい。比較するために、それぞれの家の異なる点のリストを作成するだろう。リストには色、広さ、屋根の種類、庭の形の項目があるとする。このデータは4次元モデルで表すことができる。

データを表にすることができるが、絵で表すこともできる。それにはベクトルが必要だ。2つの家を比較するシンプルな4次元モデルなら、PowerPointのX軸Y軸とバブルの大きさ、色を使って作成することができるだろう。

ただ何千と次元のある複雑なモデルでは、既存のツールで描くのは難しい。そこでGoogleのEmbedding Projectorの出番となる。

embedding-mnist

SpotifyのDiscover Weekly機能を使ったことがあるなら、気づかずにEmbeddingsを体験している。高度な機械学習では、曲の属性をベクトルの地図で表すことができる。すべての楽曲を地図化し、個別リスナーの好みと照らし合わせることで、個人に合わせて正確な楽曲のレコメンドができるのだ。これはさすがにPowerPointではできない。

[原文へ]

(翻訳:Nozomi Okuma /Website

BenevolentBioの人工知能はALSのもっと良い治療法を見つけるかもしれない、新薬開発よりもデータの発掘で

jackie-hunter-benevolentbio

あの、バケツ一杯の氷水を頭から浴びるキャンペーンで大きく知名度を上げた麻痺性の神経症状、 筋萎縮性側索硬化症(amyotrophic lateral sclerosis, ALS)の治療に有効な薬が、すでに存在しているとしたら、どうだろう?

それが、BenevolentBioのCEO Jackie Hunterが直面している疑問だ。Hunterは人工知能企業BenevolentAIの生物医学部門を任され、医学研究の膨大なデータベースに機械学習を適用して、データを高速にスキャンし組織化しようとしている。過去の科学研究を掘り返して新たな発見にたどり着くことなど、ありえないように思えるが、しかし生命科学の分野では新しい研究が30秒に一本の割合で公開されており、そのあまりにもの多さのゆえに、価値ある研究が見過ごされることも少なくない。

Hunterは今日(米国時間12/6)の本誌TechCrunch主催Disrupt Londonのステージで、BenevolentBioのAIがすでに成功している、と語った。BenevolentBioのAIは、ALS治療に関する未知の情報があるかもしれない研究を探しだす。“最終的に5種類の化合物をテスト対象として選定した”、とHunterは説明した。BenevolentBioはその5種類の化合物を、ALSの患者の細胞からクローンした細胞に対してテストした。

“ある化合物は、だめだった。二つは効果があり、それらはALS治療の基準としては最高の水準だった。そして他の二つはさらに良好で、これまでの研究の中では最良だった。5つの化合物のうち4つは、これまでの研究者たちがまったく見ようとしなかった化合物だった”、とHunterは語る。

  1. jackie-hunter-benevolentbio5.jpg

  2. jackie-hunter-benevolentbio4.jpg

  3. jackie-hunter-benevolentbio3.jpg

  4. jackie-hunter-benevolentbio2.jpg

  5. jackie-hunter-benevolentbio1.jpg

  6. jackie-hunter-benevolentbio.jpg

BenevolentBioがテストした薬はすでに開発が始まっているので、実際に患者に対して使えるようになるのは一般の新薬より相当早いと期待される。

“私も前は製薬業界にいたが、そのR&Dのやり方は数十年前からまったく変わっていない。ひとつの新薬の開発に、20億ドルの費用を要している”、とHunterは述べる。薬の開発者たちがAIを利用すると、既存の薬の別の用途を見つけることができるので、新薬に膨大な投資をするよりも効率的である。またAIは、研究者たちにより早く、もっとも有望な発見の方向性を示すことができる。

しかしながらAIは、それ自身で新しい科学的突破口に到達することはできない。Hunterは、そう主張する。データをチェックするためには依然として、経験豊富な人間科学者が必要である。“しかしAIは科学者たちの〔発想の方向性の〕健康診断ができる。AIは科学者を補助しその能力を拡張するが、科学者をリプレースすることはない”、と彼女は語る。

BenevolentBioはそのAIをさらに拡張して、親会社を介して他の分野にも応用したい、と期待している。Hunterによると同社の技術は、コンピューティングのパワーとデータ分析と、インサイトと、そして需要の理想的な組み合わせであり、“イノベーションのパーフェクトな波を作り出して、本当にこの業界を変えてしまう、と私は思っている”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

TC Disrupt London―DeepMindのMustafa Suleyman、汎用人工知能は「遠い先の話」

2016-12-06-deepmind-mustafa-suleyman

Googleが 2014年に買収したApplied AIの共同ファウンダーであり、現在DeepMindの責任者を務めるMustafa Suleymanは今日(米国時間12/5)、ロンドンで開催中のTechCrunchカンファレンス、Disrupt Londonに登壇し、スペシャルプロジェクト編集長のJordan Crookのインタビューを受けた。Applied AIという会社、DeepMindのGoogle内での役割、AIの未来などがテーマだった。

SuleymanによればDeepMindの目標は「知性を解明し世界をもっと良い場所にする」ことだという。われわれ人間の知性とまったく同様に作動するシステムを創ることがDeepMindの目標だという。「われわれは複雑な社会的課題の多くはますます解決が困難になるだろうという予測の下に会社を創立した」。この複雑な課題とはたとえば、気候変動や食料問題だという。

しかしSuleymanは汎用学習システムの実現は「数十年も先」だと考えている。「科学者が何かの実現が20年先だとか、もっと先だとか言うとき、実はあまりに遠い先なので時期を正確に予測することはできないという意味だ。当面われわれは個別の問題の解決に集中する」とSuleymanは述べた。

これに関連してSuleymanはまた「映画で見るような人間そっくりのAIはわれわれが研究しており、おそらく数十年後に実現するであろう汎用AIとはほとんど類似点がないだろうという。

またJordan CrookはSuleymanに機械学習に関する重要な点について訊ねた。「機械学習アルゴリズムはわれわれ人間の知性の欠陥もそのまま受け継いでしまうのだろうか?」とCrookは尋ねた。Suleymanは「この点についての私は、われわれの判断は偏見も含めてコンピューター・システムに組み込まれてしまうよう運命づけられていると考えている」と答えた。「デザイナーとしてまたエンジニアとして、こうした問題を意識的に考える努力をしないなら、われわれはそれと気づかぬまま偏見を含めたシステムを構築してしまうだろう」という。

  1. deepmind3-mustafa-suleyman.jpg

  2. deepmind.jpg

  3. deepmind-mustafa-suleyman.jpg

  4. deepmind3.jpg

  5. deepmind2.jpg

  6. deepmind1.jpg

  7. deepmind1mustafa-suleyman.jpg

  8. deepmind4-mustafa-suleyman.jpg

DeepMindとGoogleの関係についてSuleymanはあまり具体的なことを明かすのを好まないようだった。「われわれが人工知能のスタートアップとして成功を収めた理由の一つはロンドンに本拠を置いており、シリコンバレーとその流儀からかなり離れていたこともある」と述べたが、つまり組織上親会社になる組織に対して細かいことを話したくないという意味に受け取れた。とはいえ、Suleymanは「Googleのおかげで買収された後は各種のコンピューター資源を潤沢に使えるようになったという。また「〔Googleによる買収後も〕独立の組織として運営することができ、従来通り研究が続けらたのははわれわれにとって非常に大きな意味があった」という。

もうひとつの話題はDeepMindのヘルス関連事業についてだった。DeepMindはイギリスの 国民保険サービス(NHS)と協力して急性腎臓障害の早期発見に関する研究を行っている。一部ではNHSとDeepMindの協力範囲は公表されている部分よりずっと広いはずだという批判も聞かれている。またMoorfields眼科病院と協力して病院における眼底検査のアルゴリズムを改良して高速化と診断精度の改良を図っている。NHSのプロジェクトでは、診断に関しては主としてNHSが開発したアルゴリズムが用いられ、DeepMindは主としてフロントエンド・アプリの開発を担当している。Suleymanはこの点について「NHSとの協力プロジェクトは歴史が新しい。12ヶ月前に始まったばかりだ」と説明した。

DeepMindとGoogleの関係は個人情報の取扱に関してユーザーからの疑念を招くおそれがあるのではないかとCrookは質問した。Suleymanは「われわれのシステムはデータのコントロール権限について明確な基準を定めており、このプロジェクトの場合、データの所有権は完全に病院側にある」と述べた。またDeepMindは可能な限りの透明性を目標としており、第三者の監査を受けていることを強調した。DeepMindはまた「透明性確保のための汎用アーキテクチャー」を開発中で、これによればデータがアクセスされた場合、アクセス元など詳細なログが記録されるようになるという。

今日、こうした議論に加えてDeepMindはステージでDeepMind Labを発表した。 これはゲーム的な3Dプラットフォームで、エージェントによるAI研究に役立てられる。DeepMindでは社内ですでにこのシステムを利用していたが、今回オープンソースで公開された。すべてのAI研究者、開発者がこのプラットフォームを利用することができる。ソースコードとゲームのプレイに必要な多数の付属マップは数日中にGitHubにアップロードされる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Amazon Go、年内にベータ公開―アプリ・ベースの食品ショッピング・システムはレジなし、行列なし

2016-12-06-amazongo-bottle-grab-desktop-_v523327232_

Just Walk Out〔そのまま歩いて出る〕と非常にストレートに名付けられたテクノロジーがAmazon Goのベースとなっている。同時にこのシステムの目的がよくわかる。

このショッピング・サービスはシアトルのAmazon本社内に年内にオープンする予定の1800平方フィート(167平米)社員向けストアでベータ公開される。Amazonによれば、Goは「まったく新しい形のストアであり、出口での精算手続きを一切必要としない」という。

顧客はGoアプリを利用してストアにチェックインする。ストア内ではカメラを含む各種センサー、コンピューター・ビジョン、ディープラーニングを応用した人工知能の組み合わせが顧客の行動を解析して「何を棚から取リ出したか(あるいはその後戻したか)を」
認識しバーチャル・カートに加える。必要なものを買ったら顧客はそのままストアを出ればよい。ストアはAmazonのアカウントに自動的に課金する。このとき顧客はデジタル・レシートも受け取る。

Amazonはこのストアの開設のために4年前から開発を行っていたという。Amazonの公式のGoサイトには、「レジ前の行列も、そもそもレジ処理もないショッピング体験が実現できたらすばらしいだろう。コンピューター・ビジョンと機械学習の限界を押し広げ、顧客は必要なものを棚から取り、そのまま店を出られるようなストアを創り出すことは可能だろうか、とわれわれは自問した」と書かれている。

現在オープンが予定されているストアは食品だけを扱う。フル機能のスーパーマーケットというよりは21世紀版のオートマットといった雰囲気だ。ファーストフード店との競合に敗れるまでアメリカで人気があったオートマット食堂には細かく仕切られたショーケースが回転するようになっており、簡単な食事やスナックを取り出すことができた(調理は人間がやっていた)。

chef-kitchen-desktop-_v523327237_

Amazonが物理店舗の実験をするのはこれが初めてではない。昨年はやはりシアトルにAmazon Booksというワンオフの書店が開設された。Amazonではこの種の物理店舗を全米にチェーン展開する計画があるらしい。AmazonFreshは生鮮食品の配達サービスで、ここ数年アメリカ各地に少しずつカバー地域を広げている(このサービスAmazonが所在するワシントン州で開始された)。

Goは物理店舗と配達サービスの良い点を結びつけようとしたシステムだ。ショッピングから行列(と人手)をなくそうとするのが最近のトレンドだが、ここでAmazonは最大の存在になっている。生鮮食品の自動チェックアウト・システムにはSelfycart、さらにこの方向に舵を切った大きな存在としてInstacartがある。Amazonが準備しているストアは来年の早い時期にに一般のAmazonユーザーも利用可能になる。Amazonの過去の動きから判断すると、これは何か非常に大きなクサビの先端の役割を果たすのかもしれない。

〔日本版〕日本では167平米という売り場面積は平均的なコンビニより広く、小型のスーパーよりかなり狭い。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook Engeneeringの責任者が機械学習を解説―ビデオ・チュートリアル公開

2016-12-02-facebook-math

数学を勉強すること。もっと数学。さらに数学―というのが人工知能に興味ある学生に対するに対するFacebookの人工知能ラボの責任者、 Yann LeCunと応用機械学習グループの責任者、Joaquin Quiñonero Candelaのアドバイスだ。

テクノロジー企業は必要な能力としてよくSTEMという頭文字語を使う。 科学、テクノロジー、工学、数学(science, technology, engineering, math)の略だ。今回公開された人工知能と機械学習に関するチュートリアル・ビデオは学生に対するアドバイスとしても大いに役立つだろう。Facebookによれば、学生がやるべきことは野菜を残さず食べる他に数学 I、 II、 III、線形代数、統計をできるだけ速い時期にマスターすることだという。

このリストの中では特に統計学が目立つ。私の高校時代にはこの教科は一流大学を目指す生徒にはAP〔進学に有利となる高度授業〕の点数計算で有利でないとして無視されることが多かった。

微分方程式が機械学習の原動力となるエンジンなら統計は器械の歯車そのものだ。記事末にFacebookのAIのビデオ・チュートリアル(AI explainer)をエンベッドした。

本当のことを言えば、 LeCunと Candelaのビデオの対象は大学生以上だろう。しかし「どの科目がどのように重要なのか」は教育のあらゆるレベルで動機づけに欠かせない。それに加えて、われわれの日常生活でも統計の知識はこの上なく役立つ。Facebookの2人の科学者が「数学。もっと数学」と述べているとおり、数学は科学、工学一般ばかりでなく、コンピューター科学、経済学、神経科学など今日非常に重要になっている分野でも必須だ。広告の効果を強化するためにニューロン・ネットワークと認知科学を機械学習に応用するなどということは数学なしに実現できるはずがない。

統計学は知識と学習の本質を理解するという哲学上の重要課題の入り口でもある。最近Facebookのニュースフィードのバイアスの有無について議論されているが、忘れてならなないのは、たとえ機械学習だろうと、すべてのアプリの背後にはそれを作った人間がいるという点だ。われわれは人工知能の進歩によるコンピューターのブラックボックス化という問題に対する効果的な対策をまだ見つけていないが、それを見つけようとしているのはまさしく人間だ。またデータをやみくもにいじる前に、学習の本質がどういうものであるかを理解しておくことが重要になる。

最後の方でFacebookは機械学習の分野でどのような職に就けるか簡単に説明している。といっても説明のほとんどは自明だ。機械学習を実際にマスターしようとするならまず適切な指導教授を見つける必要がある。PhD課程の院生は教授より時間に余裕があるからいろいろ指導してもらえるかもしれない。企業でインターンとして働いてみるのは現実世界でAI(がどのように使われているかを知るのによい方法だ。

実のところ、実際にPhD課程に応募する場合、大学のランキングなどより指導教授の方がはるかに重要になるとFacebookの2人は注意している。一度博士課程に入学を許されたら、未解決の問題を探し、それを解決するコードを書きオープンソースで発表するのが大切だという。

〔日本版〕以下のビデオの音声は英語だが、アニメーションや図解だけでも理解の助けになる。また日本語で説明する際のヒントにもなりそうだ。

AI入門

機械学習とは


勾配降下法(Gradient Descent)


ディープラーニング

誤差逆伝播法(Back Propagation)


畳み込みニューラルネットワーク(Convolutional Neural Network)



Featured Image: Getty Images/Yuri Khristich/Hemera (modified by TechCrunch)

[原文へ]

(翻訳:滑川海彦@Facebook Google+

GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が

terminat-visio2-620x340

まあ、パニックになる必要もないけど、今やコンピューターが自分たちの秘密の言語を作って、たぶんまさに今、われわれについて話しているんだ。ちょっと話を単純化しすぎたし、最後の部分はまったくのフィクションだけど、GoogleのAI研究者たちが最近、おもしろそうで、しかも人間にとって脅威になるかもしれない、事態の進展に、遭遇しているんだ。

憶えておられると思うが、Googleは9月に、同社のNeural Machine Translation(ニューラルネットワークによる機械翻訳)システムが稼働を開始したと発表した。それは、ディープラーニングを利用して複数の言語間の翻訳を改良し、より自然な翻訳にする、というものだ。そのこと自体はクールだが…。

これの成功のあと、その翻訳システムの作者たちは、あることが気になった。翻訳システムに、英語と韓国語双方向と、英語と日本語双方向の翻訳を教育したら、それは韓国語を日本語へ、あいだに英語を介さずに翻訳できるのではないか? 下のGIF画像を見ていただきたい。彼らはこのような翻訳方式を、“zero-shot translation”(ゼロショット翻訳、分枝のない翻訳)と呼んだ(オレンジ色のライン):

image01

そして — その結果は!、明示的なリンクのない二つの言語でありながら、まあまあの(“reasonable”)翻訳を作り出したのだ。つまり、英語はまったく使っていない。

しかしこれは、第二の疑問を喚起した。形の上では互いにリンクのない複数の概念や語のあいだの結びつきをコンピューターが作れるのなら、それは、それら複数の語で共有される意味、という概念をコンピューターが作ったからではないのか? 一つの語や句が他のそれらと同じ、という単純なレベルではなく、もっと深いレベルで。

言い換えると、コンピューターは、言語間の翻訳に自分が用いる概念(共有される意味概念)を表現する独自の内部的言語を開発したのではないのか? ニューラルネットワークの記憶空間の中では、さまざまなセンテンスがお互いに関連し合っているのだから、その関連の様相から見て、言語とAIを専門とするGoogleの研究者たちは、そうだ、と結論した。

A visualization of the translation system's memory when translating a single sentence in multiple directions.

翻訳システムの記憶の視覚化: 一つのセンテンスを複数方向へ翻訳している

この中間言語(“interlingua”)は、日・韓・英の三言語の文や語の類似性を表している表現の、ずっと深いレベルに存在しているようだ。複雑なニューラルネットワークの内部的処理を説明することはおそろしく難しいから、今これ以上のことを言うのは困難だ。

非常に高度なことをやってるのかもしれないし、あるいは、すごく単純なことかもしれない。でも、それがとにもかくにもある、という事実…システムが独自に作ったものを補助具として使って、まだ理解を訓練されていない概念を理解しようとしている…もしもそうなら、哲学的に言ってもそれは、すごく強力な‘才能’だ。

その研究論文は、Arxivで読める(効率的な複数言語翻訳に関する論文だが、謎のような中間言語にも触れている)。システムが本当にディープな概念を作ってそれを利用しているのか?、この疑問への答は今後の調査研究の課題だ。それまでは、最悪を想定していよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

拡張現実と機械学習による農業革命

farming

【編集部注】著者のJeff Kavanaugh氏は、Infosys Consultingの、High-Tech & Manufacturingにおける、VP兼マネージングパートナーである

農業は、これまで人類が生み出したもっとも成熟した産業だ。文明の黎明期から、農業は洗練され、調整され、適応されてきた — しかし完成したことはなかった。私たちは社会として、常に農業の未来を心配している。今日では、私たちはハイテクセクターが提供する概念も適用している — デジタル、IoT、AIなどなど。では、なぜ私たちは心配しているのだろうか?

エコノミスト誌の技術四半期Q2報告では、世界の人口増加を養うために、農業はすぐに他の製造業のようになる必要があると宣言されている。サイエンティフィック・アメリカンの報告によれば、不確実な気候でも効率的に成長させるために、作物はより干ばつ耐性を上げる必要があり、またニューヨーク・タイムズ紙によれば、少ない水でより多く収穫する方法をすぐに学ぶ必要がある。

それらは皆正しい。もし農場が世界の人口を養い続ける場合には、変わり続け、不安定なこの星の気候から、独立しそして適応するやり方を進めなければならない。そのためには、実績があり最先端技術を用いた、スマートなアプリケーションが必要となる。そのインターフェイスは単純なものでなければならない。そしてもちろん、今日のスキルを基にした適用が行える必要がある。

幸いなことに、この将来のための基礎は現在探求されている最中だ 。例えば、垂直農法(農家が作物をコントロールされた環境の下で栽培から収穫までを行えるようにする技術だ、しばしば屋内で垂直な棚を用いる)は人気と可能性の両者で沸き立っている。実際にこの方法は、91%少ない水で20%速く、いくつかの作物を生育させることが示されてきた。干ばつや洪水に耐えることができる遺伝子組み換え種子は、ケニアで見られるような最も乾燥した条件下での収穫を可能にする。

もし農場が世界の人口を養い続ける場合には、変わり続け、不安定なこの星の気候から、独立しそして適応するやり方を進めなければならない

しかし、このような進歩を管理することは、屋内か野外かを問わず、それ自体が挑戦である。酸度と土壌の養分をモニタし、そしてそれぞれの植物のための最適な成長を促す水やりは、良くて当て推量であり、悪ければ後知恵である。しかし、ここでこそ新しいインタラクティブ技術が輝くのだ。少数のセンサーの組が、植物の生育状況を監視し、リモートサーバーへリアルタイムの更新を行う。人工知能の年下の従兄弟である機械学習は、この作物の生育状況を学習し、次に必要なものを予測することができる。そして、拡張現実(AR)を用いて日常のオブジェクトに有益な情報イメージをオーバーレイすることによって、農家や庭師たちによる作物の健康の監視と管理を可能にする。

Plant.IO*は、それをがどのように行えるかを示したシステムの1つだ:塩ビ管のキューブがセンサー、生育ライト、カメラ、その他のもののフレームを提供する。機械学習専用のリモートサーバが、生育と生育条件を分析し、この先の植物のニーズを予想する。AR対応のメガネセットは、使用場所を問わず、ユーザーに植物の画像または情報を提供する。もしAR装置が、Microsoft HoloLensように高機能である場合には、肥料、水の流れ、成長ライトなどを調整して、作物の面倒を見る手段を提供することもできる。

この方法論は、ゲーミフィケーションと対になったときに、作物管理の新しい簡潔な方法に自らを委ねることになる。AIとARは共に使われることによって、大人から青少年の誰にとっても、家庭や遠くから自分の庭園を監視し管理することを、シンプルで楽しいものにする。このアイデアがPlant.IOの心臓部である:農業シナリオに、楽しく、使えるソリューションを。そこではデジタル情報が物理的オブジェクトやフィールドに、コンテキストを失うことなくオーバーレイされる。

実際には、この種の管理システムは、庭園や農場を超えて拡張できる可能性がある。測定可能なデータが存在する環境であれば、どのようなシナリオでも潜在的にはAR/AIの応用から利益を得ることができる。例えば倉庫管理などの産業オペレーションは、有望なエリアだ。AIと赤外線カメラを組み合わせた、フィールドの健康を測定する農業は、また別の候補である。

ARとAIを正しく利用すれば、ユーザーは事実上世界中のどこからでも植物を監視し育てることができる。それがキッチンカウンターの上で植物を育てようとしているのか、あるいは次の収穫の準備をしているのかは問わない。もっと良いことは、こうした作業を植物の酸性度、栄養、水レベルその他の最新の情報に基きながら、環境に配慮した方法で行うことができるということだ。

最初の産業革命は、機械化農業による生産性向上で、私たちが農場から都市へと移動する手助けをした。今度の産業革命は機械学習とその他のデジタル「実装」が農業を更に先へと推し進める — そして世界を養うのだ。

*注記:Plant.IOはInfosysによって開発されたオープンソースのデジタル農業プロジェクトである

[ 原文へ ]
(翻訳:Sako)