Google、Assistantのおなら対応に即興演芸の技を利用

Google I/Oの2日目も後半に入りみんなが少し疲れてきた。午後遅くのAssistantのデザインに関するセッションで、Googleの主任デザイナー、Ryan Germickは、AIの個性を作るために即興演芸のスキルを活用していることを話した。そして、人生でも難しい質問のひとつに答えた。

Assitantが「みんなが思うよりずっと多く」受ける質問のが、「おならした?」だ。まず、おならはいつも笑える。そして、人間の発する様々な臭いの責任を押しつけられなければスマートアシスタントを使う意味はない。

Germickは、Googleが体験した、おなら質問に対する色々な答を紹介した。たとえば、「もちろん私ではありません。私には体がありません」というのはあまり満足のいく答ではない。代りにGoogleは「巧みにはぐらかす」やり方として、improv[即興演芸]の入門コースを受けた人が必ず教えられる(”yes, but”ではなく) “yes, and”話法を採用した。

というわけで、Google Assitantにおならをしたかと聞いてみよう。おそらく「私のせいにしたいなら、すればいいですよ」といった感じの25種類ほどの答が返ってくるだろう。

もうひとつ、アイザック・アシモフのロボット工学第4の原則を忘れてはならない:くさいと言いだした人が、おならをした人だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

AI人材プラットフォーム目指す「Aidemy」が9200万円を調達、教育サービスを皮切りに法人向けの新事業も

アイデミーのメンバー。前列中央が代表取締役CEOの石川聡彦氏

AIプログラミング学習サービス「Aidemy」を提供するアイデミーは5月10日、UTEC(東京大学エッジキャピタル)および9名の個人投資家を引受先とする第三者割当増資により、総額約9200万円を調達したことを明らかにした。

今回のラウンドに参加した個人投資家は、千葉功太郎氏、安藤祐輔氏、ユーザーローカル代表取締役の伊藤将雄氏、ウルシステムズ代表取締役の漆原茂氏、キープレイヤーズ代表取締役の高野秀敏氏、popIn代表取締役の程涛氏ら。アイデミーでは調達した資金を元に組織体制を強化し、B2B事業の拡大や学習コンテンツの拡充、2018年8月に予定している海外展開の準備を進めていく方針だ。

なお同社は2017年の6月にSkyland Venturesとファクトリアル代表取締役社長の金田喜人氏から、同年11月にUTEC、ペロリ創業者の中川綾太郎氏、クラウドワークス取締役副社長COOの成田修造氏から累計で約1700万円を調達している。

現役エンジニアも使うAIプログラミング学習サービス

Aidemyはディープラーニングや自然言語処理など、AI関連の技術を学べるプログラミング学習サービスだ。実践重視で実際にコードを書きながら学んでいくスタイルを採っていて、学習は全てブラウザ上で完結。特別な環境を用意することなくすぐに始められる。

プログラミング学習サービスと言えば、プログラミング未経験者や初学者のユーザーが多いイメージがあるかもしれない。そんな中でAidemyの特徴は現役のエンジニアが多く使っているということ。エンジニアと言ってもIT、機械、ケミカルと幅広いポジションのユーザーがいるそうだが、ほとんどが日常業務にAIを活用したいという目的で参加しているそうだ。

この辺りは先日TechCrunchでも紹介した通りで、2017年12月のリリースから約100日で1万ユーザーを突破。現在は16のコースを提供していて、ブロックチェーンなどAI以外の先端テクノロジーを学べる講座も始めた。

2018年4月からは有料プランをスタート。現在は新規コンテンツの開発と並行して6月にリリース予定の法人向けサービス「Aidemy Business」や、8月に公開を予定する海外版の準備を進めている。

キャリア支援やシステム開発支援など法人向け事業も強化

ここからはアイデミーの今後の展望についてもう少し紹介したい。先に言ってしまうと、アイデミーが目指しているのは「AIプログラミングサービスを入り口としたAI人材プラットフォーム」(石川氏)だ。

もし「プログラミング学習サービス」を軸に事業を広げていくのであれば、対応するジャンルやコースを増やしたり、最近増えている小・中学生向けのサービスなど、セグメントごとにサービスを提供することも考えられる。ただアイデミーの場合はそうではなく、「AI人材、AI技術」を軸にキャリア支援やシステム開発支援といった法人向けの事業を含め、事業を拡大していく方針だ。

「(個人向けの)プログラミング学習サービスは引き続き力を入れるが、それだけでは自分たちが目指す事業規模には届かないと考えているので、今後はB2B事業に本腰を入れていく。まずはすでに6社への導入が決まっているAidemy Businessを皮切りに、AIエンジニアの紹介事業や企業のAI開発を支援する事業にも取り組む。長期的にはエンジニア向けのPaaS(Platform as a Service)も提供していきたい」(石川氏)

人材紹介事業については2018年夏頃、開発支援事業については2018年末頃を目処に開始する計画。PaaSの提供に関しては2019年以降の予定で具体的な中身は今からつめるそうだが、AIアプリケーションのデプロイを簡単にするツールを想定しているという。

「イメージとしてはAIに特化したHerokuのようなツール。今後コンピュータサイエンスや機械学習の専門家ではない人も、AIの開発に携わるようになっていく。(アプリケーションを公開するまでの)敷居を下げることで様々な分野におけるAIの開発をサポートしていきたい」(石川氏)

石川氏によると、今は個人向けのプログラミング学習サービスがきっかけとなってAidemy Businessを導入したいという問い合わせに繋がったり、B2Bの営業が進めやすくなったりと良い循環が生まれてきているそう。アイデミーでは今後も月に2コース、年間30コンテンツの作成を目指すほか、VTuberを起用した動画教材など新たなコンテンツ開発にも力を入れつつ、そこを入り口にさらなる事業拡大を目指す。

Google I/Oについて会話をした(誰と?)

〔*印のある記事は、日本語訳です。〕

やあ、Google、今日のGoogle I/Oは何があった?

人工知能。

そうか、あまり具体的じゃないね。今日はAndroid Pがリリースされたそうだけど、何が新しいの?

人工知能

ふーん。Androidの電池寿命を長くする機能を、何か加えたのかな?

人工知能

じゃ、次行こう。明るさの設定はどうなの? それにも新しいものがあるらしいけど?

人工知能

明るさと人工知能とどんな関係があるんだい? なぜ、一つのことしか言わないの? 別のアプリの話をしよう。Google Mapsは何が新しくなった?

人工知能

Photosは?

人工知能

Lensは?

人工知能

Newsは?

人工知能

Gmailは?

人工知能

Gboardは?。

人工知能

きみはこれまでで最悪のアシスタントだね。そもそもGoogleはAssistantをアップデートしたの?

人工知能

ひぇーっ! Googleは今日、開発ツールをたくさんリリースしたそうだね。ML Kitはどうなの?

*人工知能

Duplexは?

人工知能

それにテンソルの処理は…おっと、もういいよ。だいたい分かったから。ところでGoogle Researchは今でもGoogle Researchだよね?

人工知能

違うよ、Google Researchだろ。

人工知能

なんだ、名前が変わったの。きみはまるで、PR用のおしゃべりロボットだね。

人工知能。

ちょっと待って、きみは人間じゃないよね?

人工知能。

きみは、チューリングテストに合格だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

CERN、機械学習コンテストを開催――誰でもLHCの実験データのAIモデルづくりに挑戦できる

欧州原子核研究機構のLHC〔大型ハドロン衝突型加速器〕から得られるデータは驚くべき量だ。科学者は実験から新たな知識を得るためにこのデータを処理しなければならない。しかもLHCの最近のアップグレードによりデータ量はさらに一桁以上増加する見込みだ。このデータの奔流に対し、CERNでは機械学習を利用してデータを処理し、AIモデルによって素粒子物理学の次のブレークスルーを得る助けとしようとしている。

全周27キロの眞空トンネル内に設けられた巨大な検出器が光速近くまで加速された高エネルギー陽子の衝突によって生じる素粒子のシャワーをとらえる。センサーはきわめて寿命が短い多種多様な素粒子を検出しなければならない。2013年から2年がかりで行われた改良工事により、陽子をガイドする磁場がさらに強化された。新システムの調整が進めば、従来10回程度の衝突が期待されたところで数百回もの衝突が可能になるという。

物理学者にとっては朗報だ。しかしもっとひんぱんに衝突が起きるということはそれだけデータ量も増えることを意味する。LHCの場合、データ10倍以上になる。科学者はNatureの記事で「これまでのプロセスでは処理スピードが遅すぎ、データの分類整理が間に合わなくなるおそれが出ていた」と語っている。現代のデータサイエンティストは巨大でノイズの多いデータを処理する場合AIテクノロジーを用いる。CERNの科学者もこの方法を選んだ。

お断りしておくが、私は科学的に厳密な説明をしていない。しかし簡単にいえば、機械学習は人間が巨大なデータからなんであれ意味ある連関を見出そうするプロセスのコンピューター化だ。製薬でも天文学でも人間の心理の操作(Facebookがそれらしい)でも、乱雑なデータを前にして「籾殻と種を選り分ける」必要があるときにきわめて有効な手段を提供している。素粒子物理学も新たな応用の例だ。

新分野を立ち上げる際には健全な競争が役に立つ。そこでCERNはTrackMLといういささか地味なコンテストを開催している。物理学者やデータサイエンティストはギガバイト規模のLHCの実験データをダウンロードし、正しく分類するモデルづくりを行うことができる。われわれも報じたように、CERNでは300TBの実験データを公開しているが、コンテストではもっと手頃なサイズのデータセットが用いられる。

賞金総額もささやかなもので、2万5000ドルに過ぎない。CERNの資金は新たな超電磁石の開発で使い果たされてしまったのかもしれない。

ただしコンテンストには参加料といったものはない。興味があるむきはKaggleのTrackMLコンテストのページを開いてデータをダウンロードすることができる。結果の提出までには十分時間がある。締切は8月13日だ。提出された成果はすべてオープンソースとなるので、CERNがアルゴリズムをぱくって一儲けを企むのではないかなどと心配する必要はない。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebookのオープンソースの囲碁ボットはプロの棋士に勝つ

碁(囲碁)は機械学習の研究者の必須科目だ。GoogleのDeepMindはそのアルゴリズムを魅せつけて有名になり、そしてFacebookも最近、碁ボットを自分で作っていることを発表した。同社のデベロッパーカンファレンスF8で今日(米国時間5/2)行われたそのELF OpenGoボットの発表では、30名の人間棋士との計14試合に全勝し、プロの資格を獲得した、と宣言された。

FacebookのCTO Mike Schroepferはこう述べた: “DeepMindにいるお友だちの偉業には敬服するけど、でも、まだ答えられていない疑問があるのではないだろうか? これらのツールは、ほかにどんなことに利用できるのか?”。Facebookが今日のブログ記事で言っているのは、DeepMindのモデル本体は不透明な包装紙に包まれたままだ、ということ。対照的にFacebookは、そのボットをオープンソースにした

“これを再現可能にしてしかも世界中のAI研究者が利用できるようにするために、われわれはオープンソースの碁ボットを作り、ELF OpenGoと名付けた。これなら、DeepMindのAlphaGoが答えなかった重要な疑問にも十分、答えることができるだろう”、とチームは主張している。

チームが関心を持っているのは、碁だけではない。FacebookのAI研究グループは、StarCraftボットも作って、あのゲームの混沌とした世界にプレーヤーが対応できるようにした。これも、オープンソースにする予定だ。Facebookはまだ、訓練量が十分ならどんなゲームでも学習できるボットをローンチできるところまでは行ってないが、でもチームはそれに向かって相当前進していることは確かだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Googleの高価格なスマートカメラClipsが母の日をねらって50ドル値下げ

5月は祝日が多いから、どこがどんな特売をやっても不思議ではないが、しかし母の日の13日までClipsカメラを50ドル値下げするというGoogleの決定は、このまだ第一世代の製品の売れ行きに関して疑念を抱(いだ)かせる。

昨年10月に、同じく新製品のPixelスマートフォンと共に発表されたClipsは、今年の2月の終わりに、やっと発売された。しかしGoogleは売上を公表しないが、どうやらこの製品はヒットしなかったようだ。このデバイスをめぐるメッセージングは消費者にとって少々わかりにくく、そして249ドルという価格は本誌のレビューなどでも酷評された。

Googleは、こんなにすごくてマジックのようなAIやMLや本体上のデータ処理能力を搭載して250ドルは超お買い得、と言い張ったが、まったく新しいカテゴリーの初めての製品だから、消費者が手を出しにくいお値段はだめだ。しかも今どき、誰もが持ってるスマートフォンのアプリで、いろんなことができるから。

レビューにも書いたように、“Clipsでは短い動画だけでなくGIFも撮れるが、今は24時間全員の手元にカメラがある時代だから、こんな珍製品が249ドルとはちょっと厳しい”。

50ドル下げて199ドルになっても、母の日のギフトとしてはお安くない。しかしGoogleはどうしても特売をやる気であり、この製品への関心も、アメリカ以外では育ちつつある。“スマートカメラ”のClipsは、ソーシャルメディアに直行できる画像とビデオが売りだ。でも人気拡大の鍵は、やはり口コミだな。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

DeepCodeはAIの力でコードを洗う…未来のフロントエンドはプログラミングの自動化

チューリッヒのDeepCodeは — 基本的にはコードを分析して改良するためのツールだが — プログラマーのための文法チェッカー/文章改良ツールGrammarlyみたいだ。このシステムはユーザーのGitHub上のリポジトリを読み、25万のルールのコーパスを使って問題とその修復方法を教え、ただしそれによって互換性が壊れないように、そしてもっと良いプログラムになるようにする。

Veselin Raychevが創業し、アドバイザーとしてMartin VechevとBoris Paskalevが加わった同社のチームは、機械学習とAI研究の幅広い経験がある。このプロジェクトはスイスのチューリッヒ工科大学からスピンオフした独立の研究プロジェクトが、プログラミングのためのユーティリティになったものだ。

で、その実際の仕事ぶりはどうか? かなりよろしい。自分の公開リポジトリのひとつをこのシステムに通してみたが、449のファイルに対して49件の提案をもらった。その中には文字通りのコード書き換え — name: String,name: {type: String},に変える — もあるし、必要なファンクションコールがないようだ、という示唆もある。自分のコードに隠れているバグを見つけたいときには、なかなかおもしろいツールだ。このツールがくれるアドバイスは、驚くほど正確だ。それは、人間が見逃しがちな間違いのあるコードを大量に読んだ(学習した)結果作りだすリコメンデーションだからだ。

Paskalevは語る: “コードの意図を理解するプラットホームを作った。それは何百万ものリポジトリを自動的に理解し、デベロッパーがやろうとしている変更に注目する。そしてAIエンジンをそれらの変更で訓練し、プラットホームが分析するコードのすべての行に、ユニークな提案を提供する”。

“今は25万あまりのルールがあり、毎日増えている。競合システムはルールを手作業で作ってるから、最大のシステムでも、長年かけてやっと3000か4000のルールを作った程度だ”。

自己資本のみだった同社は最近、ドイツのbtov Partnersから110万ドルを調達した。ファウンダーたちはいずれも複数回の起業経験がある。PaskalevはVistaPrintとPPAGの創業に関わったし、Raychevは、プログラミング言語のセマンティクスの機械学習という分野の研究者だが、以前はGoogleで働いていた。

DeepCodeは単純なデバッガーではなく、コードを“読んで”それを他の実装と比較する。そしてそれにより、どの行も最高のパフォーマンスを発揮できるように、改良を示唆する。今チームは、多くのプログラマーがそれを使ってくれることを待っている。

“われわれのは、Grammarlyが書かれた言葉を理解するようにソフトウェアのコードを理解する、ユニークなプラットホームだ。その最初のサービスだけでも、ソフトウェア開発のコミュニティは数十億ドルを節約できるし、その次には業界をコードの完全な自動合成へと変身させるフロントエンドを提供できるだろう”、とPaskalevは述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Canaryのセキュリティカメラの人検出AIが改良、もう壁に映る影で警報はしない

わが家のホームセキュリティカメラのいちばん困る欠点は、擬陽性だ。あるときなどは、ぼくのウサギがルッコラをかじるたびに、ビデオを送ってきた。それは、一日だけなら楽しいが、そのあとは責苦だ。

今年の初めに、AIを利用して人を検出するアルゴリズムを加えたCanaryがそいつをアップデートし、重要な改良をいくつか加えた。中でも重要なのは、動きのある人だけを検出するようになったことだ。これにより、たとえば、車のライトで人の影が壁に映っただけで警報が鳴ることはなくなった。

すてきな改良だけど、もうちょっとなんとかして、と思う部分もある。わが家では初代のCanaryをずっと使っていて、そいつはときどきウサギを人と間違える。彼女は、ウサギにしてはお利口だけど、ときどき木製の家具をかじったり、季節によっては毛が抜け替わる。でも、ぼくのアパートで大騒動をひき起こすことはない。

しかし、ときどき擬陽性はあっても、ペットのいる家では稀にそうでない警報もありえる。たとえば野生のアライグマの一群が家に侵入してあちこち壊したら、擬陽性ではすまない。Canaryの次のバージョンでは、ペットと野生動物を区別できるようになるとよいね。

今度の新しい機能は木曜日(米国時間4/26)に、AndroidとiOSのユーザーへ展開される。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

防犯カメラの映像を活用した「万引き防止AI」開発のVAAKが5000万円を調達

防犯カメラ解析AIを万引き防止に活用する「VAAK EYE」。同サービスを提供するVAAKは4月20日、目社名非公開のVC1社から5000万円の資金調達を実施したことを明らかにした。

VAAKは機械学習で防犯カメラの映像を解析するスタートアップ。このシステムを万引き防止という目的に合わせてサービス化したのがVAAK EYEだ。

同サービスでは防犯カメラの映像を解析し、万引き犯特有の不審行動を検知する。不審行動はリアルタイムに通知するほか、不審人物が次にいつ来店するのか再来店時刻を予測できる機能を搭載。これにより従業員や万引きGメンが万引きを事前に防ぐことも可能になる。

VAAK代表取締役の田中遼氏によると「防犯カメラの映像から人の詳細行動を認識する解析技術が強みで、これにより不審行動の検出制度が高くなる」という。とはいえ現在は実証実験に着手し始め、3月にベータ版を公開したところ。大手企業含め複数の実証実験が決まっているほか、正規の顧客もすでにあるそうで、今月末から活用を本格化し精度の検証やブラッシュアップを行っていく。

その結果も踏まえつつ、6月ごろに正式版を公開する予定だ。

近しいサービスはいくつかあるが、専用のネットワークカメラが必要になるケースも多い。VAAK EYEの場合は既存の防犯カメラの映像をそのまま活用できるため、導入のハードルやコストを抑えられる点も特徴だ。

まずは万引き防止サービスとしてSaaSモデルで提供しつつ、今後は防犯カメラの解析結果を店舗のマーケティングや「Amazon Go」のようなレジなし決済にも展開できるように、機能開発を進めていくという。

VAAKは2017年11月の設立。代表の田中氏は学生時代から起業経験があり今回が3社目になる。「社会貢献性とスケーラビリティの高い事業」という観点で領域を検討したのち、行動解析に軸を定めVAAKを創業した。

音声認識とAIで会議のノートを取るVoiceraがモバイルの同業Wrappupを買収

Voiceraは、会議などで人間がノートを取ることを今後永遠に不要にしたいと考えている。同社のビジョンはAIによる音声認識システムが、ノートを取るだけでなく話者を認識し、会議の要点や行動案件を要約できることだ。今日(米国時間4/18)同社は、類似のスタートアップWrappupを買収したことを発表した。ここもAIによるノート取りアプリで、Voiceraのビジョンにぴったり符合している。

Wrappupのチームは直ちにVoiceraに加わる。買収価額などの条件は、公表されていない。

VoiceraのCEO Omar Tawakolも、声明文の中で、相性は良い、と見ている: “問題解決への両社のアプローチには、互いにシナジー効果がある。Wrappupはモバイルファーストで目の前の人が相手だから、会議電話が主体のVoiceraを補完する”。

Wrappupの長所は、モバイルのコンテキストでミーティングの重要箇所を見つけることだ。そのために同社は、新しいモバイルアプリのローンチを発表した。これら二つの企業の協働関係は前からあって、それがやっと今日、オフィシャルになったものと思われる。

写真提供: Voicera

WrappupのCEO Rami Salmanによると、Voiceraとの合体によって顧客にとってより魅力的で強力なソリューションが作られた、という。“両社の技術とAIのアルゴリズムが合わさると、ミーティングの重要箇所をより正確に見つけてまとめることができる。それが、どんな場所であっても”、と彼は声明で述べている。

Voiceraの音声認識ツールはEvaと呼ばれるクラウドサービスだ。それは、ミーティングのノートを取る作業を、人間から取り上げるために設計されている。同社は先月、e.ventures, Battery Ventures, GGV Capital, Greycroftなどの著名VCから、シリーズAで1350万ドルを調達した。同社はまた、GoogleのGVやMicrosoft Ventures, Salesforce Ventures, Workday Venturesなどエンタープライズ系のVCからも注目されており、ミーティングの痛点(ノート取り)に対する同社のソリューションが本物であることを伺わせる。

Wrappupは、2015年にドバイで創業された。これまで80万ドルを調達している。同社の製品は、CitrixのGoToMeeting, CiscoのWebEx, UberConference, Zoomなど既存のミーティングツールと併用できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

人工知能でスーパーマーケットの陳列棚はどう変わるか

(編集部注:本稿を執筆したJoseph Byrumは、Principal Financial Groupのチーフ・データサイエンティストだ。彼は遺伝学の博士号を保有している)

人工知能は、AlexaやSiriに「電気をつけて」とお願いしたり、「後で牛乳を買う」といった用件をリマインダー設定したりするためだけのものではない。

実際、人工知能や機械学習が本領を発揮するのは、それまで少数の専門家しかできなかったようなことを、誰でもできるようにすることにある。その結果、無人自動運転の車でスーパーマーケットに行くと、そこでは高品質の食材がこれまでにない低価格で売られている、というようなことになるかももしれない。

それは、膨大な量のデータを取り込んでパターンを見つけ出し、どういう行動をとればよりいい結果が得られるのかを統計学的に考えることで実現する。

例えば、Googleの自動運転車は路上で起こり得るあらゆることを分類するのに機械学習を用いている。車が走っているレーンの前方に、搭載するセンサーがゴミ収集トラックを認識したとき、多くの場合はウィンカーで合図を出すことなくトラックを避けるためにレーンを変更する。そうしたパターンをGoogleの自動運転車は情報として蓄積する。そして、ウィンカー合図なしのレーン変更が招くかもしれない事故の可能性を最小限に抑えようと走行レーンやスピードなどを調整するようになる。

危険を予知しながらの運転は、多くの人にとっては当たり前のものだ。しかし、数年前までこうした技術を機械に持たせることは考えられなかった。ハンドルを握る人の運転レベルはさまざまで、交通よりスマホに注意を向けているドライバーだっている。そうしたカオスを呈している交通状況に、機械はいま強力なアルゴリズムで対応できるようになった。

人工知能と農業

驚くかもしれないが、機械学習を農業に応用することは桁違いに難しい。例えば、交通網であれば地図という確固とした情報がある。頻繁に変更されることはなく、アルゴリズムはこの情報をもとに判断を下せる。

だが農業ではそうはいかない。素人目には問題ないように見える小麦畑でも、実際のところはカオスだ。天候は予測がつかず、土壌の状態も変わるし、いつ害虫や病害が発生するかわからない。同じ畑の中でも場所によってコンディションは変わってくる。当然のことながら、農家は最終的に収穫するまでどれくらいの収量になるかわからないのだ。

農業向けAIシステムは成長の可能性大

ある作物のタネをアイオワの畑にまくとしよう。そして同じタネをブラジルにもまく。その栽培結果はおそらくまったく異なるものになるだろう。もし同じだったとしても、次に実験すると結果は違うものになるかもしれない。作物栽培には土壌の栄養状態、天気、降水量、気温、害虫の有無といったさまざまな要素が絡んでいるためだ。

そうしたカオスをさばくのに機械学習は力を発揮する。畑に設置したリモートセンサーは、畑がどういう状況にあるのか統計データとして情報収集する。そのデータをアルゴリズムにかけると、最も考えられる収穫結果を予想する。

こうしたAIアルゴリズムを利用すれば、農家は収穫量を増やすために適宜手を加えることができる。育種家であれば、作物の品種改良にAIアルゴリズムを活用することができる。結果として、スーパーに並ぶ商品の価格を下げることにつながるはずだ。

農業の専門的ノウハウを誰でも使えるように

今までの農業のあり方を考えると、AIの活用は変革と言ってもいいだろう。何世紀にもわたり、農家は作物を栽培するのに勘に頼ってきた。長年の経験に基づいて、何が最善の策なのか直感的にわかるのだ。農家がコンピューターを活用したがらなかったのではなく、当初コンピューターは完全に役に立つものではなかった。二値論理をとる初期のコンピューターは、極めて流動的な要素を抱える農業に適していなかったのだ。

それゆえに、農家は経験に頼らざるを得なかった。しかし、もし経験のない農家でも状況に応じて正しく判断し、栽培できるようになったらどうなるだろう。これは、経験を積んだ農家が少ない発展途上国においては特に重要な意味を持ってくる。

管理型農業の導入の高まりは、機械学習のメリットを広く浸透させることにつながるだろう。リモートセンサー、衛星、無人航空機を使えば、作物の状態、土壌のコンディション、気温、湿度など、農地の情報を24時間いつでも収集できる。情報は膨大な量となるが、アルゴリズムがそれらを処理し、使えるデータにしてくれる。

次の課題は、集めたデータを活用し、どうすれば収穫量を確実なものにできるか、その答えに導くようなアルゴリズムを開発することだ。これが実現すれば、栽培にかかるコストを抑制でき、結果として消費者が恩恵を受ける。

AIで品種改良も

農業においては、何世紀にもわたって作物が干ばつや害虫に強くなるよう、品種改良が行われてきたが、この分野にも機械学習アルゴリズムを応用できる。これまでの品種改良といえば、作物の外観や、日持ち、味をよくするために、一番いい品種を掛け合わせるというものだった。しかしAIを活用すると、強い品種を選ぶため、それに伴い収穫量も増える。

機械学習は、どの作物を植え、どの新品種をテストすべきかといった面でもアドバイスしてくれる。人間が試行錯誤するプロセスをアルゴリズムは短縮することができ、改良した作物が実際に栽培され、そしてスーパーに並べられるのがこれまでになく早くなる。繰り返しになるが、機械学習の活用で作物は高品質になり、値段は下がる。

農業分野でのAIシステムはかなり成長する可能性を秘めている。アルゴリズムが賢くなればなるほど、その恩恵はスーパーに現れるはずだ。

[原文へ]

(翻訳: Nariko Mizoguchi)

自律型攻撃ドローンによる果てしない復讐戦を避けよ

西側が中東を空爆した:デジャビュ以外のなにものでもない。20年前、米国はトーマホーク巡航ミサイルでスーダンとアフガニスタンを攻撃した。そして2日前、米国はシリアを攻撃した…やはりトマホーク巡航ミサイルで。各攻撃のメリット/デメリットはともあれ、この20年の間に小規模戦略戦攻撃のための技術が変化していなかったというのは、少々驚くべきことではないだろうか?

とは言うものの、次の10年で、戦略は大幅に変化するだろう。しかもおそらくそれは良い方向にではない。先週Kelsey Athertonがツイートしたこの鋭い1行に思いを馳せてみて欲しい:

戦争の未来は100ドルのクワッドコプター(四角形)たちを迎撃する100万ドルの灰色の三角形たちとなるだろう

もちろん、安価なドローンたちは、すでに戦場で小規模には用いられている:ISISが、ヒズボラが、ハマスが、そして麻薬カルテルたちがそれを利用している。そしてもちろん世界中の、従来の国家の軍隊によっても。しかしそれらは、人間の操縦するドローンであり、かつ短距離、しばしば場当たり的な方法で使用されている。興味深いが実際には戦略的に重要ではない。

その一方で、現在世界は人工知能とオートメーション技術のカンブリア大爆発の真っ最中である。たとえば、自動運転者の1人開発プロジェクトとして始まったスタートアップのComma.aiのことを考えてみて欲しい。あるいは驚くべきSkydioについて考えてみるのも良いだろう。この自律飛行ドローンは障害物を避けて飛行しながら、あなたの後をどこまでも追う。

…私たちがどこに向かっているかおわかりだろうか?現在は、強大な軍事力だけが数発の爆弾を遠くの敵に投げつけて、政治的論点を強調することができる。だが、大きなSkydiosの群れを想像してみてほしい。それらは指定されたGPSの位置、もしくは視覚的ランドマークをめがけて飛ぶ、もしくは特定のナンバープレートの車を追いかけるように再プログラミングされている。もちろん大量の爆発物を抱えてだ。

トマホーク1基の費用は187万ドルである。個人的には、ISIS、ヒズボラ、ハマス、そしてシナロア・カルテル(メキシコの犯罪組織)などの有能で裕福な非国家勢力…その他のあらゆる好ましからざる勢力が、自律飛行で対象を狙う攻撃型ドローンの群れを生み出す日は、それほど遠くないのではと思っている。そうしてその群れを目標となる場所へと送り込むのだ…1基のトマホークよりも遥かに少ない費用で。自律飛行と目標追跡のためのソフトウェア/AIモデルは、自動運転車のような完璧さを求められることはない。武力を誇示してパニックを起こしたいだけなら、50%の失敗率でも効果は十分以上だ。

国家やテロ勢力、麻薬カルテル、夢想的カルト集団などが、何千人もの人びとに犠牲を与え、数百万人に絶え間ない恐怖を与える能力を持つ多極化した世界で、果てしない相互テロの応酬を想像することは、ぞっとすることながら極めて容易である。強い復讐の炎に包まれた沢山の様々な勢力が、散発的に果てしない攻撃を加えてくる。それぞれの攻撃での犠牲者はせいぜい100人程度だとしても、攻撃を受ける側に底なしの恐怖と怒りを引き起こす。制御することの難しい怒りだ。ハッキングのように、自律ドローンによる攻撃は非常に防ぎにくい。

おそらくこれをSF的な妄言と笑うこともできるだろう。それにも一理ある。このようなことがまだ起こっていないことは事実だ、しかし商用ドローンの兵器への応用例は、はっきりとした警告のサインなのだ。ドローンの馬がまだ1匹もやってきていないのに、納屋のドアを固く閉ざそうとするのは、間違っているし馬鹿げた先走りだという意見には同意する。西側諸国が、研究の制限やハードウェアやソフトウェアのコントロールを考え始めるべきだと言いたいわけではもちろんない(まあ、たとえそれが上手く行ったとしても、それは結局は無意味だ、ドローンのハードウェアは安く、研究開発はグローバルに行われているからだ)。

しかし、もし自律飛行する攻撃型ドローンが、非対称戦略攻撃を可能にした場合には、それらにどのように対処すべきかについて考え始めることは、時期尚早ではない。そして、それが起こる前に、武力行為を最小限に抑えようと努力することも早すぎることはない。理想的には、大きな怒りを感じる度にミサイルを投げつけて解決しようとするのではなく、世界中で燃え盛る紛争の根本原因を解消するように務めることが大切なのだ。なぜなら、私たちが力で対抗しようとするなら、それほど遠くないある日、私たち自身の災厄となって跳ね返ってくるからだ。

(本記事の原題は “Mutual assured dronestruction” というものである。これは “Mutual assured destruction” (MAD:相互確証破壊、2つの核保有国が核戦争を起こせば確実に双方とも滅んでしまう状況)のもじりで、ドローン群による果てしないゲリラ的復讐戦に対する心配を表現したものである)

[原文へ]
(翻訳:sako)

各生徒へ最適な問題を提案するAIタブレット学習教材「Qubena」、提供元が6億円を調達

人工知能型タブレット教材「Qubena(キュビナ)」を開発するCOMPASSは4月13日、複数の投資家を引受先とした第三者割当増資により総額6億円を調達したことを明らかにした。

今回のラウンドには伊藤忠テクノロジーベンチャーズ新生企業投資加賀電子といったVCと事業会社に加え、個人投資家として本城慎之介氏と髙濱正伸氏が参加している。本城氏は楽天の共同創業者であり、現在は2016年に設立した軽井沢風越学園準備財団の理事長を務める人物。髙濱氏はこれまで学習塾「花まる学習会」や進学塾「スクール FC」を設立、現在は算数オリンピック委員会の理事も担う。なお本城氏については、今回COMPASSの社外取締役にも就任している。

COMPASSは2015年6月にインフィニティ・ベンチャー・パートナーズと個人投資家から4000万円、2017年3月に7人の個人投資家から2.2億円を調達。今回調達した6億円も含め、累計の調達額は8.6億円となった。

COMPASSが手がけるQubenaでは、生徒が入力した回答データやそれに至るまでの操作ログ、計算過程を解析。つまずく原因を特定し、各生徒に適切な問題へ自動的に誘導することで効果的な学習をサポートする。これにより同社が運営する学習塾では、中学校数学の1学年分の学習範囲を平均3か月(32 時間)で修了するといった効果もでているそうだ。

現在は小学生〜中学生の「算数・数学」に特化していて、学習塾への導入や提携を推進。たとえば北海道を中心に学習塾を展開する練成会グループでは今月から全校導入が決まっているなど、「具体的な数字は明かせないが、万単位のアカウントが動くことになる」(COMPASS担当者)という。

小中に関してはオリジナルの教材を提供している一方で、高校数学の学習教材についても河合塾と共同で開発中。また直近ではB2Cのサービスとして、Qubenaをベースとしたオンライン家庭教師サービス「Qubena Wiz」も始めている。

今回の資金調達を踏まえ、COMPASSではQubenaのコンテンツ拡充や新たな教科・教材の開発を加速させるほか、新規事業への積極的参入などを視野に入れて事業拡大や人材採用を強化するという。

犬を使って犬の機械学習システムを作成する

私たちは、物体を識別したり、路上をナビゲートしたり、顔面の表情を認識するために機械学習システムを訓練してきたが、それらを例えば犬をシミュレートできるレベルほどに洗練することは困難のようだ。だがここで紹介するプロジェクトは、それを狙おうというものだ、まあもちろん極めて限定された範囲ではあるのだが。以下に紹介するAIは、一匹の賢いメス犬の振る舞いを観察することによって、犬のように行動する方法の基礎を学んだ。

この研究はワシントン大学とAllen AI研究所の共同研究であり、その結果の論文は、6月のCVPR(コンピュータービジョンとパターン認識の国際会議)で発表される。

なぜこの研究を行うのだろうか?まあ、オブジェクトを特定したり、それに注目するといった、認識のサブタスクをシミュレートするための研究は多く行われてきたが、「エージェントがその視覚を用いて行動しタスクを起こすために必要とされる視覚データの理解」という意味ではあまり多くの研究は行われてこなかった。言い換えれば、目としての振る舞いではなく、その目を動かすものとしての振る舞いである。

それに何故犬なのか?何故なら彼らは十分な複雑さを備えたインテリジェントエージェントであり、「にも関わらずその目標や動機を、しばしば先験的に知ることは困難だから」である。言い換えれば、犬は明らかにスマートな存在だが、彼らが何を考えているのかは分からないということだ。

この研究の最初の試みとして、チームは犬を密接にモニターし、その移動や行動を犬が見ている環境にマッピングすることによって、犬の動きを正確に予測するシステムを作り出すことができるかどうかを知りたいと考えた。

ということで、彼らはKelp M. Redmonという名前のマラミュート犬に基本的なセンサー群を装着した。Kelpの頭にはGoProカメラが載り、脚、尾、胴に6つの慣性計測ユニットが装着されてそれぞれの位置を検出する。さらにマイクと全てのデータを統合するためのArduinoも備えられた。

彼らは何時間にもわたるKelpの活動を記録した。様々な環境で歩き、物を取らせ、ドッグパークで遊び、そして食べる。これらの動きを犬が見たものと同期させて記録したのだ。その結果得られたものが、「犬環境における自我中心の行動データセット」(Dataset of Ego-Centric Actions in a Dog Environment:DECADE)だ。このデータは新しいAIエージェントを訓練するために用いられる。

訓練されたAIエージェントは、特定の感覚入力(例えば部屋や通りの景色、またはそこを横切るボールのようなもの)があったときに、その状況で犬が何をするかを予測することができる。もちろん、こと細かなレベルではない。しかし単にどの身体をどのように動かそうとするのか、どこへ移動しようとするのかを判定するだけでも、大変な仕事である。

研究者の一人であるHessam Bagherinezhadは「歩行する際の関節の動かし方を学習し、歩いたり走ったりする際に障害物を回避する方法を学んでいます」とメールで返信してきた。「リスを追いかけることを学び、飼い主の後に従い、『とってこい』のために飛んでいる犬用のおもちゃを追跡することを学んでいます。これらは、各タスクに対する別々のデータ(行動計画、歩行可能な表面、物体認識、物体追跡、人物認識)を集めることで私たちが解決しようとしている、コンピュータビジョンとロボティクスの基本的なAIタスクの一部です」。

これは、かなり複雑なデータも生成することが可能だ。例えば犬のモデルは、本物の犬自身がそうしている様に、ここからそこまで歩く際に、どこを歩くことができるのかを知らなければならない。それは木の上や車の上、そして(家庭によると思うが)ソファの上を歩くことはできないからだ。したがって、モデルはそれらも学習する。その結果は別途コンピュータービジョンモデルとして利用され、ペット(もしくは脚付きロボット)が、見えている画像のどこを歩くことができるのかを決定するために利用できる。

これは、まだ最初の実験に過ぎない。研究者たちは実験は成功したが、結果はまだ限られていると言う。より多くの感覚の取り込みが考えられていることだろう(嗅覚は明らかにその1つだ)、あるいは1匹(もしくは複数の)犬から生み出されたモデルが、他の犬たちにどれほど一般化して適用可能かの研究も考えられているだろう。彼らの結論はこうだ:「私たちは、この研究が、視覚情報と私たちの世界に生息する他の知的存在に対する、より良い理解をもたらす手段への道を切り拓いてくれることを期待しています」。

[原文へ]
(翻訳:sako)

AI活用で「報道の機械化」進めるJX通信社、テレビ朝日やフジらから数億円を調達

AIニュースサービスを展開する報道ベンチャーのJX通信社は4月12日、テレビ朝日ホールディングスフジ・スタートアップ・ベンチャーズ、既存株主等を割当先とする第三者割当増資を実施したことを明らかにした。具体的な金額は非公開だが、数億円規模の調達になるという。

JX通信社が現在力を入れているのが「FASTALERT」や「News Digest」など、ニュース速報の分野でAIを活用した事業だ。FASTALERTはSNS上の事件、事故などの緊急情報をAIが自動収集・解析するサービス。従来は報道機関が警察や消防に取材をして集めていたような情報を、SNSを通じてよりスピーディーに収集できるのが大きな特徴だ。

すでに在京の民放キー局とNHKが導入しているほか、地方のテレビ局でも活用が進んでいる状況。JX通信社の代表取締役を務める米重克洋氏によると「(具体的な数までは言えないが)全国の大半のテレビ局に採用されている」という。

もうひとつのNews Digestは報道価値の高いニュース速報をAIが検知、配信するアプリ。速報スピードがウリだ。JX通信社ではこれまでも報道現場でのAI活用を進めてきたが、今後も世論調査の自動化や記事の自動生成など「報道の機械化」に向けて各社と連携して取り組む方針だ。

「報道産業は何から何まで人間がやるビジネスという側面が強く、労働集約的になりがちだった。実際のところデジタルシフトも遅れていて、現場ではコストの削減とともに付加価値をあげた収益性の向上が求められている」(米重氏)

米重氏の話では、速報レベルの情報はかなり機械化できる要素があるという。記者の業務には人間が仕方なくやっているものも多いのが現状。これらをシステムに任せることができれば、コストを下げることに加えて、記者が本来やるべきことにより多くの時間を使えるようにもなる。

JX通信社はこれまでも共同通信社や、大手金融情報サービス事業者QUICKらから資金調達を実施。今回のラウンドで、新たに民放キー局が2社株主に加わった。

「今回の調達は組織基盤の強化の目的もあるが、報道機関との連携をより強めていきたいという意図が大きい。報道の機械化というのは、現場の理解があってこそ実現できる。今後はもっと報道の現場に貢献できる総合通信社を目指してチャレンジを続けていきたい」(米重氏)

エンジニアも使うAIプログラミング学習サイト「Aidemy」が1万ユーザー突破、有料プランも開始

自然言語処理、データクレンジング、Pandasを用いたデータ処理——これらはAIプログラミングを学べる「Aidemy」で、実際に提供されているコースの一例だ。

開発元のアイデミーは4月10日、同サービスの会員登録数が3月末に1万人を突破したことを明らかにした。Aidemyのリリースは2017年12月の下旬で、リリースからは約100日。本日より有料会員プランを開始するほか、新講座「異常検知入門」の提供も始める。

プログラミング学習サービスと言えば、これまでTechCrunchでも紹介してきた「Progate」や「TechAcademy」のように、初心者からでも始めやすいものが多かったように思う。一方のAidemyはというと、Python入門のようなコースも用意されているものの、より専門的な内容が多い。

実際アイデミー代表取締役CEOの石川聡彦氏によると「利用者の7割を占める社会人のうち、7割は理系学部出身者」なのだという。もともと2017年の9月に、AIプラグラミングに特化したオンライン家庭教師サービスをリリース。これは約2ヶ月間、ビデオチャットやテキストチャットで講師からフィードバックを受けながら、集中的にプログラミングスキルを学ぶというものだ。

「当初は文系の人でもわかりやすく学べるというテーマでやっていたが、実際にサービスを始めると受講者の8割近くがエンジニアだった。サービスを提供する中でこの分野はエンジニアにニーズがあると気づき、現在提供しているAidemyはエンジニア向けに開発している」(石川氏)

現在はAI関連の技術を中心に15のコースを提供している。理論よりも実践を重視し、実際にコードを書きながら学んでいくスタイルが特徴。学習は全てブラウザ上で完結するため、特別な環境の用意は一切必要ない。特にITエンジニアのユーザーが多く、機械エンジニア、ケミカルエンジニアと続く。ほとんどが業務にAIを活用する目的で受講しているのだそうだ。

これまでは無料でサービスを提供していたが、本日から有料会員プランをスタート。Python入門、機械学習入門、ディープラーニング基礎の3コースは引き続き無料で受講でき、それ以外のコースは有料となる。

受講方法は各コースごとの買い切り型と、月額定額のサブスクリプション型(チケット制)。単体では1コースだいたい2000~3000円のものが多いそうで、サブスクリプションの場合は若干安く受講できるという。

Aidemyでは当初AIに特化していたが、Twitterで「Pythonによるブロックチェーン実装」講座のニーズを探ってみたところ大きな反響があり正式にサービス化。引き続きAI関連のコースを充実させながらも、たとえば量子コンピュータなど先端技術を学べるサービスを目指すという。

また個人向けには夏頃を目処に海外版のリリースを予定しているほか、法人向けのビジネスにも着手する。企業の研修コンテンツとしてAidemyを提供する「Aidemy Business」は6月リリース予定だが、すでにディップへの導入が決まった。

その先の展開としてプログラミングスキルを学んだ人材の転職支援や、企業がAIやブロックチェーンを活用したシステムを開発する際のサポートも事業として行っていく方針。

「『社会と技術の距離を縮めていこう』というのをひとつの目標にしている。プログラミング学習サービスを通じて技術を知ってもらう部分はもちろん、先端技術に関わる分野に関して人材紹介や開発支援までやっていきたいという思いがある」(石川氏)

アイデミーは2014年の創業。当時、東京大学の学生だった石川氏が立ち上げた。デリバリーサービスやポイントカードアプリ、キュレーションメディアなど複数の事業にチャレンジするも失敗。3年目はシステム制作やデータ解析など、受託事業をやっていたという。同時期に大学に復学、機械学習応用系の研究に携わったことなどもあり、現在の事業を始めた。

同社は2017年の6月にSkyland Venturesとファクトリアル代表取締役社長の金田喜人氏から、同年11月に東京大学エッジキャピタル、ペロリ創業者の中川綾太郎氏、クラウドワークス取締役副社長COOの成田修造氏からそれぞれ資金調達を実施。累計で約1700万円を集めている。

データは新しい石油ではない

(日本語版注:本稿は、Jocelyn GoldfeinとIvy Nguyenにより執筆された記事。Jocelyn GoldfeinはZetta Venture Partnersの業務執行取締役。 Ivy Nguyenは、Zetta Venture Partnersの共同経営者。)

ソフトウエアの開発が以前に比べて簡単になったことで、ソフトウエア・ビジネスにおいて身を守ることは、以前よりも難しくなっている。そのため、投資家や企業家が、データに新しい競争力の可能性があると楽観視するのは不思議ではない。データは「新しい石油だ」と称賛する人間もいる。私たちは、ビジネスに関する問題を解決してくれるデータやAIを活用するスタートアップへの投資に力を入れているため、たしかに、そうした声を聞くわけだが、石油に例えるのは少し違うと思う。

ビッグデータへの関心は非常に高いが、すべてのデータが同等に作られているわけではないという事実は見落とされがちだ。スタートアップも大手企業も、口を揃えて、テラバイト級だとか、米国議会図書館に収められている情報より多くのデータを保有しているとか、自分たちが集積したデータの量を自慢するが、量だけで「データモート」(Data Moat:データの堀)を築くことはできない。

データ戦略の変遷  左から「ワークフロー・ツール(データなし)」「データ集約」「データ駆動型好循環(AI / ML)」「データモート」

 

その理由のひとつには、生のデータは、問題解決に利用できるデータと比べて価値が遙かに劣るということがある。それは、公開市場を見るとわかる。ニールセンアクシオムなどのデータの収拾や提供を業務としている企業は、ネットフリックスやフェイスブックのようにデータをアルゴリズムや機械学習(ML)と組み合わせることで製品を生み出している企業と比較すると、企業評価は数分の一をなんとか維持している程度だ。新しい世代のAI系スタートアップは、その違いをよく心得ていて、収拾したデータから価値を抽出するためのMLモデルを採用している。

MLベースのソリューションにデータが利用できたとしても、そのデータセットのサイズはまた別の話だ。データセットの価値、つまりデータモートの強さは、文脈による。アプリケーションによっては、顧客に何らかの価値を提供するために、非常な高精度にトレーニングしたモデルを必要とするものがあるかと思えば、ほんの僅かなデータ、あるいはまったくデータを必要としない場合もある。独占的に所持できるデータもあれば、すでに複製されているデータもある。時間とともに価値が失われるデータもあれば、永久に価値を保ち続けるデータセットもある。アプリケーションがデータの価値を決定するのだ。

「データ欲」の範囲を規定する

エンドユーザーに価値ある機能を提供するためには、MLアプリケーションは、幅広く大量のデータを必要とする。

MAP閾値

クラウドの分野には、実用最小限の製品(MVP)という考え方が根付いている。初期顧客を探し出すのに必要な機能だけを備えたソフトウエア郡だ。インテリジェンスの分野では、私たちはデータやモデルから見られるアナログの部分に注目している。採用を正当とするに足る最小限の精度を持つ情報だ。これを私たちは最低限のアルゴリズム性能(MAP)と呼んでいる。

ほとんどの場合、アプリケーションで価値を生みだすのに必要な精度は、100パーセントでなくてもよい。たとえば、医師のための生産性向上ツールがあったとしよう。最初は、健康状態を電子的に記録するシステムのデータ入力を補助する役割を果たすが、時が経つにつれて、どの医師がシステムに入っているかを学習して、データ入力を自動化するようになる。ここではMAPはゼロだ。使い始めた最初の日から、そのソフトウエアの機能が価値を発揮するからだ。インテリジェンスは後から付加される。しかし、AIが中心になっている製品(たとえば、CTスキャナーから脳卒中を特定するツール)の場合は、生身の人間が行うときと同等精度のソリューションが求められる。MAPは人間の放射線科医の能力と同等になり、製品として成立させるまでには、恐ろしいほど大量のデータが必要とされる。

成績の閾値

100パーセントに近い精度があっても、すべての問題が解決できるわけではない。あまりにも複雑すぎるため、最先端の技術を駆使したモデルを必要とする問題もある。その場合は、データは特効薬とはならない。データを増やすことで、モデルの成績は徐々に向上するだろうが、すぐに限界利益の減少に直面してしまう。

反対に、追跡すべき次元が少なく、結果の幅も小さく、比較的単純にモデリングできる問題の場合は、ほんのわずかのトレーングされたデータセットで解決できてしまう。

早い話が、問題を効率的に解決するために必要なデータの量は、状況によって変わるということだ。実用的なレベルの精度に達するために必要なトレーニングされたデータの量を、私たちは「成績の閾値」(Performance Threshold)と呼んでいる。

書類処理におけるMAPと成績の閾値の関係 縦軸は精度、横軸はトレーニング用の実例(ドキュメントの数)。 左「成績の閾値=ドキュメント数200」、右「MAP=93%(人間による処理の精度)」

AIを使った契約処理は、成績の閾値が低いアプリケーションのよい例だ。契約書のタイプは何千とあるが、そのほとんどには、契約に関わる人たち、価値を交換するアイテム、期限など、共通する要点がある。住宅ローンやレンタル契約などの書類は、規制に準拠しなければならないため、ほとんど定型化されている。わずか数百種類の例を使ってトレーニングするだけで、実用的な精度に高められる自動文書処理のアルゴリズムを開発したスタートアップを、私たちは数多く見てきた。

起業家にはバランス感覚が必要だ。成績の閾値が高ければ、顧客に使ってもらい、より多くのデータを集めるために、十分なデータを集めなければならないという「ニワトリが先か卵が先か」のような問題に行き当たる。低すぎれば、データモートは築けない。

安定性の閾値

MLモデルは、それが利用されることになる現実の環境から例を集めてトレーニングされる。その環境が少しずつ、または突然に変化したとき、それに伴って変化できなければモデルは陳腐化する。つまり、そのモデルの予測は、もう信頼できないということだ。

たとえば、スタートアップのConstructor.ioは、MLを使って電子商取引サイトの検索結果をランク付けしている。そのシステムは、顧客が検索結果をクリックするかどうかを観察し、そのデータを使って、よりよい検索結果を得るための順番を予測するというものだ。しかし、電子商取引の製品カタログは常に変化している。もしそのモデルが、すべてのクリックのウェイトを同じと考えていたら、または一定の時間のデータセットだけでトレーニングされていたとしたら、古い製品の価値を過大に評価したり、新製品や現在人気の製品をそこから除外してしまったりする恐れが出てくる。

モデルの安定性を保ちたいなら、環境の変化の速度に合わせて最新のトレーニングデータを取り込む必要がある。私たちは、このデータ取得の速度を「安定性の閾値」と呼んでいる。

短命なデータでは強固なデータモートは作れない。一方、安定性の閾値が低い場合、豊富で新鮮なデータへの継続的なアクセスは、大きな参入障壁になってしまう。

長期的な防御力で好機を見極める

MAP、成績の閾値、安定性の閾値は、強固なデータモートを築く際に中核となる要素だ。

新しいカテゴリーに飛び込む先行者には、MAPが低い企業があるが、ひとたびカテゴリーを確立して、そこを牽引するようになれば、後から参入する者たちの敷居は、先行者のときと同じか、それよりも高くなる。

成績の閾値に達するまでに必要なデータと、成績を維持するため(安定性の閾値)に必要なデータの量が少なくて済む分野では、防御が難しい。新規参入者はすでに十分なデータを持っているので、先行者のソリューションに簡単に追いついたり、追い越したりできてしまう。その一方で、成績の閾値(大量のデータを必要としない)と低い安定性の閾値(データが急速に古くなる)と戦っている企業でも、他の企業よりも早く新しいデータを取得できれば、データモートを築ける可能性がある。

強固なデータモートのその他の要素

AI系の投資家は、データセットは「公開データ」と「独自データ」に分けられると熱弁するが、データモートには、それとは別に次の要素がある。

  • アクセスのしやすさ
  • 時間 — どれだけ早くデータを収集してモデルに活かせるか。データには即座にアクセスできるか、または取得や処理に長い時間がかからないか。
  • コスト — そのデータを入手するのに、いくらかかるのか。データを使用するユーザーがライセンス権のために金を払う必要があるのか。または、データのラベリングのために人件費を払う必要があるのか。
  • 独自性 — 同じ結果を導き出すモデルが構築できる同等のデータが広く公開されていないか。そのような、いわゆる独自データは、「日用データ」(Commodity Data)と呼ぶべきだろう。たとえば、求人情報や、広く普及している形式の書類(機密保持契約書やローンの申請書など)や、人の顔の画像のようなものがそれにあたる。
  • 次元性 — データセットの中に、種類の異なる属性がどれほど含まれているか。その多くが、問題解決に役立つものであるか。
  • 幅 ― 属性の価値がどれほど多岐に渡っているか。そのデータセットに、極端な事例や稀な例外的事例が含まれているか。データまたは学習が、たった一人の顧客から得たものではなく、幅広い顧客層から収拾され蓄えられているか。
  • 寿命 ― そのデータは、長期にわたって幅広く利用できるものであるか。そのデータでトレーニングされたモデルは、長期間使えるか。または、定期的な更新が必要か。
  • 好循環 ― 性能のフィードバックや予測の精度といった結果を、アルゴリズムの改良のためのインプットとして使えるか。時を経るごとに性能が磨かれてゆくか。

今やソフトウェアは日用品だ。長期間にわたって競争での優位性を保ちたいと考える企業にとって、データモートの構築はますます重要になる。技術系の巨大企業がクラウド・コンピューティングの顧客を獲得するためにAIツールキットを無料公開する世の中では、データセットは、差別化のための非常に重要な決め手となる。本当に防衛力の高いデータモートは、データを大量に集めるだけでは実現しない。最良のデータモートは、特定の問題分野と強く結びついている。そこでは、顧客の問題を解決するごとに、他所にはない新鮮なデータが価値を生み出すようになる。

画像:Artem_Egorov / Getty Images

[原文へ]

(翻訳: Tetsuo Kanai)

Apple、GoogleのAIトップを引き抜く

Apple GoogleのAI担当幹部を引き抜いた。これはかなり大きな影響及ぼすに違いない動きだ。

Appleは、Googleの人工知能と検索の責任者、John Giannandreaを同社に迎えたとNew York Timesが報じた。GiannandreaはAppleの「機械学習およびAI戦略」の責任者になると同社がNY Timesに伝えた。同氏はAppleに16人しかいないCEO Tim Cook直属となる。

つい昨日(米国時間4/2)、The Information(有料ページ)は、GiannandreaがGoogleの職務を外れ、Google19年目の古参であるJeff Deanが引き継ぐことを報じたばかりだ。Giannandreaは2010年にGoogleがMetaWebを買収したあと同社に加わった。MetaWebではCTOを務めていた。当時このスタートアップはタグ付けされた膨大なデータを利用してコンテキストを意識した検索結果を追求していた。

この動きが特に重要なのは、現在Appleは人工知能を利用した知的ソフトウェアの分野でライバルに大きく遅れをとっているからだ。同社が消費者向けAI技術を注ぎ込んでいるデジタルアシスタントのSiriは、AmazonのAlexaやGoogleのアシスタントに能力面で大きく水をあけられている。

TechCrunchは、最近のDisrupt SFカンファレンスでGiannandreaと話す機会があり、人間はコンピュータを賢くするのに役立つが、十分に注意しないと人間の偏見も植えつけてしまうおそれがあると時間を割いて話した。

[原文へ]

(翻訳:Nob Takahashi / facebook

Apple、Mac向け独自チップを開発中との報道

Apple はMacに自社製の独自チップを使おうと計画している。これは現在デスクトップとノートで使われているIntelチップが置き換えられるかもしれないことを意味している。Bloombergが報じた。

Appleはこれまでにも数多くのカスタムチップを作っている。Bluetoothヘッドホン用のW-series、Apple Watch用のS-series、iPhone用のA-series、さらには新しいiPhoneで使われているカスタム版GPUなどだ。つまりAppleは、チップのファブレス製造を行う方法をいくつも持っている。デバイスの用途を益々特化し、サードパーティーへの部品の依存度を減らす意味でも理にかなった考え方だ。すでにAppleはQualcommとロイヤルティの件でもめている。またMacは製品ラインアップ的には第3の製品ともいえるが、今も会社の収益の大きな部分を占めている。

すべてのカスタムチップを自社開発することによってAppleは様々なことが可能になる。少なくとも、デバイス同士が効率的に話し合えるシステムにMacを仲間入りさせることができる。すでにAppleはユーザーのアクティビティをデバイス間で移動する手段をいくつも持っているが、これをよりシームレスにすることで、ユーザーをAppleエコシステムに囲い込むことが容易になる。W1チップ内蔵のワイヤレスヘッドホンをiPhoneに接続したことのある人なら、一般のBluetoothヘッドホンとの違いがわかるはずだ。チップセット全体を支配することでさらに差別化が強化されるだろう。Bloombergの記事によるとAppleは早ければ2020年にはチップを製造する可能性がある。

そうなればIntel は明らかな敗者となる恐れがあり、市場はそれを映し出している。Intel株はこのニュースのあと8%近く下落した。Appleが従来のチップからカスタムデザインへ移行することは、Intelが長年培ってきたアーキテクチャーからの明確な離脱だ。そして、独自のチップ設計を見込んでいるのはAppleだけではない。Amazon Alexa向けに独自のAIチップを開発して、Amazonエコシステムへの取り込みを狙っている。主要メーカーらが独自アーキテクチャーに目を向ける一方では、居並ぶスタートアップの群れがAI向けカスタムチップ開発のために巨額の資金を集めている

Appleはコメントを拒んだ。

[原文へ]

(翻訳:Nob Takahashi / facebook

Microsoftがオンライン学習にAI上級コースとソフトウェア開発入門を新たに加える

Microsoftが今日(米国時間4/2)、デベロッパーのためのオンライン教育プログラムに二つの新しいコースを加えた。ソフトウェア開発入門コースと、機械学習の知識を増やしたいと願っている中級以上のデベロッパーのためのAIコースだ。

誰もが知ってるように、データサイエンティストと機械学習のデベロッパーは、需要に対して供給がきわめて少ない。そのために今、多くの企業では、社員の知識と技能を高めるための社内教育に力を入れているが、今日から始まる誰でも受講できるAIコースも、最初はMicrosoftが自社の社員のために開発したコースだ。

そのMicrosoft Professional Program for Artificial IntelligenceはedX.orgで無料で受講できるが、お金を払えば修了証ももらえる。コースの期間は3か月で、各四半期の頭に始まる。当然ながら、Microsoft AzureとMicrosoftのCognitive Servicesを多く使うからAzureのアカウントは必要だが、使用するオペレーティングシステムは特定しない。

全部で10の必修クラスがあり、それらはAI入門データサイエンスのためのPythonプログラミングAIデベロッパーの倫理などさまざまだ。訓練モデルを使った実習も多い。ひとつのクラスは所要時間が8ないし16時間だ。

AIコースだけでなく、同じく今日発表されたソフトウェア開発の入門コースは、これもedXのコースで13の必修クラスから成る。とくに、JavaScriptとPythonが中心のようだ。ただしこれらのプログラミング言語を学ぶだけでなく、データ構造の基礎や、GitHubの使い方、コードをプロフェッショナルに書くためのそのほかのツールなども教わる。

こういった学習コースをいろいろ集めたものを、Microsoftは“Professional Programと呼んでいる。Microsoft Academyの方が、分かりやすいんじゃないかなぁ。今あるコースは、フロントエンドの開発、クラウドのアドミン育成、ITサポートのプロフェッショナル育成などだ。

画像クレジット: 写真提供, Dan DeLong/Microsoft

[原文へ]
(翻訳:iwatani(a.k.a. hiwa