Google Cloudの機械学習スタートアップコンペ、優勝3チームが決定

3月のCloud Nextカンファレンスで主催者のGoogleが、機械学習を利用するスタートアップのコンペを行うと発表した。共催者としてData CollectiveEmergence Capitalが名を連ねた。それから4か月経った今日(米国時間7/13)、350あまりの応募者の中から選ばれた10社が、Googleがサンフランシスコに設けたLaunchpad Spaceのステージで、決勝のプレゼンを競った。

決勝の賞は3つあり、Data CollectiveのDCVC賞とEmergence CapitalのEmergence賞、そしてGoogleのCloud Platformを使うスタートアップに授与されるBuilt with Google賞だ。なお、決勝出場者全員に、GCPのクレジット20万ドルが提供される。VC二社は彼らが選んだ優勝スタートアップにシード資金を提供することになっており、審査過程に最初から参加した。

このイベントは、マシンインテリジェンスのスタートアップと仲良くしておきたい、と願うGCPのマーケティングないしパブリシティの一環でもある。GoogleのクラウドはAmazonやMicrosoftに比べるとまだユーザーが少ないので、大量のデータを生成してそれらをどこかに保存しなければならないタイプのスタートアップたちと“お友だち”になることは、重要なマーケティング戦略のひとつだ。コンペに参加したファウンダーたちは、KubernetesとTensorFlowがGCPのセールスポイントだ、と指摘する。それを20万ドルぶん使えるクレジットも、悪くないよね。

それでは優勝チームを以下にご紹介しよう:

DCVC賞 – BrainSpec

BrainSpecのCEO Alex Zimmerman

50万ドルの投資

BrainSpecは医師がMRIのデータから脳の代謝産物を測定するためのプラットホームだ。代謝産物は細胞プロセスの化学的な結果で、脳の損傷やアルツハイマー病などの脳疾患を理解するための鍵、と言われている。

医師は従来、MRスペクトロスコピーと呼ばれる複雑なプロセスで組織の化学的分析を行い、脳神経疾患の指標を検出していた。BrainSpecは、Webのインタフェイスとクラウドベースの統計分析により、このテクニックを単純化する。

DCVCのパートナーMatt Ockoは同社への投資の理由として、BrainSpecが対象とする問題の市場のサイズが大きいことを挙げる。このスタートアップは、特定分野の強力な専門知識や技能をプロダクトに活かし、製品化と公的認可に向けての明確な道程を有している。

Emergence Capital賞 – LiftIgniter

LiftIgniterの協同ファウンダーAdam Spector

50万ドルの投資

TC Disrupt Battlefieldにも出場したLiftIgniterは、企業がユーザーに配布するコンテンツを個人化する。AmazonやSpotifyなどの大手は独自の高度なリコメンデーションシステムでユーザーの関心を喚起しているが、そのほかの多くの企業は、そこまで行っていない。

YouTubeの、機械学習によるリコメンデーションシステムを作ったことのある同社のチームは、そんなサービスをAPIで提供する。同社によると、その個人化リコメンはA/Bテストで負けたことがなく、180万のARRと22%の前月比成長率を達成している。

このチームはBuilt with Google賞で二位になったので、GCPのクレジットを50万ドル獲得している。

Built with Google賞 – PicnicHealth

PicnicHealthのCEO Noga Leviner

100万ドルのGCPクレジット

PicnicHealthは、同社の集中管理型デジタル医療記録システムに機械学習を適用して、製薬企業や研究集団向けに分析データを提供する。

データの取り出しはそれにより自動化されるが、その匿名記録に人間ナースのチームが注釈をつけていく。この種の分析データは、とくに製薬企業が重視するので、同社は有料ユーザーの中心層と考えている。

患者はこのプラットホームの消費者ユーザーとして、自分のデータをコントロールでき、また自分のケアプロバイダーを入力する。それから先は、記録の収集、分析、リリースをPicnicが自動的に行う。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

MateLabsが機械学習とIFTTTを連携させた

もし機械学習モデルを訓練してそれをIFTTTと統合したいと思ったことがあるなら、 今やMateLabsの新しい製品を使うことができる 。初心者が機械学習モデルを作りだすことのできるプラットフォームMateVerseは、今やIFTTTと連携して、条件に基づいて実行するモデルを自動的にセットアップできるようになった。

IFTTTをよく知らない人のために述べておくなら、これはプログラミング知識なしで独自のif/then(もし〜ならば〜する)ステートメントを作成するための自動化ツールである。このサービスを使って、外部の気温が50度以上に上昇した場合に通知を受け取ったり、Twitterに直接写真を投稿したりすることができる。

MateLabsによるインテグレーションもほぼこれと同様に働くが、機械学習が加わっている点が異なる。現段階では、同社はTwitter、Slack、Googleドライブ、Facebookなどに対応できる、コンピュータビジョンと自然言語処理ツールを提供している。例えば、Twitterでのメンションを分析して、なぜそのメンションが起こったのかを決定する処理を設定することができる。

もちろん、利用者が自身のデータをMateVerseプラットフォームにアップロードし、特定のユースケースについて独自のモデルを訓練すれば、利用者自身が独自のモデルを構築することもできる。これらのすべては、複雑な機械学習フレームワークに精通していない人にとっては有用だが、だからと言って、上級開発者にメリットがないということではない。

この技術が成熟して行ったときに、ハッカーが何をできるようになるのかを見ることが楽しみだ。ハードウェアとIFTTTとの統合によって一風変わったものを作りだす人も出て来るだろう。例えばあなたやあなたの猫が部屋に入ってきたときに、特定の照明を点灯するといったものだ。

[ 原文へ ]
(翻訳:Sako)

企業の非技術系一般社員でも機械学習を利用できるようにするH2O.aiのDriverless AI

Driverless AIH2O.aiの最新のプロダクトで、企業におけるデータサイエンスの活用の、敷居を低くすることをねらっている。このツールは、非技術系の社員たちを助けて、データの準備、パラメータの調整、当面の問題に対する最適アルゴリズムの判断などのタスクを、機械学習を利用して行う。

機械学習で解こうとする問題は、研究者のレベルでは複雑で予測不可能なものが多い。前例のないユースケースでGANや強化学習などの新しい技法を使っていくためには、高い技術力が必要だ。しかし企業が機械学習を使っていく場合は、比較的予測可能な問題が多い。たとえばサポートベクターマシンを使ってデフォルト率を評価する、など。

でも、そんな比較的簡単な問題でも、非技術系の社員の手には負えないことがある。企業は営業や人事など、データ分析とは無縁だった分野でも、最近ますますデータサイエンスを利用しようとしているが、そのために彼らを再教育するのはコスト的にたいへんすぎる。

H2O.aiのプロダクトはどれもAIを使いやすくしてくれるが、でもDriverless AI(運転者不要のAI)はさらに一歩進んで、モデルを準備するときに必要な難しい決定の多くを自動化する。Driverless AIは、feature engineering(特徴量工学、特徴量の選択・作成・変換)を自動化する。特徴量とは、いろんな変数/変量がある中で、モデルの構築に利用すべき重要な変数変量のことだ。

Driverless AIにはよく使われるユースケースが組み込まれているが、どんな機械学習の問題でも解ける。うまくいけば標準的なモデルを見つけて十分にチューニングし、そのロングテールの少なくとも一部を自動化する。

同社は1月にDeep Waterをローンチしたとき、今日のリリースを暗示した。Deep Waterは、ディープラーニングとGPUを一般ユーザーが利用するためのプラットホームだ。

機械学習による自動化は、まだまだ初期的段階だ。GoogleのCEO Sundar Pichai は今年のI/Oカンファレンスで、試行錯誤と大量の計算処理で機械学習の問題を解くための、最良のモデルと特徴を自動的に選び出すAIツールを作っていると述べて、会場をどよめかせた。

Driverless AIはAIを非技術系ユーザーのために民主化し抽象化する旅路の第一歩だ。ダウンロードして実験してみたい人は、ここからどうぞ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習のDeepMind、国際展開を開始――最初の海外オフィスはカナダのアルバータ州エドモントンに

Alphabetの人工知能企業、DeepMindは本拠であるイギリスから海外への展開を開始した。最初の海外オフィスはカナダのアルバータ州エドモントンに置かれる。アルバータ支社はアルバータ大学と緊密に連携して調査・研究に当たる。

リーダーはアルバータ大の研究者、Rich Sutton、Michael Bowling、Patrick Pilarskiらとなる。最近、カナダでは人工知能開発に力を入れており、大学人が教育、研究を続けながら民間企業のプロジェクトにも貢献できる道が開かれつつある。これはその一例といえるだろう。

Sutton、Bowling、Pilarskiに加えてAdam Whiteも非常勤教授としてアルバータに戻りチームに参加する。またノーリミットのテキサス・ホールデムで人間のプロ・ポーカー・プレイヤーを破ったことで話題になったAIシステム、DeepStackの共同研究者6人もメンバーとなるという。

アルバータ大学との取り決めにはDeepMindが研究資金の提供を続けることが含まれる。Googleカナダのコミュニケーション担当ディレクターAaron Brindleは「この提携の目的は世界的にトップレベルの研究者をもっと大勢アルバータに引きつけることにある。これによって〔アルバータ大学の所在する〕エドモントンをテクノロジーのハブにしたい」と述べた。

DeepMindのアルバータ・チームのリーダー3人はいずれも「成功した方法を繰り返し、失敗した方法を避ける」という人間の学習方式をコンピューターにシミュレーションさせる方法を研究している。Sutton教授はまたDeepMindが2014年にGoogleに買収される前にの会社の最初のアドバイザーとなっている。アルバータ大学のメンバーは世界チャンピオンを破ったAI碁のAlphaGoやAtariのゲームを学んでプレイするAIシステムの開発にも参加していた。

画像: DeepMind

[原文へ]

(翻訳:滑川海彦@Facebook Google+

社員の能力開発が急務な知識経済の時代には教育のNetflixが必要だ

[筆者: Rob Harles, Karl Mehta]

・Rob HarlesはAccenture Interactiveのマネージングディレクター。

・Karl MehtaはEdCast, Inc.のファウンダーでCEO、Code For IndiaのCEOでもある。

毎日46億点の新しいコンテンツが生産されているのだから、私たちの知識への飢えはとっくに満たされている、と思えるかもしれないが、しかし情報の生産と流通は消費の機会や分布とパラレルではなく、それは情報をただそこへ置けば解決する問題でもない。

私たちは情報の中で溺れ死のうとしているが、しかし同時に、私たちの生産性を本当に高め、コラボレーションとイノベーションを促進してくれる知識には飢えている。

役に立つ知識が必要になると、私たちは広くWebを検索したり、口コミでエキスパートを見つけたり、設計のお粗末な会社の文書共有システムを探しまくったりする。どの方法も、効率が悪い。

必要な知識を見つけるための、もっと良い方法があるべきだ。そのような方法はユーザーのニーズに適応し、真の対話と強力な学習体験を通じて、継続的に知識の適切な推奨や提案ができるソリューションでなければならない。

エンターテイメント産業に倣って学習をもっと容易にする

NetflixSpotifyRedditのような、人力または自動化されたキュレーターのいるコンテンツアプリケーションが登場するまでは、視たい/聴きたい番組や音楽、ニュースなどのメディアを見つけるために、いくつものソースを訪ねる必要があった。しかし今では、自分が消費したいエンターテイメントやメディアを容易に発見でき、それらはユーザーの関心に基づいて個人化(パーソナライズ)されている。

多くの点で今のエンターテイメントサービスのやり方は、知識管理や学習開発のアプリケーションにも適した方式だ。

学習と知識の発達を支援する産業は、教育のアクセス性と適切性を高めるプラットホームであるべきだ。それは、知識の吸収と普及拡散が円滑にシームレスに行える場でなければならない。Netflixが、求めるエンターテイメントをすぐ届けてくれるように、私たちが必要とする知識と学習は、必要なところへ、必要なときに、簡単迅速に届くべきだ。

幸いにも、それを実現するテクノロジーが育ちつつある。人工知能(AI)と機械学習を利用するそれらのソリューションは、学習の過程とそのためのコンテンツを、集積、キュレート、そして個人化できる。

企業の成功は優れた学習文化を持つことにかかっている

“学習する能力と、学習を迅速にアクションに翻訳する能力は、企業に最強の競争力をもたらす”、GEの元CEO Jack Welchはそう言った。

データを見ると、Welchが正しいことが分かる。Institute of Corporate Productivity (I4CP)のCEO Kevin Oakesによると、業績の良い企業では、そうでない企業に比べて、社員たちが自分の獲得した知識を4倍多く同僚と共有している

重要なのは、雇用者が学習の文化を作ることだ。学習の文化(learning culture)とは、その中で知識がもっと自由に獲得され、吸収され、交換される社風だ。それを実現するためには、いくつかの障害を克服しなければならない:

  • 社内的には、いろんな物事のエキスパート(subject matter experts, SMEs)がいて、その人たちの心の中に知識がある。そんなエキスパートは、日頃の評判や担当業務から容易に見つけることができる。そして、そんな社内的エキスパートが持つ重要な知識を素早く明快に公開し、社内でその知識を必要とする者全員が共有できるための、場や方法が必要である。
  • 会社の外には、コンテンツが至るところにあるが、どのコンテンツが良質で、権威があり、適切であるか分からない場合がある。したがって、適切で有益な(そして安全な)外部コンテンツを集めて、社員たちがそれを消費できるための仕組みを作る必要がある。

これらの社内的および社外的なソリューションでとくに重要なのは、ただ単に学習のためのコンテンツを集めて、キュレートして、カスタマイズするだけのテクノロジーを採用するのではなく、それはまた、学習と共有のためのコンテンツを手早く作れるテクノロジーでなければならない。効率的な学習文化の構築のためには、それが重要だ。

これが知識のNetflixだ

AIを用いる新しいプラットホームは、知識労働者が必要とするコンテンツを、適切なタイミングで届ける。そういう理想的な学習と知識開発のためのソリューションは、とくに次の項目を重視する:

  • 集積: 適切な情報を一箇所に集めること。企業の学習管理システム(Learning Management System, LMS)やイントラネット、そして外部のリソースなどなどから。
  • キュレーション: AIと機械学習を利用して、そのときの状況に合った適切なコンテンツを適切なタイミングでチームにもたらすこと。
  • 個人化: 学習用コンテンツのリコメンデーションを、さまざまな要素の分析に基づいて、個人の特性やニーズに合った形で行うこと。
  • 創造: 多くの中小企業が持っている言葉にならない知識を、解放すること。そのための最良の方法は、社内にコンテンツライブラリを作ってコンテンツを迅速かつ便利に供給することだ。

次の10〜12年間で、人間の今の仕事の半分はなくなる、と言われている。だからこそ、学習の機会とその消化しやすい方法や仕組みを、すべての社員に提供することが、きわめて重要なのだ。

それはいわば、社内における知識の民主化だ。個々の学習機会が十分に個人化され、また社内的および社外的なコンテンツのアクセス性を増し、そして社員たちに成長のためのスキルと知識を与える取り組みを、強化しよう。それは、これまでの企業では、時間がない、人がいない、とかいって、おろそかにされていた分野だ。でも今や、どの企業でも、社員の能力開発は最重要の課題だ。

時間がなくても、人がいなくても、今ではAIと機械学習が助けてくれる。社員を入れ替えるのではなく、今いる社員の学習を前進させ、彼らの明日のキャリアパスを築いていける。

参考記事

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

エキスパートが足りないネットワークのセキュリティ、機械学習で監視を自動化するJASKがステルスを脱して$12Mを調達

このほど1200万ドルを調達した自動化ネットワークモニタリングのJASKが、今日(米国時間6/27)ついにステルス状態に終止符をうつ。

JASKが、機械学習を利用する同社のネットワークモニタリング自動化サービスに、スタートアップとしての将来性あり、と見るのは、企業のネットワークのセキュリティを担当するエキスパートが慢性的に足りないからだ。したがって企業がセキュリティの侵犯に遭遇しても、すぐにそのことが分かって対策をとれる人が十分にいない。

危機を自覚している企業と、自覚していない企業のうち、前者はJASKのような自動化サービスに頼ろうとする。そのサービスはネットワークをモニタし、会社が直面しているさまざまな脅威を見つけ、それらの対応プライオリティをCIOと彼/彼女のチームに告げる。

JASKを創ったGreg Martinはネットワークセキュリティのベテランで、同じくネットワークモニタリングのThreatStream(今のAnomali)を過去に創業した。

JASKの最新の資金調達ラウンドは、Dell Technologies CapitalとTenEleven Venturesが仕切り、これまでの投資家Battery VenturesとVertical Venture Partnersが参加した。

これに伴いDell Technologies CapitalのマネージングディレクターDeepak Jeevankumarと、TenEleven VenturesのマネージングパートナーMark HatfieldがJASKの取締役会に席を持つ。

同社によると、資金はデータサイエンティストの増員、製品開発のスピードアップ、そして機械学習の応用研究に充てられる。

“AIと機械学習がなければ、サイバーセキュリティは依然として解決の困難な問題だっただろう”、とJeevankumarは述べている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

データサイエンスとAIの作品でコンペを行うKaggleが国土安全保障省の空港のセキュリティ改善策懸賞に協力

空港のセキュリティを通ることは、どこでもうんざりする体験だ。しかも遅くて人に対し侵害的なプロセスでありながら、TSA(上図)には、脅威を未然に防いだという立派な実績があまりない。そこで国土安全保障省は、データサイエンスのソリューションのコンペを主催しているKaggleの協力を仰いで、空港のセキュリティシステムをより正確かつ効率的にするための、機械学習ツールの懸賞を開催している。

今年の早い時期にGoogleが買収したKaggleは、機械学習の難問の新しい視点による解を競う懸賞付きコンペを、定期的に主催している。今年の三度目のコンペであるこの危険検出アルゴリズムの改良というお題の懸賞は、賞金総額が100万ドルを超えている。

優勝賞金が50万ドルで賞金総額150万ドルのこのコンペの応募作品は、人間が身につけている危険物を正確に予見するアルゴリズムやシステムだ。機械学習を訓練するための画像データ集は、TSAが提供する。服をちゃんと着ていても武器の携行が分かる、という画像の集合だ。プライバシー保護のために、それらは実際の写真ではなくてTSAが作った画像だ。

コンピュータービジョンのスタートアップMatroidのファウンダーでCEOのReza Zadehはこう言う: “このコンペの結果から、実際にそんなシステムを作ったらどれほどのものができるか、その目安が分かるだろう。でも結果がどうであれ、現場の警備員が確実に危険物を見逃さないようにするための、補助的システムは絶対的に必要だ”。

これら17のボディゾーンのどれかに武器が隠されている可能性を検知するシステムが、コンペの課題だ。

もちろんTSAそのものが具体的に機械学習の問題を抱えているわけではない。むしろこのお役所の問題は、高価で複雑なマシンを自力でアップグレードする技術力がないことと、高価とはいっても、今の民間のデータセンターに見られる高度なGPUをまったく導入していないことだ。しかしGoogleやFacebookなどは、軽量級の機械学習フレームワークに重点投資し、エッジで〔各末端現場で〕ローカルに(インターネットなしで)使えるよう最適化しているから、TSAもそれらなら利用できるだろう。

そしてそれなら、コンペの応募作品がいきなり実際に空港の人体スキャンマシンで使われることもありえる。事前に訓練するほかに、いくつかの制約条件に合わせればよいだけの話だ。国土安全保障省も、真の評価のためには実地テストが必要だから協力する、と言っている。

Kaggleを作ったAnthony Goldbloomは、“エンドユーザーマシンに高速なGPUがないのは厳しいが、でも推論部分はヘビーな計算をしないからね”、と言う。

もうひとつの懸念は、危険検出を自動化した場合に起きうる、名誉毀損的な状況だ。旅行者が、身におぼえのない嫌疑をかけられるおそれがある。しかしTSAが作った訓練用画像のデータセットは、それを防ぐための工夫がしてある。

“TSAはそれに関してはいい仕事をしている。ボランティアを採用するときも、特定のタイプの人〔宗教、民族等〕が不名誉な誤認をされないために、十分なダイバーシティ(多様性)を確保するようにしている”、とGoldbloomは念を押す。

近い将来、応募者はGCP(Google Cloud Platform)を(使いたければ)使えるようになる。フレームワークも、KaggleがGoogleの企業だからといって、必ずTensorFlowを使わなければならないことはない。コンペの詳細はここにある。締め切りは12月だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

深層学習とは異なる機械学習モデル「Deep Binary Tree」を開発するエイシングが約2億円を資金調達

人工知能の活用と聞くと、先日トップ棋士に連勝して引退を表明したAlphaGoのDeepMindや、IBM Watsonなどがまず思い浮かぶだろうか。日本でもPreferred NetworksNextremerといったAIベンチャーのほか、さまざまな企業が機械学習モデルの開発やサービス提供に乗り出している。これらの企業で採用されている機械学習モデルの共通点は、ディープラーニング(深層学習)を利用しているところだ。

ところが、エイシングが提供する「Deep Binary Tree」は、ディープラーニングとは別のアルゴリズムを採用した、独自の機械学習モデルだという。そのエイシングが6月21日、テックアクセルベンチャーズが運営するファンドを引受先とする第三者割当増資により、1億9800万円の資金調達を実施したと明かした。

エイシング代表取締役CEOの出澤純一氏は、2007年、早稲田大学大学院修士課程在学中に、エイシングの前身となるベンチャー企業・ひらめきを創業。卸売・小売・医療機器販売事業のかたわら、水面下で人工知能の研究開発を進めていたそうだ。2016年12月、ひらめきからAI開発事業をスピンアウトする形でエイシングを設立。岩手大学准教授の金天海氏とともに開発した独自のAIアルゴリズム、Deep Binary Treeの提供を行っている。同社は2017年2月には、日本総合研究所が主催するアクセラレーションプログラム「未来2017」のピッチコンテストで日本総研賞を受賞している。

エイシング代表取締役CEOの出澤純一氏

Deep Binary Treeは、機械学習モデルではあるもののディープラーニングとは異なるアルゴリズムで動く、機械制御や統計解析を得意とするAIプログラムだ。ニューラルネットワークを使ったディープラーニングでは多数の情報を処理することが可能なため、画像認識や音声認識に強く、囲碁の対局など複雑なタスクにも対応できる。ただし学習精度を高めるためには、エンジニアが適切な学習データを与えたり、パラメーターの調整を行ったりする必要がある。また計算量も多く、時間もかかる上に、一度できあがったモデルで最適化されると動的な応用は難しくなる。例えば物をつかむ学習を行ったロボットアームが、缶をつかむ学習を強化して最適化されると、ビンをつかむことが難しくなってしまう、といったことが起こる。

Deep Binary Treeでは、ディープラーニングのような大量の入力には対応していないため、画像の解析などには使えない。しかし、機械制御や統計解析の分野では高精度な学習・解析が可能で、動的な追加学習もできるという。パラメーター調整が不要で学習速度も速く、学習アルゴリズムファイルが約40KB、獲得学習ネットワークが3MB〜50MBと軽量なため、IoTデバイスでのリアルタイム学習も可能。速く、小さく学習して、新たな情報をどんどん覚え直して修正していく、というイメージだ。エイシングでは「ディープラーニングは認識をつかさどる頭頂葉的な働きに近く、Deep Binary Treeは反射的な反応ができる小脳的な働き」と説明している。

ディープラーニングでは発生しやすい過学習問題(ある特定の学習データにモデルが特化してしまうことで、それ以外の新たなデータに対して正しい解を出せなくなってしまう問題)や局所解問題(ある範囲内で収束した解を最適解としてしまうことで、本来の最適解に到達することができなくなってしまう問題)の影響も、Deep Binary Treeでは受けることがない。エイシングによれば、ある機械メーカーで、ディープラーニングによる解析で問題があり、行き詰まっていたところをDeep Binary Treeで解決した例もあるそうだ。

Deep Binary Treeがどういった用途で採用されているのか、出澤氏に聞いてみたところ、機械制御分野では「自動車メーカーのエンジン制御ユニット(ECU)の制御チップの最適化や流体力学シミュレーターに利用されている例がある。また、センサーのオートキャリブレーション、ファクトリーオートメーションでの異常検知や、職人の勘をエキスパートシステム化するための動作データ学習などでも使われている」とのこと。統計解析分野では「金融業界で株価予測や与信調査に採用されたり、コールセンターのオペレーターの需給予測や、本の増刷冊数の予測などにも使われている例がある」ということだ。

こうした大手企業向けのカスタマイズ提供のほかに、エイシングでは、2017年3月からSaaS版Deep Binary Treeも提供を開始している。また出澤氏によれば「AIチップ(SoC:System on Chip)の開発も各社と共同で進める準備をしている」ということだ。海外からの引き合いもあるそうで「グローバルな半導体メーカーや、ヨーロッパの自動車メーカーからも声がかかっている」と出澤氏は言う。

今回の調達資金について、出澤氏は「研究職・技術職の人材確保と営業力の強化、研究開発のさらなる強化に投資していく」と話している。

機械学習に“本物の芸術らしさ”を教育訓練できるか?、二人の学部学生がそんなGANに挑戦

Generative Adversarial Net(GAN)の人気は今がピークなのか、よく分からないが、1年前に比べると、これをいじくっている人びとの数が相当増えている。そしてそれは、すごいことだ。ウィリアムズ大学の二人の学部学生が機械学習の初歩を独学し、そして今やほとんどメインストリームの技術であるGANに関する論文を50近く読んでから、ある教授と一緒に美術作品を生成するGANに取り組み、ほぼ1年で完成させた

コンピューターサイエンスの学生だったKenny JonesとDerrick Bonafiliaは今年の初めごろ、Martin ArjovskyのWasserstein GAN(WGAN)に出会った。ベーシックなGANの安定性を高めたWGANは、アートの様式(スタイル)の学習や新しいアートの生成により適していることが明らかになった。

GANの基本構成要素はジェネレーター(generator, 生成部)とディスクリミネーター(discriminator, 差別部)で、両者が敵対的に対話することによって動作する。ジェネレーターは人工的な画像を作り、それをディスクリミネーターに本物と思わせようとする。同時にディスクリミネーターは、偽の画像をできるだけ多く排除しようとする。

ジェネレーターとディスクリミネーターが対決

しかしGANは、不安定なことで悪名高く、まったく使いものにならないこともある。Wassersteinが改良したGANは、アートと分かるようなものを作り出す程度の安定性はある。そこでチームはWikiArtのデータベースからラベル付きの絵画10万点を取り出し、訓練用の素材として使った。

そのモデルの性能を最大化するためにチームは、ディスクリミネーターに新たな部位を加え、絵画のジャンルを予見できるようにした。またモデルが、生成される画像の“本物性”と“偽物性”にこだわりすぎるのを避けるため、予備訓練によりグローバル条件を加えた。これによりディスクリミネーターは、アートの様式の違いに関する理解を、維持できるようになった。

“難しいのは、成功の判定方法だ”、とJonesは語る。“そのための普遍的な測度はあまりない。それはアートに限った問題ではないが、芸術作品は通常の画像認識のように本物偽物の区別が明瞭でないから、判定がものすごく難しい”。

しかしとりあえずそのプロジェクトは成功し、JonesとBonafiliaは秋になったらソフトウェアエンジニアとしてFacebookに就職する予定だ。Bonafiliaの考えでは、もっと強力な計算機資源を使えたらプロジェクトの性能は大きくアップするだろう。Facebookには、強力なコンピューターがふんだんにあるはずだ。

  1. 0ceh4q72pq9mmiucc.png

  2. 0kgzb_heat-qv0skb.png

  3. 0itdky-dc2mclrun8.png

アートは今、機械学習で人気の高い素材だ。Jonesによるとその理由は、ビジュアルでしかも分かりやすいからだ。Facebookは昨年の秋に、モバイル上のリアルタイムのスタイル変換(style transfer)で関心を喚(よ)んだ〔例: 葛飾北斎のスタイルをふつうの写真に移送(transfer)する〕。JonesらGANGoghチームの作品と違ってStyle Transferは、新しいアートを作り出すのではなく、既存のストリームに(別のスタイルで)変更を加える。

スタイル変換は映画で使われている…女優のKristen Stewartは今年の1月に共著したペーパーで、彼女の短編映画Come Swimへの機械学習の応用を説明している。機械が生成した新しい作品が現代美術の美術館に展示されるのはまだ早いと思うが、今後本物のアーチストがモデルづくりに取り組んだそれらを、美術館はどう扱うか。その問題を歴史上初めて指摘した文献がこの記事だぞ、と自慢しておこう。

〔GAN関連日本語訳記事:(1)(2)(3)(4)。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

GoogleがTensorFlowによるオブジェクト検出APIをリリース、機械学習のデベロッパー利用がますます簡単に

Googleが今日(米国時間6/16)、TensorFlowのオブジェクト検出APIをリリースする。これによりデベロッパーや研究者は、画像中のオブジェクトを容易に認識できるようになる。Googleは今回とくに、単純性とパフォーマンスを重視している…今日リリースされるモデルはすでにベンチマークの成績も良く、研究用にいつも使われていたものだ。

この検出APIに含まれているひとにぎりほどのモデルは、インセプションに基づくヘビーデューティーな畳み込みニューラルネットワークや、それほど高度でないマシンで使う単純化されたモデルなどだ…そのように最適化されているシングルショットの検出システムMobileNetsは、スマートフォン上でリアルタイムで使用できる。

今週初めにGoogleはそのMobileNetsを、軽量なコンピュータービジョン用のモデルの系統として発表した。これらのモデルは、オブジェクト検出や顔認識、ランドマーク認識などに利用できる。

今のスマートフォンは大型デスクトップやサーバーほどの計算資源がないから、デベロッパーには二つのオプションがある。機械学習のモデルをクラウドで動かすか、または、モデルを単純化することだ。しかし前者にはレイテンシーがありインターネットが必要だから、大衆化は無理だろう。後者は逆に、広範な大衆化のためにパフォーマンスで妥協するのだ。

GoogleとFacebookとAppleは、こういったモバイルのモデルに注力している。昨秋Facebookは、スマートフォン用のモデルを作るためのフレームワークCaffe2Goを発表した。それの最初の大型実装が、FacebookのStyle Transferだった。Googleはこの春のI/Oで、単純化された機械学習フレームワークTensorFlow liteをリリースした。さらにAppleは先日のWWDCで、機械学習のモデルをiOSデバイスで使いやすくするためのシステムCoreMLを打ち出した。

GoogleはFacebookやAppleと違って、パブリッククラウド上でいろんなものを提供しており、コンピュータービジョンもすでに、スケーラビリティのあるコンピュータービジョンサービスとして Cloud Vision APIを提供している。

今日発表されたTensorFlowオブジェクト検出APIはここにある。それを誰でも簡単に試せるし実装できるものにしたいGoogleは、そのキットのパッケージに重みと、Jupyter Notebookを含めている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習を利用して見込み客別にもっとも有効なピッチを営業に教えるHighspotが$15Mを調達

営業はいつも大量のノルマを抱えているが、でも最新のテクノロジーは、それらが従来よりももっと売れるようにしてくれる。

それともあなたは、うちのピッチ(売り込み)は完璧、と思っているかな? Highspotは、それは違う、と教えてくれる。まあそれが、Highspotのピッチだけど。

Highspotのソフトウェアは、見込み客とのさまざまなコミュニケーション、たとえばプレゼンテーションやケーススタディ、教育訓練ビデオなどを分析する。そして、それらの有効性を表すデータを提供する。

その分析結果が売上増に導くなら、それは多くの企業にとって大きな売上機会になる。そこでVCたちは、Highspotが今後ビッグビジネスになることに、さらにもう1500万ドル賭けている。

そのシリーズBのラウンドをリードしたのはShasta Venturesで、Salesforce VenturesとMadrona Venture Groupが参加した。シリーズAは、2014年の1000万ドルだった。

ShastaのマネージングディレクターDoug Pepperはこう語る: “Highspotは、営業を支援するソフトウェアの市場にAIや機械学習のパワーを持ち込んだ。彼らのプロダクトとチームと顧客評価技術は、長年営業を悩ませてきた問題を解決する。その問題とは、その見込み客に対して適切なコンテンツを適切なタイミングで提示して、営業努力をを成功に導くことだ”。ワンパターン、行き当りばったり、出たとこ勝負の営業は、古いし、効率も最悪だからね。

CEO Robert Wahbeの言い方はこうだ: “Highspotは、営業が頭の中につねに確実に(顧客・見込み客別に)適切な情報を持ち、顧客に提示する適切なコンテンツを確実に持ってる状態を作り出し、維持する”。同社の現在の有料顧客(月額会費制)は、中小企業と大企業合わせて100社ぐらいだ。

彼は、HighspotがCRMと競合する製品だとは見ていない。むしろ、CRMを“補完するプロダクトだ、と。とくに、顧客がSalesforceのプロダクトとHighspotを併用してくれることを、彼は期待している。

同社が拠を構えるシアトルについてWahbeは、“今は一種のブーム・タウンだね”、と言う。同市のスタートアップシーンは、今や“沸騰している”そうだ。

将来の買収については、彼は言葉を濁(にご)した。そして、“でも上場企業にはなりたいね”、これが彼の考える同社の将来像だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

大量の既存コードで訓練されたAIがプログラマーにオートコンプリートを提案するCodota、Khoslaが$2Mを投資

GitHubを使うようになってデベロッパーのワークフローは抜本的に変わった。コードをアクセスしやすいプラットホーム上に集積することによって、プログラミングのやり方が急速に変わった。そんな状況を受けてイスラエルのCodotaは、これまで無視されることの多かったデベロッパーコミュニティのワークフローをさらに最適化したい、と考えている…マシンインテリジェンスを利用して。同社の自動補完(オートコンプリート)機能を使えば、良質なコードを短時間で書けるようになる。同社はこのほど、Khosla Venturesから200万ドルのシード資金を獲得したことを発表した。

CodotaはEclipsのようなIDEと併用して、そのインテリジェントなコード補完機能を利用する。それは、「あなたが意図するものはこれではないですか?」と短い例示をくれるのではなく、もっと大きなコード集合をリコメンドできる。

協同ファウンダーのDror WeissとEran Yahavは、GitHubやStackOverflowにあるオープンソースのコードを利用してCodotaを作った。その公開コードのすべてを機械学習のモデルに食べさせて、コードブロック全体の高いレベルの意味を認識できるようにした。

テルアビブの本社におけるCodotaのチーム

プログラミング言語は一般言語と同じ構造を共有している部分が大きい。たとえば、語の限りなく多様な並べ方によって、考えや感情を表現する。また、同じコマンドでもコード中でいろんなやり方で表現できる。だからCodotaにとっては、コードがやってることに関する大局的な理解がとても重要だ。コードのミクロな像ではなく、マクロな像を理解することが重要なのだ。

もちろん、自然言語とコードが似ているのは、あるところまでだ。Codotaのチームが説明してくれたところによると、自然言語処理では、意味は語の近辺の複数の語を見て判断する。それに比べるとプログラムはもっと構造性があり、語がどこにあるかによって語の意味が違うことは少ない。だからCodotaはテキストで訓練するだけでなく、プログラムの動作/振る舞いにもフォーカスした。

Codotaを使うとスピードと正確さが向上するだけでなく、Codota自身の発見や教育にも助けられる。Codotaは何百万ものAPIの実装で訓練されているから、ベストプラクティスをデベロッパーに提示できる。IDEの横にCodotaを開いておくと、コード中のおかしい箇所を高輝度表示し、モアベターな代案を示す。その教えは、ライブラリの原作者のコードから直接引用したものが多い。

同社の収益源は、Codotaの利用を、そしてもちろん自分のコードを、社外秘プライベートにしておきたい企業からの使用料だ。今、対応言語はJavaだけだが、言語は今後すこしずつ増やしていく。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AWSのRekognition APIはセレブを認識する――Amazonの機械学習がさらに進歩

Amazon RekognitionはAWSが提供する深層学習を利用した画像認識、分析のサービスだ。今日(米国時間6/8)、Rekongnitionがさらに賢くなった。このサービスは政治、スポーツ、ビジネス、エンタテインメント、メディアなどさまざまな分野の著名人の顔を認識できるようになった。

私はGoogle検索で見つけたいくつかの顔写真(コメディアンのコナン・オブライエン、歌手のジャスティン・ビーバー、知名度さまざまな俳優、女優など)をRekognitionに入力してみたが、すべて認識された。GoogleとMicrosoftが提供している同種のサービスと同様、デベロッパーはAPIを通じてRekognitionを利用するが、AWSのアカウントを持っている読者はこちらでデモを体験できる。

Rekognitionはセレブの顔認識に成功すると、可能な限り、IMDBのページにリンクする(IMDBはAmazonの子会社なので当然だ)。

現在のRekognitionは顔認識だけでなくユーザーが提供するデータに基づいて画像の文脈を認識し、被写体の感情、人口動態的分類ができるが、新機能によってサービスがさらに強化された。

ちなみにGoogleのVision APIには現在まだセレブの顔認識機能はないが、MicrosoftのComputer Vision APIにはある。Microsoftによれば20万人の著名人の顔認識ができるということだ。私がテストしたところでは、Microsoftのサービスの顔認識精度はAmazonとほぼ同様だったが、画面に写っている他の対象についても情報が提供され、これに基づいて写真のキャプションを作ることができた(「スーツにネクタイのジャスティン・ティンバーレイクがカメラに向かって笑っている」など)。

〔日本版〕Rekognitionの画像中の物体の認識、表情分析などの例。MicrosoftのComputer Vison APIはDescriptionで内容に関するキーワードを返してくる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook、機械学習の訓練時間を大幅に短縮――視覚的認識処理に大きな進歩

スピードが問題となる検索テクノロジーの世界では深層学習モデルの訓練に割く時間は1分ずつがきわめて貴重だ。今朝(米国時間6/8)、Facebookは論文を発表し、この問題に対する独自のアプローチを紹介した。Facebookによれば、ImageNetのResNet-50深層学習モデルの訓練時間を29時間から1時間に短縮することに成功したという。

Facebookがこのようにドラスティックな進歩を遂げることができた理由は、画像認識訓練をこれまでより多数のGPUに分散して並行処理させることに成功したからだ。Facebookはこれを「ミニバッチ」と呼んでいるが、以前のベンチマークでは256種の画像を8基のGPUに分散処理させていた。今日発表された論文のケースでは、ミニバッチのサイズが大幅に拡張され、8192種類の画像を256基のGPUに分散させている。

われわれ一般ユーザーはGPUボードを256枚も持っていないが、大企業や十分な資金のある研究グループならその程度は持っているのが普通だ。処理をこれほど多数のGPUに分散させ、精度を大幅に犠牲にすることなく訓練時間を著しく短縮することに成功したのであれば影響は大きい。

Facebookチームは今回の方法では、初期の学習率を落としているが、これは従来バッチのサイズが大きいと処理が不可能となる問題を避けるためだった。ここでは数学的詳細にはあまり立ち入らないが、ResNet-50では確率的勾配降下法(stochastic gradient descent)が用いられている。

確率的勾配降下法で重要となる変数の一つは学習率(learning rate)だ。学習率は訓練を行う際のステップサイズを決定する。分散処理のサイズが変化すれば学習率も変えなければならず、この部分を最適化できるかどうかが最終的効率にとって決定的だ。

機械学習のデベロッパーはつねに妥協を強いられる。精度をアップしようとすれば学習させるデータセットのサイズを大きくしなければならず、訓練に必要な時間が増大する。当然コンピューティング・リソースも多く必要となる。その意味で、機械学習モデルは精度、スピードのいずれかを優先するデザインとすることが可能だ。しかしいくら20秒で学習が完了しても精度が悪くては役に立たない。

他の多くの研究プロジェクトとは方向を異にし、FacebookのFAIR ( Facebook AI Research)とAML(Applied Machine Learning)の両チームは密接に協力しながら並行処理のサイズを拡大することに努めてきた。Facebookのチームは今回の論文を出発点として、ここで明らかになった問題点をさらに研究していく計画だ。

FacebookのAMLチームのメンバー、Pieter Noordhuisは「今回の研究では答えよりむしろ質問を増やす結果になった。訓練用画像数が8000のあたりにティッピングポイントがあり、これを超えると再びエラー率が急増するが、その理由が分からない」と述べている。

深層学習のフレームワークはFacebookが開発してオープンソース化したCaffe2が用いられた。今回の実験はFacebookが開発したBig Basin GPUサーバー上で実行された。さらに詳しく知りたい場合、Facebookが発表した詳細はこちら

画像:Toast and Jam Films

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Googleスプレッドシートが自動でグラフ作成――機械学習で「探索」が賢くなった

今日(米国時間6/1)、Googleスプレッドシートがさらに賢くなった。機械学習を利用したExplore(探索)の機能が追加されたのは昨年だが、これによりデータについての自動的な分析や自然言語で質問が利用できるようになった。今回追加された新機能ではさらに多様なグラフが自動的に作成される。ユーザーはスプレッドシート右下隅の「探索」ボタンをクリックするだけでよい。スプレッドシートは自動的に「Aシリーズ商品の売上の棒グラフ」などを作成してくれる。

この機能を実現しているのはすでに「探索」で利用されている自然言語理解のテクノロジーだ。 スプレッドシートはこれまでも自動的にグラフを作成してくれたが、これはシート内にグラフにできるデータセットが存在する場合に限られた。新しいExploreでは質問に対する回答にグラフが含まれるようになった。

この新機能でGoogleドキュメントやプレゼンテーション内にエンベッドされたスプレッドシートとの同期を取るのが簡単になった。これまでも貼り付けたグラフの同期を取るのはクリック一つで可能だったが、今後は表そのものを同期できる。

その他に印刷機能も改良されている。われわれはときおりどうしてもシートを紙に印刷する必要に迫られる。そうしたときに新しいシートにはいくつかのオプションが追加された。また新しい統計関数も利用できるようになった。CHISQ.INV.RTというのは「カイ2乗分布の右側確率の逆関数の値を求める」関数だそうだ(なんのことやら私には分からないが…)。キーボード・ショートカットもいくつか追加された。

〔日本版〕Exploreは日本語版ではシート右下の「探索」。日本語版「探索」にはグラフの自動作成機能はあるが、自然言語による質問はまだ利用できない。「ファイル→設定」メニューから言語に「英語」を選ぶと自然言語による質問が利用可能になる(下図)。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

機械学習による画像認識とAR(拡張現実)を結婚させて企業のツールにしたいBlipparが車の車種年式当て技術を発表

自分は、車をよく知ってる方だ、と思う?

でも、Blipparの今度の機械学習技術は、どんなに車通(つう)の人より、すごいかもしれない。この拡張現実/ビジュアル検索企業が今日、自動車を認識する技術を発表したのだ。

BlipparのAIは、2000年以降に作られたアメリカ車のメーカー、車種、そして年式を当てる。ただしその車の現在の速度が15mph以下である場合。

Blipparは最初、企業やパブリッシャーのためのARプラットホームとしてローンチした。Blippと呼ばれる小さなタグを使って、企業はケチャップの瓶のラベルとか雑誌の中の広告などのコンテンツを指定する。ユーザーがそれをスマートフォンのカメラでスキャンすると、その上に拡張現実のコンテンツが現れる。

その後同社は方向を変えて、ビジュアル検索に注力した。Googleの検索は言葉(その物の名前など)を知らないと検索できないが、ビジュアル検索なら、花やファッションなどをカメラで覗くだけでよい。

同社は昨年まで、テーブル、椅子、コップなどなど一般的な物のビジュアル検索を作っていたが、それによって、もっと特定の物をビジュアル検索できるための技術的基盤を獲得した。

その最初の挑戦が、自動車の認識だ。

車種当てで遊んでみたい人のためには、Blipparアプリにこの技術が導入される。メーカー、車種、年式だけでなく、その車の評判や360度写真も見れる(車内と車外両方)。でも同社としての本格的なビジネスは、同じく今日ローンチしたAPIだ。

中古車販売店や保険屋さんは、この自動車認識技術を自分のアプリに組み込み、ビジネスに利用できる。店員や営業は、自分の脳に大量詳細な車種知識がなくても務まるだろう。

現在の認識精度は97.7%以上で、Blipparの主張では、ほとんどの人間の目視判断能力を超えているそうだ。

来年はBlipparから、もっといろんな商品種や業種用の認識技術/APIが登場するだろう。CEO Rish Mitraによると、次はファッションで、もうすぐ出るそうだ。

Crunchbaseによると、Blipparはこれまでに、Qualcomm VenturesやKhazanah Nasionalなどから総額9900万ドルを調達している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

SoftBankのNvidia株は時価40億ドルと報道――Vision Fundのプレスリリースから推定

先週末、日本のソフトバンクはVision Fundの最初の資金調達をクローズしたことを発表した。今回の出資コミットメントの総額は930億ドル〔約1兆円〕で、出資者にはApple、Qualcomm、Foxconnらが並んでいる。同時にソフトバンクがすでにNvidiaの株式を所有していることも何気なく発表されていた。

今日(米国時間5/24)のBloombergの記事はソフトバンクが所有するNvidia株式は時価40億ドル相当と推測している。これは持ち分が4.9%とした場合の価格で、Nvidiaの第4位の株主となる。

土曜日に発表されたVision Fundのラウンドのクロージングに関するプレスリリースには、同ファンドが「SoftBank Groupが買収した(あるいは買収が承認された)投資対象を買収する権利がある」旨書かれている。

この一節には投資対象としてNvidiaに並んでARMの24.99%の株式(昨年ソフトバンクが310億ドルで買収している)、 OneWeb、SoFiなども記載されていた。

われわれの取材に対し、ソフトバンクの広報担当者はNvidiaへの投資あるいはBloombergの記事についてコメントすることを避けた。

TechCrunchが最近報じたとおり、NvidiaのGPUは機械学習の爆発的な発達を支えるハードウェアの重要な柱となっている。AIはソフトバンクのVision Fundがもっとも力を入れている分野の一つで、孫正義CEOは、今年初めに、「次の30年はスーパー・インテリジェントなAIの時代になる」という見解を明らかにしている。孫CEOによれば、このことが1000億ドルのファンドをこれほど大急ぎで組成する理由なのだという。そうであれば、Nvidiaに大口投資を行ったのもこのビジョンの一環なのだろう。

そうであるにせよ、ソフトバンクが近年、巨額の投資を行っていることは事実だ。インドのフィンテックのユニコーン企業、Paytmに14億ドルを投資したことが発表されている。ロンドンのVRスタートアップ、Improbableが5億200万ドルを調達したラウンドではリーダーを務めた。、また50億ドルを中国におけるUberである配車サービスのDidi Chuxingに、17億ドルをOneWeb,に追加投資している(ソフトバンクは衛星コミュニケーションのOneWebに10億ドルを昨年出資した)。

NvidiaやARMの持ち分を含めてソフトバンクの投資のかなりの部分は直ちにVision Fundに移管されるだろう。ファンドはまたWeWorkにも投資する可能性がある。

Vision Fundは巨大だが、孫CEOは「普通のファンドだ」と語っている。なるほど規模も前代未聞のサイズだが、ビジネスモデルも詳しく検討する価値があるだろう。孫氏は今年初め、Bloombergのインタビューに答えて 「これらの会社のに対するわれわれの投資の大部分は20%から40%の利益をもたらすと同時に、筆頭株主、取締役会メンバーとして会社のファウンダーたちと将来戦略について話合うチャンスを与えてくれる」と語っている。

どうやら孫氏は金で買える最上のスーパー・インテリジェントAIの能力を最初に試せる少数の人間の1人になりそうだ。

画像: David Becker/Getty Images/Getty Images

〔日本版〕上場企業の株式取得にあたって情報公開義務が生じるのは5%であるところ、ソフトバンクのプレスリリースにはNvidiaの株式を所有していると記載されていたものの、これまで詳細が公開されていなかったことからBloombergは4.9%と推定したもの。なおVison Fundに対する出資者はソフトバンク・グループ他、以下のとおり。 SoftBank Group Corp (“SBG”) 、Public Investment Fund of the Kingdom of Saudi Arabia (“PIF”)…Mubadala Investment Company of the United Arab Emirates (“Mubadala”)、Apple Inc. (“Apple”)、Foxconn Technology Group (“Foxconn”)、Qualcomm Incorporated (“Qualcomm”)、Sharp Corporation ("Sharp")。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Airbnbが社内にデータサイエンス大学を開校、非技術系一般社員も対象

テクノロジー企業と、最近ではますます多くの一般企業が、データサイエンティストの不足にあえいでいる。どの企業にも独自の雇用と教育の戦略はあるが、Airbnbはさらに一歩進んで、独自のコース番号までつけた、大学みたいな社員教育事業を立ち上げた。

そのData UniversityでもってAirbnbは、全社員を“脱データ音痴”するつもりだ。CourseraやUdacityのような一般的なオンラインコースでは、データとツールに関するAirbnb独自のニーズが満たされない。そこで同社はコースの設計から自社で取り組み、社員のニーズに合わせてそれらを3段階のコース番号レベルに分類した(下右図)。

100のレベルは、人事や企画の人たちも含め、全員が受講できる「データに基づく意思決定」。

中級クラスはSQLやSuperset(Airbnb製オープンソースのデータ可視化ツール)を勉強して、一般社員でもプロジェクトマネージャーになれる。上級のPythonや機械学習のコースでは、技術系社員がスキルをブラッシュアップする。

2016Q3に立ち上げたこの事業により、同社のデータサイエンスツールの各週のアクティブユーザー数がそれまでより30〜45%増えた。同社の500名の社員がすでに、少なくとも1つのクラスを受講している。まだ、全世界22のオフィスに全展開してはいない。

Airbnbはこれまで4度、データサイエンスの教育事業をトライしている。分析実験チームのプロダクトマネージャJeff Fengによると、その経験から得られた重要な教訓が三つある:

  • 誰もがとっつきやすいカリキュラムを設計すること
  • 上級管理職が部下部員に対してデータ能力の重要性/必要性を喚起すること
  • 成功を測る方法を見つけること

ほかの企業が社内でデータサイエンスのコースを立ち上げるときも、これらが参考になるはず、とFengは言う。この事業は、かつてGoogleを他から大きく差別化することに貢献した社内クラスを参考にしているようだ。Googleの場合は技術系のコースと一般コースの両方があり、データの視覚化も教えるし、簿記も教える。

Airbnbは、その初級データサイエンスクラスの開設にあたって、それが技術者だけを対象とするものではない、と訴え、そして、より本格的に技術を学びたい者のために今後もっと上のレベルの上級クラスをひらく、と声明している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook本社で犬種判別人工知能に挑戦――フリードランダーのJudah vs. the Machinesビデオ

人工知能を作るにはまずいろいろと教え込まねばならない。犬種を判別させるなら、見たところボロ雑巾みたいに見える犬も何という犬種なのか教える必要がある。

Judah vs. the Machinesシリーズはコメディアンで俳優のジュダ・フリードランダーが「人類を救うために人間が世界のトップ人口知能と対決する」という番組で、今回はFacebookの本社に応用機械学習チームを訪れた。

フリードランダーは サタデー・ナイト・ライブの内幕パロディーとして人気を博した NBC放映の30 RockシリーズのFrank Rossitano役が有名だ。フリードランダーはメンロー・パークのFacebook本社、1 Hacker Wayを訪問し、世界最大のテクノロジー企業で人々が働く様子を観察した。無料ランチなどFacebookの福利厚生を十分体験した後、フリードランダーは機械学習チームと対決した。といってもフェイクニュースやFacebook Liveのライブ配信に不適当なコンテンツを判別するために現に用いられている人工知能ではない。犬の種類を判別するコンピューター・ビジョンだ。

フリードランダーは応用機械学習チームの責任者、ホアキン・カンデラ(Joaquin Candela)からFacebookでの人工知能の利用について説明を受けた。自然言語理解についての会話ではFriedlanderは自分のアイディアをいくつか述べた。その後、犬種当て人工知能と対決したが、その様子は上のビデオご覧いただきたい。

FacebookのAIはもちろん完全ではない。しかし犬種の見分けに関してはフリードランダーを上回ることに成功した。おかしなことにフリードランダーとAIの双方を迷わせた犬種はプーリだった―マーク・ザッカーバーグの愛犬、Beastで有名な犬だ。 Facebookがなぜ人工知能に犬を判別をさせようとしているのかは不明だが、数秒で曲名を教えてくれるShazamのようなサービスが人気なら、犬を判別するバージョンがあってもいいのかもしれない。

Judah vs. the Machinesの他のエピソードはこちらから視聴できる

〔日本版〕ビデオでは0:48あたりから普段見る機会が少ないFacebookキャンパスが紹介されている。1:33から無料カフェテリアや広場に置かれたピンポン台などが紹介される。2:30から機械学習のチーフ、ホアキン・カンデラの話を聞いている。カンデラは「人工知能でFbの投稿を翻訳するのは難しい。きわめて多種類の言語が用いられている上にセンテンスにいきなり絵文字が使われたりする」と困難さを述べるとフリードランダーは「それでは絵文字言語を作ったらどうか?」と半分真剣な提案。「どの投稿を無視したかも情報となる」という説明に「Facebookはわれわれをスパイしているのか!」とジョーク。3:30から犬種判別チャレンジ。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

ニューラルネットワークに塗料の色の名前をつけさせたら、不可解だけど笑える結果ばかり!

今や、どんなものでも機械学習にやらせようとしている。しかも機械学習は、なんでもあっさりとやってのける。でも、そうでなかった仕事もある。それは、ニューラルネットワークを使って、塗料の色に気取った名前…“春の雨”、“港の霧”など…をつける、という試みだ。だって、そのニューラルネットワークが命名した“dorkwood”色や“stanky bean”色の塗料を使って、自分の家を塗装したい人なんか、いるわけないもんね?。〔訳注: どちらもワイセツな含意があるので日本語訳を控えます。〕

塗料の色の命名に機械学習を利用しようとして、今回失敗した研究者Janelle Shaneは、フルート奏者としてニューラルネットワークと“共演”することも、ときどきあるそうだ。

そのニューラルネットワークは、さまざまなRGBの値に対応する7700種の色の名前を教育訓練され、色と言葉とのあいだにある秘密の関係を会得した(はずだった)。

最初のうちは、まあまあだった。システムはどうやら幼稚な論理を編み出したようだが、色の名前として、実在する言葉を選んでいない:

上の3つめの例で”a”が抜けているのは、紫っぽい色調を表しているのだろうか? 三回登場する”Caae”は、共通する中間調の明度に対応しているのか? それはわれわれには分からないけど、ニューラルネットワークの中で立派な芸術的文法が生まれようとしているのかもしれない。

何度もデータを与えると、ニューラルネットワークはだんだんクリエイティブになり、独創的な色名を作り出すようになった。ホームセンターで売ってる塗料の、“greige”(生成り色)とか“royal purple”(王室紫)みたいな、平凡陳腐なやつは一つもない:

Dondarf? Burble Simp? Bank butt? Catbabel? … 独創的すぎる!

Bunflow? Rose Hork? Dope? …Turdly? … なんと思い切った名前!

StargoonやCaring Tan、Snowbonkなんかは、ぼくも本当に気に入ったけど、でも彼女のクリエティビティに、早産は禁物だったようだ。もっと気長に、教育訓練すべきだね。それまでは、Shaneの貴重な仕事をTumblrに再投稿してその回数を増やし、彼女への感謝のシルシにしよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))