Facebookの人工知能研究所がオープンソースで公開したfastTextは深層学習の遅さを克服したテキスト分類ソフトウェア

facebook-search

Facebookでは毎日、何十億ものコンテンツがシェアされている。その膨大な量とペースに漏れなく遅れなく対応できるためにFacebookは、さまざまなツールを駆使してテキストを分類している。多層ニューラルネットワークのような従来的な方法は正確だが、ニューラルネットワークは訓練が大変である。

分類に正確さと容易さの両方をもたらすために、Facebookの研究部門Artificial Intelligence Research(FAIR)ラボはfastTextというものを開発した。そして今日(米国時間8/18)はそのfastTextがオープンソース化され、デベロッパーはどこででも、そのライブラリを使ったシステムを実装できることになった。

fastTextはテキストの分類と、語のベクタ表現の学習の両方をサポートしている。後者には、bag of wordssubword information(部分語情報)*などのテクニックが用いられる。skip-gramモデルに基づいて語は文字のn-gramのバッグとして表現され、それらは各文字のn-gramを表すベクタで表現される。〔*: 部分語情報、‘あかい’なら、あ、か、い、あか、かい、などが部分語。〕

“カテゴリー数のとても多いデータベース上で効率的であるために、fastTextは階層的な分類を用いる。そこではさまざまなカテゴリーがフラットなリストではなく二分木構造に編成される”、FacebookのArmand Joulin, Edouard Grave, Piotr Bojanowski, Tomas Mikolovらがドキュメンテーションでそう述べている。

bag of wordsのbag(バッグ)は、配列やリストや木(ツリー)などなどと並ぶコンピューター上の一般的なデータ構造の一種で、名前(“袋”)の名のとおり、データに順序性がなく、この場合は各語の出現頻度を各語が情報として持つ。“語(words)”は多次元空間として表現され、クェリとカテゴリー分けされた語の集合との関係を線形代数を使って計算する。コンピューターにテキストを投じたとき、それはゼロからのスタートになる。それに対して人間の大人はすでに文法知識を持ち、どこが語の始まりで終わりかを知っている。コンピューターの計算力は強力だが、そのままでは“I love TechCrunch”と“CrunchLove iTech”の違いを認識できない。そこでこのような方法では、ことばに対する定性的な分析を、統計的手法などにより、定量的な分析へと強制的に変換する。

そして数を操作する処理が主体なので、fastTextは従来の深層学習の方法(多層ニューラルネットワーク)よりも速い。下図は、Facebookが作った比較表だ。実行時間が「秒」の単位なのは、fastTextだけである:

fastTest

fastTextは英語だけでなくドイツ語やスペイン語、フランス語、チェコ語などに対しても使える。

今月の初めにFacebookは、クリックベイトをやっつけるアルゴリズムを同社のNewsfeedに実装した。そのアルゴリズムは言葉以外の要素(繰り返しパターンなど)も点検するから相当複雑だが、デベロッパーはfastTextを利用して同様のツールを自作できる。

Facebookによると、fastTextなら、“ふつうのマルチコアのCPUを使って、10億語を10分弱で学習できる。また、50万のセンテンスを30万あまりのカテゴリーに5分弱で分類できる”、という。これはすごい、かもしれない。

今日(米国時間8/18)からFacebookのfastTextは、GitHub上で入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIが目に見えないUIを実現する

humanrobotoverlap

【編集部注】著者のMartin Legowiecki氏はドイツ在住のクリエイティブテクノロジーディレクター。

私たちと環境の相互作用は、例えばあなたがお馴染みのバーに入って、バーの椅子に腰掛ける前にはもう好みの飲み物を手にしていることができている、という位に簡単であるべきだ。バーテンダーはあなたを知っていて、どの飲み物が好みかを正確に把握しているし、まさにいまドアを開けて入ってきたことも知っている。明示的な「相互作用」はなくても、それは多くの相互作用から成り立っている。

私たちが機械と対話する方法、そして機械が私たちと相互作用する方法を、私たちは再定義している最中だ。AIの進化は、機械=人間そして人間=機械の新しい対話手段を可能にする。伝統的なインタフェースは、単純化され、抽象化され、そして隠される ‐ それらは背景に溶け込み全ての一部となる。究極のUIはUIではない。

誰もがゲームに参入してきているが、成功はまだわずかである。私たちは、考える方法を基本的に変える必要に迫られている。

チームをクロストレーニングせよ

技術者、UXデザイナー、コピーライター、そしてデザイナーとしての私たちの役割は、変わらなければならない。何をどのように構築するのか – スクロールページ、ボタン、タップとクリック – こうしたものは旧来の概念の延長線上にある。これらの概念は、馴染みがあり、実績もあって、まだまだ有用だ。しかしいまや、私たちに耳を傾け、「感じ」、そして私たちに話しかけてくる新しいユーザ対話モデルを、私たちは必要としている。

技術者はよりUXデザイナーのようである必要があり、またその逆も要請される。彼らは、少なくともある程度の標準や、ベストプラクティス、そして新しいツールを確立するまで、より緊密に協力し役割を重ね合わせる必要がある。

デシジョンツリーは不要

上の例で示したバーテンダーは、多くのUIが目指し始めているものである。一方でそれは、(隠されたルールやアルゴリズムに基づいて行われる傾向のある)透過的な利用者体験を生み出すために必要な、より多くの責務の存在を示している。しかし更に言えばそれは、重要かつ有意味な情報だけが利用者に提示されるオープンエンドな体験を構成する場で、私たちに信じられない程の自由度を提供してくれるのだ。

たとえば、私たちのAIアシスタントに「遅くなると妻に伝えてくれ」と命令するためには、システムは意図をその理解するだけでなく、妻が誰であって、かつ彼女に連絡する最適な手段が何かを知っているほど、スマートである必要がある。本質的でない情報は不要だ、そして選択肢の一覧も、追加の質問も同様に。私たちはこれを「意味のある最小限の対話」(Minimum Viable Interaction = MV)と呼んでいる。

あなたのためのインターフェイスが現れる

私たちは機械へ話しかけることから始める ‐ コマンドではなく、メニューでも、風変わりなショートカットキーでもなく ‐ 私たち人間の言葉を使って。自然言語処理は信じられないほどの進歩を見せていて、ついに機械に話しかけるために、自分たちが機械になる必要はなくなった。私たちは、最新のチャットボットとチャットし、Google Voiceを使い、あるいはSiriに話しかける。音声認識の精度は、96パーセントという信じられない高さに向上した。

この世界は最初のクリエイティブなコンセプトとそのまま組み合わせるにはダイナミック過ぎるのだ。

残りの数パーセントはそれほど多いように思えないかもしれないが、それが完璧な体験を与えるか損なうかを決める部分だ。誰が言ったことでも、どのような言い方をしても(たとえ変わったアクセントがあろうとも、言葉と言葉の間に空きがあっても、あるいは大量「あー」とか「うー」が挟まっていたとしても)、いつでも100パーセント認識できるシステムを想像して欲しい。Amazon Echoによる遠距離認識でタップとクリックを置き換えて、UIは溶けて見えなくなる。それは目に見えず、ユビキタスで、自然なものになる。

しかし、まだそこまでには達していない。今のところ、私たちはこうした期待される能力のギャップを隠すための、スマートな方法を考案しておくことができる。機械を実際よりもスマートに見せるためのロジックや巧妙な応答をプログラムするために、膨大な時間が投入されている。UIが見せる1つのミスで、イリュージョンは台無しになる。

状況認識力

目に見えないUIを現実のものとするためには、システムはもっと私たちのことを知る必要がある。現段階では、状況認識力はやや限られている。たとえば、Googleマップを使って道案内を請う場合、システムは現在あなたが居る場所を知っていて、ニューヨークにいる場合とカリフォルニアにいる場合とでは異なる結果を返してくるといった使われ方をしている程度だ。

私たちの携帯電話や時計、その他のモバイルデバイスには、山盛りのセンサが装備されている。それらは私たちを人間を、現在必要な安価なセンサーマシンにする。私たち自身がシステムの動作に必要な知識やデータを収集するのだ。

しかし、たとえすべてのセンサーとデータが得られたとしても、私たちが本当に必要としている体験を生み出すために、機械は私たちについてもっと知り、周りで何が起きているのかを検知する必要がある。一つの解決策は、より多くの情報を収集するために複数のデバイス/センサーのパワーを組み合わせることだ。しかし通常これは、対象とするユーザーを絞り込んでしまう ‐ 顧客に売り込むのは簡単なことではない。素早く機転を利かせなければならない。変更し、調整し、繰り返す。この世界は最初のクリエイティブなコンセプトとそのまま組み合わせるにはダイナミック過ぎるのだ。

新しい体験を開発し、新しいテクノロジーを探求し、古いパラダイムを壊して適合を続けていくうちに、つい昨日まで可能ではなかったことが、今日はメインストリームになって行くだろう。

[ 原文へ ]
(翻訳:Sako)

記憶させたことを自然言語で取り出すことのできるチャットボットのWonder登場

screen-shot-2016-08-12-at-10-40-23-am

ダイアル錠の組み合わせが思い出せなくなったことはおありだろうか。スターバックスでガールフレンドが大好きな商品を注文しようとしてわからなくなることは大いにありがちな話だ。プリンターのインクを買いに出て、そもそもどのインクだったかがわからなくなるなんてことは普通の話だ。覚えていないことは検索すればいいと思うかもしれない。ただ、Googleっても見つけられない情報というのも多い。

個人的な情報は個人で管理するしかないのだ。そうした情報はNotepadを利用して書き留めておく人もいるだろう。しかし「どのようにメモしたか」を忘れてしまって検索できなかったりもするものだ。そんな人のためにと登場してきたのがボットプログラムでWonderというものだ。必要な情報を何でも記憶しておき、必要なときにテキストメッセージ経由で情報を教えてくれるというものだ。

発想は簡単なものだが、なかなか面白いボットになっている。Wonderのサイトにいくと、まずスマートフォンの番号を入力するように促される。あとはテキストメッセージを通じてボットとやり取りをすることになる。

データの入力(伝達)に特別な形式はなく、あとで必要となりそうな情報を送るだけで良い。データは後に活用できるように記憶される。データが必要となったときには、Wonderに「会社の保険業務を担当しているのは誰?」とか、「全社ミーティングの日程は?」などといった質問を送るだけで良い。予めデータを与えていた場合には、該当する情報が送り返されてくる。

IMG_6984

Wonderを考えだしたのはアリゾナ大学の学生であるJordan Singerおよび卒業生のShivkanth Bagavathyだ。Bagavathyの方はアリゾナ州スコッツデールのRecruiting Venturesで働いていた。この二人はこれまでにもいろいろプロジェクトを世に問うている。多くはProduct Huntに取り上げられ、WonderボットももちろんProduct Huntに登場している。

Shivkanthによると、「Siri’s best feature is its reminders」(Siriの最高の魅力はリマインダー機能)という記事をみてインスピレーションを得たのだとのこと。そして、バーチャルアシスタントがどのような機能があれば、さらに便利に利用できるようになるかを考え始めたそうだ。

「これまでのように、メモを取るだけの機能を充実させるのでは十分でないと考えました。インタフェース的に間違っていると思ったのです。メモも量が膨大になれば、検索することが難しくなってしまうからです」とShivkanthは説明する。「自然言語処理とAIの技術が進化する中、そこにボットを結びつけるやり方が注目されつつあります。この組み合わせこそ、つい忘れてしまいがちなことを思い出すために最高の仕組みだと考えるにいたったのです」とのこと。

IMG_6983

ボットの開発にはRuby on Railsを使った。テキストメッセージのやり取りにはTwilioを使い、自然言語処理および機械学習の機能を実装するためにはWit.aiを用いた。これに自分たちのもつ構文解析や類似文字列検索の技術を組み合わせたのだ。機械学習の機能を持たせたことにより、使えば使うほどに性能が向上してくることになると説明されている。。

Product Huntにもあったが、WonderのMessenger、Slack、Alexa(Amazon Echoなどのデバイスでの利用が考えられている)など、他プラットフォームへの移植が進行中であるそうだ。またAPIを使う方法も用意されているところであるらしい。この中ではMessengerボットが最初に実現される予定で、数週間のうちには利用可能になる予定だとのことだ。

Wonderはサイドプロジェクトとして始められたものだ。しかし現在ではShivkanthおよびJordanの2人ともにビジネス的に大きなポテンシャルがあるはずだと考えているようだ。Slackなどのプラットフォームに移植することで、ビジネス的な利用法が広がるはずだと期待もしている。「Slack上でWonderを実装すれば、従業員たちは必要な情報や必要なタスクの情報を簡単に入手することができるようになります」とShivkanthは述べる。さらにインターナルサポートや新人の実習、などデータや情報を活用するさまざまなシーンで応用可能だと考えているらしい。

TechCrunchでWonderを使ってみたところ、なるほどこれはなかなか良くできているように思う。いちど伝えた情報について質問をすると、直ちに情報が戻ってくる。また、データを記憶させるさいに使ったのとは異なる言い回しを用いても、きちんとそれを理解して必要な情報を戻してくれる。

たとえば2つ上の図にあるように、ロッカーの鍵番号を「My gym locker combination is 9976」と記憶させた。そして情報を取り出す際には「What’s my gym locker combo?」と尋ねてみたのだが、問題なく応えてくれた。

現在公開しているSMSボットは、アメリカとヨーロッパでのみ利用することができる。しかしMessenger版は全世界で利用できるようになる見込みだ。ちなみにSMS版は無料で使うことができる。

(訳注:日本からも利用できた。こちらでは「妻が生まれたのはxx年xx月xx日」と入力して「妻の誕生日は?」と訪ねてみても正しい解答が得られた。ただしやり取りは英語で行っている)。

原文へ

(翻訳:Maeda, H

チェスと囲碁でトップに立ったロボットが、今度はテーブルサッカーの世界チャンピオンを目指す

foosballcreators

昔のコンピューターゲームには、人間同士でプレイするか、コンピューターを対戦相手にするか、という選択肢があった。しかし今では、現実世界の伝統的なゲームでもコンピューターの方が強くなり、人間の方が強いと言える卓上/盤上ゲームは、もはやないのではないか。次にコンピューターにやられるのは、何だろう? フーズボール(foosball, テーブルサッカー)だ。

École polytechnique fédérale de Lausanne(スイス連邦工科大学ローザンヌ校)のロボット工学の研究者たちが、平均的な人間プレーヤーに勝つシステムを作ったが、それはディープなニューラルネットワークが過去の数百万のゲームを分析した結果ではない。本物の戦闘ロボットである彼らに、何よりも重要なのはスピードと力だ。

プロジェクトを指揮したChristophe Salzmannがニュースリリースでこう言っている: “このシステムは小さな脳のある筋肉マンだ。とっても基本的なことしかできないけど、それで十分に勝てるのだ”。

当然ながら、テーブル本体も特製だ。というか、テーブルがロボットだ、と言ってもいい。透明なフィールドの下にカメラがあって、それが毎秒300フレームでボールの位置を追う。コンピューターは至近の選手を数分の1ミリの精度でボールを蹴れる位置へ移動させる。そしてモーターがバーを人間よりも速く回して、ボールを猛スピードで蹴り飛ばす。

robotfoos2robotfoos1

でも、名人のプレーヤーにはかなわない。コンピューターには、位置やバンクショット、相手の盲点などを活かしたトリックができないし、また、相手の位置から動きを予測することもできない。

このような‘知能’をコンピューターに授けるためにチームは、対戦相手のハンドルの動きをレーザーで追おうとしている。その方が、バーをカメラで追うより計算効率は高いだろう。今よりも高度なAIを、作れそうだ。でも、真価が問われるのは、ロボットだけでトーナメントをやるときだ。それもいずれやる、と彼らは言っている。

Why would you do this!

ほんまかい?!

プロジェクトは今も継続している。その状況は、ここで分かる。詳細は彼らのラボのWebサイトでも分かるが、でもそのロゴが問題だ(右図)。巨大なターミネーターの両手が、われわれの惑星を抱っこしている。しかし、どう見ても、人間の味方のようではない!

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

トヨタのシリコンバレーの研究所Toyota Research InstituteがAI研究でミシガン大学に$22Mを提供

13060144603_156356b930_k

トヨタ自動車がシリコンバレーに置いた研究開発部門Toyota Research Institute(TRI)がミシガン大学に、当初は向こう4年間で計2200万ドルの研究助成金を提供する。これより前の今年の4月には、TRIの三つめの研究施設が同大学内にオープンしている。

資金の用途は人工知能の研究とされ、すでに同様の投資がTRIのパロアルト本部に近いスタンフォード大学と、ケンブリッジのマサチューセッツ工科大学(MIT)に対しても行われており、それぞれ研究に関する合意が形成されている。

ミシガン大学に関しては、すでに同大の近くにToyota Technical Centerが二つもあり、彼らは同大の学部と共同で、自動車のインターネット利用や先進的な安全対策について研究を進めている。トヨタは同大のMobility Transformation Centerの創立メンバーでもあり、ここでは複数の学部の協力により、自動運転車の共有ネットワークをベースとする未来の交通システムの構築について研究している。

今回の投資によりトヨタが、ロボット工学、機械学習、および人工知能の分野における研究開発を、これらの分野でもっとも進んでいる大学との、密接な関係のもとに進めようとしていることが、あらためて明らかになった。ミシガン大学はAIの研究ではアメリカのトップクラスの大学院のひとつであり、また自動車工学に関しては北米地区のもっとも重要な研究センターだ。

ただし、お金は全額が自動車の研究へ直行するわけではない。同大によると資金は、“パートナーロボット”や“屋内移動”、“学生の学習支援とダイバーシティ”、などにも向けられる。

自動車メーカーが大学と協働してイノベーションを加速しようとする動きは、最近数多く見られる。ミシガン大学のご近所さんであるFordも、その一つだ。研究開発のペースは、GoogleやAppleなど新顔の参入にも刺激されて、このところ急ピッチだ。これからの数年間は、このような新しい研究パートナーシップや、既存の協働関係の拡張が、さらに多く見られるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

音声アシスタントAlexaで遊べるアドベンチャーゲームを作るための開発ツールをAmazonがGitHub上で提供

amazon-echo-041

Amazonのいつも元気いっぱいのかわいい音声アシスタントは、今では相当な数のスキルを持っている。でもまだ、ユーザーにゲームを提供するスキルはない。そう、彼女アレクサンドラは、あくまでもAIであってXboxではない。が、しかし、ゲームができないという意味ではない。すでに一部のデベロッパーが、昔のホームコンピューターにあったテキストベースのアドベンチャーゲームみたいなものを、作っている。

それらの中では、The Wayne Investigationがおもしろい。これは映画Batman v Supermanの宣伝のためにDC Comicsの連中が作り、映画本体よりも好評だった。ストーリーをここでネタバレしておくと、Bruce Wayneの両親が殺された殺人事件を解決するミステリーで、さらにネタバレすると、BatmanはBruce Wayneなのだ。

もっと多くのゲームクリエイターがもっと容易にゲームを作れるようにAmazonは、この今やすべての家庭を支配する音声ロボットのための開発ツールを作り、GitHubから提供している。グラフィカルなインタフェイスも作れるし、またゲームプレイの展開を定義するための決定木のようなデータ構造も提供している。

その、対話的アドベンチャーゲーム開発ツールの詳しい解説が、ここにある

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

コンピューターアートをきっかけにロボットが受け入れられるようになる?

These robots can play any tune requested by an audience, according to their creator, Didier Jouas Poutrel.

【編集部注】執筆者のMotti Nisaniは、emazeのCEO。

多くの人は、ロボットで溢れる未来がゼロサムゲームだと考えている。つまり、人間かロボットのどちらかが世界を動かすことになるという考え方だ。陰謀論に関するウェブサイトだけでなく、ニュースのヘッドラインを見てみても「30年以内にほとんどの仕事がロボットに奪われてしまう」や「将来たくさんのロボットがいる中、人間の仕事は少ししか残されていない」といった悲惨な予測で溢れている。中には、自分の仕事が「クリエイティブ」や「人間中心」の分野だから大丈夫だと考えている人もいるかもしれないが、このリストを見るとそんな人たちも心配になるかもしれない。

もはやアートの世界でさえも安全ではないのだ。コンピューターがアルゴリズムを使って芸術作品をつくりだす「コンピューターアート」の技術が現在盛り上がっている。今年新たなプラットフォームであるMagentaを発表したように、Googleが関わりだすとその分野への取り組みが本気なのだと気付かされるだろう。「Magentaは、音楽やアートをつくるためのマシン・インテリジェンスに関する最新技術を推進する研究プロジェクトです。機械学習の技術は、既に音声認識や翻訳などの分野で、コンテンツを理解するために広く利用されています。私たちは、Magentaを使って現在行っていることの反対側、つまり音楽やアートのつくり方を学習し、最終的には人を惹きつけるような芸術作品を自分自身で生み出すことができるようなアルゴリズムの開発を行いたいと考えています」とGoogleはMagentaについて語っている。

では人間のクリエイティビティの時代は終わったのか、というとそうでもない(少なくともまだそうではない)。Googleが6月にMagendaを発表した際、その初めての作品となる1分23秒の曲も同時に紹介されていた。それを聞いた人は、ひとつの曲としてはそこまで評価していなかったものの、コンピュータ自らが作曲を行ったという事実には感銘を受けていた。Magentaやその他のコンピューターアート関連プロジェクトでは、ニューラルネットワーク技術を利用して作品が作られており、ルーブル美術館に展示されるほどのレベルにはまだ達していないが、そのソースとなっているものを考慮すると、なかなかの可能性を秘めている。

ロボットは多くのことに長けているが、全て上手くこなせるわけではないということが分かってきた。

しかし、人間もまだまだ終わりではない。ロボット技術は、多くの人が信じる程の脅威にはならないという議論も存在するのだ。このような意見を持つ評論家によれば、ページビューを目的としたジャーナリストやブロガー、もしくは、最低賃金や政府の補助金増額といった、ロボットに仕事が奪われるようになると当然必要になってくるお金を目的とした福祉国家賛成派によって、ロボットの脅威に関する情報は誇張されているかもしれない

ロボット技術にそろそろブレイクスルーが起き、人間の仕事を奪う(または人間を檻に閉じ込めてしまう)ことになると感じている人がいる一方、この盛り上がりは、投資家に今ロボット業界がアツいと信じこませるための策略に過ぎないのかもしれない。ちょうど同じようなことが数年前にビッグデータに関して起きていた(そしてこれもそこまで上手くいかなかった)。

というのも、ロボットは多くのことに長けているが、全て上手くこなせるわけではないということが分かってきたのだ。特に、地図を作ったり、ものをすぐに認識するなど、応用的な動作を行うのに必要な、基本的なタスクの処理にはまだ難点が残る。

MITの教授である、AI専門家のDavit Autorによると、「ジャーナリストやプロのコメンテーターは、機械による人間労働力の代替の度合いを誇張した議論を展開し、生産性の向上や、賃金の上昇、高い技術をもった労働者の需要の高まりといった、機械の発達に伴う補完性を無視しています。柔軟性や判断、常識といったスキルが必要となるタスクで、機械が人間に取って代わる上での課題は、未だに大きなものとして残っています」

それよりも、人間とロボットの「パートナーシップ」が今後発展し、ロボットや、ビッグデータ、拡張現実(AR)、さらには真価を発揮しつつあり、今後も進化を続けるであろうその他の最新技術の力を人間が利用することになるとAutorは考えている。そして、そのパートナーシップの最先端が、驚くべきことにアートなのだ。様々な分野のアーティストたちが、テクノロジーを駆使して、国際的な賞や称賛に値するくらいユニークで素晴らしい新たな作品を生み出している。

そこまでの才能に恵まれていない人も、オンライン・オフラインに関わらず、そこかしこに溢れている最新のツールを上手く利用することで、芸術力の底上げができる。

例えば、アメリカで最も有名なアーティストの1人であるJeff Koonsは、キャンバスアートや彫刻、「雑貨」の制作にテクノロジーを用いていることで有名だ。2013年に発表された彼の作品のひとつである「Balloon Dog Orange」がオークションで5840万ドルで落札され、彼は存命する中で最も作品に高値がつくアーティストとなった。2014年には、ニューヨークのホイットニー美術館で、Koonsの作品の回顧展が初めて行われた。初めてというのも、Koonsの作品をきちんと展示するのに必要なテクノロジーを用意するのは、とてつもなく大変な作業なのだ。なぜそこまでテクノロジーに頼った作品をつくるのかという理由に関して、あるインタビュー中にKoonsは、「私が作品の作りはじめに持っているビジョンが、制作中も、完成したときにも変わらずにあり続けることができると安心できるからです」と語った。

Koonsのように、コンピューターやテクノロジーを使って、美しくて素晴らしい芸術作品を生み出している人間のアーティストはたくさん存在する。もちろん、全てのアーティストがKoonsのようなキャリアを築けるわけではないが、そこまでの才能に恵まれていない人も、オンライン・オフラインに関わらず、そこかしこに溢れている最新のツールを上手く利用することで、芸術力の底上げができる。これは「イカサマ」ではなく、彼らはこれまでとは違う新しいメディア上で作品をつくっているに過ぎない。作品はアーティストが手がけており、もしもオンラインツールを使うことで作品がより良くなるのであれば、それを利用するまでだ。

Googleでさえ、アートを人間とテクノロジーのパートナーシップの賜物だと捉えている。Magentaは、現在自分で作品をつくれるように「トレーニング」されているところだが、Googleによると、このプラットフォームの本当の目的は、「アーティスト、コーダー、そして機械学習の研究者から成るコミュニティをつくることにあります。Magentaのコアチームは、今後音楽やアートをつくるためのオープンソースのインフラ開発を行う予定です。まずは、音声と動画を対象として、MIDIのようなフォーマットに対応したツールを準備し、さらにはアーティストと機械学習モデルを結びつけることができるようなプラットフォームをつくっていきます」

「アーティストやミュージシャンが新しいツールを使ってどのような事をするのかは分かりませんが、今後それを紐解いていくのが楽しみです」とGoogleは語る。人間のアーティストがテクノロジーを使って考えだす作品は、恐らくコンピューターだけでつくり出した作品よりもずっと面白いものになるだろう。結局のところ、RickenbackerやGibsonといったエレキギターブランドも、当時の革新的な技術が搭載された製品を開発した際に、「ジミ・ヘンドリックスやセイント・ヴィンセントなどの登場を予期していなかったんです」とGoogleは言う。

このように、アートは社会全体に手本を示すことさえできるのだ。ロボットだけでもできるが、ロボットと人間が一緒にやればもっと上手くできる。こんなにアートを身近に感じられることがあっただろうか。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Skypeに新たなボットが導入されるもまだまだ改善の余地あり

frames_circles-cropped-1024x444

昨日(米国時間8月3日)のWindows 10に統合されたSkypeの新バージョン発表に続き、Microsoftは本日「Skypeボット」で利用できるボットコレクションの拡大に関する発表を行った。Skypeボットは、自動のチャットアシスタントで、今年のはじめにプレビュー版が一部地域で公開されていた。新たなボットの中には、旅行の手配や、チケット検索、他のアプリやサービスの情報を表示できるもののほか、エンターテイメント機能を備えたものまである。

今年の春の発表を見逃した人のために説明すると、Microsoftは毎年行われているBUILDカンファレンスで、初めてSkypeボットとボットプラットフォームのデモを行ったのだ。デモの中では、宿泊施設の予約や、カレンダーへの情報追加、タイピング時間を節約するための予測入力などのタスクをこなすことができるバーチャルアシスタントと、Skypeユーザーがどのように交流できるかというのが披露されていた。

しかし、当初ローンチされたボットは、検索エンジンから情報を引っ張ってくるBing関連のものや、ウェブサイトの要約、画像検索機能を持ったものなど、とてもシンプルなボットばかりで、もちろん便利ではあるが、ものすごく欲しくなるようなものではなかった。

本日のボットコレクションの拡大によって、ユーザーに課されたタスクの一部を本当に肩代わりすることができるようなボットの登場に一歩近づいたこととなる。

例えば、Skyscannerボットは、個人・グループ航空券を検索したり、価格・経路に関する情報を表示したりすることができる。さらには、航空券の予約をするためのリンクも生成可能だ。

実は、Skyscannerはこれまでにも「ボット風」のサービスを開発していた。Skyscannerは、AmazonのAlexa用の音声検索ツールを開発した最初の会社であり、最近ではSkypeのライバルであるFacebook Messenger用にフライト情報検索ボットを開発していたことを忘れてはいけない。

別の旅行関連ボットがHipmunkから発表されており、これはフライト情報の他にも、価格帯や旅行のテーマ、「旅行に伴う苦しみ」の許容度(待ち合わせ時間の短い旅程を組んだり、飛行時間の短いフライトをみつけることで、ユーザーの苦しみを最小化するというのが、Hipmunkの宣伝文句だ)など、ユーザーの好みに応じてホテルやその他の旅行情報を提供してくれる。

このアプリはよくできていて、複数あるフライトオプションの詳細を確認するためにスワイプしていったり、金額のアラートを設定したりと様々な機能を利用することができる。さらに、ユーザーが聞かなくても、フライト情報を検索するとオススメホテルの情報が表示される(これに関しては便利だと感じる人と邪魔だと感じる人がいるだろう)。さらに、質問(『都市Xと都市Yの間を移動するのに良い時間帯』や『ニューヨークから行ける海辺の旅行地』など)に応じて表示される最後のパネルをクリックすると、他の旅行情報やアドバイスを確認することができる。

Hipmunk-CROPPED-1-1024x841

その他の新しいボットの中には、イベントやコンサートのチケットを検索できるStubHubボットや、他のアプリやサービスの情報をSkypeのチャット上に表示することができるIFTTTボットなどがある。IFTTTボットは、ニュースアラートや、ソーシャルメディア上でのメンションに関する通知、他サービスの通知の表示、天気予報の引用、メールの受信通知など、気になる事項をいくつでもIFTTTの「レシピ」に登録することで、さまざまな用途に使うことができる。

最後に紹介する新たなボットが、エンターテイメント用のボットSpockだ。ご想像の通り、このボットを使えば、USSエンタープライズの副司令官とバルカン人について話すことができる(このボットで生産性は向上しないが、たまには仕事に飽きてしまうこともあるだろう)。

旅行やチケット検索ボットは、以前発表された汎用Bingボットよりは便利であるものの、大きな意味でのボットの展望を叶えるにはまだ少し力不足だ。

理想的な旅行ボットであれば、クリック可能なリンクを表示する代わりに、フライト候補を提案して、ユーザーが選択肢を絞るサポートをした上で、最終的には実際にユーザーの代わりに航空券の予約をしてくれるだろう。さらにはカレンダーに自動でフライト情報を追加し、予め設定されたコンタクト先(上司や配偶者など)にEメールを送ってくれる機能も備えていなければならない。

チケット検索ボットであれば、(ニューヨークとロサンゼルスから選べといった)大都市の会場を提案するのではなく、ユーザーの住んでいる場所をまず聞くべきだ。さらには、ランダムに近くのイベント情報を表示するのではなく、どのようなイベントにユーザーが行きたいのかをまず質問し、野球の試合を見たいのか、コンサートへ行きたいのかなどの具体的な好みを把握することも必要だろう。

私たちはまだそこにはたどり着いておらず、それが理由で今日のボットは「面白いが持っていなきゃいけないわけではない」という域を出られないでいる。結局のところ、現在のボットでは、ユーザーが自分でウェブサイトを訪れて必要な情報を検索する方が早く、ものによっては自分でやるよりもずっと遅かったり、フラストレーションが溜まるものもある。

なお、この記事で紹介したボット以外にも、ゲームや占いができるボットのほか、自動バーチャルアシスタントのAva Zoomや、画像解析機能を備えたCaptionBot
、Foursquareのボットや、スケジュール管理が行えるFreeBusyなど、最近Skypeがディレクトリに追加したボットは他にもある。

Microsoftは、現在同社のプラットフォーム上に3万人以上のボット開発者がいると語り、この新しい分野への興味を示している。

新しく発表されたボットの数々は、Andoird、Windows、iOS、Macそしてウェブ版のSkypeボットのディレクトリ上に既に登録されている。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

ホワイトハウスが人工知能に関する情報を一般募集、そしてIBMの提出物は優秀なAI入門書だ

shutterstock_161925818

人工知能の分野は今やとても大きいし、ありうるアプリケーションの種類もきわめて多様だ。その全体を簡単に説明することはほぼ不可能だが、IBMは挑戦し、そして成功したようだ。。

6月にホワイトハウスは、AIの可能性とリスクに関する情報を得るために、公式の情報リクエスト(request for information, RFI)を公布した

その要約には、こう書かれている: “AIの広義の受益者であるアメリカ人、すなわち一般消費者や学術研究部門、各産業の研究者たち、民間企業、慈善団体などから寄せられる見解は、多様な分野における現在と未来のAIのニーズへの理解を知らしめるために重要である”。

この要約に続いて、議論の対象とすべき個別の話題(トピック)のリストがある。それらは、未来のAIの公益や乱用に結びつきうるテーマの数々だ。

IBMはこの情報リクエストに応じて、同社としての見解を述べた。各トピック(WHからの質問項目)に対して、しっかりとした説明が書かれているから、これを読み終えたあなたは、仲間内でいちばんのAI通になるだろう。まあ、仲間の数にもよるけどね。

それをここで要約することは不可能だ。量が多すぎるが、各節はきわめて適切で、論争的ではなく、あくまでも教示的な内容だ。ちょっとだけ、引用しよう:

この惑星上の生命を支えている重要なシステムの、曖昧性や非効率の多くを排除できるものと信ずる。そしてAIシステムが、これらの意欲的な目標の達成を助けるツールであると信ずる。

それは基本的に楽観的な展望であり、当然ながらかなりIBM寄りだ。しかしそれでもなお、AIの現状と未来とリスクを理解するための読み物として、優れている。そして、“see more here”のリンクを飛ばしてはいけない。そこから先が、いちばん重要だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Comma.ai、高速道路自動走行のデータをオープンソースで公開―低価格の自動運転車に道

2016-08-04-commaai-selfsteer

George Hotz(Geohotz)が創立したスタートアップ、comma.aiは既存の自動車に既存のパーツを組み合わせることによって比較的低価格で自動運転車を製作できることを実証した。そのcomma.aiが7時間25分にわたる高速道路での自動運転で収集した全データをオープンソースで公開した。

地味なニュースに思えるかもしれないがそうではない。すくなくとも現在までに公開された高速道路の自動運転のデータと比べれば画期的だ。

comma.aiは最初の走行デモを成功させたときにBloombergで大きな記事になった。公開されたのは記事で紹介された自動走行システムを作るために機械学習システムを訓練したデータそのものだという。

Hotzはインタビューに答えて「このプロジェクトを始めたときは自動運転車は考えていなかった。単に機械学習をいろいろ試そうとしただけだった。ところがあたりを見回しても機械学習の実験に適した手頃なデータがなかった」と説明している。

HotzはKITTIのデータセットや最近発表されたさらに詳細なOxford RobotCarデータセットなどいくつかのデータを調べた。しかしこうしたデータ・セットは都市部の交通の実験で、Hotzが必要としていたのは高速道路での自動運転のデータだった。

「現在BloombergやNvidiaの実験を再現するのに適したデータは公開されていない。そこでそういうデータが世界に公開されてもいい時期だと考えた」とHotzは説明する。

もちろんcomma.aiのデータが利用できるからといって、誰でも1998年モデルのFord Tempoを自動運転車に変えることができるわけではない。しかしこのデータは有力なスタート地点を提供する。comma.aiが公開したのは現在取り組んでいる自動運転車のデータではなく、約半年前に行ったテストに関する全データだ。comma.aiのテクノロジーがその後さらに進歩しているのは間違いない。

Hotzは私の取材に対して「公開主のビジネスを危険にさらさずにオープンソース化はできるはずだと信じている。オープンソースでさらに情報を公開するためにも会社が生き延びることが重要だ。こうしたデータが得られるまでには数多くの失敗がある。誰もそういう失敗を繰り返す必要はない」とcomma.aiのデータ公開に関するアプローチを説明した。

Hotzによれば、comma.aiがデータをオープンソース化するのは、ホビイストのコミュニティーがさらに多くの貢献をできるようにするためだという。しかし機械学習システムの訓練に必要な基礎的な運転データの収集に膨大なは時間と資源を必要とする。Hotzはオープンソース・データの例としてDeepDriveを挙げた。これはGrand Theft Auto Vのプラットフォームを用いてリアルな自動運転シミュレーションを行うためのニューラルネットワーク・システムだ。

ホビイストを助けるというのは、才能ある人材を獲得するためのパイプラインを築くことでもある。comma.aiはオープンソース化したデータを用いて誰がどのようにさらなるオープンソース化をしているかモニターできる。comma.aiはもっとも輝かしい人材が誰なのかいち早く知ることができる。

Hotzによればcomma.aiのビジョンはシンプルだ。「われわれは今何をしているのかできるかぎり正確な情報を公開する。それでもスタートアップは〔大組織よりも〕速く、スマートかつ安価に機能できるということを確信している」のだという。

〔日本版〕ジョージ・ホッツは17歳で個人として初めてiPhoneのジェイルブレイクに成功するなど著名なハッカー。オープンソース化された自動運転データは圧縮で40GB(解凍後80GB)のサイズで、Anaconda、TensorFlowなどを必要とするという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

似顔絵から写真を再現、オランダの研究チームが逆発想のソフトウェアを開発

algo-photos

スマートフォンで撮影した写真を絵画調のアート作品へと加工するアプリ「Prisma」を愛用している人は多いだろう。しかしその逆のプロセス、つまりアート作品を写真へと変換させることも同様に面白い。そして、そんな逆発想のテクノロジーの実現はそう遠くないと、オランダの研究者たちは断言する。

オランダ、ラドバウド大学の4名の神経科学者は、ディープ・ニューラル・ネットワーク(深層神経回路網)を利用し、似顔絵を写真のようにリアルな顔の画像に転換するモデルに取り組んでいる。この研究(Convolutional Sketch Inversion)の結果は、最初にオンラインアーカイブ「arXiv」にて公表された。10月にアムステルダムで開催予定の「European Conference on Computer Vision」にも先日受理されている。

科学者達によると、このモデルは様々な形で応用が期待できるという。例えば、芸術分野で似顔絵を写真に近い形に変えたり、あるいは科学捜査で、目撃者の情報をもとに書いた犯人の似顔絵を、画像認識ソフトで検知可能なデータにするといったことなどだ。

「最近発表された、ニューラルスタイル変換(neural style transfer)という、写真をアート作品へと変換するアルゴリズムの研究に触発されました」と、29歳のYağmur Güçlütürkと30歳のUmut GüçlüはTechCrunchへのメールに書いた。認知神経科学の博士課程学生である二人は、Marcel van GervenとRob van Lierと共に今回の研究を行った。

VanGogh-shutterstock

GüçlütürkとGüçlüが参考にした論文には、ドイツの街テュービンゲンを、フィンセント・ヴァン・ゴッホの名作「星月夜」の絵画スタイルで再現するテクニックが記されていた。「これを読んだ時、逆の場合はどうなのかと考え始めました。つまり、このフィンセント・ヴァン・ゴッホの作品を写真にするとどうなるか、ということです」とGüçlütürkとGüçlüは書く。

GüçlütürkとGüçlüによると、人工神経回路網を利用した独自のソフトウェアは以下のように機能する:

「例えば、科学者である私が、人工神経回路網であるあなたに、スケッチ(インプット)を写真(アウトプット)に変換する方法を教えたいとしましょう。まず、スケッチと写真のペアを取り込んだ膨大なデータセットを構築します。そしてあなたにスケッチのみを渡し、写真に変換するよう依頼します。あなたは適当に1つ戦略を考え、写真を再現します。初めのうちは、作成した写真とデータセットの写真はかけ離れています。私は、あなたが描いた写真とデータセットの写真を比べ、間違いを指摘します。そのフィードバックをもとに、あなたは戦略を変え、改めて写真を作り直します。すると徐々に、写真のクオリティが高まっていくのです」。

Examples of the synthesized inverse sketches from the LFW dataset. First image in each column is the ground truth, the second image is the generated sketch and the third one is the synthesized inverse sketch. (Source: "Convolutional Sketch Inversion" Study)

LFWデータセットから合成した似顔絵の例。最初の列が本物、2番目が生成されたスケッチ、そして3番目の列がスケッチから合成した顔写真。(論文「Convolutuonal Sketch Inversion」より)

今回、スケッチと写真を一致させるモデルの習得プロセスにおいて、反復学習がとても重要な役割を果たした(これは神経回路網を訓練させるスタンダードな方法でもある)。

「この最後の2つのステップを何度も繰り返します」とGüçlütürkとGüçlüは書く。「最終的に、合成した写真はデータセットの写真と似てきます。上手くいけば、習得した新たなスキルを使って、すでに見たことのあるスケッチだけでなく、まだ見たことがないスケッチでも素早く高画質な写真へと変換することが可能になるのです」。

このアルゴリズムの訓練とテストを実施するため、研究者達はまずウェブ上で公開されているデータをもとに似顔絵をコンピューターで生成した。使用したのは、CelebAにある20万枚以上の芸能人の写真が保管されたデータセットと1万3000枚の顔写真が保管されているLFWデータセットだ。さらに、手描きのスケッチをCUFSデータセットから入手した。

2人の博士課程の学生がまず始めに試したのは、Güçlütürkが描いた彼ら自身の似顔絵を変換することだった。さらに、このアルゴリズムを使うことで、2人は有名なオランダ人アーティスト3人(レンブラント、ヴァン・ゴッホ、エッシャー)の自画像をもとに、写真のようにリアルな顔の画像を構築することを試みた。

Self-portrait sketches and synthesized inverse sketches along with a reference painting or photograph of famous Dutch artists: Rembrandt (top), Vincent van Gogh (middle) and M. C. Escher (bottom). (Source: "Convolutional Sketch Inversion" Study)

左の列から有名オランダ人アーティストの自画像、スケッチから合成した顔写真、参考写真又は絵。レムブラント(上)、フィンセント・ヴァン・ゴッホ(真ん中)、M. C. エッシャー(下)(論文「Convolutional Sketch Inversion」より)

彼らは現在、この成果を市場に投入する方法を探している。芸術や科学捜査などの領域での収益化を目指している。

「今回の研究からスピンオフして設立した会社Neurantは、そういったアプリケーションの開発をすでに行っています。近いうちに市場に参入したい考えです」とGüçlütürkとGüçlüは締めくくった。

[原文へ]

(翻訳:Tomoya Mori)

FordとMITが学生用のオンデマンド電気シャトルバスプロジェクトで連携

Graduate student Justin Miller and undergrad Wally Wibowo of the Aerospace Controls Lab working on vehicles outfitted with sensors that match those of self-driving cars. This work is part of the Ford-MIT Alliance and aims to predict pedestrian behaviors on short time-scales while also providing data to support a mobility-on-demand system for the MIT campus."

Fordは現在マサチューセッツ工科大学(MIT)と共同で、マサチューセッツ州ケンブリッジにあるMITのキャンパスにて、学生がキャンパス上そして街中でクラス間の移動に使える、オンデマンドの電気シャトルバスを配置するという研究プロジェクトに取り組んでいる。3台準備予定のシャトルバスを学生がスマートフォン上のアプリで呼び寄せることで、ドライバーがすぐにピックアップに向かう。この研究プロジェクトは、歩行者の移動パターンを明らかにすることを目的としており、気象情報や授業のスケジュールといったデータとLiDARやその他のセンサーを利用しながら、オンデマンドサービスの最適化が行われる予定だ。

Fordにとって今回のMITとのコラボレーションは、ミシガン州にあるFordのディアボーンキャンパスで、現在従業員の移動に使われているシャトルバスの運営を行っているDynamic Shuttleプロジェクトの進展のためだけではなく、Ford Smart Mobilityの下で行われている、様々な種類の未来の移動手段を模索する動きにも役に立つと考えられている。具体的には、Fordはプロジェクトの現在のフェーズで、今公道を走っている車に取り付けられたLiDARよりも低画質の画像を利用したLiDARシステムで、歩行者を検知する機能を向上できないかという検証を行うつもりだ。

「現在利用されている自動運転車にはLiDARが使われており、将来的にも引き続きLiDARが使われる可能性が高いです」とFordの自動運転車分析部門のマネージャー兼テクニカルリーダーであり、今回のMITが参加するプロジェクトのリーダーでもあるBryan Goodmanはインタビューの中で説明した。「このプログラムでは、様々な方法を用いて既存のLiDARユニットよりも低画質の画像を使ったLiDARで歩行者を検知する実験を行いながら、十分な情報収集を行おうとしています」

Graduate student Justin Miller and undergrad Wally Wibowo of the Aerospace Controls Lab working on vehicles outfitted with sensors that match those of self-driving cars. This work is part of the Ford-MIT Alliance and aims to predict pedestrian behaviors on short time-scales while also providing data to support a mobility-on-demand system for the MIT campus.

自動運転車に利用されているセンサーを装備した車両の整備を行っている、MIT Aerospace Controls Laboratory所属の大学院生Justin Millerと学部生のWally Wibowo。これはFordとMITの共同研究の一部で、短時間での歩行者の行動予測と、MITキャンパスでのオンデマンド移動システムをサポートするデータ収集を目的としている。William Litant/MIT

低画質のLiDARシステムが上手く機能すれば、たくさんの可能性が開けてくる。例えば、ハイブリッド自動運転技術におけるカメラからの情報への依存度が低下することで、自動運転車の生産コストが下がる可能性が高く、結果的に自動車メーカーが大量生産を行えるようになるだけでなく、車の所有者やシェアリングサービスの利用者にとってのコストも下がることになる。この研究プロジェクトでは、車両にドライバーが常駐する他、街中よりも管理された環境の下で実験が行われるため、現実に即した実験場としての利点を利用しつつも、低画質のハードウェアを使用した実験を安全に行うことができる。

また、本プロジェクトでは、実際にシャトルサービスを利用する学生に対して良質なカーシェアリングサービスを提供できるよう、利用可能なリソースを最大限活用しようとしている。例えば、研究チームが移動に関するデータを収集後に分析し、その結果が乗り降り地点や移動ルートの最適化に利用される。

Goodmanは、データ分析を通して移動に関する需要予測が行われ、さらにアルゴリズムが、予測内容を処理することでカスタマーサービスを最大化するためのシャトルバスの位置を割り出すことができるようになっていると言う。そして、この情報がドライバーへと送り返されることで彼らの運転パターンが決まる。このプロセスが繰り返されることで、時間や天気などの条件に関係なく、可能な限り最高のサービスを提供することができるのだ。

Goodmanによれば、プロジェクトの今のフェーズが今年の終わりまで続く予定で、MITとFordは既にそれ以降のフェーズについても考え始めている。さらに彼は、次のステップのひとつとしては、ドライバーのいる電気シャトルバス(Ford用語でmobility-on-demandまたはMOD車と呼ばれている)を、完全な自動運転車に切り替えるということが挙げられ、現在のフェーズでの学びや収集されたデータが、そのゴールを達成するにあたって重要になってくるだろうと語る。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

サブプライム融資を行うElevateが5億4500万ドルをVictory Park Capitalから借入れ、IPOも視野に

Close-up of a broken piggy bank with coins

IPOの兆しが見えてきたサブプライムレンダーのElevateは、新たに5億4500万ドルの貸出枠を設定し、拡大する顧客層のサポートにあたる予定だ。

Elevateが現在融資のターゲットとしているのは、クレジットスコアが575から625の間にある借り主だ。拡大にあわせて、Elevateは現在の顧客層よりもさらにクレジットスコアの低い層への貸出を考えている。

Elevate CEOのKen Reesは、アメリカ人の65%がクレジットスコアが低いせいで、必要なサービスを受けることができていないと既に気づいている。貸出に関する追加情報のおかげで、もしかしたらこの65%にあたる人々に対しても自信を持ってローンを提供することが可能になるかもしれない。Elevateの誕生以前、現在の顧客にあたる人たちは、タイトルローン(車などの所有権を担保に借り入れるローン)かペイデイローン(短期の小口ローン)で借り入れを行わなければならなかった。

「タイトルローンを利用している人の20%が最終的に車を失っています」とReesは述べた。

年間借入コスト(APR)の顧客平均が減少しているにも関わらず、Elevateの売上ランレートは、5億ドル付近をただよっている。さらに、貸倒償却率が2014年初頭の17〜20%から今では10〜15%まで減少しているにも関わらず、ローン残高は昨年一年間で80%も増加した。貸倒償却率は、貸し出しを行っている企業が回収を見込めないと考えるローンの割合を示している。

このニュースが、サブプライム層を搾取するような貸し出しについて心配しているアナリストの気持ちを少し和らげることだろう。Reesが以前関わっており、SequoiaとTCVから資金調達を行っていたThink Financeは、昨年裁判沙汰に巻き込まれ、不法なローンの回収や脅迫で非難されていたのだ。

Elevateとその前身にあたるThink Financeの間には2つの大きな違いがある。ひとつ目は、Think Financeのモデルは、顧客への直接の貸し出しと、サードパーティーレンダーへのライセンシングの両方から成立していた。裁判で不良債権の原債権者として名前があがっていたペイデイレンダーのPlain Green, LLCは、Think Financeのサードパーティーレンダーだったのだ。一方、Elevateは顧客への直接貸し出しモデルのみで成り立っている。ふたつ目に、Elevateは、借り主の経済状況を向上させるような努力をすることで、持続可能な貸し出しを行っている。

Elevateの顧客は、金融リテラシーに関するビデオを見ることで、資金繰りの改善を目的とするRISEのような商品をより良い利率で利用できるようになる。同社はさらに、無料の与信モニタリングサービスも提供している。RISEの加重平均APRは160%と高いが、旧来のペイデイローンの500%という数字と並べると比較的低いといえる。RISEローンでは、借入開始から24ヶ月後にAPRが50%減少し、36ヶ月後には定額の36%までAPRが下降する。

ElasticやSunnyは、それぞれアメリカとイギリスで提供されている、その日暮らしをしているような人たちを対象とした商品で、Elasticも持続可能な金融を柱として作られている。借り主は、金融リテラシーに関する情報へもアクセスすることができ、実際に借入を行うまで手数料がとられることもない。

Elevateからお金を借りている人の65%がこれまでに利率の減少を経験している。このようなElevateの貸し出し方法で顧客の保持率が向上し、ローン返済を終えた人の60%が再度Elevateから借入を行っているのだ。そしてほとんどの場合、新しいローンの利率はさらに低くなる。

Elevateは以前にもIPOを考えたことがあったが、先送りにせざるを得なかった。最近の株式市場ではフィンテック恐怖症が巻き起こっており、C2Cの貸出プラットフォームを運営するLending Clubが、融資活動を行うスタートアップ固有のリスクを体現している。

しかしReesは、ElevateをLending Clubと比較するのは誤りだと考えている。Elevateと400人におよぶ従業員は既に上場企業のように機能しており、約1年にわたって定期的にディスクロージャー誌も発行されている。

「IPOで享受できる私たちにとっての主要なメリットは、デットファイナンスへの依存度が下がることです」とReesは付け加えた。「Victory Park Capitalは素晴らしいパートナーですが、無料で借入はできません。IPOでの資金調達によって、Elevateの成長をサポートすると共に資本コストを下げることができるのです」

原文へ

(翻訳:Atsushi Yukutake/ Twitter

AIがSNSから“現場の映像”を収集、「Newsdeck」にフジテレビが出資

  • spectee人工知能(AI)で事件や事故、災害の画像・動画をネット上から自動収集し、投稿者の許諾を得て報道機関に提供するサービス「Newsdeck」に、テレビ局からの注目が集まっている。

今年3月にアルファ版をリリースしたばかりだが、すでにNHKに加えてフジテレビやテレビ朝日などの民放キー局が導入。地方のテレビ局やウェブメディアも合わせて15社が報道で利用している。

運営会社のSpecteeは7月26日、フジテレビ系列のVC「フジ・スタートアップ・ベンチャーズ」をリードインベスターとする資金調達を実施したことを発表。金額は非公表だが、関係者によれば1億円前後とみられる。

Newsdeckのダッシュボード画面

Newsdeckのダッシュボード画面。報道機関は「事件」「事故」「自然災害などの項目から画像や映像を検索し、ニュースで利用できる

AIで「火事」と「焚き火」を識別

Newsdeckは、TwitterをはじめとするSNSから事件や事故、災害に関する画像・動画をリアルタイムに収集し、AIが「火災」や「人身事故」「爆発」といった項目に分類する。

例えば、火災の画像を収集するにあたっては、あらかじめ「燃えている画像」「煙が出ている画像」「消防車の画像」などを学習させ、収集した画像が「火事」らしいかどうかを判定。火事と焚き火の画像もAIで識別できると、Specteeの村上建治郎社長は説明する。

「火を囲んで談笑しているか、火から離れて見ているのか、といった複数の要素と、過去の学習成果をかけあわることで、AIが一瞬で判断する。」

SNSの投稿を使う報道機関は通常、投稿者から個別に許可を得るが、Newsdeckも同じ。アルファ版公開当初はボットで定型文を送って許諾を求めていたが、「返信率が上がらなかった」ため、現在は人力でメッセージを送っている。

spectee03

新宿・ゴールデン街の火災で注目

Newsdeckが報道機関から熱視線を送られるきっかけとなったのは、4月12日に発生した東京・新宿ゴールデン街の火災だった。

ゴールデン街の火災では、現場に居合わせた一般人がTwitterに動画を投稿。その動画を番組で使用するために、多くのテレビ局が投稿者へ利用許諾を求めた。

その模様をまとめたTogetterによれば、最も早く利用許諾を求めたのはSpectee。Twitterに火災動画が投稿されてから、わずか3分後の出来事だった。

Specteeに続いたのはテレビ朝日で、動画投稿から10分後、TBSは20分後、フジテレビは2時間26分後と、AIと人力による収集能力の差が如実に表れた形だ。

スタッフをネットに貼り付けて動画や画像を探し、その都度、投稿者に許可を得るのは手間とコストがかかるーーそう考える報道機関がNewsdeckに依頼するケースが増えているようだ。

デマ投稿にどう対応する?

Twitterに事故や災害の第一報が投稿されるのは珍しくなくなったが、中には「デマ」が出回ることもある。

4月の熊本地震では「ショッピングモールが火災」といったデマ写真がTwitterで拡散。この情報に惑わされたフジテレビが震災特番の中で報道し、番組中に訂正したこともあった。

こうしたデマ投稿に対応するために、Newsdeckは過去に同じ画像や動画が投稿されていないかをフィルタリングする。「ネタ画像」の使い回しかどうかをチェックするためだ。

熊本地震では「ライオンが動物園から脱走した」というデマ写真もTwitterで拡散したが、これはヨハネスブルグの画像を使い回したものだった。

「自動収集した画像や映像は最終的にスタッフが目視する。それでもデマかどうか判断できないものは消防や警察の情報にも当たっている。」(村上氏)

報道機関に変わって画像の収集から権利処理までを肩代わりする

報道機関に変わって画像の収集から権利処理、情報の裏取りまでを肩代わりする

フジテレビと動画・画像キュレーションで提携

VCを通じて出資したフジテレビは、7月に「ネット取材部」を新設。同部署のコア機能として、Newsdeckの利用を見込んでいる。フジテレビ報道局での導入も進める。

子会社のフジテレビラボとも提携。視聴者投稿型サービス「FNNビデオポスト」とNewsdeckを統合して、動画・画像のキュレーション事業を年内に開始する。

「アジアでは勝てる」

今回の出資を受けてSpecteeは、台湾や香港、韓国、シンガポールの報道機関にもNewsdeckを売り込む。アジア進出にあたっては、フジテレビとともに出資したCBCのネットワークを活用し、その後は欧州と米国にも進出する。

国内に競合はないというが、海外に目を向けると、2015年7月にソフトバンクなどが1億ドルを出資したことでも話題になった米BanjoYouTubeと共同で報道映像を配信する米Storyfulなどがある。これら海外勢への優位点について、村上氏は次のように語る。

「権利処理や現場状況の聞き込みなど、投稿者との丁寧なやり取りが強み。この点は海外プレイヤーが抜けている部分。日本でもテレビ局をはじめ既存の顧客からは、AIの技術以上に、その点を評価いただいている。」

アジアの報道機関には「米大手テレビで採用されている」というよりも、「NHKで採用されている」という方が説得力があると村上氏は言い、アジアでは勝てると踏んでいる。「小資本でもレバレッジが効き、小さくても勝てるエリアを探してそこから欧州、米国を攻めていきたい。」

“現場の映像”の通信社

今後は、SNSの投稿を提供するだけでなく、ドローンで自ら映像を撮影したり、タクシーのドライブレコーダー(事件の現場近くに止まっていたタクシーで撮影した映像が役に立つことがあるらしい)などの映像も収集する考え。

収益源は報道機関が支払う月額料金。将来的にイメージしているのは、国内外の報道機関にニュースを配信する「通信社」の画像・動画版だ。

「日本では共同通信社がテレビ局と年間億単位で契約している。Specteeは国内外の報道機関と契約し、2018年までに売上高10億円を目指す。」

ソーシャルメディア上のビジネスコミュニケーションはチャットボットが担うこととなる

robot-customer-service

編集部注:本校執筆はCory Edwards@coryedwards

2000年代となって、さまざまなブランドがインターネットを使った顧客および未来の顧客との対話に乗り出した。多く活用された最初のプラットフォームは「ブログ」だった。そしてFacebookやTwitterなどといった、ソーシャル・ネットワークの時代に移った。それから利用法などについては洗練された面があるにせよ、ソーシャルメディアは「人対人」のコミュニケーションツールとして発展を続けてきた。

そこに介入してきたのがロボットだ。

入り込んできたのはロボットの中でも「仮想ロボット」のことで、すなわち「チャットボット」のことだ。人工知能(AI)のパワーを身にまとい、ブランドと顧客のつながりを進化させようとしているのだ。たとえばこの方向に初期段階から踏み出した企業のひとつとしてDominoがある。Dominoは@Dominos宛にピザの絵文字をツイートすることで、ピザのオーダーができるようにした。絵文字オーダーはボットが確認して、正式なオーダーであれば注文を処理するという流れになっていた。

もう少し新しい話をすれば、Taco Bellだ。Slack上でTacoBotの運用を開始したのだった。Slack上でのチャットしたり、もちろんタコスをオーダーしたりすることができたのだ。またFacebookのF8では1-800-Flowers、CNN、あるいは小売系スタートアップのSpringなどがFacebook Messenger向けのチャットボットをリリースした。チャットボットを通じた、Facebookプラットフォーム上での新しい買い物体験やニュース体験を実現しようとする動きだ。

それぞれに面白い試みだ。こうした試みの結果、消費者にとってどのようなメリットがあるのだろうか。また、ソーシャルメディアに参加する人々の行動に何か新しい影響を与えたりするのだろうか。

ビジネスツールとしてのチャットボット

企業が利用しようとするチャットボットは、SNSを最大限に活用して、企業自身と商品ないしサービスの利用者のエンゲージメントを強めるために利用される。

消費者はチャットボットを3つの方法で利用するようになる。すなわちコンテンツ消費、カスタマーサービス、そして販売状況や取引履歴確認などだ。これまでも、ソーシャルメディアを使った顧客との対話はなされてきてはいた。しかしたいていの場合、ソーシャルメディアはあくまでも企業側のサイトやブログ、ないし特別のチャネルに誘導することが多かった。いわばソーシャルメディアを「ポータル」として使っていたわけだが、それがチャットボットを介して直接に、欲しかった情報を受け取ったり、テクニカルサポートを受けたり、あるいは何か必要なパーツを購入したりすることができるようになるのだ。

カスタマーサポートはどのように変わるのか。サポートを求めるユーザーのうち3分の1以上の人が、電話でなくソーシャル・メディアを利用しているという現状がある。また、こうした利用者は1時間以内の返答を望んでいる(逆にいえば1時間は猶予を認めるということではある)とのこと。これは企業側にとって、かなり厳しい要求だといえよう。しかしチャットボットの導入で、そうした要求にも応じられるようになる。

ソーシャルメディアでのチャットボットの活用は広がっていく

従来の自動音声応答システムなどとはまったく異なったものだ。カスタマーサービスへの要求が高まる中、必然の流れということもできるかもしれない。また、利用者自身に問題を特定して用意したメニューに従ったプッシュボタン操作を強いるのでなく、ボット側で利用者の要求や問題を把握することになる。

個々の利用者に応じた的確なサポート

パーソナライズの面にも注目しておきたい。ここに、チャットボットがSNS上で発達していくと思われる理由がある。AOLのInstant Messengerでかつて導入されたSmarterChildの時代とは異なり、ボットにできることは利用者が支持したタスクのみでなく、個々の利用者の背景をも理解した内容に広がりつつあるのだ。たとえばFacebookとチャットボットが連動することにより、ボット側で利用者がデバイスを操作する間隔や興味の対象、あるいは大切な人間関係や今後の予定なども把握できるようになる。チャットボットは位置情報やその他のコンテクストに応じた情報やレコメンデーションを行えるようになってきているのだ。

これまでも特定の層で特定の地域に住む人などに限定したコンテンツ配信などは行われてきた。しかし配信内容やタイミングを完全にパーソナライズするような方法は開発されていないのだ。それがチャットボットの導入により変化することになる。もちろん、現状のチャットボットではまだまだ実力不足ではある。使ったことのない人にはぜひ試してもらいたいと思うが、現状は更新情報をプッシュ通知してくるだけの仕組みにしか見えないという人もいるはずだ。しかしチャットボットは人間と関わることで一層進化することとなり、利用者がどのような情報を、どのようなタイミングで欲しがっているのかを理解できるようになると考えられているのだ。

「未来」への流れは止められない

ボットがチャットの世界で大活躍するようになるのは間違いのないことだと思う。ただし、さまざまな企業の公式ツールとして活躍するには、さらなる進化を必要とするのも事実だ。「コンテクスト」を理解する能力を高める必要があるだろうし、情報発信のタイミングについても改善の余地は大きい。またチャットボットとの会話方式もわかりやすくする必要がある。

現状は欠陥だらけであるとは言えるのかもしれない。しかしAI(人工知能)は経験に基づいて賢くなるものだ。ブランド側および消費者側の双方が経験を重ねることで、ツールとしてのチャットボットは発展していくことになる。方向を間違えることにはなったが、Microsoft Tayも、AIの学習能力を示すことにはなった(おかげでチャットボット導入側は、不穏当で攻撃的な言葉を身につけたりしないような仕組みを考える必要も生まれた)。

ボットの進化がはじまり、主要な役割を占めるようになるのは間違いない。ただしそれまでには3年ないし5年の時間も必要となるだろう。言い方を変えれば、まだまだ人間が活躍する場が残っているということだ。しかしボットがテキスト化された情報をより深く理解できるようになるに従い、企業側も利用者側もボットの活躍を願うようになるはずだ。ボットは仮想現実や拡張現実をも利用しながら、利用者との結びつきを深めていく方向で進化する。「人間対ロボット」の話が改めて注目されている昨今ではある。現在のところは双方が共存するのがソーシャルメディアの世界ではあるものの、この状況も変わりつつあるところだ。

原文へ

(翻訳:Maeda, H

Googleが囲碁の世界チャンピオンに勝ったDeepMindをデータセンターの省エネに利用、冷房費用を40%削減

hal9000

DeepMindは地球上でもっとも複雑なゲームの名人かもしれないが、でも彼は、Googleのデータセンターのエネルギー問題を解決できるだろうか。ところが、できるのだ。しかも、強力に。

データセンターの電力の用量は、需要や気候条件などさまざまな要因に依存し、電力使用効率の最大化のためにそれらの変数を調整あるいは予測することは、とても難しい。Googleは機械学習をこの問題に適用し、ニューラルモデルの構築により、AIがこれらの要因のすべてを常時把握/監視できるようにした。

それにより研究者たちは、DeepMindという生きてる獣をそのままデータセンターに放ち、結果を直ちに検証できるようになった。そのため、冷房に使用する電力利用を従来の40%下げることができ、その状態が今も維持されている。

DC_PUE

Googleはこれまでも自社におけるエネルギーの使用を懸念して、再生可能エネルギーの利用や、エネルギー利用の効率化に努力してきた。だからDeepMindの起用も、その流れの上にあり、単独の突出的なプロジェクトではない。DeepMindが行った複雑なパラメータ群の同時的多面的最適化AI技法は、そのほかのシステムやデータセンターにも応用できる。そうなれば同社は、得意満面となるだろう。

DeepMindはこのエネルギー節約AIについて、詳細なドキュメントの発行を予定している。Web上に公表されたら、この記事にそのリンクを載せよう。

参考記事(DeepMindの医療利用、規制でつまずく)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AI利用の写真アート化アプリ、Prismaが大ブーム―大手ソーシャルメディアが買収?

2016-07-20-prisma

Prismaはユーザーが撮った写真を簡単にピカソやモンドリアンの描いた絵のように変えてくれるアプリで、 AppleのApp Storeのアプリのチャートのトップにいきなり躍り出た。今日(米国時間7/19)、Prismaは非公式にAndroid向けベータ版のアプリケーション・パッケージ(APK)を公開した。さて、この超ホットなアプリを作ったスタートアップの今後はどうなるのだろう?

われわれはPrismaが投資家と資金調達に関して話し合っているとう情報をつかんでいる。しかしPrismaにとってはFacebook/InstagramあるいはTwitter、Snapchatといった有力なソーシャルメディアに買収されるほうがメリットが大きいかもしれない。

私はPrismaの共同ファウンダー、CEOのAlexey Moiseenkovに今後の動きを尋ねてみた。Moiseenkovは「今のところその点については話せるような情報がない。今週末までにはもう少し話せるだろう」と答えた。つまり現在何らかの重要な交渉が進行しているらしい。

実は今週、MoiseenkovはFacebook本社を訪問し、Facebook LiveのビデオにPrismaフィルターを適用したらどんな効果が得られるかをデモしていた。Prismaはまだビデオ・フィルターを発表していないが、開発は進んでいるのだという。つまりFacebookがPrismaを買収しようと考えている可能性はある。FacebookがMSQRDを買収する数日前、Facebookのトップは本社でそのアプリを試しているのが目撃されている。私がFacebookにPrismaを買うつもりなのか尋ねると、「われわれは噂や推測にはコメントしない」というお決まりの答えが返ってきた。

次世代のクリエーション・ツール

ともあれPrismaはすごいアプリだ。私は数多くの古い写真にPrismaのフィルターを適用してみた。すると何気ない自撮り写真や風景写真が特別に意味あるもののように見えてくるのだった。

  1. photo-23-06-2016-09-01-23.jpg

  2. photo-23-06-2016-09-01-03.jpg

  3. photo-23-06-2016-09-00-33.jpg

  4. photo-23-06-2016-09-00-21.jpg

  5. photo-23-06-2016-08-59-45.jpg

  6. photo-23-06-2016-08-59-34.jpg

  7. photo-23-06-2016-08-58-52.jpg

  8. photo-23-06-2016-08-59-23.jpg

  9. photo-23-06-2016-08-59-13.jpg

Prismaがスタートしたのはわずか1ヶ月前で、TechCrunchのNatasha Lomasが即座に注目し、紹介した。Moiseenkovは写真を古典絵画風に変貌させるオープンソースの人工知能アルゴリズムを発見したが、このアルゴリズムの欠点は非常に遅いことだった。1枚を処理するのに数時間もかかることがあった。Prismaのチームは独自に数秒で処理できるAIアルゴリズムを開発した。そこでモバイルでアプリ化することが可能になった。

App Annieによれば、PrismaはすでにアメリカのApp Storeの全ジャンルで10位、写真・ビデオアプリの部で3位となっている。この躍進にはフィルターを適用された作品に表示されるPrismaという透かしも貢献している(多くのユーザーはなぜか気づいていないが、実はアプリの設定メニューから透かしの表示をオフにできる)。作品をFacebookないしInstagramで共有するのも非常に簡単だ。

Prisma Charts

ただしPrismaには独自の共有フィードがない。つまりフィードを有料化することはできない。現実的な収入の道は追加のフィルターに課金するしかない。しかしPrismaは画像のAI処理では先頭を走っている。現在Prismaは「写真を絵画に変容させる」処理の代名詞だ。しかし収益化を急ぎ過ればクローンやライバルの登場といった副作用が出るかもしれない。

買収?

となれば最近優秀なツールを開発した他のスタートアップの辿った道、つまり大手ソーシャルメディアによる買収が適切かもしれない。SnapchatはLookseryを1億5000万ドルともいわれる金額で買収し、 自画撮り共有アプリのLensesに統合した。Snapchatはユーザーが簡単にアバター絵文字を作れるBitmojiを買収した。金額は1億ドルといわれている。今日Snapchatは Bitmojiの機能をメインのアプリに追加した。FacebookもMSQRD〔マスカレード〕を買収した。このアプリはLooksery同様、顔認識機能をベースにユーザーの顔を思い切って奇妙な顔マスクと入れ替えるものだ。

Prisma App

Prismaはおそらく大規模なソーシャルメディアのアプリに組み込まれることで大量のユーザーを獲得することを考えているはずだ。Prismaを獲得したソーシャルメディアは共有されるオリジナル写真を大きく増やすことができる。

Facebook自身のオリジナル・コンテンツの共有が頭打ちと伝えられる中、ライバルのオリジナル・コンテンツが増えることは是が非でも避けたいはずだ。ユーザーはニュースフィードよりも手軽なSnapchatでの「ライフキャスト」にシフトする傾向を見せているため、Facebookは最近ニュースフィードの表示アルゴリズムを変更し、ユーザーの友達の投稿に高い優先順位を与えている。

Facebook LiveとPrismaは適合性が高いだろう。Prismaのフィルターを通せば、自撮りビデオに付随する気恥ずかしさや貧弱な照明といったハードルを下げ、Facebook Liveの利用を大きく拡大できる可能性がある。FacebookがPrismaを買収すれば、他のソーシャルメディアによる買収を妨げるというメリットもある。

4年前、InstagramはAndroid版を公開した直後にFacebookに買収された。その後Instagramは5億人のユーザーを有するまでに急成長した。今となれば10億ドルの買収価格はポケットの小銭同様に思える。 l

Prismaはこのまま独自の道を歩むのだろうか? それともすぐにPrismagram(あるいはSnaprism)へと変貌するのだろうか?

[原文へ]

(翻訳:滑川海彦@Facebook Google+

DeNA、Preferred Networksと組んでAIベースのソリューション事業に参入——合弁会社「PFDeNA」を設立

screenshot_594

1年ほど前にはZMPと組んで、自動運転技術を使ったタクシーを手がける「ロボットタクシー」を設立したディー・エヌ・エー(DeNA)。新領域のビジネスを続々と手がける同社が、今度はAIをベースにしたソリューション事業に参入する。

DeNAとPreferred Networks(PFN)は7月14日、合弁会社「PFDeNA(ピー・エフ・ディー・エヌ・エー)」を設立したことを発表した。資本金は3000万円で(出資比率はDeNA:50.0%、PFN:50.0%)、代表取締役社長にはDeNA代表取締役社長兼CEOの守安功氏が就任。取締役にはPFN代表取締役社長 CEOの西川徹氏、PFN取締役副社長の岡野原大輔氏、DeNA取締役の川崎修平氏ほか1名が就任する。

PFNは検索やレコメンドなどを開発するPreferred Infrastructureから2014年にスピンオフした技術系のスタートアップ。現在はIoT領域を中心に機械学習技術を用いたソリューションを手がけている。2015年12月にはトヨタ自動車が出資。モビリティ領域でのAI技術の共同研究を行うと発表したことでも話題を集めた(提携自体はPFN設立時の2014年に発表されていた)。

PFDeNAでは、AIを活用した企業向けのソリューション提供をする予定。対象領域はゲームやヘルスケア、自動車・交通関連をはじめ、大規模データを扱うあらゆる産業としている。両社は発表で「DeNAがインターネットサービスの運営を通じて蓄積してきたデータや複数事業領域での経験と、PFNのAI技術を組み合わせることで、DeNAあるいは顧客企業の持つ様々なデータの価値の最大化を図る」とコメントしている。

“企業向けのソリューションを提供”なんて聞くと、「DeNAがSIerにでもなるの?」なんて疑問も出たりするのだけれど、PFDeNAのサイトを見る限りはまだ具体的な内容は何も分からない状態。まずは今後の展開を待ちたい。

VCがAI化されたら、あなたの地元のスタートアップ用ATM(のようなVC)よりずっとお利口だろう

start-your-pitch-aivc

毎日々々、大量のスタートアップたちのピッチ(pitch, 売り込み)に接していると、あなたの生きる意志計の針はたちまち、“いますぐ死にたい”を指すだろう。自分がVCだと想像してみよう。その日の15番目のピッチが始まるころには、疲労と眠気に支配され、真剣な関心を持てなくなっている。むしろ、ピッチのスライドデッキをチャットボットに与えてフィードバックと提案をさせ、有望な投資先を決められたら、便利ではないか。それをやろうとしているのがAIVC、VCを演ずるAIだ。

自動化されたピッチは意外と楽しいかもしれないが — ここで早くもネタバレを— でもすぐに、すべてがジョークであることに気づくだろう。

このボットの作者は曰く、“うちも初期段階のスタートアップを対象とするVCだけど、今のVCの世界は、他に依存しない優れた分析的視点よりもむしろ、自分もバスに乗り遅れたくない焦(あせ)り根性と、既知のパターンへの当てはめ主義に支配されている。この世界は、投資を得たい根性だけが先走っているファウンダーたちで混雑していて、優れた起業アイデアはめったにない”。

これもまたジョークだけど、優れたお笑い芸がそうであるように、事の本質を突いている: 標準的なパターンにフィットしていないファウンダーが資金を調達するのはとても難しい。– パターンよりもそういう問題を議論すべきだろう。

スタートアップへの投資にも、データがますます重視されるようになった。いまどきの超高頻度トレーダー(high-frequency trader, HFT)は、自分の頭や心ではなく、アルゴリズムとデータだけに頼っている。スタートアップ投資の世界でも、データサービスへの関心が高まり、MattermarkAngelList、本誌のCrunchBaseなどがよく利用されている。VCの投資がAI駆動になるのは、時間の問題かもしれない。金額の決定と実際の出資も、AIがやるようになるかもしれない。

冗談はさておき、スタートアップの世界だけでなくVCの世界は、今後どのようにテクノロジーが浸透していくのか? 読者のお考えを、下のコメント欄でお伺いしたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIロボットCozmoのメーカーAnkiがSDKを公開、最終的には子どもやノンプログラマーも対象とする

computer_vision

最初のCozmoたちの、Pixarからヒントを得たような目に、世界が見えるようになるまで、あと数か月待たなければならないが、メーカーのAnkiはすでに、この小さなロボットのための大きなプランを公表している。その最初は、ハッカーやメイカーや研究者たちをターゲットとするSDKの大々的なローンチで、それは10月のローンチと同時期になる。

ソフトウェア開発キットの展開は三段階から成り、SDKはその最初の段階だ。その次の段階は、K-12の教育者(教師)と児童生徒が対象、そして三つめの段階は商用アプリのデベロッパー向けだ。これらのスケジュールは明確ではないが、同社のHanns Tappeinerによると、第二第三の段階は2016年後期から2017年初期にかけてだ。

Tappeinerはこう説明する: “Cozmoの開発にはすでに4年半あまりを費やしている。消費者向けロボットとしてはもっとも高度なものの一つになるだろう。SDKを作ることは、かなり容易な作業だった”。SDKはPythonで書かれていて、それらがこの元気なかわいいロボットの100万行にもおよぶコードにアクセスする。それによりデベロッパーは、顔認識や歩行経路の計画、3Dモデリングなどの複雑なアクションを、ほんの数行の簡単なコードで書ける。

Ankiの構想は、さらにもっと大きい。Tappeinerによると、CozmoのSDKはロボットプログラミングを大々的に大衆化し、同社が数年かけて開発してきたシステムを小中学生でも自分のプログラムで利用できる。ユーザーにはできるかぎり多くを提供し、ほとんど制約なく、Cozmoのコードにアクセスできるようにしたい、とTappeinerは言っている。プログラマーにとっての利用価値とともに、初めてプログラムを書く人たちにも使えるようにしたい、というのだ。

Unique_Cozmo_Facetracking-2

Tappeinerは語る、“ロボットという分野を、もっと一般的なものにしたい。どんな産業でもそうだと思うが、それが実験室から一般社会に大きく拡散して、非専門家でもアイデアやフィードバック等で貢献できるようになれば、それでやっと、一人前の産業と言える。2007年に、スマートフォンが大変身したように、ロボットも、そろそろそうなるべきだ。今やスマートフォンでは、専門のデベロッパーだけでなく、アーチストや化学の専門家など、いろんな人がアプリを作っている。そうなって初めてその産業は、爆発的に成長していくのだ”。

SDKは最初ベータでリリースし、いろんなフィードバックを得てから、消費者デベロッパーも対象とする最終リリースへ向かう。同じ期間にAnkiは、アプリの配布の形式も検討する。新たにアプリストアを作るべきか、それともiOSやAndroidなどの既存のアプリストアを利用すべきか、など。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))