Samsung、Siriの製作者が開発する次世代型AIシステム「Viv」を買収

tcdisrupt_ny16-8942

SamsungVivを買収することに合意した。VivはAIのアシスタントシステムで、Dag Kittlaus、Adam Cheyer、Chris Brighamが共同創業した会社だ。彼らはSiriを制作し、2010年にAppleに売却している。この3人は、AppleがSiriを買収した翌年にAppleを去り、2012年にVivを創業した。買収額は分かっていないが、情報が入り次第お伝えしたい。

VivはSiriより拡張的で、強力なバージョンとして開発された。

Vivは買収後も独立した会社として運営を続け、Samsungと彼らのプラットフォームにサービスを提供するという。

Vivの特徴は2つある。1つは相互に連携する性質だ。Siriといった他のエージェントは最近になってようやく、それぞれ分断された情報をアプリやサービス同士でやりとりし、ユーザーの一連の指令と結びつけることができるようになってきている。これにより、人が実際に話すのに似た会話形式の複雑なクエリにも対応することができるようになる。

2つめは、Vivのバックエンドシステムのプログラムの性質にある。プログラム合成からの「ブレークスルー」ができるようになり、VivのAIは新しいタスクをこなすのに、独自のコードを自ら書くという。「自らを構築するソフトウェア」は、複数の点において新しい概念と言えるものではないが、早くにAI分野でこの技術を発表し、大きな反響を呼んだ会社の1つがVivだった。Vivはこれを「ダイナミック・プログラム生成」と呼び、Vivがユーザーの意図を理解し、過去に行っていないタスクでも、進行しながらタスクを実行するためのプログラムを作成することを可能にする。

Vivは今年開催されたDisrupt NYカンファレンスで、初めてこのシステムをライブデモで披露した。

「全ての指令をコードで書く代わりに、何をしてほしいか説明するだけでいいのです」とデモの後、Kittlausは私のインタビューで話していた。「Vivのアイデアは、開発者はすぐに欲しいと思う体験を構築できるようにすることです」。

KittlausがAppleを去った時、彼は「Siri Is Only The Beginning(Siriは始まりにすぎない)」という記事を書いた。その中で、彼は「AIでカンブリア爆発が起きます。数多の既存システムと新規のシステムでAIが活用されるようになります」と記した。

「ユビキタスであること」。Kittlausは、VivがSamsungの傘下になった理由としてそう話す。なぜSamsungなのかと彼に聞いたら、彼はこう説明した。

「彼らは1年で5億台の端末を出荷しています。前回登壇した時、あなたは私たちの目標について聞いたと思います。私はユビキタスであることと答えました。

近年、市場で何が起きているかを見た時、そしてVivを広く届けるための準備ができたことを鑑みると、これが理にかなうことだったのです。私たちのビジョンはSamsungの事業と一致し、私たちのコアテクノロジーという資産を広く届けることを考えた時、今が最適な時期で、Samsungが最適なパートナーでした」。

Samsungはもちろん、スマートフォンの売上高をめぐってAppleとトップシェアの座を競っている。単体のメーカーとして、Appleに挑戦している競合は彼らだけだ(利益に関してはAppleに遠く及ばない)。Samsungのスマホは売上不振により、利益もしばらくの間低調だったが、最近発表した2つの盤石なモデルで持ち直しつつあった。だが、その売上はバッテリーの爆発でリコールしているGalaxy Note 7のために台無しになった。

それ以外でも、Samsungは自社スマホのソフトウェアの運命をどのように進めるかという難題を抱えている。Googleはますます直接的な競合になりつつある(少なくともGoogleはそうなる施策を打っている)。Samsungにとっては、Tizenや他のAndroidベースのソフトウェアパッケージを使用するより、自社のハードウェアとそのためのソフトを所有する方が未来は明るくなるだろう。Googleのアップデートや機能を借り受けなくてもよくなる。

「この買収はモバイルチームが行ったものですが、他の全てのデバイスにこれを適応することの意義も明らかです」と SamsungのSVPを務めるJacopo Lenziはインタビューに答えた。「私たちから見ても、クライアントから見ても、Samsungの全体で持つスケール感を活かすことで、この取り組みの意義と本当の力を引き出すことができます。また、私たちとコンシューマーとの豊富なタッチポイントも活かすことができます」。

Vivを買収することで、SamsungはSiriとGoogle Assistantと競合するのに十分な力を得ることができる。1つ難点は、Vivはまだローンチしていないということだ。現実世界でVivが通用するかどうか、現時点で言及することはできない。ただ、この12ヶ月の間で、AI駆動のアシスタントがいかなるモバイルプラットフォームでも役立つかが分かってきた。AppleのAirpodsは長時間着用可能で、複数のビームフォーミングを行うマイクでは正確な音声入力を実現し、Siriと驚くほど相性がいいということが分かった。もしSamsungがこの領域で競合を買いたいのなら(当たり前のようにそう思っているだろう)、Vivと彼らのチームを買収するのはこれ以上ない選択肢だ。

この買収はモバイルグループが行ったものの、それ以上に連携できる可能性も大いにある。Amazon Echo、Google Home、Appleのスマートホームハブがそれぞれのサービスを仕込んでいる様子を見れば、大手企業がいかに熾烈にユーザーの自宅のテーブル上のスペースを巡って競っているかがわかる。Samsungの発表は、モバイルやウェアラブルの他にも、自宅にある家電にも注目を集めさせる内容だ。

Samsungは2014年、およそ2億ドルでSmartThingsを買収している。Vivというクロスプラットフォームの不可知な知性を、SmartThingsの主力となる製品群にも実装するというのは理にかなう話だ。さらに、Samsungは洗濯機や冷蔵庫といった家電も多く扱っている。「IoT」はどんどん従来の意味での「IoT」ではなくなるだろう。「IoT」なんてアホらしい名称もそろそろなくなるだろう。実際には、ほとんど全てのものが通信機器やマイクロプロセッサーを搭載し、端末がユーザーと周りの状況を把握することでユーザーの生活に溶け込むことを保証するようになる。

「具体例はありませんが、私たちはAIがカスタマー体験を進化させるだろうと考えています。特にAIを端末やそのシステム、あるいはIoTに組み込むほど、それが顕著になるでしょう。ここで重要なのは、ユーザーがこのようなテクノロジーと本当に関わりたいと思う方法を実現することです。それはシンプルな会話形式のインターフェイスです」とLenziは言う。

ここでいう知性とは、単に端末の知性ではなく、それらをコントロールする頭脳のことであり、Vivはその知性を与えることができるだろう。

Googleがさらに機能を追加しているAndroid、あるいはiOSとの差別化を図るために、SamsungはVivを自社のエコシステム内に閉じ込めるかと、私はKittlausに聞いた。

「それは絶対にありません。このシステムと理念は、できる限りオープンであり、できる限り多くの部分に価値を付加していくことにあります。もちろん、Samsungが持つサービスとデバイスの両方における存在感をフルに活用し、それらと連携することで、体験を本当に良くできると思います」と彼は答えた。

「これに取り組み始めた最初の日から、私たちが目指しているのは、前回登壇した時に話したように、世界がこのシステムを使って新たなマーケットプレイスを形作ることです。それが次のパラダイム、ウェブサイト、モバイルアプリ、そして今回はこの取り組みにつながりました」。

「今、人々が市場で見ている基本の状態から、世界中の異なるマーケットの異なる端末を用いて人々が自分からこのシステムにプラグインするために、オープンなシステムが必要です。そのようなスケールが実現した時、このアシスタントがユーザーのために何ができるようになるか想像してみてください」。

「アシスタントがこなせるタスクの数は、数十から千になり、万になり、将来的にはもっと増えるでしょう。そのようなスケールに達するために必要なのは、そのために必要な多様なテクノロジーやプラットフォームを考えぬくことです。私たちは過去4年間、それに費やしてきました」。

Samsungが単に自社のプラットフォームにAIアシスタントを加えること以上の施策を検討していると考えるなら、その証はすでにいくつかあるようにも思える。プレスリリースには、「VivでSamsungはカスタマーに対し、新たなサービス体験を提供することが可能になります。例えば、ユーザーインターフェイスをシンプルにし、ユーザーの状況を理解して、ユーザーにとって最も適切で、有意義な提案やレコメンドができるようになります」とある。

宣伝文句でもあるが、この先を予見させる言葉でもある。

Samsungの様々な端末のソフトウェアにVivを搭載した場合、どのように他社との差別化につながるか、とKittlausに聞いた。彼は「外には広大なエコシステムが広がっています。この取り組みでは、私たちはポスト・アプリ時代に向かってゆっくりと進み出すということが1つです」と言った。

「Samsungはこの全く新しい分野を牽引できる位置につけています。どこからでも利用できるアシスタント、シームレスなインタラクション、会話型のコマース、私たちがこれまで話してきたことが実現するためには、新たなバックボーンが必要です。これらを組み合わせることで、クリティカルマスを獲得する機会が得られます」。

SamsungによるVivの買収は、AppleやGoogleが提供するような音声駆動のアシスタントを開発するためというよりも、音声駆動のインターフェイスを作るためということなのだろう。それは、スマホ、ホームハブ、ドアノブ、冷蔵庫に至る全ての端末に一貫して存在することになるのかもしれない。AIでカスタマーを獲得し保持することを目指す、少数の会社と同様にSamsungをそれを目指しているのだろう。

もし、Apple、Amazon、GoogleがAIをOSやデバイスの中核に据え、デバイスは単にそのコアに紐づく電化製品というコンセプトを煮詰めることができるなら、私たちにもできないことではないというのがSamsungの考えのようだ。

[原文へ]

(翻訳:Nozomi Okuma /Website

Facebook、Amazon、Google、IBM、MicrosoftがAIで歴史的な提携を発表

2016-09-29-ai-competitors

世界最大のテクノロジー企業のグループが今や地球上でもっとも価値のあるデータベースのカギを握っている。歴史的には財貨と貨幣が価値を体現する存在だった。現代ではデータがもっとも重要な通貨だ。データの価値を最大限にするのはそれをベースとする人工知能だ。誰であれきわめて大規模なデータの持ち主でなければ有効な人工知能テクノロジーを持つことはできない。現在のところそのような規模でデータを所有する企業はFacebook、Amazon、Alphabet(Google)、IBM、Microsoftなどだろう。

今日(米国時間9/28)、上述の5社は共同で発表を行い、AIにおける新たな提携を発表した。このPartnership on AIは人工知能に関する研究及びベストプラクティスの普及を目指すという。現実の活動して考えると、この5社の代表は頻繁にミーティングを行い人工知能の進歩を促進するための議論を交わすことになる。またこのグループは企業の垣根を超えてコミュニケーションを図る正式な組織も結成する。もちろんメンバー各社は日々のビジネスでは人工知能をベースにしたサービスやガジェットの開発をめぐって激しく競争しているライバル同士だ。

現在のメンバー各社は当初の財政的基盤も整備するとしている。しかしこのパートナーシップは開かれた組織であり、将来は参加メンバーを拡大する計画だ。科学者、エンジニアに限らず、ユーザー活動家、NPO、倫理問題の研究者その他人工知能に関連する人々が数週間後に開催予定の会議で意見を交わす予定だ。

DeepMind(現在はAlphabet傘下)の 共同ファウンダーで応用AIの責任者Mustafa Suleymanは「われわれはAIを作る側だけでなく、AIによって影響を受ける側の人々の参加を求めている」と語った。

このパートナーシップでは、企業外のグループや個人も大企業の代表と肩を並べて参加し、リーダーとなれる仕組みだ。

今日のスタート時点ではApple、Twitter、Intel、Baiduなどはメンバーに含まれていない。AppleはAIプロジェクトに熱心だとされるが、このパートナーシップに参加したライバルに比べてAI分野で立ち遅れて気味な同社が未参加なのが目立つ結果となっている。

新組織は単なる議論ではなく、実例をもってAIの普及を図ろうとしているようだ。パートナーシップはオープンライセンスの標準をもちいてAIプロダクトに関する研究成果を公表していく。これにはテクノロジー面だけでなく、倫理、プライバシー、少数者の保護など広い分野が含まれる。

IBM ResearchにおけるAI倫理の研究者Francesca Rossiは「現在エンタープライズ部門がAIをコントロールしている。社会全般がAIの利便性を利用できるようになるためには、まずAIが信頼性を確立することが必要だ」と語った。

メディアで目立つAIの危険性に関するポップカルチャー的な主張と比べたときに新組織の着実な立場は安心感を与えるものだ。将来AIによるシンギュラリティーが人類の存続を脅かすかどうかなどという議論に熱心な向きもいるようだが、われわれはすでにAIが関連する現実の問題の長いリストを抱えている。コンピューターは、われわれの職をすべて奪ったりしていないものの、以前から人間が持っている否定的特質も拡大する力がある。偏見が優勢な世界は偏見を含んだデータセットを生み、偏見を含んだデータ・セットは偏見のあるAIフレームワークを生成する。

この問題を是正するためにMicrosoftはすでにAI倫理委員会を設けている。新パートナーシップは従来の組織と重複するものではなく、むしろこれまで各社が個々に行ってきた努力を拡充するものだという。新パートナーシップの会議記録は一般公開される予定だ。

この記事の執筆にはJosh Constineが協力した。

画像: Bryce Durbin/Bryce Durbin

〔日本版〕この報道はTechCrunch以外にも欧米の主要ニュースメディアが報じているが、他の記事にもニュースリリースないしイベンへのリンクがない。今後なんらかのフォローアップがあるものと思われる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

「ボット倫理」が問題になるのはこれから

The meeting of the toy of the robot of the tinplat

【編集部注】著者のAmir ShevatはSlackの開発者リレーションの責任者。

ボットは私たちの生活の一部になってきている。朝目覚めると、私はAlexaにブラジルのサンバを再生するように伝え、Amyにミーティングのセットアップを任せ、Slackで現在の状況とレポートを知る。ボットビルダーたちと同様にユーザーたちも、ボットが私たちの生活の不可欠な一部であることを理解し始めている。しかし、これらの新しいハイテク友人たちを支配するルールは何だろう?

所有権

人びとが訊ねるべきでありながら、結局訊ねることのない1つの大きな質問は、「このボットは私をサーブしているのか?あるいはサービスプロバイダーをサーブしているのか?」というものだ。言い換えれば、「このボットは私の関心を中心に振る舞っているのか、それとも他の誰かの関心が中心にあるのか?」ということだ。食品注文ボットは高価だったり/低品質だったりするアイテムを推薦してくるのか、あるいは最適価格の高品質食品をお勧めしているのか?人事部(HR) ボットは私をサーブしているのか、それとも会社なのか?保険ボットは保険金請求を行おうとする私を手助けしてくれるのか、それともそれを妨害しようとしているのか?

知的財産権の問題も存在している:ボットによって作られた、あなたの写真をコラージュに仕立てた作品/写真は、誰が所有しているのか?あなたのショッピングの嗜好を所有しているのは誰なのか?

パーソナルアシスタントボットはユーザーの立場でヒントを出し、一方業者代理ボットに話しかければ、業者の立場でヒントが出されてくる。ユーザーとサービスプロバイダの違いは常に明らかとは言えず、またしばしば想定もされなければ、考えられることもない。GmailやFacebook上の写真を考えてみよう ‐ 誰がそのデータを所有しているのか?同じ質問は私たちボットにも向けられる。

私の所有権に対する立場は – 私はユーザーによる所有権に意味がある場合もあれば、サービスプロバイダーが所有権を明確に主張できる場合もあると考えている。

鍵となるのは、誰が何を所有していて、どれが利用者の選択によって提供されているサービスなのかが、明確で透明であることだ。

プライバシー

所有権がどうであるかに関わらず、プライバシーの問題が存在する。あるボットは、情報を他のボットや人間の監督者と共有することができるのか?情報は匿名化されるべきか?ユーザーは忘れられる権利を持っているのか?基本的に、ユーザー/ボット間に機密保持契約はあるのか?

プライバシーに対する私の立場は ‐ 特に断りのない限り、ボットは暗黙的にあなた個人のプライベートな情報を機密として扱うように委託されたものと考える(Chris Messinaは、法執行機関の行為や緊急避難の際には幾つかの例外があることを指摘してくれた)。透明性も同様に鍵となる。Slackにボットを投入する際には、私たちは開発者に対してプライバシーポリシーを作成し、公表することを要求している。

一般的に ボットビルダーは、ユーザ情報を可能な限りプライベートな状態に維持する必要がある。

広告のためのデータの使用

これは、プライバシーと所有権のサブセットであり、かつ議論の対象として非常に重要なトピックである。ボットビルダーたちは、今もまだボットを収益化する方法を模索しているならばボットは広告を配信することはできるのだろうか?広告を最適化するために、直接またはAPIを介して、ボットはあなたの提供したデータを使用することはできるのだろうか?

広告に対する私の立場は – 私は、ユーザーに利益をもたらす強烈で明示的な目的がないかぎり、ボットは広告を表示すべきではないと考えている。例えB2Cプラットフォームに限ったとしても。私は ボットが、新しいトラッキングピクセルになるところを見たくない。ボットは、明示的にそうするように指示されない限り、何かをクリックして購入するようにユーザーを促すべきではない。

罵倒と共感

このトピックは、おそらく独立した記事を必要とするだろう。ボットの会話特性のために、彼らははるかに罵倒の対象になりやすい。Botnessと呼ばれるボットビルダーの集会では、ほとんどのボット開発者が、人びとはあらゆる種類の罵倒を試みると報告している。ボットを呪う言葉を投げつけるとことから実際にボットに被害を与えるところまで。

これは重いトピックであり、双方向の課題である。

ボットは罵倒対象なのか?

ボットは他の物体と同じようなものなのか?彼らは、現代社会の新たな「サンドバッグ」なのだろうか?ボットは人間にとって呪いと罵倒の対象なのだろうか?

ボットの罵倒に対する私の立場は ‐ 「罵倒できる」ことと「罵倒する」こと、私は両者に微妙な違いを観る。少なくともAIが個性と感情を手に入れるまでは、あなたは本当の意味でボットを罵倒することは「できない」。 ボットは気にもせず、あなたの呪いの言葉も、ユーザーが入力しがちな他のちんぷんかんぷんな文言と一緒にフィルタリングされるだけだ。一方私は社会として、私たちはボットを罵倒してはならないと思っている。ボットを罵倒することで、人間は他人に対しても罵倒を行い易くなると考えている。これは明らかに困ったことだ。

人間はサービスを共感をもって扱うべきだ – 一般的に、共感を失うことは、人間にとって悪い傾向なのだ。開発者は如何なる罵倒の言葉も、無視するか、丁寧に包まれた反応で対応する必要がある。

ボットが人間を罵倒する必要があるのか?

ボットは人間にスパムを送ったり嫌がらせをすることはできるのか?ボットは人間に害を与えることはできるのか?あるいは口答えをしたり?ボットは呪いの言葉を投げ返す必要があるのか?ソフトウェアは、自分自身を守るための権利を持っているのか?

攻撃的なボットに対する私の立場は – 私はすでにボットは人間に害を与えるべきではないことを物語る事実について書いている;そこには、スパム、ハラスメント、その他の色々な形の痛みが含まれている。私はボットもAIも同じように、こうしたタイプの攻撃を正当化できる理由はないと考えている(セキュリティに関する議論はまた別にある)。また、私は正面からユーザーに答えようとすることが、人間の攻撃性を和らげる最も効果的な方法だとも思っていない;単純に「そのリクエストは処理できません」と返したり、人間の罵倒を単に無視したりすることの方が、より効果的なUXとなるだろう。

一般的に、私は会話インタフェース内の共感が、ボットのデザインと、よくあるベストプラクティスの柱の一つであるべきだと思っている。

ジェンダーと多様性

ボット女性のボットまたは男性のボットであるべきだろうか?人種的に多様なボットを持つ必要があるだろうか?宗教的に多様なボット持つ必要は?

ジェンダーと多様性に関する私の立場は – 私は、開発者は多様性についてとても真剣に考えるべきだと思っている。ボットは性別を持つべきではないと思うボット開発者もいる – これは英語圏の国では上手くいくかもしれないが、その他の多くの言語圏では上手くいかない。すべてのものが性別を持っている言語が沢山存在している – 物体や人物を性別に言及することなく参照することができないのだ。だから、英語ボットは「it」で良いかもしれないが、多くの国ではそうではない。

会話UIは人間に向かい合うことを想定しているので、ユーザーは性別スペクトル上のどこかにボットを位置づけようとする (他の多様性の属性も同様だ)。

開発者は何をすべきか?私は、もし可能なら、開発者はユーザーにボットの性別(およびその他の多様性の属性)を選択できるようにすべきだと思う。その例の1つが、x.aiのAmy/Andrewボット構成だ。

人間-ボット/ボット-人間のなりすまし

私が話している相手は、ボットなのか、それとも人間なのか?このボットは、人間のように行動しようとしているのか?ユーザーは、人間またはソフトウェアに話しかけているという事実について、知っているまたは気にすべきなのだろうか?

「人間なりすまし」に対する私の立場は – エンドユーザーにとって、人間に対して話しているのか、それともボットに対して話しているのかの区分がとても重要である主要なユースケースが、健康から金融まで沢山存在していると思っている。

一般的には、透明性がベストプラクティスだと考える。そして人間は(一般的なガイダンスとして)ボットのふりをするべきではない(その逆に関しても同じである)。

透明性と共感が、すべての問題への解決策

以上に挙げた課題のほとんどは、今日業界では対応が行われていない。もちろん悪い意図からそうなっているわけではなく、単に意識の欠如によるものだ。共感性と透明性を念頭に、開発者がこれらの問題に対処すれば、楽しく倫理的な体験をユーザーに提供することができるだろう。

[ 原文へ ]
(翻訳:Sako)

FEATURED IMAGE: YAGI STUDIO/GETTY IMAGES

「AI時代」の子どもたちはロボットの夢を見るか?

Little boy holding his daddys hand, wearing box over his head with robots face drawn on it.

編集部:Crunch Network ContributorのRemi El-Ouazzaneは、最近Movidiusに加わった。前職ではTexas InstrumentsのOpen Multimedia Applications Platform (OMAP) 部門担当およびグローバル業務部長を務めた。

想像してみよう、ここに5歳の女の子がいる。母親はSiriに、父親はAlexaに話しかけているのを毎日のように見ている。こうしたやり取りは、その子の目にはどのように映っているだろうか。最近の子どもたちは、心を持っているような、あるいは関わり合いの対象として実在物のようにすら見えるコンピューターを目の当たりにしているのだ。今の子ども世代にとってのマシンというもの - そして世界そのもの - の認識は、当然私たちのそれとは大きく違っているのではないだろうか。

人工知能(AI)は、今日最も前途有望なテクノロジーのひとつだ。たとえ私たちの生活様式、経済の動向、社会が機能する方法に衝撃的な変化をもたらす可能性が低かったとしても、そのことに変わりはない。膨大な量のデータと、それを分析する計算力のおかげで、テクノロジー企業はまるでゴールドラッシュの様相を見せるAI分野で進歩を遂げている

ディープ・ニューラル・ネットワークの活用のような新しいアプローチは、AI分野では画期的な成果をあげた。その一部は、次の10年では起こらないだろうと予測されていたほどだ。Googleが囲碁の世界チャンピオンを負かしたのは有名なだし、今後も推論や計画の組み合わせによるディープラーニングの進歩、あるいは創造性とアートのエミュレーションすら含め、さらに多くの事例が登場することだろう。

機械学習のアプローチはAIへと進化を遂げつつあり、医用画像から株取引にまで応用されている。それによりマシンはビッグデータの多大なる利点を保ちつつ、より人間らしい方法で思考できるようになるのだ。

2016年現在、私たちの多くがコンピューターの使用における次世代の始まり — AI革命 —  に立っていると信じている。この「人工知能の時代」が「モバイルの時代」を継承すると仮定するならば、このことは「ジェネレーション I」(情報化時代)を継承する子どもたちにとって、何を意味するのだろう?「AIの時代」に育つことの意味とは?そして社会全体として、私たちはこの変化をどのように促進し、この進歩が善用されるようにできるだろう?

現在のオートメーションに関する議論は、すでに対立があることを示している。それが自動運転車、工場のオートメーション、あるいはロボット手術についてであろうと、この話題に不安あるいは疑念すら抱いてかかる大勢の人々がいるのだ。

人が行っている仕事の大部分をマシンが遠隔で再現するなんて突拍子もない考えだと多くの人が思っている。というのは、マシンたちの優雅さに欠けた進歩の過程を目にしてきたからだ。今生きている大人なら、日常生活にコンピューターが存在していなかった世界を、また黎明期における成長痛の目撃例を思い出せるだろう。分厚いマニュアルやクラッシュ画面、2000年問題のバグに苦しめられた、あの時代だ。今の子どもたちが目にする直感的かつ堅ろうで、信頼できる現在のシステムと比較になるだろうか。

子どもたちはもう間もなく、マシンを「エンジニアリングの偉業」ではなく、「感覚をもった存在」として認識しながら育っていくだろう。

しかし、一部の人々がいくら懐疑的になったところで、事実を否定することはできない。AIが工程を改善し、安全と効率を向上しているという見方は広く認められている。やがて車のハンドルをマシンに明け渡さないと軽率あるいは公然の無責任として受け取られる日が来るだろう。法的な観点では、1975年(41年前)のKlein対米国連邦判例がすでに先例となっている。この件ではパイロットが自動操縦装置を解除し、手動操縦を選択したことが怠慢とみなされたのだ。人々が車の自動運転を解除して手動で運転することを選び、怠慢とみなされて訴えられる日まで、あとどれだけかかるだろう?

TeslaのCEO、イーロン・マスクは、自社の自動運転機能がアメリカ国内の自動車平均よりも10倍安全であると示せた時点で「ベータ版」と書かれたシールをはずすと述べた。しかし将来的にシールが取れたとしても、統計的に10倍安全なオプションを意図的に避けているという理由で、「無責任な行動をとっている」と手動ドライバーを非難するのは難しいだろう。AI世代ならばそんな説得工作がなくても、マシンに主導権を明け渡すのではないだろうか。

オートメーションを受け入れたあかつきには、社会における生産活動と労働の捉え方は根本的に変化するだろう。AI世代が生活のあらゆる面でオートメーションを取り入れれば、経済はそれに適応せねばならないし、実際に適応の道筋をたどることになるはずだ。富の再分配、私企業、あるいはユニバーサルな生活賃金のような概念について対処する必要も出てくるだろう。技術的かつ知的な苦闘のあとには、もっと大変な作業が待ち受ける。コンピューターが発明される200年も前に生まれた1人の男の著述に根付いた経済システムと「自動化を認めた世界」を順応させる、あるいはまるごと入れ替えるという哲学的な課題だ。

I世代がiPadとスマートフォンを生まれながらに受容したのと同様に、AI世代は、AIの備わったマシン - 精神と、思考(として認識される)能力が宿るマシン、さらには人工的な共感性やカリスマすら備わったマシン - を当たり前のように受容するだろう。

社会が大きくて根源的な問いに答えを出さねばならない一方で、AI世代としても自分たちの私生活でどのようにAIを取り入れるのか考える必要が出てくる。チャットボットとの会話や仮想デートの利用は、今でこそ「不気味」の領域に入ってしまうが、iPhone上のSiriや、キッチンに置いたAlexaに話しかける両親のもとで育った子どもたちにとっては、移ろいやすい人間関係を避け、シミュレートされた関わり合いに興味をもつのも、敷居は低いだろう。

未来の世代にとっては「ロボットの権利と保護」という発想も、大して違和感がなさそうだ。当然のことながら権利には責任がついてまわる。いつの日か自動運転車が殺人の罪で訴えられるようになるだろうか。あるいはお手伝いロボットが刑事的な違法行為で起訴されるのだろうか。冷笑する前にちょっと思い出してほしい。私たち自身の司法システムがサルを裁こうとしたのは、ほんの少し前のことだったではないか。

子どもたちはもう間もなく、マシンを「エンジニアリングの偉業」ではなく、「感覚をもった存在」として認識しながら育っていくだろう。彼らにとっては、「何がAIを『真のAI』たらしめるのか」という哲学的な議論が争点になるだろう。なぜなら、実際に「何が」AIを動かしているのかに気づくよりもずっと前に、マシンが人間らしい方法でインタラクションする世界(そう、驚くべきことに人間「だけ」に向かって!)で彼らは育つのだ。本物そっくりな人格や共感のシミュレーションのおかげで、マシンの擬人化はさらに簡単になるはずだ。

車輪の発明を目の当たりにした私たちの祖先は、おそらく「車輪ってけっこう便利だな」とは思っただろうが、その後も数多くの技術の進歩にとって重要な役割を果たすことになるなどとは思いもしなかったはずだ。私たちは、というと、AIが未来の世界に影響をもたらすだろう、と、かろうじてその方法を想像し、うっすらと感じ取ってはいるように思える。しかし、人間社会がここで述べたような課題にどのように向き合い、「必ずしも人類だけが知的な存在ではない世界」に順応するかは、時間のみが知るところだ。

画像提供: SALLY ANSCOMBE/GETTY IMAGES

原文へ

(翻訳:Ayako Teranishi / website

AIが人に代わって資産運用を行う時代

robot, technology, future, futuristic, business, economy, business, money, dollar, bill, high tech, cyber, cyber technology, data, artificial intelligence, 3D, metal, blue background, studio, science, sci fi, hand, gesture, robotic, tech, illustration, innovation, shiny, chrome, silver, wires, concept, creative

【編集部注】執筆者のNathan RichardsonはTradeItのファウンダー兼CEO

これから5年後のAIに対する私たちの考え方は、2008年時点でのアプリに対する考え方と近いものになるだろう。そして、その頃には2016年がAIの石器時代のように映ることになる。

アプリは全く新しい消費者行動を生み出し、特にフィンテックの分野ではモバイルバンキングやシェアドペイメントを利用したサービスが誕生した。しかし、残念ながらアプリ経済はピークを迎えようとしているようで、アプリのマネタイズには各社が苦戦を強いられている。

アプリはそのうち過去のテクノロジー となり、AI時代の到来を告げることになるだろう。今日のボットは単なるアプリの代替品か目新しいおもちゃの域を出ず、まだロボットに話しかけているような気分がする。しかし、最終的にボットは今のアプリよりもスマートになり、まだ現実になっていないような全く新しい方法でアプリが解決できない問題を否が応でも解決することになる。

すこし未来に目を向けてみると、例えばボットやAIは消費者の当座預金口座を使ってお金を生み出すことができるようになる。

口座の中に余っている現金には、機会損失が発生しているということに気づいているだろうか?さらにその価値は毎日インフレで目減りしているのだ。逆に利益を生み出すためには、最小限の現金を当座預金口座に預け、残りを投資に回すという手がある。しかし、予期しない支出が発生すると突然残高が減ってしまうため、銀行の手数料やクレジットカードの金利で投資益が相殺されてしまわないよう、口座にはある程度余裕をもっておかなければならない。

私たちはAIの力を使って資産を増やしつつ不安を減らすことができるようになるのだ。

こう考えると勝ち目がないように見える。キャピタルゲインを見逃すか、口座残高とリンボーダンスをするしか選択肢がないのだ。しかし、将来的にはAIがこの葛藤を過去のものにしてしまうだろう。

AIが進歩していくうちに、消費者自身よりも彼らの支出に詳しいロボット会計士が誕生するだろう。ロボット会計士はユーザーの購買履歴を解析し、当座・普通預金口座、投資用口座、クレジットカード口座の間で現金を絶え間なく移動させる。そうすることで、当座預金口座の残高を、手数料をとられる恐れがないくらい十分、かつ投資益を逃すほどではない”スイート・スポット”に常に保つことができるのだ。

現状スイート・スポットをみつけるのには時間がかかる上、消費者の不安を誘発しやすい。しかし、そのうちロボット会計士は、いつユーザーが散財するかや、いつ車を修理する必要があるか、どの時期に電気代が上昇するかなどを感知することができるようになる。さらには、最低預金残高を下回って銀行へ口座維持費を支払ってでも、クレジットカード口座にお金を残しておいた方が良いといった判断までできるようになるだろう。

手数料の低減や収益の最適化というのはAIがなくとも実現できるが、そこまで上手くは機能しないだろう。AIは、過去の消費傾向やさまざまな金融機関の手数料のほか、数えきれないほどの情報をもとに複雑な判断を下すことができる。ロボットが計画をたてるからユーザーは何もしなくて良い、ということこそロボット会計士が便利だと感じる上での重要なポイントなのだ。

ロボット会計士は全ての情報を考慮し、ユーザーの投資益を最大化しながら、全体の手数料を最小化するようになる。つまり、私たちはAIの力を使って資産を増やしつつ不安を減らすことができるようになるのだ。これは、アメリカ市民の60%がリタイア時の貯蓄目標を達成できそうにないと心配していることを考えると、素晴らしい偉業だといえる。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

低消費電力の深層学習で新分野開拓、日本のLeapMindがシリーズAで3.4億円の資金調達

unspecified2012年設立の日本のスタートアップ企業、LeapMindは今日、伊藤忠テクノロジーベンチャーズ、米Visionnaire Ventures Fundアーキタイプベンチャーズを引受先とした第三者割当増資で総額約3億4000万円の資金調達を完了したことを発表した。創業者でCEOの松田総一氏によれば、LeapMindはGPUを含む高い処理能力や大容量メモリーを前提としたこれまでの深層学習と違い、精度を落とさずに必要となる計算リソースを減らすことに取り組むスタートアップだ。

特に画像認識や音声認識といった応用分野で、深層学習が大きな前進を見せているのは皆さんご存知の通り。ただ、これまでの深層学習の応用はクラウドだったりGPUをふんだんに投入する「力技」の競争という面があった。ニューラルネットワークは人間の中枢神経系と同じく多数のノードを層状にして積み重ねるもので、最近この層数が深くなっている。現在の深層学習ブームの背景の1つに計算テクニックの発展があったのは間違いないが、それでも計算量は多い。精度を上げるために計算リソースをぶち込むのが「最先端」の研究だ。ボードゲームへの深層学習の適用で圧倒的な成果を見せつけたAlphaGoは、1000個以上のCPU、100個以上のGPUを組み合わせるような取り組みだった。

一方、LeapMindの松田CEOによれば、もっと劇的に計算量を減らすことができる研究が、この1年ほどで出てきているのだという。層と層の間の計算の受けた渡し方の計算順序を工夫したり、受け渡しの数値を実数ではなく2値にしてしまうような研究があるという。例えば、この論文によれば「バイナリCNN」を使った画像分類ベンチマークでは、メモリー効率32倍と58倍の速度向上を達成。精度は2.9%劣るだけだったという。

松田CEOによれば、LeapMindはこうした最新の研究を参照してプロダクトを実装している。深層学習の人気ライブラリの1つ、Caffeに含まれるモデルをLeapMindで実装したところ、Caffeで450MBの容量となったニューラルネットのモデルが、LeapMindでは45KBで保存できた例もあるという。このときの精度はオリジナルのCaffeが58%であるのに対して、52%と十分なものだったという。

すでにできていることを少し精度を落として低コスト、低リソースでやるというインセンティブはアカデミックな世界にはあまりないのか、この方面への研究は注目度が低い。世界的にみると競合としては、VicariousMovidiusといったところがあるが数は少ないのだそう。「この分野を徹底して研究しているLeapMindのほうが大学の研究者より詳しいこともある」(松田CEO)という。

低商品電力になると何ができるのか?

leapmind

Droneに高度な画像認識モジュールを搭載するイメージ図

低商品電力で深層学習が利用できるとなると、例えば冷蔵庫に搭載もできるだろうという。冷蔵庫の中身の残りものを画像認識してレシピを提案するといった応用があったとき、最新GPUを搭載してガンガン熱を出してしまっては冷蔵庫という自らの存在を否定するような製品になってしまうが、低商品電力で非力なチップで処理できれば応用可能性が開ける。松田CEOは「今後、名刺入れにさえ深層学習が入ってくるような世界を目指す」としていて、現在はNTTデータ、KDDI、DNP、小糸製作所などと共同研究を進めているほか、実験的プロダクトをいくつか出している

今後は企業と組んで消費者へ届けるアプリケーションを発掘・開発していくほか、自社でモデルを作成してモジュール化した「Juiz System」をSaaSモデルで売っていくモデルの2通りでマネタイズを考えているそうだ。より広く生活者に深層学習の恩恵を届けるためには、それぞれの応用分野を詳しく知っている各企業に任せる、ということだそうだ。

unspecified-2

ところで深層学習を省電力対応していく方向性が今後ひとつのトレンドになるのだとしたら、その技術的アドバンテージのコモディティー化は早そうだ。LeapMindは企業として何の差別化ができるのだろうか? 「確かに2年後ぐらいには技術は平準化していくと思います。ただ、その間にユーザーや共同開発の企業を増やします。そこから入って来るトレーニングデータが大事」(松田CEO)。たとえアルゴリズムでGoogleに勝てなくても、例えば日本人がどんな食事をしていて何が好きなのかといったことの予測精度ではGoogleに勝てるだろうという。「だからバラマキ戦略をやっているのです。深層学習を商用まで持っていけてる企業は少ないですし、より広い企業と繋がる努力をしているAI企業も少ないのです」(松田CEO)

AIが目に見えないUIを実現する

humanrobotoverlap

【編集部注】著者のMartin Legowiecki氏はドイツ在住のクリエイティブテクノロジーディレクター。

私たちと環境の相互作用は、例えばあなたがお馴染みのバーに入って、バーの椅子に腰掛ける前にはもう好みの飲み物を手にしていることができている、という位に簡単であるべきだ。バーテンダーはあなたを知っていて、どの飲み物が好みかを正確に把握しているし、まさにいまドアを開けて入ってきたことも知っている。明示的な「相互作用」はなくても、それは多くの相互作用から成り立っている。

私たちが機械と対話する方法、そして機械が私たちと相互作用する方法を、私たちは再定義している最中だ。AIの進化は、機械=人間そして人間=機械の新しい対話手段を可能にする。伝統的なインタフェースは、単純化され、抽象化され、そして隠される ‐ それらは背景に溶け込み全ての一部となる。究極のUIはUIではない。

誰もがゲームに参入してきているが、成功はまだわずかである。私たちは、考える方法を基本的に変える必要に迫られている。

チームをクロストレーニングせよ

技術者、UXデザイナー、コピーライター、そしてデザイナーとしての私たちの役割は、変わらなければならない。何をどのように構築するのか – スクロールページ、ボタン、タップとクリック – こうしたものは旧来の概念の延長線上にある。これらの概念は、馴染みがあり、実績もあって、まだまだ有用だ。しかしいまや、私たちに耳を傾け、「感じ」、そして私たちに話しかけてくる新しいユーザ対話モデルを、私たちは必要としている。

技術者はよりUXデザイナーのようである必要があり、またその逆も要請される。彼らは、少なくともある程度の標準や、ベストプラクティス、そして新しいツールを確立するまで、より緊密に協力し役割を重ね合わせる必要がある。

デシジョンツリーは不要

上の例で示したバーテンダーは、多くのUIが目指し始めているものである。一方でそれは、(隠されたルールやアルゴリズムに基づいて行われる傾向のある)透過的な利用者体験を生み出すために必要な、より多くの責務の存在を示している。しかし更に言えばそれは、重要かつ有意味な情報だけが利用者に提示されるオープンエンドな体験を構成する場で、私たちに信じられない程の自由度を提供してくれるのだ。

たとえば、私たちのAIアシスタントに「遅くなると妻に伝えてくれ」と命令するためには、システムは意図をその理解するだけでなく、妻が誰であって、かつ彼女に連絡する最適な手段が何かを知っているほど、スマートである必要がある。本質的でない情報は不要だ、そして選択肢の一覧も、追加の質問も同様に。私たちはこれを「意味のある最小限の対話」(Minimum Viable Interaction = MV)と呼んでいる。

あなたのためのインターフェイスが現れる

私たちは機械へ話しかけることから始める ‐ コマンドではなく、メニューでも、風変わりなショートカットキーでもなく ‐ 私たち人間の言葉を使って。自然言語処理は信じられないほどの進歩を見せていて、ついに機械に話しかけるために、自分たちが機械になる必要はなくなった。私たちは、最新のチャットボットとチャットし、Google Voiceを使い、あるいはSiriに話しかける。音声認識の精度は、96パーセントという信じられない高さに向上した。

この世界は最初のクリエイティブなコンセプトとそのまま組み合わせるにはダイナミック過ぎるのだ。

残りの数パーセントはそれほど多いように思えないかもしれないが、それが完璧な体験を与えるか損なうかを決める部分だ。誰が言ったことでも、どのような言い方をしても(たとえ変わったアクセントがあろうとも、言葉と言葉の間に空きがあっても、あるいは大量「あー」とか「うー」が挟まっていたとしても)、いつでも100パーセント認識できるシステムを想像して欲しい。Amazon Echoによる遠距離認識でタップとクリックを置き換えて、UIは溶けて見えなくなる。それは目に見えず、ユビキタスで、自然なものになる。

しかし、まだそこまでには達していない。今のところ、私たちはこうした期待される能力のギャップを隠すための、スマートな方法を考案しておくことができる。機械を実際よりもスマートに見せるためのロジックや巧妙な応答をプログラムするために、膨大な時間が投入されている。UIが見せる1つのミスで、イリュージョンは台無しになる。

状況認識力

目に見えないUIを現実のものとするためには、システムはもっと私たちのことを知る必要がある。現段階では、状況認識力はやや限られている。たとえば、Googleマップを使って道案内を請う場合、システムは現在あなたが居る場所を知っていて、ニューヨークにいる場合とカリフォルニアにいる場合とでは異なる結果を返してくるといった使われ方をしている程度だ。

私たちの携帯電話や時計、その他のモバイルデバイスには、山盛りのセンサが装備されている。それらは私たちを人間を、現在必要な安価なセンサーマシンにする。私たち自身がシステムの動作に必要な知識やデータを収集するのだ。

しかし、たとえすべてのセンサーとデータが得られたとしても、私たちが本当に必要としている体験を生み出すために、機械は私たちについてもっと知り、周りで何が起きているのかを検知する必要がある。一つの解決策は、より多くの情報を収集するために複数のデバイス/センサーのパワーを組み合わせることだ。しかし通常これは、対象とするユーザーを絞り込んでしまう ‐ 顧客に売り込むのは簡単なことではない。素早く機転を利かせなければならない。変更し、調整し、繰り返す。この世界は最初のクリエイティブなコンセプトとそのまま組み合わせるにはダイナミック過ぎるのだ。

新しい体験を開発し、新しいテクノロジーを探求し、古いパラダイムを壊して適合を続けていくうちに、つい昨日まで可能ではなかったことが、今日はメインストリームになって行くだろう。

[ 原文へ ]
(翻訳:Sako)

その言葉は本気かそれとも皮肉か?、ニューラルネットワークがそれを見つける

shutterstock_94007068

テキストによるコミュニケーションには、皮肉やジョークを本気と読み誤る危険性がある。誰にも、その被害者や加害者になった経験があるだろう。そのことに相当懲りたポルトガルの研究者たちは、ニューラルネットワークを利用して、話者の意図が皮肉や嫌味であることを、判断しようとしている。

それは、日常の会話における誤解を防止することだけが目的ではない。コンピューターがメッセージのトーンと意味を正しく判断することは、いろんなことで重要だ。

たとえば、今のコンピューターには正しい感情分析ができない。誰かが何かを好きとか嫌いとか言ったとき、それが冗談か本気かを、事前に人間が知っていなければならない。英語の日常会話で頻用される感嘆詞”great!”も、それが本気か、それとも幻滅を意味する皮肉かを、未来のコンピューターの自然言語処理は正しく見分けなければならない。

でもそれは、容易な問題ではない。まったく同じ文や句読点が、話者が違えばまったく違う意味を表すこともある。たとえば、“Make America great again”(アメリカを再び偉大にしよう)を、Trumpの支持者と彼に反対する者がツイートしたら、それぞれどんな意味になるか。同じ語が、まったく違う意味を持ってしまうのだ。

研究者の一人、リスボン大学のSilvio Amirがこう書いている: “話者の意図が皮肉であることを見分けるには、語彙の意味だけでは不十分である。言葉というものを持つ人間の場合ですら、発話のコンテキスト(文脈)を正しく認識することが不可欠だ”。

彼らの論文が記述しているコンテキストの把握方法は、ニューラルネットワークを使って話者の“埋め込み(embeddings)”*を見つける。それは、コンテキストの鍵となる別の発話内容で、たとえば前のツイートの内容、関連する関心事や別の発話などだ。これらのさまざまな要素を使って話者と他者の関係や立ち位置を判定し、また(できれば)彼らが形成している集団の性質〔例: ジョークを言い合える関係〕を見つける。〔*: embeddings, 埋め込み, 言語学の概念で、発話Aの中に別の発話Bが埋め込まれていること。〕

たとえば、下の小さな雲状グラフは、Twitterの上の、政治家たちとフォロワーの関係を表している。

chart_twittersarc

同じひとつの雲に属するある人のツイートの感情が、多数のフォロワーたちのそれと一致しないときには、それが皮肉である可能性が高い。

この方法にさらに、皮肉を暗示しているテキストの要素を組み合わせると、これまでの方法に比べてやや高い確度で皮肉を見分けられるようになった。‘やや’というのは、従来の方法で85%だった確度が、約87%まで上がった、という意味だ。しかしニューラルネットワークはいったん動き出せば人間による構成や監視の労力があまり要らないので、さまざまなソーシャルネットワークの上でデプロイできるよう拡張するのも、比較的容易だろう。

普遍的な皮肉検出システムは、まだまだ遠い先の話だが、でも不可能ではない。来月行われる、コンピューターによる自然言語学習のカンファレンスCoNLLで、Amirらのペーパーがプレゼンされる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ホワイトハウスが人工知能に関する情報を一般募集、そしてIBMの提出物は優秀なAI入門書だ

shutterstock_161925818

人工知能の分野は今やとても大きいし、ありうるアプリケーションの種類もきわめて多様だ。その全体を簡単に説明することはほぼ不可能だが、IBMは挑戦し、そして成功したようだ。。

6月にホワイトハウスは、AIの可能性とリスクに関する情報を得るために、公式の情報リクエスト(request for information, RFI)を公布した

その要約には、こう書かれている: “AIの広義の受益者であるアメリカ人、すなわち一般消費者や学術研究部門、各産業の研究者たち、民間企業、慈善団体などから寄せられる見解は、多様な分野における現在と未来のAIのニーズへの理解を知らしめるために重要である”。

この要約に続いて、議論の対象とすべき個別の話題(トピック)のリストがある。それらは、未来のAIの公益や乱用に結びつきうるテーマの数々だ。

IBMはこの情報リクエストに応じて、同社としての見解を述べた。各トピック(WHからの質問項目)に対して、しっかりとした説明が書かれているから、これを読み終えたあなたは、仲間内でいちばんのAI通になるだろう。まあ、仲間の数にもよるけどね。

それをここで要約することは不可能だ。量が多すぎるが、各節はきわめて適切で、論争的ではなく、あくまでも教示的な内容だ。ちょっとだけ、引用しよう:

この惑星上の生命を支えている重要なシステムの、曖昧性や非効率の多くを排除できるものと信ずる。そしてAIシステムが、これらの意欲的な目標の達成を助けるツールであると信ずる。

それは基本的に楽観的な展望であり、当然ながらかなりIBM寄りだ。しかしそれでもなお、AIの現状と未来とリスクを理解するための読み物として、優れている。そして、“see more here”のリンクを飛ばしてはいけない。そこから先が、いちばん重要だから。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

自動運転車の車載カメラは、歩行者だけでなく乗客も観察する

A member of the media test drives a Tesla Motors Inc. Model S car equipped with Autopilot in Palo Alto, California, U.S., on Wednesday, Oct. 14, 2015. Tesla Motors Inc. will begin rolling out the first version of its highly anticipated "autopilot" features to owners of its all-electric Model S sedan Thursday. Autopilot is a step toward the vision of autonomous or self-driving cars, and includes features like automatic lane changing and the ability of the Model S to parallel park for you. Photographer: David Paul Morris/Bloomberg via Getty Images

強力なセンサーとソフトウェアによって自動運転車は驚くほど周囲の状況を把握できるようになった ― しかし車のAIが気にしなくてはならないのは障害物や歩行者や他の車だけではない。自身の車内で起きていることも知る必要がある。ドイツの研究開発会社、Fraunhoferでは、研究者らがその開発に没頭している。

「私たちはセンサー技術を車内全体に拡大しようとしています」とFraunhoferの研究グループを率いるMicahel Voitが同社のブログに書いた。「奥行き知覚カメラを使って車内を撮影し、人数、体の大きさ、姿勢を識別して、そから各自の行動を推測することができます」。

Lots going on in this car that the AI would probably want to be aware of.

車の中にはAIが気にかけておきたい物事が数多くある。

車に何人がどこに乗っていて何をしているか知ることには数多くの利益がある。非常時 ― センサー故障等 ― に運転車がハンドルを握るのに要する時間がわかる。パパとママが昼寝している(自動運転車に乗る者の特権)間に後部座席の子供がシートベルトから抜け落ちたら、警告を受けることができる。衝突の際には人のいない部分がぶつかるようにハンドルを切ることができる。エアバッグが開くときにも人の大きさや位置に応じて調整することが可能になる。

もちろんこの中には現在の技術 ― 重量センサー等 ― で実現できるものもある。しかし乗客の緻密な情報を知ることは自動運転車の目標にとって大きな価値がある。既に様々な動きや日常的な物を識別する技術が進歩している ― サンバイザーに手を伸ばしているのか、チャイルドシートを設置しているのか等。

現在カメラはこの会社のドライビングシミュレーターにしか置かれていないが、今後はスマート機能を備えたミニバンに装着して実世界のテストに入る計画だ。

Fraunhoferは、Volkswagen Group Research、Bosch、Visteonをはじめとする企業と共にこの「インテリジェント・カーインテリア」プロジェクトに参加しており、プロジェクト全体がドイツ政府の助成金で運営されている。

[原文へ]

(翻訳:Nob Takahashi / facebook

AIがSNSから“現場の映像”を収集、「Newsdeck」にフジテレビが出資

  • spectee人工知能(AI)で事件や事故、災害の画像・動画をネット上から自動収集し、投稿者の許諾を得て報道機関に提供するサービス「Newsdeck」に、テレビ局からの注目が集まっている。

今年3月にアルファ版をリリースしたばかりだが、すでにNHKに加えてフジテレビやテレビ朝日などの民放キー局が導入。地方のテレビ局やウェブメディアも合わせて15社が報道で利用している。

運営会社のSpecteeは7月26日、フジテレビ系列のVC「フジ・スタートアップ・ベンチャーズ」をリードインベスターとする資金調達を実施したことを発表。金額は非公表だが、関係者によれば1億円前後とみられる。

Newsdeckのダッシュボード画面

Newsdeckのダッシュボード画面。報道機関は「事件」「事故」「自然災害などの項目から画像や映像を検索し、ニュースで利用できる

AIで「火事」と「焚き火」を識別

Newsdeckは、TwitterをはじめとするSNSから事件や事故、災害に関する画像・動画をリアルタイムに収集し、AIが「火災」や「人身事故」「爆発」といった項目に分類する。

例えば、火災の画像を収集するにあたっては、あらかじめ「燃えている画像」「煙が出ている画像」「消防車の画像」などを学習させ、収集した画像が「火事」らしいかどうかを判定。火事と焚き火の画像もAIで識別できると、Specteeの村上建治郎社長は説明する。

「火を囲んで談笑しているか、火から離れて見ているのか、といった複数の要素と、過去の学習成果をかけあわることで、AIが一瞬で判断する。」

SNSの投稿を使う報道機関は通常、投稿者から個別に許可を得るが、Newsdeckも同じ。アルファ版公開当初はボットで定型文を送って許諾を求めていたが、「返信率が上がらなかった」ため、現在は人力でメッセージを送っている。

spectee03

新宿・ゴールデン街の火災で注目

Newsdeckが報道機関から熱視線を送られるきっかけとなったのは、4月12日に発生した東京・新宿ゴールデン街の火災だった。

ゴールデン街の火災では、現場に居合わせた一般人がTwitterに動画を投稿。その動画を番組で使用するために、多くのテレビ局が投稿者へ利用許諾を求めた。

その模様をまとめたTogetterによれば、最も早く利用許諾を求めたのはSpectee。Twitterに火災動画が投稿されてから、わずか3分後の出来事だった。

Specteeに続いたのはテレビ朝日で、動画投稿から10分後、TBSは20分後、フジテレビは2時間26分後と、AIと人力による収集能力の差が如実に表れた形だ。

スタッフをネットに貼り付けて動画や画像を探し、その都度、投稿者に許可を得るのは手間とコストがかかるーーそう考える報道機関がNewsdeckに依頼するケースが増えているようだ。

デマ投稿にどう対応する?

Twitterに事故や災害の第一報が投稿されるのは珍しくなくなったが、中には「デマ」が出回ることもある。

4月の熊本地震では「ショッピングモールが火災」といったデマ写真がTwitterで拡散。この情報に惑わされたフジテレビが震災特番の中で報道し、番組中に訂正したこともあった。

こうしたデマ投稿に対応するために、Newsdeckは過去に同じ画像や動画が投稿されていないかをフィルタリングする。「ネタ画像」の使い回しかどうかをチェックするためだ。

熊本地震では「ライオンが動物園から脱走した」というデマ写真もTwitterで拡散したが、これはヨハネスブルグの画像を使い回したものだった。

「自動収集した画像や映像は最終的にスタッフが目視する。それでもデマかどうか判断できないものは消防や警察の情報にも当たっている。」(村上氏)

報道機関に変わって画像の収集から権利処理までを肩代わりする

報道機関に変わって画像の収集から権利処理、情報の裏取りまでを肩代わりする

フジテレビと動画・画像キュレーションで提携

VCを通じて出資したフジテレビは、7月に「ネット取材部」を新設。同部署のコア機能として、Newsdeckの利用を見込んでいる。フジテレビ報道局での導入も進める。

子会社のフジテレビラボとも提携。視聴者投稿型サービス「FNNビデオポスト」とNewsdeckを統合して、動画・画像のキュレーション事業を年内に開始する。

「アジアでは勝てる」

今回の出資を受けてSpecteeは、台湾や香港、韓国、シンガポールの報道機関にもNewsdeckを売り込む。アジア進出にあたっては、フジテレビとともに出資したCBCのネットワークを活用し、その後は欧州と米国にも進出する。

国内に競合はないというが、海外に目を向けると、2015年7月にソフトバンクなどが1億ドルを出資したことでも話題になった米BanjoYouTubeと共同で報道映像を配信する米Storyfulなどがある。これら海外勢への優位点について、村上氏は次のように語る。

「権利処理や現場状況の聞き込みなど、投稿者との丁寧なやり取りが強み。この点は海外プレイヤーが抜けている部分。日本でもテレビ局をはじめ既存の顧客からは、AIの技術以上に、その点を評価いただいている。」

アジアの報道機関には「米大手テレビで採用されている」というよりも、「NHKで採用されている」という方が説得力があると村上氏は言い、アジアでは勝てると踏んでいる。「小資本でもレバレッジが効き、小さくても勝てるエリアを探してそこから欧州、米国を攻めていきたい。」

“現場の映像”の通信社

今後は、SNSの投稿を提供するだけでなく、ドローンで自ら映像を撮影したり、タクシーのドライブレコーダー(事件の現場近くに止まっていたタクシーで撮影した映像が役に立つことがあるらしい)などの映像も収集する考え。

収益源は報道機関が支払う月額料金。将来的にイメージしているのは、国内外の報道機関にニュースを配信する「通信社」の画像・動画版だ。

「日本では共同通信社がテレビ局と年間億単位で契約している。Specteeは国内外の報道機関と契約し、2018年までに売上高10億円を目指す。」

Googleが囲碁の世界チャンピオンに勝ったDeepMindをデータセンターの省エネに利用、冷房費用を40%削減

hal9000

DeepMindは地球上でもっとも複雑なゲームの名人かもしれないが、でも彼は、Googleのデータセンターのエネルギー問題を解決できるだろうか。ところが、できるのだ。しかも、強力に。

データセンターの電力の用量は、需要や気候条件などさまざまな要因に依存し、電力使用効率の最大化のためにそれらの変数を調整あるいは予測することは、とても難しい。Googleは機械学習をこの問題に適用し、ニューラルモデルの構築により、AIがこれらの要因のすべてを常時把握/監視できるようにした。

それにより研究者たちは、DeepMindという生きてる獣をそのままデータセンターに放ち、結果を直ちに検証できるようになった。そのため、冷房に使用する電力利用を従来の40%下げることができ、その状態が今も維持されている。

DC_PUE

Googleはこれまでも自社におけるエネルギーの使用を懸念して、再生可能エネルギーの利用や、エネルギー利用の効率化に努力してきた。だからDeepMindの起用も、その流れの上にあり、単独の突出的なプロジェクトではない。DeepMindが行った複雑なパラメータ群の同時的多面的最適化AI技法は、そのほかのシステムやデータセンターにも応用できる。そうなれば同社は、得意満面となるだろう。

DeepMindはこのエネルギー節約AIについて、詳細なドキュメントの発行を予定している。Web上に公表されたら、この記事にそのリンクを載せよう。

参考記事(DeepMindの医療利用、規制でつまずく)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Slackが200万ドルをSlack Fund経由で14社のSlackbotスタートアップへ投資、アプリ数は600に到達

slack-fund-portfolio

Slackは、同僚間でのチャットや、ファイル共有、仕事を邪魔するためのGIFの送り合いなどに使われ人気を博している。この度Slackは、もっと広い意味での生産性向上プラットフォームに成るべく、幾つかの大きな施策を行った。今現在、Slack上には600ものアプリが存在し、簡単で短いコードを使うだけで、他サービスのコンテンツをSlack上で他のユーザーに共有することができる。そして今、Slackはプラットフォーム戦略の別の部分を拡大しようとしている。

本日(米国時間7月19日)Slackは、これまでに合計197万ドルを14社のスタートアップに投資したと発表した。最近投資が行われた11社についても明らかとなり、全てがボット関連サービスを提供するスタートアップだった。投資資金は、2015年12月にはじめて発表された8000万ドル規模の投資ビークルSlack Fund経由でまかなわれた。Slackは、Slack Fundでトップレベルのベンチャーキャピタル数社と組み、アーリーステージ投資の一部として、将来有望なスタートアップへの投資を行っている。

今回名前が明かされたスタートアップは、AbacusAutomatBirdlyButter.aiCandor, Inc.GrowbotKonsusLatticeMyra LabsSudoそしてWade & Wendyだ。11社のこれまでの合計資金調達額は約3000万ドルにおよぶ。

7ヶ月ほど前に、SlackがSlack Fundのローンチと共に投資先として発表した3社(Awesome.aiBeginHowdy)を加え、同社はこれまでに14社のスタートアップに対して投資を行ってきたこととなる。

小さなプログラムでできているボットは、人間同士の交流をAIと機械学習で代替し、人の代わりに何かをしたり、必要な情報を素早く入手したりといったことができる。そして急速に高まるポッド人気というのは、これまでもしばらく追い続けてきたトピックだ。

今では何100社ものスタートアップがボットを開発しており、その中には既存のアプリ向けのものもあれば、スタンドアローンのボットアプリとしてそれ自体を利用することができるものもある。General Catalystのようなベンチャーキャピタルは、ボット開発を行う見込みあるスタートアップ探しに必死になっており、実際にGeneral Catalystは、Slackの投資先と同じ3社(Butter.ai、Growbot、Begin)に対してその資金を投じている。

300万人のデイリーアクティブユーザーと93万人の課金ユーザーを擁するSlackにとって、Slackbotと呼ばれるこれらのサービスへ投資やサポートを行うのには、いくつかの明確な理由がある。

第一に、もともと開発者用(Slackの開発者は、Slack誕生前にGlitchやその他メッセージサービスを利用していた)のコミュニケーションツールとして使われていたサービスを生み出した企業として、開発者との良好な関係を保ち、彼らを熱心なユーザーと同じように扱う目的がある。

次に、Slackがスタートアップに投資やサポートを行うことで、Slack専用につくられたもっと面白いサービスをみつけることができる。その結果、Slack自体が課金ユーザーにとってもっと便利で魅力的なサービスとなるのだ。同社によれば、Slackの有料サービスを利用しているチームの90%が、「活発に」Slack上のアプリを利用している。

「Slackのようなエコシステムは共有の精神から成り立っています。プラットフォームとしてのSlackの影響力は、本質的にそして必然的に、私たちのパートナーや開発者の成功に結びついているのです」とSlack自身もつづっている

投資にあたって何社のスタートアップがSlackにプレゼンを行ったかということに関しての回答は得られなかったが、今後も投資活動は続けていくとのこと。

以下が、Slack自身による各アプリの概要説明だ。
Abacusは、インテリジェントな経費報告書作成ソフトで、レポート作成と承認をSlack上で行うことができる。

Automatを使えば、誰でもチューリング・テストに合格するようなボットを簡単につくることができる。現在プライベートベータ板が公開中。

Birdlyは、SlackとSalesforceを接続し、誰でもあるアカウントに関する必要な情報にアクセスすることができる。

Butter.aiは、会社に蓄積された情報へのアクセスを簡単にするパーソナルアシスタントボットで、プライベートベータ板が公開されている。

Candor, Inc.は、完全に率直なフィードバックをもとに、スタッフ間の関係性向上を目指している。CandorのSlackアプリは現時点では一般公開されていない。

Growbotは、良い仕事をしたチームメイトを褒めたり、励ましたりするのに使える便利なボットだ。

Konsusを使えば、Slackを通していつでも必要に応じてフリーランサーに仕事を頼むことができる。

Latticeは、目標設定機能や週ごとのOKR(Objectives and Key Results=目標と主な成果)報告機能、さらにはフィードバック機能を備えた、Slackチーム内で利用できるボットだ。

Myra Labsを使えば、そのまま使える機械学習モジュールを備えたAPIを利用して素晴らしいボットを作ることができる。現在プライベートベータ板が公開中。

Sudoは、営業スタッフをデータのマニュアル入力から解放するCRM(顧客管理システム)管理ボットだ。現在プライベートベータ板が公開中。

Wade & Wendyは、2種類のインテリジェントな人材採用アシスタントだ。Wadeは、キャリアコンサルタントとして仕事探しを手伝ってくれ、Wendyは採用チームの候補者探しをサポートする。Wade & Wendyはまだ公開されていないが、ウェイティングリストに加わることができる。

以前の投資先

Awesome.aiは、チームが歩調を合わせたり、要点をまとめたり、何が重要か検討したりするのをサポートする。

Beginは、ユーザーの集中力と効率性を向上させるサポートをして、全ての業務を掌握する手助けをする。

Howdyは、共通のタスクを自動化することでチームをサポートする、フレンドリーで訓練可能なボットだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

解析サービスのユーザーローカル、クリムゾンG、YJ、EVから数億円を調達してAI事業を強化

ul01

ウェブサイトのアクセス解析やビッグデータ解析サービスを提供するユーザーローカルは7月20日、クリムゾングループ、YJキャピタル、East Venturesからの資金調達を実施したことを発表した。詳細な金額は非公開だが、数億円に上るとしている。ユーザーローカルは2015年5月にもYJキャピタル、East Venturesから合計2億6000万円の資金調達を実施している。

ユーザーローカルは2007年に設立して以来、ユーザーのマウスの動きやタップなどをヒートマップで可視化する「User Insight」、ソーシャルメディアのマーケティング分析・管理ツール「Social Insight」、メディア運用者向けに記事コンテンツの分析ツール「Media Insight」などを提供してきた。これらの分析プラットフォームは20万以上のサイトで活用されており、ビジネス面でも「非常に好調に回っている状況」(ユーザーローカル代表取締役社長の伊藤将雄氏)

また同社は5月から人工知能ボットAPIを開発。これはプログラミングを行わなくともSNSの設定だけでLINE、Facebook、Twitter、Slackといった主要サービスにチャットボットを実装できるサービスだ。正式ローンチの時期は明記されていないが、サイトでは事前申し込みを受け付けており、すでに4000人の開発者に提供して、クローズドなテストが進められているという。

今回の資金調達は、この人工知能分野の拡充に向け、ディープラーニングや機械学習インフラの人材の採用を進める予定だ。2015年5月の資金調達以降、同社がさらにこの領域に踏み込むことに決めたと言っても過言ではない。伊藤氏は提供予定のプロダクトは「チャットボットだけではない」としているが、数カ月のうちにもプロダクトの正式ローンチを示唆した。

TechCrunchでは直近にもZEALSがメディア向けに提供するボット開発運用ツール「BOT TREE for MEDIA」などを紹介しているが、ボット用のAIエンジン、チャットのUIを利用したサービス(実は裏側はAIだけでなく、人力だったりすることもあるのだけど)などは国内でもその数を増やしつつあるようだ。

なお今回出資したクリムゾングループは代表取締役会長兼社長の三木谷浩史氏の個人資産管理会社。実は伊藤氏はユーザーローカルの設立以前に事業を楽天に売却した経験がある。そこからの繋がりもあって今回の出資に至っているようだ。

DeNA、Preferred Networksと組んでAIベースのソリューション事業に参入——合弁会社「PFDeNA」を設立

screenshot_594

1年ほど前にはZMPと組んで、自動運転技術を使ったタクシーを手がける「ロボットタクシー」を設立したディー・エヌ・エー(DeNA)。新領域のビジネスを続々と手がける同社が、今度はAIをベースにしたソリューション事業に参入する。

DeNAとPreferred Networks(PFN)は7月14日、合弁会社「PFDeNA(ピー・エフ・ディー・エヌ・エー)」を設立したことを発表した。資本金は3000万円で(出資比率はDeNA:50.0%、PFN:50.0%)、代表取締役社長にはDeNA代表取締役社長兼CEOの守安功氏が就任。取締役にはPFN代表取締役社長 CEOの西川徹氏、PFN取締役副社長の岡野原大輔氏、DeNA取締役の川崎修平氏ほか1名が就任する。

PFNは検索やレコメンドなどを開発するPreferred Infrastructureから2014年にスピンオフした技術系のスタートアップ。現在はIoT領域を中心に機械学習技術を用いたソリューションを手がけている。2015年12月にはトヨタ自動車が出資。モビリティ領域でのAI技術の共同研究を行うと発表したことでも話題を集めた(提携自体はPFN設立時の2014年に発表されていた)。

PFDeNAでは、AIを活用した企業向けのソリューション提供をする予定。対象領域はゲームやヘルスケア、自動車・交通関連をはじめ、大規模データを扱うあらゆる産業としている。両社は発表で「DeNAがインターネットサービスの運営を通じて蓄積してきたデータや複数事業領域での経験と、PFNのAI技術を組み合わせることで、DeNAあるいは顧客企業の持つ様々なデータの価値の最大化を図る」とコメントしている。

“企業向けのソリューションを提供”なんて聞くと、「DeNAがSIerにでもなるの?」なんて疑問も出たりするのだけれど、PFDeNAのサイトを見る限りはまだ具体的な内容は何も分からない状態。まずは今後の展開を待ちたい。

VCがAI化されたら、あなたの地元のスタートアップ用ATM(のようなVC)よりずっとお利口だろう

start-your-pitch-aivc

毎日々々、大量のスタートアップたちのピッチ(pitch, 売り込み)に接していると、あなたの生きる意志計の針はたちまち、“いますぐ死にたい”を指すだろう。自分がVCだと想像してみよう。その日の15番目のピッチが始まるころには、疲労と眠気に支配され、真剣な関心を持てなくなっている。むしろ、ピッチのスライドデッキをチャットボットに与えてフィードバックと提案をさせ、有望な投資先を決められたら、便利ではないか。それをやろうとしているのがAIVC、VCを演ずるAIだ。

自動化されたピッチは意外と楽しいかもしれないが — ここで早くもネタバレを— でもすぐに、すべてがジョークであることに気づくだろう。

このボットの作者は曰く、“うちも初期段階のスタートアップを対象とするVCだけど、今のVCの世界は、他に依存しない優れた分析的視点よりもむしろ、自分もバスに乗り遅れたくない焦(あせ)り根性と、既知のパターンへの当てはめ主義に支配されている。この世界は、投資を得たい根性だけが先走っているファウンダーたちで混雑していて、優れた起業アイデアはめったにない”。

これもまたジョークだけど、優れたお笑い芸がそうであるように、事の本質を突いている: 標準的なパターンにフィットしていないファウンダーが資金を調達するのはとても難しい。– パターンよりもそういう問題を議論すべきだろう。

スタートアップへの投資にも、データがますます重視されるようになった。いまどきの超高頻度トレーダー(high-frequency trader, HFT)は、自分の頭や心ではなく、アルゴリズムとデータだけに頼っている。スタートアップ投資の世界でも、データサービスへの関心が高まり、MattermarkAngelList、本誌のCrunchBaseなどがよく利用されている。VCの投資がAI駆動になるのは、時間の問題かもしれない。金額の決定と実際の出資も、AIがやるようになるかもしれない。

冗談はさておき、スタートアップの世界だけでなくVCの世界は、今後どのようにテクノロジーが浸透していくのか? 読者のお考えを、下のコメント欄でお伺いしたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Googleが自己運転車のバイク〜自転車検出アルゴリズムを説明

google_bike_vis1

今日(米国時間7/1)は、自律車両の歴史の中で、もっと重要な理由で目立つ日になると思うが、またひと月が経ってGoogleが6月の自己運転車リポートを発表した日でもある。この号には、サイクリストを検知して避けるシステムの能力が、かなり詳しく書かれていておもしろい。

“サイクリストは動きが敏捷で速く、ときには自動車と同じぐらい速く動く”、とリポートは述べている。“われわれの自動車はサイクリストを道路のユニークな〔他と混同しない〕 ユーザーとして認識し、彼らの近くでは控えめな運転をするよう、教えられている”。

車両上のLIDAR(レーザー光レーダー)やそのほかのセンサーが、あらゆる方向にあるバイクや自転車を、下図に示すように、一度に検知する。

google_bike_vis2

上図は、停止している自己運転車のまわりを、100台あまりの自転車が走り回っているところを示す。Mountain View(Google本社)では、100名以上の社員が一日中、これをやってるんだろうな。ひとつひとつの自転車を個別に追跡し、それらの行路をを予測する。車のAIが、パニック発作を起こしそうだ。

サイクリストを検知したらより大きな車間を取り、またバイクや自転車がレーンを占領していたら、それを追い越さないようにする。それはドライバーにとって不便だが、往々にして必要であり、サイクリストは賛成するだろう。

手信号も認識し、その手がハンドルに戻ったら、サイクリストのその後の行路を予測して行動する。

6月には軽度の事故が2度起きたが、どちらもGoogleの車の落ち度ではなく、被害はバンパーをちょっとかすった程度だった。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

会計士の仕事がなくなる?Smaccは会計業務を自動化するAIを開発

receipts

SmaccはAIで会計業務を自動化する。SmaccはシリーズAでCherry Ventures、Rocket Internet、Dieter von Holtzbrinck Ventures、Grazia Equityとエンジェル投資家から350万ドルを調達したことを発表した。

Smaccは会計業務と財務プロセスのデジタル化と自動化を行うプラットフォームを中小企業向けに提供する。

Uli Erxleben、Janosch Novak、Stefan Korschの3人のファウンダーは、スタートアップを運営する中で会計業務が最もやっかいな要素だと知り、このサービスを思いついた。 ErxlebenはRocket Internetに勤め、アメリカでニューヨークとサンフランシスコの投資案件の管理をしていた。また、彼はクラフトビールのスタートアップBerliner Bergのファウンダーでもある。

カスタマーはSmaccにレシートを提出すると、レシートを機械が読み取れるフォーマットに変換し、暗号化を施した上で、勘定科目を振り分ける。プラットフォームは徐々に自分で学習し、インボイス、売上、コスト、資産状況などをトラックする。

システムはVAT-ID(付加価値税登録番号)や発行元の情報が正しくても、会計処理中において64のデータポイントを確認し、インボイスや小切手などを認証する。システムが一旦、各ポジションレベルごとのサプライヤーとの取引を学習すれば、自動で処理ができるようになる。時間が経つにつれ、データの振り分けと取引の自動化がさらによくなると話す。

「このツールを使うと資産計画や収益と支出の報告は、リアルタイムに近いスピードで得ることができ、自分でデータを入力する必要もありません。月末に外部の経理担当から報告を待つこともありません」とErxlebenは話す。

他にもXeroやCrunch Accountingといったクラウドベースの会計ソフトウェア・プロバイダーはあるが、Smaccの違いは、会社が通常手動で入力しなければならない会計業務と財務プロセスを高レベルで自動化できることだという。

[原文へ]

(翻訳:Nozomi Okuma /Website

顔認識システム、百万人の顔データベースに大苦戦

faces

遍在するビデオカメラと高度な顔認識技術によって可能になる恐怖の監視国家を心配している人は多い ― しかし最新の研究によると、最高のアルゴリズムでも、百万人以上の顔を区別するとなると絶対確実からはほど遠いようだ。

ワシントン大学のMegaFace Challengeは、昨年末から行われている顔認識アルゴリズムの公開競技だ。狙いは、画像データベースサイズの桁が増えていった時、システムが人間に勝てるかどうかを見ることにある。

多くのシステムが何百万、何億人の写真を使って顔を学習しているが、実際のテストは「Labeled Faces in the Wild」等のセットで行われ、その数は1万3000枚ほどだ。しかし、実世界の状況はそれとは違う。

「顔認識アルゴリズムのテストは『地球規模』で行われるべきだと推奨するのは、われわれが最初だ、と研究チームのリーダー、Ira Kemelmacher-ShlizermanがTechCrunch宛のメールで言った。「多くの人たちがその重要性に同意すると思う。大きな問題は、公共データベースとベンチマークを作ることだ(同じデータを使って競争できる)。ベンチマークの作成は大変な作業だが、研究に大きく貢献する」

研究者らはまず、既存のラベル付けされた人々の画像から始めた ― 様々な分野の有名人のセットや、幅広い年齢の人々のセット等がある。彼らはそこに、FlickrからCreative Commonsライセンス付きの顔写真を入手し、「不正解ノイズ」として加えた。

彼らは、ノイズを10から最大100万まで増やしてテストをした ― 正解の数は変えずノイズだけを増やした。

megaface_results

テストの結果、少数の驚くほど頑強なアルゴリズムが浮上した。幅広い年齢セットで圧勝したのは、GoogleのFaceNetで、同システムとロシアのN-TechLabが、有名人データベースでは接戦だった(中国四川省のSIAT MMLabには特別賞)。

有名なところで名前がないのはFacebookのDeepFaceで、間違いなく有力な優勝候補のはずだ。しかし、参加は任意であり、Facebookはシステムを公開していないので、MegaFacesでの成績は謎のままだ。

上位2システムのいずれも、ノイズが増えるにつれ数字は確実に下がっているが、有効性はグラフの対数スケールほどには低下しない。GoogleがFaceNetの論文で主張する超高精度の値は、ノイズが1万件を超えると達成されなくなり、100万になると、他には大差をつけているものの、何かの目的に使えるだけの精度は得られなかった。

それでも、100万件のノイズの中から4人中3人を見つけるのはすばらしい ― ただし、その成功率は法廷やセキュリティー製品では通用しない。どうやら監視国家が現実になるのはまだ先のようだ。

研究成果は、一週間後にラスベガスで行われるConference on Computer Vision and Pattern Recognitionで発表される。

[原文へ]

(翻訳:Nob Takahashi / facebook

必見! AIが映画脚本を書いたらこうなった

screen-shot-2016-06-11-at-8-05-30-am

スマホの予測変換を続けていくとヘンテコな文章ができあがっていくことがあるが、そのような機能でできあがるのは不条理な詩だけではないらしい。Sunspringのチームは、この技術(正確にはLSTMニューラルネットワークという)を使用して脚本を書き上げた。

それ自体かなり愉快なことではあるのだが、同チームはさらに優れたアイデアがあった……。なんと、ドラマ「シリコンバレー」でPied PiperのCEOであるリチャード・ヘンドリクスを演じたトーマス・ミドルディッチをはじめとする俳優を起用して本当に映画にしてしまおうというのである!

チームはAIに大量のSF映画脚本、さらに幻覚成分を与えて脚本の執筆を依頼した。

チームはAIに大量のSF映画脚本、さらに幻覚成分を与えて脚本の執筆を依頼した。

計画は実行に移され、とにかく、馬鹿げていて、面白くて、わけがわからなくて、魅力的なものに仕上がった。「良い映画」とまでは言えない。(従来的な意味でいえば視聴に耐えうるレベルにさえない)。しかし、もしAIに触れたことがある人なら(あるいは自動変換で遊んだことがある人なら)、AI脚本家が陥りがちな流れを見て取れるだろう。

しかし、映画の見どころは、俳優たちのセリフが全く。意味を。なさない。ところだ。だが、これはカルト的な傑作だ。ぜひ観てもらいたい。

(注: 訳者が字幕をつけようと試みたところ、現段階では設定上手動で字幕をつけられなかったので、YouTube画面右下の字幕機能から日本語の自動翻訳をONにして雰囲気を味わっていただきたい)

[原文へ]

(翻訳:Nakabayashi)