GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が

terminat-visio2-620x340

まあ、パニックになる必要もないけど、今やコンピューターが自分たちの秘密の言語を作って、たぶんまさに今、われわれについて話しているんだ。ちょっと話を単純化しすぎたし、最後の部分はまったくのフィクションだけど、GoogleのAI研究者たちが最近、おもしろそうで、しかも人間にとって脅威になるかもしれない、事態の進展に、遭遇しているんだ。

憶えておられると思うが、Googleは9月に、同社のNeural Machine Translation(ニューラルネットワークによる機械翻訳)システムが稼働を開始したと発表した。それは、ディープラーニングを利用して複数の言語間の翻訳を改良し、より自然な翻訳にする、というものだ。そのこと自体はクールだが…。

これの成功のあと、その翻訳システムの作者たちは、あることが気になった。翻訳システムに、英語と韓国語双方向と、英語と日本語双方向の翻訳を教育したら、それは韓国語を日本語へ、あいだに英語を介さずに翻訳できるのではないか? 下のGIF画像を見ていただきたい。彼らはこのような翻訳方式を、“zero-shot translation”(ゼロショット翻訳、分枝のない翻訳)と呼んだ(オレンジ色のライン):

image01

そして — その結果は!、明示的なリンクのない二つの言語でありながら、まあまあの(“reasonable”)翻訳を作り出したのだ。つまり、英語はまったく使っていない。

しかしこれは、第二の疑問を喚起した。形の上では互いにリンクのない複数の概念や語のあいだの結びつきをコンピューターが作れるのなら、それは、それら複数の語で共有される意味、という概念をコンピューターが作ったからではないのか? 一つの語や句が他のそれらと同じ、という単純なレベルではなく、もっと深いレベルで。

言い換えると、コンピューターは、言語間の翻訳に自分が用いる概念(共有される意味概念)を表現する独自の内部的言語を開発したのではないのか? ニューラルネットワークの記憶空間の中では、さまざまなセンテンスがお互いに関連し合っているのだから、その関連の様相から見て、言語とAIを専門とするGoogleの研究者たちは、そうだ、と結論した。

A visualization of the translation system's memory when translating a single sentence in multiple directions.

翻訳システムの記憶の視覚化: 一つのセンテンスを複数方向へ翻訳している

この中間言語(“interlingua”)は、日・韓・英の三言語の文や語の類似性を表している表現の、ずっと深いレベルに存在しているようだ。複雑なニューラルネットワークの内部的処理を説明することはおそろしく難しいから、今これ以上のことを言うのは困難だ。

非常に高度なことをやってるのかもしれないし、あるいは、すごく単純なことかもしれない。でも、それがとにもかくにもある、という事実…システムが独自に作ったものを補助具として使って、まだ理解を訓練されていない概念を理解しようとしている…もしもそうなら、哲学的に言ってもそれは、すごく強力な‘才能’だ。

その研究論文は、Arxivで読める(効率的な複数言語翻訳に関する論文だが、謎のような中間言語にも触れている)。システムが本当にディープな概念を作ってそれを利用しているのか?、この疑問への答は今後の調査研究の課題だ。それまでは、最悪を想定していよう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ビデオ中のモノと音の関係を自動的に把握するAIシステム

902d9921-2a12-4436-a2de-9d8950b893d7_1-e69384d6cc1a0a85503d32bf1b2dd7a2

Disney Researchの新研究についての情報が入ってきた。ビデオに登場するさまざまなオブジェクト(牛、車、小さな石など)と、そのオブジェクトが発する音(「モー」とか「ブルンブルンッ」など)を自動的に結びつけるというものだ。目的の音以外はノイズとして無視する。あるオブジェクトが発する特定の音のみを記録して、サウンドエフェクトとしても利用できるようになるわけだ。

このシステムの素晴らしいところは、ビデオを流せば自動でオブジェクト+音の結びつきを把握するところだ。茶色と白の大きなモノが、いつもうめくような音を出していたとしよう。AIがそれを認識して、茶色と白の一定の大きさのオブジェクトは同様な音を発するものであると認識するのだ。

「さまざまな音声入りのビデオから、オブジェクトと音のつながりを学習していくことができるのです」と、Disney Researchでリサーチアソシエイトを務めるJean-Charles Bazinが言っている。「ビデオカメラで映像と音を記録すれば、基本的にはそれらがすべて学習教材として利用できるようになるのです」。

大した技術ではないと思う人もいるかもしれない。しかし実は特定のオブジェクトと音を結びつけて把握するのは、それほど易しいことではないのだ。Disney Researchが開発したシステムではビープ音や動作音、あるいはクラクションのような音を、音を発したオブジェクトと自動的に結びつけて把握するのだ。

「ビデオ映像から流れてくる音を特定の物体と結びつけるのは、かなり難しいことなのです」とDisney ResearchのバイスプレジデントであるMarkus Grossも言っている。「特定の音にのみ注目する仕組みを作り出し、コンピュータービジョンを活用する応用分野に新たな可能性を開いたと言えます」。

「車を扱ったビデオがあり、そこにエンジン音も収められているとしましょう。同じ音がいつも聞こえてくるのなら、システムはその音が車と結びついたものであると判断します」とBazinは説明する。「ビデオには、いつも聞こえてくるわけではない音も収められているでしょう。あるビデオでは聞こえるものの、他では聞こえないような音があった場合、それはノイズであると判断して排除するような判断を行なっているのです」。

このプロジェクトはまだ始まったばかりのものであるとのこと。しかしたとえばビデオに登場するものに自動的にサウンドエフェクトを加えるような仕組みも、間もなく登場してくるのかもしれない。映画スタジオにおいても利用できるようになるかもしれないし、またピクチャーブックなどにも新しい可能性を与えられるかもしれない。Disney Researchの研究レポートはこちらから入手できる。

原文へ

(翻訳:Maeda, H

GoogleのCloud PlatformがGPUマシンを提供するのは2017年前半から、ただし機械学習SaaSとAPIはますます充実

google_data_center_2

Googleが今年前半に立ち上げたCloud Machine Learningサービスは、Google自身によれば、早くも“急成長プロダクト”の一つになっている。今日同社は、このサービスの新しい機能をいくつか発表し、機械学習のワークロードを動かしたいと思っているユーザーとデベロッパーの両方にとって、さらにサービスの利用価値を増そうとしている。

これまでGoogleは、競合するAWSやAzureのように、ハイエンドのGPUを使う仮想マシンをデベロッパーに提供してこなかった。しかし、機械学習など、科学の分野に多い特殊でヘビーなワークロード、とくにそれらのアルゴリズムは、GPUのパワーを借りないとうまく動かないことが多い。

デベロッパーたちが一般的にGoogle Cloud Platform上で機械学習のワークロードを動かせる、そのために仮想マシンのGPUインスタンスが提供されるのは、Googleの発表によると、2017年の前半だそうだ。料金は、そのときに発表される。

なぜGoogleは、もっと前からこのタイプのマシンを提供しなかったのだろうか? Google自身、機械学習に非常に熱心だし、競合相手のAzureやAWSはとっくに提供しているというのに(Azureは今日(米国時間11/15)、OpenAIとパートナーシップを結んだ)。

しかしデベロッパーは、Googleの既存のCloud Machine Learningサービスを使って自分の機械学習ワークロードを動かすことはできる。そのための構築部材TensorFlowも利用できる。でもCloud Machine Learningが提供しているような高い処理能力と柔軟性を、Google既存のプラットホームで利用することが、まだできない。

今のGoogleはデベロッパーに、カスタムの機械学習モデルを構築するためのサービスと、機械学習を利用した、すでに教育訓練済みのモデルをいくつか提供している(マシンビジョン(機械視覚)、音声→テキスト変換、翻訳、テキストの情報取り出しなど)。Google自身が機械学習で高度に進歩しているし、独自のチップまで作っている。そこで今日のGoogleの発表では、Cloud Vision APIの使用料が約80%値下げされた。またこのサービスは、企業のロゴや、ランドマークなどのオブジェクトも見分けられるようになった。

そしてテキストから情報を取り出すCloud Natural Language APIは、今日(米国時間11/15)、ベータを終えた。このサービスは、構文分析機能が改良され、数値、性、人称、時制なども見分けられる。Googleによると、Natural Language APIは前よりも多くのエンティティを高い精度で認識でき、また感情分析も改善されている。

消費者向けのGoogle翻訳サービスは、今ではカスタムチップを使っている。またデベロッパー向けにはCloud Translation APIのプレミアム版が提供され、8つの言語の16のペアがサポートされる(英語から中国語、フランス語、ドイツ語、日本語、韓国語、スペイン語、トルコ語、など)。サポート言語は、今後さらに増える。プレミアム版では、これらの言語に関しエラーが55から85%減少した。

この新しいAPIは主に長文の翻訳用で、100言語をサポートする“標準版”は、短い、リアルタイムな会話テキスト用だ。

さらに、まったく新しいプラットホームとしてCloud Jobs APIがある。この、あまりにも専門的で奇異とすら思えるAPIは、求職者と仕事の最良のマッチを見つける。つまり、仕事のタイトル、スキル、などのシグナルを求職者とマッチングして、正しいポジションに当てはめる。Dice やCareerBuilderなどのサイトはすでにこのAPIを実験的に使って、従来の、ほとんど検索だけに頼っていたサービスを改良している。このAPIは、現在、特定ユーザーを対象とするアルファだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の応用例デモ8種をサイト訪問者がいじって遊べるGoogleのAI Experiments、コードのダウンロードもできる

ai_experiments

Googleの機械学習や人工知能の仕事はおもしろいものが多いが、商業的というより、ややアカデミックだ。でも人間は、そんな、手で触れないものでも、なんとか触(さわ)って理解したいと思う。そこでGoogleは、この新しい技術の小さなデモを集めて、AI Experimentsという展示サイトを作った。

目的は、人びとが機械学習の応用例をいじって遊んだり、コードをダウンロードして原理を理解することだ。今展示されているのは8つだが、そのうちの4つは今すぐにでもWeb上で対話的に体験できる。

giorgio

Giorgio Cam(モバイルがおすすめ)は、ユーザーのカメラが捉えた物を識別し、その言葉で韻を踏み、汽笛で警告を鳴らす。

Quick, Draw!はユーザーのスケッチを認識する絵辞書。ユーザーがいろんな物の絵を描いて、この辞書を教育できる。

drummachine-google

Infinite Drum Machineは、ユーザーが指定した音列に似た音を集める。それらをシャッフルして鳴らすと、MatmosやMira Calixのようなビートにもなるだろう。わざと、そうしてるのだ、と思うけどね。やり過ぎるとひどい騒音になるので、ご注意を。

Bird Soundsは、その名のとおり。鳥の鳴き声をAIがそのリズムや音調で分類している。あなたの家の窓の外でいつも鳴いてる鳥は、そこに見つからないかもしれないけど、鳴き声をpoo-tee-weetなんて書いてある図鑑よりは、ましだな。

そのほかのデモも、ダウンロードしたり、例を見たりできる。たとえばAI duetは、あなたのキーボードの演奏を真似て、それをより高度にしようとする。そしてThing Translatoは、物を見せるとその物の名前を翻訳する。実用性ありそう。

そのほかの実験展示物はここにある。訪問者が自由に出展できるから、今後はもっと増えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft、AI開発でイーロン・マスク、ピーター・ティールらが後援するOpenAIと提携

3D render of a robot trying to solve a wooden cube puzzle

OpenAIは 人工知能研究のための非営利会社で、Teslaのイーロン・マスク、Y Combinator のサム・アルトマン、ドナルド・トランプのファンとしても知られるピーター・ティールを始めとしてテクノロジー界の大企業、著名人がスポンサーとして加わっている。今日(米国時間11/15)、この急成長中のテクノロジーに力を入れ始めたMicrosoftがOpenAIに加わったことが発表された

OpenAIはまたMicrosoft Azureを推薦するクラウド・プラットフォームと決定した。その理由の一部は Open AIの既存の人口知能システムがAzure BatchとAzure Machine Learningを利用していることが挙げられる。また人工知能に関してCognitive Toolkitという新しい機械学習のブランドを立ち上げたMicrosoftの動きも一因だ。

Microsoftは強力なGPUベースのバーチャル・マシンに対してデベロッパーにアクセスを提供するとしている。膨大な計算処理の実行が必要な機械学習学習のデベロッパーには朗報だ。MicrosoftのNシリーズのマシンはまだベータ版だが、OpenAIは最初期からのベータ・テスターだった。MicrosoftによればNシリーズの一般公開は12月になるという。

Amazonはすでにこの種のGPUベースのバーチャル・マシンを提供している。奇妙なことに、Googleはこの動きに取り残されている。すくなくとも現在はそのようなサービスを公開していない。

「この提携により、MicrosoftとOpenAIはAIの民主化という共通の目標に向かって力を合わせていく。誰もが利益を受けることになるだろう」とMicrosoftの広報担当者は私に語った。また提携の内容に関して、「「Microsoft Researchの研究者はOpenAIの研究者と共同でAIを前進させる努力をする。OpenAIはMicrosoft AzureとMicrosoftの Nシリーズ・マシンを研究、開発に利用していく。またMicrosoftのCognitive Toolkitのようなツール類も利用するはずだ」と述べた。Microsoftはこの提携に財政面があるのかどうかについてはコメントを避けた。

OpenAIとの提携の他にMicrosoftは今日、Azure Bot Serviceのスタートも発表した。このサービスを利用するとデベロッパーは非常に容易、かつ低価格でボットをAzure上で稼働させることができる。新サービスはいわゆる「サーバーレス・アーキテクチャー」のAzure FunctionsとMicrosoft とBot Frameworkの上で作動する。Azure Functionsは従量制で、ホストされたボットが実際に稼働した分の料金だけを支払えばよい。

画像: mennovandijk/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

私たちとまだ若いAIとの関係を考える

robot-friend

【編集部注】著者のAndrew Heikkilaはアイダホ州ボイジーに住むハイテクを愛好するライターである。この投稿者による他の投稿:ロボットが私たちの仕事を奪うという事態を楽しもう【英語】人工知能と人種差別【英語】

「お前たち人間が、信じられないようなものを俺は見てきた。オリオン座の肩の近くで炎を上げる攻撃船。タンホイザーゲートの近くの暗闇で煌めくC-ビーム。それらは全て時とともに失われてしまう、の…中の…のように。死ぬときが来たようだ」— Roy Batty, ブレードランナー。

人工知能は半世紀以上もの間人類を魅了してきた、最初に公の場でコンピューター知能に関しての言及がなされた記録は、1947年にアラン・チューリングによってなされたロンドンでの講義中のものである。最近では、大衆は成長を続けるAIの力を伝える多くのニュースを目にするようになってきている、伝説の囲碁プレーヤーイ・セドルを打ち負かしたAlphaGoMicrosoftの人種差別主義AIボットのTay、あるいはその他沢山の機械学習分野での新しい開発など。かつてはサイエンスフィクションのためのプロットの道具だったAIが現実のものになりつつある — そして人類はそれとの関係を、意外に早く決めなければならなくなるだろう。

Human Longevityの共同創業者で副議長のPeter Diamandisは、LinkedInに投稿した「 次の性的革命はデジタル化される 」というタイトルの記事の中で、この関係に触れている。Diamandisは、日本人はセックスと関係性を放棄しつつあるという最近のレポートを示し、一部の男性は現実よりも仮想のガールフレンドを好むという傾向が強まっているという報告を引用している。

「これは始まりに過ぎません」と彼は言った。「バーチャルリアリティ(VR)が普及するに従って、主要なアプリケーションの1つは必然的にVRポルノになります。それははるかに強烈で、鮮やかで、中毒的なものになるでしょう — そしてAIがオンラインに登場すれば、AIを利用したアバターとロボットの関係がもっと増えて来ると思いますよ、映画『Her』や『Ex Machina』で描かれているキャラクターたちのように」。

私たちとAIの間に芽生え始めた関係

少し話を戻そう。Diamandisは本当に、人々はAIロボットとの関係を形作り始めるだろうと考えている、と言うのだろうか?実際の女性よりも仮想ガールフレンドを好む実例を見せられては、それを信じることはそれほど難しくはないが — 私たち「を」愛してくれるアバターの実現に、私たちはどれほど近付いているのだろうか?

これに答えるためには、まず私たちはAIとは実際何なのか、そしてAIがこの世界で表現するようになったものは何かを理解しなければならない。AIには2つの基本タイプが存在する:強いAIと、応用あるいは「弱い」 AIである(技術的には認知シミュレーション(CS)も別タイプのAIだが、ここでは最初の2つのものに焦点を当てることにする)。

強いAIは発展途上であるが、最終的な目標は普通の人間と区別できない知的能力を持つマシンを構築することだ。MITのAI研究所のJoseph Weizenbaumは、強いAIの究極の目的を以下のように説明した 「それは人間のモデルに沿ったマシンを構築することに他なりません、幼年期を過ごし、子供がするように言葉を学び、自分自身の感覚器を通して世界に触れて知識を蓄え、そして究極的には人間の思考領域をじっくりと考え抜くようなロボットです」。

人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない

強いAIはまた、映画の中に登場するタイプのAIでもある — ターミネーターの中で創造者である人間に反乱を起こすスカイネットプログラムや、2001年宇宙の旅に出てくるHAL9000など。もし、このようなタイプの超人的知性が可能になり、オンラインに登場してきたときには、私たちはシンギュラリティを迎えることになると予測されている。このタイプのAIの完成には — もし可能だとしても — 何年もかかるし、たとえそこに辿り着くとしても数多くの争いを乗り越えてのことになるだろう。

一方、弱い/応用AIとは、あなたがニュース記事で読んでいるタイプのものだ。その上に「スマート」という形容詞を貼り付けたものは何でも、一般的にある種の弱いAIに依存している — それが「学習」したり自分自身のコードを書く方法を発見したりする人工的な知能の形式ならば。しかし、それは極めて少ないタスクに対する機能に限られている。

スマートカーを運転するプログラム、カスタマーサービスを通して私たちをガイドするチャットボット、さらには前述のAlphaGo、全てが弱いあるいは応用AIの例である。これらのシステムは、AIが認識した「マイクロワールド」の境界の中に棲んでいて、エキスパートシステム と考えることができるほど進化したものである。これらのシステムは、自身の提言を、より大きな文脈またはマイクロワールドの外へ、どのように当てはめればよいかの「常識」や理解を有してはいない。それらは本質的に、1つの分野に特化した非常に複雑な入力/出力システムなのである、この欠陥によって、人間知性からは容易に区別することが可能なのだ。

対話インターフェイスへの注力

人間のような入力/出力システムへと焦点を当てたことで、AIという意味での社会の注目が集まっているように見える。人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない。これは私たち何かが知的であるか否かを判断する際に、チューリングテストにとても重点を置いているという事実から明らかだ。もしプログラムがひとりの人間と対話して、人間としてみなされたならば、やった:平均的なユーザーはそれを「AI」と呼ぶだろう。

もしそれがチューリングテストに合格しない場合、たとえ惜しかった場合でも、私たちはスクリーンの向こう側にいるものが偽物だと気付いてしまう。そして会話の真の性質が失われるのだ。しかしそれでも、たとえ私たちがAIに向かって話していることや、AIが会話を巧みにナビゲートすることができることに気付いていたとしても、私たちはしばしばその対話の人間らしさに驚き、疑いを棚上げにして、機械と話していることも忘れることができる。

残念ながら、それが機能するように設計されているマイクロワールドの中でさえ、AIは多く場合会話の検閲に合格できることはない。私たちがこれをほぼ毎日目にしているのがチャットボットの現れる場面だ。MicrosoftとFacebookが今年の初めにチャットボットの提供をアナウンスしたので、多くの企業が、そのテクノロジーは顧客エンゲージメントの向上に役立つと言い始めた — しかし昨年のTA CRM Market Indexでカスタマーサービスとサポートの上位にランキングされたSalesforceでさえ、チャットボットは必要である水準に達していないと指摘している。この非効率的なチャットボットの問題を解決する唯一の方法は、これらのシステムがより…そう、人間のように振る舞うようにすることだ。

私たちは、弱いAIをどれ位人間のようにするべきなのか?

さあ、ここがクライマックスだ。チャットボットとAIのインターフェイスの側面はどこにも向かっていない。例えばSiriやCortanaを見てみればよい。これらは技術的には仮想アシスタントを兼ねるものだ、そしてそれらは時間が経つにつれ高度なものになっていくだけなのだ。このままで、これらのそして他のチャットボットがチューリングテストをパスすることはない。仮になんとかパスできたとしても、それらの機械はまだ「インテリジェント」ではないとか、「知覚があるとは言えない」と言われてしまう可能性は高い。なぜなら彼らは、現在行われている会話についての真の理解は行っていないからだ。彼らは、「Eliza」とか「Parry」と名付けられた、初期のころのスタンフォード大によるコミュニケーションプログラムのように、会話をシミュレートするために事前にプログラムされ、パッケージ化された応答に依存している。哲学者のNed Blockに言わせれば、これらのシステムは「ジュークボックスよりも、インテリジェントになることはない」ということになる。

それにもかかわらず、ある時点で私たちは、弱いAIをどの程度人間らしくするつもりなのかと、自らに問いかけなければならない。弱いAIと強いAIの違いを理解することなく、どんなタイプの心理的効果を、人間と区別のつかないチャットボットの存在から得ることができるだろうか?

人間の感情の微妙なニュアンスを理解するAIには良い側面がある

オンラインメッセージングセラピーを提供する、TalkSpaceのライターであるJoseph Rauchが、彼の仕事における人間らしさの検証の必要性について語った。

「私たちはしばしば、見込み客の方々から、チャットしている相手がチャットボットではなく、人間のセラピストである保証が欲しいという声をいただきます」と彼は書いている 。「私たちの全てのセラピストは、肉と血とライセンスを所有する人間たちです。しかし私たちはお客さまの懸念も理解します。それがオンラインセラピーだろうが、ソーシャルメディアだろうが、そしてオンラインデートであろうが、誰もが接続されていて、信じている人間とのチャットに値するのです」。

彼はオンラインデートについても言及した、そこではすでに人々をだまして提携サイトに送り込んだり、男性:女性比率であたかも男性比率は少ないように見せかけるチャットボットがいることが知られている。しかし、これらのチャットボットがビジネスで使用されているとしたらどうだろうか?CRMの例題に戻ると、Legion AnalyticsというグループがKylieという名前のリード創出マーケティングボットを売り込んでいる。このボットはちょっとした会話を理解して、話題をそれ以前に出たもの(例えば子供向けサッカーゲーム)へ引き戻そうとする、そして見込みのある相手には気を引く素振りをしたりさえするのだ。

このようなボットが十分に高度になったとき、人びとは自分たちのことを自分たち以上に良く知っているように見える機械から、操られたり侵害されたりしているように感じるのだろうか?特にこれらのボットが、平均的な人間が可能なものよりも、高い製品売り上げを本当に達成できる場合は?それは明らかに長い道のりだが、会話に精通し、あなた(顧客)の完全な心理学的プロファイルを持つデータウェアハウスに接続されたチャットボットは、普通の人間にはまず活用が不可能な、説得力のある基準で合成された情報を使ったセールスを行うことができるだろう。

ボットに感情を教える

もちろん、弱いAIを真に擬人化するための方法は、それに感情を教えることだろう — あるいは少なくともエミュレートした感情を — それが、Fraser Keltonを共同創業者とするKokoが実現を主張していることだ。Fast Companyの記事では、Keltonはチャットボットに、より多くの人間の感覚を提供する必要があると語る:「私たちは、音声やメッセージングプラットフォームにサービスとしての共感を提供することを試みています」と彼は語る。「私たちは、それこそが、あなたがコンピュータと会話する世界における、重要なユーザー体験だと思っています」。この記事では、実質上どんなチャットボットにも接続できる、Kokoの提供する共感APIをライセンスすることを、ロボットへ心を挿入することになぞらえている。

人間の感情の微妙なニュアンスを理解するAIには良い側面がある。JAMAによる最近の研究によって明らかになったことは、Siriのようなスマートフォンアシスタントは、感情的な問題を訴えるユーザーに反応するときに特に貧弱な回答を返してしまうということだ。それどころかレイプ、性的暴行、性的虐待で助けを求めてもユーザーを嘲笑さえしたのだ。あるウェビナーでは、ノースイースタン大学 D’Amore-McKimビジネススクールの准教授Carl W. Nelsonはこの先20年のヘルスケアについて述べる中で、「ビッグデータは、あなたが気になる機密性や、事柄の面で問題を抱えていますが、それでも意思決定をガイドし、判断を下すために有効に利用することができます…」とも指摘している。そしてガイドする相手の人間の感情についての正しい知識なしに、自動医療診断システムはどれほど完全なものとなり得るのだろうか?

弱いAIでさえも感情の理解とエミュレートをする必要性がある一方で、私たちは人間の状態を認識しているふりをする、そしてユーザーに感情的な反応さえ(たとえそれが「パッケージ化」された反応だとしても)返すようなホムンクルス(小人)を作り出すリスクを冒しているのだろうか?こうしたボットに関する知識をほとんど持たないかあるいは全く持たない人たちは、それらを単なるボット以上のものとして扱い始めるのだろうか?

社会への影響

時間が経つにつれて、私たちの技術が私たちを仰天させ続けることは明らかだ。私たちがAIロボットの出る多くの映画やテレビをみるほど、私たちは疑いなく、これらをサイエンスフィクションの要素とは見なくなり、いつごろこれらが現実のものになるのだろうと考えるようになる。ブレードランナーのような映画は遥か昔にこの問題を扱っている一方で、Android Dickプロジェクトのような最近の進歩は、Westworldのような新しい番組と考え合わせると、私たちがおそらく、ほどなくAIの倫理を扱うことになることを認識させる。

倫理的な問題の中心は、これらのAIが実際そのような感情や権利や、何かを持っているかどうかという点にあるのではない — そうではなく、それを所有する私たち人間に対する影響が問題なのである。例えば、この実際の人間とは区別がつかない執事は、今もこれまでも人間であったことはなく、それ故に彼をゴミ箱に投げ捨てても良いのだということを、どうやって子供に説明するのだろうか?または、Westworldのように、彼らは実際には生きていないし、契約に同意することができるのだから、「殺し」たり「強姦」したりすることは許されるのだろうか?いつ生命のエミュレーションは、人間の生命のように重要になるのだろうか?

これらはすべて、私たちが時間をかけて扱う必要のある質問であり、それらには簡単な答は存在しない。最終的には私たちとAI関係を定義する必要があり、そして強いAIから弱いAIを分離する細い曖昧な線を見付けなければならない(もし強いAIが可能ならという話だが)。望むらくは、私たちが構築するこうしたヒューマノイドの作成の過程で、鏡を覗き込むように、私たち自身の人間性の感覚をより学び強化していきたい。乱暴にそれを捨て去ったり、の中のの様に洗い流してしまう代わりに。

[ 原文へ ]
(翻訳:Sako)

バイアスなきAIを創るのは、なぜ難しいのか

wtf-machine-learning

編集部注:本稿を執筆したのは、TechTalksの創業者であり、自身もソフトウェアエンジニアであるBen Dicksonだ。

 

人工知能と機械学習のテクノロジーが成熟し、それを利用すれば複雑な問題をも解決できることが実証されつつある。それにつれて、私たちはこれまで人間には不可能だったことも、ロボットなら成し遂げることが可能なのではないかと考えるようになった。それはすなわち、個人的なバイアスを排除して物事を判断するということだ。だが、最近の事例によって機械学習が抱える予想外の問題が浮き彫りになっている。その他の革新的な技術と同じように、機械学習でさえも時には人間界のモラルや道徳的な基準からかけ離れた結果を生むことが分かったのだ。

これからお話するストーリーの中には面白おかしいものもあるが、それは同時に、私たちに未来についてよく考えるためのきっかけを与えてくれる。その未来とは、ロボットや人工知能が今よりももっと重要な責任をもち、もしそれらが間違った判断を下したとすれば、ロボット自身がその責任を取るという未来だ。

機械学習特有の問題点

機械学習とは、アルゴリズムを使ってデータを解析し、そこからパターンを抽出することで得た洞察をもとに、未来を予測したり、物事を判断することを指す。私たちが毎日のように使うサービスにもこの機械学習が利用されている。サーチエンジン、顔認識アプリ、デジタルなパーソナルアシスタントなどがその例だ。機械に投入するデータの量が多ければ多いほど、機械はより賢くなっていく。だからこそ、企業はより多くの顧客データやユーザーデータを集める方法を探し求めているのだ。

だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。

人間の子どもと同じように、機械もその育て親が持つ趣味嗜好やバイアスを受け継ぐ傾向がある。機械学習という分野において、この問題はより複雑だ。企業は自分たちのサービスの背後にあるアルゴリズムの内部を明かそうとせず、それを企業秘密として扱うからだ。

機械学習はどのように間違った結論を生むのか

機械学習のスタートアップであるBeauty.aiは今年、史上初のAIによる美人コンテストを開催した。このコンテストには6000人以上の人々が参加し、AIは提出された顔写真を解析して、顔の対称性やしわなどを元にその人がもつ「魅力度」を算出した。

このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。

機械学習の「白人びいき問題」が表沙汰になったのはこれが初めてではない。今年初めには、ある言語処理アルゴリズムが、JamalやEbonyといった黒人に多い名前よりも、EmilyやMattなどの白人に多い名前の方が心地の良い響きを持つと結論付けるという事件があった。

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。

この他にも、Microsoftが開発したチャットボットの「Tay」がサービス停止に追い込まれるという事もあった。10代の女の子の言動を真似るように開発されたTayが、暴力的な内容のツイートをしたことが問題視されたからだ。Tayはもともと、ユーザーから受け取ったコメントを吸収し、そのデータを元に学習することで、より人間に近い会話をするという目的をもって開発されたチャットボットだった。しかし、ユーザーはTayに人間味を持たせることよりも、彼女に人種差別やナチズムの概念を教えることの方に興味があったようだ。

だが、もしこれが人間の命や自由に関わるような状況だったとしたらどうだろうか?ProPublicaが5月に発表したレポートによれば、当時フロリダ州が導入していた囚人の再犯率を計算するアルゴリズムは、黒人に対して特に高い再犯率を算出するような設計だったという。

黒人をゴリラとして認識するGoogleのアルゴリズム高給の求人広告を女性には表示しない広告エンジン下品なトピックや嘘の出来事を表示するニュース・アルゴリズムなど、機械学習の失敗例は他にも数えきれないほどある。

機械学習が犯した過ちの責任を取るのは誰か?

従来のソフトウェアでは、エラーの原因がユーザーにあるのか、それともソフトウェアの設計自体にあるのかということを判断するのは簡単だった。

しかし機械学習ではそうはいかない。機械学習において一番の難問となるのは、過ちが起きたときの責任の所在を明らかにすることなのだ。機械学習の開発は従来のソフトウェア開発とは全く異なり、プログラムのコードと同じくらい重要なのが、アルゴリズムのトレーニングだ。アルゴリズムの生みの親でさえも、それがもつ正確性を厳密に予測することは出来ない。時には、自分がつくったアルゴリズムの正確さに驚かされることもある。

そのため、Facebookの「Trending Topics」がもつ政治的バイアスの責任の所在を明らかにするのは難しい。そのサービスの少なくとも一部には機械学習が利用されているからだ。共和党の大統領候補であるDonald Trumpは、Googleが同社の検索エンジンを操作してHillary Clintonに不利なニュースを表示しないようにしていると批判しているが、これに関しても、Googleが検索エンジンの仕組みを明確に説明して、その主張を跳ね返すのは難しいだろう。

人工知能がより重要な判断をするような状況では、この問題はもっと深刻なものになる。例えば、自動運転車が歩行者をひいてしまったとしたら、その事故の責任は誰にあるのだろうか?運転手、より正確に言えばそのクルマの所有者の責任になるのだろうか、それとも、そのアルゴリズムを開発した者の責任なのだろうか?

機械学習のアルゴリズムからバイアスを取り除く方法とは?

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。だが、バイアスのないデータベースをつくること自体が難問だ。現状、アルゴリズムのトレーニングに使われるデータの管理に関する規制や基準などは存在しておらず、時には、すでにバイアスを含んだフレームワークやデータベースが開発者のあいだで使い回されることもある。

この問題に対する解決策の1つとして、厳密に管理されたデータベースを共有し、その所有権を複数の組織に与えることで、ある1つの組織が自分たちに有利になるようにデータを操作することを防ぐという方法が考えられる。

これを可能にするのが、Facebook、Amazon、Google、IBM、Microsoftなど、機械学習界のイノベーターたちが結んだ歴史的なパートナーシップである「Partnership on Artificial Intelligence」だ。機械学習と人工知能が発展するにつれて様々な問題が浮き彫りとなった今、そのような問題を解決することがこのパートナーシップの目的である。人工知能がもつ道徳性の問題を解決すること、そして、複数の組織による人工知能のチェック機能をつくることなどがその例だ。

Elon MuskのOpenAIも面白い取り組みの1つである。OpenAIでは、AIの開発にさまざまな人々を参加させることで、その透明性を高め、AIが犯す過ちを未然に防ぐことを目指している。

ロボットが自分の言動の理由を説明し、みずから間違いを正すという未来もいつか来るだろう。しかし、それはまだまだ遠い未来だ。それまでのあいだ、人間がもつバイアスをAIが受け継ぐことを防げるのは人間しかいない。そして、それは1つの組織や個人によって成し遂げられるものではない。

人間の知恵を結集してこそ達成可能な目標なのだ。

[原文]

(翻訳:木村 拓哉 /Website /Facebook /Twitter

Sinovation Venturesが狙うのはAIだ

img_0166

Sinovation Venturesを創業したKai-Fu Lee博士の中国製SNSのアカウントには、5000万人ものフォロワーがおり、彼はそこで中国のテクノロジーの将来を予測する賢者のように扱われている。TechCrunch Beijing 2016で彼は、中国のスタートアップ業界の重要なトレンドについて私たちに話してくれた。

Sinovation Venturesは先日、中国とアメリカのファンドから6億7500万ドルを調達しており、現在では300社以上の企業に出資している。Kai-Fu Leeは「1社につき1500万ドルまで投資ができる規模になった」と話している。

そして、これからのSinovation Venturesにとって最も重要な分野となるのが人工知能だ。自動運転技術は大勢から注目されている分野だが、Kai-Fu Leeはそれに加えて、画像認識技術、人工知能の金融分野への応用技術、そしてAIを利用したヘルスケア・スタートアップに狙いを定めている。ここ数年でSinovation Venturesが出資した企業うち、その約半数はAI関連企業だ。

「AIはあらゆる職業や業界に変化をもたらしました。AIが関与していない分野など無いといっても過言ではありません」とKai-Fu Leeは話す。「例えば、AI技術の教育分野への応用は想像がしやすいでしょう。従来の教育のほとんどは、AIによる教育に切り替えられる可能性があります。医療や医薬品分野もAIが活躍する分野です」。

もちろん、AIにはまだ根本的な問題が残されている。AIが人間に取って代わることで、人間の職が奪われてしまうのだろうか?Kai-Fu Leeもこの問題に気づいてはいるが、それに対しては楽観的な意見を持っている。

「AIはとてもよく働くだけでなく、それにかかるコストは非常に低い。それによって人類全体はこれまでより多くのリソースを持つことができ、AIのおかげで全ての人々に経済的な保障を提供することができるかもしれません」と彼は語る。「生産性が低い繰り返しのタスクをこなすことが、人類が地球上に存在している理由ではないでしょう」と彼は続けた。

彼によれば、人工知能の誕生によって最も影響を受けるのは貨物運輸の分野だという。その中でも、まず初めに影響を受けるのがトラックの運転手だ。「だからこそUberがOttoを買収したのです」と彼は話す。

一方で、彼はヘルスケアに関してより慎重な考えを持っており、AIがヘルスケア分野で利用されるようになるまでには時間がかかり、変化は徐々に進んでいくだろうと話す。「この分野が少し特殊なのは、そこに人の命が関わってくるからです。この分野でAIが使われるとすれば、それは人間のアシスタントとしての役割でしょう」う。

彼らはAI分野に力を入れてはいるが、複雑なテクノロジーだけにフォーカスしている訳ではない。Sinovation Venturesはこの他にも、エンターテイメント分野やコンテンツ制作系の企業にも投資をしている。様々なTV番組にも投資しており、これはVCとしては珍しいことだ。

  1. img_0169.jpg

  2. img_0160.jpg

  3. img_0168.jpg

「米国ではより小さい規模の投資をするようにしています。そうやって市場に入り込むことで、彼らから学ぶことができるからです」とKan-Fu Leeは話す。ハードウェアや玩具の分野に投資することも考えられるだろう。

最後に、Kai-Fu Leeは中国の消費者製品の動向について話してくれた。「モバイル・インターネットという分野では、中国は米国よりも進んでいると思います。なぜなら、これまで米国に遅れをとっていた中国は、いざ前に進むときに階段を数段抜かしすることができたからです」と彼は話す。「中国の人々は現金の支払いからモバイル・ペイメントに直接シフトしていきました。モバイル・ペイメント、モバイル・ゲーミング、モバイル・コミュニケーションなどの分野では、中国が主導権を握っています」。

今後数年のうちは、中国の企業が国外で大きな成功を収めるとは思いません。

— Kai-Fu Lee博士

彼の意見によれば、GoogleやFacebookなどの企業は、WeChatなどの中国のコンシューマー向けサービスと争うべきではないという。時すでに遅し、とのことだ。

「FacebookやGoogleといった企業は、中国企業が持っていないようなテクノロジーにフォーカスできるのです」と彼は話す。「例えばFacebookにはOculusがあり、Googleにも中国の競合企業には無い技術を持っています。もし私が彼らであれば、そういった技術を中国でもローンチしようとするでしょう」。

だが、米国市場を狙う中国企業にとってもそれは当てはまる。「米国市場においてWhatsAppはすでに独占的な地位を確立しており、中国企業がその分野に参入するのは難しいでしょう」とKai-Fu Leeは話す。「今後数年のうちは、中国の企業が国外で大きな成功を収めるとは思いません」。

つまり、これまで通り中国企業は中国で、米国企業は米国でそれぞれ独占的な力を持つということだろう。Uberが中国市場から撤退したことからも分かるように、真のグローバル・リーダーになるのは難しいということだ。

[原文]

(翻訳: 木村 拓哉 /Website /Facebook /Twitter

IBM WatsonとUdacityがパートナーしてネット上に人工知能の単科学位コースを開設(全26週)

ibm-watson-servers

社会人のスキルアップ&キャリアアップのためのネット教育をやっているUdacityが、IBM WatsonDidi Chuxing、およびAmazon Alexaとパートナーして、人工知能のナノディグリー*を提供していく、と今日(米国時間10/25)のIBM World of Watsonカンファレンスで発表した。〔*: nanodegree、ナノ学位、‘ミニ’よりもさらに小さな学位、特定単一科目限定。Udacity独特の用語である。〕

この課程のためのカリキュラムはIBM WatsonとUdacityが共同開発する。‘中国のUber’(のひとつ)Didi Chuxingは、このナノ学位を取った学生を雇用する。IBMも、だ。人工知能ナノ学位の開発に関し、Amazon AlexaがUdacityのアドバイザーとなる。

UdacityのファウンダーSebastian Thrunは、Googleのイノベーション部門Google Xと、その自動運転車開発事業を創始した人物だが、彼によるとこのAIナノ学位は、ソフトウェア開発にある程度精通している人が対象だ。

IBMでWatsonを担当しているVP Rob Highが同社のブログ記事に、このナノ学位の教程では、ゲーム、検索、ロジックとプランニング、コンピュータービジョン、自然言語処理などのアプリケーションやプラットホームの作り方を学生に教えていく、と書いている。

人工知能と倫理の問題についてThrunはこう言う:

“その問題は、ナノ学位のカリキュラムには含まれない。AIに関して恐怖を声高に広める人たちがいるが、AIと世界の支配や破壊は無関係だ。むしろそれは、退屈な繰り返し作業から人間を解放する。あなたがライターじゃなくて、オフィスで毎日同じことをしているオフィスワーカーだ、と想像してご覧”。

“あなたの仕事のやり方を見ていたAIは、あなたの仕事をあなたの100倍の効率でできるようになるだろう。あなたには、大量の自由時間ができる。AIと人間の心との関係は、蒸気機関と人間の体との関係とパラレルだ、と私は思う。どちらも、世界にとって、ポジティブなニュースだ”。

UdacityのAIナノ学位課程は、13週間の学期を2学期受ける。最初の学期は、2017年の初めに開く。

カリキュラムは目下開発中だが、教えるのは人間だ。ただしそれらの先生たちが、自分の授業のためのAIアプリケーションを開発するのは、かまわない。

UdacityはEdX, Courseraなどなどのエドッテック(edtech)プラットホームと競合している。どこも、今のテクノロジー社会における、一般社会人のスキルアップとキャリアアップを、売り物にしている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Clarifaiが3000万ドルを調達、ビジュアル検索技術をディベロッパーへ

customtraining-adidas

Matt Zeilerはカナダの農村で育った。それから数十年後の今、彼はPinterestやGoogleが保有しているようなビジュアル検索ツールを、他の企業やディベロッパーへ提供するためにスタートアップを運営している。

そのスタートアップの名はClarifai。ニューヨークを拠点とする同社は、どんなものが写真の中に含まれているかというのをアルゴリズムが学習できるように、ディベロッパーに対してメタデータを写真にタグ付けできるサービスを提供している。この機能を利用すれば、Clarifaiのディベロッパーは、対象物の含まれる写真を検索したり、アップロードされた写真と似たものが含まれる画像を検索したりできるようにアルゴリズムを訓練することができる。本日Clarifaiは、リードインベスターのMenlo VenturesやUnion Square Ventures、Lux Capitalなどが参加したラウンドで3000万ドルを調達したと発表した。同社のこれまでの調達額は合計4125万ドルにのぼる。

GoogleやPinterestといった企業がビジュアル検索テクノロジーの開発を進める中、Clarifaiも同じことをしようとしているが、彼らはサードパーティのアプリやディベロッパーにビジュアル検索機能を提供することに注力している。複数枚の画像に相当するデータがあれば、どんなものが画像内に含まれているかというのを判断するモデルをClarifaiで構築することができるとZeilerは話す。そしてディベロッパーは自分たちが識別しやすいタグを使うことで、画像や動画の中に含まれる”オブジェクト”のクラス(雛形もしくは定型)を新規にアルゴリズムに教え込むことができる。

「私たちにとって、顧客に通じる1番大事な扉となるのがディベロッパーの方々です」とZeilerは話す。「Twilioのサービスを考えてみて下さい。彼らはディベロッパーファーストで通信機能に特化したAPIプラットフォームを運営しています。私たちは似たような形でAIサービスを提供していて、積極的にミートアップやハッカソンに参加したり、オフィスでイベントを開催したりしています。今後は、全てのディベロッパーの間でClarifaiが話題となり、彼らが実際に私たちのサービスを使って次世代のアプリを作るようになってくれればと願っています。将来的には次のSnapchatとなるようなサービスをガレージで開発している人たちと、一緒に成長していきたいです」

Clarifaiは、経験の浅いディベロッパーやプログラマーに向けて、Twilioのように数行のコードで実装可能なAPIの形でツールを提供しているほか、カスタマイズ性の高い玄人向けのツールも用意している。もしもClarifaiが、Twilioのように上手くディベロッパーのトレンドを利用することができれば、Twilioと似たような形で強力な事業に発展していくかもしれない。

しばらくのあいだClarifaiは、画像・動画検索の機能向上に集中し続ける予定だが、データ構造を理解できるような技術があれば、理論上ほかのメディアにもサービスを展開することができる。ZeilerはClarifaiがほかにどのようなツールの開発を行っているかについて口を閉ざしているが、音声やテキストなど、サービスが展開されるであろう方向性は簡単に予想がつく。

Clarifaiの本質的なゴールは、GoogleやPinterestが保有しているようなツールを開発し、それを下流にいるディベロッパーやほかの企業に提供していくことだ。例えば、WalmartやMacy’sなどの小売企業はこのようなサービスを利用したいと思うかもしれないが、Googleのような会社と協業すると、小売店の情報を競合企業に渡してしまうことに繋がる可能性がある。そして最終的には、彼らが競合サービスを構築するための手助けをしてしまうことになりかねないのだ。

「私たちは何社かの大手企業を競合と見ていますが、この分野のスタートアップの話はあまり聞きません」とZeilerは言う。「たくさんのスタートアップが引き続き買収されていますが、私たちにとっては喜ばしいことだと社内ではその状況を祝っています。というのも、私たちは独立系のAI企業を作り上げたいと考えていますし、この市場には独立した企業が必要だとも考えているんです。顧客となる企業にはデータの扱いに関して私たちを信用してほしいと思っている一方、多くの企業はGoogleやMicrosoftなどの大手IT企業が、そのうち集めたデータを使って競合製品を作ろうとしていることを知っており、彼らのことを信用していません」

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Amazon Alexaは2016の大統領選挙戦に関する事実確認もすることができる

amazon-echo

友人たちと大統領選挙に関して議論した際に、ヒートアップしてしまったことはないだろうか?グッドニュースだ:いまやAlexaは2016年の選挙に関して、候補者の主張そのものに対する事実確認(fact check)をすることができる。対象にはクリントンとトランプの発言だけではなく、コメントの内容がチェックされた、他の候補者や政治家のものも含まれている。

この事実確認機能は、新しいスキルによって可能になっている ‐ Amazonの仮想アシスタントのパワーを強化する沢山のアドオン、音声駆動アプリの1つなのだ。この仮想アシスタントは、Amazon Echoスピーカーや、Fire TV、その他のデバイスに搭載されている。

この新しい「 Share the Facts(事実を共有する) 」スキルは、Duke Reporters’ Lab(デュークレポーター研究所:スタンフォード大の1部門)によってもたらされた。同研究所は質問に答えるために、信用のおける既存の事実確認サイトを利用している。例えばWashington Post’s Fact Checker、FactCheck.org、そしてPolitiFactなどが含まれる。

インストール後、スキルを利用するには以下のように言えば良い:「Alexa, ask the fact-checkers…(Alexa、事実確認をお願い…)」そしてあなたの質問を続ける。

同スキルは、討論、キャンペーン広告、その他のインタビュー中で行われた主張を確認することに利用可能だ。

以下に示すのがAlexaに対して訊ねることのできる質問の例だ:

  • “Alexa, ask the fact-checkers did Donald Trump oppose the war in Iraq?”(Alexa、事実確認をお願い。ドナルド・トランプはイラク戦争に反対したの?)
  • “Alexa, ask the fact-checkers was Hillary Clinton right that her email practices were allowed?”(Alexa、事実確認をお願い。ヒラリー・クリントンが主張した、電子メールの使い方は許可されていたという事実は正しかったの?)
  • “Alexa, ask the fact-checkers is it true that 300,000 Floridians have lost their health insurance because of Obamacare?”(Alexa、事実確認をお願い。30万人ものフロリダの住民がオバマケアのせいで健康保険を失ったというのは本当なの?)

このShare the Factsプロジェクトからスピンオフしたスキルは、自然音声認識を利用して質問を分析し、プロによって選別を受けた約2000のチェックデータベースから答を引き出してくる。その結果は、タイムリーで、かつパートナーの事実確認サービスの間でもっとも高い同意が得らているものとなるように、調整されている。

これは、AmazonのAlexaが、大統領キャンペーン中にユーザーを支援してきた唯一の方法ではない。アマゾン自身も最近、特に新しいスキルの追加なしに、ディベートの開催と他の選挙について直接質問することのできる、新しい機能を公開した

例えば、Alexaは有権者に対して、いつディベートがテレビで放映されるかをこれまで答えることができていたし、だれが調査で優位であるかを答えることもできる、そしてこの先はある候補者がどの州で勝ったのかといった質問にも答えられるようになる。

最後の質問は、選挙に関するリアルタイムの情報を伝えるために、Election Day(今年は11月8日)以降にAlexaが答えられるようになる音声コマンドの1つだ。また、誰が優勢なのか、人口の何パーセント票を候補者は得たのか、全体として誰が勝ちつつあるのか、特定の州で勝つと予想されているのは誰か、ある州で集まった票の数は何票か、特定の地域での選挙結果はどうか、あるいは単に「選挙結果は?」と訊ねることもできる。

既に、ユーザーたちは現在進行中の選挙戦とディベートに関する答を求めて、Alexaに向かい始めている。Amazonによれば、例えば水曜日に行われた最後のディベートの間に、「hombre」(スペイン語:「奴」「野郎」といった意味の俗語)に関連した問い合わせが40倍に増えたと言っている。

そして、ユーザーが最も沢山訊ねた2つの質問は、多かった順に次のようなものだ:「Alexa、ディベートの開始時間は?」そして「Alexa、議論に勝ったのは誰?」。

Amazon introduces Amazon Alexa, Echo and the All-New Echo Dot at a product launch in London

Amazonはまた、Alexaのユーザーたちが2016年の選挙に関連して、これまでに何百万もの質問をしていると語った。それらの質問のうちの数十万が、データベースの中身に格納されたものに関係したものだった。そして、ヒラリークリントンに関するものに比べて、ドナルド・トランプに関する質問の数が倍だったことを、Amazonは指摘した。

これはあくまでも個人的な意見だが、Alexaはどちらの陣営の味方もしていない。例えば彼女(Alexa)は、最後のディベートに関しては、どちらも新しい票の増減はなかったようだと答えるだけで、どちらが勝利したのかについては答えない。

一方、どちらに投票するつもりなのかと聞かれたときには – これまでに1万3000回以上聞かれているそうだが – Alexaこのように明るく答えるだけだ:

「雲の中には投票所はありません – 信じて下さいね、私見たんですよ。ここには1と0しかないんです」。

[ 原文へ ]
(翻訳:Sako)

テレビ画面上の顔の出現頻度を毎秒チェックするAIサービスVerso、政治家やタレントの人気ランキキングなどに利用

screen-shot-2016-10-21-at-17-56-48

ロシア政府がアメリカの大統領選をハッキングしている、というニュースが今や大きいけど、一部の頭の良いロシアのデベロッパーたちが、もっとましなことをやった。テレビをモニタして人の顔(たとえば世界の主要国のリーダーたち)の出現頻度を記録するのだ。

そのAIを利用したアルゴリズムは、すべてのメディア上に、リーダーたちの出現を追う。Versoと名付けたそのサービスは、各国の大統領や首相らの出現頻度を記録し、その順位をリアルタイムで表示する。

Versoは、人の顔(ぼやけていてもよい)を素早く認識するアルゴリズムの、応用の実験で、そのアルゴリズムはMoscow State Universityが開発した。

Versoは一秒おきに、テレビの各チャンネルのスクリーンショットを撮る。そしてそのときの画面中のすべての顔をアルゴリズムが処理して、訓練されている顔(現状は主要国のリーダーのみ)とマッチングする。

一つの顔の認識に要する時間は数ミリ秒、確度は99%だ。ピンぼけでも、横を向いた顔でもよい。そのデータは、リアルタイムで送られる。

Russian Venturesの常勤社員パートナーEugene Gordeevはこう言う: “あくまでもAIの実験とシステムの試作だから、まだ万能ではないし、概要が分かるだけだ。Verso(裏面)という名前をつけたのは、謙遜の意味もある”。

このソフトウェアのライブのデモがここにある。チェックしているのは、20のチャンネルだ。

ヒラリー・クリントンとドナルド・トランプの二度目のディベートで、両者の顔をチェックしたデータがこれだ。最初のうちはトランプが多くて、その後は最後までクリントンの映像が多い。

Versoは今後、ウォッチするチャンネルを100にする計画だ。そうすると国や地域による偏りのない、全世界的な傾向が得られるかもしれない。もちろん、訓練次第では、人の顔だけでなく、特定の製品などを映像中に見つけることもできる。

Gordeevによれば、“今後は映像だけでなく、テキストや音声も認識できるようにしたい。そしてそれらの意味も理解できるようになれば、(表情や文章などの)ポジティブとネガティブの違いを判断できるようになるだろう”、という。

Versoは10万ドルの資金を獲得しているが、今後の増資も計画している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Teslaが自宅から勤務先まで自動運転―ドライブの一部始終をビデオで見られる

Teslaは水曜日の夜、本日以降製造される全てのTesla車は、自動運転に必要なハードウェアを最初から搭載すると発表した。ただし自動運転に必要なソフトの発表は先になる。また自動運転でアメリカを横断する野心的なデモも2017年に実施が計画されている。

もちろんTeslaはこれに先立って社内でのテストを進めており、上のビデオではTesla車がユーザーの自宅を出発して都市部、高速道路を経由して勤務先までナビゲーションも含む完全自動運転でドライブする様子が映されている。

このTesla車は自分でガレージを出て、市内を抜け、高速を乗り降りし、Tesla本社に到着し、所定の場所に駐車する。人間のドライバーが運転席に座っているがこれは安全規則を遵守するためだという(カリフォルニア州の法律では市街地の道路では人間が運転席にいることが要求される)。この間、道を横断する歩行者の手前で一時停止するなどしている。Tesla車は最後まで人力を借りず、「運転者」を無事に目的地で降ろした後、自動で縦列駐車している。Teslaのファウンダー、CEOのイーロン・マスクは「この車は障害者専用スペースに駐車するのを避けている。ここに駐車するには許可証が必要だが、Tesla車は自分が許可証を持っていないことを認識しているからだ」とツイートした。

初期段階の実験とはいえ、大いに注目される。Teslaの自動運転システムは市街地という困難な道路事情に対応してみせた。高速道路の自動運転は比較的容易だ。道路は直線区間が多く、信号や標識に従って不規則に停止する必要もほとんどない。ブラインドコーナーも歩行者も存在しない。ところが市街地ではそうした不規則で困難な状況が満載だ。 自動運転ソフトウェアにとっては非常にハードな挑戦となる。

このTeslaが出荷されればオーナーは自動車をスマートフォンのアプリでアイコンをタップして車を「呼ぶ」ことができるようになるとマスクは語った。このTeslaソフトウェアはたとえオーナーがアメリカ大陸の反対側にいても自動運転でTesla車を呼び寄せることができるという。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

社内経費の不正検知が機械学習の次のターゲットだ

Security officer with hologram screens guarding binary code

【編集部注】著者のChris Baker氏は、英国企業Concurのマネージングディレクター。

映画Morganの予告編(史上初めて完全にAIによって制作され、それによってかなり有名になった)に対する人びとの反応はどのようなものだったろうか?

「不気味だったね」。

これは(SFスリラー映画の予告編としては)正しい反応だろう。今やコンピュータは書き、読み、学び、話すことができる。そして、一部の人たちは、こうしたボットをとても恐れている。彼らの仕事を奪い、最後には世界を支配し、人間を不要にしてしまうのでは、と(I, Robotのような映画はあまり慰めにはならない)。

結局、多くの人びとが不合理な恐怖を感じている。こうしたときは、サメのことを恐れている人の数を考えてみるのが良いだろう、実際のところ人はサメよりもBlack Friday(11月の第4金曜日。米国で最も買い物客でごった返す日)の買い物で死ぬ可能性が高いのだ。というわけで機械学習に関して言えば、ビジネスはそこから腰がひけた態度を取るべきではない、それを受け入れ、自らのために活用する必要がある。

これまでAIは、シリコンバレーの技術専門職たちだけがアクセスしていた代物だった;しかし最早そのようなことはない。技術の成長の広がり具合は、AlexaやSiriといったサービスボットやデジタルアシスタントが、どんどん洗練されて行く様子からも見て取ることができる。

Sift Science最近3000万ドルを資金調達した)のような会社が、機械学習と人工知能を、あらゆるオンライン不正の予測と防止に使う計画を立てていることは素晴らしいことだ。特にクレジットカードのイシュアと銀行は、機械学習による不正検知システムで年120億ドルを節約できるだろうというレポートを読んだ後では。

誰かがモニタリングを行いデータを賢く使っているという前提の下でのみ、テクノロジーは上手く働く。

私たちは、機械学習がすでに金融サービスの世界ではその価値を証明したことを知っている、よってそれが企業テクノロジーに手を貸さない理由はない。より具体的には、時の中に忘れられてしまったプロセス ‐ 退屈な経費処理である。

機械学習による光明

現状では、機械学習は怪しい経費を検出するためには使われて来なかった、しかし私たちは、それが程なく現実となる正しい方向へ向かっている。しかし、内部経費不正はどの程度のものなのだろうか?そして、ボットが検出する経費異常とはどのようなものなのだろうか?

ビジネスにとって困ったことに、怪しい経費はますます日常的なものになりつつある。そしてそれが企業利益に深刻な影響を及ぼしているのだ。政府から民間に至るまで、目立ったケースは引きも切らない。しかし、少し深く掘り下げてみると、私たちがConcurで発見したところによれば、従業員の23パーセントは経費のごまかしは許容されると考えていることがわかった、またFinancial Fraud Actionが2016年の前半に金融詐欺は15秒に1回行われているという報告も出している。

機械学習を、ビジネスの日常を救うために(そして怪しい経費処理を取り除くために)投入することは可能だろうか?

おそらくは。巨大なデータ群を分析し、パターンを発見するAIの能力は、仕事場の不正で必要とされている課題の解決の役にたつだろう。人間とは異なり、機械は二日酔いや不眠の影響を受けることがないので、ボットが怪しい見かけの経費を見落とす確率は、私たち人間が見落とす確率よりも低いものである。

これは、ファイナンスチームが無駄になると言っている訳ではない;その代わり、機械が力仕事を引き受けることで、彼らの仕事が少しばかり楽になるということだ。誰かがモニタリングを行いデータを賢く使っているという前提の下でのみ、テクノロジーは上手く働く。すなわち、ボットと人間の両者が必要だということだ。

しかし、一方で機械が正しいと決めたものを、単にそのとおりだと人間が仮定しないことも重要だ。これはまさしくStanislav Petrovが1983に行ったことである。このとき彼は、全自動コンピューターが検知した米国からの「ミサイルの飛来」に疑問を抱いた。定められていた手続きは核攻撃に反撃することだった ‐ しかしPrtrovは、彼自身の頭脳を使って、コンピューターが誤っているのだと考えた。そして世界を救ったのだ。

機械学習は、明らかな利点を提供する。仕事をあっという間に完了するというだけでなく、ファイナスチームをもっと重要な時間に振り向ける時間を生み出すことができる、そして威圧的なボットに対面すれば、人びとは使い古された「おっと、そのレシートは先週の日曜のランチの分がうっかり紛れ込んだんだ」といった言い訳を使うこともなくなるだろう。

私たちは既に、デジタルの世界で生きている。それは私たちのあらゆる生活の分野に見出すことができる。非接触支払いから、単純にオンラインで行う買い物まで。だから本当に、経理部門の最高の関心事は、旧態依然としたExcel文書を何か現代的世界にマッチしたものへと変えていくこのなのだ。この先避けられない事態がやって来たときに ‐ 機械学習検知システムが配備されていて、それらを扱うことを半ば助けられ、大混乱が起きないように。

[ 原文へ ]
(翻訳:Sako)

Google DeepMindの新しい人工知能、DNCは地下鉄路線図から適切な経路を割出す

A web of dots connected by lines against a black background

2011年のノンフィクションのベストセラー、『ファスト&スロー あなたの意思はどのように決まるか』(早川書房)(Thinking, Fast and Slow)でノーベル賞経済学者のダニエル・カーネマンは、人間の思考は基本的に2つに分かれると主張した。この2つの区分はそれぞれ、適切にも、速い思考と遅い思考と名付けられている。

前者はいわば「勘に頼る」思考だ。物事に対する最初の直感的、自動的な反応といってもいい。後者は熟慮された内省を経た思考で、これを得るには時間がかかる。DeepMindの新しいアルゴリズムがもたらそうとしているのは、この「遅い思考」だ。近い将来、カーネマンの言う「遅い思考」が機械学習の手が届く範囲に入ってくる可能性がある。

Googleの子会社、DeepMindNatureに発表された新しい論文でディフェレンシャブル・ニューラル・コンピューター(DNC=differentiable neural computer)と名付けられた機械学習への新しいアプローチを説明している。新しいコンピューターといってももちろん物理的なハードウェアという意味ではない。情報を組織化し、この知識を適用して特定の問題を解決する新しいテクニックと呼ぶべきだろう。.

ニューラル・ネットワークは、本質的には、きわめて洗練された試行錯誤の過程だ。この過程が最終的に答えにたどり着く。こうしたフレームワークはある問題の解決に極めて有効だ。しかし相互に関連する既知の事実の集合を適用して現実世界の問題を解決する上ではさまざな改善の必要があった。

DeepMind

DeepMindの新しいテクノロジーは メモリにコンテンツを保存するというコンセプトと古典的なコントローラーをを用いたニューラルネットワークとを融合するものだ。コントローラーは次のいずれかの方法で情報を記憶する。すなわち新しい位置に記憶するか、既存の情報をその位置で書き換えるかだ。この過程を通じて新たなデータが書き込まれるタイムライン上で連想が形成される。

情報を取り出すためにコンテンツをメモリに保存する場合もコントローラーはその同じタイムラインをを利用する。このフレームワークはナビゲーション可能でコンテンツのグラフ構造から意味ある認識を得るのに有効であることが証明された。

消費者の購買傾向やGPSによるナビゲーションといった現実の複雑な行動がこうした知識グラフの形で表現される。DeepMindではデフェレンシャブル・ニューラル・コンピューターをロンドンの地下鉄路線図の認識に応用し、 コンピューターに記憶された構造化データから正しい経路を生成する生成することに成功した。
同社によれば、次のステップは、大規模なデータセットを処理できる新しいアルゴリズムの開発になるだろうという。

DeepMindのサイトでこの問題に関するさらに詳しい記事を読むことができる。

画像:Ralf Hiemisch/Getty Images

〔日本版〕 DeepMindはGoogleが買収した機械学習のスタートアップで、今年3月にAlphaGoが囲碁の世界チャンピオンを破ったことで一躍注目を集めた。differentiable neural computerについては現在日本語定訳がないようなのでそのままカナ表記とした。differentiableは数学用語では「微分可能な」、一般用語としては「区別できる」という意味。バベッジの最初のコンピューターがdifferential engine(差分機関)と名付けられたことと関係があるかどうかは不明。なおULR文字列がやや奇妙だが原文記事は通常どおり公開されているのでそのまま利用した。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

リアルJARVISか?―映画『アイアンマン』のR.ダウニー・Jrがザッカーバーグの人工知能の声を申し出る

2016-10-17-ironman-91kwg8

Facebookのファウンダー、CEOのマーク・ザッカーバーグは毎年野心的な「今年の目標」を設定するのを例としている。2016年の目標は自宅用のAIアシスタントを開発することだった。そのモデルは(少なくとも一部は)マーベル・コミックのヒーローでヒット映画にもなった『アイアンマン』に登場するコンピュータのJARVISだ。JARVISはアイアンマンことトニー・スタークが必要とする情報をたちどころに提供する。トニーが悪と闘いながらビジネス帝国を運営していくのに欠かせない存在だ。映画版でトニーのバーチャル・コンパニオン、JARVISの声は英国生まれの俳優ポール・ベタニーが担当していた。

面白いことに、ザッカーバーグ家の人工知能アシスタントの声はトニー・スターク自身が務めることになるかもしれない。ザッカーバーグが「AIの音声には誰がいいだろう?」とFacebookに投稿したところ、映画でトニー役を演じてきたロバート・ダウニー・Jr.が「自分がやってもいい」と申し出たのだ。

たちどころに多数のコメントがついてたいへん長いものになったが、もともとのFacebook投稿でザッカーバーグは「いよいよAIに声を持たせる時期になった」と書いた(つまり完成間近ということだろう)。ベタニー自身を推薦するコメントもあったが、当たり前過ぎてザッカーバーグの興味を引かなかった。本人がコメントで協力を申し出る前に別のコメントがロバート・ダウニー・Jr.を勧めており、これはザッカーバーグを喜ばせていた。

ダウニー・Jr.は申し出に条件を付けている。ベネディクト・カンバーバッチの最新作、ドクター・ストレンジに出演するベタニーに報酬を出し、カンバーバッチがチャリティーの寄付先を決めることだ。この映画はマーベル・コミックが原作のスーパーヒーローものでこの冬公開される。ちょっと分かりにくい条件だが、ダウニーは要するに「意義あるチャリティーに相応の寄付をするなら私が声をやってもいい」と言っているわけだろう。

今のところJARVISはザッカーバーグの個人的プロジェクトだが、近い将来、Facebookがこれを一般ユーザー向けに広く公開するのではないかという気がしてならない(Alexa/Siri/OK GoogleなどAIがひしめき合う中、Facebookもこの分野で早急に追いつく必要がある)。もしFacebookのAIの声がロバート・ダウニー・Jr.だったら競争上非常に有力なセールスポイントになりそうだ。

CNBC経由

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AIが引き起こす破壊の波

gettyimages-4964795042560x-80

【編集部注】著者のRudina Seseri氏は、Glasswing Venturesの創業者でマネージング・パートナーであり、かつハーバード・ビジネス・スクールのアントレプレナー・イン・レジデンスと、ハーバード大学イノベーション・ラボのエグゼクティブ・イン・レジデンスも務める。

情報技術はディストラプション(破壊)の波を超えて進化する。最初はコンピューター、そしてウェブ、遂にはソーシャルネットワークとスマートフォン、全てが人びとの生き方や、ビジネスの回し方に革命を起こす力を持っていた。それらは適応に失敗した企業を破壊し、一方では成長するマーケットの新しい勝者を生み出して来た。

そうした波の到来のタイミングと形を正確に予測することは困難だが、それらがたどるパターンは認識しやすい。例えば、ウェブ/デジタルのディストラプションを考えてみよう:まず先行するテクノロジー(例えばTCP/IPや設置済のコンピューター群)の利点を活かした、テクノロジーのブレイクスルーがあり(例えばTim Berners-LeeのWWW)、そして一見緩やかに見えながら、実は爆発的に、既存の市場を破壊したり(例えばAmazon)創造したり(例えばGoogle)する、新しいアプリケーションとプラットフォームの勃興が導かれた。

そして今、新しい波のうねりが見え始めている。ウェブが既存の技術を利用したことと同様に、この新しい波は、コンピューティングハードウェアのコストの低下、クラウドの出現、企業システムのコンシューマライゼーション(専用機器ではなく消費者向けデバイスを利用すること)、そしてもちろん、モバイル革命などの動向に基いている。

更にスマートデバイスと「モノ」の急増と多様化は、定常的なコミュニケーションと共有を可能にし、一方ソーシャルネットワーキングネイティブたち(世界のSnapchatユーザーは団結する!)は常時共有と自己表現を「必需品」としている。この結果が、私たちが普遍接続性(pervasive connectivity)として作り出したものの出現だ。

普遍接続性はこれまで以上に豊かでパーソナライズされたデータの急増につながる、そしてそのことはデータを処理し、価値があり操作可能な洞察を引き出す方法への、完全に新しい機会を生み出すのだ。人工知能が、まさにそれを可能にする。

AIのもたらす機会 – なぜ今なのか、どうそれを活用するのか

AIは、より広い意味では、知性を発揮する機械の能力として定義され、ここ数年で劇的に改善された、学習、推論、プランニング、そして知覚といった、いくつかのコンポーネントで構成される。

機械学習(ML)は顕著なブレークスルーを達成し、それによりAIコンポーネント全体にわたるパフォーマンスの向上が促進された。こうしたことに最も貢献しているMLの2つの流れは、理解に関わる深層学習(ディープラーニング)と、特に意思決定に関わる強化学習(リインフォースラーニング)だ。

興味深いことだが、これらの進歩はアルゴリズムではなく、むしろ(高品質な注釈付の)データ(セット)の指数関数的成長によって促進されたことはほぼ間違いないだろう 。その結果は驚くべきものだ:ますます複雑になるタスクに対してしばしば人間のパフォーマンスを上回るよい結果が継続的に達成されている(例えばゲーム音声認識、そして画像認識の分野で)。

とはいえ、それはまだ黎明期であり、いくつかの課題が残されている:ほとんどのブレークスルーは「狭い」アプリケーションの領域で起きているものであり、(作成には高いコストのかかる)大量のラベル付データセットが必要な訓練手法を使っている。ほどんどのアルゴリズムは(いまでも単に)人間以下の能力を発揮できているのに過ぎず、その訓練にはかなりのコンピューティングリソースを必要とし、大部分のアプローチが理論的フレームワークを欠いた発見的手法に基いている。

AIは、既に自宅と職場の両方で、私たちの日常生活の多くの側面を変えている。しかし、これはほんの始まりに過ぎない。

これらの課題の多くは、おそらく中長期的には克服されるが、今日作成されている大部分のAI応用プロダクトは、こうしたことを考慮して置かなければならない。これが、AIを活用することを計画している企業が以下の事に気を配ることが重要である理由だ:柔軟なアプローチをとること(すなわち、最初は、良いパフォーマンスを出すためのMLアルゴリズム訓練データを集めることができるか、あるいは非AIアプローチをとるか)、(AI機能を開発しその性能を促進するための)「ラベル付けられたデータ」をユーザーから集める連続的な情報の流れを作り出すこと、そして十分に支援されていない、あるいは「人間が介在している」ユースケースに注力することだ。

現在多くの注目は、大規模テクノロジー企業(Google/DeepMindFacebookPinterestなど)に向けられているが、わたしはこの(もしくはこれに類似した)アプローチを使って、企業と消費者市場にAIディストラプションの波を起こすのは、スタートアップたちだろうと考えている。そして、既にいくつかのスタートアップはそれを始めているのだ。

企業内のAIディストラプション

企業内でAIは、企業が消費者とインタラクトするための新しい方法や、従業員同士が相互にコミュニケーションするための新しい方法、そしてそのITシステムと共に、より大きな収益と生産性の向上の両者を促進している。

マーケティングは、新技術の典型的なアーリーアダプターであり、それは既にAIを採用していて、セクター全体にわたって高い認識とコンバージョン指標が育っている。ソーシャルメディアでは、SocialFlow*などの企業が、キャンペーンの効果を向上させるための機械学習の使用を開拓してきている。ディープラーニングによって支えられる新しい画像認識技術は、Netraのようなスタートアップが、視覚に対する知性と検索性の改善をすることを可能とし、ユーザーエクスペリエンス全体を向上させている。電子商取引では、Infinite Analyticsが、より良いパーソナライゼーションを可能にするプロダクト群を作成することができている。

セールス分野では、営業チーム/見込み客とCRMの間のUIを再考した新しいプロダクトが、効率を大いに改善し、成約率を向上させている。Troops.aiは、セールスチームが現在自身の使っているプラットフォームを通して、CRMデータに簡単にアクセスすることを可能にする。Rollioは自然言語を介したCRM情報のアクセスおよび更新を可能にする。Conversicaは、より良いスクリーニングを行い、見込み客をフォローアップできる、セールスアシスタントを作成した。

普遍接続性の世界では、AIがデータのパワーを活用するための鍵である。

人事分野では、スタートアップは様々な活動にわたった効果と効率性の改善を行おうとしている。Tallaは、企業内のナレッジマネジメントの改革を目指している。一見単純な会話エージェントから始めて、最終的には本格的で先回りを行うナレッジエージェントへと向かうのだ。Wade & Wendyは採用時に使用するための両面会話エージェントを作った、目的は向かい合う両者の満足度のレベルを上げながら、全体の採用時間を短縮することである。

生産性という話では、x.aiのような企業たちが、スケジューリングに際しての苦痛を大幅に取り除き、シームレスなユーザーエクスペリエンスを生み出そうと努力している。

最後に、部門をまたがるアプリケーションを擁する広範なプラットフォームを作っている企業もある:Indicoは、アプリケーション間をまたがったアルゴリズムの訓練をかなり高速に行うために、学習転送を使っている;Receptivitiは、人びとのテキストやボイスメッセージを解析して、彼らの心理的かつ個人的な意思決定スタイルと感情をリアルタイムに明らかにする。

消費者市場におけるAIディストラプション

消費者市場で、おそらく最も私を興奮させるものは、AIが新しいプラットフォームを創造し、日々の生活の中の重要な空間で私たちが技術と対話する方法を再定義していくやり方である。

そのような重要な空間の1つが家だ。Jibo*は家庭の変革を目指す、フレンドリーでインテリジェントなソーシャルロボットだ。よりよいユーザーエクスペリエンスを生み出すために、それは人間臭いリアクションを採用している。一方、幅広いタスクにとても役に立つ働きをする、誰が話しているかによって調整を自動的に行うインテリジェントビデオコールから、料理をする際の材料の提案、そして子供向けの読み聞かせの手伝いまで、といった具合だ。

また別の重要な空間は車だ。nuTonomyはシンガポールにおける自動運転の導入で、テクノロジーを迅速に市場に持ち込み、現行勢力を飛び越えることができたスタートアップの良い例だ。

そしてどうなる?

ほとんどの人が、AIの仮説上の発展の、長期的な可能性と脅威に焦点を当てているが、いまのところ、新しいディスラプションの波を促しているのは、経験則に基づく、限界のある適用形態である。これまでの波のように、この変化は微妙で最小のもののように見えるが、ほどなくそれはひろく普及し、無視することができないものになる。

普遍接続性の世界では、AIがデータのパワーを活用するための鍵である。企業が生き残るためにはAIの利点を活かす必要がある ‐ Google、Facebook、Amazon、そして無数のスタートアップはそれを知っている。そして、あなたも知るべきなのだ。

AIは、既に自宅と職場の両方で、私たちの日常生活の多くの側面を変えている。しかし、これはほんの始まりに過ぎない。AIは、ゆっくりと、着実に、そして広範囲に、私たちとテクノロジーの関係を再定義している。そして人間の能力と、基本的には私たちの生き方を、向上させているのだ。

*Rudina Seseriの投資ポートフォリオには、SocialFlowとJiboが含まれている。

[ 原文へ ]
(翻訳:Sako)

BMWが描く二輪の未来、ヘルメットなしでも走れる人工知能を搭載したバイク

p90238694_highres

バイクは確実に安全と言える乗り物ではないだろう。しかしBMWは、二輪の乗り物に十分な「知性」を搭載することで、ドライバーはプロテクターを装着せずとも乗れるようになる未来を思い描いている。このバイクのコンセプトで強調されているのは、ドライブの楽しみだ。そして知的なドライブアシスタント機能により、ドライブのスリルを残しながらも安全性を高めることができると考えている。

「Motorrad VISION NEXT 100」というバイクは、BMWが思い描く未来を示すバイクシリーズのうちの1つだ。このバイクは新たなテクノロジーを搭載し、インターネット接続によってどのようにドライブ体験が変わるかを示す。

Motorradは、四輪の自動車で期待されているような完全な自動運転を目指しているのではない。Motorradは、バイクを利用する人々が重要視している要素との融合を目指す。つまり、エンドユーザーは道を走る開放感を感じつつも、安全面での課題はバイクに搭載されている人工知能システムが担うというものだ。

  1. p90238730_highres.jpg

  2. p90238733_highres.jpg

  3. p90238702_highres.jpg

  4. p90238696_highres.jpg

  5. p90238693_highres.jpg

  6. p90238689_highres.jpg

  7. p90238753_highres.jpg

  8. p90238745_highres.jpg

  9. p90238738_highres.jpg

  10. p90238728_highres.jpg

  11. p90238727_highres.jpg

  12. p90238719_highres.jpg

  13. p90238715_highres.jpg

  14. p90238706_highres.jpg

  15. p90238703_highres.jpg

  16. p90238747_highres.jpg

  17. p90238701_highres.jpg

  18. p90238700_highres.jpg

  19. p90238699_highres.jpg

  20. p90238692_highres.jpg

  21. p90238749_highres.jpg

  22. p90238717_highres.jpg

  23. p90238714_highres.jpg

  24. p90238709_highres.jpg

  25. p90238741_highres.jpg

  26. p90238691_highres.jpg

  27. p90238750_highres.jpg

  28. p90238739_highres.jpg

  29. p90238732_highres.jpg

  30. p90238718_highres.jpg

  31. p90238697_highres.jpg

  32. p90238735_highres.jpg

  33. p90238729_highres.jpg

  34. p90238721_highres.jpg

  35. p90238712_highres.jpg

  36. p90238694_highres.jpg

  37. p90238755_highres.jpg

  38. p90238746_highres.jpg

  39. p90238744_highres.jpg

  40. p90238711_highres.jpg

  41. p90238707_highres.jpg

  42. p90238705_highres.jpg

  43. p90238752_highres.jpg

  44. p90238748_highres.jpg

  45. p90238734_highres.jpg

  46. p90238716_highres.jpg

  47. p90238704_highres.jpg

  48. p90238690_highres.jpg

  49. p90238751_highres.jpg

  50. p90238737_highres.jpg

  51. p90238736_highres.jpg

  52. p90238713_highres.jpg

  53. p90238698_highres.jpg

このバイクは、いくつもプロテクターや大きくて邪魔なヘルメットを着けなくても乗れることを訴求する。これは本当に魅力的だ。Motorradのシステムは走る道の先を予測し、事故を避けるにはどうすれば良いかドライバーに通知するという。事故が起きるのを防ぐために、必要があればシステムがドライバーと運転を取って代わることもある。また、自動バランスシステムを搭載し、走行している時も停止している時もバイクが倒れることを必ず防ぐという。

Motorradのコンセプトでは、乗車にヘルメットは必要ないが、別のヘッドギアの装着が含まれている。これは軽量なバイザーで、目に風が当たるのを避けるため、そして視界に重要な情報を表示するするためのものだ。例えば、道の先にあるカーブや曲がり角などをバイザーに表示する。このバイクは排気ガスゼロの電気ドライブトレーンで駆動する。

Motorradはコンセプトであり、実現にはまだ遠い。しかし、車では自動運転が注目されているように、モーターバイク業界が次に目指すところを示したクールなビジョンであることには違いない。

[原文へ]

(翻訳:Nozomi Okuma /Website

産業用ロボットが人間に取って代わるのは良いことだ

Rotherham, UK

【編集部注】執筆者のMatthew Rendallは、Clearpath Roboticsの産業部門・OTTO MotorsのCEO。

間違った人の話を聞くと、北米の製造業は絶望的な状況にあると感じることだろう。

アメリカとカナダの仕事が、過去50年の間に海外へと流出していることに疑いはない。2000年から2010年の間だけで560万もの仕事が消え去った

しかし興味深いことに、外国へとアウトソースされた仕事はそのうち13%にしか満たないのだ。失われた仕事の大部分にあたる残りの85%については、”生産性の向上”、つまり機械が人間を代替したことがその原因となっている。

多くに人にとって、このシナリオは事態がさらに深刻であることを物語っている。中国やメキシコは「アメリカ・カナダ人の仕事を奪っている」かもしれないが、少なくともその担い手は別の人間だ。一方ロボットには、製造業のような分野の仕事をこの世から消し去ってしまう恐れがあると言われている。“How to Keep Your Job When Robots Take Over.(ロボットから自分の仕事を守る方法。)” “Is a robot about to take your job?(ロボットが私たちの仕事を奪おうとしているのか?)” “What Governments Can Do When Robots Take Our Jobs.(ロボットが人間の仕事を奪う中、政府に何ができるか。)” など、人々の恐怖心を利用しようとする動きも多く見られ、もう怖気づかされるのはたくさんだ。

しかし実情は少し違っている。過去20年間でアメリカのインフレ調整済み製造業生産高は40%も増加しており、アメリカ国内の工場が生み出す付加価値も過去最高の2.4兆ドルに達している。つまり仕事の数が減る一方で、製造業の生産高は増えているのだ。製造業に従事する人の教育・給与水準は上がり、彼らは作業員の生産性を向上させるテクノロジーを含め、価値ある製品を生み出している。

実際のところ、主に労働者の高齢化を背景に製造業では200万人もの労働者が不足している。彼らの平均年齢は45歳で、これはアメリカの非農業部門雇用者の中央値よりも2.5歳ほど高いほか、若い世代の同業界への関心も低い。

これまでもテクノロジーが存在する限り、技術の進歩を文字通り破壊するラッダイトのような人たちが存在していた

この数値からは違った結論が導き出される。ロボットは私たちの仕事を奪っているのではなく、私たちの仕事をより良いものにしているのだ。

ロボットを利用すれば安全性は向上するし、パフォーマンスも安定する。海外の労働力を搾取するより道徳的にも優れている。さらにロボットは驚くほど費用対効果が高く、投入資金を12ヶ月以内に回収できることもよくある。つまり、常にコスト削減の方法を模索し、進化のスピードが遅いことに悩まされている製造業にとって、ロボットはゲームチェンジャーだと言えるだろう。

さらにその後に続くコスト削減が連鎖反応を起こし、人がやりたがるような仕事がもっと北米にとどまることになる。そして製造業界は、イノベーションを生み出すことに資金や人員を集中できるようになるのだ。その結果、より良い教育を受け、高度な技術をもった労働者を必要とし、同時に彼らを生み出すような新しい仕事が誕生するだろう。短期的には仕事が減るだろうが、長期的に見るとロボットは労働者・社会の両方に利益をもたらす。

これは何も根拠のない非現実的な見解ではない。歴史的にも、テクノロジーの転換期には一定のパターンが見て取れる。前世紀のあいだに車の作り手は人間からロボットへと代わっていった。その結果、車の生産台数が増加し、車一台当たりの労働者数も以前よりむしろ増えたのだ。労働者は、危険な作業を行う代わりにプログラミングを担当してロボットに大変な仕事を任せ、彼らの給与は以前より増加した。これまでもテクノロジーが存在する限り、技術の進歩を文字通り破壊するラッダイトのような人たちが存在していたが、冷静に周りを見れば、生産性は向上し、生活の質はこれまでにないほど高まっている。

経済的にもこの理論は証明されている。産業革命のように、自動化技術への重点的な投資が行われる時期と、一国のGDPが増加する時期の間には強い相関関係が確認されており、さらにGDPの増加は生活の質の向上と強い関係がある。生活の質の向上とは、ケガの少ない安全な労働環境から、より高度な仕事をこなすことで得られる個人の満足度の向上までを意味しており、それがさらなる好循環を生み出すことになる。高度な仕事をすることで人々の収入が増え、高度な教育も賄えるようになり、その結果より高度な技術をもった労働者が生み出され、彼らがその時間と資金を使って経済をさらに加速させていくのだ。

最近のWashington Postの記事にこの流れが上手く説明されている。「(これこそ)生産性を向上させ、市場経済を豊かにする原動力だ。農業の生産性が向上したことで多くの農家が市街地へと移住し、彼らは市街地で工業経済を支える労働力となった。さらなる生産性の向上のおかげで、最終的に私たちは医療サービスや教育、そして政府を賄えるようになった」私たちは今まさしく同じサイクルの中にいるのだ。

ここでもう一度北米の製造業の現状に立ち戻ってみよう。恐怖心を利用しようとする動きや大げさなメディアの存在、人々のまっとうな不安、むなしく響く政治家の暴言にも関わらず、ロボットは製造業をより良い方向へ導こうとしている。ロボットはこれまでのテクノロジーのように、人の仕事を奪うとされる批判の対象でしかなく、ロボットが奪おうとしている仕事はそもそも人間がする必要がないのだ。

実際には、ロボットのおかげでより多くの(そしてより良い)仕事が母国にとどまり、国内産業が発展し、ミクロ・マクロ両方のレベルで私たちの生活の質が高まっていくだろう。自動化が進み、効率・安全・生産性が向上することで、北米の製造業はただ生き残るだけでなく、私たちのイノベーションや想像力のパワーを世界に見せつけることになるだろう。

結局、ロボットが私たちの仕事を奪っていくのか、と聞かれればそうかもしれない。しかしその代わりに、私たちや私たちの子ども、そして孫たちは、もっと意味があって高収入の仕事につく可能性が高くなるだろう。私の目には、これはまっとうなトレードオフのように映る。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

シンガポールのNugitが520万ドルを調達 AIを利用したビッグデータ分析サービスを提供

Colorful data graphs on glowing panel of computer screens

ビッグデータの時代が訪れ、データの組織化と処理の効率化が求められるようになった。それこそがマーケティングに特化したシンガポールのスタートアップであるNugitが得意とする分野だ。今週、同社はSequoia CapitalがもつIndia Fundから520万ドルを調達したことを発表した。Nugitは昨年、500社のスタートアップとThe Hub Singaporeから金額非公開のシード資金を調達している。

オーストラリア出身のマーケッターであるDavid Sandersonが創立したNugitは、顧客企業と顧客が持つデータ・プラットフォームの仲介役となり、そのデータが持つ意味を浮き彫りにする機能をもつ。現在はFacebook Ad Manager、Google AdWords、DoubleClickなど15個のデータ・プラットフォームをサポートしている。Nugitのアイデアとは、データに存在するノイズを排除するだけでなく、Nugit自体がPowerPointなどの「即座に意思決定につながる資料」を作りだすことで、デジタル・マーケッターの負担を軽減するというものだ。

マーケッターがデータを扱う際には、データのクリーニングやアラインメントなど数多くのプロセスを手作業でこなす必要がある。しかし、GroupMや他の広告代理店で勤務していたSandersonは、コンピューターを利用すればそのプロセスをただ完了させるだけでなく、データが持つ意味を浮き彫りにすることができると気づいたのだ。こうして、人間には相当の労力が必要なプロセスのオートメーション化を目的にNugitが設立されることとなった。

Nugit CEOのSandersonはTechCrunchとのインタビューの中で「そのようなプロセスは特にデジタル分野のマーケッターにとってエキサイティング時間でもあります。しかし、データの量が多すぎると質の高い分析を行うことが難しくなってしまいます。人間が処理できるデータの量は限られており、そのために置き去りにされるデータがあるのです。それに加え、人々はデータを集めることにうんざりしていて、代わりに即座に意思決定につながる情報を欲しがっています」と語る。

シンガポールを拠点とする25人のチームからなるNugitの顧客企業には、FacebookやJohnson & Johnson、Publicisなどがある。同社の料金体系はデータの量やソースによって利用料金が変わる会員料金型だ。会員料金は最低で500ドル、最高で2000ドルだ。また、特別なインテグレーションやホワイトラベル化された製品を必要とする顧客向けには、それぞれにカスタマイズしたオプションも提供している。

Sandersonによれば、元々は彼がよく知る広告代理店業界向けのビジネスとして始まったNugitではあるが、大量のデータを抱える他分野の業種にもビジネスの範囲を広げつつあるという。その最近の例として、金融業界の会計データの処理にNugitのテクノロジーを利用したいとのアプローチがあったとSandersonは話してくれた。

「多くの組織が大量のデータを保有してはいますが、社内に分析チームを抱えていてもデータを大規模に分析することができていません。そのような分析チームのほとんどが、多種多様なツールを使って人間の手でデータの分析を行っています」とSandersonは語る。「あと1年か2年もすれば、企業のコアとしてNugitが提供するようなデータマネジメント能力が必要だと気づくようになるでしょう。それはデジタルメディア向けのキャンペーンに関してのデータであっても、企業の財政データであっても、もしくは消費者の新製品購入に関するデータであっても同じことです」。

Nugitは今回調達した資金によって、R&Dを強化して同社のテクノロジーのさらなる開発に努めるとともに、新しい業種にもビジネスの範囲を広げていく予定だ。Sandersonによれば、来年の終わりまでに従業員の数を2倍に増やすことも考えているという。しかし、拠点はシンガポールのまま変わらず、今後もアジア地域の企業やグローバル企業にフォーカスしていくと話している。同社は顧客が利用できるSDKの開発にも取り組んでおり、これが実現すればNugitをベースにカスタマイズされたソフトウェアを顧客自身が構築することが可能になる。

Sequoia CapitalがアジアのAI系スタートアップに投資したのはNugitで2社目だ。今年の8月、Sequoiaはインドとアメリカを拠点にEコマース向けのサービスを開発するMad Street Denに対して金額非公開の出資を行っている。また、9月にはNugitと同じくシンガポールのAI系スタートアップであるViSenzeが楽天から1050万ドルを調達している。

[原文]

(翻訳: 木村 拓哉 /Websie /Facebook /Twitter