GoogleのCloud PlatformがGPUマシンを提供するのは2017年前半から、ただし機械学習SaaSとAPIはますます充実

google_data_center_2

Googleが今年前半に立ち上げたCloud Machine Learningサービスは、Google自身によれば、早くも“急成長プロダクト”の一つになっている。今日同社は、このサービスの新しい機能をいくつか発表し、機械学習のワークロードを動かしたいと思っているユーザーとデベロッパーの両方にとって、さらにサービスの利用価値を増そうとしている。

これまでGoogleは、競合するAWSやAzureのように、ハイエンドのGPUを使う仮想マシンをデベロッパーに提供してこなかった。しかし、機械学習など、科学の分野に多い特殊でヘビーなワークロード、とくにそれらのアルゴリズムは、GPUのパワーを借りないとうまく動かないことが多い。

デベロッパーたちが一般的にGoogle Cloud Platform上で機械学習のワークロードを動かせる、そのために仮想マシンのGPUインスタンスが提供されるのは、Googleの発表によると、2017年の前半だそうだ。料金は、そのときに発表される。

なぜGoogleは、もっと前からこのタイプのマシンを提供しなかったのだろうか? Google自身、機械学習に非常に熱心だし、競合相手のAzureやAWSはとっくに提供しているというのに(Azureは今日(米国時間11/15)、OpenAIとパートナーシップを結んだ)。

しかしデベロッパーは、Googleの既存のCloud Machine Learningサービスを使って自分の機械学習ワークロードを動かすことはできる。そのための構築部材TensorFlowも利用できる。でもCloud Machine Learningが提供しているような高い処理能力と柔軟性を、Google既存のプラットホームで利用することが、まだできない。

今のGoogleはデベロッパーに、カスタムの機械学習モデルを構築するためのサービスと、機械学習を利用した、すでに教育訓練済みのモデルをいくつか提供している(マシンビジョン(機械視覚)、音声→テキスト変換、翻訳、テキストの情報取り出しなど)。Google自身が機械学習で高度に進歩しているし、独自のチップまで作っている。そこで今日のGoogleの発表では、Cloud Vision APIの使用料が約80%値下げされた。またこのサービスは、企業のロゴや、ランドマークなどのオブジェクトも見分けられるようになった。

そしてテキストから情報を取り出すCloud Natural Language APIは、今日(米国時間11/15)、ベータを終えた。このサービスは、構文分析機能が改良され、数値、性、人称、時制なども見分けられる。Googleによると、Natural Language APIは前よりも多くのエンティティを高い精度で認識でき、また感情分析も改善されている。

消費者向けのGoogle翻訳サービスは、今ではカスタムチップを使っている。またデベロッパー向けにはCloud Translation APIのプレミアム版が提供され、8つの言語の16のペアがサポートされる(英語から中国語、フランス語、ドイツ語、日本語、韓国語、スペイン語、トルコ語、など)。サポート言語は、今後さらに増える。プレミアム版では、これらの言語に関しエラーが55から85%減少した。

この新しいAPIは主に長文の翻訳用で、100言語をサポートする“標準版”は、短い、リアルタイムな会話テキスト用だ。

さらに、まったく新しいプラットホームとしてCloud Jobs APIがある。この、あまりにも専門的で奇異とすら思えるAPIは、求職者と仕事の最良のマッチを見つける。つまり、仕事のタイトル、スキル、などのシグナルを求職者とマッチングして、正しいポジションに当てはめる。Dice やCareerBuilderなどのサイトはすでにこのAPIを実験的に使って、従来の、ほとんど検索だけに頼っていたサービスを改良している。このAPIは、現在、特定ユーザーを対象とするアルファだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

機械学習の応用例デモ8種をサイト訪問者がいじって遊べるGoogleのAI Experiments、コードのダウンロードもできる

ai_experiments

Googleの機械学習や人工知能の仕事はおもしろいものが多いが、商業的というより、ややアカデミックだ。でも人間は、そんな、手で触れないものでも、なんとか触(さわ)って理解したいと思う。そこでGoogleは、この新しい技術の小さなデモを集めて、AI Experimentsという展示サイトを作った。

目的は、人びとが機械学習の応用例をいじって遊んだり、コードをダウンロードして原理を理解することだ。今展示されているのは8つだが、そのうちの4つは今すぐにでもWeb上で対話的に体験できる。

giorgio

Giorgio Cam(モバイルがおすすめ)は、ユーザーのカメラが捉えた物を識別し、その言葉で韻を踏み、汽笛で警告を鳴らす。

Quick, Draw!はユーザーのスケッチを認識する絵辞書。ユーザーがいろんな物の絵を描いて、この辞書を教育できる。

drummachine-google

Infinite Drum Machineは、ユーザーが指定した音列に似た音を集める。それらをシャッフルして鳴らすと、MatmosやMira Calixのようなビートにもなるだろう。わざと、そうしてるのだ、と思うけどね。やり過ぎるとひどい騒音になるので、ご注意を。

Bird Soundsは、その名のとおり。鳥の鳴き声をAIがそのリズムや音調で分類している。あなたの家の窓の外でいつも鳴いてる鳥は、そこに見つからないかもしれないけど、鳴き声をpoo-tee-weetなんて書いてある図鑑よりは、ましだな。

そのほかのデモも、ダウンロードしたり、例を見たりできる。たとえばAI duetは、あなたのキーボードの演奏を真似て、それをより高度にしようとする。そしてThing Translatoは、物を見せるとその物の名前を翻訳する。実用性ありそう。

そのほかの実験展示物はここにある。訪問者が自由に出展できるから、今後はもっと増えるだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Microsoft、AI開発でイーロン・マスク、ピーター・ティールらが後援するOpenAIと提携

3D render of a robot trying to solve a wooden cube puzzle

OpenAIは 人工知能研究のための非営利会社で、Teslaのイーロン・マスク、Y Combinator のサム・アルトマン、ドナルド・トランプのファンとしても知られるピーター・ティールを始めとしてテクノロジー界の大企業、著名人がスポンサーとして加わっている。今日(米国時間11/15)、この急成長中のテクノロジーに力を入れ始めたMicrosoftがOpenAIに加わったことが発表された

OpenAIはまたMicrosoft Azureを推薦するクラウド・プラットフォームと決定した。その理由の一部は Open AIの既存の人口知能システムがAzure BatchとAzure Machine Learningを利用していることが挙げられる。また人工知能に関してCognitive Toolkitという新しい機械学習のブランドを立ち上げたMicrosoftの動きも一因だ。

Microsoftは強力なGPUベースのバーチャル・マシンに対してデベロッパーにアクセスを提供するとしている。膨大な計算処理の実行が必要な機械学習学習のデベロッパーには朗報だ。MicrosoftのNシリーズのマシンはまだベータ版だが、OpenAIは最初期からのベータ・テスターだった。MicrosoftによればNシリーズの一般公開は12月になるという。

Amazonはすでにこの種のGPUベースのバーチャル・マシンを提供している。奇妙なことに、Googleはこの動きに取り残されている。すくなくとも現在はそのようなサービスを公開していない。

「この提携により、MicrosoftとOpenAIはAIの民主化という共通の目標に向かって力を合わせていく。誰もが利益を受けることになるだろう」とMicrosoftの広報担当者は私に語った。また提携の内容に関して、「「Microsoft Researchの研究者はOpenAIの研究者と共同でAIを前進させる努力をする。OpenAIはMicrosoft AzureとMicrosoftの Nシリーズ・マシンを研究、開発に利用していく。またMicrosoftのCognitive Toolkitのようなツール類も利用するはずだ」と述べた。Microsoftはこの提携に財政面があるのかどうかについてはコメントを避けた。

OpenAIとの提携の他にMicrosoftは今日、Azure Bot Serviceのスタートも発表した。このサービスを利用するとデベロッパーは非常に容易、かつ低価格でボットをAzure上で稼働させることができる。新サービスはいわゆる「サーバーレス・アーキテクチャー」のAzure FunctionsとMicrosoft とBot Frameworkの上で作動する。Azure Functionsは従量制で、ホストされたボットが実際に稼働した分の料金だけを支払えばよい。

画像: mennovandijk/Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

私たちとまだ若いAIとの関係を考える

robot-friend

【編集部注】著者のAndrew Heikkilaはアイダホ州ボイジーに住むハイテクを愛好するライターである。この投稿者による他の投稿:ロボットが私たちの仕事を奪うという事態を楽しもう【英語】人工知能と人種差別【英語】

「お前たち人間が、信じられないようなものを俺は見てきた。オリオン座の肩の近くで炎を上げる攻撃船。タンホイザーゲートの近くの暗闇で煌めくC-ビーム。それらは全て時とともに失われてしまう、の…中の…のように。死ぬときが来たようだ」— Roy Batty, ブレードランナー。

人工知能は半世紀以上もの間人類を魅了してきた、最初に公の場でコンピューター知能に関しての言及がなされた記録は、1947年にアラン・チューリングによってなされたロンドンでの講義中のものである。最近では、大衆は成長を続けるAIの力を伝える多くのニュースを目にするようになってきている、伝説の囲碁プレーヤーイ・セドルを打ち負かしたAlphaGoMicrosoftの人種差別主義AIボットのTay、あるいはその他沢山の機械学習分野での新しい開発など。かつてはサイエンスフィクションのためのプロットの道具だったAIが現実のものになりつつある — そして人類はそれとの関係を、意外に早く決めなければならなくなるだろう。

Human Longevityの共同創業者で副議長のPeter Diamandisは、LinkedInに投稿した「 次の性的革命はデジタル化される 」というタイトルの記事の中で、この関係に触れている。Diamandisは、日本人はセックスと関係性を放棄しつつあるという最近のレポートを示し、一部の男性は現実よりも仮想のガールフレンドを好むという傾向が強まっているという報告を引用している。

「これは始まりに過ぎません」と彼は言った。「バーチャルリアリティ(VR)が普及するに従って、主要なアプリケーションの1つは必然的にVRポルノになります。それははるかに強烈で、鮮やかで、中毒的なものになるでしょう — そしてAIがオンラインに登場すれば、AIを利用したアバターとロボットの関係がもっと増えて来ると思いますよ、映画『Her』や『Ex Machina』で描かれているキャラクターたちのように」。

私たちとAIの間に芽生え始めた関係

少し話を戻そう。Diamandisは本当に、人々はAIロボットとの関係を形作り始めるだろうと考えている、と言うのだろうか?実際の女性よりも仮想ガールフレンドを好む実例を見せられては、それを信じることはそれほど難しくはないが — 私たち「を」愛してくれるアバターの実現に、私たちはどれほど近付いているのだろうか?

これに答えるためには、まず私たちはAIとは実際何なのか、そしてAIがこの世界で表現するようになったものは何かを理解しなければならない。AIには2つの基本タイプが存在する:強いAIと、応用あるいは「弱い」 AIである(技術的には認知シミュレーション(CS)も別タイプのAIだが、ここでは最初の2つのものに焦点を当てることにする)。

強いAIは発展途上であるが、最終的な目標は普通の人間と区別できない知的能力を持つマシンを構築することだ。MITのAI研究所のJoseph Weizenbaumは、強いAIの究極の目的を以下のように説明した 「それは人間のモデルに沿ったマシンを構築することに他なりません、幼年期を過ごし、子供がするように言葉を学び、自分自身の感覚器を通して世界に触れて知識を蓄え、そして究極的には人間の思考領域をじっくりと考え抜くようなロボットです」。

人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない

強いAIはまた、映画の中に登場するタイプのAIでもある — ターミネーターの中で創造者である人間に反乱を起こすスカイネットプログラムや、2001年宇宙の旅に出てくるHAL9000など。もし、このようなタイプの超人的知性が可能になり、オンラインに登場してきたときには、私たちはシンギュラリティを迎えることになると予測されている。このタイプのAIの完成には — もし可能だとしても — 何年もかかるし、たとえそこに辿り着くとしても数多くの争いを乗り越えてのことになるだろう。

一方、弱い/応用AIとは、あなたがニュース記事で読んでいるタイプのものだ。その上に「スマート」という形容詞を貼り付けたものは何でも、一般的にある種の弱いAIに依存している — それが「学習」したり自分自身のコードを書く方法を発見したりする人工的な知能の形式ならば。しかし、それは極めて少ないタスクに対する機能に限られている。

スマートカーを運転するプログラム、カスタマーサービスを通して私たちをガイドするチャットボット、さらには前述のAlphaGo、全てが弱いあるいは応用AIの例である。これらのシステムは、AIが認識した「マイクロワールド」の境界の中に棲んでいて、エキスパートシステム と考えることができるほど進化したものである。これらのシステムは、自身の提言を、より大きな文脈またはマイクロワールドの外へ、どのように当てはめればよいかの「常識」や理解を有してはいない。それらは本質的に、1つの分野に特化した非常に複雑な入力/出力システムなのである、この欠陥によって、人間知性からは容易に区別することが可能なのだ。

対話インターフェイスへの注力

人間のような入力/出力システムへと焦点を当てたことで、AIという意味での社会の注目が集まっているように見える。人間の知能の幻影を測るのには、人間が行うような会話を人間とさせること以上に、優れた尺度はない。これは私たち何かが知的であるか否かを判断する際に、チューリングテストにとても重点を置いているという事実から明らかだ。もしプログラムがひとりの人間と対話して、人間としてみなされたならば、やった:平均的なユーザーはそれを「AI」と呼ぶだろう。

もしそれがチューリングテストに合格しない場合、たとえ惜しかった場合でも、私たちはスクリーンの向こう側にいるものが偽物だと気付いてしまう。そして会話の真の性質が失われるのだ。しかしそれでも、たとえ私たちがAIに向かって話していることや、AIが会話を巧みにナビゲートすることができることに気付いていたとしても、私たちはしばしばその対話の人間らしさに驚き、疑いを棚上げにして、機械と話していることも忘れることができる。

残念ながら、それが機能するように設計されているマイクロワールドの中でさえ、AIは多く場合会話の検閲に合格できることはない。私たちがこれをほぼ毎日目にしているのがチャットボットの現れる場面だ。MicrosoftとFacebookが今年の初めにチャットボットの提供をアナウンスしたので、多くの企業が、そのテクノロジーは顧客エンゲージメントの向上に役立つと言い始めた — しかし昨年のTA CRM Market Indexでカスタマーサービスとサポートの上位にランキングされたSalesforceでさえ、チャットボットは必要である水準に達していないと指摘している。この非効率的なチャットボットの問題を解決する唯一の方法は、これらのシステムがより…そう、人間のように振る舞うようにすることだ。

私たちは、弱いAIをどれ位人間のようにするべきなのか?

さあ、ここがクライマックスだ。チャットボットとAIのインターフェイスの側面はどこにも向かっていない。例えばSiriやCortanaを見てみればよい。これらは技術的には仮想アシスタントを兼ねるものだ、そしてそれらは時間が経つにつれ高度なものになっていくだけなのだ。このままで、これらのそして他のチャットボットがチューリングテストをパスすることはない。仮になんとかパスできたとしても、それらの機械はまだ「インテリジェント」ではないとか、「知覚があるとは言えない」と言われてしまう可能性は高い。なぜなら彼らは、現在行われている会話についての真の理解は行っていないからだ。彼らは、「Eliza」とか「Parry」と名付けられた、初期のころのスタンフォード大によるコミュニケーションプログラムのように、会話をシミュレートするために事前にプログラムされ、パッケージ化された応答に依存している。哲学者のNed Blockに言わせれば、これらのシステムは「ジュークボックスよりも、インテリジェントになることはない」ということになる。

それにもかかわらず、ある時点で私たちは、弱いAIをどの程度人間らしくするつもりなのかと、自らに問いかけなければならない。弱いAIと強いAIの違いを理解することなく、どんなタイプの心理的効果を、人間と区別のつかないチャットボットの存在から得ることができるだろうか?

人間の感情の微妙なニュアンスを理解するAIには良い側面がある

オンラインメッセージングセラピーを提供する、TalkSpaceのライターであるJoseph Rauchが、彼の仕事における人間らしさの検証の必要性について語った。

「私たちはしばしば、見込み客の方々から、チャットしている相手がチャットボットではなく、人間のセラピストである保証が欲しいという声をいただきます」と彼は書いている 。「私たちの全てのセラピストは、肉と血とライセンスを所有する人間たちです。しかし私たちはお客さまの懸念も理解します。それがオンラインセラピーだろうが、ソーシャルメディアだろうが、そしてオンラインデートであろうが、誰もが接続されていて、信じている人間とのチャットに値するのです」。

彼はオンラインデートについても言及した、そこではすでに人々をだまして提携サイトに送り込んだり、男性:女性比率であたかも男性比率は少ないように見せかけるチャットボットがいることが知られている。しかし、これらのチャットボットがビジネスで使用されているとしたらどうだろうか?CRMの例題に戻ると、Legion AnalyticsというグループがKylieという名前のリード創出マーケティングボットを売り込んでいる。このボットはちょっとした会話を理解して、話題をそれ以前に出たもの(例えば子供向けサッカーゲーム)へ引き戻そうとする、そして見込みのある相手には気を引く素振りをしたりさえするのだ。

このようなボットが十分に高度になったとき、人びとは自分たちのことを自分たち以上に良く知っているように見える機械から、操られたり侵害されたりしているように感じるのだろうか?特にこれらのボットが、平均的な人間が可能なものよりも、高い製品売り上げを本当に達成できる場合は?それは明らかに長い道のりだが、会話に精通し、あなた(顧客)の完全な心理学的プロファイルを持つデータウェアハウスに接続されたチャットボットは、普通の人間にはまず活用が不可能な、説得力のある基準で合成された情報を使ったセールスを行うことができるだろう。

ボットに感情を教える

もちろん、弱いAIを真に擬人化するための方法は、それに感情を教えることだろう — あるいは少なくともエミュレートした感情を — それが、Fraser Keltonを共同創業者とするKokoが実現を主張していることだ。Fast Companyの記事では、Keltonはチャットボットに、より多くの人間の感覚を提供する必要があると語る:「私たちは、音声やメッセージングプラットフォームにサービスとしての共感を提供することを試みています」と彼は語る。「私たちは、それこそが、あなたがコンピュータと会話する世界における、重要なユーザー体験だと思っています」。この記事では、実質上どんなチャットボットにも接続できる、Kokoの提供する共感APIをライセンスすることを、ロボットへ心を挿入することになぞらえている。

人間の感情の微妙なニュアンスを理解するAIには良い側面がある。JAMAによる最近の研究によって明らかになったことは、Siriのようなスマートフォンアシスタントは、感情的な問題を訴えるユーザーに反応するときに特に貧弱な回答を返してしまうということだ。それどころかレイプ、性的暴行、性的虐待で助けを求めてもユーザーを嘲笑さえしたのだ。あるウェビナーでは、ノースイースタン大学 D’Amore-McKimビジネススクールの准教授Carl W. Nelsonはこの先20年のヘルスケアについて述べる中で、「ビッグデータは、あなたが気になる機密性や、事柄の面で問題を抱えていますが、それでも意思決定をガイドし、判断を下すために有効に利用することができます…」とも指摘している。そしてガイドする相手の人間の感情についての正しい知識なしに、自動医療診断システムはどれほど完全なものとなり得るのだろうか?

弱いAIでさえも感情の理解とエミュレートをする必要性がある一方で、私たちは人間の状態を認識しているふりをする、そしてユーザーに感情的な反応さえ(たとえそれが「パッケージ化」された反応だとしても)返すようなホムンクルス(小人)を作り出すリスクを冒しているのだろうか?こうしたボットに関する知識をほとんど持たないかあるいは全く持たない人たちは、それらを単なるボット以上のものとして扱い始めるのだろうか?

社会への影響

時間が経つにつれて、私たちの技術が私たちを仰天させ続けることは明らかだ。私たちがAIロボットの出る多くの映画やテレビをみるほど、私たちは疑いなく、これらをサイエンスフィクションの要素とは見なくなり、いつごろこれらが現実のものになるのだろうと考えるようになる。ブレードランナーのような映画は遥か昔にこの問題を扱っている一方で、Android Dickプロジェクトのような最近の進歩は、Westworldのような新しい番組と考え合わせると、私たちがおそらく、ほどなくAIの倫理を扱うことになることを認識させる。

倫理的な問題の中心は、これらのAIが実際そのような感情や権利や、何かを持っているかどうかという点にあるのではない — そうではなく、それを所有する私たち人間に対する影響が問題なのである。例えば、この実際の人間とは区別がつかない執事は、今もこれまでも人間であったことはなく、それ故に彼をゴミ箱に投げ捨てても良いのだということを、どうやって子供に説明するのだろうか?または、Westworldのように、彼らは実際には生きていないし、契約に同意することができるのだから、「殺し」たり「強姦」したりすることは許されるのだろうか?いつ生命のエミュレーションは、人間の生命のように重要になるのだろうか?

これらはすべて、私たちが時間をかけて扱う必要のある質問であり、それらには簡単な答は存在しない。最終的には私たちとAI関係を定義する必要があり、そして強いAIから弱いAIを分離する細い曖昧な線を見付けなければならない(もし強いAIが可能ならという話だが)。望むらくは、私たちが構築するこうしたヒューマノイドの作成の過程で、鏡を覗き込むように、私たち自身の人間性の感覚をより学び強化していきたい。乱暴にそれを捨て去ったり、の中のの様に洗い流してしまう代わりに。

[ 原文へ ]
(翻訳:Sako)

AIによる全自動衣類折りたたみ機を開発する日本のセブンドリーマーズが60億円の大型資金調達を発表

tdq7ueh5uax0hv91478918018_1478918045

AIによる全自動の衣類折りたたみ機を開発する日本のセブンドリーマーズは11月14日、パナソニック株式会社、大和ハウス工業株式会社、SBIインベストメントを引受先とした第三者割当増資、技術開発提携および販売提携により、60億円の大型資金調達を実施したことを発表した。2015年6月のシリーズAで調達した約15億円を含め、同社のこれまでの資金調達額の合計は約75億円となる。

日本のスタートアップとしては、今年3月に約84億円を調達したメルカリなどに次ぐ大型の資金調達だ。

放り込むだけでAIがベストな折りたたみ方を判断

セブンドリーマーズが開発するのは、構想に10年を費やした全自動の衣類折りたたみ機「ランドロイド」だ。同社によれば、人間が一生のうちに洗濯物の折りたたみに費やす時間は9000時間で、日に換算すると375日にもなるという。ランドロイドを活用することで、この時間を他のことに費やすことができるというのがコンセプトだ。

洗濯乾燥が済んだ衣服をランドロイドに放り込むと、画像解析によって衣類の種類ごとにベストなたたみ方をランドロイドが判断する。このテクノロジーの背後には機械学習が応用されているため、長く使えば使うほど賢くなっていく仕組みだ。また、設定により家族のメンバー別やアイテム別に仕分けることもできる。一度に約30枚の衣服が投入可能だ。

laundroid_carbon_2

ランドロイドの価格、サイズについては「来年3月の記者会見まで非公開」ということだが、サイズは大型の冷蔵庫のイメージが近いとのこと。衣類の折りたたみにかかる時間については、「出勤前にランドロイドを利用すると、帰宅前には折りたたまれた状態になっている」。ディープラーニングの度合いによっても折りたたみにかかる時間は変動するため、長く使えばそれだけ折りたたみにかかる時間が短縮する可能性もある。

長く培った技術力が強み

形の整ったモノを扱うのではなく、衣類という柔軟物を扱うには高度なロボティクス技術が必要になる。セブンドリーマーズ代表取締役社長の坂根信一氏によれば、ランドロイドに使われている技術は「セブンドリーマーズ独自のアルゴリズムを構築し、独自設計のロボットアームおよび制御技術との融合に実現した唯一無二の人工知能」だと語る。また、ランドロイドの開発の過程で生まれたあらゆる技術は、国内外で特許を取得済み、または申請中だという。

history1

スーパーレジン工業の創業者である渡邊源雄氏。1957年、彼が東京に設立したコンポジット成形工場がスーパーレジン工業のはじまり。

このように、みずからを「世の中にないモノを創り出す技術集団」と呼ぶセブンドリーマーズの強みは、同社の卓越した技術だ。同社の創業は2011年だが、そのルーツは1957年に創業のスーパーレジン工業株式会社までさかのぼる。同社は独立系専業FRP(繊維強化プラスチック)成形メーカーとしては国内最古参の企業だ。現在は航空宇宙分野などにおいてその技術力が広く認められており、2010年に話題となった小惑星探査機の「はやぶさ」にも部品供給をしている。テクノロジーの分野こそ違えど、ランドロイドは同社が長く培った技術力の結晶だと言えるだろう。

 

セブンドリーマーズは現在、サンフランシスコとパリにそれぞれ営業所と支店を構えており、ランドロイドについても国内外同時発売を計画している。ただし、出荷は国内優先になるとのこと。

2019年には洗濯乾燥機能も付いたオールインワンタイプも

OLYMPUS DIGITAL CAMERA

セブンドリーマーズ代表取締役社長 坂根 信一氏(理学博士)

家電分野への参入というところで気になるのが販売チャネルだ。特に日本国内では家電メーカーと販売チャネルの結びつきが強い。ランドロイドの販売チャネルについて坂根氏は、「自社での独自販売を軸に計画を立てています。具体的には、Webやショールームなどを通して、お客様に直接お届けできるチャネルを構築していきます。家電メーカーの販売チャネルについては、活用はするが戦略の中心ではありません」と話している。

セブンドリーマーズは今年10月、今回のラウンドに参加したパナソニック、そして大和ハウス工業と業務提携を結んでいる。同社によれば、折りたたみ技術の開発はこれまで通り独自で進めていくものの、ランドロイドの量産に関してはパナソニックのアドバイスを受けながら進めていくという。また、同社は2019年に全自動洗濯乾燥機と折りたたみ機能を合わせたオールインワンタイプのランドロイドを発売予定であり、その開発には「パナソニック社の先進的な洗濯乾燥機の技術が必要不可欠」となる(坂根氏)。同じく、2020年には大和ハウス工業と共同してスマートハウス向けのビルトインタイプを販売予定だという。

ランドロイドの予約販売開始は2017年3月16日、現在はプロジェクトの参加メンバーを募集している。

ジュゴンの生息個体数を数える困難な仕事をAIが助ける

dugon

上の画像に、群れからはぐれた一頭のジュゴンがいるのが分かるかな? もっとよく見て…見えない? この大きな画像はどうかな? だめかな? ほら、これだよ。こんなたいへんな発見作業を45000回やれば、それが、この絶滅危惧生物のほぼ全人口なんだ。人間が数えるのはたいへんなら、オーストラリアのマードック大学の研究者たちのように、そのために訓練されたコンピューターにやらせるとよいだろう。

同大クジラ目(もく)研究グループ(Cetacean Research Unit)のAmanda Hodgsonは、長年、無人機を使って海洋動物の画像を撮っているが、そのデータは急速かつ大量にたまりすぎるし、手伝ってくれる学生の数には限りがある。

gettyimages-126924627

これはわりと簡単に見つかった。

Hodgsonはクイーンズランド工科大学大学のコンピューター科学者Frederic Maireの協力を求めて、作業を自動化することにした。

彼らは機械学習のシステムを、タグにジュゴンのある画像で教育訓練し、新しい写真でも約80%の精度でジュゴンを見つけられるようにした。精度はもっと高める必要があるが、とりあえず目安としては十分であり、精査すべき画像を選り分けることはできる。

たとえば、下の画像は精査が必要かもしれない。多くの生き物がいるようだし、またシステムは、影も数えてしまうかもしれない。

dugong-30aftf2f2_dsc1360

すこし改良したそのシステムは、クジラやイルカ、ボート、そのほかの、沿岸によくいる生物なども見分けるようになり、個体数の計算に寄与できるようになった。

機械学習とコンピュータービジョンは、こうやって、科学者や、そのほかの人たちも、助けることができるのだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

バイアスなきAIを創るのは、なぜ難しいのか

wtf-machine-learning

編集部注:本稿を執筆したのは、TechTalksの創業者であり、自身もソフトウェアエンジニアであるBen Dicksonだ。

 

人工知能と機械学習のテクノロジーが成熟し、それを利用すれば複雑な問題をも解決できることが実証されつつある。それにつれて、私たちはこれまで人間には不可能だったことも、ロボットなら成し遂げることが可能なのではないかと考えるようになった。それはすなわち、個人的なバイアスを排除して物事を判断するということだ。だが、最近の事例によって機械学習が抱える予想外の問題が浮き彫りになっている。その他の革新的な技術と同じように、機械学習でさえも時には人間界のモラルや道徳的な基準からかけ離れた結果を生むことが分かったのだ。

これからお話するストーリーの中には面白おかしいものもあるが、それは同時に、私たちに未来についてよく考えるためのきっかけを与えてくれる。その未来とは、ロボットや人工知能が今よりももっと重要な責任をもち、もしそれらが間違った判断を下したとすれば、ロボット自身がその責任を取るという未来だ。

機械学習特有の問題点

機械学習とは、アルゴリズムを使ってデータを解析し、そこからパターンを抽出することで得た洞察をもとに、未来を予測したり、物事を判断することを指す。私たちが毎日のように使うサービスにもこの機械学習が利用されている。サーチエンジン、顔認識アプリ、デジタルなパーソナルアシスタントなどがその例だ。機械に投入するデータの量が多ければ多いほど、機械はより賢くなっていく。だからこそ、企業はより多くの顧客データやユーザーデータを集める方法を探し求めているのだ。

だが結局、機械は投入されたデータ以上に賢くなることはできない。そして、それこそが機械学習に特有の問題を生んでいる。アルゴリズムをトレーニングするために使用したデータによっては、機械が悪の心を持つことも、バイアスを持つこともあり得るからだ。

人間の子どもと同じように、機械もその育て親が持つ趣味嗜好やバイアスを受け継ぐ傾向がある。機械学習という分野において、この問題はより複雑だ。企業は自分たちのサービスの背後にあるアルゴリズムの内部を明かそうとせず、それを企業秘密として扱うからだ。

機械学習はどのように間違った結論を生むのか

機械学習のスタートアップであるBeauty.aiは今年、史上初のAIによる美人コンテストを開催した。このコンテストには6000人以上の人々が参加し、AIは提出された顔写真を解析して、顔の対称性やしわなどを元にその人がもつ「魅力度」を算出した。

このコンテストでは人間の審査員がもつバイアスを排除できるはずだった。しかし、結果はいくらか期待外れのものだった:44人の受賞者のうち、白人がその大半を占め、アジア人の受賞者は数えるほどしかいなかったのだ。褐色の肌を持つ受賞者にいたっては、そのうち1人しかいなかった。この結果について、Motherboardが掲載した記事では、アルゴリズムをトレーニングする際に使われた画像サンプル自体がもつ、人種や民族に対するバイアスがこの結果を生む原因となったのだと結論づけている。

機械学習の「白人びいき問題」が表沙汰になったのはこれが初めてではない。今年初めには、ある言語処理アルゴリズムが、JamalやEbonyといった黒人に多い名前よりも、EmilyやMattなどの白人に多い名前の方が心地の良い響きを持つと結論付けるという事件があった。

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。

この他にも、Microsoftが開発したチャットボットの「Tay」がサービス停止に追い込まれるという事もあった。10代の女の子の言動を真似るように開発されたTayが、暴力的な内容のツイートをしたことが問題視されたからだ。Tayはもともと、ユーザーから受け取ったコメントを吸収し、そのデータを元に学習することで、より人間に近い会話をするという目的をもって開発されたチャットボットだった。しかし、ユーザーはTayに人間味を持たせることよりも、彼女に人種差別やナチズムの概念を教えることの方に興味があったようだ。

だが、もしこれが人間の命や自由に関わるような状況だったとしたらどうだろうか?ProPublicaが5月に発表したレポートによれば、当時フロリダ州が導入していた囚人の再犯率を計算するアルゴリズムは、黒人に対して特に高い再犯率を算出するような設計だったという。

黒人をゴリラとして認識するGoogleのアルゴリズム高給の求人広告を女性には表示しない広告エンジン下品なトピックや嘘の出来事を表示するニュース・アルゴリズムなど、機械学習の失敗例は他にも数えきれないほどある。

機械学習が犯した過ちの責任を取るのは誰か?

従来のソフトウェアでは、エラーの原因がユーザーにあるのか、それともソフトウェアの設計自体にあるのかということを判断するのは簡単だった。

しかし機械学習ではそうはいかない。機械学習において一番の難問となるのは、過ちが起きたときの責任の所在を明らかにすることなのだ。機械学習の開発は従来のソフトウェア開発とは全く異なり、プログラムのコードと同じくらい重要なのが、アルゴリズムのトレーニングだ。アルゴリズムの生みの親でさえも、それがもつ正確性を厳密に予測することは出来ない。時には、自分がつくったアルゴリズムの正確さに驚かされることもある。

そのため、Facebookの「Trending Topics」がもつ政治的バイアスの責任の所在を明らかにするのは難しい。そのサービスの少なくとも一部には機械学習が利用されているからだ。共和党の大統領候補であるDonald Trumpは、Googleが同社の検索エンジンを操作してHillary Clintonに不利なニュースを表示しないようにしていると批判しているが、これに関しても、Googleが検索エンジンの仕組みを明確に説明して、その主張を跳ね返すのは難しいだろう。

人工知能がより重要な判断をするような状況では、この問題はもっと深刻なものになる。例えば、自動運転車が歩行者をひいてしまったとしたら、その事故の責任は誰にあるのだろうか?運転手、より正確に言えばそのクルマの所有者の責任になるのだろうか、それとも、そのアルゴリズムを開発した者の責任なのだろうか?

機械学習のアルゴリズムからバイアスを取り除く方法とは?

データベースからバイアスを取り除くことこそ、公正な機械学習アルゴリズムを設計するための鍵となる。だが、バイアスのないデータベースをつくること自体が難問だ。現状、アルゴリズムのトレーニングに使われるデータの管理に関する規制や基準などは存在しておらず、時には、すでにバイアスを含んだフレームワークやデータベースが開発者のあいだで使い回されることもある。

この問題に対する解決策の1つとして、厳密に管理されたデータベースを共有し、その所有権を複数の組織に与えることで、ある1つの組織が自分たちに有利になるようにデータを操作することを防ぐという方法が考えられる。

これを可能にするのが、Facebook、Amazon、Google、IBM、Microsoftなど、機械学習界のイノベーターたちが結んだ歴史的なパートナーシップである「Partnership on Artificial Intelligence」だ。機械学習と人工知能が発展するにつれて様々な問題が浮き彫りとなった今、そのような問題を解決することがこのパートナーシップの目的である。人工知能がもつ道徳性の問題を解決すること、そして、複数の組織による人工知能のチェック機能をつくることなどがその例だ。

Elon MuskのOpenAIも面白い取り組みの1つである。OpenAIでは、AIの開発にさまざまな人々を参加させることで、その透明性を高め、AIが犯す過ちを未然に防ぐことを目指している。

ロボットが自分の言動の理由を説明し、みずから間違いを正すという未来もいつか来るだろう。しかし、それはまだまだ遠い未来だ。それまでのあいだ、人間がもつバイアスをAIが受け継ぐことを防げるのは人間しかいない。そして、それは1つの組織や個人によって成し遂げられるものではない。

人間の知恵を結集してこそ達成可能な目標なのだ。

[原文]

(翻訳:木村 拓哉 /Website /Facebook /Twitter

いまさら聞けない機械学習入門

wtf-machine-learning

機械学習についての沢山の記事を目にして、何やら深遠なものが発見されつつあると思う人もいるかもしれないが、実際はその技術はコンピューティングと同じくらい古いものだ。

歴史上最も影響力のある計算機科学者のひとりであるアラン・チューリングが1950年に、コンピューティングに関する彼の論文の中で「機械は考えることはできるか?」という問いかけを始めたことは偶然ではない。空想科学小説から研究室に至るまで、私たちは長い間、自分自身を人工的な複製が、私たちに自分自身の意識の原点、より広義には、私たちの地上での役割、を見出すことの役にたつのだろうかと問いかけてきた。残念ながら、AIの学習曲線は本当に急峻だ。歴史を少しばかり辿ってみることによって、機械学習が一体全体何物であるのかに関しての、基本概念位は見出してみたい。

もし「十分に大きな」ビッグデータを持っていれば、知性を生み出すことができるのか?

自分自身を複製しようとする最初の試みには、機械に情報をギチギチに詰め込んで、上手くいくことを期待するようなやり方もあった。真面目な話、ただ膨大な情報を繋ぎ合わせすれば意識が発生するといった、意識の理論が優勢を占めていた時もあった。Googleはある意味このビジョンの集大成のように見做すこともできるが、同社がすでに30兆ページのウェブを収集したにも関わらず、この検索エンジンが私たちに神の実在について問いかけ始めることを期待するものはいない。

むしろ、機械学習の美しさは、コンピューターに人間のふりをさせて、単に知識を流し込むことではなく、コンピューターに推論させ、学んだことを一般化させて、新しい情報へ対応させるところにある。

世の中ではよく理解されていないが、ニューラルネットワーク、ディープラーニング、そして強化学習は、すべて機械学習である。それらはいずれも、新しいデータに対する分析を行うことのできる一般化されたシステムを作り出す方法である。別の言い方をすれば、機械学習は多くの人工知能技術の1つであり、ニューラルネットワークとディープラーニングといったものは、より広範なアプリケーションのための優れたフレームワークを構築するために使用できるツールだというだけのことだ。

1950年代のコンピューティングパワーは限られていて、ビッグデータへのアクセスもなく、アルゴリズムは初歩的だった。これが意味することは、機械学習の研究を進めるための私たちの能力は、極めて限られていたということだ。しかし、それは人びとの研究の意欲を削いだりはしなかった。

1952年のこと、Arthur Samuelはアルファ・ベータ法と呼ばれるAIの非常に基本的な形式を利用して、チェッカープログラムを作った。これは、データを表す探索木上で作業する場合に、計算負荷を減らす方法の1つであるが、全ての問題に対する最善の戦略を常に与えてくれるわけではない。ニューラルネットワークでさえ、Frank Rosenblattの懐かしのパーセプトロンが現れたものである。

いずれにせよ読む必要のある、複雑で大げさなモデルScreen Shot 2016-08-25 at 1.53.58 PM

パーセプトロンは随分と時代に先行したものだった、機械学習を進めるために神経科学を利用したのだ。紙の上で、そのアイデアは右に示したスケッチのようなものだった。

それがやっていることを理解するために、まず大部分の機械学習問題は、分類(classification)もしくは回帰(regression)の問題に分解できることを理解しなければならない。分類はデータをカテゴリ分けするために用いられ、一方回帰モデルは傾向からの外挿を行い、予測を行う。

パーセプトロンは、分類装置の1例である – それはデータの集合を受け取り、複数の集合に分割する。この図の例では、それぞれの重みの付いた2つの特徴量の存在が、このオブジェクトを「緑」カテゴリーだと分類するために十分であることが示されている。こうした分類装置は、現在は受信ボックスからスパムを分離したり、銀行における不正を探知するために使われている。

Rosenblattのモデルは一連の入力を使うものだ。長さ、重さ、色といった特徴にそれぞれ重みのついたものを考えてみるとよい。モデルは、許容誤差以内に出力が収まるまで、連続的に重みを調整していく。

例えば、ある物体(それはたまたまリンゴであるとする)の重量が100グラムであると入力することができる。コンピュータは、それがリンゴであることを知らないが、パーセプトロンはその物体を、既知のトレーニングデータに関する分類装置の重みを調整することによって、「リンゴのような物体」あるいは「リンゴではないような物体」に分類することができる。そして分類装置が調整されると、それは理想的には、これまで分類されたことのない未知のデータセットに対して再利用することができる。

まあ仕方がない、AI研究者たちでさえ、こうしたことには混乱しているのだ

コンピュータと少年パーセプトロンは、機械学習の分野で行われた多くの初期の進歩の、ほんの1例に過ぎない。ニューラルネットワークは、協力して働くパーセプトロンの大きな集まりのようなものである。私たちの脳や神経の働き方により似通っていて、それが名前の由来にもなっている。

数十年が過ぎて、AIの最先端では、単に私たちが理解した内容を複製しようとするのではなく、心の仕組みを複製する努力を続けている。基本的な(または「浅い」)ニューラルネットワークは、今日まだ利用されているものの、ディープラーニングが次の重要事項として人気を博している。ディープラーニングモデルとは、より多くの層を持つニューラルネットワークである。この信じられないほど満足感の得られない説明に対する、完全に合理的な反応は、その層とは何を意味するのかと問うことだ。

これを理解するためには、コンピューターが猫と人間を2つのグループに分類できるからといって、コンピューター自身はその仕事を人間と同じようには行っていないことを認識しておかなければならない。機械学習フレームワークは、タスクを達成するために抽象化のアイデアを活用する。

人間にとっては、顔には目があるものである。コンピュータにとっては、顔には線の抽象を構成する明暗のピクセルがあるものだ。ディープラーニングの各層は、コンピュータに同じオブジェクトに対して、違うレベルの抽象を行わせるものである。ピクセルから線、それから2Dそして3Dへ。

圧倒的な愚かさにもかかわらず、コンピューターは既にチューリングテストに合格した

人間とコンピュータが世界を評価する方法の根本的な違いは、真の人工知能を作成するための重大な挑戦を表している。チューリングテストは、AIの進捗状況を評価するために概念化されたものだが、この事実は無視してきた。チューリングテストは、人間の反応をエミュレートするコンピュータの能力を評価することに焦点を当てた、行動主義のテストである。

しかし模倣と確率的推論は、せいぜい知性と意識の謎の一部でしかない。2014年の時点で私たちはチューリングテストに合格したと考える者もいる、5分間のキーボードによる対話の間、30人の科学者のうち10人を、人間を相手にしているものだと信じさせることができたからだ(にもかかわらずSiriは質問の3件に1つはGoogleを検索しようとする)。

それで、「AIの冬」のためにジャケットを用意する必要はあるのか?

こうした進歩状況にもかかわらず、科学者や起業家を問わず、AIの能力への過剰な約束は迅速だった。この結果引き起こされた騒ぎと破綻は一般的に「AIの冬」(AI winters)と呼ばれている。

私たちは、機械学習によっていくつもの信じがたいことができるようになってきた、例えば自動運転車のためのビデオ映像内の物体の分類をしたり、衛星写真から収穫の予測をしたりといったことだ。持続する短期記憶は、私たちの機械に、ビデオ中の感情分析のような時系列への対処をさせることを可能にしている。ゲーム理論からのアイデアを取り込んだ強化学習は、学習を報酬を通じて支援するための機構を備えている。強化学習は、Alpha GoがLee Sodolを追い詰めることができた、重要な要因の1つだった。

とは言うものの、こうした進歩にもかかわらず、機械学習の大いなる秘密は、通常私たちは与えられた問題の入力と出力を知っていて、それらを仲介する明示的なコードをプログラムするものなのに、機械学習のモデルでは入力から出力を得るための道筋を特定することが常にできるわけではない、ということなのだ。研究者はこの挑戦を、機械学習のブラックボックス問題と呼んでいる。

ひどくがっかりする前に指摘しておくならば、人間の脳自身もブラックボックスだということを忘れてはならない。私たちはそれがどのように動作しているかを本当に知らず、抽象の全てのレベルでそれを調べることもできない。もし誰かに、脳を解剖してその中に保持されている記憶を探させてくれと頼んだら、即座にクレイジーというレッテルを貼られてしまうだろう。しかし、何かを理解できないということはゲームオーバーを意味しない。ゲームは続くのだ。

この記事では、機械学習を支える多くの基本的な概念を紹介したが、将来の「いまさら聞けない(WTF is …?)」シリーズのための沢山のネタがテーブル上に残されている。ディープラーニング、強化学習、そしてニューラルネットは、それぞれより深い議論に進むことが可能だが、願わくばこの記事を読んだ後、読者のこの分野への見通しが良くなって、日々私たちがTechCrunchで取り上げている沢山の企業間の関連が理解しやすくなることを期待している。

他の「いまさら聞けない(WTF is)」シリーズ

いまさら聞けないコンテナ入門

いまさら聞けないクリックベイト入門【英語】

いまさら聞けないミラーレスカメラ入門【英語】

[ 原文へ ]
(翻訳:Sako)

Microsoftが機械学習ツールキットCNTKのニューバージョン(2.0)ベータを立ち上げ…Google Tensorflowをライバル視

cognitive_services

機械学習の開発フレームワークとしては、GoogleのTensorflowライブラリが今いちばんよく知られているが、今年の初めにはMicrosoftが、同社の社内ツールだったCNTKを一般公開して、デベロッパーの選択肢を増やした。そして今日(米国時間10/25)Microsoftは、CNTKの次のバージョン、バージョン2.0の最初のベータを立ち上げ、Tensorflowのトップの座に挑戦しようとしている。

CNTKは最初、‘Computational Network Toolkit’を表していたが、今ではMicrosoft Cognitive Toolkitに名前を改めている。

Microsoftの音声認識技術のリーダーXuedong Huangによると、CNTK/Cognitive ToolkitはTensorflowや類似のフレームワークに比べて、前からアドバンテージが大きかった。中でも、そのパフォーマンスが。

Microsoftのベンチマーク(下図)によると、Cognitive Toolkitは多くのテストにおいて競合製品に勝ち続けている。そして当然ながら、今度のニューバージョンは、それまでのリリースよりもさらに高速であり、とりわけ、ビッグデータのデータ集合に強い。それは単一GPUのパフォーマンスでもそうだが、しかしHuangによると、より重要なのは、大量のGPUを使えるという、CNTKの優れたスケーラビリティだ。新バージョンでは、この特性にもさらに磨きがかかった。“簡単な問題ならほかのツールキットでも十分だが、どんどんスケールアウトしていくようなタスクでは、CNTKが唯一の選択肢だ”、とHuangは自負を述べる。

screenshot-2016-10-25-at-16-09-33

しかしデベロッパーの心をつかむのは、スピードだけではない。CNTKの最初のバージョンはMicrosoftが社内的に使っていたものと同じなので、利用するデベロッパーもコードをC++やC#で書かなければならなかった。そのことは、Pythonなどの使えるTensorflowに比べて大きな不利である。Huangも率直にそのことを認め、“当時はプライオリティが、社内で使う場合の効率にあった。ということは、社内的に前から使っていた言語、C++を使う、という結論にならざるを得ない”、と彼は語る。“その後その社内ツールをオープンソースにし、公開的な共有化に踏み切った”。ところが、彼らが直ちに理解したのは、多くのデベロッパーが求めるものがPythonのサポートであることだった。

そこで次のバージョンではCognitive ToolkitはPythonはネイティブでサポートし、さらにデベロッパーがCNTKのモデルを理解するための教育訓練事業も提供している。

AzureのGPUインスタンスも今ベータに入っているから、今後のMicrosoftはソフトウェアツールと、それが動くシステム環境(Azure仮想マシン群)の両方を提供していける。ただしHuangが強調するのは、Cognitive Toolkitは動く環境としてAzureに依存しているわけではなく、またAzureも、そのほかの機械学習ツールキットを十分に動かせる。

Huangは何度も強調する: Microsoftの内部的サービスの多くがCognitive Toolkitに依存しており、MicrosoftのAI開発が会話中の語を認識し、その発話者を特定できるようになったのも、CNTKが提供する機械学習能力のおかげである。またMicrosoftのCognitive Servicesにおいても、そのツールの一部はCNTKに負っている。

CNTKのコードはGitHub上で入手できる。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

テレビ画面上の顔の出現頻度を毎秒チェックするAIサービスVerso、政治家やタレントの人気ランキキングなどに利用

screen-shot-2016-10-21-at-17-56-48

ロシア政府がアメリカの大統領選をハッキングしている、というニュースが今や大きいけど、一部の頭の良いロシアのデベロッパーたちが、もっとましなことをやった。テレビをモニタして人の顔(たとえば世界の主要国のリーダーたち)の出現頻度を記録するのだ。

そのAIを利用したアルゴリズムは、すべてのメディア上に、リーダーたちの出現を追う。Versoと名付けたそのサービスは、各国の大統領や首相らの出現頻度を記録し、その順位をリアルタイムで表示する。

Versoは、人の顔(ぼやけていてもよい)を素早く認識するアルゴリズムの、応用の実験で、そのアルゴリズムはMoscow State Universityが開発した。

Versoは一秒おきに、テレビの各チャンネルのスクリーンショットを撮る。そしてそのときの画面中のすべての顔をアルゴリズムが処理して、訓練されている顔(現状は主要国のリーダーのみ)とマッチングする。

一つの顔の認識に要する時間は数ミリ秒、確度は99%だ。ピンぼけでも、横を向いた顔でもよい。そのデータは、リアルタイムで送られる。

Russian Venturesの常勤社員パートナーEugene Gordeevはこう言う: “あくまでもAIの実験とシステムの試作だから、まだ万能ではないし、概要が分かるだけだ。Verso(裏面)という名前をつけたのは、謙遜の意味もある”。

このソフトウェアのライブのデモがここにある。チェックしているのは、20のチャンネルだ。

ヒラリー・クリントンとドナルド・トランプの二度目のディベートで、両者の顔をチェックしたデータがこれだ。最初のうちはトランプが多くて、その後は最後までクリントンの映像が多い。

Versoは今後、ウォッチするチャンネルを100にする計画だ。そうすると国や地域による偏りのない、全世界的な傾向が得られるかもしれない。もちろん、訓練次第では、人の顔だけでなく、特定の製品などを映像中に見つけることもできる。

Gordeevによれば、“今後は映像だけでなく、テキストや音声も認識できるようにしたい。そしてそれらの意味も理解できるようになれば、(表情や文章などの)ポジティブとネガティブの違いを判断できるようになるだろう”、という。

Versoは10万ドルの資金を獲得しているが、今後の増資も計画している。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

K-12校(小学校から高校まで)の生徒たちのインターネット安全性を守るために、Securlyが400万ドルを調達

schoolbus

Childrens’ Internet Protection Act(児童インターネット保護法)の規制によって、生徒にインターネットアクセスを提供する米国内の学校では 、生徒が猥褻あるいは有害なオンラインコンテンツにアクセスすることを防ぐために、一般にウェブフィルタリングシステムを使用しなければならない。

この法律は、元々2000年に制定され、2011年に改訂されたが、そもそもは資金力のある企業のために作られたエンタープライズソリューションを、学校で使う羽目になり、学区のIT部門には大きな負担が強いられた。

そこで、サンノゼのスタートアップSecurlyが、シリーズAのラウンドで400万ドルを調達した。そのクラウドベースのウェブフィルタリングシステムのサポート範囲を、米国内そして全世界の似たような規制のあるK-12スクール(小学校から高校までに相当)に広げることが目的である。

SecurlyのCEO兼創業者のVinay Mahadikによれば、同社は、学校と両親に「子供のためのプラグアンドプレイセキュリティ」を提供することを目指している。

同社は、新しく調達した資金の一部を、子供たちが他の子供を傷つけようとしたり、自傷行為に及ぼうとしたり、または自殺を仄めかしたりしている場合を検知した際に、テキストメッセージ(ショートメール)を介して両親に警告を送るツールの構築に投資する計画だ。

同社は自然言語処理、感情学習、その他の機械学習技術を使って、子供たちが深刻なトピックを調べているのか、それとも本当に有害な行為に及ぼうとしているのかの違いを判断する。

Securlyは両親に対して、自分の子供たちがどのように学校でインターネットを利用しているのかを、メールを介して広範で詳細なアウトラインとしてレポートを提供するサービスを既に開始している。まもなく、同社は親たちが能動的に彼らの子供たちのデジタル習慣についての情報を得ることができるポータルやアプリを提供する、とMahadikは述べた。

より幼い子の場合には、より詳細なインターネット利用の情報を、親は入手することができる。子供たち自身がプライバシーを理解し欲するようになる、10から12歳といった年齢に達した際には、Securlyは、特定のゲーム、アプリ、検索、そして個々の子供が訪問したサイトといったものよりも、全体の広い傾向についてのレポートを提供する。

現在同社は学区に対して直接そのソフトウェアを販売している。Securlyをインストールするには、IT管理者は、スタートアップから特別なIPアドレスを入手する必要がある、それは学校のDNSサーバーに登録され、15分以内にはその学区の学校はウェブフィルターによって保護されるようになる。

教育に焦点を当てるベンチャー企業Owl Venturesが、SecurlyのラウンドAを主導した。

Owl VenturesのAmit A. Patelは、生徒たちのレベルに応じて、学校が独自に何が適切かのポリシーを設定することができる手段を提供しているSecurlyのことを称賛した。幼稚園児と中学生ではオンラインで見るものの安全性に大きな違いがある、と彼は指摘した。

そしてPateは、OwlがSecurlyを支援する理由は、米国内の教育マーケットだけでも巨大な可能性があること、のみならず国際的にも成功する可能性があり、一般消費者向けのプロダクトとしても使えることだ、と語った。

「米国内および世界各地の学校は、彼らの教育により多くの技術を取り込み始めたところです、これは普遍的に必要になると考えています。この会社(Securly)は、世界中の学生を支援することができて、それを上手くいかせるために、繰り返さなければならないカリキュラムを必要としないのです」と彼は指摘した。

投資家は、Securelyが新たに得た資金を使って、インターネット接続機器へのペアレンタル・コントロールを備えた、同社アプリの家庭版を開発することを期待している。そして、そのプロダクトを米国中の学校に普及させる努力を継続することも。

[ 原文へ ]
(翻訳:Sako)

社内経費の不正検知が機械学習の次のターゲットだ

Security officer with hologram screens guarding binary code

【編集部注】著者のChris Baker氏は、英国企業Concurのマネージングディレクター。

映画Morganの予告編(史上初めて完全にAIによって制作され、それによってかなり有名になった)に対する人びとの反応はどのようなものだったろうか?

「不気味だったね」。

これは(SFスリラー映画の予告編としては)正しい反応だろう。今やコンピュータは書き、読み、学び、話すことができる。そして、一部の人たちは、こうしたボットをとても恐れている。彼らの仕事を奪い、最後には世界を支配し、人間を不要にしてしまうのでは、と(I, Robotのような映画はあまり慰めにはならない)。

結局、多くの人びとが不合理な恐怖を感じている。こうしたときは、サメのことを恐れている人の数を考えてみるのが良いだろう、実際のところ人はサメよりもBlack Friday(11月の第4金曜日。米国で最も買い物客でごった返す日)の買い物で死ぬ可能性が高いのだ。というわけで機械学習に関して言えば、ビジネスはそこから腰がひけた態度を取るべきではない、それを受け入れ、自らのために活用する必要がある。

これまでAIは、シリコンバレーの技術専門職たちだけがアクセスしていた代物だった;しかし最早そのようなことはない。技術の成長の広がり具合は、AlexaやSiriといったサービスボットやデジタルアシスタントが、どんどん洗練されて行く様子からも見て取ることができる。

Sift Science最近3000万ドルを資金調達した)のような会社が、機械学習と人工知能を、あらゆるオンライン不正の予測と防止に使う計画を立てていることは素晴らしいことだ。特にクレジットカードのイシュアと銀行は、機械学習による不正検知システムで年120億ドルを節約できるだろうというレポートを読んだ後では。

誰かがモニタリングを行いデータを賢く使っているという前提の下でのみ、テクノロジーは上手く働く。

私たちは、機械学習がすでに金融サービスの世界ではその価値を証明したことを知っている、よってそれが企業テクノロジーに手を貸さない理由はない。より具体的には、時の中に忘れられてしまったプロセス ‐ 退屈な経費処理である。

機械学習による光明

現状では、機械学習は怪しい経費を検出するためには使われて来なかった、しかし私たちは、それが程なく現実となる正しい方向へ向かっている。しかし、内部経費不正はどの程度のものなのだろうか?そして、ボットが検出する経費異常とはどのようなものなのだろうか?

ビジネスにとって困ったことに、怪しい経費はますます日常的なものになりつつある。そしてそれが企業利益に深刻な影響を及ぼしているのだ。政府から民間に至るまで、目立ったケースは引きも切らない。しかし、少し深く掘り下げてみると、私たちがConcurで発見したところによれば、従業員の23パーセントは経費のごまかしは許容されると考えていることがわかった、またFinancial Fraud Actionが2016年の前半に金融詐欺は15秒に1回行われているという報告も出している。

機械学習を、ビジネスの日常を救うために(そして怪しい経費処理を取り除くために)投入することは可能だろうか?

おそらくは。巨大なデータ群を分析し、パターンを発見するAIの能力は、仕事場の不正で必要とされている課題の解決の役にたつだろう。人間とは異なり、機械は二日酔いや不眠の影響を受けることがないので、ボットが怪しい見かけの経費を見落とす確率は、私たち人間が見落とす確率よりも低いものである。

これは、ファイナンスチームが無駄になると言っている訳ではない;その代わり、機械が力仕事を引き受けることで、彼らの仕事が少しばかり楽になるということだ。誰かがモニタリングを行いデータを賢く使っているという前提の下でのみ、テクノロジーは上手く働く。すなわち、ボットと人間の両者が必要だということだ。

しかし、一方で機械が正しいと決めたものを、単にそのとおりだと人間が仮定しないことも重要だ。これはまさしくStanislav Petrovが1983に行ったことである。このとき彼は、全自動コンピューターが検知した米国からの「ミサイルの飛来」に疑問を抱いた。定められていた手続きは核攻撃に反撃することだった ‐ しかしPrtrovは、彼自身の頭脳を使って、コンピューターが誤っているのだと考えた。そして世界を救ったのだ。

機械学習は、明らかな利点を提供する。仕事をあっという間に完了するというだけでなく、ファイナスチームをもっと重要な時間に振り向ける時間を生み出すことができる、そして威圧的なボットに対面すれば、人びとは使い古された「おっと、そのレシートは先週の日曜のランチの分がうっかり紛れ込んだんだ」といった言い訳を使うこともなくなるだろう。

私たちは既に、デジタルの世界で生きている。それは私たちのあらゆる生活の分野に見出すことができる。非接触支払いから、単純にオンラインで行う買い物まで。だから本当に、経理部門の最高の関心事は、旧態依然としたExcel文書を何か現代的世界にマッチしたものへと変えていくこのなのだ。この先避けられない事態がやって来たときに ‐ 機械学習検知システムが配備されていて、それらを扱うことを半ば助けられ、大混乱が起きないように。

[ 原文へ ]
(翻訳:Sako)

マイクロソフトの音声認識技術、「人間並み」に到達

whisper

マイクロソフトリサーチ(Microsoft Research)にとっては、おめでたい日となったことだろう。研究を続けてきた音声認識技術が、ついに人間レベルに到達したのだ。

具体的にいうならば単語誤り率(word error rate)が5.9%となったのだ。これはプロの口述筆記者と同じレベルとなる。すべてを完璧に聞き取るわけではないが、94%の正確性があれば、十分に会話についていくことができるのだ。

「これは20年間続けてきた研究の賜物です」と研究社のひとりであるGeoffrey Zweigはブログ記事の中で述べている。

The team at Microsoft's Speech & Dialog research group.

マイクロソフトのSpeech & Dialog研究グループ

音声認識の分野では、この10年間にわたって多くの技術系の大手企業や研究機関が競い合ってきた。ここ数年は、その実力も大いに向上してきているところだった。そして音声認識に(ご想像通り)ニューラルネットワークと機械学習の技術を組み合わせることで、新たな段階に達することとなったのだ。

「進化をもたらしたのは慎重なエンジニアリングと、Convolutional(畳み込み)とRecurrent(再帰)ニューラルネットワークの最適化である」と論文の中に記されている。「音響モデル(acoustic models)を進化させて、音響コンテクスト(acoustic context)の理解につなげることができたのです」。

認識システムの構築には、マイクロソフトがオープンソースで提供しているComputational Network Toolkitを利用しており、これが存分にその能力を発揮しているのだそうだ。

もちろん、5.9%という単語誤り率は最適な環境で実現されたものだ。ノイズの多い環境などでは、その性能は大きくおちることとなる。またアクセントの変化にも十分に対応することができないようだ。しかし、たとえばアクセントへの対応などは、トレーニング用のデータセットをニューラルネットワークに組み込むことで、比較的容易に対応することができるだろうとのこと。

マイクロソフトリサーチの研究社の方々にはおめでとうを伝えたい。しかしここがゴールというわけではないのだろう。コンピューターは、いくつかの分野では既に人間を上回る能力を示しつつある。きっと音声認識についても同様な成果を達成することとなるのだろう。ちなみに、大きく進化した音声認識ぎじゅつがコンシューマープロダクトに活かされる時期などについては、いまのところはまだ不明であるそうだ。

原文へ

(翻訳:Maeda, H

Google DeepMindの新しい人工知能、DNCは地下鉄路線図から適切な経路を割出す

A web of dots connected by lines against a black background

2011年のノンフィクションのベストセラー、『ファスト&スロー あなたの意思はどのように決まるか』(早川書房)(Thinking, Fast and Slow)でノーベル賞経済学者のダニエル・カーネマンは、人間の思考は基本的に2つに分かれると主張した。この2つの区分はそれぞれ、適切にも、速い思考と遅い思考と名付けられている。

前者はいわば「勘に頼る」思考だ。物事に対する最初の直感的、自動的な反応といってもいい。後者は熟慮された内省を経た思考で、これを得るには時間がかかる。DeepMindの新しいアルゴリズムがもたらそうとしているのは、この「遅い思考」だ。近い将来、カーネマンの言う「遅い思考」が機械学習の手が届く範囲に入ってくる可能性がある。

Googleの子会社、DeepMindNatureに発表された新しい論文でディフェレンシャブル・ニューラル・コンピューター(DNC=differentiable neural computer)と名付けられた機械学習への新しいアプローチを説明している。新しいコンピューターといってももちろん物理的なハードウェアという意味ではない。情報を組織化し、この知識を適用して特定の問題を解決する新しいテクニックと呼ぶべきだろう。.

ニューラル・ネットワークは、本質的には、きわめて洗練された試行錯誤の過程だ。この過程が最終的に答えにたどり着く。こうしたフレームワークはある問題の解決に極めて有効だ。しかし相互に関連する既知の事実の集合を適用して現実世界の問題を解決する上ではさまざな改善の必要があった。

DeepMind

DeepMindの新しいテクノロジーは メモリにコンテンツを保存するというコンセプトと古典的なコントローラーをを用いたニューラルネットワークとを融合するものだ。コントローラーは次のいずれかの方法で情報を記憶する。すなわち新しい位置に記憶するか、既存の情報をその位置で書き換えるかだ。この過程を通じて新たなデータが書き込まれるタイムライン上で連想が形成される。

情報を取り出すためにコンテンツをメモリに保存する場合もコントローラーはその同じタイムラインをを利用する。このフレームワークはナビゲーション可能でコンテンツのグラフ構造から意味ある認識を得るのに有効であることが証明された。

消費者の購買傾向やGPSによるナビゲーションといった現実の複雑な行動がこうした知識グラフの形で表現される。DeepMindではデフェレンシャブル・ニューラル・コンピューターをロンドンの地下鉄路線図の認識に応用し、 コンピューターに記憶された構造化データから正しい経路を生成する生成することに成功した。
同社によれば、次のステップは、大規模なデータセットを処理できる新しいアルゴリズムの開発になるだろうという。

DeepMindのサイトでこの問題に関するさらに詳しい記事を読むことができる。

画像:Ralf Hiemisch/Getty Images

〔日本版〕 DeepMindはGoogleが買収した機械学習のスタートアップで、今年3月にAlphaGoが囲碁の世界チャンピオンを破ったことで一躍注目を集めた。differentiable neural computerについては現在日本語定訳がないようなのでそのままカナ表記とした。differentiableは数学用語では「微分可能な」、一般用語としては「区別できる」という意味。バベッジの最初のコンピューターがdifferential engine(差分機関)と名付けられたことと関係があるかどうかは不明。なおULR文字列がやや奇妙だが原文記事は通常どおり公開されているのでそのまま利用した。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

AIが引き起こす破壊の波

gettyimages-4964795042560x-80

【編集部注】著者のRudina Seseri氏は、Glasswing Venturesの創業者でマネージング・パートナーであり、かつハーバード・ビジネス・スクールのアントレプレナー・イン・レジデンスと、ハーバード大学イノベーション・ラボのエグゼクティブ・イン・レジデンスも務める。

情報技術はディストラプション(破壊)の波を超えて進化する。最初はコンピューター、そしてウェブ、遂にはソーシャルネットワークとスマートフォン、全てが人びとの生き方や、ビジネスの回し方に革命を起こす力を持っていた。それらは適応に失敗した企業を破壊し、一方では成長するマーケットの新しい勝者を生み出して来た。

そうした波の到来のタイミングと形を正確に予測することは困難だが、それらがたどるパターンは認識しやすい。例えば、ウェブ/デジタルのディストラプションを考えてみよう:まず先行するテクノロジー(例えばTCP/IPや設置済のコンピューター群)の利点を活かした、テクノロジーのブレイクスルーがあり(例えばTim Berners-LeeのWWW)、そして一見緩やかに見えながら、実は爆発的に、既存の市場を破壊したり(例えばAmazon)創造したり(例えばGoogle)する、新しいアプリケーションとプラットフォームの勃興が導かれた。

そして今、新しい波のうねりが見え始めている。ウェブが既存の技術を利用したことと同様に、この新しい波は、コンピューティングハードウェアのコストの低下、クラウドの出現、企業システムのコンシューマライゼーション(専用機器ではなく消費者向けデバイスを利用すること)、そしてもちろん、モバイル革命などの動向に基いている。

更にスマートデバイスと「モノ」の急増と多様化は、定常的なコミュニケーションと共有を可能にし、一方ソーシャルネットワーキングネイティブたち(世界のSnapchatユーザーは団結する!)は常時共有と自己表現を「必需品」としている。この結果が、私たちが普遍接続性(pervasive connectivity)として作り出したものの出現だ。

普遍接続性はこれまで以上に豊かでパーソナライズされたデータの急増につながる、そしてそのことはデータを処理し、価値があり操作可能な洞察を引き出す方法への、完全に新しい機会を生み出すのだ。人工知能が、まさにそれを可能にする。

AIのもたらす機会 – なぜ今なのか、どうそれを活用するのか

AIは、より広い意味では、知性を発揮する機械の能力として定義され、ここ数年で劇的に改善された、学習、推論、プランニング、そして知覚といった、いくつかのコンポーネントで構成される。

機械学習(ML)は顕著なブレークスルーを達成し、それによりAIコンポーネント全体にわたるパフォーマンスの向上が促進された。こうしたことに最も貢献しているMLの2つの流れは、理解に関わる深層学習(ディープラーニング)と、特に意思決定に関わる強化学習(リインフォースラーニング)だ。

興味深いことだが、これらの進歩はアルゴリズムではなく、むしろ(高品質な注釈付の)データ(セット)の指数関数的成長によって促進されたことはほぼ間違いないだろう 。その結果は驚くべきものだ:ますます複雑になるタスクに対してしばしば人間のパフォーマンスを上回るよい結果が継続的に達成されている(例えばゲーム音声認識、そして画像認識の分野で)。

とはいえ、それはまだ黎明期であり、いくつかの課題が残されている:ほとんどのブレークスルーは「狭い」アプリケーションの領域で起きているものであり、(作成には高いコストのかかる)大量のラベル付データセットが必要な訓練手法を使っている。ほどんどのアルゴリズムは(いまでも単に)人間以下の能力を発揮できているのに過ぎず、その訓練にはかなりのコンピューティングリソースを必要とし、大部分のアプローチが理論的フレームワークを欠いた発見的手法に基いている。

AIは、既に自宅と職場の両方で、私たちの日常生活の多くの側面を変えている。しかし、これはほんの始まりに過ぎない。

これらの課題の多くは、おそらく中長期的には克服されるが、今日作成されている大部分のAI応用プロダクトは、こうしたことを考慮して置かなければならない。これが、AIを活用することを計画している企業が以下の事に気を配ることが重要である理由だ:柔軟なアプローチをとること(すなわち、最初は、良いパフォーマンスを出すためのMLアルゴリズム訓練データを集めることができるか、あるいは非AIアプローチをとるか)、(AI機能を開発しその性能を促進するための)「ラベル付けられたデータ」をユーザーから集める連続的な情報の流れを作り出すこと、そして十分に支援されていない、あるいは「人間が介在している」ユースケースに注力することだ。

現在多くの注目は、大規模テクノロジー企業(Google/DeepMindFacebookPinterestなど)に向けられているが、わたしはこの(もしくはこれに類似した)アプローチを使って、企業と消費者市場にAIディストラプションの波を起こすのは、スタートアップたちだろうと考えている。そして、既にいくつかのスタートアップはそれを始めているのだ。

企業内のAIディストラプション

企業内でAIは、企業が消費者とインタラクトするための新しい方法や、従業員同士が相互にコミュニケーションするための新しい方法、そしてそのITシステムと共に、より大きな収益と生産性の向上の両者を促進している。

マーケティングは、新技術の典型的なアーリーアダプターであり、それは既にAIを採用していて、セクター全体にわたって高い認識とコンバージョン指標が育っている。ソーシャルメディアでは、SocialFlow*などの企業が、キャンペーンの効果を向上させるための機械学習の使用を開拓してきている。ディープラーニングによって支えられる新しい画像認識技術は、Netraのようなスタートアップが、視覚に対する知性と検索性の改善をすることを可能とし、ユーザーエクスペリエンス全体を向上させている。電子商取引では、Infinite Analyticsが、より良いパーソナライゼーションを可能にするプロダクト群を作成することができている。

セールス分野では、営業チーム/見込み客とCRMの間のUIを再考した新しいプロダクトが、効率を大いに改善し、成約率を向上させている。Troops.aiは、セールスチームが現在自身の使っているプラットフォームを通して、CRMデータに簡単にアクセスすることを可能にする。Rollioは自然言語を介したCRM情報のアクセスおよび更新を可能にする。Conversicaは、より良いスクリーニングを行い、見込み客をフォローアップできる、セールスアシスタントを作成した。

普遍接続性の世界では、AIがデータのパワーを活用するための鍵である。

人事分野では、スタートアップは様々な活動にわたった効果と効率性の改善を行おうとしている。Tallaは、企業内のナレッジマネジメントの改革を目指している。一見単純な会話エージェントから始めて、最終的には本格的で先回りを行うナレッジエージェントへと向かうのだ。Wade & Wendyは採用時に使用するための両面会話エージェントを作った、目的は向かい合う両者の満足度のレベルを上げながら、全体の採用時間を短縮することである。

生産性という話では、x.aiのような企業たちが、スケジューリングに際しての苦痛を大幅に取り除き、シームレスなユーザーエクスペリエンスを生み出そうと努力している。

最後に、部門をまたがるアプリケーションを擁する広範なプラットフォームを作っている企業もある:Indicoは、アプリケーション間をまたがったアルゴリズムの訓練をかなり高速に行うために、学習転送を使っている;Receptivitiは、人びとのテキストやボイスメッセージを解析して、彼らの心理的かつ個人的な意思決定スタイルと感情をリアルタイムに明らかにする。

消費者市場におけるAIディストラプション

消費者市場で、おそらく最も私を興奮させるものは、AIが新しいプラットフォームを創造し、日々の生活の中の重要な空間で私たちが技術と対話する方法を再定義していくやり方である。

そのような重要な空間の1つが家だ。Jibo*は家庭の変革を目指す、フレンドリーでインテリジェントなソーシャルロボットだ。よりよいユーザーエクスペリエンスを生み出すために、それは人間臭いリアクションを採用している。一方、幅広いタスクにとても役に立つ働きをする、誰が話しているかによって調整を自動的に行うインテリジェントビデオコールから、料理をする際の材料の提案、そして子供向けの読み聞かせの手伝いまで、といった具合だ。

また別の重要な空間は車だ。nuTonomyはシンガポールにおける自動運転の導入で、テクノロジーを迅速に市場に持ち込み、現行勢力を飛び越えることができたスタートアップの良い例だ。

そしてどうなる?

ほとんどの人が、AIの仮説上の発展の、長期的な可能性と脅威に焦点を当てているが、いまのところ、新しいディスラプションの波を促しているのは、経験則に基づく、限界のある適用形態である。これまでの波のように、この変化は微妙で最小のもののように見えるが、ほどなくそれはひろく普及し、無視することができないものになる。

普遍接続性の世界では、AIがデータのパワーを活用するための鍵である。企業が生き残るためにはAIの利点を活かす必要がある ‐ Google、Facebook、Amazon、そして無数のスタートアップはそれを知っている。そして、あなたも知るべきなのだ。

AIは、既に自宅と職場の両方で、私たちの日常生活の多くの側面を変えている。しかし、これはほんの始まりに過ぎない。AIは、ゆっくりと、着実に、そして広範囲に、私たちとテクノロジーの関係を再定義している。そして人間の能力と、基本的には私たちの生き方を、向上させているのだ。

*Rudina Seseriの投資ポートフォリオには、SocialFlowとJiboが含まれている。

[ 原文へ ]
(翻訳:Sako)

文章が読めるチャットボットを開発するMaluuba

7978175055_fcd47665e5_o

MaluubaがSiriのようなパーソナル・アシスタントを最初にローンチしたのは、4年前サンフランシスコで開催されたTechCrunch Disruptのイベントにおいてだった。それ以来、同社は1100万ドルの資金を調達し、そのテクノロジーを多数の携帯製造会社にライセンスした。それらの会社はそのテクノロジーを使って、自社の携帯にパーソナル・アシスタント機能を実装している。

Maluubaの製品部門のトップであるMo Musbahによると、同社は直近の2年間を、ディープラーニングを自然言語処理の局面で利用する方法の開発に投じてきた。それに関連して一例を挙げると、同社は最近モントリオールに研究開発の為のオフィスをオープンした。「そこにおける私たちのビジョンは、ディープラーニングでの世界最大の研究施設を作ることです」とMusbahが言った通り、同社が野心に欠けるということはなさそうだ。

同社が研究開発に注力する余力があるのは、同社のボイス・アシスタント関連のOEMビジネスが着実に収益をもたらしてくれるからだ。本日同社はこの研究開発の成果を始めてお披露目してくれた。

2016-09-22_1358

同社の研究チームは過去数年間に渡り、文章を与えれば、その文章について自然言語形式で尋ねることが出来るようなシステムを構築してきた。今あなたが読んでいるこの文章を例にとれば、「Maluubaの製品部門のトップは誰?」といった風に質問することができ、システムは正しい答えを返してくる。

現在残念ながらまだ一般公開には至っていないものの、Maluubaの動作はこんな具合だ。

実際のところ、この問題を解決するのは大変難しい。というのも、このシステムは多くのトレーニングの恩恵を受けることなく、うまく動く必要があるからだ。この種の機械学習こそが今日のパーソナル・アシスタントをずっと賢いものにする手助けになるものだと研究チームは信じているのです、とMaluubaの研究部門のトップであるAdam Trischlerは私に語った。「我々が気づいたことが2つあります。まず最初に、いま使われているパーソナル・アシスタントは根本的に機能してません。外から知識を持ってくることは出来ません」と、彼は言った。「次に、会話がほとんど出来ないという点が挙げられます。我々は会話をしたいし、それができるシステムこそより強力なシステムと考えています」

ここで彼が言っている問題とは、例えばSiriやグーグル・アシスタントなどにそれらのサービスの守備範囲外の質問をした場合、ユーザーはそのウェブサイトに飛ばされてそこで検索をすることになる。もしアシスタントが実際にそれらのまとまりのない文章を理解できれば、そのサービスの答えることができる質問の数はずっと多いものとなるだろう。リアルタイムにそれを実現できるのなら、なお良い。Maluubaのテクノロジーを使えばそれが実現でき、それは非常に大きな前進だ。とりわけ、システムが外部の情報に頼らずに、与えられた文章を解析することだけで質問に答えることができるとすれば尚更だ。
[原文へ]

(翻訳:Tsubouchi)

それで良いのかGoogle(Not OK, Google)

0108

昨日サンフランシスコで開催されたハードウェアの発表イベントで、Alphabetは、更に幅広く消費者の個人データ(それも、これまで以上に個人的な性質の情報の)収集に向かう野心を表明した。この先コンピューティングが静的なデスクトップやスクリーンを離れ、相互結合したデバイスのクラウドと合体し、更なるデータの生成に向かう動きを加速するためである。

新しい2種類の「Googleデザイン」旗艦Androidスマートフォン(Pixel)と共に、同社のAIアシスタント(Google Assistant)が最初からインストールされたAndroid、そしてユーザーの写真とビデオをGoogleのクラウドに吸い上げる容量無限のクラウドストレージも提供され、また厄介な家庭内のインターネット接続をすべて引き受けるGoogle Wifiルーターもある; Google Homeは常に接続されたスピーカーを通して耳を澄ましていて、Google Assistantを介して声で制御され、またサードパーティ製のIoT機器(たとえばフィリップスのHue電球)を制限付きだがサポートする;新しくなったChromecast(Ultra)は任意の古いTVパネルをインターネット利用可なものにする;そして、Googleの使い捨てではない携帯VR再生機、別名ソフトタッチDaydream Viewヘッドセット がある ‐ 万一消費者の目がデータ収集型スマートホームの外へさまよい出たいと思ったときに、逃げ込むための仮想現実を提供するために。

GoogleブランドのためにAlphabetが描く野望は明快だ:Googleの情報整理頭脳を家庭の中心に埋め込みたいのだ ‐ すなわち、消費者たちにとって高度な個人データを定常的にそこに流し込まない選択肢を選ぶことが不可能になるということだ(もちろん、Google Homeにはミュートボタンがついている、実際にはそれが音量を喋ることを止めるためにボタンを押す必要があるが…)。

言い換えれば、あなたの日々の活動が、Googleの活動そのものなのだ

「私たちはモバイルファーストの世界からAIファーストの世界に移りつつあります」と、昨日のイベントのキックオフでCEOのサンダー・ピチャイは語った。そしてAIは、もちろん、これまでの技術が持っていなかったようなデータへの食欲を持っている。機械学習は、自身の有用性を手に入れるために情報を必要とする。手探りでは機能できない、データ駆動型の領域なのだ。

よってAlphabetのハードウェアのためのビジョン「Made by Google」は、消費者たちに対して利便性の誓いを販売することである。そして、全てを接続するデバイスと共にこの販売ピッチが、パーソナルスペースをユーザー情報データベースへと変容させ、この先何十年にも渡って広告エンジンに燃料を供給し続けることが可能になるのだ。

Made by Google

デジタル消費者の大部分の問い合わせと好奇心が1つのGoogleブランド検索エンジンに注ぎ込まれるようになったとき、私たちは現代の情報社会のはるか奥深くに入り込んでしまったことになる。このため、Alphabet(以前はGoogleのブランド名を身に着けていた)はとても長く険しい道をAndoridを広くそして深く普及させるために突き進み、電話を超えて幅広いハードウェアの世界にたどり着いたのだ。

そして今、Alphabetはそのプロセスを、よりシンプルなデスクトップウェブの時代と同様に、Googleを手放し難くすためのAI駆動の消費者向けサービス層を用いて、加速しようとしている。

ということで、昨日の大規模なコネクテッドハードウェアのお披露目大会は、実際には、IoT時代に向けて、Googleブランドを頼りになるキーワードとして再活性化し、位置付けの再確認を行わせるためのものでもあったのだ。

特に、AmazonのAlexaやAppleのSiriといったライバル仮想アシスタント技術とは異なり、Alphabetはしっかりと消費者向けのAI界面の端にGoogleブランド名を保持している。そのスマートホームやAIアシスタントを購入した者に、Googleブランド名を文字通り、毎日毎時間声で与えることを要求するのだ。

「OK Google、子供の寝室のライトを消して…」

うーん。

個人的にはそれだけで十分不愉快だ。しかし本当の意味で「not OK, Google」なのは、急速に浮かび上がってきたプライバシーに関するトレードオフなのだ。そしてアルファベットが、こうした懸念を無視していくやりかたも。

「私たちは、あなたが身の回りの仕事を片付けることのお手伝いをしたい」というのが、Googleブランドのスマートホーム、そしてGoogle AI一般についてのピチャイのピッチだった。

「誰でも、何処でも役に立てることのできるパーソナルGoogleを構築することに私たちは興奮しています」というのが、なりふり構わぬAIへの突進に話を添える、彼のまた別のマーケティングフレーズだ。

その通り – 彼は文字通り、このように言っている…

彼が言っていないことの方がはるかに興味深い。すなわち、お好みのレストランを予測したり、通勤経路上の支障がどのようなものかを尋ねたりできるような「カスタムな利便性」の約束を果すためには、あなたの個人情報、嗜好、嗜癖、ちょっとした過ち、偏見…そうしたことを限りなく収集し、データマイニングを継続的に行うことになるのだ。

AIが、データの要求を止めることはない。気まぐれな人間が関心を失いがちな点である。

なので、「誰でも、何処でも役に立てることのできるパーソナルGoogle」構築の対価は、実際には「誰でも、何処でもプライバシーゼロ」ということなのだ。

なので、「誰でも、何処でも役に立てることのできるパーソナルGoogle」構築の対価は、実際には「誰でも、何処でもプライバシーゼロ」ということなのだ。

さてそう考えると「OK, Google」という言葉も、それほどOKには響かないような気がしてこないだろうか。

(同僚の1人が以前、Google Assistantの前身であるGoogle Nowをオフしたきっかけを語ってくれた。彼が日曜の夜に時々行くバーへの到着時刻を、頼まないのに教えてくるようになったからだ。彼はこう付け加えたそうだ「おまえにそんなことまで知っていて欲しくない」)。

なので私たちは、ピチャイの「パーソナルGoogle」ピッチの中にセキュリティとプライバシーに関する言及が全く無かったということに驚くべきではないし、消費者がハードウェアと引き換えにプライバシー(と現金を)渡す際に、彼らが実は決心しなければならない巨大なトレードオフについてGoogleが説明し損なったことを見逃すべきではない。

徐々に親密な関係をGoogleとの間に築いていくこととの引き換えに、消費者が期待する巨大な「利便性」に関しては、まだほんのわずかの実体しかない。

「まだほんの初期段階ですが、全てが一体として動作したときに、Google Assistantはあなたが仕事をやり遂げるお手伝いをすることができるようになります。必要な情報を、必要なときに、どこにいたとしても、取り寄せることができるのです」とピチャイは書いている。頼りにならない曖昧な約束ランキングとしては高得点をつけるに違いない。

彼は「次の10年の間に、ユーザーに対して驚くようなことを提供できる」ことに関しては「自信がある」と付け加えた。

言い換えればこうだ、あなたのデータの扱いに関しては私たちを全面的に信頼して欲しい!

ううーん。

今週EFFも、いかにAIがユーザーのプライバシーと衝突するかについてGoogleを非難している、特に最近のプロダクトAlloメッセージングアプリがその対象だ。そのアプリにはGoogle Assistantも組み込まれていて、ディフォルトでAlloはAIを利用するので、アプリはエンドツーエンドの暗号化をディフォルトでは提供しない。単なるオプションとして提供されるだけだ。この理由は勿論、Google AIがあなたのメッセージを読むことができなければ、Google AIは機能することができないからだ。

Alloがエンドツーエンドの暗号化を「めだたない」ところに押し込んでいるやり方が批判の対象になっていて、EFFはそれをユーザーを混乱させ、機密データの漏洩に繋がるものではと考えている。そしてGoogleを「ユーザーに対して暗号化というものは、たまに使えばいいものだという考えを植え付ける」として非難しているのだ ‐ そしてこのように結論付けている:「より責任あるメッセージングアプリは、機械学習とAIではなく、セキュリティとプライバシーがディフォルトであるべきである」。

さて、それがGoogle HomeなのかGoogle Alloなのかはともかく、Googleは消費者たちに比類なく便利なAI駆動の魔法体験を約束している。しかしそのためには厳しい問いに答えなければならない。

このアドテックの巨人は、そのプロダクト体験を支配してきたように、物語を支配しようと努力している。GoogleのCEOは「驚くべきこと」がパイプを下って、皆がGoogleを信頼しデータを委ねる世界にやってくると語っただけで、小説1984のビッグブラザー(監視機能を備えたAI)の世界に迫っていると言ったわけではないが、Googleのプロダクトは同じくらい不誠実なものだ;ユーザーにより多くを共有させ、より考えることを減らすことを促すようにデザインされているという意味で。

そして、それは本当に責任ある態度とは逆のものだ。

だからノー。Not OK Google。

[ 原文へ ]
(翻訳:Sako)

ディープラーニングが計算機の視覚に果たす役割

Close Up of blue eye with computer circuit board lines, digital composite

【編集部注】著者のClaire Bretton氏はdaco.ioの共同設立者の1人である。daco.ioはディープラーニングを使ったユニークな競合トラッキングツールを開発するするスタートアップである。以前、彼女はパリに拠点を置くトップ戦略コンサルティング会社のマネージャーだった。ESCPヨーロッパから修士号を取得している。

21世紀の最大の課題の1つは、コンピューターをより人間の脳に似たものにすることだ。私たちは彼らに話し、理解し、そして問題を解いて欲しい – そして今、私たちは画像を見てその内容を認識して欲しいと思うのだ。

長い間盲目だった私たちの最も賢いコンピューターたちは、今や見ることができるようになった。

これは、ディープラーニングによって可能になった革命である。

機械学習:最初のステップ

機械学習を理解することはとても容易だ。そのアイデアは、大規模なデータベース上でアルゴリズムを訓練して、新しいデータに対して得られる出力を予測できるようにすることだ。

ここでは単純な例を示そう:私たちは樹齢を直径を使って予測したい。このデータベースには3種類のデータだけが含まれている:入力(x, 木の直径)、出力(y, 樹齢)、そして属性(a, b:木の種類, 森の位置)だ。これらのデータは、1次関数y = ax + bによって関連付けられている。このデータベースを使った訓練を通して、機械学習アルゴリズムは、xyとの間の相関関係を理解して、属性の正確な値を定義することができるようになる。この訓練段階が完了すると、コンピューターは、新たな直径(x)から正しい樹齢(y)予測することができるようになる

これは、過度に単純化した説明だが、画像認識について説明するときにはもっと複雑なものとなる。

コンピューターの場合、画像は数100万の画素の集まりだ – それは沢山のデータ処理を必要とし、1つのアルゴリズムで処理するには多すぎる入力である。そこで研究者たちはショートカットを見つけなければならなかった。最初のソリューションは、中間の特性を定義することだった。

コンピューターに猫を認識させたいと想像して欲しい。まず初めに、人間は主要な猫の特徴を全て定義しなければならない:丸い頭部、2つの尖った耳、1つの鼻…こうした主要な特徴が定義されれば、良く訓練されたニューラルネットワークアルゴリズムは、十分なレベルの正確さで、画像を分析しそれが猫であるか否かを判断することができる。

ミリリットル、猫

では、より複雑なアイテムを選んだ時にはどうなるだろう?

たとえば、ドレスをどのようにコンピューターに説明すればよいだろう?

ML-キャラ

あなたはここで画像認識のための基本的な機械学習の、最初の限界に突き当たったということだ:100パーセントに近い認識ポテンシャルを持つ識別特徴を定義することは、しばしば不可能なのである。

ディープラーニング:人間の介入なしに、見て学ぶ

2000年代になって、Stanford大学のAI LabとVision LabのディレクターであるFei-Fei Liが、重要な直感を得た:子供たちはどのようにものの名前を学ぶのだろうか?彼らはどうやって猫やドレスを認識することができるのだろう?両親いちいち特性を示しながら教えるわけではない、その代わり子供が対象を見るたびに、その物/動物の名前を教えるのだ。親たちは、視覚的な例を使って子供たちを訓練している。なぜ私たちは同じことをコンピューターに対してできないのだろう?

しかし、このとき2つの問題が残っていた:データベースの存在とコンピューティングパワーだ。

まず、「コンピューターに見ることを教える」ための十分に大きなデータベースはどのように入手することができるだろうか?この問題に取り組むため、Liと彼女のチームは、Image Netプロジェクトを2007年に立ち上げた。180カ国の50000人以上の人と協力して、彼らは世界最大の画像データベースを2009年に作成した:22000のカテゴリをカバーした、1500万枚の命名と分類が成された画像群だ。

コンピューターは今大規模な画像データベースで自分自身を訓練し、重要な特徴を特定することができるようになっている、そしてそれには人間の介入が不要なのだ。3歳の子供のように、コンピューターは名前の付いた数百万枚の画像を見て、自分自身でそれぞれのアイテムの主要な特徴を理解する。これらの複雑な特徴抽出アルゴリズムはディープニューラルネットワークを使い、何十億というノードを必要とする。

mlのドレス

これはディープラーニングの始まりに過ぎない:私たちはなんとかコンピューターが3歳児のように見ることができるようにした。しかしLiがTED talkで話したようにまだこれからなのだ:「本当の挑戦はこれからです:私たちはどうすればコンピューターを3歳から13歳に、そしてそのはるか先へ進めることができるでしょうか?」

[ 原文へ ]
(翻訳:Sako)

Yahooがポルノを検出するニューラルネットワークをオープンソース化、ただし訓練はあなたの仕事

nsfw_score

インターネットの上のものに、どうやってNSFWを指定するのか? Yahooに聞こう。Yahooはそれをやっている。わいせつなコンテンツで訓練した、同社特製の、ポルノ検出ニューラルネットワークだ。そして今回、そのシステムがオープンソースになったから、誰もが使える。そう、そのとおり、フォークするのも自由だ。

それはもちろん冗談。Yahooのアルゴリズムは万能ではない。画像を見てNSFWだ、と判断するのは、もっとも手強い難問の一つだ。昔から、見れば分かるさと誰もが言うが、そう言える人は、全生涯をポルノを見て過ごした人だけだ。コンピューターには、そんな経験はない。

純潔無知なマシンもしかし、Yahooに捕まって何千もの画像で訓練され、画像認識エンジンにされてしまうと、腐敗のきわみに達する。もう、彼の純情は永遠に盗まれてしまった。しかしそれと引き換えに、あなたがネットで検索したとき、結果にいやらしいものが紛れ込む確率は低くなる。

でも、まじめな話、畳み込みニューラルネットワーク(convolutional neural networks, CNN)は画像を分類するための優れたツールだ。そのことは、これまでの数多い研究によって証明されている。特定のタイプの画像のデータベースで訓練すると、アルゴリズムは一定のパターンに対して敏感になる。犬を見分けるCNNなら、尻尾や鼻や、とがった口をたくさん見せられるだろう。車なら、車輪やドアの取っ手やラジエーターグリルを認識する。そしてポルノなら何を、…それはご想像におまかせしよう。

Yahooのシステムはいろんな画像を見て、それらに0から1までの点をつける。ポルノだと判断した画像の点は、1に近い。検閲目的だけでなく、いろんな状況で使えそうだ。刺激的な画像が歓迎される場面もあるが、Web上の大量のデータを相手にするときは、それらを篩い落とせた方が便利だ。

メールやメッセージを、プライバシー侵害にならずに、チェックすることもできる。同僚がいたずらで送ってきたNSFW画像を、職場でうっかり開く醜態は、たぶんなくなる。

オープンソースのコードをビルドしてエンジンができても、まだそれは全然訓練されていない。たくさんポルノを見せて訓練するのは、あなたの役目だ。でも今のインターネットの上なら、それは問題ないだろう。詳しい説明はYahooのブログ記事にある。そしてコードのダウンロードはGitHubからだ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Google、クラウド・プラットフォームで機械学習サービスをベータ公開―衛星写真修正にも活用

2016-09-30-google-ai-urs-hoelzle

今朝(米国時間9/29)、サンフランシスコで開催された小さなイベントでGoogleはクラウド・コンピューティング・サービスを新しいプラットフォームに移行させることを発表した。このアップデートにはデータベース、アナリティクスに加えて機械学習サービスも含まれている。

今日の発表でGoogleが力を入れていたのは明らかに機械学習関係だ。機械学習は数ヶ月前から非公開のアルファ版としてテストされてきたが、Googleの機械学習インフラのボス、Urs Hoelzleは「今日からCloud Machine Learningは公開ベータ版としてすべての企業、教育機関から利用できるようになった」と発表した。

ml-lead-1

このサービスではユーザーは機械学習モデルを独自のデータ訓練できる。データセットがテラバイト級のサイズであっても訓練には数時間しかかからないという。

Googleのクラウド機械学習には2つのサービスが含まれる。困難な問題に遭遇したユーザーはGoogleのMachine Learning Advanced Solutions Lab〔機械学習先進ソリューション・ラボ〕に解決法を尋ねることができる。またクラウド・スタート・プログラムは独自の課題の解決法を求める企業に対し、機械学習の基礎を学べるワークショップを提供する。

またGoogleはクラウドの各種専門家の認定制度もスタートさせており、 Googleが社内のエンジニア向けに開発したものをベースとした教育を受け、所定の基準を満たせばその証明を得ることができる。対象はGoogleのパートナー、ビジネス・ユーザー、データ・サイエンティストだ(ただし認定には誰でも応募できる)。

こうした仕組みを見れば、Googleは機械学習に触れる機会を広げることによって一般への普及を加速させようとしていることが明らかだ。もちろんGoogleのライバル、MicrosoftやAmazonなども同様の試みを行っている。しかし現在のところ機械学習でGoogleのような高い評価を得ている企業は他にほとんどない。

今朝のキーノートでHoelzleは「たとえベータ版であっても Google機械学習は信じられないほどの効果を発揮する」と述べた。このカンファレンスでGoogleは長い時間をかけてAirbusのようなパートナーがGoogle MLシステムを利用していかにプロダクトの改善に成功しているかを説明した。

同社のマネージド・データウェアハウスであるGoogle BigQueryもアップデートを受けた。たとえばユーザーは今後は標準的なSQLクエリーを用いてデータ検索を行うことができる。BigQueryを利用すれば、ユーザーは自社のビッグデータへのアクセスが容易になる。またGoogleは月額定額制のシンプルな料金制度を発表した。これには無制限のクエリー発行とサポートが含まれる。データの保存料金は別途サイズに応じて決定される。

サービス自体のアップデートの他に、Googleはユーザーへのサポートも改良している。ユーザー企業はGoogleのCustomer Reliability Engineering〔顧客信頼性エンジニアリング〕チーム(クラウド・プラットフォーム・グループ中の新組織)を利用できるようになった。これによりユーザー企業はGoogleのエンジニアと直接に共同作業を行うことができ、「クリティカルなクラウド・ソフトにおいて信頼性と運営の責任をGoogleと共有することができる」という。例えばGoogleのエンジニアはPokémon GOのローンチ時にNianticを直接サポートしたという。

google-cloud-cre

〔日本版〕Googleのブログによれば、記事中のパートナーはAirbusの子会社のAirbus Defense and Spaceで、雲などの衛星写真の欠陥を発見し、修正する作業の精度と効率を機械学習が大幅にアップさせたという。なおGoogleのクラウド・サービスの日本語ページはこちら

[原文へ]

(翻訳:滑川海彦@Facebook Google+