文章が読めるチャットボットを開発するMaluuba

7978175055_fcd47665e5_o

MaluubaがSiriのようなパーソナル・アシスタントを最初にローンチしたのは、4年前サンフランシスコで開催されたTechCrunch Disruptのイベントにおいてだった。それ以来、同社は1100万ドルの資金を調達し、そのテクノロジーを多数の携帯製造会社にライセンスした。それらの会社はそのテクノロジーを使って、自社の携帯にパーソナル・アシスタント機能を実装している。

Maluubaの製品部門のトップであるMo Musbahによると、同社は直近の2年間を、ディープラーニングを自然言語処理の局面で利用する方法の開発に投じてきた。それに関連して一例を挙げると、同社は最近モントリオールに研究開発の為のオフィスをオープンした。「そこにおける私たちのビジョンは、ディープラーニングでの世界最大の研究施設を作ることです」とMusbahが言った通り、同社が野心に欠けるということはなさそうだ。

同社が研究開発に注力する余力があるのは、同社のボイス・アシスタント関連のOEMビジネスが着実に収益をもたらしてくれるからだ。本日同社はこの研究開発の成果を始めてお披露目してくれた。

2016-09-22_1358

同社の研究チームは過去数年間に渡り、文章を与えれば、その文章について自然言語形式で尋ねることが出来るようなシステムを構築してきた。今あなたが読んでいるこの文章を例にとれば、「Maluubaの製品部門のトップは誰?」といった風に質問することができ、システムは正しい答えを返してくる。

現在残念ながらまだ一般公開には至っていないものの、Maluubaの動作はこんな具合だ。

実際のところ、この問題を解決するのは大変難しい。というのも、このシステムは多くのトレーニングの恩恵を受けることなく、うまく動く必要があるからだ。この種の機械学習こそが今日のパーソナル・アシスタントをずっと賢いものにする手助けになるものだと研究チームは信じているのです、とMaluubaの研究部門のトップであるAdam Trischlerは私に語った。「我々が気づいたことが2つあります。まず最初に、いま使われているパーソナル・アシスタントは根本的に機能してません。外から知識を持ってくることは出来ません」と、彼は言った。「次に、会話がほとんど出来ないという点が挙げられます。我々は会話をしたいし、それができるシステムこそより強力なシステムと考えています」

ここで彼が言っている問題とは、例えばSiriやグーグル・アシスタントなどにそれらのサービスの守備範囲外の質問をした場合、ユーザーはそのウェブサイトに飛ばされてそこで検索をすることになる。もしアシスタントが実際にそれらのまとまりのない文章を理解できれば、そのサービスの答えることができる質問の数はずっと多いものとなるだろう。リアルタイムにそれを実現できるのなら、なお良い。Maluubaのテクノロジーを使えばそれが実現でき、それは非常に大きな前進だ。とりわけ、システムが外部の情報に頼らずに、与えられた文章を解析することだけで質問に答えることができるとすれば尚更だ。
[原文へ]

(翻訳:Tsubouchi)

それで良いのかGoogle(Not OK, Google)

0108

昨日サンフランシスコで開催されたハードウェアの発表イベントで、Alphabetは、更に幅広く消費者の個人データ(それも、これまで以上に個人的な性質の情報の)収集に向かう野心を表明した。この先コンピューティングが静的なデスクトップやスクリーンを離れ、相互結合したデバイスのクラウドと合体し、更なるデータの生成に向かう動きを加速するためである。

新しい2種類の「Googleデザイン」旗艦Androidスマートフォン(Pixel)と共に、同社のAIアシスタント(Google Assistant)が最初からインストールされたAndroid、そしてユーザーの写真とビデオをGoogleのクラウドに吸い上げる容量無限のクラウドストレージも提供され、また厄介な家庭内のインターネット接続をすべて引き受けるGoogle Wifiルーターもある; Google Homeは常に接続されたスピーカーを通して耳を澄ましていて、Google Assistantを介して声で制御され、またサードパーティ製のIoT機器(たとえばフィリップスのHue電球)を制限付きだがサポートする;新しくなったChromecast(Ultra)は任意の古いTVパネルをインターネット利用可なものにする;そして、Googleの使い捨てではない携帯VR再生機、別名ソフトタッチDaydream Viewヘッドセット がある ‐ 万一消費者の目がデータ収集型スマートホームの外へさまよい出たいと思ったときに、逃げ込むための仮想現実を提供するために。

GoogleブランドのためにAlphabetが描く野望は明快だ:Googleの情報整理頭脳を家庭の中心に埋め込みたいのだ ‐ すなわち、消費者たちにとって高度な個人データを定常的にそこに流し込まない選択肢を選ぶことが不可能になるということだ(もちろん、Google Homeにはミュートボタンがついている、実際にはそれが音量を喋ることを止めるためにボタンを押す必要があるが…)。

言い換えれば、あなたの日々の活動が、Googleの活動そのものなのだ

「私たちはモバイルファーストの世界からAIファーストの世界に移りつつあります」と、昨日のイベントのキックオフでCEOのサンダー・ピチャイは語った。そしてAIは、もちろん、これまでの技術が持っていなかったようなデータへの食欲を持っている。機械学習は、自身の有用性を手に入れるために情報を必要とする。手探りでは機能できない、データ駆動型の領域なのだ。

よってAlphabetのハードウェアのためのビジョン「Made by Google」は、消費者たちに対して利便性の誓いを販売することである。そして、全てを接続するデバイスと共にこの販売ピッチが、パーソナルスペースをユーザー情報データベースへと変容させ、この先何十年にも渡って広告エンジンに燃料を供給し続けることが可能になるのだ。

Made by Google

デジタル消費者の大部分の問い合わせと好奇心が1つのGoogleブランド検索エンジンに注ぎ込まれるようになったとき、私たちは現代の情報社会のはるか奥深くに入り込んでしまったことになる。このため、Alphabet(以前はGoogleのブランド名を身に着けていた)はとても長く険しい道をAndoridを広くそして深く普及させるために突き進み、電話を超えて幅広いハードウェアの世界にたどり着いたのだ。

そして今、Alphabetはそのプロセスを、よりシンプルなデスクトップウェブの時代と同様に、Googleを手放し難くすためのAI駆動の消費者向けサービス層を用いて、加速しようとしている。

ということで、昨日の大規模なコネクテッドハードウェアのお披露目大会は、実際には、IoT時代に向けて、Googleブランドを頼りになるキーワードとして再活性化し、位置付けの再確認を行わせるためのものでもあったのだ。

特に、AmazonのAlexaやAppleのSiriといったライバル仮想アシスタント技術とは異なり、Alphabetはしっかりと消費者向けのAI界面の端にGoogleブランド名を保持している。そのスマートホームやAIアシスタントを購入した者に、Googleブランド名を文字通り、毎日毎時間声で与えることを要求するのだ。

「OK Google、子供の寝室のライトを消して…」

うーん。

個人的にはそれだけで十分不愉快だ。しかし本当の意味で「not OK, Google」なのは、急速に浮かび上がってきたプライバシーに関するトレードオフなのだ。そしてアルファベットが、こうした懸念を無視していくやりかたも。

「私たちは、あなたが身の回りの仕事を片付けることのお手伝いをしたい」というのが、Googleブランドのスマートホーム、そしてGoogle AI一般についてのピチャイのピッチだった。

「誰でも、何処でも役に立てることのできるパーソナルGoogleを構築することに私たちは興奮しています」というのが、なりふり構わぬAIへの突進に話を添える、彼のまた別のマーケティングフレーズだ。

その通り – 彼は文字通り、このように言っている…

彼が言っていないことの方がはるかに興味深い。すなわち、お好みのレストランを予測したり、通勤経路上の支障がどのようなものかを尋ねたりできるような「カスタムな利便性」の約束を果すためには、あなたの個人情報、嗜好、嗜癖、ちょっとした過ち、偏見…そうしたことを限りなく収集し、データマイニングを継続的に行うことになるのだ。

AIが、データの要求を止めることはない。気まぐれな人間が関心を失いがちな点である。

なので、「誰でも、何処でも役に立てることのできるパーソナルGoogle」構築の対価は、実際には「誰でも、何処でもプライバシーゼロ」ということなのだ。

なので、「誰でも、何処でも役に立てることのできるパーソナルGoogle」構築の対価は、実際には「誰でも、何処でもプライバシーゼロ」ということなのだ。

さてそう考えると「OK, Google」という言葉も、それほどOKには響かないような気がしてこないだろうか。

(同僚の1人が以前、Google Assistantの前身であるGoogle Nowをオフしたきっかけを語ってくれた。彼が日曜の夜に時々行くバーへの到着時刻を、頼まないのに教えてくるようになったからだ。彼はこう付け加えたそうだ「おまえにそんなことまで知っていて欲しくない」)。

なので私たちは、ピチャイの「パーソナルGoogle」ピッチの中にセキュリティとプライバシーに関する言及が全く無かったということに驚くべきではないし、消費者がハードウェアと引き換えにプライバシー(と現金を)渡す際に、彼らが実は決心しなければならない巨大なトレードオフについてGoogleが説明し損なったことを見逃すべきではない。

徐々に親密な関係をGoogleとの間に築いていくこととの引き換えに、消費者が期待する巨大な「利便性」に関しては、まだほんのわずかの実体しかない。

「まだほんの初期段階ですが、全てが一体として動作したときに、Google Assistantはあなたが仕事をやり遂げるお手伝いをすることができるようになります。必要な情報を、必要なときに、どこにいたとしても、取り寄せることができるのです」とピチャイは書いている。頼りにならない曖昧な約束ランキングとしては高得点をつけるに違いない。

彼は「次の10年の間に、ユーザーに対して驚くようなことを提供できる」ことに関しては「自信がある」と付け加えた。

言い換えればこうだ、あなたのデータの扱いに関しては私たちを全面的に信頼して欲しい!

ううーん。

今週EFFも、いかにAIがユーザーのプライバシーと衝突するかについてGoogleを非難している、特に最近のプロダクトAlloメッセージングアプリがその対象だ。そのアプリにはGoogle Assistantも組み込まれていて、ディフォルトでAlloはAIを利用するので、アプリはエンドツーエンドの暗号化をディフォルトでは提供しない。単なるオプションとして提供されるだけだ。この理由は勿論、Google AIがあなたのメッセージを読むことができなければ、Google AIは機能することができないからだ。

Alloがエンドツーエンドの暗号化を「めだたない」ところに押し込んでいるやり方が批判の対象になっていて、EFFはそれをユーザーを混乱させ、機密データの漏洩に繋がるものではと考えている。そしてGoogleを「ユーザーに対して暗号化というものは、たまに使えばいいものだという考えを植え付ける」として非難しているのだ ‐ そしてこのように結論付けている:「より責任あるメッセージングアプリは、機械学習とAIではなく、セキュリティとプライバシーがディフォルトであるべきである」。

さて、それがGoogle HomeなのかGoogle Alloなのかはともかく、Googleは消費者たちに比類なく便利なAI駆動の魔法体験を約束している。しかしそのためには厳しい問いに答えなければならない。

このアドテックの巨人は、そのプロダクト体験を支配してきたように、物語を支配しようと努力している。GoogleのCEOは「驚くべきこと」がパイプを下って、皆がGoogleを信頼しデータを委ねる世界にやってくると語っただけで、小説1984のビッグブラザー(監視機能を備えたAI)の世界に迫っていると言ったわけではないが、Googleのプロダクトは同じくらい不誠実なものだ;ユーザーにより多くを共有させ、より考えることを減らすことを促すようにデザインされているという意味で。

そして、それは本当に責任ある態度とは逆のものだ。

だからノー。Not OK Google。

[ 原文へ ]
(翻訳:Sako)

Samsung、Siriの製作者が開発する次世代型AIシステム「Viv」を買収

tcdisrupt_ny16-8942

SamsungVivを買収することに合意した。VivはAIのアシスタントシステムで、Dag Kittlaus、Adam Cheyer、Chris Brighamが共同創業した会社だ。彼らはSiriを制作し、2010年にAppleに売却している。この3人は、AppleがSiriを買収した翌年にAppleを去り、2012年にVivを創業した。買収額は分かっていないが、情報が入り次第お伝えしたい。

VivはSiriより拡張的で、強力なバージョンとして開発された。

Vivは買収後も独立した会社として運営を続け、Samsungと彼らのプラットフォームにサービスを提供するという。

Vivの特徴は2つある。1つは相互に連携する性質だ。Siriといった他のエージェントは最近になってようやく、それぞれ分断された情報をアプリやサービス同士でやりとりし、ユーザーの一連の指令と結びつけることができるようになってきている。これにより、人が実際に話すのに似た会話形式の複雑なクエリにも対応することができるようになる。

2つめは、Vivのバックエンドシステムのプログラムの性質にある。プログラム合成からの「ブレークスルー」ができるようになり、VivのAIは新しいタスクをこなすのに、独自のコードを自ら書くという。「自らを構築するソフトウェア」は、複数の点において新しい概念と言えるものではないが、早くにAI分野でこの技術を発表し、大きな反響を呼んだ会社の1つがVivだった。Vivはこれを「ダイナミック・プログラム生成」と呼び、Vivがユーザーの意図を理解し、過去に行っていないタスクでも、進行しながらタスクを実行するためのプログラムを作成することを可能にする。

Vivは今年開催されたDisrupt NYカンファレンスで、初めてこのシステムをライブデモで披露した。

「全ての指令をコードで書く代わりに、何をしてほしいか説明するだけでいいのです」とデモの後、Kittlausは私のインタビューで話していた。「Vivのアイデアは、開発者はすぐに欲しいと思う体験を構築できるようにすることです」。

KittlausがAppleを去った時、彼は「Siri Is Only The Beginning(Siriは始まりにすぎない)」という記事を書いた。その中で、彼は「AIでカンブリア爆発が起きます。数多の既存システムと新規のシステムでAIが活用されるようになります」と記した。

「ユビキタスであること」。Kittlausは、VivがSamsungの傘下になった理由としてそう話す。なぜSamsungなのかと彼に聞いたら、彼はこう説明した。

「彼らは1年で5億台の端末を出荷しています。前回登壇した時、あなたは私たちの目標について聞いたと思います。私はユビキタスであることと答えました。

近年、市場で何が起きているかを見た時、そしてVivを広く届けるための準備ができたことを鑑みると、これが理にかなうことだったのです。私たちのビジョンはSamsungの事業と一致し、私たちのコアテクノロジーという資産を広く届けることを考えた時、今が最適な時期で、Samsungが最適なパートナーでした」。

Samsungはもちろん、スマートフォンの売上高をめぐってAppleとトップシェアの座を競っている。単体のメーカーとして、Appleに挑戦している競合は彼らだけだ(利益に関してはAppleに遠く及ばない)。Samsungのスマホは売上不振により、利益もしばらくの間低調だったが、最近発表した2つの盤石なモデルで持ち直しつつあった。だが、その売上はバッテリーの爆発でリコールしているGalaxy Note 7のために台無しになった。

それ以外でも、Samsungは自社スマホのソフトウェアの運命をどのように進めるかという難題を抱えている。Googleはますます直接的な競合になりつつある(少なくともGoogleはそうなる施策を打っている)。Samsungにとっては、Tizenや他のAndroidベースのソフトウェアパッケージを使用するより、自社のハードウェアとそのためのソフトを所有する方が未来は明るくなるだろう。Googleのアップデートや機能を借り受けなくてもよくなる。

「この買収はモバイルチームが行ったものですが、他の全てのデバイスにこれを適応することの意義も明らかです」と SamsungのSVPを務めるJacopo Lenziはインタビューに答えた。「私たちから見ても、クライアントから見ても、Samsungの全体で持つスケール感を活かすことで、この取り組みの意義と本当の力を引き出すことができます。また、私たちとコンシューマーとの豊富なタッチポイントも活かすことができます」。

Vivを買収することで、SamsungはSiriとGoogle Assistantと競合するのに十分な力を得ることができる。1つ難点は、Vivはまだローンチしていないということだ。現実世界でVivが通用するかどうか、現時点で言及することはできない。ただ、この12ヶ月の間で、AI駆動のアシスタントがいかなるモバイルプラットフォームでも役立つかが分かってきた。AppleのAirpodsは長時間着用可能で、複数のビームフォーミングを行うマイクでは正確な音声入力を実現し、Siriと驚くほど相性がいいということが分かった。もしSamsungがこの領域で競合を買いたいのなら(当たり前のようにそう思っているだろう)、Vivと彼らのチームを買収するのはこれ以上ない選択肢だ。

この買収はモバイルグループが行ったものの、それ以上に連携できる可能性も大いにある。Amazon Echo、Google Home、Appleのスマートホームハブがそれぞれのサービスを仕込んでいる様子を見れば、大手企業がいかに熾烈にユーザーの自宅のテーブル上のスペースを巡って競っているかがわかる。Samsungの発表は、モバイルやウェアラブルの他にも、自宅にある家電にも注目を集めさせる内容だ。

Samsungは2014年、およそ2億ドルでSmartThingsを買収している。Vivというクロスプラットフォームの不可知な知性を、SmartThingsの主力となる製品群にも実装するというのは理にかなう話だ。さらに、Samsungは洗濯機や冷蔵庫といった家電も多く扱っている。「IoT」はどんどん従来の意味での「IoT」ではなくなるだろう。「IoT」なんてアホらしい名称もそろそろなくなるだろう。実際には、ほとんど全てのものが通信機器やマイクロプロセッサーを搭載し、端末がユーザーと周りの状況を把握することでユーザーの生活に溶け込むことを保証するようになる。

「具体例はありませんが、私たちはAIがカスタマー体験を進化させるだろうと考えています。特にAIを端末やそのシステム、あるいはIoTに組み込むほど、それが顕著になるでしょう。ここで重要なのは、ユーザーがこのようなテクノロジーと本当に関わりたいと思う方法を実現することです。それはシンプルな会話形式のインターフェイスです」とLenziは言う。

ここでいう知性とは、単に端末の知性ではなく、それらをコントロールする頭脳のことであり、Vivはその知性を与えることができるだろう。

Googleがさらに機能を追加しているAndroid、あるいはiOSとの差別化を図るために、SamsungはVivを自社のエコシステム内に閉じ込めるかと、私はKittlausに聞いた。

「それは絶対にありません。このシステムと理念は、できる限りオープンであり、できる限り多くの部分に価値を付加していくことにあります。もちろん、Samsungが持つサービスとデバイスの両方における存在感をフルに活用し、それらと連携することで、体験を本当に良くできると思います」と彼は答えた。

「これに取り組み始めた最初の日から、私たちが目指しているのは、前回登壇した時に話したように、世界がこのシステムを使って新たなマーケットプレイスを形作ることです。それが次のパラダイム、ウェブサイト、モバイルアプリ、そして今回はこの取り組みにつながりました」。

「今、人々が市場で見ている基本の状態から、世界中の異なるマーケットの異なる端末を用いて人々が自分からこのシステムにプラグインするために、オープンなシステムが必要です。そのようなスケールが実現した時、このアシスタントがユーザーのために何ができるようになるか想像してみてください」。

「アシスタントがこなせるタスクの数は、数十から千になり、万になり、将来的にはもっと増えるでしょう。そのようなスケールに達するために必要なのは、そのために必要な多様なテクノロジーやプラットフォームを考えぬくことです。私たちは過去4年間、それに費やしてきました」。

Samsungが単に自社のプラットフォームにAIアシスタントを加えること以上の施策を検討していると考えるなら、その証はすでにいくつかあるようにも思える。プレスリリースには、「VivでSamsungはカスタマーに対し、新たなサービス体験を提供することが可能になります。例えば、ユーザーインターフェイスをシンプルにし、ユーザーの状況を理解して、ユーザーにとって最も適切で、有意義な提案やレコメンドができるようになります」とある。

宣伝文句でもあるが、この先を予見させる言葉でもある。

Samsungの様々な端末のソフトウェアにVivを搭載した場合、どのように他社との差別化につながるか、とKittlausに聞いた。彼は「外には広大なエコシステムが広がっています。この取り組みでは、私たちはポスト・アプリ時代に向かってゆっくりと進み出すということが1つです」と言った。

「Samsungはこの全く新しい分野を牽引できる位置につけています。どこからでも利用できるアシスタント、シームレスなインタラクション、会話型のコマース、私たちがこれまで話してきたことが実現するためには、新たなバックボーンが必要です。これらを組み合わせることで、クリティカルマスを獲得する機会が得られます」。

SamsungによるVivの買収は、AppleやGoogleが提供するような音声駆動のアシスタントを開発するためというよりも、音声駆動のインターフェイスを作るためということなのだろう。それは、スマホ、ホームハブ、ドアノブ、冷蔵庫に至る全ての端末に一貫して存在することになるのかもしれない。AIでカスタマーを獲得し保持することを目指す、少数の会社と同様にSamsungをそれを目指しているのだろう。

もし、Apple、Amazon、GoogleがAIをOSやデバイスの中核に据え、デバイスは単にそのコアに紐づく電化製品というコンセプトを煮詰めることができるなら、私たちにもできないことではないというのがSamsungの考えのようだ。

[原文へ]

(翻訳:Nozomi Okuma /Website

PixelはこれからのGoogleそのものを体現したものだ、Andoroidではなく

pixel

Googleは今日、沢山のデバイスを発表した、しかし、ほぼすべてのものの中心として特に言及されたのはAssistantへの注力と、Googleのサービスの品揃えが提供できるものに関する説明だった。私は今、衛星回線を使ったキーノートを見た後、ここトロントでGoogleカナダの広報責任者であるAaron Brindleと、今のGoogleにとってハードウェアはどのような意味を持つのか、そして人工知能と機械学習に関する同社の仕事が、そのデバイスとどのように組み合わされるのかについて話し合った。

「今日の最も重要なメッセージの1つは、Googleがとても真剣にハードウェアを取っているということです」と、Brindleは語った。「Androidのエコシステムを通して私たちが知ったことは、イノベーションの速さは本当に驚くべきものだということです – 日々Androidを使っているユーザーが14億人もいるのですよ。しかし、ユーザの方々にベストAndroidを提供することが目的ではありません。私たちの狙いはベストGoogleをユーザーの方々に届けることなのです。だから、私たちはAIとMLの周りでやっている投資や研究のすべてを、ハードウェアの頭のてっぺんからつま先までに詰め込んでいるのです」。

Brindleは、AndroidのOEMパートナーによって行われている偉大な仕事がたくさんあることを認めた上で、Google自身は消費者に提示できる追加オプションを探し続けていると語った。また彼は、Googleがデバイスメーカーとしてハードウェアとソフトウェアに注力するだけでなく、ビジネス面でのセールスとマーケティングの重要性にも気が付いていることを示唆した。

「Androidの世界で、1つの機種がすべてをまかなうことができないことは事実です。私たちは何かをナットとボルトのレベル(基礎レベル)から作り上げるところに大きなチャンスがあると思っているのです」と彼は語った。「ソフトウェアとハードウェアだけではなく、マーケティングやサポート、そして小売の手段、私たちが何か欠けていると感じたもの全てです」。

私たちがこの先実際の小売店舗を見続けられるかどうかはともかく、Googleは既にウェブを通した機器販売においては、米国内で150ドル以上の購入をオンラインGoogle Storeで行った購入者に対して、新しい分割払いオプションを提供している。

Screen Shot 2016-08-25 at 1.53.58 PM

小売の経験は、Googleのハードウェアに対する新しいアプローチの一部だ。

Assistantがどのように働くのか、そしてその印象的な賢さはどこから得られるのかについては、BrindleはそれがPixelの中核であると述べ、そしてつい最近改善されたGoogleのAIの能力によって、こうしたことが可能になったことを説明した。

 「Assistantがこのデバイスの隅々までを満たし、またその中核であるとお聞きになったことでしょう。これが新しい電話の看板なのです」と彼は説明した。「これはAIの進歩に基づいています – 本当に驚異的な進歩です。最後のNexusからの1年という意味ではなくて、ここほんの数ヶ月のことなのです。例えば、翻訳や画像認識などの進化です」。

Brindleは、カナダのこの領域におけるリーダーシップを考えると、この国におけるGoogleの活動がこれらの取り組みの実際の中核であると述べた。

「そうした研究のすべてが、私たちがAIの中で行っている仕事から来ています。そしてAI領域の最高の研究者の何人かはここカナダを拠点としてるのですよ」と彼は続けた。「だから[Googleの特別研究員の]Geoffrey Hintonの機械学習に関する業績、特にニューラルネットに関する彼の仕事との統合と、それが私たちのAIの進化を促した方法、それが全てそこにあるのです」。

Googleのアプローチは、単にエンドツーエンドの携帯電話の体験を与えるだけでなく、そのプラットフォーム次世代体験を届ける包括的アプローチを作り上げようというものだ。それはAI(人工知能)とML(機械学習)を基礎として構築され、PixelやPixel XLのようなデバイスを完璧に適合した配信手段として利用しようとするものだ。これはまだ転換点そのものではないが、これは間違い無くGoogleの自身のアイデンティティとビジネスに対するアプローチの大転換を示唆するものである。

[ 原文へ ]
(翻訳:Sako)

Amazonの新しいFire TV Stickはクアッドコア搭載、Alexa対応のリモコンも付属

firestick

ゆっくりと、しかし着実に、Amazonは音声認識AIソフトウェア「Alexa」の機能を、数ある自社製ハードウェア製品に組み入れつつある。数週間前、Amazonはこの音声アシスタント機能を米国で提供中のTVストリーミング向けハードウェアソリューションに導入すると発表した。ここでいうハードウェアには上位機種のFire TVから、より小型でドングルベースのFire TV Stickなどが含まれる。

Fire TV Stickの新たに発表されたバージョンでは音声認識機能が組み込まれ、「Fire TV Stick with Alexa Voice Remote」という、さらに長くなった新名称での発売となる。このちょっと呼びづらい新バージョンの販売価格は前バージョンから据え置きの40ドルで、音声認識対応のリモコン(以前は単体で30ドルした)が付属している。リモコンからは音声コマンドでアプリの起動、プログラム検索、チャンネル選択などを操作できる。

視聴中のコンテンツがフルにAmazon対応の場合には、Alexa経由で早送りや早戻しも可能だ。またAmazon Echoベースの機能にも対応しているので、ユーザーは天気予報、宅配メニュー、ニュース、映画の上映時間などもソファーでくつろいだまま確認できる。

今回はドングルのハードウェアにもアップグレードが施され、搭載プロセッサはデュアルコアからクアッドコアになった。ソフトウェアのアップデートも年内に予定されており、新デザインのFire UIが登場するという。

米国時間の9月28日から開始した新型Fire TV Stickのプレオーダーは、10月20日に出荷予定となっている。10月末のハロウィン前にTV Stickをゲットしたユーザーには、Sling TV、Hulu、Amazon Videoの65ドル分のコンテンツ無料視聴もプレゼントされるそうだ。

〔編集部〕ちなみにプレオーダー受付開始から1日経った米国時間の9月29日現在、Amazon.comでのFire TV Stickのプレオーダーはすでに「現在在庫切れです」となっている。

原文へ

(翻訳:Ayako Teranishi / website

NvidiaのSoC新製品Xavierは自動運転車のAIを支えるスーパーコンピュータだ

nvidia_xavier

自動運転車技術のリーダーを目指して頑張るすNvidiaが、今日(米国時間9/28)もまた新しいSoCをローンチ、それはのGPU Technology Conference Europeで発表されたXavierと呼ばれるチップだ。そのXavier SoCは、毎秒20兆回の演算を行い、電力は20ワットしか消費しない。

Xavierは自動運転車専用のチップで、とくにそのAIの部分を担当する。NvidiaのCEO Jen-Hsun Huangはカンファレンスの来場者に向かってこれを、“これまでで最高のSoC”と呼び、それはNvidiaのようにきわめて長年、シリコンをいじくるビジネスに没頭してきた企業だからできることだ、と言った。

車載用チップとしてXavierは、ISO 26262の安全性基準を満たし、実際に路上を走行する車の中で使われる電子製品に求められる、国際的規格に準拠している。このSoCの製造プロセスは16nm、Nvidiaの現行の車載コンピューターDRIVE PX 2を、その構成も含めてリプレースできる。ちなみにPX 2は二つのモバイルSoCと二つの単体GPU(ディスクリートGPU)から成り、それでも消費電力は少ない。

Xavierの主な市場ターゲットは、自動車メーカー、部品等供給業者、研究機関、そして独自の自動運転車の開発をねらっているスタートアップたちだ。ただし、実際の実車搭載は至近ではない。最初のサンプルの発売が、来年の第四四半期だそうだ。

自動運転車とAIとNvidia…NvidiaはTomTomとパートナーして、自社のAI技術とTomTomの地図データを結びつけ、ローカライズされた地図データを路上の車にリアルタイムで提供することを計画している。またNvidiaは、自社製のAIベースの自動運転車を研究製品としてすでにデモしており、それは、人間運転者の運転行為を観察して学習した、と称されている。

というわけで、今のNvidiaが自動運転技術に完全にはまっていることは確かであり、グラフィクスハードウェアの専業メーカーという企業イメージも、やがて薄れるのかもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

Facebook、Amazon、Google、IBM、MicrosoftがAIで歴史的な提携を発表

2016-09-29-ai-competitors

世界最大のテクノロジー企業のグループが今や地球上でもっとも価値のあるデータベースのカギを握っている。歴史的には財貨と貨幣が価値を体現する存在だった。現代ではデータがもっとも重要な通貨だ。データの価値を最大限にするのはそれをベースとする人工知能だ。誰であれきわめて大規模なデータの持ち主でなければ有効な人工知能テクノロジーを持つことはできない。現在のところそのような規模でデータを所有する企業はFacebook、Amazon、Alphabet(Google)、IBM、Microsoftなどだろう。

今日(米国時間9/28)、上述の5社は共同で発表を行い、AIにおける新たな提携を発表した。このPartnership on AIは人工知能に関する研究及びベストプラクティスの普及を目指すという。現実の活動して考えると、この5社の代表は頻繁にミーティングを行い人工知能の進歩を促進するための議論を交わすことになる。またこのグループは企業の垣根を超えてコミュニケーションを図る正式な組織も結成する。もちろんメンバー各社は日々のビジネスでは人工知能をベースにしたサービスやガジェットの開発をめぐって激しく競争しているライバル同士だ。

現在のメンバー各社は当初の財政的基盤も整備するとしている。しかしこのパートナーシップは開かれた組織であり、将来は参加メンバーを拡大する計画だ。科学者、エンジニアに限らず、ユーザー活動家、NPO、倫理問題の研究者その他人工知能に関連する人々が数週間後に開催予定の会議で意見を交わす予定だ。

DeepMind(現在はAlphabet傘下)の 共同ファウンダーで応用AIの責任者Mustafa Suleymanは「われわれはAIを作る側だけでなく、AIによって影響を受ける側の人々の参加を求めている」と語った。

このパートナーシップでは、企業外のグループや個人も大企業の代表と肩を並べて参加し、リーダーとなれる仕組みだ。

今日のスタート時点ではApple、Twitter、Intel、Baiduなどはメンバーに含まれていない。AppleはAIプロジェクトに熱心だとされるが、このパートナーシップに参加したライバルに比べてAI分野で立ち遅れて気味な同社が未参加なのが目立つ結果となっている。

新組織は単なる議論ではなく、実例をもってAIの普及を図ろうとしているようだ。パートナーシップはオープンライセンスの標準をもちいてAIプロダクトに関する研究成果を公表していく。これにはテクノロジー面だけでなく、倫理、プライバシー、少数者の保護など広い分野が含まれる。

IBM ResearchにおけるAI倫理の研究者Francesca Rossiは「現在エンタープライズ部門がAIをコントロールしている。社会全般がAIの利便性を利用できるようになるためには、まずAIが信頼性を確立することが必要だ」と語った。

メディアで目立つAIの危険性に関するポップカルチャー的な主張と比べたときに新組織の着実な立場は安心感を与えるものだ。将来AIによるシンギュラリティーが人類の存続を脅かすかどうかなどという議論に熱心な向きもいるようだが、われわれはすでにAIが関連する現実の問題の長いリストを抱えている。コンピューターは、われわれの職をすべて奪ったりしていないものの、以前から人間が持っている否定的特質も拡大する力がある。偏見が優勢な世界は偏見を含んだデータセットを生み、偏見を含んだデータ・セットは偏見のあるAIフレームワークを生成する。

この問題を是正するためにMicrosoftはすでにAI倫理委員会を設けている。新パートナーシップは従来の組織と重複するものではなく、むしろこれまで各社が個々に行ってきた努力を拡充するものだという。新パートナーシップの会議記録は一般公開される予定だ。

この記事の執筆にはJosh Constineが協力した。

画像: Bryce Durbin/Bryce Durbin

〔日本版〕この報道はTechCrunch以外にも欧米の主要ニュースメディアが報じているが、他の記事にもニュースリリースないしイベンへのリンクがない。今後なんらかのフォローアップがあるものと思われる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google、ニューラルネットワーク機械学習を検索翻訳に適用―第一陣は中国語/英語

2016-09-29-machine-translation-ai-shutterstock_181640888

ある言語を別の言語に翻訳するのは難しい作業だ。言語の自動翻訳システムを開発することはコンピュータ処理の目標の中でも非常に困難な部分だ。一つには、取り扱う対象となる語句の数が膨大になるからであり、それらを統べる規則を発見することは非常に難しい。幸いなことに、ニューラルネットワークは膨大かつ複雑なデータの自動的な処理が得意だ。 Googleは機械学習を利用した自動翻訳を長年にわたって開発してきたが、昨日(米国時間9/27)からその第一陣を公式にスタートさせている

このシステムはGNMT(Googleニューラル機械翻訳=Google Neural Machine Translation)と呼ばれる。GNMTの最初のサービスは、中国語/英語の検索の自動翻訳だ。これは既存の検索システムを基礎としてニューラルネットワークを利用して改良したものだ。以下自動翻訳がどのように発達してきたか、その歴史を歴史を簡単に振り返ってみたい。

語句単位の直接置き換え

子供にせよコンピュターにせよ、いちばん直接的で簡単なのは単語やフレーズを単純に別の言語に置き換えることだろう。この方式ではニュアンスはもちろん、文の意味さえまったく失われることがある。しかしこの単純置き換え方式は対象となる文章が何について述べているか大まかな雰囲気を最小の労力で示してくれる。

言語は語句の組合せで成り立っているので、論理的に考えて、自動翻訳の次のステップはできるかぎり大量の語句とその組合せの簡単なルールを収集し、翻訳作業に適用することだ。しかしそのためには非常に多量のデータを必要必要とする(単なる二ヶ国語辞書ではとうてい足りない)。たとえば同じrunという動詞一つ取ってもrun a mile〔1マイルを走る〕、 run a test〔テストを実施する〕、run a store〔店を運営する〕ではまったく意味が違ってくる。この違いを見分けるためには膨大な例文の統計的処理が必要になる。しかしコンピューターはこうした処理が得意だ。そこで必要なデータとルールが収集されれば語句ベースの自動翻訳を実用化することができる。

もちろん言語ははるかに複雑だ。しかし単純な語句ベースの置き換えの次のステップでは複雑性やニュアンスが飛躍的に増大し、その処理に必要なコンピューティング・パワーも比例して増大する。しかし複雑なルールセットを理解し、それに基づいた予測モデルを作るのはニューラルネットワークの得意とするところだ。自動翻訳ではこの分野が長年研究されてきが、今回のGoogleのGNMTの一般公開は他の研究者に大きなショックを与える進歩だろう。

GNMT(Googleニューラル機械翻訳)は機械学習の翻訳への応用として最新かつ格段に効果的な手法だ。GNMTは文全体を視野に入れながら個々の語句にも細かい注意を払っている。

Google's animation shows how the parts of a Chinese sentence are detected and their relevance to the words to be translated weighed (the blue lines).

アニメによる中国語の翻訳の説明。中国語の単語が探知されると翻訳されるべき言語との関連で重み付けがなされる(青い線)。

全体を眺めながら細かい部分も意識しているという点で、われわれが画像を認識するときの頭脳の働きに似ている。しかしこれは偶然ではない。ニューラルネットワークは人間の認識のプロセスを模倣して対象が何であるか判別できるよう訓練される。したがって画像をゲシュタルトとして認識することと文の意味を認識することの間には単なる表層的なもの以上の類似点がある。

興味ある点だが、ニューラルネットワークの応用としては、言語のみに特有な点はほとんどない。このシステムは未来完了形と未来進行形の区別はできないし、語句の語源やニュアンスについても知らない。すべては数学モデルであり、統計処理として実行される。いわゆる人間の感性は入って来ない。翻訳という人間的作業をメカニカルな統計処理に分解してしまう手際には感嘆せざるを得ないが、ある種の気味の悪さも感じる。もちろんGNMTはそのようなメカニカルな翻訳で十分であり、それ以上の技巧や深い解釈は必要とされない分野に対応したシステムだという点に注意が必要だろう。

技巧を取り除くことによって技術を進歩させる

GNMTついての論文には、計算処理量の縮減という技術的ではあるが、重要な進歩がいくつか紹介されている。計算量のオーバーヘッドが大きくなり過ぎるというのは言語処理のシステムでよく見られる陥穽だ。

例えば、言語システムはめったに使われない珍しい単語によって窒息することがある。使用頻度の少ない語句は他の語句の文脈の中に適切に位置づけることが難しい。GNMTは珍しい語句をほぼ同じ意味で使用頻度の高い語句に分割し、置き換えることによってこの困難を迂回する。システムは置き換えられた語句を他の語句との関連で組織する。

正確性をある程度犠牲にすることによって実際の計算時間が短縮される。この処理にはニューラルネットワークを訓練することを念頭に置いて設計されたカスタム・ハードウェアであるGoogleテンソル計算ユニットが用いられる。

機械学習におけるインプット・システムとアウトプット・システムは大きく異る。しかし両者が接触するインターフェイスを通じて情報をやり取りし、協調して訓練されるることによって統合的な結果を生成するプロセスだという点は共通だ。ともあれ私が理解できた範囲ではそういうことになる。論文にはさらに詳しい情報が掲載されているので、そういう情報が必要な読者は参照されるとよいだろう。

結果としてニューラルネットワーク機械学習システムはは語句ベースの置き換えシステムをはるかにしのぐきわめて正確な結果をもたらす。翻訳品質は人間の作業のレベルに近づく。自らのビジネスの本質に関わる検索という分野でGoogleがウェブとアプリで動作するシステムを一般公開するのであれば高品質でなければならないというのはよく理解できる点だ。しかもターゲットは中国と英語という変換作業が非常に困難な組合せだ。

image00

スペイン語とフランス語についても良好なテスト結果が得られているという。おそらくここ数ヶ月のうちにGNMTはそれらの言語に拡張されるはずだ。

ブラックボックス化というトレードオフ

こうした手法のデメリットの一つは、機械学習を利用した予測モデルに往々にして生じる問題だが、内部でどのような処理が行われているのか実際のところ誰も確かめることが出来ないという点だ。

GoogleのCharina ChoiはTechCrunchの取材に対して「GNMTは他の大規模なニューラルモデル同様、膨大なパラメーターの集合であり、訓練の成果がどのような内部処理となっているのか見通すことが難しい」と述べた。

もちろんこれはGNMTをデザインしたエンジニアがこのシステムが何をしているのか理解できないという意味ではない。しかし語句ベースの置き換え型翻訳は、結局のところ人間が個別パーツをプログラムしている。したがってある部分が間違っていたり時代遅れになっていることが判明すれば、そのパーツをまるごと削除したりアップデートしたりできる。ところがニューラルネットワーク利用システムの場合、何百万回もの訓練セッションを通じてシステム自身が自らをデザインするため、何かがうまく行っていないことに気付いても、簡単にその部分を置き換えることができない。訓練によって新しいシステムを作り出すのは困難を伴う作業となる。もちろんそれは実行可能だし、場合によっては短時間しかかからないはずだ(また、そのように構築できるなら新たな課題が発見されるたびに自らを改善していくシステムとなっているだろう)。

Googleは機械学習に同社の将来の大きな部分を賭けている。今回公開されたウェブおよびモバイルでの自動翻訳検索はGoogleのニューラルネットワーク応用システムの最新かつもっとも目立つ一例だ。ニューラルネットワークはきわめて複雑、難解でいく分か不気味でもある。しかしこの上なく効果的であることを否定するのは難しい。

画像: razum/Shutterstock

〔日本版〕原論文はコーネル大学のアーカイブ・サイトにアップされたPDFファイル。誰でも無料でダウンロード可能。名前から判断すると研究者のうち3人は日本人(日系人)らしい。ただし日本語については音声認識における語句切り分け問題に関して言及があるだけで、日本語のGNMT翻訳については特に触れられていない。しかし従来の例から考えて日本語のGNMT応用についても研究は進んでいるはず。近い将来何らかの発表があるものと思われる。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

IBMのDataWorksはApache Sparkによるビッグデータ分析に人工知能Watsonが企業向け利用インタフェイスをまとわせる

screen-shot-2016-09-27-at-10-53-02-am

マシンインテリジェンスの分野は、研究開発が盛んであるだけでなく、より影響力の強い応用現場でも新しいトレンドが生まれつつある。それを好機としてApache Sparkのようなオープンソースのフレームワークは、データサイエンティストのニーズに応えるだけでなく、企業の事業開発にもデータ分析を持ち込もうとしている。

IBMがこのほど立ち上げたProject DataWorksは、SparkとIBM Watsonを組み合わせて、分析の堅実性を維持しつつそのスピードと使い勝手を向上しようとする。わかりやすく言えばDataWorksは、データ分析のためのGoogle Docsだ。今多くの企業は大量のデータを、いろんなところにばらばらに保存している。IBMのこの新製品は企業のすべてのデータを食べて、それを一箇所のアクセスしやすい場所に置く。

management-console

データに、それを必要とする者が迅速簡単にアクセスできるために、IBMはダッシュボードを提供し、そこにデータのアクセス状態や、利用しているユーザー、カテゴリー関連の各種測度などを収めて表示する。IBMはその技術を、データをカタログに仕分け分類すること、と呼ぶ。検索は自然言語で行い、ユーザーはカタログに整理された情報を、これまでよりもずっと素早く取り出すことができる。また、データの取り入れ速度は、IBMによると、50〜100Gbpsである。

データの視覚化は、PixiedustやBrunelなどのコードを使って、わずか1行のコードで作り出される。視覚化によりもちろん、データ間の関連性や分類がよりわかりやすくなり、ふつうの社員でも、ひと目でインサイトを得ることができる。

大企業も中小企業も、IBMのクラウドプラットホームBluemixからDataWorksツールにアクセスできる。近く料金体系が確立すれば、ユーザー企業はこのシステムを数時間〜数日〜数か月と、長期間(または常時的に)稼働させられる。またIBMの構想では、データ分析を携帯キャリアのデータプランからも提供し、それを定額の月額制にすることもできる。

IBMのデータ分析担当VP Rob Thomasによると、企業はこのツールを活用することによって、人件費を大幅に節約できる。またデータ分析に関して、企業の特定部門の人間を教育訓練する苦労もなくなる。さしあたり、リテールや金融、通信などの分野が主な顧客層になるが、しかしThomasによると、中小企業のうち‘中’の方の企業も今すでにこのシステムに関心を示している。

DataWorksの動力となっているIBM Watsonは、これまでも同社の成長と売上を支えてきた。このたび新しいユースケースが増えることによって、Watsonはますます自分を改良していくだろう。そしてDataWorksの主要部分は、IBMが今年初めに買収したThe Weather Companyの技術を利用している。その買収の目的は不定形データの分析にあったが、今ではお天気情報ばかりでなく、Watsonの助力も得て、企業のデータ分析方面に新たな市場を開拓しつつある。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

「サウンドのためのGoogle」Deepgramが180万ドルを調達

shutterstock_186744380

Deepgramの共同創業者である20歳の神童Noah Shuttyと、ミシガン大学の研究室における彼のスーパーバイザーであるScott Stephensonは、間違いなくサウンドを信じている(faith in sound)だろう 。

2人は素粒子物理学の研究で有望な業績を残し、中国の地下壕の中でダークマターの生成について研究を行い、そして彼らが「サウンドのためのGoogle」と呼んでいるものを開発した。

Google検索エンジンが最も関連性の高い検索結果を見つけるために、異なるウェブサイト間のリンクを使用しているように、Deepgramのソフトウェアは、オーディオファイル中のフレーズ間の関係を使って、タイプファイルを特定し関連性の高い結果を生成する。

deepgram_infographic創業者たちによれば、このオーディオ検索テクノロジーは、自然言語処理に依存している他の技術とは相当に異なっているものだということである。「私たちは、モデルが通話の違いを区別できるように訓練しています」と、Stephensonはインタビューで述べている。「それをコンテキストの観点でやっているのです」。

このビジネスはShuttyのサイドプロジェクトとして始められた。彼の何千時間もの「ライフログ」‐ それは彼の人生のあらゆる側面を記録した彼の集めたオーディオとビデオである ‐ を整理するための手段を得ることが目的だ。

彼はオーディオファイルの中を検索する方法を欲していて、やがてニューラルネットベースの人工知能を開発した。

Metamorphic VenturesYCombinator の主導で調達された180万ドルの新しい資金を得た同社は、その検索ツールをエンタープライズ市場に持ち込もうとしている。

「私たちは雇用をして、エンタープライズ市場に売り込みをかけています」とStephenson。「企業は何百万時間もの録音された通話データを持っていますからね」。

同社は現在、1000ユーザーを抱えていて、そのクライアントソフトによって処理されるデータの量によって課金を行っている。

「私たちのロードマップでは、より先に進むことは確かですが、それが意味することは、自動化された人工知能の脳を作ることになるのです」とStephensonは語った。

同社が情報を話すことができる顧客が2、3社ある。そのうちの1つはオンラインのiPhone修理サービス業者であるiCrackedであり、もう1つは警察のためにボディカメラを提供しているメーカー(社名は非公開)である。

Deepgram.comで提供されるフリーミアムプラットフォームとAPIに加えて、同社はまた、その技術を使ったいくつかの一般利用者向けのアプリケーションを構築している:それぞれHoogleyPodenvyという名前だ 。

[ 原文へ ]
(翻訳:Sako)

サティア・ナデラが語る、人工知能が変革するMicrosoft

satya_1

MicrosoftのCEOサティア・ナデラは同社の開催する大規模な開発者会議Igniteのステージで、ディープラーニングと人工知能がどのように同社を変えていくのかについてのビジョンを発表した。

「AIは私たちの野心の交点に位置するのです」。ナデラは「大規模なデータに意味を与え、それを知性へと変換していくことを」AIがどのように可能にするのかを指摘した。彼はAIを書籍やウェブの登場になぞらえつつ、私たちは程なくあまりにも大量のデータを生み出してしまうので「どのように物に名前をつければよいかも分からない地点に辿り着くだろう」という冗談を口にした。

しかし、それはまた、問題も生み出している。「この情報爆発の中で、足りないままなのは人間の意志と時間です – このすべての情報の中から意味を見出す私たち自身の能力が不足しているのです」と彼は語った。

マイクロソフトの中で、この転換は現在、Cortanaのようなエージェントや、SwiftKeyおよびOffice 365のようなアプリケーション、そしてCortana Intelligence SuiteやAzure cloud computing platformのような開発者向けツールとプラットフォームといったいくつかのエリアで進行している。

サトヤ・ナデラ

エージェントについては、ナデラはその野心として狙っているのは「テキスト入力を受け入れ、音声入力を受け入れ、あなたを深く知っている。あなたの文脈、あなたの家族、あなたの仕事を知っていて、そして世界を知っている」ような知的アシスタントを作ることだと述べた。そしてまた、このエージェントは束縛を受けずに、どのプラットフォーム上でも、どのアプリケーションの中でも使えなければならないと強調した ‐ たとえそれがMicrosoftの制御下にないものであったとしても。

「Office 365で行われたことは、単にクラウドへの移行ではありません」とナデラ。「最も意義深い転換は、Office 365のアプリケーションを支えるデータはグラフ構造になっているという事実です。そして信頼できる、プライベートな保存方法で、私たちはこのデータを意味付けて、知性を生み出すことができるのです。それこそがOffice 365で行われた本当に意義深い転換なのです」。

ボット・アット・マイクロソフト

彼はまた、Outlookの「優先」受信トレイやSkypeのリアルタイム翻訳、Wordのよりスマートなスペル修正機能、そしてWordの新しいツールであるTap(訳注:文書を書いている際に文脈に応じて既存の文書を1タップで呼び出せる機能)などが、どのようにこのAIを活用していくのかについて述べた。

ナデラは特に同社のCRMツールであり主要な収入源であるDynamics 365が、この技術を如何に活用できるかについて強調した。「たとえば販売というものを考えてみましょう」と彼は語る。「どのようなビジネス・アプリケーションでも、いつでも世界を明示的にモデル化していました。[…中略…]しかし、ここには1つの切実な問題があります:ほとんどの販売アクティビティはCRMシステムの外で発生するのです。だからここで考えているAIの目標は、あなたの販売データモデルの意味を分析することができるようになることなのです。CRMシステムの内部だけではなく外部でも」。

この文脈の中で、ナデラはまた、同社が6月に買収したLinkedInからの関係データがいかに活用できるかを説明した。

開発者のためには、このAIに開発者自身の独自アプリケーションからアクセスするためにCortana Intelligence Suiteが用意されている。ツールセットには、今やボットフレームワークも含まれている。ナデラは、どのビジネスもある時点になれば会話エージェントを利用すると考えている。

Microsoftは現在、ファンタジーフットボール(訳注:実在の選手を使って仮想的なチームを作り、仮想的なゲームを楽しむこと)のボットを作成するためにNFLと協力している、またUberは現在、ドライバーと乗客を認証するためのCortana Cognitive Servicesの顔認識ツールを使っている。ナデラはまた、Microsoftがボルボと協力して、ドライバーの注意力が散漫になっていることを検知する(そして警告を行う)システムの開発を行っていることを述べた。

dsc06836

これらの技術をMicrosoftのHoloLens複合現実ヘッドセットと組み合わせることによって、「私たちの時代の、2つの最先端の魔法技術」を手にすることができる。例えば、 Lowe’sは顧客は台所をHoloLensを使ってデザインできるアプリケーションを開発している、しかし同社は今日また、複数のセッションから集められたデータをどのように利用できるかについても説明を行った ‐ その中には人の視線を追跡したデータを集めたものも含まれている ‐ 体験を改善し、アイテムの並べ方をよりスマートにするためにデータを役立てることができるのだ。

dsc06842

マイクロソフトが「クラウドファースト、モバイルファースト」の世界に私たちが住んでいることを語るのが大好きであることを考えれば、ナデラがさらにMicrosoftのAzure cloudについて語ったことは驚きではない。彼は、ディープラーニングモデルを訓練するために、AzureがどのようにGPUベースのマシンへアクセスを開発者達に提供するのか、そしてどのように最近FPGAの利用を始めたのかについて強調した。ナデラはこのFPGAを使ったクラウドを「初のAIスーパーコンピューター」と呼んだ(とはいえFPGA代わりにカスタムチップを実際に利用しているGoogleこそが、おそらく「初」の冠を主張しても良いだろう。この手のデプロイメントで最大規模のものではないとしても)。Microsoftのコグニティブサービスの一部は既にこのプラットフォーム上で動作していて、Azureはそのネットワークインフラストラクチャの速度向上のためにそれを使用している。

「ここで大切なのは私たちのテクノロジーではありません」クロージングとしてナデラはこう語った。「私にとって本当に大切なのは、皆さんの情熱、皆さんの想像力、そして私たちが作成した技術を使って皆さんができることです。一体どんな社会問題を、そしてどんな産業を、みなさんは再構築してくれるのでしょうか。それこそが本当に私たちが夢見ていることなのです。かつて私たちが皆さんの指先に情報を連れてきたように(訳注:かつてビル・ゲイツはInformation at Your Fingertipsという標語を掲げていた)、私たちはAIを皆さんのものにしたいのです」。

dsc06851

[ 原文へ ]
(翻訳:Sako)

AIに投資しないリスクを怖れよう

NEW YORK CITY, NY- MAY 27: IBM Watson's computer housing case.

IBM's Watson computer is best known for winning Jeopardy, unaware of time constraints, while playing against humans. Some of Watson's other features are based in problem solving across many different careers. A demonstration showed how quickly Watson is able to diagnose illnesses, and provided a real life case that took doctors and nurses six days to diagnose, and only ended with the correct diagnosis because a nurse had seen the disease before. Based on symptoms input, Watson was able to correctly diagnose in minutes. The demonstration took place at IBM Watson's New York City, New York office on May 27, 2015. (Photo by Andrew Spear for The Washington Post via Getty Images.)

【編集部注】著者のKR Sanjiv氏はWiproのCTO。

今後10〜20年間で人工知能がどのように変化するかを予測することは難しい。しかしそこには沢山のことが待ち構えている。2018年までに、ロボットが監督する労働者は300万人以上になるだろう;2020年までには、スマートマシンは3割以上のCIOにとってトッププライオリティの投資対象になる。

ジャーナリズムから顧客サービスといった様々なものが既にAIによって置き換えられつつある。それは徐々に人間の経験と能力を置き換えつつあるのだ。かつて技術の将来と見られていたことがすでにここにある、そして残された唯一の質問は、それはどのようにマスマーケットに展開してくのかということだ。

時間が経つにつれて、現在AIの先進性を活用している産業から徐々に収集されている洞察 ‐ そしてそれに伴う技術の革新 ‐ が、アプリケーションの成長の中でAIをより堅牢で便利なものとして行くだろう。AIに多額の投資をする余裕がある組織は今、さらに追随するための勢いを増している最中だ;AIで自身を活かせる場所をみつけることのできない組織は取り残される虞がある。

リスク vs 利益

ビジネスに対するAIアプリケーションのリスクが、利益よりも大きいかどうか(あるいはその逆なのか)を予測することは不可能だと主張する者も居る一方で、アナリストたちは2020年までに、すべての経済取引の5パーセントが自律ソフトウェアエージェントによって取り扱われると予想している。

AI未来は、思い切った投資に踏み切り、例えそれが挑戦であろうとも、テクノロジーを研究し、継続的開発に資金を提供する企業の肩にかかっている。それを偶然行ってしまう者もいる、例えば6年に渡ってあるプログラマーに合計50万ドル以上を払って、そのプログラマーが自分の仕事を自動化していたことを知っただけの企業のように。

AIの進歩の多くは軍事から来ている。米国政府が次年度のために要求したドローンの予算は46億ドルに上っている。現在フィールドで使用されている、人間によって操縦されるドローンを、人間の介在なしに飛行できるようなものに置き換えることが狙いだ。AIドローンは、単に目的地を指定してやればよく、防空設備をかわしながら自身の目的地に到達することができる。とはいえ任意の致死攻撃決定はまだ人間の目によって行われる。

広く受け容れられている考え方は、堅実にやることで得られる利益よりも、取り残されて直面するリスクの方が遥かに大きいということだ。

学術面では、マサチューセッツ工科大学とオックスフォード大学といった研究機関は、人間の脳をマッピングしそれをエミュレートしようと日夜努力を重ねている。ここには2つの異なる経路が存在している ‐ 人間の脳の複雑さを再現するAIを作成するやりかたと、実際の人間の脳をエミュレートするやりかただ。これには沢山の倫理的な問題や懸念がまとわり付いている。例えばAIはどのような権利を持っているのだろうか?そしてあなたが愛する(エミュレートされている)人を収容しているサーバーがシャットダウンされたら何が起きるのだろうか?

これらの質問へは未回答のままだが、最終的には、全産業に対するAIシステムの実証済みの利便性が、全ての経済部門の主要なプレイヤーたちに、それと連携をするように拍車をかけるだろう。現在の情報技術が既存のすべての産業に実質的に不可欠であることと同様に、人工知能もそうなって行くことは誰の目にも明らかである。

計算の未来

これまでは、AIは主に特定の機能を果すための、事前にプログラムされたツールを作り上げるために使われてきた。これらは、著しく固定化されたものだった。こうした種類のAIベースのコンピューティング戦略が一般的になっている。だが未来AIは、真の意味での学習に依存することになる。言い換えれば、AIは、もはや何をしろと言われているかを理解するために、直接コマンドを与えられることに頼る必要はなくなるのだ。

現在私たちは、自動認識と学習に依存するGPSシステムや、発話を解釈するモバイルデバイス、そして私たちの意図を解釈することを学ぶ検索エンジンを利用している。とりわけプログラミングでの、AIにおける次のステップは、GoogleのDeepMindやIBMのWatsonのような進展をもたらすものになる。

DeepMindは知識ではプログラムされていない – 与えられたタスクのための手作りのプログラムまたは特定のモジュールは存在していないのだ。DeepMindは自動的に学習するようにデザインされている。システムは、最終結果に創発特性が得られるように、特に汎用性を目指して作られている。グランドマスターレベルの囲碁プレイヤーを倒せるようなソフトウェアをプログラムできる能力のような、こうした創発特性は、DeepMindがそうするようにプログラムした人が誰もいないということを知れば、さらに計り知れない深い印象として受け止められることだろう。

伝統的なAIは、対象分野が狭くそして知識を得るようにプログラムされたことだけを行うことができるが、Olli(Watsonによって支えられた自動運転車)は、モニタリングと乗客との相互作用から学習を行う。新たな乗客が推奨観光スポットを訊ねたり、目的地を明示的に指示したりするたびに、その情報は記憶され、次の人のために使われる。新しいセンサーが常に追加され、車自身が(人間のドライバーのように)仕事をするにつれ、継続的に、よりインテリジェントになって行く。

しかし、これらのAIシステムは、Googleのような企業が彼らに本当にやって欲しいと思うことを行うことができるのだろうか。例えば既存のリコメンデーションソフトウェアよりも優れている消費者の購買動向に関する予想などを?あるいは過去のパターンに関連付けることによって、動的にサプライチェーンの取引を最適化することなどを?そうしたところこそが、本当にお金のある場所なのだ。そしてそれらはゲームをしたり、運転したり、繰り返しタスクを行うよりもずっと複雑な問題なのである。

様々なAIプラットフォームの現在の実証例 – たとえばファッションの間違いを見つけたり、健康上の問題を予測するといったこと – は、明らかにAIが拡大していることを示しており、上に挙げたより複雑なタスクも、近い将来に現実のものとなるだろう。

程なく、AIは複雑な人間の意思決定プロセス、例えば投資アドバイスを与えるとか、患者に処方箋を提供するといったことなどを模倣できるようになるだろう。実際には、真の意味での学習による継続的改善によって、1次対応とより危険な仕事(トラックの運転のような)は完全にロボットによって引き継がれて、同じビジネスプロセスを繰り返す代わりに、問題解決のために人間が時間を使えるようになる新しい産業革命へと繋がって行くだろう。

AIへ投資しない代償

投資の利益とリスクは、漠然としていて、不確実で、推測の域を出ないものだ。ビジネスにおいて新しいもの全てに共通する、1つの良く知られたリスクは、不確実性そのものである。だからリスクは主に、誤った投資の形でやってくる、これは金融の世界では特に珍しい話ではない。

だから他の奇妙で新しいすべてのものに対する場合と同様に、ここで広く受け容れられている考え方は、堅実にやることで得られる利益よりも、取り残されて直面するリスクの方が遥かに大きいということなのだ。

[ 原文へ ]
(翻訳:Sako)

ReplyBuyがスポーツとエンターテイメント市場にAIコンシェルジェを提供

replybuyproduct

あなたが高校生であろうとNFLのチームオーナーであろうと、誰もがSMS(テキスト)を使っている。1st and Future competitionのファイナリストであるReplyBuyは、SMSを使ってスポーツイベントの購入ができるようにしようとしている。1st and FutureはNFL、スタンフォード大のビジネス大学院 、TechCrunchの共催によるスポーツ中心のスタートアップコンペティションだ。

ReplyBuyの現在のバージョンは、以下のように動作する – 同社が、すべてのサンフランシスコ49ersファンにSMSメッセージを送り、1番早く「Buy Now」と返信したものがそのチケットを購入する。現在、同社はReplyBuy.aiの立ち上げに伴って、プラットフォームをとても有用なものにしようとしている。

実際には、ReplyBuyはスポーツとエンターテイメント業界に人工知能を導入しようとしている。ReplyBuy.aiと呼ばれているのは、ユーザーがメジャーイベントのチケットに手が届き易くするように助ける、AIによるコンシェルジェサービスである。

チケットが入手可能なときに、ただお知らせを受け取るだけでなく、ユーザーはどのイベントに対してもチケット購入のリクエストをメッセージで送ることができる;チャットボットは「チケットは何枚必要ですか?」とか「希望購入価格帯は幾らですか?」といった追加質問をしてくる。そのやりとりを元に、システムは自動的にあなたのためにチケットを購入し、即座にSMSメッセージとして送信してくるのだ。

ReplyBuyのサービスを使う顧客リストに含まれるのはNFL、NBA、NHLそしてMLSのトップチームだけでなく、UCLAやアリゾナ大学のような主要大学も何校も含まれている。現在の全登録チームリストは同社のウェブサイト上で確認できる。

ReplyBuyは、ReplyBuy.ai体験を単にチケットを購入する以上のものに強化する計画をしている。CEOのJosh ManleyもTechCrunchに対して、将来的にはReplyBuy.aiはSMSを通してだけではなく、チャット機能を持つアプリや、iMessageやFacebook Messengerなどのメッセージベースのサービス、そしてAmazon EchoなどのIoTデバイスに統合できるように強化していきたいと語った。

同社が設立された2011年以来、彼らは265万ドルを調達してきた。また最近同社は、Sports Business Awardsの主催する「Best in Mobile Fan Experience」アワードにノミネートされた、またTicketing Technology Awardsでも「Move to Mobile」部門と「Product Innovation」部門にノミネートされている。

2016年2月6日にカリフォルニア州パロアルトにあるスタンフォード大学の第一及び未来のイベント。TechCrunchのためのマックス・モースのフォト

私たちは、TechCrunchイベントの同窓生がそれぞれの業界で輝きを放つことを見られることに興奮している、そして来るDisrupt London 2016のStartup Battlefieldでどのような次世代スタートアップ群を見られるのかが待ちきれない思いだ。Battlefield参加申し込みは現在受付中で10月5日が〆切である、もしあなたの会社が応募資格を満たしているなら、Battlefieldにはここから申請することができる

Disrupt London 2016は12月5-6日に 、ロンドンのCopper Box Arenaで開催される。素晴らしいイノベーター、投資家、そしてハイテク愛好家たちに会える日が待ちきれない。

[ 原文へ ]
(翻訳:Sako)

科学者が人間を狩り殺すことを機械に教えている ‐ ただしDoomの中で

14810867549_86907a635d_o

とある研究の一端を見る機会があったときに、あなたはふと考える「これは興味深い技術的な問題だと思うけれど、AIに人間狩りと殺人を教えることは、人類の存続にとって危険な道を切り拓くのではないだろうか?」

これもその機会の1つだ。

カーネギーメロン大学では人類に対する裏切り者たちが、ニューラルネットワークアプローチを使い文字通りの殺人マシンとなるAIを作っている。まあおそらく私は正確には、フラッギングマシン(ゲームの中で敵を倒す機械)と呼ぶべきだろう、なぜならそれはDoomのデスマッチの中でのみ殺人を行っているからだ。さて、あなたはもちろん、それに何の問題が?その死は仮想的なものに過ぎない、と言うことができる。では何故それが問題になるのだろうか?コンピュータにとっては すべてが仮想的だ。それについて考えて欲しい。

あなたは疑問に思う:これはこれまでずっとゲームの中にいたボットとどう違うのか?コンピュータプレイヤーはずっと存在してきたじゃないか!

あなたは鋭い観察者であり状況の読み手だが、考えてみて欲しい:それらのボットはゲーム自身の中で走り回るプログラムで、全ての変数、座標、エッジ、銃の位置とスペック、そして回復キットの場所を知っている。任意のNPC(非プレイヤーキャラクター)と同様に、それらのロボットはあるゲーム内変数に、ある方法で反応するようにプログラムされている。

これに対してGuillaume LampleとDevendra Singh Chaplotによって作成されたAIは、ゲームを私たち人間がプレイするやり方でプレイする:スクリーンを見て、自分の状況と向きを認識し、マップ上での進路を決め、動くものを何でも攻撃する。それは本質的には、スペースインベーダーのようなより簡単なゲームを支配する方法を学ぶことと類似した手法を使い、スコアを最大化する入力を見つけ出すAIを、レベルアップしたものだ。

これがそのアクションシーンだ:

ニューラルネットは主にピクセルデータ ‐ つまり、あなたが実際に画面で見るものだ ‐ を使って訓練を受けている。しかし、作成者たちは、スクリーン上にあるものが敵かアイテムかの基本的な内部情報をゲームエンジンから送り込むという、ちょっとしたずるをしなければならなかった。

その強化戦略は以下の通り;アイテムを拾い、長く移動し、敵を倒せば加点されるが、ダメージを受けたり瀕死になると減点される。さらに発砲に対しても軽い減点が加えられるようになっている、そうしないとマシンは無差別に発泡して、敵がその照準の先に迷い込んで来るのを待つことが、最善のテクニックだと判断してしまうからだ。これで安心だ!

この設定下で彼らのシステムは、ゲーム中のコンピューターと人間プレイヤーの両者を上回るパフォーマンスを達成した。Doomにおけるゲーム内のコンピューターは全く高度なものではないため、彼らは易々と砲弾の餌食となった。

doom_ai

これは実際には2つのシステム(もしあなたがそう呼びたい場合には脳葉)に分割される。ナビゲーションサイドは移動とアイテムの収集を駆動し、そしておそらく環境映像を解釈する方法を学習している。そしてシューティングサイドは、敵がスクリーン上に現れると制御を握り、正しい方向に銃を向け銃爪を引く。

私たちは、スカイネットの誕生を目撃しているのだろうか?または、おそらく、程なくどこかのスタートアップ企業が、マルチプレイヤーゲームのための汎用戦闘AIを売り込んで来るのかも?どちらにしてもかなり怖ろしい話だ。

FPSをプレイするAIについて説明したLampleとChaplotの論文はArxivで無料で読むことができる

[ 原文へ ]
(翻訳:Sako)

自然言語によるコンピューターとの会話を実現するAPI集のAPI.AIをGoogleが買収

api

Googleが今日(米国時間9/1)、API.AIのチームをスカウトしたことを公表した。API.AIは、Siriのような自然言語で会話できるボットをデベロッパーが作るためのツールを提供している。

コンピューターと違って人間には、まあまあのコミュニケーション能力がある。だれかが、“the girl saw a man with the binoculars”と言ったら、われわれは文脈的知識を動員して、「女の子が双眼鏡で男を見た」のか、それとも「女の子が双眼鏡を持ってる男を見た」のか、どちらであるかを正しく判断できる。

ロボットに同じことをやらせるのは、とても難しい。誰かが“get me a lift”と言ったらそれは、「同乗(相乗り)させてくれ」と言ってるのか、それとも「(Uberのライバル)Lyftを呼んでくれ」と言ってるのか? こういう曖昧さが加わると、同じひとつのことを言うのに、無限に多くの言い方がある。コンピューターにとっては、超難題だ。

API.AIは、デベロッパーたちが限りなく車輪を再発明するのを防ぐために、この難問を解決するボットを作るためのツール、というかAPIを提供する。それらは、音声認識や意図認識、文脈(コンテキスト)管理などのAPIで、デベロッパーはそこに、ユーザーの業種業界に特有の知識を付加することもできる。たとえば“deep dish”(深皿)とか“Chicago-style”(シカゴふう)などは、ピザ配達ロボットが必ず理解すべき言葉だ。

API.AIは現在、英語、中国語、フランス語、ドイツ語、スペイン語など15の言語/方言を扱える。

同社のホームページ上のカウンターの数字によると、API.AIはこれまで、30億件のAPIリクエストを処理している。またGoogleによると、自分の仕事にAPI.AIを使ったことのあるデベロッパーは6万を超えている。

今回の買収は、価額などが公表されていない。Crunchbaseによれば、API.AIはこれまで、約860万ドルの資金を調達している

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AIを取り込むSalesforceの野望

circa 1931:  German-born physicist Albert Einstein (1879 - 1955)  standing beside a blackboard with chalk-marked mathematical calculations written across it.  (Photo by Hulton Archive/Getty Images)

Salesforceのやり方はよくおわかりだろう。常に先を見ているということだ。今日の午後、同社はSalesforce Einstein(アインシュタイン)という名の、人工知能に関する新提案を発表した。

ライバルのオラクルによるOpen Worldの基調講演の直前というタイミングは、おそらく偶然ではないだろう。広い意味でのAIに関するテーマは、Salesforceが過去数年間にわたってそのプラットフォームのさまざまな部分に対して取り組んできていたが、今日の発表は、このアプローチの広がりを示すために、それらを一緒に結びつけたものだった。

それぞれの年には、最先端の技術トレンドが見られるが、明らかに今年は人工知能とその近縁の従兄弟である機械学習が、私たちのお気に入りのフレイバーだ。Google、Microsoft、AWSなどの大企業が、AIと機械学習ツールを構築している今、それは単なる流行語以上のものである。

Salesforceは、常に時代を先取りをしようとしてきた。それは、最初の真のクラウドサービスの1つだった(私たちはそれをクラウドと呼んでいないころからだ)し、昨年IoTクラウドを発表して ‐ IoT自身がその年の旬だった ‐ 人びとを驚かせた。しかしSalesforceは、デバイスやセンサーが、その利用者に顧客を理解し市場をより良く理解するためのきっかけを与えることを認識していた。

その一年後、私たちはSalesforce Einsteinを目にしている。これは1つプロダクトと言うよりは、その下にSalesforceの人工知能のテーマが集うテクノロジーの傘のようなものである。Salesforceの発表なので、もちろん幅広く多くのコンポーネントを含んでいるが、ここでの要点はSalesforceはAIの複雑さを活用して、そのプラットフォームのあらゆる側面に利用したいと思っているということだ、SalesforceのCRMに知性を注ぎ込む一方で、AIのAPIを解放して顧客にインテリジェントなアプリケーションをSalesforceプラットフォーム上で構築させることなどが含まれる。

MetaMind、PredictionIOそしてRelateIQなどの買収を活かしながら、同社はSalesforce Einsteinの構築のために175人のデータサイエンティストを招集した。実際MetaMindの創業者であるRichard Socherは、現在Salesforceのチーフデータサイエンティストの肩書を持っている。Salesforce Einsteinは、最終的には何らかの方法でその製品の1つ1つに関わることになる。

AI関連の技術に加えて、プラットフォームには高度な機械学習、ディープラーニング、予測分析、自然言語処理、スマートデータディスカバリーなども加わっている。

最終的には、顧客にとってはどの部分をみても同じようになるだろうが、現在同社は、より関連性のある情報を浮かび上がらせる、よりスマートなCRMの構築に集中している。ときには明らかに思えるかもしれないが、通常の良いセールス担当者なら求めているような情報を提供することが狙いだ。ここでのSalesforceの目標は、こうしたキーデータを目の前の中心に置くことであり、Salesforceは最も熟練したセールスのプロさえも、このアプローチの恩恵を受けることができると考えている。

一日中売り込み電話をかける内部の営業チームのために、システムが自動的に次の呼び出し先として、最も可能性の高い候補を選び出すことができる。また地域作業営業担当者のために、いつ競合相手の関心を引くニュース流されたかといったキー情報を保持しておくこともできる。抜け目のない営業担当者なら、こうした情報を追うことは当たり前だということもできるが、Salesforce Einsteinのアプローチはこうしたことを運任せにしないようにデザインされている。

よりスマートなアプリケーションを構築しようとしている企業にとっての課題の1つは、高品質のデータセットへのアクセスである。Salesforceは顧客、地域などに関する沢山の情報を持っていて、さらに情報を共有することを選択した顧客からの情報を集約して提供することができる(もちろん競合に関わる詳細は非公開のままで)。もしある企業がオプトアウトを選択した場合には、情報の共有は行われないことは明確にされている。そしてそれはデータテナントの概念によってそれを保証している ‐ それぞれの企業がプラットフォーム上にそれ自身の居場所を占めているということだ。

価格と可用性は可変である。追加料金の可能性もあるが、ライセンス費用に含まれる可能性もある。サービスに依存する。Einstein AI ツールは、Community Cloudのようなプラットフォーム全域で利用可能であり、自動的にケースエスカレーションの機能と、専門家、ファイル、グループの推薦機能を提供する;またスマートデータディスカバリーを備えたAnalytics Cloud;プロダクトレコメンデーション機能を備えたCommerce Cloudも提供される。これらの大部分が本日から利用可能であるが、他の機能も毎月順次発表されて行く。Prediction.IOは、オープンソースの機械学習ツールであり、無償でダウンロードして利用することが可能だ。

Salesforceにとっては、必ずしもこれらのAIアプローチを発明する必要はなかったにもかかわらず、自ら多くのAIと機械学習ツールを構築しているという点に注意することが重要だ。なにしろ、Salesforceがここで試みていることは非常に野心的で、ほんの始まりに過ぎないのである。まだまだ初期のステージであり、本当に広い方法で顧客に受け容れられるまでにはまだ時間がかかると思われるものの、顧客の準備が整ったときにはいつでもその場に居られるようにしたい、というのが典型的なSalesforceのやり方なのである。

[ 原文へ ]
(翻訳:Sako)

「AI時代」の子どもたちはロボットの夢を見るか?

Little boy holding his daddys hand, wearing box over his head with robots face drawn on it.

編集部:Crunch Network ContributorのRemi El-Ouazzaneは、最近Movidiusに加わった。前職ではTexas InstrumentsのOpen Multimedia Applications Platform (OMAP) 部門担当およびグローバル業務部長を務めた。

想像してみよう、ここに5歳の女の子がいる。母親はSiriに、父親はAlexaに話しかけているのを毎日のように見ている。こうしたやり取りは、その子の目にはどのように映っているだろうか。最近の子どもたちは、心を持っているような、あるいは関わり合いの対象として実在物のようにすら見えるコンピューターを目の当たりにしているのだ。今の子ども世代にとってのマシンというもの - そして世界そのもの - の認識は、当然私たちのそれとは大きく違っているのではないだろうか。

人工知能(AI)は、今日最も前途有望なテクノロジーのひとつだ。たとえ私たちの生活様式、経済の動向、社会が機能する方法に衝撃的な変化をもたらす可能性が低かったとしても、そのことに変わりはない。膨大な量のデータと、それを分析する計算力のおかげで、テクノロジー企業はまるでゴールドラッシュの様相を見せるAI分野で進歩を遂げている

ディープ・ニューラル・ネットワークの活用のような新しいアプローチは、AI分野では画期的な成果をあげた。その一部は、次の10年では起こらないだろうと予測されていたほどだ。Googleが囲碁の世界チャンピオンを負かしたのは有名なだし、今後も推論や計画の組み合わせによるディープラーニングの進歩、あるいは創造性とアートのエミュレーションすら含め、さらに多くの事例が登場することだろう。

機械学習のアプローチはAIへと進化を遂げつつあり、医用画像から株取引にまで応用されている。それによりマシンはビッグデータの多大なる利点を保ちつつ、より人間らしい方法で思考できるようになるのだ。

2016年現在、私たちの多くがコンピューターの使用における次世代の始まり — AI革命 —  に立っていると信じている。この「人工知能の時代」が「モバイルの時代」を継承すると仮定するならば、このことは「ジェネレーション I」(情報化時代)を継承する子どもたちにとって、何を意味するのだろう?「AIの時代」に育つことの意味とは?そして社会全体として、私たちはこの変化をどのように促進し、この進歩が善用されるようにできるだろう?

現在のオートメーションに関する議論は、すでに対立があることを示している。それが自動運転車、工場のオートメーション、あるいはロボット手術についてであろうと、この話題に不安あるいは疑念すら抱いてかかる大勢の人々がいるのだ。

人が行っている仕事の大部分をマシンが遠隔で再現するなんて突拍子もない考えだと多くの人が思っている。というのは、マシンたちの優雅さに欠けた進歩の過程を目にしてきたからだ。今生きている大人なら、日常生活にコンピューターが存在していなかった世界を、また黎明期における成長痛の目撃例を思い出せるだろう。分厚いマニュアルやクラッシュ画面、2000年問題のバグに苦しめられた、あの時代だ。今の子どもたちが目にする直感的かつ堅ろうで、信頼できる現在のシステムと比較になるだろうか。

子どもたちはもう間もなく、マシンを「エンジニアリングの偉業」ではなく、「感覚をもった存在」として認識しながら育っていくだろう。

しかし、一部の人々がいくら懐疑的になったところで、事実を否定することはできない。AIが工程を改善し、安全と効率を向上しているという見方は広く認められている。やがて車のハンドルをマシンに明け渡さないと軽率あるいは公然の無責任として受け取られる日が来るだろう。法的な観点では、1975年(41年前)のKlein対米国連邦判例がすでに先例となっている。この件ではパイロットが自動操縦装置を解除し、手動操縦を選択したことが怠慢とみなされたのだ。人々が車の自動運転を解除して手動で運転することを選び、怠慢とみなされて訴えられる日まで、あとどれだけかかるだろう?

TeslaのCEO、イーロン・マスクは、自社の自動運転機能がアメリカ国内の自動車平均よりも10倍安全であると示せた時点で「ベータ版」と書かれたシールをはずすと述べた。しかし将来的にシールが取れたとしても、統計的に10倍安全なオプションを意図的に避けているという理由で、「無責任な行動をとっている」と手動ドライバーを非難するのは難しいだろう。AI世代ならばそんな説得工作がなくても、マシンに主導権を明け渡すのではないだろうか。

オートメーションを受け入れたあかつきには、社会における生産活動と労働の捉え方は根本的に変化するだろう。AI世代が生活のあらゆる面でオートメーションを取り入れれば、経済はそれに適応せねばならないし、実際に適応の道筋をたどることになるはずだ。富の再分配、私企業、あるいはユニバーサルな生活賃金のような概念について対処する必要も出てくるだろう。技術的かつ知的な苦闘のあとには、もっと大変な作業が待ち受ける。コンピューターが発明される200年も前に生まれた1人の男の著述に根付いた経済システムと「自動化を認めた世界」を順応させる、あるいはまるごと入れ替えるという哲学的な課題だ。

I世代がiPadとスマートフォンを生まれながらに受容したのと同様に、AI世代は、AIの備わったマシン - 精神と、思考(として認識される)能力が宿るマシン、さらには人工的な共感性やカリスマすら備わったマシン - を当たり前のように受容するだろう。

社会が大きくて根源的な問いに答えを出さねばならない一方で、AI世代としても自分たちの私生活でどのようにAIを取り入れるのか考える必要が出てくる。チャットボットとの会話や仮想デートの利用は、今でこそ「不気味」の領域に入ってしまうが、iPhone上のSiriや、キッチンに置いたAlexaに話しかける両親のもとで育った子どもたちにとっては、移ろいやすい人間関係を避け、シミュレートされた関わり合いに興味をもつのも、敷居は低いだろう。

未来の世代にとっては「ロボットの権利と保護」という発想も、大して違和感がなさそうだ。当然のことながら権利には責任がついてまわる。いつの日か自動運転車が殺人の罪で訴えられるようになるだろうか。あるいはお手伝いロボットが刑事的な違法行為で起訴されるのだろうか。冷笑する前にちょっと思い出してほしい。私たち自身の司法システムがサルを裁こうとしたのは、ほんの少し前のことだったではないか。

子どもたちはもう間もなく、マシンを「エンジニアリングの偉業」ではなく、「感覚をもった存在」として認識しながら育っていくだろう。彼らにとっては、「何がAIを『真のAI』たらしめるのか」という哲学的な議論が争点になるだろう。なぜなら、実際に「何が」AIを動かしているのかに気づくよりもずっと前に、マシンが人間らしい方法でインタラクションする世界(そう、驚くべきことに人間「だけ」に向かって!)で彼らは育つのだ。本物そっくりな人格や共感のシミュレーションのおかげで、マシンの擬人化はさらに簡単になるはずだ。

車輪の発明を目の当たりにした私たちの祖先は、おそらく「車輪ってけっこう便利だな」とは思っただろうが、その後も数多くの技術の進歩にとって重要な役割を果たすことになるなどとは思いもしなかったはずだ。私たちは、というと、AIが未来の世界に影響をもたらすだろう、と、かろうじてその方法を想像し、うっすらと感じ取ってはいるように思える。しかし、人間社会がここで述べたような課題にどのように向き合い、「必ずしも人類だけが知的な存在ではない世界」に順応するかは、時間のみが知るところだ。

画像提供: SALLY ANSCOMBE/GETTY IMAGES

原文へ

(翻訳:Ayako Teranishi / website

AIが人に代わって資産運用を行う時代

robot, technology, future, futuristic, business, economy, business, money, dollar, bill, high tech, cyber, cyber technology, data, artificial intelligence, 3D, metal, blue background, studio, science, sci fi, hand, gesture, robotic, tech, illustration, innovation, shiny, chrome, silver, wires, concept, creative

【編集部注】執筆者のNathan RichardsonはTradeItのファウンダー兼CEO

これから5年後のAIに対する私たちの考え方は、2008年時点でのアプリに対する考え方と近いものになるだろう。そして、その頃には2016年がAIの石器時代のように映ることになる。

アプリは全く新しい消費者行動を生み出し、特にフィンテックの分野ではモバイルバンキングやシェアドペイメントを利用したサービスが誕生した。しかし、残念ながらアプリ経済はピークを迎えようとしているようで、アプリのマネタイズには各社が苦戦を強いられている。

アプリはそのうち過去のテクノロジー となり、AI時代の到来を告げることになるだろう。今日のボットは単なるアプリの代替品か目新しいおもちゃの域を出ず、まだロボットに話しかけているような気分がする。しかし、最終的にボットは今のアプリよりもスマートになり、まだ現実になっていないような全く新しい方法でアプリが解決できない問題を否が応でも解決することになる。

すこし未来に目を向けてみると、例えばボットやAIは消費者の当座預金口座を使ってお金を生み出すことができるようになる。

口座の中に余っている現金には、機会損失が発生しているということに気づいているだろうか?さらにその価値は毎日インフレで目減りしているのだ。逆に利益を生み出すためには、最小限の現金を当座預金口座に預け、残りを投資に回すという手がある。しかし、予期しない支出が発生すると突然残高が減ってしまうため、銀行の手数料やクレジットカードの金利で投資益が相殺されてしまわないよう、口座にはある程度余裕をもっておかなければならない。

私たちはAIの力を使って資産を増やしつつ不安を減らすことができるようになるのだ。

こう考えると勝ち目がないように見える。キャピタルゲインを見逃すか、口座残高とリンボーダンスをするしか選択肢がないのだ。しかし、将来的にはAIがこの葛藤を過去のものにしてしまうだろう。

AIが進歩していくうちに、消費者自身よりも彼らの支出に詳しいロボット会計士が誕生するだろう。ロボット会計士はユーザーの購買履歴を解析し、当座・普通預金口座、投資用口座、クレジットカード口座の間で現金を絶え間なく移動させる。そうすることで、当座預金口座の残高を、手数料をとられる恐れがないくらい十分、かつ投資益を逃すほどではない”スイート・スポット”に常に保つことができるのだ。

現状スイート・スポットをみつけるのには時間がかかる上、消費者の不安を誘発しやすい。しかし、そのうちロボット会計士は、いつユーザーが散財するかや、いつ車を修理する必要があるか、どの時期に電気代が上昇するかなどを感知することができるようになる。さらには、最低預金残高を下回って銀行へ口座維持費を支払ってでも、クレジットカード口座にお金を残しておいた方が良いといった判断までできるようになるだろう。

手数料の低減や収益の最適化というのはAIがなくとも実現できるが、そこまで上手くは機能しないだろう。AIは、過去の消費傾向やさまざまな金融機関の手数料のほか、数えきれないほどの情報をもとに複雑な判断を下すことができる。ロボットが計画をたてるからユーザーは何もしなくて良い、ということこそロボット会計士が便利だと感じる上での重要なポイントなのだ。

ロボット会計士は全ての情報を考慮し、ユーザーの投資益を最大化しながら、全体の手数料を最小化するようになる。つまり、私たちはAIの力を使って資産を増やしつつ不安を減らすことができるようになるのだ。これは、アメリカ市民の60%がリタイア時の貯蓄目標を達成できそうにないと心配していることを考えると、素晴らしい偉業だといえる。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Microsoftの人工知能Cortanaで、冷蔵庫がもっとスマートに

liebherr-stage-refrigerators-and-freezers-1

MicrosoftがLiebherr(リープヘル)の家電部門と共同で冷蔵庫をもっとスマートに、もっと速く、もっと強く作り替えようとしている……おっと失礼、「よりスマートに」だけでした。2社による新たなコラボレーションにより、Microsoftはコンピュータビジョン技術(いわばコンピュータの目)をMicrosoft Cognitive Services Computer Vision API経由で提供し、冷蔵庫が自分で庫内にある物体を見分けられるようにするという。

なぜ「庫内に入っているものを判別する冷蔵庫」が必要なのだろう? 何か買い忘れて、またスーパーマーケットに走らなくてもいい、というのは1つの理由だろう。ここで用いているディープラーニングのアルゴリズムは、何百万点という食品パッケージの画像データを処理した蓄積に基づいて、新しい食品も学習できるという。いずれ市販された暁には、実世界のユーザーから収集したデータを使ってもっとスピーディーで、もっとスマートになるに違いない。

他社製の冷蔵庫では遠隔から庫内を確認できたりもするが、MicrosoftのデータサイエンスチームはLiebherrと直接協力して、この試作機を「学習する」冷蔵庫に育て上げた。そのおかげで、わざわざスーパーでの買い物中につながりの悪い携帯通信経由で低解像度の画像を表示して、人間の目で庫内の食品をチェックしなくても済むようになっている。

この冷蔵庫、現段階では試作品なので、まだ当面は現状の「知性のないまぬけな食品クーラーボックス」で何とかしのぐしかない。けれどももし、今すぐにでもちょっぴりMicrosoftのついた冷蔵庫を導入してみたい、ということであれば、こんな選択肢もあるようだ。

原文へ

(翻訳: Ayako Teranishi / website

IBMのWatsonが作った人工知能映画(Morgan)の予告編ムービー

新しいもの好きなので、ハードルが低くなっていることはあるだろう。しかしこの予告編映画を人工知能が作り出したときくと、いろいろな意味でぞっとさせられる。予告編制作の対象となったのが、人工生命体を扱う映画であるのも「ぴったり」の感じだ。映画はまもなく公開されるSFスリラーの「モーガン」(Morgan)だ。創造者に反抗するAIを描いた映画の予告編を、AIが生み出すというのも興味深い。

Watsonも我々とともにあり!

ちなみにWatsonは、ホラー映画の予告編100本を分析して、ビジュアルおよびオーディオ的な特徴を見つけ出したのだそうだ。そして今回の予告編ムービーに結実させたというわけだ。背景に流れる音楽や、セリフのトーンに着目して、映画全体から予告編にふさわしいシーンを抜き出して制作したのだとのこと。

ともかく、人工知能によって制作された映画よりも、はるかにレベルの高い作品に仕上がっているように思う。

Via Engadget

原文へ

(翻訳:Maeda, H