Amazonからビジュアル・ショッピングツール、Scout登場――機械学習で検索をパーソナライズ

AmazonはScoutと呼ばれる新しいショッピングツールの実験を始めた。CNBCがScoutがAmazonのサイトで実際に作動しているのを最初に発見した。消費者は多数のアイテムからビジュアルな好みによってクリックしていくことでこれまでよりはるかに効率的な選択をすることが可能になるという。

Scout Explorerでは商品画像に「いいね」と「よくないね」を投票できるボタンが付され、機械学習によって検索がパーソナライズされる。消費者はPinterest的にAmazonの商品をブラウズしていくことができる。システムは消費者のクリックによって商品紹介の精度をアップしていくという。

現在Scoutは家具、キッチン、ダイニング、インテリア、パティオ、照明、寝具、婦人靴などの分野をカバーしている。Amazonは今後アパレル、ハンドバッグなどの分野にもサポートを拡大していく計画だ。

今日(米国時間9/19)からAmazon.comで利用できるようになった機能を使えば どんなものが欲しいのか自分でも詳しく分からないようなアイテムを選ぶのが簡単になる。たとえば、衣装箪笥、キルトの掛け布団、デッキチェアなどが欲しいなどという場合、商品のスタイルも数も多いため選択は非常に難しくなる。消費者は好みに合わない多数の商品のサムネールを延々とスクロールし続けることになりがちだ。そこでもっと自分の好みを知っているサイト、
たとえばPinterestやHouzzなどに向かってしまう。

Scoutは消費者がすばやく候補を絞り込めるよう助けるのが狙いだ。

Amazonの広報担当者の説明によれば、Scoutは 「どんなものが欲しいのか分からないが、見ればわかる」と「どんなものが欲しいか分かっているが、その名前が分からない」というよくあるジレンマの解決を目指したものだという。担当者は次のように述べている。

Scoutはショッピングの新しいスタイルだ。ユーザーは何万という掲載商品の中からビジュアルな要素によってすばやく自分の好みのアイテムを見つけることができる。Amazonは豊富な品揃えから消費者に何千もの画像を示すことができる。消費者の投票によりScoutは好みを知り、表示する候補を変更する。このショッピングのイノベーションを可能にしているのは高度な機械学習だ。その結果、快適でインスピレーションに溢れた画像フィードによるショッピング体験が生まれた。ユーザーは多数の候補画像の中をゲーム感覚でクリックしながら進むことにより効率的に自分の好みに合致したアイテムを発見できる。

Amazonが候補の発見と選択にあたっての困難に対処するテクノロジーを開発したのはこれが最初ではない。たとえばInteresting Findsという特設コーナーでは衣服、おもちゃ、ガジェット、トラベル、オフィス、家庭、ペットなどトップ層のいくつかのカテゴリーでキュレーションを試みている。消費者は示された候補画像に対してハートマーク(Amazon版の「いいね」 )をクリックしていくことによりシステムに自分の好みを知らせることができる。システムはこの入力をベースにMy Mixというページを作る。

ただしこのInteresting Findsはセレンディピティー的な、つまり偶然面白いものを発見するという使い方をされる場合が多い。ユーザー個人の好みによってパーソナライズされた検索の実現というところまで行っていなかった。

AmazonはまだScoutについて正式な発表を行っていないが、 ユーザーはショッピングをしているときにいくつかのカテゴリーでScout Style
Explorerというリンクを見るかもしれない。このリンクをクリックすると新しいツールにジャンプすることができる。

Scoutには独自のURLは与えられておらず、Amazon.com内のページとなっている( amazon.com/scout)。

AmazonによればウェブとAmazon Appの双方で有効だという。

〔日本版〕アメリカAmazonにアカウントがあれば実際に試してみることができる。上のリンクも作動するが、トップページからcoffee tableというキーワードで検索し、適当なアイテムをクリックして開くとグレー地に白抜きでScout
Style Explorerのバナーが表示され、Scoutに移動できる。 

原文へ

滑川海彦@Facebook Google+

Microsoft、Dynamics 365の機械学習を強化――カスタマーサービス、顧客管理など3分野のアプリを発表

有力テクノロジー企業はみなそうだが、Microsoftもあらゆるプロダクトに機械学習を取り入れようと全力を挙げている。 当然ながら、大きなビジネスとなっている顧客管理システム、Dynamics 365 CRMにもAIを適用した。Microsoftが最初にDynamics 365 AIを発表したのは1年前になる。今日(米国時間9/18)は、Dynamics 365 AI for Sales、Customer Service、Market Insightsという3つのAIプロダクトをリリースした。これによりAIプロダクトのポートォリオはセールス、カスタマー・サービス、市場分析の分野に拡大された。

Microsoftのビジネス・アプリケーションとインダストリー担当コーポレート・バイスプレジデント、Alysa Taylorはこう述べている。

現在多くの人々はCRM(顧客管理)やERP(基幹業務管理)などを抑圧的なシステムだと感じている。データを貯め込むだけで、実際にエンドユーザーの業務に役立つ情報を何ひとつ返してよこさない。しかしユーザーが求めているのは抑圧では解放だ。

Dreamforceカンファレンスの熱狂的参加者は別として各種のCRMが好きな人間はいない。抑圧のシステムというのはずいぶん過激な表現だが、初期のCRMは隔絶したデータのサイロになりがちだったという点でTaylorの言うことには理がある。もちろんMicrosoftはDynamics 365に格納されたデータは機械学習によってさまざまなタスクに容易に利用できるのでそういった抑圧的システムとは全く異なると主張する。

Dynamics 365 AI for Salesは名前のとおり、セールス部門に対して、顧客から得たデータにセンチメント分析を適用して的確な将来予測を与えようとするシステムだ。現在、この分野への機械学習の適用は標準的なものとなっているが、AI for Salesは同時にセールス・チームが次にどんな手を打つのが効果的か、どの行動が優先順位が高いかなどを教えるという。またセールス部門の管理職による担当者の教育・訓練も手助けする。

Customer ServiceアプリもAIによって自然言語処理を行い、言語によってカスタマー・サポートを行うことを可能にする。バーチャル担当者を創出することによりコストの削減が図れる。TaylorによればこのアプリはライバルのSalesforceに対抗するものだという。Talorは「多くのベンダーがそういうことができると主張しているものの、企業が実際に採用するには手間がかかりすぎるものが多い。またこうしたサービスは非常に大規模であることが必要なのでSalesforceはIBM Watsonと提携している。われわれのサービスもいよいよ実用化される」と述べている。

Dynamics 365 AI for Market Insightsも市場動向の分野で同様の機能を示し、ソーシャルメディアの書き込みを対象としたセンチメント分析を行う。ただしセールス部門におけるものよりも詳細な分析となる。「これにより企業はプロダクトやブランドに対する好き・嫌いなどの感情を分析し、続いてその結果をベースに顧客忠実度をアップするために効果的な手段を検討する。またどういうイベントが口コミで広がりをみせ、ブランドの認知度や親近感を高めるかを示唆する」という。つまり企業が口コミでニュースを拡散しようと何か始めるのを見たら、Office 365 AI for Market Insightsの助言に従ってそうしている可能性があるわけだ。

原文へ

滑川海彦@Facebook Google+

Microsoft、ドラグ&ドロップでAIアプリを作るLobeを買収――Azure ML Studioの強化へ

今日(米国時間9/13)、MicrosoftはAIスタートアップのLobeを買収したことを発表した。 Lobeは簡単なドラグ&ドロップによって高度な機械学習モデルが制作できるシステムだ。今年に入ってベータ版がリリースされたLobeをMicrosoftは独自のAIモデル開発に利用する計画だ。ただし当面、Lobeは従来どおりの運営を続ける。Lobeチームは次のように述べている

Microsoftの一員となったことで、Lobeは世界でもトップクラスのAI研究の成果とインフラを活用できるようになった。またMicrosoftは数十年にわたってデベロッパー・ツールを開発してきた。われわれは今後ともオープンソースの標準に従い、Lobeをスタンドアロンでマルチプラットフォームのサービスとして発展させていく計画だ。

Lobeの共同ファウンダー、Mike Matasこれまで携わった開発にはiPhoneとiPad、FacebookのPaperとInstant Articlesなどのプロダクトがある。共同ファウンダーにはAdam Menges、Markus Beissingerが加わっている。

MicrosofはLobeに先立っては深層強化学習(deep reinforcement learning)のプラットフォーム、Bonsai.aiと会話形AIのプラットフォーム、Semantic Machinesを買収している。また昨年、2012年のTechCrunch Disrupt BattlefieldでデビューしたMaluubaを買収したことも記憶に新しい。機械学習のエクスパートをスカウトするのが非常に難しいことはよく知られている。そこで有力テクノロジー企業は人材とテクノロジーの獲得を念頭に置いてスタートアップの買収に全力を挙げている。Microsoftのエグゼクティブ・バイスプレジデント、CTOのKevin Scottは今日の声明に次のように書いている。

いろいろな意味でわれわれはAIがもたらす可能性の入り口に立っているに過ぎない。経験を積んだデータサイエンティストやデベロッパーにとってさえ機械学習モデルやAIソフトウェアの開発は時間がかかるタスクだ。多くの人々がAIへのアクセスに高いハードルを感じている。われわれはこれを変えていこうと決意している。

重要なのはLobeのアプローチがMicrosoftの既存Azure ML Studioプラットフォームと親和性が高いことだ。このプラットフォームは機械学習モデルの生成にあたってドラグ&ドロップによる直感的なインターフェイスをすでに提供している。ただし実用本位のデザインであり、Lobeチームのシステムのインターフェイスのほうが洗練されている。

LobeとAzure ML Studioはどちらも機械学習の普及を狙っており、TensorFlow、Keras、PyTorchなどの詳細な知識なしに誰でも機械学習を利用してアプリが開発できるようにするのが目標だ。もちろんこうしたアプローチにはそれなりの限界があるのは事実だが、「大量のコードを書かずにすむ」各種ツールは多くのユースケースで有用であり、十分に役割を果たすことが示されている。

原文へ

滑川海彦@Facebook Google+

東京にあるAI企業を地図化した「Tokyo AI Map」公開、本郷・渋谷に拠点が集中

AI専門メディアの「AINOW」は9月12日、東京で人工知能関連ビジネスを展開する企業を地図上にマッピングした「Tokyo AI Map」を公開した。

このマップは東京都内にある、AI関連企業169社をピックアップしたもの。AINOWによれば、2018年9月現在、都内でAI企業が密集している地域は、本郷、渋谷、有楽町の3エリアだという。

東京大学のキャンパスもある本郷は、大学構内にアントレプレナープラザがあり、AI関連スタートアップが入居する。5月に資金調達を行ったAidemyなど、UTEC(東京大学エッジキャピタル)が出資する企業も多い。またディープコアが開設したAI特化型インキュベーション拠点「KERNEL HONGO」が存在するのも、このエリア。昨年、東証マザーズに上場したPKSHA Technologyも、本郷に拠点を持つ。

7月に「SHIBUYA BIT VALLEY(シブヤ・ビットバレー)」プロジェクトが始まり、Googleが再びオフィスを移転する渋谷にも、多くのAI関連企業がオフィスを構える。現時点では特に道玄坂上方面に、LeapMindfluctSELTECHといった企業が集中。ほか、8月に資金調達を行ったAI-OCRツールのAI insideやファッションAIのSENSYなども渋谷にある。

また大手企業や外資企業が集まる有楽町エリアには、最先端のAI技術を駆使する大手企業と、AI業界で勢力を加速する新興AI企業が共存しているという。

最近スタートアップが集まり、五反田バレーとして注目される五反田にも、マツリカレッジ空色などのAIを活用する企業が存在。今後、ほかのAI関連企業の進出も増えるかもしれない。

AINOWでは、昨年9月にもB向け人工知能業界をまとめたカオスマップを公開している。今回公開されたTokyo AI MapはAINOWのサイト内で、2019年のカレンダー付きPDFとしてダウンロードすることができる。

Adobe Photoshopの‘コンテンツに応じた塗りつぶし’が性能アップ、おかしな失敗が減少

Adobe Photoshopの“コンテンツに応じた塗りつぶし”(content-aware fill)が登場したときは、誰もが感激した。退屈な名前だけど、すばらしく便利な機能で、画像のセレクトした範囲内にAIが選んだ画像の破片をリプレースして、そのまわりと同じ本物らしく見せかける。しかしAIは万能ではないから、ときどき、おかしな、笑えるような結果になった。でも今度の新しいツールでは、AIの失敗がほどんどなくなるそうだ。

今日(米国時間9/10)発表された予告編ビデオでは、コンテンツに応じた塗りつぶしの設定項目が大量に増えたから、修正作業が楽しくなるかもしれない。フォトグラファーは元々、加工や修正が好きな人種だが、修正のメニューが増えればそれだけ結果も良くなる。

以前は、どうだったか…

…ときどき、こんな結果になった…

[コンテンツ対応の失敗]

…今度からは右側に大量のオプションが並ぶのでそこから選ぶ。

いちばん重要な違いは、ユーザーが範囲指定をした領域内でどの部分を塗りつぶすべきかを、AIが選べることだ。上の失敗例では、馬の部分を塗りつぶそうとして、ほんの一筆(ひとふで)か二筆(ふたふで)ぶん、除外している。しかし正確である必要はない。人間の手とマウスによる指定が1ピクセルの精度で間違っていても、今度のアルゴリズムは正しく判断する。

改良されたアルゴリズムはさらにお利口になり、使用する成分の回転や縮小拡大も臨機応変に行なう。その方が良い、と判断したら、コンテンツの鏡像も使う。

塗りつぶしを、別のレイヤ(層)に出力できるので、アーチストにとって重要な「非破壊的編集」ができる。これは、前からあるべきだった、とぼくなどは思うね。

ここまで強力な修正をやると、純粋な人はしらけるかもしれない。でも、実際に手元にある写真を使うしかない場合もあるし、ちょっと牛の数が多すぎる、ということもあるだろう。手作業による写真修正の名人ではない人が、大きな修正をしなければならないときには、使ってもいいことにしておこう。

今回の新しいアップデートは“もうすぐ提供”ということだから、アップデートの通知によく注意していよう。

画像クレジット: Adobe

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

顧客エクスペリエンス事業を強化するAdobe

マーケティング担当者たちは、顧客をよりよく理解し、カスタマイズされたインタラクションを提供し、最終的に売上を増やすために、長年にわたりオンラインショッピング体験を最適化してきた。人工知能がそれを加速すると期待されてきたが、今日(米国時間9月10日)Adobeは、Adobe TargetとAdobe Experience Managerの強化を発表し、少なくとも部分的にその約束を実現しようとしている。

Adobeはここしばらく、その企業向けビジネスの強化に注力してきた、彼らは100億ドルの企業になるための道を順調に進んではいるものの、企業側からのさらなる収益の可能性は残されたままだ。彼らはそれをさらに推し進めるために、AIに大いに頼ろうとしている。

AdobeのLoni Starkは、企業はカスタマイズと最適化に関するより洗練されたソリューションを求めていると語る。その中には、マーケティング担当者がプログラムを調整してより良いエクスペリエンスを生み出すのを助けるために、Senseiと呼ばれるAdobeのインテリジェンスレイヤーを使用することが含まれている。

まず手始めに同社は、ユーザーが任意の一連のタスクに対して最適なアルゴリズムを選択する手助けをしたいと考えていいる。Adobeは、昨年Auto-Targetと呼ばれたツールをリリースして、AIによる支援を持ち込んでいる。「マーケティング担当者が直面してきた課題の1つは、どのアルゴリズムを使用するのか、そしてそれをどのようにパーソナライズ戦略にマップすれば良いのかです。Adobe Senseiによって、最高のアルゴリズムを選択することができます」。彼女は、マーケティング担当者たちに選択のためのスマートアシスタントを提供することで、このタスクが遥かに負担の少ないものになるという。

Adobeはまた、3月のAdobe Summitで初めて導入された、Smart Layoutsと呼ばれる新しいツールを使って、レイアウトデザインにある程度のスマートさを導入している。ここでのアイデアは、マーケティングチームがパーソナライゼーションの規模を拡大し、行動を起こす可能性を高める(つまり購買につながる)ことができるように、どの時点でも適切なレイアウトを提供しようというものだ。

ここでも、同社はAIにプロセスをガイドさせ、サイト訪問者の任意の時点での振る舞いに応じて、異なる対象層に対して異なるレイアウトを生成させる。すなわち、訪問者がショッピングプロセスを辿る際に、小売業者は知っていることに基いてより細かいページを提供できるようになる筈だ。よりカスタマイズされたエクスペリエンスを提供できれば、買い物客が実際に購入してくれる可能性が高くなる。

Adobeは、Amazon Alexaのようなデバイスが徐々に普及するにつれて、新しい配信チャネル、特に音声を使ったものを検討している。ウェブ、モバイル、プリント、その他の配信アプローチと同様に、マーケティング担当者たちは、異なる音声やワークフローに対してA/Bテストなどの基本的なタスクを適用する必要があり、Adobeはこれらをツールに組み込んでいる。

これらの新機能はすべて、顧客の業務を楽にするために、マーケティングツールを合理化し続けるAdobeの継続的な試みの一環である。人工知能を使用してワークフローをガイドすることで、彼らはデジタルエクスペリエンス部門からより多くの収益を得ることを期待している。これらのツールは役に立つはずだが、それでもAdobeはまだCreative Cloudから大部分の収入を得ている。6月に出された最新のレポートによれば、四半期の総収益22億ドルのうち、デジタルエクスペリエンス部門が占めるのはまだ5億8600万ドル(前年比18%増)に過ぎない。

AdobeはMagentoを獲得するために、5月に16億8000万ドルという大金を費やした 。彼らは9月18日に次の四半期レポートを報告する予定である。Magentoの買収と人工知能の利用の増加が、ビジネスのこの側面を拡大し続けるのに役立っているかどうかを見ることは興味深い。

[原文へ]
(翻訳:sako)

写真提供: John Lamb / Getty Images

PixFoodは食材の写真を撮るとレシピを提案する

AIと食べ物を掛け合わせると何ができるだろう? 腹を空かせたロボット? 驚いたことに、そうではない。 PixFood食材の写真を撮るとそれが何であるかだけでなく、その材料で作れる料理のレシピも教えてくれる。

資金は非公開で調達されている。

ファウンダーのTonnessonは「レシピ・アプリはたくさん出回っている。ただ、それは要するレシピを教えてくれるだけだ。PixFoodはそれと違って、ユーザーが何を作ったらいいかと考えているときに手持ちの材料で作れる料理のレシピを提供することができる。たしかにそういうことができるアプリもあるが、使い方が非常に面倒だ。何をしたいかアプリに知らせるために50の質問に答えていかねばならない」という。

PixFoodが公開されたのは8月だが、 月間アクティブ・ユーザーは3000人おり、ダウンロードも1万回を数えている。チームはさらにアプリの改良に取り組んでいるところだ。Tonnessonはまた次のように述べている。

PixFoodはAIベースで高度な写真解析機能を備えたフードアプリだ。使い方は非常にシンプルで、これから料理に使いたい食材の写真を撮るだけでいい。キッチンにある食材でもスーパーの売り場の棚でもいい。なぜこういうアプリを開発したかというと、高度に個人化可能だからだ。写真を撮るとアプリはユーザーの好みに合わせたレシピを送り返すことができる。最初は誰に対して同様の平均的なレシピ案だが、使っているうちにAIはユーザーの好みを覚えて、それに合わせたレシピを探すようになる。Aiはユーザーの行動パターンを認識し、それを考慮した回答を表示する。

私がざっとテストしたところでは、このAIはそこそこ満足に動くようだ。少なくともチンパンジーを料理するよう勧めてきたりしない。単に「トウモロコシ」とタイプすればいいという考えもあるだろうが、ともあれ機械視覚テクノロジーの興味ある応用だろう。名前の分からない食材でも写真に撮ればレシピを教えてくれるというのは正しい方向への一歩だ。写真であればホッグドッグ(イノシシ猟犬)とホットドッグを間違えるようなことはないだろう。

AIは将来、好みが似た他のユーザーを探したり、トウモロコシ(チンパンジーではなく)を買える店を教えてくれるようになるという。Tonnessonは「ユーザーはアプリがレストラン、生鮮食品スーパー、料理や食材キットの宅配サービスなどと提携していくと期待してよい」と述べている。

原文へ

滑川海彦@Facebook Google+

人気瞑想アプリHeadspaceがAlpine.AIの買収でAIを装備へ

3100万人のユーザーを擁し、評価額3億2000万ドル(約356億円)の瞑想アプリHeadspaceは、他の健康関連商品と差をつけようと、音声認識とAIの技術を倍掛けしようと考えている。同社は本日(米国時間9月4日)、デジタル・アシスタント市場の黎明期から活躍していた企業Alpine.AI(元VoiceLabs)を買収したと発表した。それには、Headspaceの主要アプリの音声による操作を高度化する狙いがある。

「現在、瞑想アプリはいくつかありますが、自分が今どの段階にあるかを的確な音声ガイドで教えてくれるものができれば、他社製品を大きく引き離すことができます」と、Headspaceの新CTO、Paddy Hannonは話している。彼は、Alpineから来た4人を率いて、Headspaceのサンフランシスコのオフィスに加わることになっている。

買収の条件は公表されていないが、Headspaceによると、その人材と技術の両方を引き継ぐとのこと。その中には、Alpine.AIの共同創設者でCTOのAlexandre Linaresと3人の技術者が含まれている。Alpine.AIのCEO、Adam Marchickは、今後は顧問として残る予定だ。

VoiceLabsは、長年にわたり、音声をベースにしたさまざまな製品を試してきた。その中には、Amazonに潰された音声を使った広告製品、音声アプリ開発者のための分析サービス、そして最近では、小売業者のカタログを読み込み、AIで顧客の製品に関する質問に答えるという、音声による買い物アプリを構築するためのソリューションもあった。

後にAlpine.AIと社名を変更したこの会社に、Headspaceは強い興味を示した。

Alpine.AIは、小売業者のためのソリューションを開発してきた。それは、顧客がボイス・アシスタントと自然に会話ができるようにするものだ。たとえば、マスカラについて尋ねると、ボイス・アシスタントは「何色にしますか?」とか「防水にしますか?」と聞いてくれる。

Headspaceは化粧品を売るつもりではないが、Alpine.AIの機械学習技術を自分たちの分野に応用する可能性に期待を寄せている。

現在、Headspaceの主要なインターフェイスには音声が使われている。瞑想セッションでは、心地よい、穏やかで、特徴ある声がユーザーをガイドする。この声は、共同創設者で、元チベット仏教僧のAndy Puddicombeのものだ。

これを基礎にして、Alpine.AIの技術を導入することで、ユーザーは音声によるインタラクティブな操作が可能になり、Headspaceの別の瞑想セッションを開拓したり、より丁寧な個別の指導を受けられるようにするという計画だ。

たとえば、ユーザーが「ストレスで参っている」と言えば、アプリは、その人のアプリ内の履歴を参考に、適切な瞑想法を推薦してくれる。

Alpine.AIの技術を追加することで、Headspaceは、参入企業が多くひしめき成長過程のこのセルフケア・アプリの世界で、大きな競争力を持つことになるだろう。Headspaceは、いちばんのライバルであるCalm.comに、評価額の面でわずかに優位に立っている。PitchBookのデータによれば、Calm.comの評価額は、およそ2億2700万ドル(約253億円)だ。

Headspaceの音声アプリを改良するという、第一の利点のほかにも、Apline.AIの技術には別の使い道がある。iOSとAndroidのアプリでは、ユーザーのアクションによって(音声コマンドではなく)、個別の助言を提示するという機能も考えられる。

Hannonによると、Alpine.AIには、その成り立ちによる魅力もあると言う。

「彼らはすべてをAmazonの上で作りました。Dockerを使用しています。大変に魅力的な買収だった理由には、それもあります」とHannonは説明している。「彼らは、私たちが内部で作っていたのと同じパターンでソフトウエアを作っていたのです。私たちが使っているのとほとんど同じデータベース技術も利用していました。彼らも私たちと同じ、RESTサービスを使ってます。なので、インフラの観点からすると、とてもわかりやすいのです」

「いつ面白くなるかと言えば、私たちの音声コンテンツを、彼らのテキストベースのシステムに加えたときです。しかし、AmazonがLexのようなサービスで提供しているのを見てわかるとおり、テキストから音声へ、または音声からテキストへ変換するシステムは数多くあります。そうしたものを使えば、実装は可能だと私は考えています」と彼は言っている。

今回の買収には、ボイス・コンピューティングの未来に賭けるという意味もある。音声で操作するデジタル・アシスタント機器の数は、この2年半の間に、世界中で10億台を超えるまでになっている。アメリカの家庭の20パーセントが専用のスマートスピーカーを所有していて、その数は増加すると見られている。

収益性の高いセルフケア・アプリ市場での人気アプリのひとつとして、Headspaceのユーザー数は、現在のところ3100万人に達している。そのうち、190各国にわたる100万人が有料加入者だ。また、同社は大企業とその従業員に瞑想エクササイズを提供するB2Bビジネスにも力を入れていて、250社以上の企業が契約をしている。

買収の時点で、Alpine.AIは、The Chernin Group、Javelin Venture Partners、Betaworksといった投資会社から「数百万ドル」を調達したシードステージの企業だった。しかし、音声で使えるスマートスピーカーの人気が確かなものになってはいるが、音声ベースのインターフェイスを開発する数あるスタートアップの中で、規模を拡大し、Nuanceや、Apple、Google、Amazonといったその他のプラットフォーム大手と肩を並べるようになったものは、まだない。それもまた、Alpine.AIの買収が魅力的だった理由だ(しかもイグジットに対してもオープンだった)。

Alpine.AIは、その製品を利用していたPetcoなどの少数の小売店との関係を縮小し、個別の移行プランを提示している。

「私たちのこれまでの努力が、ユーザーの健康的な習慣を指導したりガイドすることに特化できることを、とても嬉しく思っています」とAlpine.AIのCEO、Adam Marchickは、買収について話している。「Alpineの機械学習能力は、Headspaceの取り組みを加速し、新しい会話エクスペリエンスを市場にもたらすでしょう」

[原文へ]
(翻訳:金井哲夫)

Googleアシスタントが日英バイリンガルになった――英独仏西伊日を自由に組み合わせ可能

Googleアシスタントがさらに賢くなってバイリンガルになった。今日公開されたアップデートではGoogle Homeアプリの設定から、たとえば英語とスペイン語、英語と日本語のように2つの言語を選べるようになった。Googleアシスタントはどちらの言語によるコマンドにも反応する。

今日のアップデートはある程度予想されていた。 Googleは今年2月のI/Oカンファレンスでアシスタントのバイリンガル機能を開発中だと明かしていた。次のI/Oまだまだだいぶ間がある今の時期に無事に新機能が公開できたのは何よりだ。

今のところアシスタントはバイリンガル、つまり2言語のみサポートする。英語、ドイツ語、フランス語、スペイン語、イタリア語、日本語の6ヶ国語から自由に2つの言語を選択できる。Googleでは他の言語への拡張にも取り組んでおり、また将来は3言語の利用をサポートする計画だという。

Googleは私の取材に答えて、この機能は一旦設定すればアシスタントがその言語をサポートしていさえすればあらゆるデバイスで有効になると述べた。つまりアシスタントを搭載したほぼすべてのスマートフォン、スマートスピーカーということだ。ただし最近発表されたスマートディスプレイはまだ英語しかサポートしていないので例外となる。

一見したところでは簡単なことに思えるかもしれないが、 Googleはこのようなバイリンガル化は完成までに何年もかかる複雑な作業だったと述べた。このようなシステムでは複数の言語をサポートをしているだけでなく、ユーザーが話す言葉がどの言語であるかを識別し、理解し、適切な言語で反応する必要がある。しかもこれを数秒以内に行わなければならない。

Googleのバイスプレイジデント、Johan Schalkwykとスピーチ認識のエンジニア、Lopez Morenoは今日の発表でこう書いている。

われわれの言語認識モデル(LangID)は2000種類の言語ペアを識別できる。次に、サポートされている言語による音声コマンドを適切に実行するシステムを開発した。ユーザーの発話が停止すると同時にシステムはそれが何語であるか決定するだけでなく、何が言われたのかを理解しなければならない。こうしたプロセスはそれ自体極めて高度なアーキテクチャーとなるが、不必要なレイテンシーを排除するためにさらに余分のコンピューティング資源を要した。

ドイツ、フランス、イギリスのユーザーはこれらの地域で今日から発売される大型の Google Home Maxでもバイリンガル機能を利用できる。

また今日の発表によれば、 Googleは近くバイリンガルのサポートをtado°のスマート・サーモスタットのようなデバイスにも広げるという(ただし、当然だが、AmazonのRing Alarmのような独自製品は対象とならない)。

〔日本版〕バイリンガル機能は日本でもすでに有効。新言語の追加はHomeアプリなどから「設定→カスタマイズ設定→アシスタントの言語」オプションを開く。タップすると追加できる言語のリストが表示されるが、地方別に言語の種類を指定する必要がある。英語の場合、アメリカ、イギリス、カナダ、オーストラリア、インド、シンガポールが用意されている。下のビデオでは日仏バイリンガルの例が登場する。

原文へ

滑川海彦@Facebook Google+

Microsoft、ビデオの自動文字起こし提供へ――Office 365にAIベースのアップデート

今日(米国時間2/28)、MicrosoftはOffice 365契約者のOneDriveとSharePoint向けにAI利用のアップデートを発表した。これによりMicrosoftのクラウド・ストレージに機械学習を利用した強力な能力が備わることになる。

新機能が実装されるのは今年中の見込みだ。MicrosoftのIgniteカンファレンスは来月フロリダ州オーランドで開催される。ここで今日のアップデートのいくつかのデモが見られると予想してもよさそうだ。

OneDrive、SharePoint向けアップデートのハイライトのひとつはビデオとオーディオのファイルからの自動文字起こしだ。ビデオ記録はたしかに素晴らしいが意味のある情報を取り出そうと思うとひどく時間を食う。まずどれが自分の求めている情報を含むファイルなのか決めるのに手間がかかる。ファイルを見つけてもさらに文字起こしをしなければならない。Microsoftによれば、新しいサービスはユーザーがビデオを視聴するとき、リアルタイムで音声を自動的に文字起こしして表示するという。320種類のファイルをサポートするのでユーザーがどんなファイルをアップロードしても対応できるだろう。

今日発表された他のアップデートには、 OneDriveとOffice.com向けの新しいファイルビューがある。これはOffice 365でユーザーがファイルを探す場合、最近利用されたファイルに基づいてシステムが必要なファイルを推測して候補として表示するというものだ。Microsoftでは近くこのアルゴリズムを他のアプリにも拡張する。たとえばPowerPointでファイルを作成してプレゼンしたとすると、システムはそのファイルを同僚と共有するよう提案する。

また知識のあるユーザーは、OneDriveないしSharePointのどのファイルについても利用状況をチェックすることができるようになる。

原文へ

滑川海彦@Facebook Google+

ブロックチェーンを破壊するハッカーの手口をシミュレーションしてデベロッパーの事前対策を可能にするIncentivai

暗号通貨のプロジェクトは、人間がそのブロックチェーンを悪用すると破綻する。しかも分散デジタル経済が実際に動き出し、コインが離陸すると、それらを統治するスマートコントラクトの修復は難しい。あくまでも、デベロッパーによる事前対策が必要である。そこで、今日(米国時間8/17)ステルスを脱したIncentivaiは、その人工知能によるシミュレーションで、セキュリティホールを調べるだけでなく、ブロックチェーンのコミュニティを構成している人間たちの貪欲や非論理性にメスを入れる。暗号通貨分野のデベロッパーはIncentivaiのサービスを利用して、自分たちのシステムが動き出す前に、その欠陥を修復できる。

Incentivaiの単独のファウンダーPiotr Grudzieńはこう言う: “スマートコントラクトのコードをチェックする方法はいろいろあるが、新たに作った経済が期待通りに動くことを確認する方法はない。そこで私が考えたのは、機械学習のエージェントを利用するシミュレーションを作り、それが人間のように振る舞うことによって、システムの未来の振る舞いを予見する方法だ”。

Incentivaiは来週Y Combinatorを卒業するが、すでに数社の顧客がいる。顧客(ユーザー)は、Incentivaiの有料サービスにより自分たちのプロジェクトを監査してレポートを作るか、または自分でそのAIによるシミュレーションツールをホストしてSaaSのように利用する。同社がチェックしたブロックチェーンのデプロイは数か月後になるが、そのとき同社はすでに、そのプロダクトの有意義性を実証するための、いくつかのケーススタディーをリリースしているだろう。

Grudzieńは説明する: “理論的にあるいは論理としては、一定の条件下ではこれこれがユーザーにとって最適の戦略だ、と言うことはできる。しかしユーザーは、合理的でも理性的でもない。モデルを作ることが困難な、予想外の行動がたくさんある”。Incentivaiはそれらの理不尽な取引戦略を探求して、デベロッパーがそれらを想像しようと努力して髪をかきむしらなくてもよいようにする。

人間という未知数から暗号通貨を守る

ブロックチェーンの世界には巻き戻しボタンがない。この分散技術の不可変かつ不可逆的な性質が、良かれ悪しかれ、一度でもそれを使ったことのある投資家を遠ざける。ユーザーが偽りの請求をしたり、贈賄によりそれらを認めさせようとしたり、システムを食い物にする行動を取ったりすることを、デベロッパーが予見しなければ、彼らは攻撃を阻止できないだろう。しかし、正しくてオープンエンドな〔固定しない〕(AIに対する)インセンティブがあれば…これが社名の由来だが…AIエージェントはなるべく多くの収益を得るために自分にできることをすべてやってみて、プロジェクトのアーキテクチャにあるコンセプトの欠陥を明らかにするだろう。

Grudzieńはさらに説明する: “この〔すべてをやってみるという〕やり方は、DeepMindがAlphaGoでやったものと同じで、さまざまな戦略をテストするのだ”。彼はケンブリッジの修士課程でAIの技能を究め、その後Microsoftで自然言語処理の研究を担当した。

Incentivaiの仕組みはこうだ。まず、デベロッパーは、ブロックチェーンの上で保険を売るなどの、自分がテストしたいスマートコントラクトを書く。IncentivaiはそのAIエージェントに、何を最適化するのかを告げ、彼らが取りうるすべての可能なアクションを羅列する。エージェントの役柄はさまざまで、大金を手にしたいと思っているハッカーだったり、嘘をばらまく詐欺師だったり、コインの機能性を無視してその価格の最大化だけに関心のある投機家だったりする。

そしてIncentivaiはこれらのエージェントにさらに手を加え、彼らを、ある程度リスク忌避型だったり、ブロックチェーンのシステム全体を混乱させることに関心があったり、といったタイプにする。それから、それらのエージェントをモニターして、システムをどう変えればよいかというインサイトを得る。

たとえば、トークンの不均一な分布がパンプ・アンド・ダンプ(pump and dump, 偽情報メールによる価格操作詐欺)を招く、とIncentivaiが学習したら、デベロッパーはトークンを均一に分割して、初期のユーザーには少なめにする。あるいはIncentivaiは、認められるべき支払請求をユーザーが票決する保険製品は、投票者が偽の請求を偽と立証するために支払う債権価格を上げて、詐欺師から収賄しても投票者の利益にならないようにする必要があることを、学ぶかもしれない。

Grudzieńは、自分のスタートアップIncentivaiについても予測をしている。彼の考えによると、分散アプリケーションの利用が上昇すれば、彼のセキュリティサービスのやり方を真似るスタートアップが続出するだろう。彼によると、すでに一部のスタートアップは、トークンエンジニアリングの監査や、インセンティブの設計、コンサルタント活動などをやっているが、ケーススタディーを作る機能的シミュレーションプロダクトは誰もやっていない。彼曰く、“この業界が成熟するに伴い、そういうシミュレーションを必要とする、ますます複雑な経済システムが登場するだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ファッションにAIを活用するということ

この夏の結婚式シーズン、僕はスーツを新調する必要に迫られた。スーツ選びに際し、冒険をしてみよう、これまで検討すらしなかった色のものを買おうと心に決めていた。その結果、僕は映画館の案内人のような、そして少しJidennaっぽいものを選んだ(編集部注:Jidennaは米国のラッパー歌手)。もし知っていたら、スーツを選ぶのにオーダーメードスーツ専門のEison Triple Threadを使っていたかもしれない。

誰かの助けを借りながらスーツをあつらえるというのはなかなか難しい。つくるときは、ボディのタイプや好み、他の関連要素も勘案しなければならない。それらのほかに、スーツ会社やデパートが取り入れていないような要素としては何があるだろうか。他社と差別化を図るために、Eison Triple Thread はFITSという顧客のライフスタイルや音楽の好みに基づいてウェブからテーラーメードを申し込めるサービスを始めた。

Eisonの創業者でCEOのJulian Eisonは、プレイグランドでよく遊ぶ子供で、彼の両親がEisonに見栄えのセンス、出歩くときはできるだけいい格好をするようにと教え込んだ。

「スタイルやカラーについて、服を着るとき僕はかなり気を使っていた」とEisonは言う。「僕はJordanを集めるような子供で、少しでも自分を格好良く見せたかった。というのも、ファッションが気になって仕方なかったから。成長するにつれ、どんどんファッションにのめり込んでいった」

プライベート・エクイティで6年間働いたが、彼はそこで売り手、買い手両サイドからのテックの流れを見ることができた。そしてEisonはファッションへの愛とテックへの興味を組み合わせることにした。2014年、Eisonはスーツを購入するのにデパートではない違う手段を自分の手でつくれないか、サンフランシスコの自宅のガレージで模索を始め、Eison Triple Threadをうみ出した。

「ビジネスを立ち上げた当時、いかに視覚化するかが主要な課題だった」とEisonは振り返る。「どうやったら体を視覚化でき、体にぴったりフィットするものを考えられるようになるか」。

スタイリッシュなデザインのスーツをオーダーメードでつくる会社は、Eison Triple Threadだけではない。Indochino、Bonobos 、Stitch FixなどはEison Triple Threadの前から事業展開しているが、いずれも目的は同じだ。だからこそ、どうやってライバルと差異を図るのか。そうした流れの中で、Eison Triple Threadが人工知能とSpotifyに行き着いたのはある意味当然のことだった。

「音楽というのは、日々の活動の中心にあるもの。国境や色などは関係なく、その人がどんなプロジェクトに携わっているのかといった普段知ることができないようなことも明らかにしていく」とEison は語る。「だから我々は本当にコアなものである音楽にこだわっている。音楽はその人の決断や選択、アイデンティティやムードにかかわっている」。

このサービスを使うには、まずユーザーは FITSシステムにSpotifyのIDでログインし、ライフスタイルに関する質問に答える。質問は、どんな産業に従事しているのか、仕事のときはどういう服装をしているか、どのような交通手段を利用しているのか、自由な時間は何をして過ごしているのか、自分自身を表す言葉は何か、といったものだ。こうした基本的な情報からデータを積み上げていく。

「ライフスタイルに関する質問は、その人のファッションや関心、好み、どんなことをするのが好きなのかといったことを把握するのが目的。それらを分析し、フィット感やスタイルについての情報を得る」。

  1. Quiz

  2. quiz2

  3. quiz3

  4. quiz4

  5. quiz5

  6. quiz6

 

ユーザーがファッションに関する自分の好みなどについてできるだけ正直に答えている間に、FITSはAPIを通じてSpotifyであなたの音楽の好みを模索する。音楽のジャンルだったり、いつ音楽を聴く傾向にあるのか、どれくらいの時間聴くのかといったことなどだ。これらの作業にかかる時間はわずか15分だ。もっとも、僕のように自分を表すものを4つの選択肢の中から1つだけ選ぶのに時間がかからなければの話だが。内省的、情熱的、元気、エネルギッシュ、この4つの全てに僕は当てはまる。

クイズに全て答え終わったら、ウェブ画面はEisonが呼ぶところの“ルックス”のリストに移る。ルックスは、質問に対するあなたの回答から収集されたデータに基づいている。そのルックスは、EisonとプロダクトディレクターのDario Smithのお眼鏡にかなったものをベースに彼らが定期的に管理するイメージ・コレクションからアップされている。Eisonによると、直近ではデータベースに3000近くのイメージがあり、季節ごとに新しいものを加え、顧客に定期的に案内している。

顧客は、色のマッチングや生地の手触りを連想させるもの、その他のデータなどを含む写真のメタデータにアクセスできる。Eisonは、次のリリースでは顧客が必要な写真をアップロードすることで肌のトーンを特定できるようにする、と話す。加えて、ファッションの分布を理解するために写真メタデータを活用する。これらが使えるようになれば、アルゴリズムの精度をより高めるためにローカルのファッションやトレンドについて知見を得ることができる。

「なにがしらの数のスタイルがあるとして、それらを表現するものを持っていたい」とEisonは語る。「我々はそうしたイメージを集め、重要性や関連性に基づきながら定期的にアップすることができる」。

僕の方はというと、僕の音楽的な好みを引き出すために、バックグラウンドでSpotifyを動かしながら質問に答える。好みの音楽とは、ミュージカルのための曲(HamiltonsやRagtimes、Cabaretsなど)、Jidenna、Calle 13、Moanaからの選りすぐり(そう、その通り!)、Nathaniel Rateliff、 Night Sweats、そしてほんの少しの古い R&Bなどだ。

結果はというと、Eison databaseから引っ張ってきた幅広いレンジのスーツに身を包んだ、年代や人種、サイズが異なる25枚の写真だ(うち5枚が以下に)。僕はその写真のほとんどに興奮を覚えたが、僕の好みにしてはダブルボタンのものがやや多すぎた。それは僕のせいだと思う。しかし、そのスタイルは僕が絶対着たい、と思うものではない。もしくは、それがこのシステムのポイントなのかもしれない。自分には似合わないだろうと思い込んでいたり、着るなんて想像できないと感じている人にそうした新しいスタイルを提案する。

  1. look

  2. look2

  3. look3

  4. look4

  5. look5

提案されたものから何か1つ選ぶと、細部を詰める。ジャケットボタンの数やスタイル、ボタンホールの色、裏地の色や生地、ズボンの腰回りのスタイル、そのほかにも考えつくあらゆる点を含む。将来的には、スタイルを提案する写真に自分自身が登場するというのも可能になると僕は思う。

全ての選択が終わったら、採寸となる。自宅で自分で採寸してもいい。僕はEisonのスタジオにいたので、名誉なことにSmithがしてくれ、僕が考えもつかなかったような箇所の測定もした。たとえば、彼らは僕の姿勢や僕が腕を体側にどのように置くかといったことも考慮する。この経験で、僕は大人になってから着てきた服がなぜあまりフィットしなかったのかを理解した。

2週間後、スーツが届く。お店のラックから選んだものではなく、ライフスタイルや音楽の好みをもとに提案されたスーツだ。そのスーツはその人だけにぴったりとくる。僕のスーツもぴったりだった。しかし、それは採寸をもとにしているのだから驚きではない。ここで特別なのは、Spotifyと機械学習を活用しているということだ。FITSシステムは僕にライトグレーのスーツは避けたほうがいいとアドバイスしてくれた。これにより僕は自分のファッションにおける安全圏から足を踏み出すことになり、こうしたことがなければ着ることもなかったスーツを身にまとうことになった。

音楽ストリーミングとAIの助けを借りたスタイルというのは悪くない。

イメージクレジット: Eison Triple Thread

[原文へ]

(翻訳:Mizoguchi)

「未来の仕事」に備えて――終身雇用の終わりと教育、法制度のあり方

【編集部注】本稿はJim HimesとAlastair Fitzpayneによる共著。Himesは下院議員(コネチカット第4区選出)で、New Democrat Coalitionの議長。Fitzpayneはアスペン研究所Future of Work Initiativeのエグゼクティブ・ディレクター。

今年アメリカの大学を卒業する200万人もの若者の多くは、彼らの両親や祖父母が理解できないようなキャリアを進むことになるだろう。安定した職業やひとつの企業でキャリアをまっとうするような時代はもう終わったのだ。

ハーバード大学エクステンションスクールの学長を務めるHunt Lambertによれば、最近大学を卒業した人たちは、社会人生活の中で3つの異なるキャリアを渡り歩き、約30もの仕事に就く可能性があるのだという。さらに多くは個人事業主、もしくはフリーランスとして仕事に携わることになるため、健康保険や退職金、トレーニングといった重要な福利厚生を期待できない。

すでにテクノロジーや人工知能が仕事の中身だけでなく、業界全体を変えつつあると感じている労働者もいる。eコマースは小売業を変容させ、ビッグデータと自動化は製造業を変えつつあるだけでなく、近い将来、自動運転車がモビリティを変え、ドローンが小売業にさらなる変革をもたらす可能性さえある。最近発行されたレポートの中でMcKinsey Global Instituteは、2030年までにおよそ60%の職業で少なくとも業務の3分の1が自動化されると予測している。機械が徐々に「人間の」仕事をこなせるようになれば、労働者は以前とは違う仕事を担当するか、新たな仕事を求めて別の業界に移らなければならなくなる。

これこそが法制度を見直さなければならない理由だ。仕事の性質が変わり続けるなか、もはや私たちは労働者の保護・育成のために時代遅れのシステムや教育機関に頼ってはいられないのだ。そしてすべてのアメリカ国民が変化し続ける経済環境のなか成功をおさめるために、私たちは今考え、行動を起こさなければならない。最近New Democrat Coalition(NDC)は、未来の仕事というテーマに特化したEconomic Opportunity Agendaを発表した。この中でNDCは、労働者のスキルと求人のギャップを埋め、雇用者と被雇用者の関係を再考し、そして労働者と起業家を支援するというビジョンを謳っている。

仕事とキャリアが変化を続ける一方で、アメリカは未だに20世紀の世界のために19世紀に作られた教育・トレーニングシステムに頼り切っている。私たちの親の世代であれば、高等もしくは中等教育を修了していれば、安定した職と収入を期待できた。しかし今日の世界では、4年制の大学を卒業しても充実したキャリアを手に入れるために必要なスキルを身に付けることができないのだ。

テクノロジーやアメリカ経済の急速な変化に対応するためには、政府、雇用者、そして被雇用者が一丸となって、キャリアの進展に応じて労働者が新しいスキルを身に付けられるような、スキル習得に特化した柔軟な生涯学習システムを作っていかなければならない。さらに従来の教育システムとオンライン教育プログラムを一新し、より多くの人が教育にアクセスできるような政策が施行されなければならない。そうすれば、労働者はキャリアを確保できるだけでなく、テクニカルな教育を受けられ、自身のスキルを育めるようになり、同じ職業でよりレベルの高い仕事についたり、転職したりできるだろう。

しかしアップデートしなければならないのは、教育やトレーニングのシステムだけではない。雇用者、被雇用者、政府からなる20世紀の社会契約は、強固な中産階級を作り上げ、アメリカ経済が世界一になる基礎を築いた。しかし雇用者・被雇用者の関係をめぐる法制度は次第に過去の遺物となりつつある。

例えば失業保険は労働者を守るための社会保険システムの柱として1935年に生まれた。しかしこれはフルタイムの労働者のために設計された制度であるため、1950年代は約50%だった受給率は、2010年以降、30%未満に落ち込んでいる。つまり、従来の「被雇用者」という枠におさまらない、およそ1500万人もの労働者には、雇用者・被雇用者という関係が前提の20世紀に生まれた法制度が当てはまらないのだ。

だからといって、失業保険のような重要な社会保障制度の対象を少数の「ラッキーな」人たちだけに絞る道理はない。このような便益は、たとえキャリアが変わったとしても継続できなければいけないはずだ。

仕事の変化によって、労働力やテクノロジーに関する課題が生まれ、停滞を続ける賃金や起業件数がさらにそれを深刻化させている。経済を成長させるためには、バランスのとれた法制度を整備し、労働者の交渉力を高めつつ、雇用者が彼らのスキルを伸ばし、優秀な労働者を保持できるようにしなければならないのだ。

現状の法制度を「21世紀版」にアップデートするような革新的な政策、そして現状打破に前向きな雇用者――このふたつが揃えば、アメリカの労働者は変化の早い経済で成功するためのツールを手に入れられるだろう。

Image Credits: nonchai

原文へ

(翻訳:Atsushi Yukutake

IBM Watson Healthと復員軍人省が退役軍人のがん治療でパートナーシップ

IBMのWatson Healthと復員軍人省が今日(米国時間7/19)、Watsonの人工知能を使って末期がんの退役軍人を支援する共同事業を今後も継続する、と発表した

Watsonは一般的には、ゲームのJeopardy!人間に勝ったことぐらいしか知られていないが、2016年にはオバマ政権の全米がん撲滅運動に従って、復員軍人省の精密腫瘍学プログラムに参加した。Watsonと省の腫瘍学者たちは、患者が提供した腫瘍の標本を分析し、がんのゲノムの突然変異を探究した。そのとき得た情報により、患者別の投薬や治療の方針をより精密にすることができた。

両者のパートナーシップが始まったときには2700名あまりの退役軍人を研究と治療の対象にできたが、今日の発表では省の腫瘍学者たちが少なくとも2019年までWatsonのゲノム研究技術を利用できることになった。

IBM Watson HealthのトップKyu Rhee博士はこう語る: “膨大な量の医学情報と具体的な個人のがんの突然変異を正しく関連付けることは、きわめて困難である。その意味でAIは、精密腫瘍学の対象規模を大きくすることに、重要な貢献をしてくれる。とくに復員軍人省とのパートナーシップは、アメリカで最大の総合的ヘルスシステムになる”。

2016年にこのパートナーシップが始まる前には、IBMはWatsonを、20以上のがん治療/研究機関で訓練した。そしてその初期の結果に基づき、科学者と医師によるチームが意思決定を行った。

2年間の訓練でAIに医学の学位を与えることはできないが、Watsonが人間のプロフェッショナルよりも得意なのは、データの消費だ。全米がん研究所のデータによると、アメリカのがん患者の3.5%が退役軍人と言われるだけに、大量のデータから情報を取り出す能力はきわめて重要だ。がん患者は年々増えており、2018年には新たにがんを診療した患者が170万名あまりに達した。

これだけの患者に適切な治療と処置を提供していくことは、多くの意味で数との勝負だ。そして数こそが、Watsonが得意技を生かせる領域だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Oculusのファウンダー、パーマー・ラッキーのAndurilが一歩前進――AI/VRでメキシコ国境の越境者探知に成功

Oculus VRのファウンダー、パーマー・ラッキーの防衛産業におけるスタートアップ、ステルス・モードから半歩踏み出した

ラッキーがAnduril Industriesを創立してほぼ1年になるが、この間何回かの公式ツイートとWiredの好意的な紹介記事や以外にこのスタートアップは秘密のベールに包まれていた。州の記録によれば、同社は2017年6月にオレンジ・カウンティーでパーマー・ラッキー、Oculusの初期のハードウェア責任者、Joe Chen、3人の元Palantir社員(Matt Grimm、がCOO、Trae Stephensが会長、Brian SchimpfがCEO)によってひっそりと創立された。

一般のテクノロジー・スタートアップとは異なり、防衛産業では秘密のうちに活動するのが普通だが、新たな投資家や政府契約を得るためにそのテクノロジーにときおりスポットライトを当てる必要がある。2017年にTechCrunchではAndurilが「戦場での認識力増強に役立つAR/VRを開発中」だと紹介している。

Wiredの記事 にもあるように、Andurilはメキシと国境監視システムをLattice(格子)と名付けている。このシステムは既存のデバイスやセンサーを利用するためハイテクだがローコストだ。現在提案されているコンクリートの壁の構築に比べて大幅にコストを圧縮できるという。Latticeは全体がネットワーク化され、収集されたデータをAIシステムが処理して人間の侵入を検知する。侵入者はモニター画面に緑枠のボックスでハイライトされ、税関国境警備局にリアルタイムで通知される。

Andurilはこのシステムをテキサスの私有地で2018年からテスト中だ。テキサス州選出の下院議員、 Will Hurdと国境付近の牧場の所有者の協力を得ている。第2のテストサイトではDHSと国境警備局が協力しているという。

Wiredの紹介によれば、12日間の予備的オペレーションで効果が確認されている。Latticeはテキサス南の国境で越境者55人を逮捕し、サンディエゴのサイトでは10件の越境を阻止したという。

Andurilの2番目のプロジェクトはSentry(歩哨)と呼ばれ、 カリフォルニアで火事の消火にあたる装甲車スタイルの自動走行車両だ。MythBusters〔「怪しい伝説」〕で有名なジェイミー・ハイネマンがAndurilと契約してオークランドで開発に当っているようだ。このリモコン装甲消防車は、Wiredによれば「放水や操縦はまったくビデオゲームそのまま」の感覚だったという。

創業当初のプロフィール情報に加えて、 Andurilはウェブサイトをアップデート し、文言を多少入れ替えたり、ファウンダーの略歴を掲載するなどしている。またテクノロジーを中心とした世界の軍拡競争に遅れを取らないよう備えることをミッションとして挙げている。

中国とロシアの指導者の発言を見るだけで明らかだが、これらの国はテクノロジーの優越性を目指しており、将来の戦いに勝つために巨大なりソースを投入している。また最高の人材をこの目的のためにリクルートしている。

われわれはこれにならう必要があり、またこれを実行するだろう。

すでにわれわれも報じたとおり、Andurilはトランプ政権と密接な関係を維持している。テクノロジー分野の有力投資家のピーター・ティールの同僚でAndurilの共同ファウンダーであるTrea Stephens(Stephensは新政権の政権移行チームに加わり国防省の調達プロジェクトを担当したことがある)とラッキーは大統領選挙でトランプ候補の熱心な支持者だった。 Andrulisは2017年にロビー活動費用として、著名なInvariant社を通じて 8万ドルを支出している。2018年には6万ドルだった。

Andurilのプロジェクトはトランプ政権が提唱する物理的な「壁」とはコンセプトが異なるものの、パイロット・プログラムは成功だったようだ。これは連邦政府から契約を得るうえで追い風だろう。

画像:John Moore / Getty Images

[原文へ]

(翻訳:滑川海彦@Facebook Google+

メアリ・ミーカー、恒例のインターネット・トレンドを発表――全スライドと重要ポイント要約

テクノロジー分野の最新の数字を漏れなく知っておきたいなら朗報だ。伝説のアナリスト、ベンチャー投資家、 メアリー・ミーカーがInternet Trendsの2018年版を発表した。記事末に294ページに及ぶスライド全体をエンベッドしてある。モバイルからeコマースまであらゆるジャンルがカバーされている。ここでは特に重要と思われる点を選んで要約してみた。

  • Internetの普及: 2018年には世界の人口の半数、約36億人がインターネットにアクセス可能になる。これをもたらした大きな要因は安価なAndroidスマートフォンとWifiだ。ただしインターネットの普及が飽和点に近づくにつれ、個々のサービスは新たなユーザーを獲得することが困難になるものと予想される。
  • モバイル利用状況:インターネット・ユーザー数の増加率が低下するとともにスマートフォンの出荷は頭打ちとなった。一方、モバイルの普及によりアメリカの成人がオンラインで過ごす時間は増えている。 2016年には1日あたり平均5.6時間だったものが、 2017年には5.9時間に増加した。
  • モバイル広告: 消費者がモバイルにシフトするスピードは速く、広告費はそれに追いついていない。モバイル利用時間に広告費が比例するためにはさらに70億ドルの支出が必要。各プラットフォームはコンテンツの選別を次第に強め、内容が安全と認められるページに出広する傾向にある。
  • 暗号化:オンラインの暗号通貨はブームを巻き起こしている。Coinbaseのユーザー数は2017年1月以来4倍に増えた。
  • 音声: 音声テクノロジーがいよいよブレークした。音声認識の精度が95%を超えた。また2017年にはAmazon Echoの販売台数累計も1000万台から3000万台に増加した。
  • 1日あたり利用状況: Facebookなどのサービスの売上は1日あたりユーザー数の増加に強く結びついている。つまりユーザーがそのサービスの利用を習慣化するかどうかが収益性のカギとなる。
  • テクノロジー投資: 上場、非上場企業ともテクノロジー投資は過去最高を記録している。上場企業におけるR&D投資プラス資本的支出のトップ6社はすべてテクノロジー企業だった。

写真はMorgan Stanleyのアナリスト当時のメアリー・ミーカー。サンフランシスコで 2010年11月16日に開催されたWeb 2.0 Summitで講演中のもの。現在ミーカーはベンチャーキャピタル、KPCBのパートナーで、今年も11月17日に講演の予定。タイトルは「コントロール・ポイント:ネットワーク経済をめぐる戦い」。撮影:Tony Avelar/Bloomberg/ Getty Images

  • eコマース対現実店舗:eコマースの成長は加速し、全リテール支出の13%を占めるまでになった。オンライン・ショッピングと商品の発送数は急増しており、ショッピング・アプリにはビッグチャンスとなっている。
  • Amazon:ますます多くの消費者が検索エンジンよりむしろAmazonで商品の検索を行うようになった。AmazonのCEO、ジェフ・ベゾスは依然としてFacebookやYouTubeで消費者の購買意欲をかきたてる努力を続けている。
  • サブスクリプション・サービス:契約者数は急増している。2017年には対前年比でNetflixは25%、New York Timesは43%、Spotifyは48%それぞれアップした。フリーミアム・モデルは有料契約へのコンバージョンを加速する効果がある。
  • 教育: 学資ローンの返済額が急上昇するにつれ、雇用者は企業が必要とする新しい能力を学ぶためYouTubeや各種のオンライン・コースを利用する傾向を強めている。
  • フリーランス化:雇用者は在宅勤務を含めて柔軟性の高い労働時間を強く求めるようになった。またインターネットを利用したフリーランス雇用は全雇用の3倍の伸び率を示している。2017年にオンデマンド労働は23%増加した。これはUber、Airbnb、Etsy、Upwork、Doordashなどのサービスの成長によるところが大きい。
  • 運輸交通:自動車の購入台数は減少傾向にあり、長く乗るようになった。交通関連への支出はUberなどライドシェア・サービスにシフトしている。2017年にはライドシェアへの支出は倍増している。
  • エンタープライズ: エンタープライズ向けサービスがより良いインターフェイスを得てコンシューマ・アプリ化している。DropboxとSlackが.このような急成長の代表的な例。
  •  

  • 中国: 中国のユーザーはアメリカと比較してプライバシーと交換に利便性を獲得することをためらわない傾向がある。 これは中国企業の競争力を高めており、インターネット企業のトップ20にますます多くの中国企業が加わる結果を生んでいる。またこれらの企業はAIに巨額の投資を行っている。
  • 中国のeコマース: Alibabaが商圏を中国の外に急拡大している。売上では依然Amazonがリード。
  • 移民:アメリカのトップ企業の56%は移民1世または2世によって創立されており、経済成長にとって決定的に重要な要因となっている。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

アルゴリズムは私たちの思考をハッキングしているのか?

【編集部注】著者のAdriana Stanは、W magazineの広報担当ディレクターであり、メディア、文化、テクノロジーに関する著作も行っている。彼女はまた、Interesting People in Interesting Times(興味深い時代の興味深い人びと)イベントシリーズとポッドキャストの共同創業者だ。またもうひとりの著者Mihai Botarelは、RXM Creativeの共同創業者であり、社会とテクノロジーに関する著作を行っている。

Facebookは私たちの情報へのアクセス方法を決めTwitterは世論を左右しTinderはデートの意思決定に影響を与える。私たちの選択作業を助けるために、私たち自身が開発したアルゴリズムが、現在の私たちの生活のすべての側面を積極的に動かしているのだ。

しかし、ニュースを探す方法から、周囲の人びととつながる方法に至るまで、すべてのことに対してアルゴリズムへの依存を深めるようになるにつれて、私たちは自分自身の振る舞い方を自動化しているのではないだろうか?人間の思考はアルゴリズムのプロセスを模倣し始めているのだろうか?そして、ケンブリッジ・アナリティックによる大失敗は、アルゴリズムが私たちの集団的思考に入り込んできたときに、何がやって来るのか、そして何が起きるのかに関する警告なのだろうか?

このようになることは想定されていなかった。製品、人物、そして常に溢れる驚くべき量の情報からの選択作業に圧倒された私たちは、取り巻く世界をより良く、より早く、より簡単に生きていくために、プログラムを行ってきたのだ。明確なパラメータと一連の単純なルールを使用することで、アルゴリズムは複雑な問題を理解することを助ける。彼らは私たちのデジタルコンパニオンであり、 あらゆる局面で生じる現実的な課題を解決し、意思決定の方法を最適化してくれる。近所で最高のレストランは何処だろう?Googleがそれを知っている。目的地にはどう行けば良いのか?Apple Mapが役に立つ。最新のトランプスキャンダルは何だろう?Facebookを読めば分かるかもしれないし、分からないかもしれない。

私たちのあらゆる必要性と欲望を予測できるように、コードとアルゴリズムが、私たちの好きなもの、嫌いなもの、嗜好などに関して、よく知っているなんて、素敵なことではないだろうか?このおかげで、私たちは見ているものに対して考え込んで時間を浪費する必要はないのだ:ただ自分の意見を強化するのに最適な記事を読み、個人的な基準に見合う人物とデートを行い、お馴染みのお楽しみの中に我を忘れることができる。私たちはいつでも自由であると想像して欲しい、本当に大切なことに集中することができるのだ:注意深いデジタルペルソナを調整し、自分自身のアイデンティをInstagramに投影する。

私たちの思考が機械によって決定されると最初に述べたのはカール・マルクスだった。この考えはEllen Ullmanによる1997年の本”Close to the Machine“の中で言及されているものだが、今日私たちが取り組んでいる問題の多くを予測していいる。インターネットの発明から始まり、私たちの生活を楽にするために開発してきたアルゴリズムは、最終的には私たちの振る舞い方をプログラミングするようになってしまった。

写真提供:Shutterstock/Lightspring

以下で、3つのアルゴリズムプロセスと、それらが人間の思考に侵入して私たちの行動をハイジャックするやり方を紹介して行く。

1. 製品比較:オンラインショッピングからデートまで

Amazonのアルゴリズムを使えば、製品をブラウズして比較し、後で選ぶために保存し、最終的に購入することができる。しかし、電子商取引の体験を向上させるためのツールとして始まったそれは、いまや当初のものを遥かに超えたものとなっている。私たちはこのアルゴリズムを内面化し、それを私たちの生活における他の領域にも適用している ―― 例えば人間関係など。

現代のデートは、オンラインショッピングによく似ている。ソーシャルプラットフォームやアプリによって支えられ、私たちは無限の選択肢をブラウズし、その特徴を比較して、自分の欲望を満たし詳細な個人の嗜好に完全に適合するものを選択する。あるいは、電子商取引の世界やデジタルデートの世界に浸透する選択肢の幻想を彷徨い(さまよい)、永遠に判断を先延ばしにして「後で見る」に保存し続けることもできる。

オンラインでは、世界は無限の製品供給源となり、今や人間に関しても同じことになりつつあるのだ。「ウェブではこれまでにないほどの種類の商品やサービスにアクセスすることが可能です、そこから最も気に入ったものを選択することができるのです」とUllmanはLife in Codeの中で説明している。「選択することで幸せがやって来るという考え方がある。空っぽで、幻で、惨めさを連れてくる選択に満たされた海だ」。

私たちは皆、自分のニーズは完全にユニークなものであると考えることが好きだ。そして自分の欲望に完璧にマッチするものを見出すという約束がもたらす、誘惑と喜びの感覚は確かに存在する。

ショッピングや出会いを問わず、私たちは常に検索、評価、比較するようにプログラムされている。アルゴリズムによって駆動され、より大きな意味で、ウェブデザインとコードによって、私たちは常により多くの選択肢を探している。Ullmanの言葉を借りれば「あなたは特別だ、あなたのニーズはユニークだ、そしてアルゴリズムはあなたのユニークなニーズと欲望に完全に合致するものを見つけるのに役立つ」という考えを、ウェブは強化しているのだ。

一言で言えば、私たちの生活の方法が、インターネットに向き合う方法を真似ているのだ。アルゴリズムは簡便な手段だ、厄介な人間生活…絡み合った人間関係と可能なマッチングに対して2つのうちのどちらかを行わせてくれるからだ:そのことに対処する明快でアルゴリズミックなフレームワークの適用、もしくはアルゴリズム自身に選択そのものも任せてしまうやり方。私たちは、自分自身の言葉でテクノロジーを使うのではなく、アルゴリズムに適応し付き合うことを強制されている。

このことは、もともとは単純なデジタル行動から始まった、また別の実世界現象へとつながる:製品と経験の格付けだ。

2. 人間の数値化:評価とレビュー

他の善意のアルゴリズムと同様に、これはあなただけを念頭に置いて、あなただけのために設計されている。あなたのフィードバックを利用することで、あなたのニーズに的確に応えることができ、あなたのためだけにターゲットを絞ったお勧めを提供し、これまでに好んでいたものをより多く提示することで、何も考えずに消費を続けることができる。

Uberの乗車から、Postmateの配送、Handyの清掃まで、およそ全ての実生活でのやりとりが、1から5のスケールでデジタルにスコアリングされる。

社会として、これほどまでに、私たちがどのように認知され、どのように行動し、他の人々の期待との差異を気にする時代はかつてなかった。私たちは突如、Airbnbホストのデザイン趣味や清潔さのような主観的なものを、定量化することができるようになった。そして、それを私たちが差し迫って行う感覚は信じられないほどだ。Uberを降りるか降りないかのうちに、神経的に5つ星を付け、パッセンジャーレーティングを上げるために多額のチップをはずむといった具合。そうすれば、見返りに素早くレビューを受けられる!そして至福の喜びで満たされるという流れだ。

おそらく、あなたはそのことをディストピアであるBlack Mirrorのシナリオめいていると考えるかもしれないし、(風刺の効いたコメディ番組である)Portlandiaのいちエピソードのようなものだと感じるかもしれない。しかし、私たちはデジタルスコアが私たちの生活の中のすべての意味を同時に置き換えて動かす世界から、さほど遠く離れているわけではないのだ。

私たちは他の人との交流の方法を自動化してきた。私たちは、無限の自己改善のサイクルの中で、そうした相互作用を絶えず測定しては最適化しているのだ。それはアルゴリズムから始まったものの、いまや後天的な習性となっている。

Jaron Lainierが”Close to the Machine”の前書きに書いたように「私たちは自分たちのアイデアを使ってプログラムを作成したが、そのプログラムを使った暮らしを続けるうちに…(中略)…それらを自然に埋め込まれた事実だと受け容れるようになった」のだ。

なぜなら、技術は抽象的でしばしば捕らえどころのない、望ましい性質を定量化できるからだ。アルゴリズムを通して、信頼はレーティングとレビューに、人気は「いいね!」に、社会的認知度はフォロワーに変換されていく。アルゴリズムは、ある意味ボードリヤールの予見した世界を生み出したのだ、そこではそれぞれのレーティングが対象としている実際の物を完全に置き換えてしまう。そしてそこでは、デジタルレビューの方が実際の実体験よりも、よりリアルで確かに有意義なもののような気がしてしまうのだ。

実生活の複雑さと混乱に向き合って、アルゴリズムは私たちがそれを単純化する手助けをする。社会的なやりとりから厄介事を取り除き、同様に様々な意見や実生活におけるフィードバックからもたらされる不安も無くして、全てをレーティングボックスのなかにきちんと収めるのだ。

しかし、私たちが自分の思考の一部として、プログラミング言語、コード、そしてアルゴリズムを取り入れていくとき、人間の本性と人工知能は一体化して行くのだろうか?これまでの私たちは、AIを私たちの力があまり及ばない外的な力と考えてきた。もしAIの最も直接的な脅威が、ロボットが世界を支配するということよりも、テクノロジーが私たちの意識と主観に埋め込まれてしまうことだとしたらどうだろう?

スマートフォンが私たちの身体の感覚の延長となったように、アルゴリズムは私たちの思考の延長に成りつつあるのだ(マーシャル・マクルーハンが生きていたら、おそらくそう言うだろう)。しかし、それらが私たちを人間たらしめる性質を置き換えて行くとき、私たちは何をするのだろうか?

そして、Lainierが問いかけるように「コンピューターが人間の言語を、どんどん仲介するようになるにつれて、言語そのものは変わり始めるのだろうか?」。

画像:antoniokhr/iStock

3. 言語の自動化:キーワードとバズワード

Googleはキーワードに基づいて検索結果をインデックス化する。SEOは特定の戦術に基づいて、ウェブサイトを検索結果のトップに浮上させる。これを達成するために、アルゴリズムに取り組み、どうすれば上手くいくのかを探り、Googleの目にとまるようなキーワードをウェブサイトにまぶすのだ。

しかし、Googleのアルゴリズムとよく似て、私たちの心は、情報をキーワード、繰り返し、および素早いヒントに基づいて優先付けている。

それはテクノロジーに関して構築した戦略として始まったが、いまや見出しを書く方法から、ツイートで「エンゲージメント」を生み出すやり方、そしてビジネスや日々の生活の中で自分自身を表現する方法に至るまで、私たちが行うことすべてに浸透を始めている。

メディアの世界とスタートアップシーンの両方を支配する、バズワードの流行を考えて欲しい。そこに出現するいくつかのトップスタートアップを素早く眺めてみれば、人びとの注意 ―― そして投資家の資金 ―― を引きつけるための最善な方法は、「AI」「暗号」あるいは「ブロックチェーン」といういう言葉を会社の売り文句に加えることだということがわかる。

企業は、キーワードを通して世界に発信していることに基いて、評価されている。プレゼンテーションの場がより多くのバズワードで埋められるほど、煙に巻かれた投資家がそこに投資をしてくれる可能性が高まる。同様に、バズワードを含む見出しの方がクリックされる可能性が遥かに高いので、バズワードの方が実際の内容よりも勝るようになりはじめる。(派手な見出しでクリックを誘う手段である)クリックベイトはそれを示す1つの例だ。

私たちはどこに向かうのだろう?

技術は私たちにあからさまなパターンを与えている。例えば、オンラインショッピングは溢れる選択肢の中を進んでいくための簡単な方法を提供している。よって私たちは改めて考える必要はない ―― 私たちはただ、アルゴリズムが最善のやり方を知っていると仮定して操作しているだけだ。私たちはそれらがどのように働いているのかを本当に理解しているわけではない。コードは隠蔽されているので、私たちはそれを見ることはできず、アルゴリズムはただ結果とソリューションを魔法のように提示するだけだ。UllmanはLife in Codeで次のように警告している「私たちのために、複雑さが隠されて扱われることを許容するのなら、最低限私たちが何を手放しているのかに注意を払うべきです。私たちは用意された部品の利用者になるという危険性を犯しています…(中略)…私たちが本質的に理解していないメカニズムを、相手にしているのです。全てが期待通りに働いている限りは、こうした『無知』も許容されるでしょう。しかし、何かが壊れたり、間違ったり、根本的な変化を必要とするときには、私たち自身の創造物を前にして、為す術もなく立ち尽くす以外に何ができるのでしょう?」。

トランプ時代の、フェイクニュース、誤報、ソーシャルメディアのターゲティングの始まりだ。

画像提供:Intellectual Take Out

さて、そうだとしたら、批判的思考を奨励し、プログラミングにもっと関心を寄せ、旧き良き時代の論争と異議をどのように取り戻せば良いのだろうか?意見の相違を醸成し、繁栄させ、私たち自身の見解に挑戦させるようにするために、私たちは何ができるのだろうか?

私たちが、テクノロジーが生み出す気を散らす泡の中で行動するとき、そしてソーシャルメディアフィードが、自分と同様の考えを持つ人で構成されているとき、社会が変わることは期待できるのだろうか?起きることと言えば、アルゴリズムが私たちに促すように、結局行動してしまうことだ。これを打ち破るには現状に疑問を呈し、事実を分析して、自分自身の結論に達することが必要だ。しかし、そうしたことに割ける時間を持つものはいない。こうして私たちはFacebookマシンの歯車と化し、プロパガンダの影響を受け、おめでたいことに働いているアルゴリズムを意識することもない ―― そしてそれは私たちの思考プロセスの中に組み込まれているのだ。

自分自身の意志決定に対するプログラマーやアーキテクトではなく、アルゴリズムのユーザーとしての私たちは、自分自身の知性を人工的なものにしてしまう。Douglas Rushkoffが言っているようにこれは「プログラムするのかそれともプログラミングされるのか」の問題なのだ。もしケンブリッジ・アナリティカの事件と2016年の米国選挙から学んだものがあるとすれば、世論をリバース・エンジニアリングにかけて、結果に影響を与え、そしてデータ、ターゲット、そしてボットが誤った合意の感覚に導く世界を作り出すことは、驚くほど簡単だということだ。

さらに厄介なのは、私たちがとても信頼しているアルゴリズム ―― 私たちの生活に深く織り込まれ、私たちの最も個人的な選択に影響を与えている ―― は、私たちの思考プロセスへの浸透をやめない。それどころか、ますます大きく重要なものとなっている。もし私たちが、アルゴリズムのユーザーではなく、プログラマーとしての役割を取り戻さなければ、最終的にはアルゴリズムが私たちの社会の未来の形を作り上げていくことになるだろう。

[原文へ]
(翻訳:sako)

GmailのSmart Composeで簡単に英文レターが書ける

Googleは先週のI/Oデベロッパー・カンファレンスで ウェブ版Gmailのアップデートを発表した。われわれもSmart Composeというスマート自動補完機能を紹介した。この機能の実地テストがいよいよ始まった。

Smart Composeは文を書き始めると自動的にその後を補完してくれるAIツールだ。Googleはある書き出しでどういう文が続くかを多くの実例に基づいて推定する。実際に使ってみたところではI/Oで宣伝されたほど完全なものではない。しかしかなり便利なツールで、メール作成の手間はだいぶ減らしてくれそうだ。

この機能を使うにはまずGmailの設定でExperimental Accessを有効にする必要がある。

 

既存のSmart Replyはモバイルデバイスから定形返信をするには便利だが、使うとなにか虚しい気持ちがする。返信パターンもごく限られており、せいぜい数語程度のメールしか作成できない。これでは受け取った相手に「おそろしく不精なやつだ」と思われてしまうのではないか不安になる。しかし私は日頃たくさんのメールに返信する必要があるのでこの機能は時間の節約に効果的だ。新しいSmart Composeはもっと長い文が書けるが、トレードオフは同様だろうと思う。

現在Smart Composeの機能はまだ限られている(英文でのみ有効)が、提案が的中したときはほとんど魔法のようだ。しかし今のところ典型的な文しか作成できない。Googleが想定しているシナリオから外れたメールの場合、延々と文章を書いていても提案が一つもポップしないことがある。

Smart Composeは常套句が大好きで、作成される文は非常に典型的だ。たとえばHi、と打つと宛先人名が補完される。あまり知的な文章にはならないが手数が省けることは間違いない。しかし実験レベルでは初歩的でも、その後長足の進歩を遂げるのがGoogleのプロダクトの常だ。今後の改良が期待できる。

〔日本版〕日本で利用するには設定(歯車アイコン)からまず言語をEnglishに変更して保存しておく必要がある。その後、Settingを開きGeneralからExperimental Accessを有効にする。たとえば、afと入力するとafternoonが提案されるのでtabキーで確定する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Google I/O: モバイルアプリ向け機械学習モデル登場――iOS、Android開発にML Kit

今日(米国時間5/8)開幕したI/Oデベロッパー・カンファレンスでGoogleはML Kitを発表した。iOS、AndroidアプリのデベロッパーはこのSDKを用いることでGoogleによって開発ずみでの機械学習モデル多数をアプリに取り込むことができる。特に巧妙なのは、これらのモデル(テキスト認識、顔認識、バーコードスキャン、画像タグづけ、外界のランドマーク認識などを含む)がオンライン、オフラインの双方で利用できる点だ。ネットワーク接続の状態とデベロッパーの判断に応じて適切な方を選ぶことが可能だ。

向こう数ヶ月の間にGoogleは現在のベーシックAPIにさらに2組を追加する予定だ。ひとつはInboxやGmailでおなじみのスマート返信機能で、もう一つは顔認識API用の高精度の輪郭認識だ。

ゲームのあり方を根本的に変えるような影響があるのはオフライン・モデルだろう。デベロッパーはGoogleが開発したモデルを自分のアプリに組み込める。しかも利用は無料だ。もちろん制限はある。モデルはローカル・デバイス上で作動できるようサイズを小さくされているため正確性は低い。クラウドベースであればコンピューティングパワーにも記憶容量にも制限はない。したがって大きなモデルを用いて正確性な結果を得ることができる。

機械学習などのモデルをオフラインで利用可能にするのは業界のトレンドだ。たとえばMicrosoftは、今年に入って独自のオフライン・ニューラル翻訳を発表している。このサービスはオフラインでも作動する。トレードオフはGoogleのモデルと同様だ。

Googleの機械知能グループのプロダクトマネージャーでAndroidのカメラ機の責任者、 Brahim Elbouchikhiは私の取材に答えてこう述べた。

多くのデベロッパーは機械学習による推論をアプリ内での予備的な処理の部分に取り入れるだろう。たとえば画像内に動物が写っているかどうかをアプリ内で判定し、写っていればたとえば犬種の判定についてはクラウドの処理に任せるというような方法だ。これは合理的だ。オン・デバイスでのラベルづけはおよそ400種類がサポートされるが、クラウドでは1万種類のラベリングが可能だ。ML Kitはわれわれの標準的なニューラルネットワークAPIを用いる。AndroidでもiOSでも同じ機能だ。

ElbouchikhiはML Kitがクロスプラットフォームである点を特に強調した。デベロッパーは機械学習モデルがAndroid専用、iOS専用であることを嫌う。

Googleがあらかじめ学習させたもの以外の機械学習モデルを必要とする場合、ML KitではTensorFlow Liteをサポートしている。

新しいSDKはGoogleのFirebasemの傘下となる。目的はモバイルアプリの開発者が機械学習モデルを使うことを助けることだ。ただし、当然ながらGoogleも指摘しているとおり、機械学習モデルを使ってアプリを加速するにはデベロッパー側の努力が必要だ。これまでもGoogleは機械学習APIを通じていくつもの学習ずみでカスタマイズも可能なクラウド上のMLモデルを提供してきた。 しかしこれまでのモデルはインターネット接続がなければ動作しなかった。またユーザー体験も十分にFirebase、またFirebaseコンソールに統合されているとはいえなかった。

TensorFlow Liteを使う場合でも、Googleはカスタム・モデルを扱いやすいサイズに圧縮することに努めている。今のところは実験段階だが、興味を抱いたデベロッパーはここからサインアップできる。

ElbouchikhiはGoogleの目標は機械学習の一般へ普及だとして、「機械学習をありふれたもう一つのツールにするのがわれわれの目標だ」と述べた。

<

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Microsoft Build 2018:キーワードはAIとエッジ――Azure IoT Edgeを大幅アップデート

この月曜(米国時間5/7)からシアトルでBuild 2018デベロッパー・カンファレンスがスタートした。Microsoftはここで人工知能とエッジ・コンピューティングに多大な力を入れている。特に目立ったのは、倉庫管理用の大型産業機器や油井をリモートコントロールするツールなどを含むエッジ・デバイスで作動する多くの既存のAzureサービスへの機械学習の適用だ。

こうしたサービスはひっくるめてAzure IoT Edgeと呼ばれているが、Build 2018で大幅なアップデートが発表された。IoT EdgeはAI、Azure、IoTデバイス向けカスタムアプリ各種からなる。

Microsoftが今日発表したAzure IoT EdgeはMicrosoftのIoT Hubサービスをベースとしているが、Event Grid やKubernetesコンテナのサポートと同時に同社のCognitive Services APIのサポートが発表された。 加えてMicrosoftはAzure IoT Edgeのランタイムをオープンソース化した。つまりデベロッパーは必要に応じてランタイムをカスタマイズすることができるようになる。

今回のハイライトは、エッジ・コンピューティングに対するCognitive Servicesのサポート開始だろう。現在このサービスは限定版となっており、Custom Visionの視覚サービスのみが利用できる。しかし将来は他のCognitive Servicesに範囲を広げる計画だ。このサービスの魅力は明らかだ。大型の産業用機器からドローンまで各種のデバイスがインターネット接続なしに機械学習を応用したサービスを利用できる。視覚サービスの場合であれば、オフライン状態でも機械学習モデルを使った対象の認識が可能になる。

AIに関しては、エッジ・コンピューティングをリアルタイムAI化する新しいBrainwave深層ニューラルネットワーク・アクセラレータ・プラットフォームが発表された。

MicrosoftはQualcommと提携し、IoTデバイス上で機械学習に基づく推論を実行できるAIデベロッパー・キットを発表した。 最初のバージョンはカメラの利用を中心としたものとなる。
Qualcommが最近独自の ビジョン・インテリジェンス・プラットフォームをスタートさせたことを考えれば驚くには当たらない。

IoT Edgeは機械学習関連以外の分野でも多数のアップデートを受ける。Kubernetesのサポートが開始されるのは大きい。またスマートな決断でもある。デベロッパーはKubernetesクラスターをビルドすることによってエッジ・デバイスとクラウドサーバーの双方にまたがるソフトウェアを容易に開発できるようになる。

Microsoftのイベント・ルーティング・サービスであるEvent Gridがエッジでサポートされるのも順当だろう。サービスを協調動作させるためにいちいちリデータセンターのサーバーを経由するのでなしに、エッジで直接ルーティングができればレイテンシーははるかに少なくなるはずだ。

この他、 IoT Edgeではマーケットプレイスの開設も計画されている。このマーケットプレイスではMicrosoftパートナー、デベロッパーがエッジ・モジュールを共有し、収入を得ることができるようになる。また新しいハードウェア認証プログラムでは、デバイスがMicrosoftのプラットフォームと互換性があることをメーカーが保証できる。IoT Edge、 Windows 10 IoT、Azure Machine Learningでは近くDirextX 12 GPUによるハードウェア・アクセラレーション・モデルの評価をサポートするようになる。DirextX 12 GPUはほぼすべての最新のWindowsパソコンで利用可能だ。

〔日本版〕Build 2018のセッションのライブ配信はこちら。Kevin ScottはMicrosoftのCTO。上のアニメでは1982年、高校時代のKevinが登場してマイクロコンピューターこそ未来だと主張する。

[原文へ]

(翻訳:滑川海彦@Facebook Google+