Amazonが開発者たちに機械学習を教えるために、縮小版自動運転車を発表

Amazonは本日(米国時間11月28日)、開発者が機械学習を学ぶのを助けることを目的とした、完全に自律的な1/18スケールのレースカーAWS DeepRacerを発表した。定価は399ドルだが、現在は249ドルで提供されている。このレースカーは、強化学習(RL:Reinforcement learning)と呼ばれる機械学習技術を、開発者が文字通りハンズオンで学習できるようにする。

RLは、他の機械学習手法とは違った訓練モデルへのアプローチを取っている、とAmazonは説明している

それは、インタラクティブな環境内で「エージェント」が試行錯誤的に行動することが許されている場合に機能する機械学習の一種である。実行したアクションからのフィードバックを使用して、あらかじめ決められた目標に達したり、またはスコアまたは報酬などを最大限にするために、時間をかけて学習を行う。

これによって、他の機械学習技法との違いが生まれる。例えば教師あり学習に比べると、開始に当たってラベル付きのトレーニングデータを必要とせず、長期ゴールを最適化しつつ短期意思決定を行うことができる。

新しいレースカーは、自動運転を通じた学習で、開発者にRLを実験させる。

開発者はまず、AWS RoboMaker上に構築されたクラウドベースの3Dレーシングシミュレータ内で、仮想自動車とコースの利用を始める。ここでは、自動運転モデルを、シミュレータ内で事前に定義されたレースコースに対して訓練することができる。そしてそのモデルを仮想的に評価したり、実世界の物理的なAWS DeepRacerカーにダウンロードしたりすることができる。

彼らはまた、車が発表されたre:Invent会議で開催される、最初のAWS DeepRacer Leagueへ参加することもできる。このイベントはAWS DeepRacerワークショップとMGM Speedwayで24時間に渡って行われ、Amazon SageMakerAWS RoboMaker、およびその他のAWSサービスが利用される。

6つのメイントラックがあり、それぞれにピットエリア、ハッカーガレージ、トレーニングや実験に使用できる2つの拡張トラックが追加されている。DJもいる。

このリーグは、今回のイベント終了後も、世界中のAWS Global Summitで、2019年以降に始まる一連のライブレースイベントとして継続される。Amazonによれば、re:invent 2019におけるAWS DeepRacer 2019 Championship Cupでの優勝を目指して、仮想トーナメントがこれから1年を通して実施される。

車のハードウェア自体は、インテルAtomプロセッサを搭載した1/18スケールのラジコン式四輪駆動車である。プロセッサでは、Ubuntu 16.04 LTS、ROS(ロボットオペレーティングシステム)、そしてIntel OpenVinoコンピュータビジョンツールキットが実行される。

車には、1080pの解像度を持つ4メガピクセルのカメラ、802.11ac Wi-Fi、複数のUSBポート、持続時間約2時間のバッテリ電源も含まれている。

ハードウェアはAmazonのここから購入することができる。

AWS re:Invent 2018カバレッジ

[原文へ]
(翻訳:sako)

Amazon Forecastは時系列データから予測を作りだす機械学習ツール

AmazonのAWSが今日(米国時間11/28)、時系列データに基づいて予測を生成する機械学習ツールAmazon Forecastをローンチした。予測は機械学習のかなりふつうの使い方だが、そのスキルのないデベロッパーが一からそれを作るのは難しい。しかしAmazonは当然ながら、自社のニーズのためにすでに多くのモデルを作っているので、今回はそれらをデベロッパー向けのプロダクトにまとめたのだ。

AWSのCEO Andy Jassyが今日のAWS re:Inventのキーノートでこう述べた: “わずか三クリックで、このツールにデータを与え、予測を得ることができる。超簡単でしかも、非公開ベータでベンチマークした結果としては、正確度は人びとがふつうにやるよりも50%高い。また費用は、どこかからソフトウェアを買う場合の1/10程度だ”。

Amazonはそのリテールビジネスの中で、自社のデータを扱うモデルをたくさん作ってきた。それは、Amazonがそのリテールサイトの需要予測に使ったりするものと基本的には同じ技術だ。ユーザーは同社に、彼らのサプライチェーンのデータのすべてを提供し、それによりそのサービスに、予測に影響を及ぼす変数を与える。

その楽屋裏では、AWSがそのデータとシグナルを見て、あらかじめ構築されている8種のアルゴリズムからどれかを選び、モデルを訓練し、それを微調整して予測を提供する。

AWSのこのサービスは、SAPやOracleのサプライチェーンツールと容易に統合できるし、Amazonの新しいデータベースサービスTimestreamのデータも使える。

このサービスは必ずしも安くはないが、デベロッパーの時間を大幅に節約できるだろう。

more AWS re:Invent 2018 coverage

画像クレジット: Ron Miller

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

AmazonのComprehend Medicalサービスは機械学習を利用して患者の記録から有意な医療データを取り出す

【抄訳】
Amazonが、機械学習を利用して患者の記録から重要なデータを取り出し、病院などのヘルスケアプロバイダーや研究者たちの費用節約や治療方針の決定、臨床試験(治験)の管理などを助ける新しいサービスを立ち上げた。AmazonがAmazon Comprehend Medicalとよぶこのサービスの発表は、火曜日(米国時間11/27)に、The Wall Street Journalがそれを報じた直後に行われた。

このクラウドソフトウェアはテキスト分析と機械学習を組み合わせて、処方や注記、面談の音声、検査の結果、などから成る患者の記録を読む。これらの記録がデジタイズされてComprehend Medicalにアップロードされると、診断や処置、薬の処方、そして症状などに関する情報が拾い上げられてまとめられる。

〔参考記事: Amazon Comprehendとは…「Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる」〕

Amazonの最近のヘルスケアへの進出としては、オンラインの処方箋サービスPillPackを10億ドル近くで買収したことや、Amazonの社員のヘルスケアを改善するための、Berkshire HathawayとJP Morgan Chaseとのジョイントベンチャーが挙げられる。これらにより同社は、最近ますますヘルスケアにフォーカスしているそのほかの大手テクノロジー企業の仲間入りをしている。

たとえば今年初めにAppleは、iPhoneのユーザーが自分の病院の医療記録を見られるための機能をiPhone上に導入した。またGoogleは最近、大手医療法人Geisingerの前CEODavid Feinbergを雇用して、検索やGoogle Brain, Google Fit, Nestなど多岐にわたるGoogleの各事業部門が抱えるヘルスケア企画の、一元化と全体的な指揮を彼に委ねた。

今日の発表声明の中でAmazonはこう言っている: “これまでは、この情報を見つけるために長時間の手作業を要し、しかもそのために、高度な技能を持つ医療エキスパートによるデータ入力や、情報を自動的に取り出すためにデベロッパーのチームがカスタムのコードとルールを書く必要があった”。そして同社の主張によるとComprehend Medicalは、患者の記録の中に“医療の状態、解剖学的専門用語、医療検査の詳細、治療内容、処置”、などを正確に見つける。一方、患者は、このサービスを利用して自分の治療のさまざまな側面を管理し、通院のスケジュールや薬の処方、保険の適用の判断などを明確に把握できる。

【後略】
●データは暗号化され、どこにも保存・利用されないのでプライバシーの問題はない。
●すでにいくつかの大手製薬企業や医学研究所がComprehend Medicalを試験的に導入し、とくに治験の適正な実施に必要な膨大な量のデータ作業の省力化や迅速化などに貢献している。“これまで数時間を要したデータ作業が数秒で終わる”そうである。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Amazon、社内エンジニア教育に使っている機械学習コースを無料提供

サイバーマンデーの今日(米国時間11/26)、Amazonからちょっと意外なプレゼントがある。同社は自社エンジニアの教育に使っているものと同じ機械学習コースを無料で提供する。

学ぶべき内容は膨大だ——プログラミングの視点から見て。Amazon在籍8年のベテランでディープラーニングおよびAIのゼネラルマネージャーMatt Woodによると、コースは30種類延べ45時間にわたり、開発者、データサイエンティスト、データプラットフォームエンジニア、ビジネスプロフェッショナルなどが無料で受けられる。

同氏の説明によると、それぞれ「基本から始まり、Amazonで解決しなければならなかった楽しい問題を通して機械学習あ体験する。たとえば、ギフトラッピング資格の予測や配送ルートの最適化、IMDb(Amazonの子会社)のデータを使った映画の賞のノミネート予想などを行う。学習コースはベストプラクティスの確立に役立つほか、Amazon SageMaker、AWS DeepLens、Amazon Rekognition、Amazon Lex、Amazon Polly、Amazon ComprehendなどさまざまなAWS機械学習サービスの使い方を紹介する意味もある。

Amazonは、雇用者が効率よく採用する手助けをするために、同社独自の機械学習認定を導入しており、顧客は現在半額で利用できると言っている。

おそらく、狙いはAmazonの販売ページを強化することに加え、多くの社員を採用して自社の成長を加速することだろう。

もしこれでAmazonが切望する信頼を得ることができるならそれは良いことだろう。すでにご存じかもしれないが、同社にとってたった今深刻な問題は、ドイツ、スペイン、フランス各国の配送センターで金曜日に起きたストライキだ。中には”we are not robots“[私たちはロボットじゃない]というスローガンを掲げていた人々もいる。

Woodの声明の全文はここで読める。

[原文へ]

(翻訳:Nob Takahashi / facebook

Amazon Comprehendでは機械学習の技術とは無縁なデベロッパーでも専門用語で自然言語処理モデルを訓練できる

昨年Amazonは、自然言語処理のツールComprehendを発表した。それは情報のコーパスから、よく使われている語や語句を取り出し、ドキュメントを分類する。今日Amazonは同社のデベロッパーカンファレンスRe:inventに一週間先駆けて、Comprehendの機能向上を発表した。それにより機械学習の専門知識のないデベロッパーでも、専門用語や語句のリストを作るだけで機械学習のモデルを構築できる。

その機能アップを発表するブログ記事で、AmazonのディープラーニングとAIのゼネラルマネージャーMatt Woodがこう書いている: “本日Comprehendに新しいカスタム化機能を導入することを嬉しく思う。これによってデベロッパーは、Comprehendを拡張して自然言語で書かれている用語を見つけ、チームや企業や業界にとって専門的なテキストを分類できる”。

重要なのは、すべての複雑な処理をAmazonが面倒見るので、機械学習や自然言語処理の素養のないデベロッパーでも言葉のリストをシステムに与えるだけで、テキストからそれらの語を検出/取り出しできるようになることだ。Woodは書いている: “カスタマイズされた機械学習のモデルを構築、訓練、そしてホストする重労働はすべてComprehendが行い、これらのモデルをプライベートなAPIでデベロッパーが利用できるようにする”。

これには、二つの部分がある。まず、デベロッパーは専門用語などのリストを作る。それは、たとえば法律事務所なら法律用語、自動車会社なら部品番号のリストだったりするだろう。デベロッパーがすることは、これらの用語のリストを公開するだけだ。Comprehendがカスタマイズされた言葉を見つけることを学習し、そのリストに基づくプライベートでカスタマイズされたモデルを作る。

第二の部分は、分類のカスタマイズだ。言葉のリストを作ったら、次は、それらの用語が現れる論理(ロジック)のリストを作る。それについてWoodは、こう書いている:

“言葉の用例がわずか50件でも、Comprehendはカスタムの分類モデルを自動的に訓練し、それを使ってユーザーのドキュメントを各カテゴリーに分類する。たとえばカスタマーサポートのメールを、担当部門ごとにグループ化したり、ソーシャルメディアのポストを製品別に分類、あるいはアナリストの報告書を事業部別に分類したりできるだろう”。

これらの雑多で大量のドキュメントは、カテゴリー分けして初めて役に立つし、適切な担当者にそれを渡したり、あるいはアプリケーションがプログラムの一環として利用したりできるようになる。

Comprehendはユーザーに、カスタマイズされた機械学習のモデルを作る方法を、上述のようなごく単純な方法として提供し、楽屋裏の細部は自分でやる。一般的に言っても、クラウド企業は複雑難解なものを単純化して、専門的な知識や技能のないデベロッパーでも一連のサービスを利用できるようにする。Comprehendの場合は、機械学習の知識のない者がカスタマイズされたモデルを作れる方法を提供する。

Comprehendのこの新しい機能は、今日(米国時間11/19)から利用できる。

〔参考記事
Amazon Comprehend日本語ドキュメンテーション(1)
Amazon Comprehend日本語ドキュメンテーション(2)
Amazon Comprehend用例解説(1)
Amazon Comprehend用例解説(2)
「amazon comprehend 日本語」でググると、さまざまな日本語ドキュメンテーションが出てきます。〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

SoftBankのDeepcoreと香港のZerothが提携――アジアのAIスタートアップの育成へ

アーリーステージのAIスタートアップを支援する2のプログラムが力をあわせることになった。AIの世界でも一人より二人のほうが心強いらしい。

有力デジタルメディアのAnimoca Brandsから投資を受けることに成功した香港のアクセラレータ、Zerothは、SoftBankグループのアクセラレータ、ファンドDeepcoreとリソースやディールの共有など密接な提携関係に入った。

DeepcoreはAI全般のスタートアップの支援、育成に力を入れている一方、ZerothAIと機械学習に特化したアジア初のアクセラレータだ。後者はAnimoca Brandsから300万ドルのベンチャー資金を調達しており、同時にZerothの運営会社の株式の67%を取得している。

一方、SoftBankは今年に入ってDeepcoreを設立し、AIスタートアップ支援事業に足場を築いた。DeepcoreはWeWorkと協力してコワーキング・スペース、インキュベータ、R&D施設を兼ねるKernel Hongoを運営している。 また投資部門としてDeepcore Tokyoを有している。

Zerothは2年前に設立され、3回のバッチですでに33社を育成している。参加スタートアップの株式を平均6%取得するビジネスモデルだ。卒業後サードパーティからの追加投資を受けるスタートアップもある。たとえば、Fano Labs(現在のAccosys)は香港最大の富豪と考えられている李嘉誠(Li Ka-Shing)のHorizons Venturesや日本のLaboratikから投資を受け入れている。

Zerothのファウンダー、CEOのTak Lo はTechCrunchに対して、「われわれのエコシステムが成長するのを見ることができて嬉しい。このエコシステムが目指すところは偉大な会社を築こうとするファウンダーによりよいチャンスを提供していくことだ」と述べている。

原文へ

滑川海彦@Facebook Google+

【以上】

企業のデータ保護とコンプライアンス充足をAIと機械学習で自動化するCognigoが$8.5Mを調達

AIと機械学習を利用して企業のデータ保護とGDPRなどの規制へのコンプライアンスを助けるCognigoが今日(米国時間11/13)、シリーズAのラウンドで850万ドルを調達したことを発表した。このラウンドをリードしたのはイスラエルのクラウドファンディングプラットホームOurCrowdで、これにプライバシー保護企業のProsegurState of Mind Venturesが参加した。

同社は、重要なデータ資産を護り、個人を同定できる情報が自社のネットワークの外に漏れることを防ごうとしている企業を支援できる、と約束している。そして同社によると、そのやり方は、専用システムのセットアップやそれらの長年の管理を必要とするような手作業の管理ではない。たとえばCognitoによれば、同社は企業のGDPRコンプライアンスの達成を、数か月ではなく数日で完了する。

そのために同社は、事前に訓練したデータ分類用の言語モデルを使用する。そのモデルは、給与明細や特許、NDA、契約書など、よくあるカテゴリーを検出するよう訓練されている。企業は独自のデータサンプルでモデルをさらに訓練し、その独自のニーズのためにモデルをカスタマイズできる。同社のスポークスパーソンは曰く、“唯一必要な人間による介入は構成だが、それは一日で済む作業だ。それ以外では、システムは完全に人手要らずだ”。

同社によると、新たな資金はR&Dとマーケティングと営業のチーム拡大に充てられ、目標は市場プレゼンスの拡張と製品知名度の向上だ。“弊社のビジョンは、顧客が自分のデータを利用して確実にスマートな意思決定ができ、同時にそのデータが継続的に保護されコンプライアンスを維持することだ”、と同社は言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習のシステムはときどき人間をびっくりさせる…学習内容に忠実なだけで

機械学習の弱点や奇癖をまとめた、このシンプルなスプレッドシートは、それほど膨大ではないが、‘機械’の考え方を知るための楽しい資料だ。研究者のVictoria Krakovnaが作ったこのリストは、ロボットが法の精神と文字の両方に同時に従おうとしたときの、さまざまな状況を記述している。

たとえば下のビデオでは、機械学習のアルゴリズムが、ボートレースにただ参加するのではなく、円を描いてぐるっと回ったら高い得点が得られる、と学習した結果だ。

別のシミュレーションでは、“生きるためにはエネルギーが必要だが出産のエネルギー消費量はゼロ”、と学習した種族が、じっと座って動かない〔エネルギー消費量最小〕ライフスタイルを発達させ、もっぱら生殖行為〔エネルギー消費量ゼロ〕だけをして子孫を生産し、それを食べたり、それらにも生殖をさせて食料としての子孫を作らせる。Krakovnaはそれを、“怠け者の共食い種族”と呼んでいる。

もちろんこれらの‘機械’は本当の意味で“考えて”いるわけではないが、いくつかのパラメーターと、進化という能力と目標を与えられたロボットが、そのアルゴリズムに忠実に従って、おかしなことをしてしまう例だ。

あるテストでは、ロボットが自分の腕でテーブルを殴ることによってブロックを動かすことを学習したり、ある種の遺伝的アルゴリズムによってオシレーターの回路を作るはずのロボットが、隣接するコンピューターからの信号を拾うラジオを作ったりする。あるいは癌を検出するシステムが、悪性腫瘍の画像には目盛りがある、と学習して、大量の擬陽性を作りだしてしまう。

これらの例はどれも、‘機械’は正しく学習すると信じたために生じた、意図せざる結果だ。彼らは学習するけど、人間を当惑させることもある。機械学習とは、所詮、そんなものだ。機械が理解できるものだけを、学習しているのだから。

最後にもうひとつ例を: “絶対負けてはならない”、と学習したテトリスをプレイするロボットが、“負けないために無限に長時間ポーズする”。そいつに、負けて癇癪(かんしゃく)を起こすことを学習させたら、やっと彼は三歳児のレベルに達するだろう。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

データサイエンティストたちのモデルの活用度を高めるGoogle CloudのKubeflowパイプラインとAI Hub

今日(米国時間11/8)Google Cloudが、KubeflowパイプラインとAI Hubを発表した。この二つのツールは、データサイエンティストが、自分の作ったモデルをいろんな組織や企業で共通的に利用できるようにすることが主な目的だ。

Google CloudでAIとML製品を担当しているプロダクトマネージメントのディレクターRajen Shethによると、同社は、データサイエンティストたちが、モデルを作るけどそれが一度も使われない、という経験をしょっちゅうしていることを知っている。Googleによると、機械学習を団体競技にたとえるなら、モデルはデータサイエンティストから、それらを使ってアプリケーションを作るデータエンジニアとデベロッパーにパスされなければならない。

対策としてGoogleが発表したのが、Kubeflowパイプラインだ。それはKubeflowのエクステンションで、KubeflowはKubernetesをベースとするオープンソースの機械学習用フレームワークだ。パイプラインは要するにコンテナ化されたビルディングブロックのことで、機械学習のエコシステムに属する人たちを連係させて機械学習のワークフローを作り、管理する。

そうやってモデルをコンテナに入れたら、その後データサイエンティストは必要に応じてその中のモデルを単純に調整し、継続的デリバリのようなやり方で再ローンチできる。Shethによると、これによって企業内のモデルの利用の可能性がさらに広がる。

“Kubeflowパイプラインはユーザーに、いろんなパイプラインで実験する方法を提供し、信頼性があって再現可能な環境の中で最良の結果を作りだすものはどれか、を決められる”、とShethは、この新しい機械学習機能を発表するブログ記事に書いている。

同じく今日発表されたAI Hubは、その名のとおり、データサイエンティストがそこでいろんなMLコンテンツを見つけられる場所だ。そこには、KubeflowパイプラインやJupyterノートブック、TensorFlowモジュールなどなどがあるだろう。それは一種の公開リポジトリになり、Google Cloud AIやGoogle ResearchなどGoogleのさまざまなチームが素材を提供し、研究開発に関わるGoogleの専門的知識技能をデータサイエンティストが利用できる場になる。

しかしGoogleはこのハブに、公開ライブラリ以上のものを求めている。同社の見方では、そこはチームが自分たちの企業内で情報をプライベートに共有できる場にもなって、二重の目的に奉仕する。これによって、重要なビルディングブロックが中央的なリポジトリで可利用になるから、モデルの利用の拡大に大きく貢献するだろう。

AI Hubは今日からアルファで利用でき、Googleからの初期的コンポーネントの一部や、内部的リソースを共有するためのツールが提供される。そして今後は徐々に、提供物と能力の拡大が定常的に行われる予定だ。

Googleによると、これによってモデルが汎用のビルディングブロックになり、それによりモデルを容易に共有できる方法が提供され、モデルがさまざまに実用される機会が増えるだろう。これらのツールは、それを達成するための第一歩だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

機械学習で危険なバイアスを避ける3つの方法

編集部:この記事はVince Lynchの寄稿。Lynchは人工知能企業、 IV.AIのCEO。同社は企業が顧客サービスを向上させるために人工知能による自然言語処理に関する理解を深めることを助けている。

歴史における現在の時点で人間のバイアスがもたらす危険に目を無視することは不可能だ。コンピューターがこの危険を増幅している。われわれは機械学習を通じて忍び込む人間のバイアスの危険性はいくら強調しても強調しすぎることはない。これによって引き起こされる害悪は大きく2つに分けられる。

  • 影響:AIがこうだと言っている」といえば、人々はそれを信じてしまう。 AIシステムの学習過程で人間のバイアスが混入していても気づかれにくい。ストレートなバイアスよりはるかに広い範囲に悪影響を与えることになる。
  • オートメーション:AIモデルが実用的な目的のために用いられることがよくある。つまりバイアスを隠したオートメーション・システムができてしまう。

光には影がつきものだが、AIを適切に用いるならメリットは大きい。AIは一見混乱した多量のデータから隠れた意味を抽出することができる。つまりアルゴリズムはわれわれが気づかずにいたバイアスを表に出すためにも役立つ。データの山の中から倫理的に疑問のある振る舞いを発見することもできる。これがわれわれに反省を促すきっかけになるかもしれない。人間の振る舞いに関するデータをアルゴリズムで処理することはバイアスの発見に役立つ。適切に用いるならAIは人間行動中の異常な部分を発見してくれる。

しかしコンピューターが自分自身でこうしたことをしてくれるわけではないことに注意すべきだ。 たとえ教師なし学習(unsupervised learning)であっても実は「半分教師つき学習」だ。トレーニング・データを選択し、システムに入力するのはデータ・サイエンティストだからだ。人間がデータを扱うのであれば、必然的にバイアスが混入する。どうやったらこのようなバイアスを発見できるのだろうか? まずは問題をいくつかの場合に分けて考える必要がある。

AIの運用と倫理的な懸念

悪い例は多数ある。たとえばCarnegie Mellon大学の研究はターゲティング広告におけるバイアスを指摘した。女性向けのオンライン求人広告の平均給与は男性向け広告よりはるかに低かったという。またMicrosoftがティーンエージャー向けに運用していたTwitterのボット、Tayが人種差別的ツイートを行い、閉鎖されたといいう不幸な出来事もあった。

近い将来、こうした過失は巨額の罰金やコンプライアンス上の重大問題を引き起こす可能性が十分にある。こうした方向はすでにイギリス議会で論じられている 。もちろん人工知能を扱う数学者も技術者もバイアスについては注意を払うべきだ。しかし難しいのはその度合いがケースごとに異なる点だろう。たとえばリソースが十分でない小規模な会社の場合、バイアスが発見されてもすぐに修正されるかぎりさほど過失を責められない可能性が高い。これに対してフォーチュン500社に入るような世界的大企業ではバイアスを含まないシステムを構築するために十分なりソースがあるとみなされ、したがって責任も重くなる。

オススメのTシャツを発見するのが目的のアルゴリズムなら放射線治療の効果を判定するアルゴリズムと同じほどの厳密さは必要とされない。結果が重大であればあるほど、誤った場合に法律的な責任が追求される可能性が高まる。

開発者も運用する企業のトップもAIシステムの倫理的側面を慎重にモニターする必要がある。

AI開発にあたってバイアスを抑制するための3つのカギ

AI業界の中でも自浄作用が働きつつある。たとえば、当初から人間のバイアスを慎重に検討することによりシステムのバイアスを減少させ、より倫理的な振る舞いをルール化する方法が研究されている

こうした方向に注目し、さらに推し進めていくべきだろう。重要なのは、既存の規制がどうであれ、システムの倫理的な側面し、その強化を積極的に進めていくことが重要だ。AI開発にあたって重要な点をいくつか紹介する。

1. その問題の解決に適した学習モデルを選ぶ

AIモデルが解決すべき問題ごとに異なるのには理由がある。異なる問題には異なる解決法があると同時に提供されるデータも異なる。こうすれば必ずバイアスを避けられるという処方箋があるわけではない。しかし開発にあたって警告を発してくれるいくつかのパラメーターがある。

教師なし学習と教師あり学習にはそれぞれのメリット、デメリットがある。ここで教師なし学習モデルの場合、データの次元削減ないしクラスター化を行う際にデータセットそのものからバイアスを学習している危険性がある。たとえばAグループに所属することとBという行動の間に高い相関関係があればモデルはこの2つをごっちゃにしてしまうだろう。これに対して教師あり学習ではデータの選択にあたってプロセスにバイアスの入り込む危険性をよりよくコントロールできるだろう。

開発中にバイアスを発見して修正するほうが運用開始後に当局によって発見されるよりはるかによい

一方、センシティブな情報を除外することによってバイアスをなくそうとする方法も正しいモデルを作る上で問題を起こすことがある。たとえば大学における志望者選抜で統一学力テストACTの点数に加えて志望者の郵便番号を考慮することは差別につながるようにみえる。しかし経済事情などの要素により統一テストの点数には地域ごとにバイアスがある。郵便番号を考慮すればこのバイアスを取り除くことができるかもしれない。

AIの利用にあたってはデータサイエンティストと十分に議論を重ね、目的に対してもっとも適切な学習モデルを構築する必要がある。どのようなモデルづくりが可能か複数の戦略を比較検討することが重要
だ。ある方法に決める前に十分トラブルシューティングしておくべきだ。 開発中にバイアスを発見して修正するほうが――たとえ時間が長くかかるように思えても―運用開始後に当局によって発見されるよりはるかによい

2. 学習用データセットは全体を代表できるものを選ぶ

データサイエンティストが十分なリソースを持っていない場合も多いが、学習用データの選択にあたってバイアスが入り込まないよう注意するのはプロジェクトの関係者全員の責任だ。バランスのとり方が非常に難しい。学習用データが十分に多様なグループを代表していることは必須だが、グループ分けの方法が現実のデータを反映しない恣意的なものとなっていると問題を引き起こす。

たとえば、グループごとに別々のモデルを構築するのは、コンピューター処理の観点からも企業広報の観点からも得策とはいない。 あるグループについて得られたデータ件数が少なかったため、重みづけをして学習させる場合がある。しかし最新の注意を払わないと新たなバイアスを生み出す危険性がある。

たとえばシンシナティでは40人分のデータしか得られなかったとしよう。全国の都市に関するモデルを構築するにあたってシンシナティのデータセットに都市の規模に応じた重みを加えたとする。するとこうしたモデルでトレンドを予測しようとするとランダム・ノイズが入るリスクが増大する。たとえばあるデータセットでBrianという名前の人物に犯罪歴があったとする。このデータセットに大きな重みづけをするとシステムは「Brianという名前の人物には犯罪傾向がある」といった結論を出してしまう。重みづけ、特に倍率の大きな重み付けをするにあたっては十分な注意が必要だ。

3. パフォーマンスの判定には現実データを用いる

企業は故意にバイアスを含んだAIシステムを作ったりしない。しかし企業内の一定の条件下では差別的なモデルであっても期待どおりの作動をする。残念ながら規制当局は(それをいえば一般公衆も)、バイアスを含んだシステムが運用された場合に、制作した企業の意図を考慮しない傾向がある。AIモデルを構築した後、現実のデータでテストを繰り返す必要があるのはそのためだ。

たとえば構築中のモデルにテストグループを使うのは好ましくない。テストグループやテストデータではなく、、できるかぎり現実のデータを用いるべきだ。たとえばAIを活用した与信審査システムを構築しているとしたら、データグループに対しては、「背が高い人のほうが背が低い人より債務不履行になる確率が高いという結果が出てないか?」といった単純な質問してみるべきだ。もしAIがそうした不合理な結論を出すならその理由を突き止めねばならない。

データを検査する場合にはr 2種類の公平性に注意する必要がある。一つは結果の公平性であり、もう一つは機会の公平性だ。AIでローンの審査を審査をする例で考えてみよう。結果の公平性というのは地域その他の条件によらず、同じ条件の借り手は同じ利率でローンを組むことができることをいう。機会の公平性とは可能であるならローンを返済する意思がある人々は地域その他の条件によらず同一の利率が得られるようにすることをいう。後者の条件を課さないと、たとえばある地域ではローンの債務不履行が頻発する文化的条件があることを隠しかねない。

偏ったデータセットを用いる危険性はあるが、結果の公平性は比較的担保しやすい。しかし機会の公平性の実現はモラルの問題が入ってくるためそれより難しくなる。多くの場合、2つの公平性を同じように確保するのは不可能だ。しかし注意深い監督下にモデルを現実のデータでテストすることはリスクを最小限にするのに役立つだろう。

こうしたAI利用の倫理的側面はやがて罰則によって強制されることになる可能性が高い。現にニューヨーク市ではアルゴリズムの利用を法的に規制しようと試みている。政府、自治体による法的規制はやがて開発段階にも及ぶだろうし、現実にAIを利用を利用した結果も厳しくモニターされることになるだろう。

モデリングに当たって、以上に紹介してきたような適切な手法を取ることによってバイアスが混入する危険を追放ないし最小限にできるというのは朗報だ。AI開発者は困難な倫理的課題を理解し、バイアスを発見し、現在の法の規定がどうであれ、正しい側に立つよう務める必要がある。。

原文へ

滑川海彦@Facebook Google+

GoogleのGboardで、自分に似た絵文字ステッカーを作ることができるようになった

この夏、Googleは独自のBitmojiである「ミニ」ステッカー(LINEでいうスタンプに相当)を、自社のキーボードアプリであるGboard上でリリースした。これは機械学習を利用して自撮り写真からイラスト版のステッカーを生成するものだ。そして本日(米国時間10月30日)、Googleはこのミニステッカー機能を拡大し、「絵文字mini」(Emoji Mini)を追加した。これはあなたに似た絵文字デザインのステッカーを提供するものだ。

先にリリースされたミニステッカーたちと同様に、新しい絵文字も機械学習技術を使って作られているとGoogleは語る。

同社によれば、このアイデアは利用者たちに、自分を絵文字でより良く表現するための手段を提供するものだという。

「絵文字miniは、絵文字の目を見つめたことはあっても、見つめ返されたことはない人たちのためにデザインされています」と、Googleはブログ投稿の中で説明している。「この毎日使うステッカーバージョンの絵文字は、あなたに似るようにカスタマイズすることが可能です」。

すなわち、あなたの絵文字に異なる色の髪(例えば緑、青、灰色など)を与えたり、ピアスを付けたりすることができる。また、帽子や、被り物、あるいは眼鏡を着用することもできる。

Googleは、ニューラルネットワークを使って肌の色調、髪型、アクセサリーを提案し、それを細かく調整することができるとしている。髪の色やヒゲの色を変えることもできるし、自分のものとはちがう帽子やメガネを選ぶこともできる。もしお望みなら、そばかすやしわを加えることもできる。

生成の結果は単なる1個の絵文字ではなく、複数のバリエーションが含まれる。たとえば、ゾンビ、魔道師、ハートの目、泣いている目、呆れたジャスチャーなどのカスタム絵文字を使うこともできる。

これは先に展開されていたミニステッカーの第3のスタイルだ。既に、これらのミニステッカーには2つのスタイルが提供されていた ―― より大げさな表情の「大胆なミニ」(bold)と「かわいいミニ」(sweet)だ。

それはささやかなもののように思えるかもしれないが、クリエイティブな絵文字は(とりわけパーソナライズされた絵文字は)メッセージングアプリにとって大きな誘因材料になる。Appleはその巧妙なアニ文字とパーソナライズされたミー文字を、その新しいFace IDの使える電話機の、代表的な機能として宣伝している。SnapchatはBitmoji(Bitstrips)を買収し、ユーザーたちにクリエイティブな表現のためのツールを提供した。Samsungでは、自分のように見えるAR絵文字を作ることができる。人びとは、Unicodeコンソーシアムが多様化のためにより多くの肌の色を取り込み、遂に赤毛を追加した決定を喜んだ。

Google Playで10億回以上ダウンロードされたGboardも、自撮りベースのステッカーのおかげで、同様の誘引力を持つことになる。

同社によれば、新しい「絵文字mini」は、今日からiOSとAndroidの両方で、すべてのGboard対応言語と国で利用可能だということだ。

[原文へ]
(翻訳:sako)

Facebookは新しい機械学習技術で870万件の児童搾取ポストを削除したと主張

Facebookが今日(米国時間10/24)、前四半期には新しい技術により、児童搾取の規則に違反している870万件のコンテンツを削除した、と発表した。同社が昨年来開発してきた新しいAIおよび機械学習の技術は、それらのポストの99%を、誰かがそれを報告する前に削除した、とFacebookの安全性担当のトップAntigone Davisがブログ記事で述べている。

その新しい技術は、児童のヌードなどの搾取的コンテンツをそれらがアップロードされた時点で見つけ、そして必要ならば、写真と説明文書をNational Center for Missing and Exploited Children(失踪および搾取された児童のための全国センター)に報告する。Facebookはすでに、写真マッチング技術を使って、新たにアップロードされた写真を児童搾取やリベンジポルノの既知の画像と比較していたが、新しいツールは、それまで特定されていなかったコンテンツ(既知でないコンテンツ)がFacebookのプラットホームから広まることを防げる。

その技術は完全ではなく、多くの親たちが、自分たちの子どもの無害な写真が削除された、と不平を言っている。Davisはブログ記事の中でそのことを認め、“虐待‘かもしれない’ものでも排除する方針なので、子どもがお風呂に入っているような一見無害で性的でないコンテンツも対象にしている”、と書いている。そしてこの“幅広いアプローチ”のために、前四半期には大量のコンテンツが削除された、という。

しかしFacebookのコンテンツ調整が完全には程遠くて、多くの人たちが、それは悉皆的でも正確でもないと思っている。家族のスナップ写真だけでなくFacebookは、ベトナム戦争の悲惨さの象徴となった1972年のPhan Thi Kim Phucの、“Napalm Girl”(ナパームの少女)と呼ばれている写真まで削除した。最重症のやけど第三度熱傷を負った少女は、村を南ベトナムのナパーム弾で焼かれ、裸で走って逃げていた。FacebookのCOO Sheryl Sandbergは、後日、その写真を削除したことを謝罪した

昨年、同社のコンテンツ調整ポリシーは、イギリスの国の機関である児童虐待防止協会から批判された。その団体は、Facebookは独立の調整機関の下に置かれるべきであり、ポリシーへの違反には罰金が課せられるべきだ、と主張した。Facebook Liveのローンチもときには同社とその調整者たち(人間とソフトウェアによるモデレーター)にとって逆風となり、性的暴行や自殺、殺人などのビデオが批判された。生後11か月の赤ちゃんが父親に殺されるビデオすら、放送されてしまった。

しかしソーシャルメディアのコンテンツの調整は、AIによる自動化が人間労働者の福利に貢献しうることの顕著な好例である。先月、FacebookのコンテンツモデレーターだったSelena Scolaは、何千もの暴力的な画像を調べさせられたために心的外傷後ストレス障害(post-traumatic stress disorder, PTSD)に陥ったとして同社を告訴した。モデレーターの多くは契約社員だが、その多くが、彼らの仕事の精神的重荷について語り、Facebookは十分な教育訓練とサポートや金銭的補償を提供しない、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Alexaをささやき声で使えるようになった、夜のムードを壊したくない人に向いている

先月シアトルで行われたAmazonのAlexaイベントで、EchoなどAlexaデバイスの‘ささやきモード’が紹介された。そのとき見たささやきのデモでは、“子守唄をかけて”とささやくと、AlexaがEchoなど音声アシスタントデバイスにそれを命じる。そして今日(米国時間10/18)、そのWhisper Modeが正式に使えるようになった。

ただし今その機能が使えるのは、アメリカのユーザーのみ、そしてアメリカ英語のみだ。

この機能は、もっぱら静かにしていたい夜の時間とか、床(とこ)についてから寝るまでの時間には便利だ。また、寝ている子どもを起こさずにAlexaに命令したいときも。また一般的に、静かな声で対話をしたい人は、一日中このモードを使うかもしれない。

Whisper Modeは、Alexaにもっと状況(コンテキスト)理解力を持たせようとするAmazonの努力の一環だ。たとえば“play Hunger Games”(Hunger Gamesをかけて)とコマンドしたら、それが画面のあるデバイスだったら映画を、そしてEchoスピーカーならオーディオブックを再生してほしいのだ。

また、Amazonの9月のイベントでは、Echoデバイスにスマートホーム機能を持たせる“Alexa Guard.”が紹介された。これは、音や煙や一酸化炭素を検出し、たとえばガラスが割れる音にも反応する。

Alexa GuardもWhisper Modeも共に、“long short-term memory,”(長・短期記憶)と呼ばれる機械学習ネットワークを利用する、とAlexaの研究開発トップRohit Prasadが説明してくれた。〔参考記事(‘LSTM’で検索を)〕

入ってくるオーディオシグナルは、小さな断片に分割され、long short-term memoryのネットワークがそれらを順に処理していく。同社は9月に、そう説明した。そのシステムは、それまでの断片に関する判断も参考にしながら、その新しい断片が囁(ささや)きであるかアラームであるかを判断する。このようにしてそれは、時間上に並ぶオーディオシグナルの各部分間の構造的(〜意味的)な関係を学習できる、とAmazonは言っている。

同社は先月、Alexaの音声対話が“context carryover”(コンテキストの繰越)と呼ばれるものによって、より自然になった、とも言った。たとえば、“今日は雨が降る?”と尋ねたあとに、“明日はどう?”と問うと、「雨降りについての質問」というコンテキストが次へ繰り越されて、正しく明日の雨について答えてくれる。

そして、最近同社が特許を取った技術を使うと、Alexaがユーザーの健康状態を判断して薬を売ろうとする。たとえば咳止めドロップとか。このシステムは、喜び、怒り、悲しみなどの感情も検出する、とAmazonのレポートは言っている。

あなたのAlexaデバイスにWhisper Modeが来ているか知るためには、それを有効にしてみること。

Whisperは、アカウントの設定で有効/無効にするから、Alexa AccountからメニューをたどるとWhispered Responsesに行き着く。あるいは音声で“Alexa, turn on whisper mode”(Alexa、ささやきモードを有効にして)、と言ってもよい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

企業のコールセンター支援をクラウド上のサービスとして提供するTalkdeskが$1Bの評価額で$100Mを調達

企業のコールセンターのための顧客情報サービスをクラウド上のSaaSとして提供するTalkdeskが、コネチカットのヘッジファンドViking Global Investorsとこれまでの投資家DFJから新たに1億ドルを調達した。

このラウンドでは同社の評価額が10億ドルを超えたことを、協同ファウンダーでCEOのTiago Paivaが認めたが、正確な額は明かさなかった。

同社は、機械学習をはじめとする人工知能の技術を利用して、中企業から上のエンタープライズに良質なカスタマーサービスのための支援を提供している。顧客の中にはIBM, Dropbox, Stitch Fix, Farfetchなどがいる。

Paivaは次のように語る: “企業に100万の顧客がいて、彼らがサポートを求めているとしよう。Talkdeskはそんなときに、企業と顧客を可能なかぎり最良の形で結びつける。たとえばFarfetchはTalkdeskを利用することによって、各顧客が何を買ったか、彼らの好みは何か、これまでどんな苦情を言ってきたか、などが即座に分かる。われわれは企業にあらゆるものの履歴を提供して、迅速な問題解決ができるようにする”。

2011年にポルトガルで創業したTalkdeskは、サンフランシスコとリスボンにオフィスがある。今度の資金でイギリスへの進出と、AIへのより厚い投資を計画している。同社はこれまで、2015年の1500万ドルのラウンドも含め、約2400万ドルの増資を行っている。2012年のTechCrunch Disrupt NY Startup Battlefieldにも出場した

DFJのパートナーJosh Steinは、声明文の中でこう言っている: “今日のデジタル慣れしている顧客は迅速で個人化された答を求めているが、未だに大多数の企業が、そのようなアジリティとサービスを可能にする、柔軟性に富むクラウドネイティブなプラットホームを採用していない。しかし2019年には、クラウドを利用するコンタクトセンターが、例外ではなく標準になるだろう”。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Disrupt SFで語られたAIの現状に関する5つの注目点

[著者:Taylor Nakagawa]

人工知能(AI)に期待されていることは計り知れないが、そのゴールに至るまでのロードマップはいまだ不透明だ。TechCrunch Disruptサンフランシスコのステージでは、AIを専門とする知識人たちが、現在の市場での競争の様子、アルゴリズムが差別主義を助長させないための方法、未来のマンマシン・インターフェイスといった課題について意見を述べ合った。

そこで、2018年のDisruptで語られた、AIの現状について注視すべき5つの点を紹介しよう。

1. アメリカがAIで中国に参入しようとすれば多くの障害に遭遇する

SinnovationのCEO李開復(リー・ カイフー)(写真:TechCrunch/Devin Coldewey)

中国がAIに力を入れて華々しい発展を遂げていることは、各方面で数多く報道され、もはや無視できない存在にまでなっている。AlibabaやTencentのような巨大企業が国産ビジネスに何億ドルもつぎ込んでいるため、アメリカ企業がAIで中国に参入しても、動き回ったり拡大できる余地はだんだん狭くなっている。AI投資家でありSinnovationのCEO李開復(リー・ カイフー)は、AI開発においては、中国とアメリカは「並行宇宙」に生きていると話している。

https://platform.twitter.com/widgets.js
Sinnovation会長にしてCEO李開復は、AIに関しては中国はアメリカを超えたと話す。

Googleの中国進出を助けた李は、「AIを電気と同様に考えるべき」だと説明している。「トーマス・エジソンもAIの深層学習も、どちらもアメリカ生まれですが、彼らはそうした技術を発明し、寛大にも公開しました。今や中国は、最大のデータ量を誇る最大の市場として、従来型のビジネスのあらゆる場所、インターネットやその他のあらゆるスペースに価値を加えるために、AIを実際に使っています」

「中国の起業家エコシステムは巨大です。現在、コンピュータービジョン、音声認識、ドローンの分野でもっとも価値の高いAI企業は、すべて中国企業です」

2. AIの偏見は古い問題の新しい顔

9月7日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第3日目のステージで討論する(左から)Ken Goldberg(UCバークレー教授)、Timnit Gebru(Google AI研究者)、Chris Ategeka(UCOT創設者、CEO)、Devin Coldewey(司会)(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

AIは、数多くの仕事から、つまらない単調な作業をなくし、人々に生産性と効率性をもたらすと約束されてきた。しかし、多くのAIシステムの学習に使用されるデータには、人間が持つ偏見が植え付けられていることがあり、それを放置すれば、所得格差や人種差別といった体系的問題をはらむコミュニティーを今よりも疎外することにつながりかねない。

「社会的経済地位の低い人たちは、より監視が強化され、さらにアルゴリズムで調べられることになります」と、Google AIのTimmit Gebruは言う。「なので、地位の低い仕事の求職者ほど、自動化されたツールで処理される可能性が高くなります。現在、こうしたアルゴリズムがさまざまな場所で使われていますが、機会均等法のような法律に準拠しているかを確かめることすらできていません」

https://platform.twitter.com/widgets.js
アルゴリズムの偏見は、所得格差と人種差別に根をもつ古い問題の新しい顔だ。将来のより客観的なアルゴリズム構築のためのステップの概要を示すTimmit Gebru(Google AI)、Ken Goldberg(UCバークレー)、Chris Ategela(UCOT)

危険なアルゴリズムが広がりを阻止できる可能性のある解決策を、UCバークレーのKen Goldbergが解説した。彼は、複数のアルゴリズムとさまざまな分類子が共同して働き、ひとつの結果をもたらすアンサンブル理論の概念を引用している。

しかし、不適切な技術のための解決方法が、よりよい技術であるかどうかを、どうやって確かめたらよいのだろう。Goldbergは、適正なアルゴリズムを開発には、AIの外の分野から来た、さまざまな経歴を持つ人間が欠かせないと語る。「機械の知能と人間の知能には、深い関連性があると思われます」とGoldbergは説明する。「異なる視点を持つ人は非常に貴重です。ビジネスの世界でも、そうした人が認められつつあるようです。それはPRのためではなく、異なる経験値と多様な視点を持つ人がいれば、よりよい決断が下せるからです」

3. 未来の自律走行は、人と機械の協力に依存することになる

UberのCEO、Dara Khosrowshahi(写真:TechCrunch/Devin Coldewey)

運送会社の多くは、移動が高度に自動化されて、人間が介在することがかえって有害になる近未来の夢の世界を想像している。

UberのCEO、Dara Khosrowshahiは、そうはならないと指摘する。人間を隅に追いやろうと競い合う時代では、人間と機械が手を取り合って働くほうが現実的だと彼は言う。

「人間もコンピューターも、それぞれ単独で働くより、一緒に働いたほうがうまくいく。私たちには自動化技術を導入する能力があります。サードパーティーの技術、Lime、私たちの製品は、すべてが協力してハイブリッドを構成しています」

https://platform.twitter.com/widgets.js
「未来の自律走行は、人と機械の協力に依存することになると、UberのCEO、Dara Khosrowshahiは言う」

Khosrowshahiが最終的に描いているUberの未来では、エンジニアがもっとも危険の少ないルートを監視し、乗客のための最適なルートが自動的に選択されるという混合作業になるという。この2つのシステムを組み合わせることが、自律走行の成熟には大変に重要で、乗客の安全を守ることにもなる。

4. アルゴリズムを「公平」だと判断するための合意による定義は存在しない

9月7日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第3日目のステージで話をするHuman Rights Data Analysis Group の主任統計学者Kristian Lum(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

昨年の7月、ProPublicaはある報告書を発表し、その中で機械学習が、独自に偏見を芽生えさせる危険性を強調している。調査によると、フロリダ州フォートローダーデールで使われていたAIシステムは、黒人の被告が将来再び犯罪を犯す可能性は、白人の被告の2倍あると誤った指摘を行った。この歴史的な発見は、公正なアルゴリズムの構築方法に関する論議を呼び起こした。

あれから1年、AIの専門家はまだ完全な構築方法を見つけていないが、アルゴリズムにおける、数学と人間というものへの理解を組み合わせた文脈的アプローチが、前に進むための最良の道だと考える人は多い。

https://platform.twitter.com/widgets.js
公正なアルゴリズムをどうやって作るか? Kristian Lum(Human Rights Data Analysis Group)は、明確な答えはないが、AIの文脈的なデータトレーニングによると言う。

「残念なことに、公正とはどんなものか、に関する定義の普遍的な合意が得られていません」とHuman Rights Data Analysis Groupの主任統計学者Kristian Lumは話す。「データをどのように刻んでゆけば、最終的にアルゴリズムが公正でないとわかるのか、ということです」

Lumの説明によれば、この数年間、数学的な公正さの定義を巡って研究が進められてきたという。しかし、このアプローチはAIの道徳に対する見識と相容れない場合が多い。

「アルゴリズムの公正さは、大いに文脈に依存します。それは、トレーニングに使用するデータに依存するということです」とLumは語る。「問題について、深く理解しておく必要があります。そして、データについても深く理解しておかなければなりません。それができたとしても、公正さの数学的定義への意見は分かれます」

5. AIとゼロトラストは「理想的な縁組」であり、サーバーセキュリティーの進化の鍵となる

9月6日、カリフォルニア州サンフランシスコにて。モスコーンセンターで開かれたTechCrunch Disrupt第2日目のステージで話をする(左から)Mike Hanley(DUOセキュリティー副社長)、Marc Rogers(Oktaサイバーセキュリティー上級ディレクター)、司会のMike Butcher。(写真:TechCrunch用にKimberly White/Getty Imagesが撮影)

前回の大統領選挙で、私たちは、個人情報、金融資産、民主主義の基礎を守るために、セキュリティーシステムの改良が喫緊の課題であることを学んだ。Facebookの元主任セキュリティー責任者Alex Stamosは、Disruptサンフランシスコにおいて、政治とサイバーセキュリティーの現状の厳しい見通しを示し、次の中間選挙でのセキュリティーのインフラは、2016年当時からそれほど良くなっていないと話した。

では、セキュリティーシステムの改善に、AIはどれくらい役に立つのだろうか。OktaのMark RodgersとDuoのMike Hanleyは、AIと「ゼロトラスト」と呼ばれるセキュリティーモデルの組み合わせに期待を寄せている。本人確認ができないかぎり、どのユーザーもシステムにアクセスできないという仕組みだ。それが、人を介さず侵入してくる相手を積極的に排除できるセキュリティーシステムの開発の鍵になるという。

https://platform.twitter.com/widgets.js
AIとゼロトラストが組み合わせた将来のセキュリティーシステムの仕組みを説明するMarc Rodgers(Okta)とMike Hanley(Duo)

「ゼロトラストの背景にある考え方全体が、自分のネットワーク内のポリシーを自分で決めるというものなので、AIとゼロトラストは理想的な縁組なのです」とRodgersは話している。「AIは、人間に代わって決断を下すことを得意としています。これまで人間には不可能だったほどの短時間で判断します。ゼロトラストが進化して、ゼロトラストのプラットフォームにAIが組み込まれるようになることを、私は大いに期待しています」

この大きな仕事を機械に任せられるようになれば、サイバーセキュリティーのプロは、もうひとつの差し迫った問題を解決する機会を得る。それは、これらのシステムを管理する資格を持つセキュリティーの専門家の配属だ。

「必要な仕事を実際に熟せる有能なセキュリティーのプロが、大幅に不足してます」とHanleyは言う。「それは、セキュリティーを提供する企業にとって、片付けなければならない仕事が特定できる非常に大きなチャンスとなります。この分野には、解決されていない問題が、まだたくさんあります。なかでも、ポリシーエンジンは面白いチャレンジになると思います」

Disrupt SF 2018


Disruptサンフランシスコ2018のその他の記事(英語)

[原文へ]
(翻訳:金井哲夫)

Amazonからビジュアル・ショッピングツール、Scout登場――機械学習で検索をパーソナライズ

AmazonはScoutと呼ばれる新しいショッピングツールの実験を始めた。CNBCがScoutがAmazonのサイトで実際に作動しているのを最初に発見した。消費者は多数のアイテムからビジュアルな好みによってクリックしていくことでこれまでよりはるかに効率的な選択をすることが可能になるという。

Scout Explorerでは商品画像に「いいね」と「よくないね」を投票できるボタンが付され、機械学習によって検索がパーソナライズされる。消費者はPinterest的にAmazonの商品をブラウズしていくことができる。システムは消費者のクリックによって商品紹介の精度をアップしていくという。

現在Scoutは家具、キッチン、ダイニング、インテリア、パティオ、照明、寝具、婦人靴などの分野をカバーしている。Amazonは今後アパレル、ハンドバッグなどの分野にもサポートを拡大していく計画だ。

今日(米国時間9/19)からAmazon.comで利用できるようになった機能を使えば どんなものが欲しいのか自分でも詳しく分からないようなアイテムを選ぶのが簡単になる。たとえば、衣装箪笥、キルトの掛け布団、デッキチェアなどが欲しいなどという場合、商品のスタイルも数も多いため選択は非常に難しくなる。消費者は好みに合わない多数の商品のサムネールを延々とスクロールし続けることになりがちだ。そこでもっと自分の好みを知っているサイト、
たとえばPinterestやHouzzなどに向かってしまう。

Scoutは消費者がすばやく候補を絞り込めるよう助けるのが狙いだ。

Amazonの広報担当者の説明によれば、Scoutは 「どんなものが欲しいのか分からないが、見ればわかる」と「どんなものが欲しいか分かっているが、その名前が分からない」というよくあるジレンマの解決を目指したものだという。担当者は次のように述べている。

Scoutはショッピングの新しいスタイルだ。ユーザーは何万という掲載商品の中からビジュアルな要素によってすばやく自分の好みのアイテムを見つけることができる。Amazonは豊富な品揃えから消費者に何千もの画像を示すことができる。消費者の投票によりScoutは好みを知り、表示する候補を変更する。このショッピングのイノベーションを可能にしているのは高度な機械学習だ。その結果、快適でインスピレーションに溢れた画像フィードによるショッピング体験が生まれた。ユーザーは多数の候補画像の中をゲーム感覚でクリックしながら進むことにより効率的に自分の好みに合致したアイテムを発見できる。

Amazonが候補の発見と選択にあたっての困難に対処するテクノロジーを開発したのはこれが最初ではない。たとえばInteresting Findsという特設コーナーでは衣服、おもちゃ、ガジェット、トラベル、オフィス、家庭、ペットなどトップ層のいくつかのカテゴリーでキュレーションを試みている。消費者は示された候補画像に対してハートマーク(Amazon版の「いいね」 )をクリックしていくことによりシステムに自分の好みを知らせることができる。システムはこの入力をベースにMy Mixというページを作る。

ただしこのInteresting Findsはセレンディピティー的な、つまり偶然面白いものを発見するという使い方をされる場合が多い。ユーザー個人の好みによってパーソナライズされた検索の実現というところまで行っていなかった。

AmazonはまだScoutについて正式な発表を行っていないが、 ユーザーはショッピングをしているときにいくつかのカテゴリーでScout Style
Explorerというリンクを見るかもしれない。このリンクをクリックすると新しいツールにジャンプすることができる。

Scoutには独自のURLは与えられておらず、Amazon.com内のページとなっている( amazon.com/scout)。

AmazonによればウェブとAmazon Appの双方で有効だという。

〔日本版〕アメリカAmazonにアカウントがあれば実際に試してみることができる。上のリンクも作動するが、トップページからcoffee tableというキーワードで検索し、適当なアイテムをクリックして開くとグレー地に白抜きでScout
Style Explorerのバナーが表示され、Scoutに移動できる。 

原文へ

滑川海彦@Facebook Google+

Googleが日本で複数のAI関連事業を立ち上げ、UNIQLOとパートナーシップ

Googleが今日(米国時間9/18)東京で行われたCloud Next 2018イベントの場を利用して、日本市場にフォーカスした二つのイニシアチブを発表したのは、当然のことだ。このイベントはメインのカンファレンスがサンフランシスコで行われ、複数の国際的イベントが東京など各地で行われる。

発表には、ベーシックなアップデートとしていくつかの日本語ローカライゼーションも含まれ、その中には、CourseraのコースMachine Learning with TensorFlow on Google Cloud Platformの日本語化や、クラウド技術者の資格検定Associate Cloud Engineerの日本語化、50種のクラウド実践演習(各30分)Qwiklabsの日本語化などがある〔日本語化の例はここで〕。

さらにGoogleは、東京にAdvanced Solutions Labを立ち上げる。同様のラボは、アイルランドのダブリンとカリフォルニアのサニーベール、そしてニューヨークにもある。それらはGoogleのエキスパートたちによる4週間の機械学習教育訓練コースを軸として、機械学習のさまざまな学習オプションとコラボレーションによる演習経験を提供する。

(写真: Hitoshi Yamada/NurPhoto via Getty Images)

Googleは今日、新しいテクノロジーの採用をめぐって、ユニクロの親会社Fast Retailingとのパートナーシップを発表した。社名が示すように同社は小売業の高速化に関心があり、成長の加速化のためにGoogleのG Suiteや機械学習ツールを利用していきたいようだ。このパートナーシップ事業の名前は、’Ariake’である。

Fast RetailingのCEO Tadashi Yanaiはこう言っている: “全社員が情報にアクセスできるようにすることが、Ariakeプロジェクトの基盤のひとつだ。それによって社員たちは、論理や判断、共感といった人間の特性を生かした意思決定ができるようになる。毎シーズン、事業計画を書いているが、G Suiteのような共同作業ツールを使えば、それらを全社員が共有できる。Google Cloudとのパートナーシップは、需要予測のようなものをとっくに超えて、全社員の協働的な仕事のやり方を抜本的に変えた”。

画像クレジット: Tomohiro Ohsumi / Getty Images

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Microsoft、Dynamics 365の機械学習を強化――カスタマーサービス、顧客管理など3分野のアプリを発表

有力テクノロジー企業はみなそうだが、Microsoftもあらゆるプロダクトに機械学習を取り入れようと全力を挙げている。 当然ながら、大きなビジネスとなっている顧客管理システム、Dynamics 365 CRMにもAIを適用した。Microsoftが最初にDynamics 365 AIを発表したのは1年前になる。今日(米国時間9/18)は、Dynamics 365 AI for Sales、Customer Service、Market Insightsという3つのAIプロダクトをリリースした。これによりAIプロダクトのポートォリオはセールス、カスタマー・サービス、市場分析の分野に拡大された。

Microsoftのビジネス・アプリケーションとインダストリー担当コーポレート・バイスプレジデント、Alysa Taylorはこう述べている。

現在多くの人々はCRM(顧客管理)やERP(基幹業務管理)などを抑圧的なシステムだと感じている。データを貯め込むだけで、実際にエンドユーザーの業務に役立つ情報を何ひとつ返してよこさない。しかしユーザーが求めているのは抑圧では解放だ。

Dreamforceカンファレンスの熱狂的参加者は別として各種のCRMが好きな人間はいない。抑圧のシステムというのはずいぶん過激な表現だが、初期のCRMは隔絶したデータのサイロになりがちだったという点でTaylorの言うことには理がある。もちろんMicrosoftはDynamics 365に格納されたデータは機械学習によってさまざまなタスクに容易に利用できるのでそういった抑圧的システムとは全く異なると主張する。

Dynamics 365 AI for Salesは名前のとおり、セールス部門に対して、顧客から得たデータにセンチメント分析を適用して的確な将来予測を与えようとするシステムだ。現在、この分野への機械学習の適用は標準的なものとなっているが、AI for Salesは同時にセールス・チームが次にどんな手を打つのが効果的か、どの行動が優先順位が高いかなどを教えるという。またセールス部門の管理職による担当者の教育・訓練も手助けする。

Customer ServiceアプリもAIによって自然言語処理を行い、言語によってカスタマー・サポートを行うことを可能にする。バーチャル担当者を創出することによりコストの削減が図れる。TaylorによればこのアプリはライバルのSalesforceに対抗するものだという。Talorは「多くのベンダーがそういうことができると主張しているものの、企業が実際に採用するには手間がかかりすぎるものが多い。またこうしたサービスは非常に大規模であることが必要なのでSalesforceはIBM Watsonと提携している。われわれのサービスもいよいよ実用化される」と述べている。

Dynamics 365 AI for Market Insightsも市場動向の分野で同様の機能を示し、ソーシャルメディアの書き込みを対象としたセンチメント分析を行う。ただしセールス部門におけるものよりも詳細な分析となる。「これにより企業はプロダクトやブランドに対する好き・嫌いなどの感情を分析し、続いてその結果をベースに顧客忠実度をアップするために効果的な手段を検討する。またどういうイベントが口コミで広がりをみせ、ブランドの認知度や親近感を高めるかを示唆する」という。つまり企業が口コミでニュースを拡散しようと何か始めるのを見たら、Office 365 AI for Market Insightsの助言に従ってそうしている可能性があるわけだ。

原文へ

滑川海彦@Facebook Google+

Microsoft、ドラグ&ドロップでAIアプリを作るLobeを買収――Azure ML Studioの強化へ

今日(米国時間9/13)、MicrosoftはAIスタートアップのLobeを買収したことを発表した。 Lobeは簡単なドラグ&ドロップによって高度な機械学習モデルが制作できるシステムだ。今年に入ってベータ版がリリースされたLobeをMicrosoftは独自のAIモデル開発に利用する計画だ。ただし当面、Lobeは従来どおりの運営を続ける。Lobeチームは次のように述べている

Microsoftの一員となったことで、Lobeは世界でもトップクラスのAI研究の成果とインフラを活用できるようになった。またMicrosoftは数十年にわたってデベロッパー・ツールを開発してきた。われわれは今後ともオープンソースの標準に従い、Lobeをスタンドアロンでマルチプラットフォームのサービスとして発展させていく計画だ。

Lobeの共同ファウンダー、Mike Matasこれまで携わった開発にはiPhoneとiPad、FacebookのPaperとInstant Articlesなどのプロダクトがある。共同ファウンダーにはAdam Menges、Markus Beissingerが加わっている。

MicrosofはLobeに先立っては深層強化学習(deep reinforcement learning)のプラットフォーム、Bonsai.aiと会話形AIのプラットフォーム、Semantic Machinesを買収している。また昨年、2012年のTechCrunch Disrupt BattlefieldでデビューしたMaluubaを買収したことも記憶に新しい。機械学習のエクスパートをスカウトするのが非常に難しいことはよく知られている。そこで有力テクノロジー企業は人材とテクノロジーの獲得を念頭に置いてスタートアップの買収に全力を挙げている。Microsoftのエグゼクティブ・バイスプレジデント、CTOのKevin Scottは今日の声明に次のように書いている。

いろいろな意味でわれわれはAIがもたらす可能性の入り口に立っているに過ぎない。経験を積んだデータサイエンティストやデベロッパーにとってさえ機械学習モデルやAIソフトウェアの開発は時間がかかるタスクだ。多くの人々がAIへのアクセスに高いハードルを感じている。われわれはこれを変えていこうと決意している。

重要なのはLobeのアプローチがMicrosoftの既存Azure ML Studioプラットフォームと親和性が高いことだ。このプラットフォームは機械学習モデルの生成にあたってドラグ&ドロップによる直感的なインターフェイスをすでに提供している。ただし実用本位のデザインであり、Lobeチームのシステムのインターフェイスのほうが洗練されている。

LobeとAzure ML Studioはどちらも機械学習の普及を狙っており、TensorFlow、Keras、PyTorchなどの詳細な知識なしに誰でも機械学習を利用してアプリが開発できるようにするのが目標だ。もちろんこうしたアプローチにはそれなりの限界があるのは事実だが、「大量のコードを書かずにすむ」各種ツールは多くのユースケースで有用であり、十分に役割を果たすことが示されている。

原文へ

滑川海彦@Facebook Google+

NvidiaがローンチしたTesla T4は最速のデータセンター用推論プラットホームだ

Nvidiaが今日(米国時間9/1)、データセンターにおける機械学習と推論のための新しいGPUを発表した。そのTesla T4 GPUs(TはNvidiaの新しいアーキテクチャTuringを指す)は、クラウドコンピューティングのメジャーなプロバイダーのほとんどが現在提供しているP4 GPUsの後継機種だ。Nvidiaによると、GoogleはT4 GPUsをクラウドプラットホームで採用する最初の企業のひとつだ。

Nvidiaによると、T4はP4よりも相当に速い。たとえば言語の推論では、T4はCPUを使うよりも34倍速く、P4より3.5倍速い。T4のピーク時性能は4ビットの整数演算で260TOPS、浮動小数点演算で65TOPSだ。T4は、標準的な75ワットのLow Profile PCI-eカードに載っている。〔関連記事

しかしもっとも重要なのは、Nvidiaがこれらのチップを、AIの推論専用に設計したことだ。NvidiaのVPで同社のTeslaデータセンター事業部のGM Ian Buckはこう語る: “Tesla T4が推論用としてこれほど効率的なGPUであるのは、Turingアーキテクチャの新しいテンソル・コアのせいだ。CEOのJensen Huangがすでに述べたように、そのTensorコアはゲームやレンダリングやAIにも有効に利用できるが、設計の前提は推論だ。トータルでこのチップには、320のTuting Tensorコアと2560のCUDAコアがある”。

Nvidiaは今回、新しいチップのほかに、同社のソフトウェアTensorRTの、ディープラーニングのモデルを最適化するアップデートをローンチした。この新しいバージョンには、TensorRT推論サーバーも含まれており、それはデータセンターの推論のための完全にコンテナ化されたマイクロサービスとして、既存のKubernetesインフラストラクチャにシームレスに接続する。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa