消費者の41%が音声アシスタントのプライバシーに不安、マイクロソフト調査

Microsoft(マイクロソフト)の新しいレポートによれば、音声アシスタントのユーザーの41%がデバイスが常時聞き取り状態にあることに関連してプライバシーやデータ保護の信頼性に不安を抱いているという。

Google、Amazon、Apple、 Samsung、Microsoftなどの有力企業が揃って消費者向け音声アシスタントデバイスのメインストリーム化に務めている現在、こうしたデバイスのデータ収集方法について懸念を抱くのは正しい態度だ。

しかし多くの消費者がこの点について正しい知識を持っていないように思える。Amazonのエンジニアが世界のユーザーがAlexaに入力した音声コマンドをモニターしているというBloomberg(ブルームバーグ)の最近の報道は消費者に懸念を抱かせた。しかもこうした人工知能を利用したスマートデバイスはメーカーやその外注企業の社員がモニターできるだけなく、入手した個人情報を違法に利用し、刑事事件にまで発展した例さえあった。電源がオンになっているかぎり聞き耳を立ているスマートスピーカーは笑いごとではすまないような重大なプライバシーの侵害を起こす可能性が充分ある。

米国時間4月25日、BloombergはAmazonのAlexaチームによるプライバシー侵害の危険性に関して次のように新たな報道を行った。

レポートによれば、Alexaが聞き取った音声データにアクセス可能なAmazon社員はデバイスの位置情報、場合によっては正確な住所も得られるという。これは音声データに緯度経度の座標が付属しているためだ。音声クリップをGoogleマップにペーストして簡単にデータが得られた場所を知ることができる。 Bloombergは「こうした位置情報を含むデータにアクセスできるAmazon社員の人数は不明」だとしている。

これは歴然たるプライバシーの侵害であり、我々がAmazon Echo、ひいては同種の音声アシスタントに対して抱く不信感を実証するものだ。

音声アシスタントのユーザーはバックエンド処理にどれほど人間が関与している正確に知ることはできない。しかしMicrosoftのレポートを読めば、デジタルアシスタント利用している消費者はデバイスが持つプライバシーの侵害やデータの不正利用などの危険性について強い不安を抱いていることがわかる。

例えば、Microsoftの調査対象の52%は入力された情報のセキュリティーに不安を感じている。24%は情報がどのよう利用されているのかわからないと考え、36%はどんな目的だろうと個人情報を一切利用して欲しくないと考えている。

こうした数字はデジタルアシスタントには個人情報の収集と利用から永続的にオプトアウトできる分かりやすい仕組みが必須だということを示している。 つまり1回クリックするだけで「デバイスが収集した個人情報が外に出ることはなく、かつ人間がアクセスすることはない」ように設定できなくてはいけない。

41%のユーザーは音声アシスタントがユーザーの音声に聞き耳を立て録音していることに不安を感じている。31%は収集された情報にプライバシーは保証されていないと考えている。

さらに14%はプライバシーやセキュリティーの点で音声アシスタント・サービスを信用していない。つまりAmazon、Google、その他の企業はこの点で信用されていないわけだ。Microsoftのレポートはこう警告している。

新しいテクノロジーデバイスに関する消費者からのフィードバックに不安に真剣に対応することはデベロッパーに課せられた責務だ。消費者が安心してデバイスと音声で対話できる未来を実現するために必要な信頼の基礎を今すぐ築き始めねばならない。

調査はプライバシーに関して音声アシスタントに消費者が不信感を抱いているものの、全員が音声アシスタントの利用に拒否反応を持っているわけではないことも示している。たとえばEchoに音声でAmazonの商品を注文する際、商品配送するために役立つなら住所データを利用するのは構わないと考えるユーザーも多い。確実にメリットがあるなら住所以外でも個人情報を提供していいと答えたユーザーも存在する。

消費者は全体としてはキーボードやタッチスクリーンより音声入力を好んでいる。音声アシスタントの普及はま だ初期段階だが、 57%のユーザーが(プライバシーなどの懸念はあるにせよ)、音声をお気に入りの入力方法だとしている。また37%は他の入力方法と併用して音声入力も用いると答えた。

「どちらかといえば」から「大いに」まで程度はさまざまだが、80%のユーザーがデジタルアシスタントに満足しており、「週に1度以上使う」ユーザーは66%、「毎日使う」は19%だった(これには音声以外のスマートアシスタント全般を含む)。

こうした高い満足度をみれば、音声を含むデジタルアシスタントが市場から消えるということは考えにくい。いかしプライバシーの侵害や不正利用の可能性は普及の大きな妨げになるだろうし、あるプロダクトの信頼性が高ければ、信頼性の低いブランドからの乗り換えを促すことも考えられる。

もしAmazonなどが社員が消費者の音声情報にアクセスすることを厳格に制限できず、Appleがリリースした製品がそれと同等の価格でプライバシーが良好に守られるとするなら、ここでもAppleが大きなシェアを得ることになるかもしれない。

音声アシスタントと音声認識テクノロジーのトレンドを含むMicrosoftのレポートの全文はこちら

原文へ

(翻訳:滑川海彦@Facebook

AIが就職面接で表情を読み取るロボット採用がやってくる

リモートワークがこれまで以上に一般的になって来ているので、リモート面接もそれに応じて必要になって来ている。しかし、そのような手段を通したときに、どのように相手を真に評価することができるのだろうか?また、単純に全ての候補者に面接を行う時間がないために、素晴らしい候補者を見逃してしまうことはよくあることだ。

これまでも、この問題に挑み解決しようとする多くのスタートアップが登場してきた。9300万ドルを調達したHireVueは、AI駆動式の「雇用インテリジェンス」プラットフォームで、問題に対処しようとしている。1900万ドルを調達したAllyOは、採用につながっていなかったこれまでの貧弱な候補者とのやり取りアプローチすることで、採用をより効率的なものにしようとしている。そしてAryaは、成功した採用パターンを識別するために機械学習を使用し、オンラインプロファイルから可能性のある候補者を選び出すことを狙う、シードステージのスタートアップだ。

そしてさらに他のプレイヤーは、採用プロセスにアルゴリズムを適用している。

顔認識と音声認識を使用して、求職者を自動的にスクリーニングするVCV.AIは、このたび170万ドルを調達したばかりだ。そう、それはまるでディストピアSFであるブラック・ミラーの新しいエピソードがやって来たかのように見える。

この投資は、日本のVCであるWill Group、Talent Equity Ventures、500 Starups、そしてIndeedの竹嶋正洋氏を含むエンジェル投資家たちから行われた。今回の資金によって、VCVはさらなる技術開発を行い、その地位を強化する。さらに東京にオフィスをオープンすることも予定されている。

VCVによれば、候補者の事前スクリーニング、自動スクリーニングコール、音声認識とビデオ録画によるロボットビデオインタビューを実施することで、採用プロセスから人間によるバイアスを取り除くことができるようになると言う。

VCVを通じて、潜在的な候補者たちは、コンピューターまたはスマートフォン(iOSまたはAndroid)を使用してビデオを録画することができる。受験者は事前に質問に備えることができないため、これは実際の面接のように機能する。さらに、顔認識および音声認識を使って、候補者の緊張度、雰囲気、そして振舞いのパターンを特定することで、採用者側はその人物が企業の文化になじめるかどうかを判断することができる。

VCVは、これは採用担当者の仕事に取って代わるものではなく、手持ちのツールを強化して、担当者がより効率的に多数の候補者を見つけて選別できるようにするものだと言う。スタートアップによれば、この休むことなく潜在的な候補者を探し、チャットし、インタビューする採用ロボットを使うことで、これまで平均21時間かかっていたスクリーニング作業が45分で済むようになるという。

既にPWC、L’Oreal、Danone、Mars、Schlumberger、そしてCitibankが、同社のシステムを顧客として利用している。

VCV.AIの創業者でCEOのアリク・アクバーディアン(Arik Akverdian)氏は「AIを使うことで採用プロセスを改善し合理化することができます。同時に全ての人間が持っている避けることのできないバイアスを取り除くことも支援できます。特に人間の才能が、組織の最も重要な資産であることを考えると、技術革新がこの分野のビジネスを変革してはならない理由はありません」と語る。

採用のすべてがAIを通して行われるようになったとき、私たちはそのバイアスがどのように影響していたのかを知ることになるだろう…。

画像クレジット:GrafVishenka

[原文へ]

(翻訳:sako)

Waymoがデトロイトの工場で自動運転車を生産

Alphabet傘下の自動運転車企業Waymoが、デトロイトのAmerican Axle & Manufacturingの敷地内の工場に自己のショップ(生産施設)を開設する。

米国時間4月23日のWaymoの発表によると、同社はAmerican Axle & Manufacturingとパートナーして、最近まで地元の部品サプライヤーの荷下ろし場として使われていた建物をリフォームする。その目標は、2019年半ばまでにその建物に移ってレベル4の自動運転車の生産のための準備を開始することだ。レベル4はSAEの定義によると、一定条件下で車両自身が運転のすべてを担当することだ。

州知事のGretchen Whitmer氏は声明でこう言っている。「Waymoが新しい工場をデトロイトに設立することを選んだことにより、同社は市の活性を維持継続し、自動車産業のリーダーであり先進的な自動車製造技術の発信地としてのミシガン州の地位をさらに確実なものにした」。

1月にMichigan Economic Development Corporation(ミシガン州経済開発公社、MEDC)は、同州にWaymoが自動運転車の製造工場を設立する計画を票決により承認した。MEDCはこのプロジェクトへの800万ドルの補助金も承認した。

WaymoはMagnaとパートナーしてこの工場で数千台の自動運転車を作る。それには、Jaguarの全電動車I-PACEの自動運転バージョンと、ChryslerのハイブリッドミニバンPacificaが含まれ、同社のライドシェアサービスの本格展開に起用される。

12月にWaymoはフェニックスで商用ロボタクシーの限定的なサービスを立ち上げ、それをWaymo Oneと呼んだ。

Waymo Oneの自動運転車とそのアプリは、Waymoが教育訓練した人間ドライバーの同乗を前提していた。しかし最終的には、安全のための人間ドライバーはいなくなる。最近このサービスは、利用者数を徐々に増やしている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AIをビジネスに活かすうえで企業が見落してきた道はDIY

1856年、ヘンリー・ベッセマー卿が特許を取得したベッセマー法は、第二の産業革命のもっとも大きな要因となった発明だ。溶鋼に空気を吹き込み酸化還元するという画期的な方法で鉄の不純物を取り除くことで、安価で大量生産が可能な新しい製鋼技術の波を起こした。

ベッセマー卿は、この発明をいち早く利益につなげようと、いくつかの製鋼所に特許をライセンシングを行おうとした。しかし期待に反して、その技術の難しさと独占欲の強さのため、大手製鋼所とは望ましい条件でのライセンス契約が結べなかった。

なんとかこの技術を活かしたかったベッセマー卿は、自分で製鋼所を立ち上げて競合他社を蹴散らそうと考えた。この試みは大成功し、ともに苦労したパートナーたちは14年間の付き合いの末に81倍の投資収益を手にすることができた。

それからおよそ162年。今でも新しい技術を顧客に受け入れさせようとする新興企業の苦悩が続いている。たとえそれが、顧客の最大の関心事であっても難しい。しかし、ベッセマー卿などの実業家を手本とする今日の画期的なスタートアップは、あることに気が付き始めている。いくつもの技術に精通した「フルスタック」な事業を自分で起こして、独自の自動化技術で最適化した従来型のサービスを提供するほうが理に適っていると。

Andreessen HorowitzのChris Dixon氏は、深層学習革命の直前の2014年、「フルスタックスタートアップ」という言葉を流行らせた。彼によれば、フルスタックスタートアップとは、「既存の企業に頼ることなく、最初から最後まで完全な製品やサービスを製造」できる企業のことだ。

フルスタックの考え方は、深層学習革命が頂点に達する前に、UberやTeslaのような企業を生み出した。そして、データと人間によるラベル付けに依存する今日のAI第一の世界では、スタートアップエコシステムにおけるフルスタックスタートアップの役割は、ますます重要性を高めている。

フルスタックには、旧来型のインセンティブ構造から切り離されるという利点がある。古い体質の業界に居座る大手企業では、インセンティブのために自動化の導入が抑制されている。

(写真:Andrew Spear / Getty Images ワシントンポスト向け)

DIY AIとはどんなものか?

BSVポートフォリオ企業のCognition IPAtriumは、そのよい実例を示してくれるスタートアップだ。書類の上では、これらはまったく昔ながらの法律事務所のようだ。弁護士を雇って、特許とスタートアップに関する法律関連の業務を行っている。しかし、従来の法律事務所は1時間単位の料金の請求にインセンティブがあるのに対して、これらのフルスタックのスタートアップの場合は、消費者に利用してもらうことがインセンティブになっているため、迅速で安価でより良い戦略の開発することが利益につながる。

ベッセマーのように、古いインセンティブ構造を改変することで、フルスタックは、さまざまなフィードバックのループから存分に恩恵を回収し、終わりのない複雑な仕事を排除し、ラベル付け作業を過去のものにするチャンスを企業にもたらす。

ラベル付けは、機械学習に依存するスタートアップには避けられない決定的な責務だ。 Amazon Mechanical TurkやFigure Eightは、スタートアップが比較的管理しやすいラベル付けの責任能力を有している場合には有効だが、ラベル付けや、人と機械の共同の意志決定が日々の業務の中心となっているスタートアップは、それを内部で処理するために人を雇う必要がある。

こうした企業が規模を拡大しようとすれば、費用がかさみ作業量は膨大になる。しかしフルスタックにすれば、ラベル付けの作業を他の仕事に統合できる可能性が拓かれる。これまで顧客や企業に関わる通常のサービス業務を行ってきた従業員に、少ない負担でラベル付けを担当させることができるのだ。その作業を機械で支援してやれば、彼らは次第に生産性を高め、ラベル付けされたデータが増え、その支援モデルは正確さを増してゆく。

フルスタックの本質的な性質から得られる2つめの利点に、強力で好ましいデータのフィードバックループを発生させ、さらに所有できることがある。データフローを所有すれば、単に静的データセットを囲い込むよりも、頑丈な堀を築くことができる。たとえばDeep Sentinelは、消費者向けセキュリティーの分野に天然の堀を持っている。同社は正確な分類能力を有するばかりか、その正確な分類能力が、同社のコントロールが及ぶ環境で発生した現実のデータによって継続的に改善されているのだ。

写真提供:Flickr/Tullio Saba

自動化の推進はリスクと報酬のバランスが問題

1951年、フォードの業務部長デル・ハーダーは、会社の生産ラインを、生産工程に部品を移動させる完全なオートメーションシステムに改良することを決断した。それから5年をかけて、クリーブランドにあったフォードのエンジン組み立て工場で試行錯誤を繰り返し技術を完成させ、他の工場に拡大していった。しかし、それまで生産工程から独立していた部品を連鎖させたことで、ハーダーは、その相互依存関係に新たな頭痛の種を生み出すことになった。

現在、製造や農業といった伝統的な産業で企業を立ち上げた人たちは、みな同様にこう考えている。規模を拡大すると細部に悪魔が宿ると。フルスタックの方式を採り入れたスタートアップの場合は、独自のプロセスを統合するときに一度だけ心配すれば済むところに利点がある。

だがその半面、フルスタックの場合、規模を拡大するときに膨大な出費が必要となる。資金を提供してくれるベンチャー投資家は、リスク、利益、希薄化に関してのみ、ある程度まで意味を成す。そのため、規模の拡大を計画する企業創設者の多くは、借金での資金調達に走ることになる。

幸いなことに、今は低金利で経済的に有利な時期にある。TeslaやUberといった古参のフルスタック企業は、借金で多額の資金を得ている。また、Opendoorのような新参企業も、この資金調達作戦に転向した。この忌まわしい景気低迷によって、みんなが予定を狂わされている。

技術の進歩は周期的なものであり、成功は、非常に短時間の好機に実行するか否かに大きく関わってくる。FedExやAppleのような、資本集約的でベンチャー投資家に支えられた企業が、別の資金調達環境でスタートしていたら成功できたかどうかは疑問だ。

機械学習の以前にあった無数の自動化技術がそうであったように、深層学習革命で勝利して莫大な利益を得られるのは、人間と協調的に働くよう最適化したテクノロジーを持つスタートアップだ。フルスタックは難しい。金もかかるし、それだけが勝利の道筋ではない。しかしそれは、過小評価されているものの、今日の機械学習に支えられたスタートアップには非常に有効な戦略となる。

【編集者注】John Mannes氏はBasis Set Venturesの投資家。同社は1億3600万ドル(約152億円)規模のアーリーステージのベンチャー投資企業として、おもに、業界全体にわたる大きな問題を機械学習で解決しようとするスタートアップを支援している。Basis Set Venturesに加わる以前、JohnはTechCrunchのライターとして、人工知能スタートアップ、機械学習研究、巨大ハイテク企業の大規模なAI主導の活動などを取材してきた。

[原文へ]

(翻訳:金井哲夫)

iOSのSiriショートカットとスクリーンタイムが今秋macOSに

アップル(Apple)は、iOSの機能をさらにたくさんmacOSに載せたがっていると9to5MacのGuilherme Ramboが書いている。それはまず、Siriの改良からだ。

Siriはかなり前からmacOSにあるが、でもそれは縮小バージョンみたいだ。もちろん天気予報やNBAの結果や翻訳はできる。Wi-Fiを切ったり、ハードディスク上のファイルを見たりもできる。

でもmacOSのSiriではサードパーティのアプリを動かせない。WhatsAppでメッセージを送れない。Square Cashで送金ができないし、Uberも呼べない。

9to5Macによると、でもそれはこの秋のmacOS 10.15で変わるそうだ。しかもSiriショートカットが加わるから、少なくとも理論的には、自分の音声ショートカットでサードパーティアプリのアクションを起動できるはずだ。

macOSの既存のアプリケーションをSiriのショートカットで呼び出すのは無理だ。それは、もうすぐやってくるMarzipanフレームワークを使ってiOSにポートされたのでないとだめだ。しかし、「ショートカット」アプリを使って自作のスクリプトをビジュアルなインタフェイスで作れるらしい。ショートカットアプリはいわば、iOS用のAutomatorだ。そのAutomatorの方は、macOS 10.15でどうなるのだろう。

macOSのアップデートはSiriだけではない。アプリを使った時間がわかるiOSのスクリーンタイム機能がmacOSでも使えるようになる。これまではiPhoneやiPadのようなiOSデバイスのみだったが、macOSが加われば、あなたのコンピューター生活の全貌がわかる。

そして、Apple IDをMacからもっと容易にコントロールできるようになる。Appleのウェブサイトへ行かなくても、家族との共有などを「システム環境設定」の新しいパネルで操作できるようになる。

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

コンピュータービジョン技術で細胞を分析し病原体を見つけるPathAIが67億円超を調達

コンピュータービジョンの技術で病原体を見つけるPathAIのサービスは、臨床現場での実用化まではまだ1年あまりと言われるが、同社は最近の資金調達ラウンドで6000万ドル(約67億円)を獲得した。

医師は、患者から採取した標本細胞を同社の技術を利用して分析し、細菌やウィルス、癌細胞などの病原体の存否を判定する。しかし現時点では、PathAIの技術は病院における患者の診療よりも製薬企業の新薬開発に使われていることが多い。同社の共同ファウンダーでCEOのAndy Beck(アンディー・ベック)博士はそう語った。

ベック博士は語る。「私たちの今日の最大のフォーカスは、(臨床よりもむしろ)難病の新しい治療法を見つけるために使われている研究プラットホームにある。安全で効果的な医薬品の開発を加速することは、患者にとって本当に重要な問題だと考えている」。

製薬企業は新しいテクノロジーに病院よりも大きな額を投じているから、PathAIのようなスタートアップにとっても魅力的なマーケットだ。同社が病理学者たちと協働するときは、彼らは研究目的で技術を使っているとベック博士は語る。しかし臨床での診断のためには治験が必要であり、規制当局が認可するまで時間がかかるとのこと。そして「そのため、直接臨床で使われるようになるまではあと1〜2年はかかる」そうだ。

同社の最新のラウンドはGeneral Atlanticがリードし、さらにこれまでの投資家であるGeneral Catalystや8VC、DHVC、REfactor Capital、KdT Ventures、そしてPillar Companiesも参加したPathAIの社員は昨年60名あまりに増え、そしてBristol-Myers SquibbやNovartisとパートナーシップを結んだ。

新たな投資の結果としてGeneral AtlanticのマネージングディレクターMichelle Dipp(ミッチェル・ディップ)博士が同社の取締役会に座ることになる。General CatalystのマネージングディレクターであるDavid Fialkow(デイビット・フィオーコウ)氏は声明で次のように述べている。「PathAIの技術によって疾病診断の精度と再現性が向上し、それらの疾病を治療する新薬の開発を助けるだろう」。

画像クレジット: Ed Uthman/Flickr CC BY 2.0のライセンスによる

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

AmazonがAlexaのスキルを作れるデベロッパーの資格証明制度を立ち上げ、企業ニーズに応える

Amazon EchoなどのAlexaデバイスを作っているデベロッパーに、自分の能力を証明する新しい資格証明制度として、AWS Certified Alexa Skill Builder – Specialtyというものが立ち上げられた。Amazonによると、同社がAlexaデベロッパーのための資格証明を提供するのは、これが初めてである。

資格証明はテクノロジー業界ではよくあり、AmazonのAWSもすでに教育訓練事業とともに独自の資格証明を提供して、企業がAWSの知識とクラウドの専門的技能を持った技術者を確実に雇用できるようにしている。

今回のAlexa技術の資格証明はAWSの資格認証事業の一環となり、その人がAlexaの音声アプリ開発のすべての側面を正しく理解していることを確認する。

検証されるのはアプリケーションの開発や試験の仕方、スキルの検査とトラブルシューティング、Alexa Developer Consoleの使い方、Alexaのスキルのオペレーションとライフサイクルの管理など、実践的な要素が多い。また、声の価値や、音声のユーザー体験のあるべきフロー、など、今多くのAlexaデベロッパーが悩んでいるような高レベルのコンセプトの知識も試される。

試験のガイドがあるので、これを見ると、スキル習得のために勉強すべきチュートリアルや技術的ドキュメンテーションなどがわかる。またオンラインのトレーニングコースもある。

準備万端でこれから試験を受けようというデベロッパーは、AWS Trainingのアカウントを取得して、試験のスケジュールを決める。

Amazonが主張する目標は、今日市場に存在する1億以上のAlexa対応デバイスの顧客の心をつかむような、魅力的な音声アプリ体験を作る機会を、もっと多くのデベロッパーに提供することだ。

つまりAmazonが求めるのは、デベロッパーがAlexaのスキル開発をちょっと浅く体験するだけでなく、そのベストプラクティスも身につけて、顧客に対し強い訴求力を持つアプリケーションを作ってもらうことだ。

この資格証明事業はスマートスピーカーがここ米国でクリティカル・マスに達したそのほぼ同じタイミングで展開される。でもサードパーティのスキルはまだ、大ヒットに乏しくスマホのアプリストアほどの人気を獲得していない。それはBloombergが最近報じたとおりだ。

音楽やタイマー、スマートホームのコントロールなどはスマートスピーカーのヒットと言えるかもしれないが、でもそれらは、ネイティブの(最初からある)ファンクションだ。消費者の採用が今後伸びないなら、今80万以上あるサードパーティのAlexaスキルの将来性も危うい。

しかしそれでも、企業は今でもこのプラットホームに強い関心を持っている。なんといっても、Alexaの大きなインストールベースは魅力だ。今でも毎日、1日に1つは、どこかの企業がスキルを発表している。今日のそれは、赤十字だった。

AWSで資格証明と教育訓練事業を担当しているディレクターKevin Kelly氏が、声明の中でこう言っている。「音声アプリ(Alexa用語では“スキル”)を作れる有能なプロフェッショナルは、最近ますます多くの企業から求められている。この新たな資格証明はAlexaにフォーカスした唯一の認証制度として、そういうプロフェッショナルなスキルを検定できる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

YouTubeのアルゴリズムがノートルダム寺院火災の実況ストリームに9.11の情報を添加

YouTubeでノートルダム寺院の実況放送を見ていた一部の人の画面に、9月11日事件に関する情報ボックスという異様に場違いなものが表示された。

BuzzFeedの報告によると、その間違って置かれたファクトチェックボックスは少なくとも3つのメジャーなニュースサイトからの実況ストリームに出現した。Twitterのユーザーたちも、その情報誤配を知らせている(下図)。

[YouTubeのファクトチェックは完全にぶっ壊れてるようだな]

皮肉にもこの機能は、誤報を訂正するために設計されたツールだ。ビデオの下の小さな情報ボックスに、YouTubeのパートナーからの事実情報が表示される。今回はEncyclopedia Britannica(ブリタニカ百科事典)だった。

YouTubeはこのファクトチェック情報パネルを今年インドで開始し、今ではほかの国でも見られるようだ。

当時同社は、こんな発表声明を述べていた。「ユーザーは、ブリタニカ百科事典やウィキペディアなどサードパーティからの情報を見ることができる。また、月面着陸などネット上でときどき誤報の対象にもなっている、十分に確定した歴史的および科学的話題の一部には、そのビデオも付随する」。

その情報ボックスは明らかにアルゴリズムが作り出しており、今日の不運な失敗は、そこに人の目が介入していないことを示している。塔のようなものが燃えている映像を見たアルゴリズムは、9/11の情報を取り出したのかもしれない。今YouTubeに、原因を問い合わせている。

アップデート: YouTubeのスポークスパーソンが本誌TechCrunchに次のような声明をくれた。

私たちは今もまだ続いているノートルダム寺院の火災を深く悲しんでおります。昨年私どもは、誤報の対象となった主題に関し、ブリタニカ百科事典やウィキペディアなどサードパーティの情報源へのリンクのある、情報パネルをローンチしました。これらのパネルはアルゴリズムによってトリガーされ、弊社のシステムはときどき間違った呼び出しをします。私たちは今、火災に関連する実況ストリームではこれらのパネルを無効にしています。

画像クレジット: Martin Barzilai/Bloomberg via Getty Images/Getty Images

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

AIの倫理規定を試行し参加を呼びかける欧州委員会

欧州委員会は、人工知能技術を開発し、適用する際の倫理規定の草案をテストする試験的プロジェクトを開始することを発表した。そうした規定を実際に施行できることを確認するためだ。

このプロジェクトでは、フィードバックを集積し、いわゆる「人間中心のAI」についての国際的な合意形成を促すことを目指している。さまざまな懇談会だけでなく、今後のG7やG20といった場で議論を盛り上げることが目標だ。

欧州委員会のAIに関するハイレベルグループは、産業界、学界、市民社会にまたがる52人の専門家によって構成されるもので、昨年の夏に公告された。そして昨年12月には、信頼できるAIについての倫理ガイドラインの草案を発行した。

さらにその文書の改訂版が、この3月に委員会に提出された。そこでは、専門家の意見を、信頼できるAIのための7つの「キーとなる要件」に集約している。その中では、既存の法律と規制を遵守する機械学習技術のあり方についても触れている。以下、順に見ていこう。

  • 人為作用と監視:「AIシステムは、人為作用と基本的権利を尊重することによって公平な社会を実現すべきであり、人間の自律を縮小、制限、または誤らせるものであってはならない」
  • 堅牢性と安全性:「信頼できるAIには、安全性、信頼性、および堅牢性を確保するためのアルゴリズムが必要であり、それはAIシステムのすべてのライフサイクルにおけるエラーや矛盾に十分に対処できるものでなければならない」
  • プライバシーとデータ運用:「市民は自分のデータを完全にコントロールできなければならない。そして、市民に関するデータが市民を傷つけたり、差別するために使われるようなことがあってはならない」
  • 透明性:「AIシステムのトレーサビリティ(追跡可能性)は保証されていなければならない」
  • 多様性、無差別、公平性:「AIシステムは、あらゆる範囲の人間の能力、技能、および要件を考慮し、アクセシビリティを確保しなければならない」
  • 社会的および環境的健全:「AIシステムは、建設的な社会の変化を促進し、持続可能性と環境保護の責任を増強するために使用されなければならない」
  • 説明責任:「AIシステムと、その結果に対する責任、および説明責任を確実なものにするための機構を整備しなければならない」

倫理的AIを促進するための戦略の次の段階は、このガイドラインの草案が大規模な試行において、どのように機能するかを見極めることだ。そこには、国際的な組織や、連帯外の企業など、広範囲の利害関係者が絡んでくる。

欧州委員会によれば、試行はこの夏にも開始されるという。そこで委員会は、企業、行政機関、各種団体に対して、AIに関するフォーラム、つまりEuqopean AI Alliance(欧州AI連盟)に参加登録し、試行の開始時に通知を受け取るよう呼びかけている。

また、そのAIのハイレベル専門家グループのメンバーは、欧州連合の加盟国の中の関連する利害関係者に、ガイドラインを提示し説明することにしている。そのグループのメンバーは、4月9日にブリュッセルで開催された第3回のDigital Dayにおいても、作業の詳細を発表した。

欧州委員会は、「人間中心の人工知能に対する信頼を築く」という公式の文書の中で、試行の計画を次のように説明している。

この作業は2つの柱を持っている。それは、(1)AIを開発し、または使用する利害関係者(公的機関を含む)を巻き込んだガイドラインの試行フェーズ、それと(2)加盟国および製造業やサービス部門など、さまざまな利害関係社のグループに対する、継続的な助言、啓発活動からなる。

  1. 2019年6月から、すべての利害関係者および個人に依頼して、アセスメントリストをテストし、それを改善するためのフィードバックを提供するように求める。さらに、AIのハイレベル専門家グループは、民間および公共部門の利害関係者との綿密なレビューを実施して、より詳細なフィードバックを集める予定となっている。それにより、広範囲なアプリケーションの領域で、ガイドラインをどう実装すればよいのかについての情報を得る。ガイドラインの実効性および実現可能性に関するすべてのフィードバックは、2019年末までに評価される予定となっている。
  2. これと並行して、欧州委員会はさらなるアウトリーチ活動を組織し、AIのハイレベル専門家グループの代表者が、加盟国の関連する利害関係者(製造業やサービス部門を含む)にガイドラインを説明する機会を与える。さらに、そうした利害関係者が、AIガイドラインについて意見を述べ、貢献できるようにな機会を準備する。

この声明の中で、Digital Single Market担当の副委員長、Andrew Ansip氏は次のように述べている。「AIの倫理的側面は、付加機能やアドオンといった類のものではありません。私たちの社会が技術から完全な恩恵を受けるためには、信頼が不可欠です。倫理的AIは、ヨーロッパにとって競争における優位をもたらすことのできるウィンウィンの提案です。それによって、人々が信頼できる人間中心のAIのリーダーになれるのです」。

「今日、私たちは倫理的で安全なAIに向けた重要な一歩をEU内で踏み出しました」とDigial Economy and Society担当コミッショナーのMariya Gabriel氏は付随する別の声明で述べている。「私たちは今や、EUの価値観に基づいた確固たる基盤を築いています。それは産業界、学界、市民社会を含む多くの利害関係者の広範かつ建設的な取り組みに基づいたものです。私たちは今、これらの要件を実践すると同時に、人間中心のAIに関する国際的な議論を発展させるのです」。

試行段階の後、2020年の初めには、専門家AIグループが、受け取ったフィードバックを基にして形成された主要な要件について、アセスメントリストをレビューすることになると、欧州委員会は述べている。さらに、そのレビューに基づいて結果を評価し、次のステップを提案することになるという。

一方、2019年の秋までに、欧州委員会は、AI研究の粋を集めたセンターのネットワークをいくつか立ち上げることにしている。さらに、デジタルイノベーションハブのネットワークも設立する予定となっている。加盟国と利害関係者との間の議論を促進することで、データ共有のためのモデルを開発して実施し、共通のデータ空間を最大限に活用することを目指すものだ。

この計画は、2018年4月に策定された欧州委員会のAI戦略に基づいており、今後10年間で、公共および民間のAI投資を少なくとも年間200億ユーロ(約2兆5300億円)にまで増加させることを目標としている。より多くのデータを利用可能にし、才能を育成し、信頼を確保するものだ。

画像クレジット:NicoElNino/Getty Images

原文へ

(翻訳:Fumihiko Shibata)

AIが書いた初の研究書がオンデマンド論文の道を拓く

次々に出版される研究書の数は、すべてを読みたいと願う学者の能力を超える。しかし、AIの助手に何千冊もの本を読ませて、要約を抽出させられる日は近いかも知れない。ゲーテ大学の研究チームは、まさにそれを実現させた。Beta Writerが書いた最初の論文は、現在、誰でも読めるようになっている。ただし、リチウムイオン電池に関心のない人には、面白い内容とは言えないが。

この論文のタイトルは「リチウムイオン電池:現在の研究の機械生成による要約」というクリエイティブなものになっている。250ページにおよぶ内容は、こんな感じだ。

細孔構造およびセパレーターの厚さは、機械強度とイオン導電性という2つの機能を満たすために、そのバランスが十分に保たれるよう慎重に調整されなければならない(AroraおよびZhang[40]、Leeその他[33]、Zhang[50])[5]。素材の細孔構造および多孔性は、電池内のセパレーターの素材に加え、セパレーターの性能にとって極めて重要であることは明らかである[5]。

電池の話も面白いが、本来の目的とは関係がない。この本の狙いは、機械が生成する科学文献について、著作者の問題から技術的倫理的な問題にいたる論議を引き起こすことにあると、このAIの開発者たちは、その長くて面白い序文で説明している。

つまり、答ではなく疑問を提示することが目的なのだ。彼らは前もって、こんな疑問を呈している。

機械生成された文章の原作者は誰なのか? アルゴリズムの開発者が著者とされるのか? または、最初に入力を行い(「リチウムイオン電池」といった用語など)さまざまなパラメーターの調整を行った人間か? そもそも原作者と呼べる者はいるのか? 最初に誰が、機械に何を生成させたいかを決定するのか? 倫理的な観点から、機械生成された文献の責任者は誰になるのか?

研究チーム、周囲の仲間たち、この本の製作に協力した専門家たちとの間で十分に論議を重ねてきた結果、これが始まりに過ぎないことを彼らは理解した。だが、Henning Schoenenbergerは、いずれどこかで始めなければならず、これはどこよりも望ましい出発点になると序文に書いている。

実際に私たちは最初のプロトタイプの開発に成功したが、同時にそれは、この先の道のりが長いことも示している。膨大な言語資料からの要約の抽出はいまだ不完全であり、文章の置き換え、文法、語句のつながりなど、まだぎこちない点が見られる。しかし私たちは、人の手による修正や編集は一切行わないことに決めた。それは、現在の状態をよく知ってもらうためであり、機械生成による文章との境界線を保つためだ。

彼らが言うように、この本自身は不完全でぎこちない。しかし、自然な文章を書くことは、このAIの目的のほんの一部に過ぎない。そこだけを強調して全体的な成功を見ないのは間違っている。

上から、生成された原稿、後処理(参考文献目録の整理、化学表記法の処理、結果の出力)、文章生成(要約の抽出、内容の集約、文章の抽出または言い換え)、構成生成(資料の整理またはまとめ、資料の選択またはランク付け)、処理(参考文献の分析、固有表現の検出、言葉の注釈、体系的構文解析、文章の標準化)、資料の入力

このAIは、高度な技術論文1086編を分類し、キーワードの検出、参考文献目録の作成、結論の取得、「代名詞の前方照応」などのための分析を行う。その後、論文はいくつかの集団にまとめられ、論理的で章立てのある形で提示できるよう、検出された内容に従い整理される。

代表的な文章や要約は論文から引き抜かれ、新しい本のために形式が整えられる。それには、著作権上の問題もあるが、文法的に新しい文章と揃わない場合があるからだ(チームが協力を求めた専門家は、「創造的」な表現にならないよう、できる限り原文の意味に沿うよう助言した)。

たとえば、ある論文の使いたい部分の書き出しが、こうだったとする。「したがってこれは、我々が2014年の論文で示したとおりだ、24パーセント高い断熱係数をもたらす」

AIは、この論文をよく読んで、「これ」が何を指しているかを突き止め、「これ」を本来の言葉に置き換え、「そのため」と途中の添え書きを削除してもよい形に書き換える。

これを何千回も行わなければならず、モデルが適正に対応できなかったり、明らかに下手な文章など、多くのエッジケースが飛び出してくる。たとえば、「その種の研究の第一の目的は、大容量、高速なリチウムイオンの拡散率、扱いやすさ、そして安定した構造といった優れた特性を持つ素材を獲得することにある」。ヘンリー・ジェームズのような美文ではないが、明解だ。

最終的に、おそらく1万ページほどの論文を煮詰めて、ずっとわかりやすい250ページにまとめたこの本は、普通に読めて、ことによれば有用なものになった。しかし、研究者たちの目標はもっと高いところにあると言う。

現在の目標は、そう突飛なものとは思えない。「ここ4年間の生物工学について50ページでまとめてくれ」と命ずると、数分後にポンとそれが出来上がるサービスだ。文章には柔軟性があるため、スペイン語や韓国語を指定することもできる。パラメーター化することにより、出力を簡単に調整できる。地域や著者に重点を置いたり、特定のキーワードや関係のない話題を除外することも可能だ。

これらの機能の他にも、このプラットフォームには山ほどの利便性がある。堅苦しいことを言う人を気にしなければの話だが。

科学文献や自然言語処理に興味がおありなら、この著者たちによる序文は、読む価値がある。

画像:Bryce Durbin / TechCrunch

[原文へ]

(翻訳:金井哲夫)

GoogleのAI専門VCが機械学習のモデル開発を助けるLabelboxに投資

機械学習アプリケーションのためのデータセットを作り、管理し、メンテナンスするLabelboxが、新たな投資ラウンドで1000万ドルを調達した。

そのリード投資家Gradient Venturesは、GoogleのAI専門のベンチャーファンドだ。これに、前からの投資家Kleiner Perkins、First Round Capital、エンジェル投資家のSumon Sadhuが参加した。

Labelboxは、データのラベリングをアウトソーシングする過程を管理し、企業や団体に彼らが集めるデータを管理し、データのクォリティーを確保するためのツールキットを提供する。同社CEO Manu Sharma氏はそう説明してくれた。

CEOのSharmaとCTOのDan Rasmuson、そしてCOOのBrian RiegerらLabelboxのファウンダーたちにとっては、彼らが開発したツールは前に社員として勤めていたDroneDeployやPlanet Labs、Boeingなどで必要性を痛感していたサービスの実現だ。

今回得た資金は、社員を現在の11名から22名に増やして営業とマーケティングのチームを作ることに充てたい、という。

Labelboxの現在の顧客はおよそ50社で、課金は彼らがアップロードするデータの量と利用するサービスの種類に基づいて行われる、名前を挙げてもよい顧客は、FLIR Systems、Lytx、Airbus、Genius Sports、KeepTruckinなどだ。

Labelboxが昨年ステルスを脱したとき本誌も報じたように、同社のツールキットは誰でも無料で使える。利用量が一定の閾値を超えたときのみ、課金される。たとえばLytxは、ドライブレコーダーDriveCamのためにLabelboxを利用している。すでに50万台のトラックにインストールされているそのカメラはAIを使って危険運転を検出するので、その能力は訓練によってアップする。またメディアと出版の大手企業Conde Nastは、ランウェイ上のファッションを同社のコンテンツアーカイブにあるファッションと関連付けるためにLabelboxを利用している。

Sharma氏が声明文の中で言っている。「Labelboxはモデルの開発時間を大幅に減らし、データサイエンティストたちが自力ですばらしい機械学習アプリケーションを作れるようになる。新たな資金でデータラベリングのインフラストラクチャをさらに強化して、機械学習のチームに強力なオートメーションとコラボレーションとエンタープライズ級の機能を提供していきたい」。

Gradient Venturesはこの技術に投資したいと思うほどの関心を持ち、機械学習のツールの開発をグローバルにサポートしていける同社の能力に将来性を見出している。

Gradient VenturesのファウンダーでマネージングパートナーのAnna Patterson氏はこう言っている。「Labelboxは機械学習を製造業、運輸交通業、ヘルスケアなどさまざまな分野にわたって産業化していける位置にいる。そうすることによって同社は、AIのポテンシャルを全世界の企業に向けて開放するだろう」。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

メジャーリーグのピッチャーの投球を400万球分析して人間審判の誤審率を計算

ボストン大学の院生たちが、メジャーリーグ(Major League Baseball、MLB)の過去11シーズン(2008〜2018)の400万投あまりの投球を調べた結果は、人間アンパイアにとってうれしいものではなかった。その調査によると、2018年に球審は、ボールとストライクを34294回誤審している。それは1ゲームあたりでは14回、1イニングあたりでは1.6回だ。

1シーズンに32のチームがそれぞれ162ゲーム戦うのだからそれほど大きな数ではないが、でもそれは多くの憤慨した観客たちが長年疑っていたことを確認するには十分だ。

調査によると、MLBの審判の平均年齢は46歳、平均経験年数は13年だ。各シーズンに球審はホームプレートの後ろで約4200球の投球を判定する。面白いことに、調査結果では若くて経験の浅い審判のほうがベテランよりも成績がいい。

誤審の頻度は、当然かもしれないがプレーの性質によって異なる。これまで何度か球場に足を運んだことのある人たちの多くが、審判は今どっちがリードしているかによってピッチャーかバッターのどちらかをえこひいきすると疑っている。その点はどうか。

調査にはこう書かれている。「調査結果によれば、アンパイアは特定の状況下では圧倒的にバッターよりもピッチャーに有利な判定をする。バッターが2ストライクのときは、次の球がボールでもストライクと判定した誤審率が29%で、2ストライクでなかった場合の誤審率15%に比べほぼ倍である」。

なお、このニュースの1か月前のMLBの発表では、同団体が現在、独立リーグ、アトランティックリーグのマイナー戦でロボット審判の利用を試行している、ということだった。それは、将来のある時点でメジャーがその技術を実装することを目指している。最近は野球のテレビ放送でストライクゾーンの図解が表示されるようになったため、球審のロボット化という話題も、急に現実味を帯びてきている。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Android上のGoogle Assistantのビジュアルな答が改良された

半年ぐらい前にGoogleは、スマートフォンのAssistantのルックスを一新した。そして米国時間4月6日、同社はそのフォローアップとして、Android上のAssistantのビジュアルな応答性を良くするための、小さいけどすてきな手直しを発表した。それによってアプリの使い心地は、Googleのそのほかのサービスと同じになるだろう。

たとえば、イベントをたずねたときの応答は、同じ質問をモバイルのブラウザー上でたずねたときとまったく同じだ。これまでは、Assistantのビジュアルな応答は、かなり簡略化されていた〔下図のそれぞれ左(Before)〕。

[イベント][株価][犬][猫]

  1. Events

  2. Stocks

  3. Dog

  4. Cats

また、これにはユーザーからの苦情もありそうだが、Assistantでは最適解がないのでWebサイトのリストを“その他の解”としてユーザーに見せるとき、二つのボックスを画面上に縦に並べた。それは、とっても見づらい。しかし今度からは、ふつうのGoogle検索のレイアウトと同じになる。

良いアイデアじゃないの。なんでそれに苦情が来るの? つまり、表示が通常のGoogle検索と同じになったことによって、検索広告も出るのだ。Assisitantが広告をユーザーに見せるのは、これが初めてだ。Webサイトのリストを答としてもらうような質問は、そんなに多くないから、まあいいじゃないか。でもユーザーが心配するのは、これをきっかけにAssistant上の広告が今後多くなることだ。

Googleによると、Assistantのユーザーに見せるその広告では、広告主は広告のターゲティングができない。そしてユーザーに関する情報を、捕捉しない。

今度のAssistantには、住宅ローンの計算や、カラーピッカー(画面から色を拾う)、チップの計算、水準器などの機能が加わった。また、株価を知りたいときは、完全な対話型のグラフでそれができる。今までのように、株価が表示されるだけではない。

これらの新しい機能は今のところ、アメリカのAndroidスマートフォンのみだ。例によって、あなたのお手元のスマホに現れるのはもうちょっとあとだね。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

チューリング賞受賞のAI研究者が秘密裏の研究と偽りの「自主規制」に警鐘

AIに関する研究でジェフリー・ヒントン氏、ヤン・ルカン氏とともに栄えあるチューリング賞を先月受賞したヨシュア・ベンジオ氏は、このテクノロジーが密室に隠されることを恐れている。Natureのインタビューで同氏は彼の懸念を説明したが、悲観論者と思われなように気を遣っていた。

モントリオール学習アルゴリズム研究所(MILA)教授のベンジオ氏にとって最大の心配は、必ずしも悪夢のシナリオというわけではなく、管理されない人たちによってAIが研究されていることに対してだ。

「大きな心配事のほとんどが、白日下でないところで起きている」と彼は言う。「軍の研究所や秘密組織、政府や警察にサービスを提供している民間企業で起きている」。

たしかにそれは我々も見てきたことだ。どの主要IT企業も、無害なものから明らかに戦争目的のものまで、何らかのかたちで政府や軍に成果を提供したりそれを想定している。「殺人ドローンは重大な心配事だ」とベンジオ氏は強く言い放った。そこで研究されているAIは多くの命を救ったり生活を改善するかもしれない。しかし、その研究が白日の下で行われていなければ、我々はどうやってそれを知ることができるのか?

善意で発明されたモデルやアイデアでさえ、悪人に利用されるかもしれないと彼は言う。「悪用の危険性、特に独裁政権によるものは、極めて現実的だ。事実上AIは、支配者がその権力を維持、拡大するために使うことのできる道具だ」。だから、1つの組織や政府が倫理的利用を約束したり、ベストプラクティスを実践するだけでは不十分だ。次の組織(あるいは同じ組織の次のリーダー)は、そうしないかもしれない。

彼が信じる解決策は、オープンで組織化された議論と、国際的に制定された強力でわかりやすい規制だ。

「自主規制は機能しない。自主納税制度がうまくいくと思うか?いかないだろう」と彼は言った。「倫理ガイドラインを遵守する企業は、守らない相手より不利を被る。これは車の運転に似ている。左側であろうと右側であろうと、全員が同じ向きに走らなくてはならない。そうしないと問題が起きる」。

手はじめに、彼は研究者らに責任あるAI開発のためのモントリオール宣言を読み署名することを推奨している。これは自立性、プライバシー、ダイバシティーを尊重する原則集だ。

こうした懸念がありながらも、ベンジオ氏はAI技術の未来に楽観的だ(そうでなければ、ここまで深く長期に渡ってAIに関わり続けることはとても想像できない)。インタビューの他の部分も同様に興味深く、AI分野が直面するさまざまな課題について、単刀直入で現実的だが楽天的に展望している。全文はこちらで読める

[原文へ]

(翻訳:Nob Takahashi / facebook

Adobe After Effectsでビデオのコンテンツ対応塗りつぶしができるように

Adobeは米国時間4月3日、Creative Cloudの一員である特殊効果ソフトウェアAfter Effectsでコンテンツに応じた塗りつぶし(content-aware fill)ができるようになる、と発表した。この機能はかなり前からPhotoshopにあり、写真から何かを消したらそのあとを、まわりにあるもの〔例: 青空〕に基づいて塗りつぶすのによく使われる。ご想像つくと思うが、それを静止画でなく動画でやろうとすると、相当大変だ。その消すべきものがあったすべてのコマで、塗りつぶしをやんなきゃならない。

同社はその大変なことを、AdobeのAIプラットホームAdobe Senseiを利用して実装した。邪魔者のブームマイクなど要らないものを消すには、それをマスクすればよい。マスキングが完全に終わったら、このツールが自動的に消されたあとを追跡して、一部が何かの後ろに隠れていたときでさえも、その場所にふさわしいピクセルで填める。結果を微修正したければ、Photoshopを使って参照フレーム(reference frames)を作ればよい。

  1. Ae_Content-Aware-Fill_1-Before

  2. Ae_Content-Aware-Fill_2-Mask

  3. Ae_Content-Aware-Fill_3-After

このコンテンツ対応塗りつぶしは360度のVRプロジェクトでも便利に使える、とAdobeは言っている。360度だから何かをカメラの視界の外に隠せない。塗りつぶすしかない。

来週行われる今年のNABの年次大会でAdobeは、After EffectsとPremiere Pro用にたくさんのビデオ機能をローンチする。その一部はワークフローの改良にフォーカスし、たとえばFreeform Projectという新しいパネルでは、重要なものを視覚的に並べ替えたり、オーディオをもっと良くするツールがある。なお、AuditionとPremiere Proには、環境音を抑制するオートダッキング機能がある。

例によってAdobeは、アプリケーションのパフォーマンスアップにも力を入れている。たとえば、PremiereのGPUレンダリングはエクスポートの時間を短縮し、8Kビデオのマスクの追跡は最大38倍速く、HDのシーンなら最大4倍速い。

ビデオは今、黄金時代を迎えているから、放送や映画、ストリーミングサービス、デジタルマーケティングなどの分野でビデオのプロたちが、消費者からのより高度なコンテンツの要求に直面している。一方でプロダクションのタイムラインはますます短く、仕事の受注数は増え続ける。Adobeのデジタルビデオオーディオ担当ヴァイスプレジデントSteven Warnerは次のように述べる。「Adobe Senseiが提供するパフォーマンスの最適化とインテリジェントな新機能の数々により、ビデオのプロたちは、だらだらと長かったプロダクションの仕事を減らし、クリエイティブなビジョンに集中できる」。

そして、Twitchのストリーマーにはボーナスがある。これからはCharacter Animatorを使ってリアルタイムのアニメーションを作れる。それはこのツールを使っているColbert Show などでお馴染みの、ライブのアニメーションだ。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

Googleのレストラン電話予約サービスAI「Duplex」がiOS/Androidで使えるように

Googleは、DuplexのAI技術を利用した電話によるレストラン予約を行うGoogleアシスタント機能を、米国全土の英語版AndroidおよびiOS端末向けに提供開始すると発表した。今回初めてクロスプラットフォーム化したことで、広く利用されるための土台を作った。

昨年5月のGoogle I/Oデベロッパー・カンファレンスで披露された最初のデモで、Duplexのシステムがあまり人間そっくりにしゃべったために、AIボットはどこまで人間のように振る舞うべきか、相手に正体明かすべきかについて倫理的問題が直ちに持ち上がった 。デモがニセモノではないかと疑った人たちもいた。

当時明らかにされなかったのが、Duplexが現実世界の製品になるまでにどれだけ時間がかかるかだった。しかし、それは意外に早かった。

発表からわずか数カ月後、Duplexはニューヨーク、サンフランシスコなどの主要都市で公開テストに移行した。その後一年未満に米国43州でPixel 3ユーザー向けに公開された(ケンタッキー、ルイジアナ、ミネソタ、モンタナ、インディアナ、テキサス、およびネブラスカは 現地法の制約のために公開時は非対応だった)。

テクノロジーがコンセプトから運用へと進んだことで、Googleは通話のはじめにメッセージを追加してGoogleからの電話であることを伝え、なぜかかってきたかを説明するようにした。またGoogleは、レストランなどの店舗がこの種の自動発信を受け取るかどうかを選択(オプトアウト)できるようにした。

しかし、新技術を多くの消費者が利用するようになれば、興味を持った顧客を逃したくない店舗オーナーにとって、オプトアウトが現実的な選択肢であるのかどうか定かではない。

GoogleはTechCrunchに、Duplexを利用したGoogle Assistantのレストラン予約は、iOSおよびAndroid 5.0以上の端末の両方で先週配布が開始されたと伝えた。ニュースサイトの9to5Googleは、Googleのヘルプ画面の変更に気づき新機能公開について記事を書いた。

しかし、現時点ではすべての端末に新機能が届いているわけではないようだ。TechCrunchはGoogleに質問したが、配布が完了する時期については回答がなかった。

Duplexはその他の予約を行う機能も持っているが、現在はレストラン予約に絞っている。すでにGoogleと提携しているオンライン予約サービスを利用しているレストランでは、AssistantがReserve with Googleと直接連動して予約を確認する。

Assistantの予約を利用したい消費者は、Google Assistantアプリだけあればよい。Assistantは、予約時間、人数などの詳細を確認したあと、予約プロバイダーの1つを通じて予約する。Reserve with Googleには、数十社の提携プロバイダーがあり、さまざまな問い合わせに対応している。必要に応じてDuplexを使って自動発信を行うこともできる。

Duplexは、Google上で更新されていない営業時間などの店舗情報を確認するためにも利用できる。このデータは、店舗一覧の更新にも使われる、とGoogleは言っている。Googleによると、米国の残りの州にもDuplexを提供するべく準備中だ。

[原文へ]

(翻訳:Nob Takahashi / facebook

自動運転車AIがチャンピオンレーサーと対決

自動運転車の開発の世界は、ともすると無味乾燥なものになりがちだ。無事故で走った距離が百万マイルに達したとか、歩行者の検出範囲が10%増えたとか、そういったことしか語られない。しかしここで紹介する研究は、そのような指標からは見えてこない面白いアイディアを持ち、驚くほど実践的なテスト方法を採用している。自動運転車とレーシングドライバーを、サーキットで競わせようというのだ。

念のために言っておくが、これは見世物ではない。紛れもないまじめな研究なのだ。コース上でポジションを争ったり、フェイントをかけたり、バンバーを擦り付けたりはしない。走行は別々に行われた。また私がやりとりした研究者は、ラップタイムを明らかにすることを丁重に断ってきた。これはあくまで科学であることをご理解いただきたい。

スタンフォード大学のNathan Spielberg氏とその同僚は、自動運転車の極限状態での挙動に関する質問には喜んで答えてくれた。言うまでもないが、一般的な自動運転車の走行のほとんどは、通常のスピード、良好な条件でのものだ。また、その際に遭遇する障害物のほとんどは、想定内のものとなっている。

もしも最悪の事態となり、車が通常の操縦の限界を超えなければならなくなったとき、たとえばタイヤのグリップ力の限度を超えるような状態になったときでも、その自動運転を信頼できるのだろうか? 果たして、そのような運転が可能なAIを開発できるのだろうか?

この研究者の論文は、Science Robotics誌に掲載された。物理学ベースのモデルでは、こうした状況に十分に対処できないかもしれない、という仮説から始まっている。そうしたコンピュータモデルは、重量、速度、路面状態、などの条件を考慮して、車の挙動のシミュレーションを行う。しかし、そうした条件は、どうしても単純化されているので、値が通常の範囲を超えると、かなり不正確な結果を導くことになる。

そのようなシミュレーションが、タイヤの接地を点または線に単純化して考えているとしよう。しかし、実際に滑り始めたときには、タイヤのどちら側に強い摩擦力が働いているのかは非常に重要だ。そこまでの詳細なシミュレーションは、現在のハードウェアの能力を超えていて、十分に速くかつ正確に実行することができない。しかし、シミュレーションの結果は、入力と出力に要約することができる。それらのデータをニューラルネットワークに処理させたらどうだろう。その結果、非常にうまくいくことがわかった。

シミュレーションによって、この車の構造と重量なら、Xという速度のときにYの角度で曲がろうとすれば、どのような挙動を示すのか、という基本的な情報が得られる。もちろん、実際にはもっと複雑だが、基本的にはそういうこと。ここまでは単純だ。次に、このモデルはトレーニングによるデータを参照し、さらに現実世界の結果も調べる。それはおそらく、理論とは異なったものとなっている。

そうして、車がコーナーに差し掛かったとき、理論的にはハンドルをどれだけ左に切る必要があるか、次の点ではどれだけ切り足すか、といったことを知ることができる。しかし車内のセンサーが、車が意図したラインから少しずれていることを報告したとする。すると、その入力が考慮され、AIエージェントはハンドルをもう少し切るか、逆に戻すのか、状況に合わせて判断するのだ。

では、レーシングドライバーはどこで登場するのか、と疑問に思われるかもしれない。研究者は、この車のパフォーマンスを人間のドライバーと比較する必要があった。それも、摩擦の限界で車をコントロールする方法を経験的に体得しているようなドライバー、つまりレーサーのことだ。普通の人には、なかなかそこまでの運転はできない。

チームによれば「アマチュアレースのチャンピオンドライバー」というレーサーを雇って、カリフォルニアのThunderhill Raceway Parkを走らせた。それから、Shelleyという名の、2009年型のAudi TTSを改造した自動運転車を送り出した。それぞれ10回ずつだ。これは、のんきな日曜日のイベントなどというものではなかった。上記論文には、以下のように書かれている。

自動運転車と人間のドライバーは、いずれもサーキットをできるだけ短い時間で周回しようと試みた。この運転の最大加速度は、ほぼ0.95Gに達した。タイムを最短にできるようなレーシングラインを通り、タイヤのグリップの物理的な限界を追求した状態だ。縦方向と横方向ともに、このレベルの加速度を実現すると、車の最大速度は、サーキットの一部区間で95mph(約153km/h)に達する。

このような極端な運転条件の下でも、コントローラーは一貫してレーシングラインをトレースすることができた。平均的な誤差は、サーキット上のあらゆる区間で40cm以下だった。

言い換えれば、それだけのGがかかり、95mphの速度に達した状態でも、自動運転のAudiは、理想的なレーシングラインから1フィート半以上逸れることはなかったのだ。人間のドライバーのズレは、もっと大きかった。しかし、これはエラーとはみなされていない。人間は、自分の判断でラインを変更するものなのだ。

「サーキットをセグメントに分けて、いろいろなタイプのコーナーを比較しました。それによって貴重なデータを収集できました」と、Spielberg氏はTechCrunchへの電子メールで述べている。「サーキット1周全体のデータについても比較し、同様の傾向が維持されていることも確認しています。つまり、Shelleyは、一貫性という点では優れていますが、人間のドライバーは車の変化に応じてラインを変更できるという点で優れています。これは現在実装中の能力です」。

Shelleyは、人間よりもラップタイムの変動がずっと小さかったが、人間のレーサーは周回を重ねることで、かなり優れたタイムを出すようになった。セグメントごとの平均を評価すると、ほとんど同等だが、わずかながら人間が優っていた。

これが単純な自動運転モデルであることを考えると、かなり印象的な結果だ。現実世界の知識は、システムにはほとんど組み込まれていなかった。たいていは、シミュレーションから得られた結果によって、その瞬間、瞬間で、どのようにハンドルを操作すべきか判断していた。しかも、フィードバックは非常に限られていた。自動運転システムが置かれた状況を把握するために使うことの多い、高度なテレメトリにはアクセスしていなかったのだ。

結論を言えば、比較的単純なモデルによって、通常のハンドリングの条件を超えた車をコントロールするというアプローチも、なかなか有望だということになる。ただ、路面の状態や条件によって、調整する必要はあるだろう。たとえば、後輪駆動車で未舗装路を走るのと、前輪駆動車で舗装道路を走るのとでは、明らかに違っている。そのようなモデルを、どのようにして開発し、どうやってテストすれば良いのか、ベストな方法は今後の研究課題となる。しかしチームは、それも単にエンジニアリング上の課題だと確信しているようだ。

今回の実験は、あらゆる運転操作において、自動運転車が人間よりも優れるという、まだまだ遠い目標を追求するために実施されたもの。この初期段階のテスト結果は希望の持てるものだった。とはいえ、自動運転車がプロと渡り合えるようになるまでには、まだ長い道のりがある。それでも、その時が来るのが楽しみだ。

画像クレジット:スタンフォード大学

原文へ

(翻訳:Fumihiko Shibata)

ML/AIプラットホームのVizion.aiがマネージドElasticsearchサービスを立ち上げ

オープンソースの分散検索エンジンのElasticsearchは、今や大小さまざまな多くの企業が自社の分散検索とアナリティクスを実装するために利用している。そのセットアップはそれほど困難ではないが、難しいのはリソースの最適プロビジョニングだ。特にユーザーの要求にスパイクがあるアプリケーションでは無駄のないリソース確保が難しい。そこで、Elasticsearchを管理を伴うクラウドサービスElasticsearch Serviceとして提供するVizion.aiは、その心配を解消し、ユーザーが実際に使ったインフラストラクチャにのみ課金する。

Vizion.aiのサービスは、必要に応じて自動的にスケールアップ・ダウンする。そのマネージドサービスとして提供されるSaaSプラットホームはプライベートとパブリック両様のクラウドデプロイをサポートし、Elasticの標準的スタックとの完全なAPI互換性がある。また標準のツールとして、データ視覚化のKibanaや、データをサービスに送るBeats、入力データを変換してデータパイプラインをセットアップするLogstashなど、Elasticsearchの標準のツールも含まれている。例えばーザーは、テスト用や開発用に複数のスタックを容易に作ることができる。

Vizion.aiのGeoff Tudor氏

Vision.aiのバイスプレジデントでゼネラルマネージャーのGeoff Tudor氏は、次のように語る。「AWSのElacticsearchサービスを使おうとすると、選択肢の数が多すぎて途方に暮れてしまう。インスタンスのサイズはどれにするか?、インスタンスはいくつ必要か?、地理的冗長性は必要か?、どんなネットワーキングを使うのか?、セキュリティはどうか?、などなど。選択を間違えると全体的なパフォーマンスに影響が及ぶ。弊社では、インフラストラクチャのレイヤの背後でリソースの均衡化を動的に行う」。

そのためにこのサービスはユーザーの利用パターンを見て、そのユースケースに合った最適なリソース割り当てを行う。実はVizion.aiの親会社Panzuraはエンタープライズ向けのマルチクラウドストレージサービスで、データのキャッシングに関する多くのパテントを持っている。今度の新しいElasticsearchサービスは、それらの技術を利用してリソースの最適割り当てを行う。

Tudor氏も認めるように、Elasticsearchの商用サービスはほかにもある。それらと、Vizion.aiの新しいサービスとの差別化要因は、事前にメタデータ用のストレージのサイズを決めなくてもよいこと、そして高価なSSDを大量に使わないことだ。PanzuraのIPを利用できるVision.aiは、最近のデータだけをSSDにキャッシュし、そのほかは安価なオブジェクトストレージのプールに収める。

さらに彼によると、Vizion.aiはAIやMLのワークロードを動かす総合的なサービスであり、Elasticsearchサービスはその構成成分のひとつだ。TensorFlowやPredictionIOのサポートも、目下準備中だ。とくにPredictionIOは、Elasticsearchと併用しやすい。「今後これを、マルチクラウドによる使いやすいサーバーレスのML/AIサービスにしていきたい。しかもうちでは、提供するのはコンピュート(計算処理)だけではなく、レコードのストレージも非常に高いコスパで利用できる」。

[原文へ]

(翻訳:iwatani、a.k.a. hiwa

約17億円の量子コンピューターを無料で貸し出すD-WAVEの「Leap」、ついに日本でも正式公開

カナダの量子コンピューター企業D-WAVE Systems(以下、D-WAVE )は日本時間3月26日、同社の量子コンピューター「D-WAVE 2000Q」に無料でアクセスできるクラウドサービス「Leap」を、日本を含む33カ国で利用可能にすると発表した。これまではアメリカおよびカナダ限定の公開だった。

D-WAVE Systemsの量子コンピューター「D-WAVE 2000Q」

Leapは、D-WAVEが販売する量子コンピューターにアクセスできるクラウドサービスだ。その量子コンピューター「D-WAVE 2000Q」は販売価格が1500万ドル(日本円で17億円程度)とも言われ、さらにシステムを最適な状態で動作させるには専門家のサポートが必要だった。しかし、そのコンピューターへのアクセス権をクラウド上で貸し出すことで、誰もが気軽に量子コンピューターを使用することができる。また、本格的な開発者のためには1時間あたり2000ドル(約22万円)の有料プランも用意している。

これまで、Leapは(正式には)アメリカとカナダ限定のサービスであったが、今回の発表でEU、日本、アイスランドなど33カ国でも新たに利用可能になる。D-WAVE CEOのVern Brownell氏は、TechCrunch Japanの取材に対し「D-WAVEの日本顧客は、量子コンピューターアプリケーションという領域を真っ先に拡大してくれた人たちです。自動運転からデジタル広告配信の最適化、工場の自動化まで、彼らは様々な分野で素晴らしいイノベーションを起こしました」とコメント。

また、日本市場への拡大について同氏は、「私たちは何千もの量子コンピューターエンジニアのためにLeapを開発してきましたが、それを日本人の開発者にも届けることは私たちにとっても重要なマイルストーンの1つだったのです。今後も、日本マーケットは最新鋭の量子コンピューターアプリケーション、その専門知識、そして研究成果の生まれ故郷となるであろうと思っています」と話した。

D-WAVEはこれまでにデンソーやリクルートコミュニケーションズなどの日本企業と量子コンピューターアプリケーションの実証実験を進めてきた。同社は今回の発表と併せ、それらの実証実験が終了したと発表。今後はそのアプリケーションを実際のビジネスの現場へと応用していく。デンソーはD-WAVEの量子コンピューターによって開発した自動走行車を同社の工場に配置。そしてリクルートコミュニケーションズは量子コンピューターによって最適化されたTVコマーシャルを運用する予定だ。

AIが金融理論に基づく株式ポートフォリオを自動提案、HEROZがSMBC日興証券と新サービス

AI開発のHEROZは3月25日、SMBC日興証券と共同で開発した投資情報サービス「AI株式ポートフォリオ診断」をSMBC日興証券のユーザー向けに3月29日より提供開始すると発表した。

AI株式ポートフォリオ診断は資産運用を始めたばかりのユーザーをターゲットにしたもので、AIを活用することにより現代ポートフォリオ理論と呼ばれる投資理論を初心者でも実践できるようにしたサービスだ。

同サービスの主な機能は2つある。1つ目はAIによるユーザーへのポートフォリオ提案だ。ユーザーが新規でポートフォリオを組む場合、ユーザーが投資金額と銘柄を1つ選択するだけで、AIが自動で効率的なポートフォリオを提案する。選択した銘柄と相性のいい銘柄を組み合わせていき、入力した投資金額内で購入可能なポートフォリオを提案するという仕組みだ。また、既存のポートフォリオのリバランス(銘柄の入れ替えや構成比率の調整)提案も行う。

2つ目は、ディープラーニングを利用したHEROZの「株価予測AI」によって銘柄の期待収益性をスコア化する機能だ。AIが決算データや株価データを学習することで、株式の1ヶ月先の期待収益性を予測し、スコア化するという。

HEROZはプレスリリースのなかで、「SMBC日興証券とHEROZは、昨年10月より実用化に向けた取組みに着手し、2019年度上期のサービス提供に向け準備中の「AI株価見守りサービス」をはじめ、今後も最新のAIの技術を用いた様々なサービスを提供いく予定」だとしている。