YouTubeの「勝手な推薦ビデオ」の推薦理由がややわかるようになった

【抄訳】
YouTubeは米国時間6月27日、ユーザーの「ホーム」ページや「次の動画」の推薦リストに現れるビデオを、ユーザー自身がもっとコントロールできるようにするための一連の変更を発表した。それらのビデオは、YouTubeのアルゴリズムが勝手に決めているものだ。YouTubeはまた、それらの推薦ビデオがなぜどうやって決まったのかをユーザーが理解できるようにする、と言っている。つまり、YouTubeのアルゴリズムの内部を見せると言うのだ。

新しい機能として、「ホーム」ページや「次の動画」に登場する推薦ビデオにどんなトピックが関連しているのか、これまでのどんなビデオが関連しているのかがわかるようになる。YouTubeアプリはこれからは、今見ているビデオに関連しているビデオや、ユーザーがウォッチしているチャネルのビデオなど、関心があるとYouTubeが判断したビデオの根拠になっている、個人化された提案を表示し、ユーザーがそれらを見られるようにする。

deviceFrame combined

この機能はAndroidのYouTubeアプリに英語でサインインしているユーザーにまず提供され、iOSやデスクトップ、そしてほかの言語は、もうじきサポートされるそうだ。

YouTubeの提案がいつものように的外れなら、これからは一連のコントロールにアクセスして、特定のチャネルからの提案をしないよう指示できる。

そのコントロールは、「ホーム」ページや「次の動画」のビデオの隣にある、点が3つのメニューから利用できる。そこで、推薦してほしくないチャネルを指定する。すると次回からは、そのチャネルのビデオが表示されなくなる。

しかし推薦を禁じたチャネルへのサブスクリプション(入会)や検索、そのチャネルのページへの直接の訪問などはできる。YouTubeからの勝手な推薦がないだけで、チャネルの利用方法は前とまったく変らない。そこのビデオがトレンドのタブに出ることもある。

dontRecommend featureImage 3

この機能は全世界で利用でき、YouTubeのAndroidアプリに次いで今日からはiOSでも利用可能、デスクトップももうすぐだ。

しかし一番面白いのは、YouTubeがそのアルゴリズムの仕組みをユーザーに少し見せてくれることだ。これまでユーザは、なんでこのビデオが自分に推薦されるのか、まったく理解できないこともあった。今度の新しい機能で、そのビデオがリストに載る理由が詳しくわかる。ビデオの提案の下に、それを選んだ理由が表示される。

YouTubeの発表によるとたとえば、そのユーザーが一度も訪れたことのないチャネルのビデオでも、「関心が共通するほかのユーザーが好きなビデオなら推薦する」というように。「我々の目標は、ビデオを『ホーム』ページで紹介する理由を説明して、ユーザーが気に入るかもしれない新しいチャネルを見つけるお手伝いをする」ことだそうだ。

例えば、その説明は「あなたのお気に入りのチャネルを見ているビューワーが、そのビデオの推薦をしているチャネルも見ている」、と言うかもしれない。YouTubeのアルゴリズムは本当はもっと複雑だが、この「お気に入りの連鎖」は、比較的単純な方だ。

endorsements featureImage iphone 1

YouTubeなどのソーシャルメディアは、プラットホームの管理について政府の規制当局からも圧力を受けている。プライバシーとセキュリティの問題だけでなくヘイトスピーチや偽情報の拡散などでプラットホームは、不透明なアルゴリズムでユーザーに見せるものを決めていることを批判されている。

【後略】

[原文へ]
(翻訳:iwatani、a.k.a. hiwa

今年のDisrupt SFではコンピューターが犯す偏った決定「アルゴリズミック・バイアス」について学ぼう

あなたがNetflixで“Unbreakable Kimmy Schmidt”を見終わったあと、Netflixが“Everything Sucks”を見るよう薦(すす)めたら、それはアルゴリズムが、この人が次に見るべきものはこれだ、と決めているのだ。Googleが、ある検索結果を別のよりも先に見せたら、アルゴリズムが、そっちのページの方が重要、と決めているのだ。そして、警察が顔認識を使って違う人を容疑者と認めたら、それはアルゴリズムが間違いを犯した例のひとつだ

アルゴリズムはルールの集合で、コンピューターはそれらに従って問題を解いたり、取るべきアクションを決めたりする。ルールに従ってコンピューターは、私が受け取る情報のタイプや、私について人びとが知る情報、私に見せるべき求職情報、クレジットカードの承認、さらに未来には、運転手のいない車が歩行者の私に気づくか気づかないかを決める。アルゴリズムは日増しに、私たちの生活の重要な部分になりつつある。

しかしアルゴリズムには、その基本的な部分や、さまざまな利用の部分に、本質的な問題がある。それは、それらの機械による決定に含まれる人間的な偏りだ。

では、たとえば保釈か拘束かという人生の大事件を決めるアルゴリズムが公平であるためには、何をどうすべきか? そもそも、公平とはどういう意味なのか?

今度のTechCrunch Disrupt San Franciscoでは、KairosのファウンダーでCEOのBrian Brackeenと、Human Rights Data Analysis Group(人権データ分析グループ)のKristian LumとPatrick Ballをお招きして、私の司会でこの問題を掘り下げる。

Disrupt SFはサンフランシスコのMoscone Center Westで9月5日から7日まで行われる。すべての議題はここにある。チケットの購入はここで

〔ここで紹介されているアルゴリズミック・バイアスに関するパネルは、現地英文記事が載り次第、翻訳します。参考: Wikipedia記事(英文)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

ニューヨーク市が行政が利用する各種システムのアルゴリズムを監視する組織を作る

New York市が近く、行政の各部局が使用しているアルゴリズムの公正さを監視するタスクフォースを設ける。自動化システムのエキスパートと、それらのシステムのユーザーや受益者(ときには受‘害’者)代表から成るそのチームは、市が使っているアルゴリズムを精査して、説明責任を強化し偏向を避けるための推奨を行う。

平凡な名前のその設置条例は市議会で可決され、今は市長のデスクの上で署名を待っている。ACLUのニューヨーク支部も、これに賛同している

たとえば、“自動化決定システム(automated decision system)”(これは法律用語だ!)が、被告人の保釈の可否を決めている、としよう。しかしそのシステムの訓練データに偏向があったため、特定の人びとをほかの人びとよりも不法に依怙贔屓(えこひいき)している、としよう。

そんな場合タスクフォースは、この状況をどのように処理するかを書いたレポートを市へ提出する。そこにはたとえば、次のようなことに関する推奨事項があるだろう:

  • 被告人など関連する人びとが、自分の状況をアルゴリズムが評価した/しなかったことを、どうやって知るのか。人びとはその評価過程について、どのように報告されるべきか。
  • システムは特定グループ、たとえば高齢者や移民、障害者、少数民族などに特別の(好悪どちらかの)対応をしていないか。
  • もししているなら、そのような対応を受けた人びとに対し何をすべきか。
  • システムはその技術的細部と市によるそれらの使い方の両面で、どのように機能しているのか。
  • システムとその訓練データは、どのように文書化され保存されているのか。

タスクフォースは条例の署名後3か月以内に組織され、そこには“公正さと説明責任と自動化システムの透明性に関するエキスパートと、その自動化決定システムの影響を被る人びとを代表する福祉団体などの専門家”を、擁さなければならない。

つまり必要なのは大量の機械学習の専門家と数名の弁護士ではなく、ソーシャルワーカーや人権保護活動家などである。同じことを、ぼくも前に書いたと思う。

レポートは18か月以内に作成され、一般公開される。しかし、拙速は禁物。このようなシステムの評価はデータ集約的なタスクであり、評価のために複数の並行的な行政システムを作ることによって、人びとがシステムの割れ目に落ちてしまわないようにすることが、市民のための行政としてきわめて重要だ。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

プログラミング能力のない人でも株式市場で独創的なアルゴリズム取引ができるAlgoriz

Computer screen displays laptop graph  of financial trends.

株取引の儲かるアルゴリズムを思いついたら、それを自分で実装するか、または優秀なデベロッパーに実装を頼めばよい。でも、そんなことをしてたら機会を逃す、とお思いのあなたは、一体どうしたらよいか?

そんなとき助けてくれるのが、Y Combinatorの2017年冬季で勉強中のAlgorizだ。ファウンダーでCEOのSoraya TaghaviはGoldman Sachsで実際に株の売買をやってた人、そのとき彼女は、アイデアのあるトレーダーと、そのアルゴリズムを実際にプログラミングできる人を結びつける必要性を痛感した。そこで彼女は、アルゴリズムをふつうの英語で書けばそれがアプリケーションとして動く、というプラットホームを作った。

まず、アルゴリズムの書き方はこうだ: “If SNAP is up 3% from yesterday, and the S&P is down, sell 100 shares of SNAP”(SNAPが昨日より3%上げてS&Pが下げたら、SNAPの株を100株売る)。そのプラットホームは、S&Pのほかにも、さまざまな指標をサポートしている: ボリンジャーバンド、指数的変動平均、変動平均の収束と発散、などなど。

利食いをするタイミングや、最大許容損失なども指定できる。Algorizはふつうの文章による入力をアルゴリズムに変換し、そのプラットホーム上で24/7動かす。

screen-shot-2017-03-03-at-10-18-38-am

自分が考えたアルゴリズムを、過去のデータを使ってテストできるし、もちろん時価で動かすこともできる。

Algorizにはまだ、実際の売買の機能はないが、市場が、そのアルゴリズムに該当する状態になってきたら、メールで通知をくれる。実際に売り買いをせよ、という合図だ。今後実際に証券会社の機能を実装したら、その利用(株の売買)に関してはもちろん手数料を取るが、Algorizの利用料は無料になる。実際の売買に他の証券会社を使う人は、Algorizの使用が有料になる。

Algorizは今後、そのプラットホーム上で優れたアルゴリズムを作ったトレーダーと、資金力のある人を結びつける、マーケットプレースにもなりたい、と言っている。またアルゴリズムの扱い商材も、普通株だけでなく、通貨や先物取引にも広げたい。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

AppleのPhil Schiller、App Storeでスパムアプリが紹介されている問題への対応を約束

app-store-bundles

AppleのApp Store責任者、Phil Shillerは先週末、App Storeの一部カテゴリーの “New” および “What’s Hot” セクションに、スパムや粗悪アプリが紹介されているとの苦情に回答した。残念ながらこれは、Appleのサードパーティーアプリ用マーケットプレイスで長年の問題となっており、ここ数年デベロッパーの不満が高まっていた。昨年12月にApp Storeの管理責任をEddy Cueから引き継いだShillerは、この問題はあってはならないことであり、詳しく調査することをTwitterで約束した。

この問題はApp Storeのアルゴリズムに関わる。新しいアプリやゲームを紹介する際、新規リリースやApp Storeのトレンドに基づいて選ぶ。しかし、優れた有望なアプリではなく、アルゴリズムは人気の “2048” ゲームを模倣したアプリを数多く選ぶ結果になっていた。事実、App Storeの “Puzzle” セクションはそうした粗悪品が満載であり、怒りのツイートを招いた。

この問題は、ある古いバグに起因するもので、Appleが過去に修正したとされていた。同じ問題は米国以外のApp Storeでさらに顕著のようだ。

App Storeにこの手の低品質クローンが許されていることだけでも問題だが、Appleがそれを特集してエンドユーザーに推奨することは次元の違う問題だ。デベロッパーの反感を呼んどいるのもそれが理由だ。

もしこれが個別に起きた問題であれば、ただバグを修正すればよいとデベロッパーも寛容だっただろう。しかし、App Storeはアプリのランキングや発見されやすさに関する問題に長年苦しめられており、サードパーティーデベロッパーらは、Appleが過去数年、適切な対応を行っていないと感じていた。

このため、Shillerが公の場でこの問題を認め、対応を約束したことは有望であり注目に値する。

SchillerのTwitterでの発言は、Screenshot++のデベロッパー、Wesley Dysonのツイートに返信したもので、DysonはMozillaのLisa Brewsterがこの問題について、「今この問題はあなたが責任者だと信じている。粗悪アプリをAppleが推奨すべきではない」とコメントしたツイートを取り上げていた。

(情報提供:9to5Mac

[原文へ]

(翻訳:Nob Takahashi / facebook

TwitterとFacebookのユーザーは、ニュースに接する機会が増えている(Pew調べ)

facebooks-illustration-of-the-news-feed

米国のTwitterとFacebookのユーザーは、両サービスを通じて外部ニュースを受け取る機会が増えている。Pew Research Centerの最新調査による。

「TwitterとFacebookをニュースソースとするアメリカ人の割合は増え続けている。増加の主な理由はそこでニュースに遭遇するユーザーが増えたためであり、ユーザーベース全体が大きく増えたためではない」とレポートは指摘する。

調査によると、成人ウェブユーザーで両プラットフォームが「イベントおよび友達や家族以外の問題」に関するニュースソースになっている人の割合は著しく増えている ― Facebook、Twitter共にユーザーの63%がそう答えており、2013年はFacebookが47%、Twitterは52%だった。

Pewのデータを見ると、この傾向はあらゆる年齢層にわたる ― 35歳未満(55%から67%へ増加)、35歳以上(47%から61%)を含む。Facebookでは、ニュース利用は男性(44%から61%)、女性(49%から65%)共にこの2年間で増えている。若いユーザーは、TwitterよりもFacebook経由でニュースを受取っていると、報告書は書いている。

どちらのITプラットフォームも、自らをコンテンツ発信者ではなく、コンテンツ配信プラットフォームと位置づけたがっている ― 特に、ユーザーが見るものを編集的に操作する役割を否定しているが、一部の種類のコンテンツをサイトから排除する「編集判断」とも言うべき行為はしている。さらに、彼らのアルゴリズムは継続的に判定して、ユーザーの見るコンテンツの収集あるいはパーソナル化を行っている。

はっきりしているのは、ソーシャルメディアのニュース配信と収集の役割が大きくなり、特定のコンテンツやコンテンツタイプを表面化して広める(あるいはその逆)アルゴリズム技術が明確になるにつれ、デジタルプラットフォームが大衆の意見にどう影響を与えているかに関する疑問は大きくなるばかりだということだ。

「ソーシャルネットワークサイトが、ニュース環境における自らの役割を認識しそれに順応するにつれ、それぞれが独自の機能を提供するようになる。こうしたニュースとの様々なつながり方から、アメリカ人がコミュニティーを通じてどうやって世界について学ぶか、またどうやって民主的なプロセスに参加するかを予測できる」とPer Research Centerのジャーナリズム研究担当ディレクター、Amy Mitchelは声明で語った。

Facebookも最近、パブリッシャーのコンテンツを直接ホストするプログラム ― Facebook Instant Articles ― をスタートし、記事のロード時間を縮少し、自らのプラットフォームにユーザーを長く滞在させることを期待している。

もちろんPerのレポートは、FacebookとTwitterの間でニュース配信の強みに大きな違いがあることも強調している。Twitterは ― リアルタイムの出来事に大きく力を入れていることから当然のように ― 速報ニュースを追いかけている人に多く使われている(59%に対してFacebookは31%)。

調査結果は、プラットフォームごとに、適した習慣や話題が異なることも示している ― 例えばTwitterユーザーは報道機関や記者、解説者をフォローすることが多いのに対して、Facebookユーザーは政府や政治に関するニュースコンテンツの投稿やコメントが多い。

Facebookユーザーの約1/3(32%)が、政府や政治に関して投稿し、28%がこの種の投稿にコメントすると答えた。一方Twitterでは、25%がこの種のニュースに関してツイートし、他のユーザーのツイートしたこの話題には13%が返信している。

レポートは、TwitterでFacebookよりも高い比率で読まれている話題を4つ挙げている ― 連邦政府と政治(72% 対 61%)、国際問題(62% 対 51%)、ビジネス(55% 対 42%)、スポーツ(70% 対 55%)。

Facebookユーザーはパーソナル化されたフィルターの中に座っている、という議論は長らく続いている ― 昨年夏のファーガソン事件の最中、FacebookとTwitterのフィードで見た物が著しく異なっていたというユーザーの指摘で最高頂に達した。

Pewの結果を見ると、Twitterのニュースユーザーは、Facebookよりも広い範囲の話題のニュースと定常的に接しているようだ。

Pew

レポートは、両プラットフォーム間の性別によるニュース消費傾向の違いも挙げている。Facebookでは、女性は健康、エンターテイメント、およびコミュニティー内の人々やイベントに関する記事を見ることが多く、Twitterの女性は、天候、エンターテイメント、犯罪および健康に関する投稿をよく見ている。

ニュースにコメントを付けるユーザーに関しては、両プラットフォームの割合はほぼ同じで、Facebookでは28%、Twitterでは23%のニュースユーザーが、少なくとも何回かニュースに関して投稿あるいはツイートしている。

調査は米国の成人2000人以上を対象に実施され、Twitterユーザー331人、Facebookユーザー1315人が含まれていた ― 人数の違いは両プラットフォームを使っているアメリカ人の数を反映しているとPewは説明している。

[原文へ]

(翻訳:Nob Takahashi / facebook

ブラで悩む女性のためにSizemは独自のアルゴリズムで正しいサイズを教えてくれる

すべての女性読者よ、今あなたが着けているブラのサイズは(たぶん)正しくない。とっても残念ね。女性誌やランジェリーメーカーはいつも言う: 正しいブラはあなたのおっぱいにとって、毎日欠かさずピラティスのクラスに通(かよ)ってるのと同じ効果をもたらす、と。

クロアチアのSizemは、この問題を解決するためにサイズ計算システムを作った。それは、ユーザがメジャー(巻尺)を使って、自分について計測したいくつかの測定値を使用する。たとえば、息をいっぱい吸った状態と、吐いた状態で胸囲を測る。Sizemのアルゴリズムは、それらの値から、あなたのブラの正しいサイズを求める。

Sizemは、消費者サービスであると同時に、B2Bのプロダクトでもある。消費者は自分のサイズを知るために使うが、メーカー企業はこれを製造工程を助けるSaaSとして利用できる。

それに、Sizemのサイトには、ほとんどの女性がブラの正しい着け方を知らない、と主張するガイドブックがある。その正しい方法のことを同社は、”Scoop and Swoop”(すくい上げて急降下)と呼んでいる。そのお話は、また別の機会に。

実は、ブラ関連のオンラインサービスがこのところ増えている。みんな、わずか26ドルの下着のために知らない人(店員)に触られるのは、いやなのよ。たとえばThirdLoveというサービスは、正面と横からの写真から胸を3Dでとらえ、表示する。人気のTrue & Coは、いくつかの質問に答えると試着用のブラを送ってくる。

Sizemのやり方は、これらに比べるとちょっと面倒だが、日常の体の動きを定量化する点が新しい。もちろん、ユーザの計測の仕方が正しいことと、アルゴリズムが良質であることが前提だけど。でも、正しくないブラと永遠におさらばするためには、誰もいないところで自分一人でできる測定をベースとする、このような計算アルゴリズムが、正しい道への第一歩かもしれない。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))