モバイル版Microsoft Edgeに、偽ニュース検出機能が組み込まれた

2019年になっても、私たちはいまだに偽ニュース(フェイクニュース)に本当はどう対処すればよいかがわかっていない。拡散しやすい過激な見出しを避けたり、偏見を受け入れないようにする習慣がないために、オンラインの誤情報は相も変わらず蔓延を続けているようだ。これは厄介な問題である。特に、人びとの信条を揺るがすために、真実だとするにはあまりにも酷いニュースに引きつけられる読者を集めようとするからだ。言い換えるなら、ある種の技術的解決策や大規模な文化的シフトがなければ、偽ニュースのジレンマはすぐには解決しないだろう。

だがそんな中で、MicrosoftのモバイルEdgeブラウザは、それに控え目な一撃を加えようとしている。AndroidとiOSで、MicrosoftのEdgeアプリは、NewsGuardと呼ばれる組み込み偽ニュース探知機能とともにインストールされるようになった。この提携は、MicrosoftのDefending Democracy(民主主義の防衛)プログラムの延長線上にあるものだ。Edge向けNewsGuard機能の発表は、今月初めに行われていた。

NewsGuardはデフォルトではオンになっていないが、Edgeを使用している人なら誰でも設定メニューでの簡単な切り替えで有効にすることができる。私がテストのアプリをダウンロードしたとき、Edgeは実際に小さな青い点を使って、私を「設定」メニューから「ニュースの評価」というメニュー項目へと導いた。このメニューの中でNewsGuardを有効にすることができる(日本語版Edgeでは「アドレスバーに評価を表示する」というトグルスイッチが表示される)。その点は警告を表す赤色ではなかったが、私の興味を引きつけて設定に移動させる程度には目立っていたと思う(たとえこのニュースを書いているときでなくても、反応したと思う)。

現時点では、NewsGuardの評価は米国を拠点とするWebサイトに集中しているが、海外の主要サイトも含まれている。TechCrunchはNewsGuardによって健全なグリーン評価を受けた。この意味するところは、私たちが通常「正確性と説明責任の基本的な水準」を満たしていることを示している。アドレスバーの横にある緑色のバッジをクリックすると、TechCrunchの完全な「評価結果(実際は「栄養素」と表現されている)」 ―― 私たちの所有権、資金、内容、信頼性などに関する関連情報の要約を確認することができる。表示される情報は微妙なところにも踏み込んでおり、例えば「書かれている意見は必ずしも常に明確に断言されるわけではない」という洞察が書かれている。十分に公平な記述だと思われる。修正されたストーリーの例と、それをどのように処理したのかについてさえ記述されていた。The Guardianが報じたように、Daily Mailはそれほど上手くやっているわけではなかった。

NewsGuardの評価に影響を与える編集部の深い取り組みは印象的だが、彼らはまた偽ニュースとの戦いをとりわけ難しいものにしているまた別の課題を浮き彫りにした。ニュースソースがさまざまな要因で評価されている場合でも、決定を下すにはある程度の主観的評価が必要なのである。こうした取り組みをおこなう組織は沢山あるが、誰がそれを実際に行うべきかについて、私たちはどのように合意に達すれば良いのだろうか?

NewsGuardは、The Wall Street Journalの元発行人であるGordon Crovitzと、Steven Brillによって率いられている。他の論評的なニュース実験と同様に、NewsGuardはアルゴリズムではなく、人間のチームに頼っている。同社は、CIAの元長官であるMichael Haydenと、The Informationの創設者Jessica Lessinをアドバイザーに迎えている。

Edgeはそれほど人気のあるブラウザではないが、オンラインの低品質情報に対する厄介な戦いの、興味深いケーススタディとなっている。またそれは、偽ニュース時代の中心的な”Catch 22″(「ジレンマ」を意味するスラング)も示している。偽ニュース検知器を最も必要とする人たちは、そうしたものを最も使わない人たちなのだ。NewsGuardを使ったMicrosoftのEdge実験は、その問題への解決策ではないが、ある種のニュース検証ツールをブラウザに直接組み込むことは、説得力ある方向への一歩のように思える。

画像クレジット: Shutterstock

[原文へ]
(翻訳:sako)

偽レビューの真実――お金で買えるベストセラーとAIの可能性

かつてMary Strathernは「指標が目的化すると、その数値は指標としての意味をなさなくなる(グッドハートの法則)」と語った。シェイクスピアに言わせれば、守るよりも破ったほうが名誉になるルールということなのだろうか。アルゴリズムが支配する私たちの社会では、多くの指標が目的に姿を変え、その意味を失っていった。この記事では本を例にとって、この問題について考えていきたい。

「No.1ベストセラー!」というのは、”集合知”を反映した高品質の証だ。つまりこれは指標であり、今日の世界では目標でもある。一体「No.1ベストセラー」とは現在どんな意味を持っているのだろうか? Kindle Storeを見てみると……

Kindle Storeがどれだけ使えないか知りたければ、全体でナンバー1の本を見てみればいい。

……New York Timesのベストセラーリストはどうかというと……

New York Timesのベストセラーリストで第1位に輝いたヤングアダルト小説が同リストから抹消された。複数のヤングアダルト小説家がTwitter上で『少女探偵ナンシー』ばりの調査を行った結果、特定の書店で問題の小説が大量に事前予約されていたことがわかったのだ。

……と、「ベストセラー」という言葉は、もはやあまり大きな意味を持っていないとわかる。どうやらKindle StoreにしろNew York Timesにしろ、ベストセラーの称号はお金で買えるようなのだ(確かにNYTは問題に対処したが、調査を行った人たちがいなければ件の本はベストセラーのままだっただろう)。

ポスト真実の現代においては、これもあまり驚くべき話ではないのかもしれない。そもそも賞やランキングといったものは程度の違いこそあれ、人の手が加えられたものばかりだ。しかし今では、ランキングの多くがキュレーションなしでアルゴリズムによって決められるため、同じようにアルゴリズムの力を借りることで、簡単に操作できるようになってしまったのだ。そして世界中(もしくは少なくともアメリカ国内)で起きていることを見ればわかる通り、いずれこのような事件は政治的な問題へと発展していく。

プライドの高い作家は、New York TimesWall Street JournalAmazonのベストセラーリストの座をお金で買おうと試み、どうやらときにはそれが成功することもあるようだ。

その一方で、Amazonが偽レビュー取り締まりを行い、偽レビューを検知するサードパーティーのプラグインが配布されているかと思えば、気に入らない本に嘘のネガティブなレビューを残す”レビューの乱用”も横行している。真実と虚偽がせめぎ合う様子は偽ニュースの問題を彷彿とさせ、どちらが優位に立っているのか判別するのも困難な状況だ。

私は何冊か小説を出版していることもあり、この問題には個人的な思いがある。これまでにも知人から、私の本に5つ星のレビューを書くから、その人のアルバムに5つ星の偽レビューを書いてくれないかという類の話をされたが、いくばくかの嫌悪感を抱きながら全ての提案を断った。友人に良いレビューを残すよう頼んだことも一度もない。Amazonのレビューシステムをミシュランと勘違いしたのか、1つ星とともに激賞の言葉が並んだレビューにため息をついたこともある。人は嘘の称賛を嗅ぎ分けられると自分に言い聞かせてきたが、本当はそうではないのではないかと不安になる。

もちろん本のレビューに関する問題は、作家という一部の変わった人たちにしか関係のないことかもしれない。しかしそれ以外にも似たような問題は散見し、偽ニュース、偽科学、資格・スキルの詐称など枚挙にいとまがない。人はある指標を攻略しようと嘘をつき、指標自体を新しく考え出すことさえある。その指標も、証明できる事実や統計からソーシャルメディア上の繋がり、学歴、功績まで内容はさまざまだ。さらに情報過多の現代では、ただでさえ短いアテンションスパンを慎重に使うために、私たちは情報を選別するための第一歩としてアルゴリズムによる雑なフィルタリングに頼りがちだ。だがそうすることで、どれだけの真実が手からこぼれ落ち、逆にどれだけの嘘が監視の目をかいくぐって頭の中に入ってきてしまっているのだろうか?

しかし私たちには人工知能(AI)という名の一縷の望みがある。細かなパターンの認識や、目標にとってかわった粗雑な指標の代替というのはまさにAIの得意分野だ。ApectivaをはじめとするAI企業は、偽レビューを検知したり、本当のレビューから有用な情報を取り出したりするソフトを開発している。

もちろんAIにもバイアスや適合性、ブラックボックスの問題があるが、今私たちが直面している問題に比べれば大したことはない。未来のニューラルネットワークが、仕組まれたレーティングや偽レビュー、偽アカウントを認識できるようになることを祈ろう。ただそれも、AIが検知できないような偽レビューを書くAIが出てくるまでの話だ。こうして真実と虚偽のせめぎ合いは続いていく。

原文へ

(翻訳:Atsushi Yukutake

Facebook、アルゴリズム改訂でスパムコンテンツの表示順位低下を狙う

Facebookは、あるユーザーが1日に50件以上の偽ニュースや扇情的なコンテンツ、クリックベイト(釣り記事)をシェアしていたとしても、厳密にはその人のアカウントを削除することはできない。というのも、同社は人々の”シェアする権利”を尊重したいと考えているのだ。しかしそのようなコンテンツをニュースフィードの下の方に埋めておき、ほとんどの人の目に入らないようにすることならばできる。

Facebookはまさにそれをするために、ニュースフィードのアルゴリズムをアップデートしたと先週発表した。新たなアルゴリズムは、スパマーだと思われるユーザーがシェアしたリンクを検知し、その表示順位を下げるような仕組みになっている。Facebookの調査によれば、このようなリンクは「クリックベイトや扇情的な記事、偽ニュースといった低品質なコンテンツとの関連性が高い」とされており、新アルゴリズムを活用することで、リンク先のコンテンツを個別に分析しなくてもプラットフォーム上のスパムコンテンツを浄化することができるのだ。

単に投稿数が多いだけのユーザーであれば、今回の変更の影響は受けないだろう。また、対象は個人のアカウントに限られているため、Facebookページもこれまで通り好きな数だけコンテンツを投稿でき、トラフィックを増やすためにスパマーを活用しているFacebookページのリーチにのみ影響が及ぶことになるとFacebookは言う。

ニュースフィード担当VPのAdam Mosseriはその背景について、同社がターゲットにしているのは「意図的に低品質なコンテンツを1日あたり50件以上シェアしているユーザー。統計的に見れば、これはかなり例外的な数だ。並外れた影響力を持つ彼らは、何かしらの目的のためにニュースフィード上に有害なコンテンツを垂れ流している」と語った。

「まさかあの人がレッドカーペット上で転ぶとは……」と題されたクリックベイトの例

Facebookとクリックベイトの戦いは2014年に始まり、まず同社は移動先での滞在時間が短いリンクの優先順位を下げるという施策をとった。それ以降もアルゴリズムに改変を加え、捏造記事がなるべく表示されないようにしたり、クリックベイトやスパムを根絶するためAIにトレーニングを施したりしていた。それ以外にも、通報オプションの導入やファクトチェッカーとの協力で偽ニュースに対抗し、広告で埋め尽くされたサイトに飛ぶリンクの表示優先順位を下げたり、クリックベイト対策を9言語に展開したりしていた。

数十種類におよぶアルゴリズムの改訂履歴の詳細については、こちらの記事を参照してほしい。

「プラットフォームから偽ニュースやクリックベイト、扇情的なコンテンツを駆逐するために、私たちは最大限の努力をしている」とMosseriは語る。「Facebookは人々にストーリーを共有する力を提供しようとしているため、スパマーはグレーエリアにいると言える。彼らは不要なコンテンツを垂れ流している一方で、私たちのポリシーに反しているわけではないため、これはスパマー対策としてはふさわしいアプローチだと考えている」

もしもFacebookの試みがうまくいけば、ユーザーはもっと時間をかけてコンテンツに目を通すようになり、リンクをクリックするのに不安を感じることもなくなってくるだろう。そうすれば、Facebookも「世界のつながりをより密に」という新しいミッションステートメントに沿ったサービスを提供できるようになる。露骨な偽ニュースが人々の注目を集めている一方で、これはFacebook上でシェアされている劣悪なコンテンツの一部に過ぎない。実は社会の分断につながるような扇情的でバイアスのかかったコンテンツの方が、人目にはつきにくいものの大きな影響力を持っているのだ。そのようなコンテンツの表示順位を下げることができれば、リベラル派と保守派も建設的な議論ができるようになるだろう。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Facebookが検閲やテロ対策の方針に関する意見を公募――ユーザーとの対話を図る

Facebookはどのようなコンテンツであれば掲載してもよいと考えればいいのだろうか? また、多様な意見や文化の違いが存在する中、彼らはどのようにユーザーの安全と真実のバランスをとればよいのか? Facebookはこのような一筋縄ではいかない問題の解決に向けて、本日(現地時間6月15日)7つの”難問(hard questions)”に関する記事を公開した。ユーザーは各項目に対するフィードバックや、他にFacebookが取り組むべき問題を、所定のメールアドレス(hardquestions@fb.com)に直接送ることができる。

Facebookは今後それぞれの問題に対する考えをまとめたブログ記事を公開しようとしており、まずは本日、インターネット上でのテロリズムの拡散とFacebookがどのようにこの問題に取り組んでいるかについての記事がアップされる予定だ。

[アップデート:こちらから最初の”難問”に関するFacebookのブログ記事を確認できる。予定通りこの記事ではテロ対策が取り上げられており、詳細については以下で触れている]

「私たちの選択に疑問を抱いている人もいるかと思いますが、Facebookの考え方やどれだけ真剣に私たちがそれぞれの問題に取り組もうとしているかについて、このブログシリーズを通じて知ってもらえればと考えています」とパブリックポリシー担当VPのElliot Schrageは記している。「また、こういった情報を公開して説明責任を果たすことで、今後間違いを犯す回数が減り、何か問題が起きてもすぐに対応できるようになると信じています」

Facebookが取り組んでいる7つの”難問”は以下の通りだ。各項目には関連情報を追記している。

  • ネット上のプロパガンダの拡散を防ぐためにソーシャルメディアはどのようなアプローチをとればいいか?

Facebookはこれまでにテロ支援を表明しているページやアカウントを閉鎖してきた。しかし、テロリズムとの関連が不明確なものへの対応や、忌憚のない意見とプロバガンダの線引きに関しては明確な指針を示せないでいる

  • アカウントの持ち主が死んでしまった場合、その人の情報をどのように扱うべきか?

現在のところ、Facebookでは亡くなった人のアカウントが追悼アカウントに変更され、事前に「追悼アカウント管理人」に定められた人がそのページを管理するようになっている。しかし、もしもアカウトの持ち主が生前に管理人を定めていなければ、たとえ家族の誰かに対してであっても、管理権を移譲するためには複雑なプロセスを経なければいけない。

  • ソーシャルメディアは、問題となりそうな投稿や画像をどのくらい積極的に監視・削除すべきなのか? 特にさまざまな文化的背景を持つ世界中のユーザーが利用しているサービスでは、誰がコンテンツの問題性を判断すればいいのか?

Facebookはさまざまな年代のユーザーや広告主の安全を守りつつも、熱い議論が交わされるトピックを検閲しないようにするという難しい綱渡りを強いられている。最近では、警察による暴力がおさめられた動画や、裸の子どもが写った戦争の恐ろしさを伝える歴史的な写真を一時的にブロックしたことで批判を受けていた。この点に関しマーク・ザッカーバーグは、各ユーザーがフィルター機能を自分で調節できるようにし、各地域のユーザーの平均的な設定をその地域のデフォルト設定にしたいという考えを示していた。しかし、各地域の基準が国際的な基準と一致しない場合、Facebookは依然として厳しい選択を迫られることになる。

  • 誰が「偽ニュース」と「賛否の分かれる政治的な発言」の線引きを行うのか?

2016年のアメリカ大統領選挙以降、Facebookは偽ニュースの拡散に対して十分な対策をとっていないと批判を浴びており、特に右派の陰謀論やドナルド・トランプの勝利に繋がったとされる情報の拡散が話題になった。しかし、もしもFacebook自体が偽ニュースを取り締まり始め、思想的に偏った決断を下すようになると、ユーザー間の議論が沈静化し、オンラインコミュニティがさらに分裂してしまうだろう。その一方で、彼らが何もしなければその判断は有権者の手に委ねられることになる。

  • ソーシャルメディアは民主主義にとってプラスなのか?

ひとつ前の問題にも関連しているが、ユーザー間で”ニュース”が勝手に広まることで、これまで誤報や不正確な情報から読者を守ってきたプロの編集者が入りこむ余地がなくなってきてしまった。残念ながら、扇情的な虚偽のコンテンツほどエンゲージメント率が高く、結果的にニュースフィード上でも目立つ位置に配置され、これがさらなる拡散に繋がってしまっている。これに対し、Facebookは偽ニュースが目立つ位置に表示されないようにアルゴリズムを改変し、外部のファクトチェッカーとも協力してきたが、フィルターバブルが縮小化したことでユーザーが多様な意見に触れる機会が減ってしまう可能性もある。

  • どのようにユーザーデータを活用すれば、ユーザーの信頼を損なわずに利便性を高めることができるのか?

Facebookはいい意味でも悪い意味でもデータ発掘機のような存在だ。大量のデータがあるからこそ彼らはユーザーの好みにあったコンテンツを表示することができるのだが、ユーザーデータは広告の効率化にも使用されており、Facebookの影響力はさまざまな業界に留まらず、私たちのプライバシーにまでおよぶ。

  • 若いネットユーザーが安全な環境で自分を表現するためにはどうすればよいのか?

大人にとっては重要なニュースだったり軽いエンターテイメントだったりするものが、子どもにショックを与え動揺させてしまうことがある。そんな中、Facebookはお互いに繋がりあえるような環境を子どもに与えつつも、悪意を持ったユーザーから子どもたちを守るようなネットワークを構築していかなければならない。既に同社は成人ユーザーがグラフ検索で18歳未満のユーザーを見つけられないよう制限を設けているほか、親向けにさまざまなリソースを公開しているが、子どもが投稿した内容は一般公開できるようになっているため、見知らぬ大人が子どもと関わりを持つ可能性を根絶できてはいない。

テロリズム対策

テロ対策に関するFacebookのブログ記事はユーザーとの対話のスタート地点に過ぎず、AIや人間のスタッフ、外部パートナーといった、プロパガンダ拡散を防ぐための手段をリストアップしただけのものだった。

Image via BuzzNigeria

彼らの取り組みは以下の通りだ。

  • 既に削除対象となったコンテンツが再びアップロードされるのを防ぐための類似画像検索機能の実装
  • テロ行為を支援するような文章を特定できるアルゴリズムを使い、似た文章を見つける機能のテスト
  • テロ支援を理由に削除されたアカウントと繋がっている、もしくは似たアカウントの削除
  • 削除後に再登録したと思われるアカウントの動きを特定し”再犯率”の低下を狙う
  • プラットフォームを超えてテロリズムの撲滅を目指すためInstagram、WhatsAppと協力
  • 現状Facebookでは、警察からの要請に対応する緊急時用の専門スタッフを含め、何千人というモデレーターが同社の社員としてフラグの立てられたコンテンツのレビューを行っている。ここにさらに3000人のモデレーターを追加し、150人の専門家をテロ対策専用のチームに配備する。
  • FacebookはTwitterやYouTubeをはじめとする企業とパートナーシップを結び、テロ関連コンテンツのフィンガープリントを共有しているほか、世界各国の政府機関からブリーフィングを受け、反過激主義・反ヘイトスピーチプログラムを支援している。

残念ながら、今回の記事にはフィードバックのためのメールアドレスは記載されておらず、プロパガンダとされるコンテンツをチェックする際の基準に関する哲学的な問題も提起されていない。

[アップデート:この記事でメールアドレスが記載されていないということを指摘した結果、当該ブログ記事にhardquestions@fb.comが追記され、今後”難問”に関連する全ての記事にメールアドレスを記載するという連絡をFacebookから受け取った。この対応から、実際にフィードバックに耳を傾け行動を起こそうとする同社の姿勢を感じられた]

透明性だけでは事態の重大さは変わらない

この度公開された”難問”からは、どうすればザッカーバーグが「これまでとは違うメディア企業」と呼ぶ存在であり続けられるのかというFacebookの葛藤が感じられる。ソーシャルネットワークというものは、ユーザーが肉付けしていく骨格のようなプラットフォームであると同時に、何が有益で楽しいコンテンツで何が誤解を招く邪魔なコンテンツなのかを判断し、自分たちの色を出していく出版社のような存在でもある。

そういう意味では、考えていることを社内に秘めておかずに公開すると決めたFacebookの判断は賢明だったと言える。また、情報が公開されたことで、人々はFacebookが少なくとも問題に真剣に取り組もうとしているのだと安心できるかもしれない。問題は、透明性が高まったからといって、急を要する事件が起きたときに、何十億もの四半期売上高を誇るFacebookが時間をかけてそれに対応する余地が与えられるかということだ。フィードバックや解決策をクラウドソースするだけでは足りない。たとえ解決策がビジネスの妨げになるとしても、Facebookは実際にアクションを起こしていかなければならないのだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Facebookで新たに違法コンテンツ放置の疑い―、レコメンド機能にも疑いの目

英紙の調査によって暴かれた、児童性的虐待やテロリストのプロパガンダに関連したコンテンツの拡散により、再びFacebookは、問題のあるコンテンツへの対処について厳しい批判にさらされることとなった。

UGC(ユーザー・ジェネレイテッド・コンテンツ)をアルゴリズムで管理するというFacebookの仕組みは、確かに違法コンテンツの拡散に繋がっているようだ。

昨日のThe Timesの報道では、同紙の記者が仮のアカウントを作成したところ、すぐに不快で違法性の高いコンテンツを発見できたと、Facebookが糾弾されている。発見されたコンテンツの中には、小児性愛を想起させるイラストや子どもが暴力をふるわれている様子をおさめた映像、ISISサポーターが作成した断首映像やエジプトの教会でおきたテロ事件を称賛するコメントのように、テロリストのプロパガンダを支持するものが含まれていた。

しかもこれらのコンテンツをFacebookに通報した際にも、ほとんどのケースで、画像や動画が同プラットフォームの規約に違反していないという返答をFacebookから受け取ったとThe Timesは報じている(しかしその後、The Timesが身元を明かして再度Facebookにコンタクトしたところ、最終的にモデレーターがそのままにしていた小児性愛を想起させるイラストが削除されたとのこと)。

その後、The Timesが通報したコンテンツは全て削除されたとFacebookは話している。

まさにこのような問題を解決するために、現在ドイツで議論が進められている法案では、苦情を受け付けた後に違法コンテンツを早急に削除しないソーシャルメディア・プラットフォームに対して、巨額の罰金が課されることになっている。ドイツ政府も今月に入ってからこの法案に対する支持を表明しており、今期中に同法案が可決される可能性もある。

そしてヨーロッパの他の国も、ドイツに追従する可能性が高い。イギリスを例にとれば、先月ロンドンで起きたテロ事件を受けて、同国政府は再度ソーシャルメディアとテロリズムに対する警戒を強めており、内務大臣はFacebookを含むソーシャルメディア各社に対して、テロ組織のプロパガンダを自動で検出・削除するツールの開発を進めるよう圧力をかけている。

The Timesの調査にあたり、同誌の記者はFacebook上で30代のITプロフェッショナルに扮したプロフィールを作成した上で、100人以上のISISサポーターと友だちになり、児童の”わいせつもしくは性的な”画像を奨励するグループに参加した。「それからすぐに、児童性愛に関連した何十枚といういかがわしい画像を、ジーハーディストが投稿している様子を目にした」と同記者は記している。

The Timesが、発見されたコンテンツを勅選弁護士のJulian Knowlesに見せたところ、同コンテンツはイギリスのわいせつ罪にあたるか、テロ行為を直接もしくは間接的に奨励する言論や出版を禁じているTerrorism Act 2006に触れる可能性が高いという返答を受け取ったされている。

「もしも誰かが違法な画像をFacebookに通報し、シニア・モデレーターが画像を削除しないと決定した場合、Facebookは違法画像の出版および流通を奨励またはほう助したとみなされ、有罪となる可能性があります」とKnowlesはThe Timesに語っている。

Facebookは先月にも、コンテンツ・モデレーションの仕組みについて同様の批判を浴びていた。児童のわいせつ画像に関する通報に対し、Facebookがどのような反応を示すのかBBCが調査したところ、Facebookは通報を受けた画像の大半を放置していたのだ。実は昨年にも、非公開のFacebookグループ内で、小児性愛者が児童のわいせつ画像をやりとりしているのをBBCが報じていた。

FacebookはThe Timesの報道に関する広報担当者へのインタビューには応じなかったものの、グローバルオペレーション担当VPのJustin Osofskyは、TechCrunchに対するメールでの声明の中に「私たちはThe Timesによる通報をありがたく思っています。問題の画像はFacebookのポリシーに違反していたため全て削除されました。このような事態が発生してしまい、大変遺憾に思っております。依然として改善の余地は残されていますが、今後もFacebookに対して人々が当然抱いているであろう、高い期待に応えるため、努力を重ねていきます」と記している。

Facebookは世界中のオフィス(ヨーロッパのコンテンツはダブリンオフィスの管轄)で、”何千人”という数のモデレーターを雇い、24時間体制で問題のあるコンテンツへの対応にあたっていると言う。しかし20億近いMAU(厳密には2016年末時点で18.6億MAU)を記録しているFacebookのユーザーが、常に無数のコンテンツをアップロードしていることを考えると、モデレーターの数は大海の一滴でしかない。

人間の手で対処するとなると、現状のモデレーターの数では到底追いつかず、人件費を考慮するとFacebookがモデレーターの数を急激に増やすということも考えづらい(Facebook全体の従業員数でさえ1万7000人強しかいない)。

FacebookはMicrosoftのPhotoDNA技術を導入し、アップロードされた画像全てを予め準備された幼児虐待の画像と照らし合わせているが、問題につながる可能性のあるコンテンツを全て見つけるというのは、エンジニアリング力ではなかなか解決しづらい課題だ。というのも、問題のあるコンテンツを全て検出するには、文脈や各コンテンツの内容に応じて個別の判断が必要となるだけでなく、世界各国の法体制や文化的な考え方も考慮しなければいけない可能性があり、作業の自動化が極めて困難なのだ。

CEOのマーク・ザッカーバーグは、この問題に関して最近発表したコメントの中で、「ユーザーの安全を守るための素晴らしい手段のひとつとして」Facebookが「プラットフォーム上で何が起きているかをより速く、より正確に理解できるようなAIを開発中」だと述べている。

さらに彼は、Facebookには「もっとやるべきことがある」と認めたものの、コンテンツ・モデレーションの仕組みを改善するにはまだ「数年」かかると記している。

また、「現在私たちは、テロ組織の採用活動にFacebookを利用しようとしている人を早急に締め出すために、テロ行為に関する報道と実際のプロパガンダを区別できるようなAIの使い方を模索しています。問題を解決するには、報道内容を読んで理解できるようなAIを開発しなければならず、これは技術的に難しいことです。しかし、Facebookは世界中のテロ行為と戦うために、そのようなAIの開発に取り組んでいかなければいけません」という言葉に続き、彼は「個人の安全と自由を守る」という考えが、Facebookコミュニティーの哲学のコアにあることを強調していた(同時にこの考え方が背景となって、Facebookは言論の自由と不快な発言の間でうまくバランスをとることを余儀なくされている)。

究極的には、違法なコンテンツが最低ラインのモデレーションのハードルを上げ、Facebookのモデレーションプロセスを大きく変化させる原動力となっているのかもしれない(たとえ、その国/地域では何が違法な発言で、何が単なる悪口や不快な発言と解釈されるかは、別途議論を要するとしてもだ)。

ただし否定できない事実として、Facebook自身が、大手メディアによって発見されたコンテンツは規約に違反しているため、プラットフォーム上から削除されなければいけないと認めている。これは同時に、それではなぜ最初に通報があったときにそのようなコンテンツを削除しなかったのかという疑問にも繋がってくる。その原因は、モデレーションシステムの障害なのかもしれないし、企業全体の偽善なのかもしれない。

The Timesは、今回の調査結果をロンドン警視庁と国家犯罪対策庁に提出したとしているが、テロ行為や小児性愛関連のコンテンツを削除しなかったことで、Facebookが今後イギリスで刑事告発されるかどうかはまだわかっていない。

さらに同紙は、Facebookのアルゴリズムが問題のあるコンテンツの拡散を促しているということについても、同社を非難している。これはユーザーが特定のグループに加入したり、特定の人と友だちになった際に、問題のあるコンテンツが自動的に表示されるようになっている仕組みのことを指している。

この点に関しては、「おすすめのページ」機能のように、共有の友だちや職歴、学歴、加入しているグループ、インポートされたコンタクト情報や、表には現れないその他のさまざまな要因をもとに、各ユーザーが興味を持つ可能性の高いコンテンツが自動的に表示される機能がFacebookには確かに存在する。

ニュースフィードの機械学習アルゴリズムが偽ニュースを広めていると非難されたときと同じように、ユーザー同士やユーザーが興味を持っている事柄を繋ぎ合わせようとするアルゴリズムの動き自体が、犯罪行為を助長しているのではないかと疑われ始めているようだ。

原文へ

(翻訳:Atsushi Yukutake/ Twitter

Facebook、偽ニュース対策をドイツでも導入予定

fb-fake-news-reporting-germany

Facebookが現在アメリカでテスト中の偽ニュース対策をドイツでも導入しようとしている。昨日公開されたブログポストの中で同社は、「数週間のうちに」ドイツでプラットフォームのアップデートを行うと発表した。

また、先月News FeedのヴァイスプレジデントであるAdam Mosseriは、偽ニュースの拡散を防止する方法についての詳細を説明していた。

これには、アメリカ大統領選中にNews Feedを通じて嘘の情報が広まっていたにも関わらず、Facebookは十分な対策をとらなかったとして、たくさんのコメンテーターから非難を受けていたという背景がある。アメリカの成人の過半数がニュースをソーシャルメディア上で読んでいると示唆するPew Research Centerの2016年の調査を考慮すると、この問題の影響力がわかる。

ようやくMark Zuckerbergも、Facebookには「ただ情報を流すためだけのテクノロジーを開発している企業よりも大きな責任」があると認め、Facebookをメディア企業ではなくテック企業だとする以前の発言を撤回した。

「ユーザーが読み、シェアしているニュース記事を私たちは実際に書いてはいませんが、同時にニュースを広めるだけの存在でもないということを認識しています。つまりFacebookは情報公開のための新しいプラットフォームであり、ユーザーが有意義な会話を交わし、有益な情報を得られる場を提供するにあたって、これまでの企業とは違う責任を負っているのです」と彼は12月15日のステータスアップデート内で述べた

現在アメリカではテスト中で、間もなくドイツに導入予定の偽ニュース対策は、以下の3点にフォーカスしている。

  • ユーザーが偽ニュースを通報しやすいようにする(現状の対策だと、ユーザーは右上の角をクリックすることで怪しいポストを通報できる)
  • 疑いのあるコンテンツに”truth warnings(信頼性に問題あり)”という印をつけ、情報が拡散しにくいようにコンテンツの表示順位を下げる。偽ニュースの特定にあたり、FacebookはPoynterの国際ファクトチェッキング綱領(International Face Checking Code of Principles)に署名した外部のファクトチェッカーと協力している。
  • 「有名ニュースサイトの真似をできないようするとともに、現在のポリシーをもっと積極的に施行することで」広告収入目的で偽ニュースをつくっているスパム業者のインセンティブを減少させる(昨年11月にFacebookとGoogleは、偽ニュースからの広告収入を断ち切るため、両社の広告ネットワークを偽ニュースサイトが使えないようにした)。

なぜアメリカの次にドイツで偽ニュース対策が導入されるのかついては、今年ドイツで行われる総選挙が関係している可能性が高い。

ロシアのトロールが、リアルタイムでメルケル陣営に攻撃を仕掛けてくる様子を見るのはなかなか興味深い。ほとんどが新しい矛先をみつけた親トランプ派のアカウントのようだが。

また最近ドイツ政府は、ヘイトスピーチの拡散という別の問題への対応についても、Facebookを非難していた。

そしてFacebookがドイツで協業するファクトチェッカーとして選んだのが、Correctivだ。同社は(まだ)Poynterの綱領には署名していないように見える一方、FacebookはCorrectiveが「ガイドラインへの署名を進めているところだ」と話していた。

TechCrunchが直接Correctivに確認をとったところ、広報担当者は同社が今まさに署名プロセスの真っ只中にあるものの、「技術的な理由(Poynterは現在ウェブサイトを作り変えている)からプロセスの完了までに時間がかかる」と回答した。さらに、コンテンツが偽ニュースかそうでないかを判断する方法について尋ねると、彼は「私たちはまだこのプロジェクトの初期段階にいるため、具体的な方法についてはまだ分かっていません。しかしすぐに答えがでるのは間違いありません」と語った。またCorrectivがどの国内メディアを信頼しているのかという問いに対して彼は、Spiegel、Süddeztsche Zeitung、FAZの3つを例として挙げていた。

Correctivによって偽ニュースだと判断されたポストには警告ラベルが貼り付けられ、それが偽ニュースの疑いがあるコンテンツだということをユーザーがわかるようにするとFacebookは話す。しかし偽ニュースの可能性がある元記事へのリンクは、警告ラベルが貼られたポスト内に残ってしまう。

さらにFacebookは、偽ニュースの疑いがある情報はNews Feed上での表示順位が下がることになると話す。ユーザーは警告ラベル付きのポストを引き続きシェアすることができる一方で、元記事を”信頼性に問題あり”という印無しでシェアすることはできなくなる。

「ドイツでのテスト結果を通して、今後ツールの改良と拡大を進めていきます」(英語原文はドイツ語の文章をGoogle翻訳で訳したもの)とFacebookはドイツでの偽ニュース対策導入に関するブログポストの中で述べた。

「私たちにとって、Facebook上のポストやニュースが信頼できる情報かどうかというのは重要な点です。偽ニュース対策の導入は喜ばしいニュースである一方、まだまだやるべきことはたくさんあります。今後も問題解決に努め、近日中に他国でも対策を導入していく予定です」ともブログには記載されている。

News Feed上のコンテンツの取り締まりにあたり、Facebookが外部の(具体的にはPoynterの綱領に署名済みの)ファクトチェッカーの専門性に大きく依存した対策を発表した後、Poynterは加盟を希望している企業に対する審査プロセスの見直しをはじめた。Poynterのウェブサイトには、見直し後の手続きが整うまで、新規の加盟は受け付けないと記載されている。

Poynterは「アメリカのファクトチェッカーの中間監査は実施済みで、全ての加盟企業に対してレポートを数週間のうちに提出するよう要請する予定です。Facebookのプログラムのテストは既にはじまっていますが、加盟を希望する企業は私たちにオンラインフォーム経由でその旨を伝えることはできます。しかし最終的な審査システムが出来上がるまで、実際の審査は行いません」とし、Q&A形式の記事でFacebookのテストにおける彼らの役割について説明している。

原文へ

(翻訳:Atsushi Yukutake/ Twitter