民主党支持者に投票棄権を呼びかける数千のTwitterアカウントを削除、選挙妨害の大海の一滴

Twitterは、来週の選挙で有権者に投票しないよう呼びかけている、何千もの自動的に作られたアカウントを削除した。

同社によると、9月から10月にかけては、最初に民主党のスタッフが気づいた1万近くのアカウントを削除した。

Twitterの公式の声明では、“自動化されたやり方で偽情報を共有する試みに関与している一連のアカウントを、弊社のポリシーへの違反として削除した。われわれはこれを、迅速かつその始原において停止した”、と言っている。しかし削除したアカウントの例示はなく、偽情報の投稿者の名前の発表もない。

それらのアカウントは民主党員を名乗り、都市部など厚い有権者層に、家にとどまり投票しないよう説得を試みている。このニュースを最初に報じたロイターによるとそれは、重要な選挙区で選挙結果を操作するためだ。

民主党の全国委員会のスポークスパーソンは、勤務時間外を理由にコメントを断った。

今回のアカウント削除は大海の一滴であり、Twitterはもっと大きな脅威に直面している。今年の前半には、テロリストのコンテンツを共有し宣伝している120万ものアカウントを削除した。そして5月だけでも、毎週1000万近くの、自動的に送られる悪質なメッセージを削除した。

Twitterの月間アクティブユーザーは7月の決算報告で3億3500万だ。

しかし同社は、同社のルールに違反したり、偽情報や不正なニュースを拡散しているコンテンツをもっと先見的に削除するための策を講じていないとして、議員たちから批判されている。あと数日でアメリカの中間選挙だが、この最新の削除努力は、Twitterが悪質アカウントを自動的に削除しなかった、という懸念をさらに広めるだろう。

偽民主党員に関するロイターの報道を受けてTwitterのサイト健全性担当Yoel Rothがツイートのスレッドで曰く、“ボットの検出に関する公開されている研究は欠陥が多く、その多くはボットを、確実性ではなく確率に基づいて検出する。なぜならば、公開されていない内部的アカウントデータを見られるのは、彼ら研究者ではなくTwitterだけだからだ”。

選挙が目前に迫っていてもTwitterには、偽情報の拡散に関する厳格なポリシーが、Facebookと違ってない。Facebookは最近、不正で人を惑わすような情報で有権者を押さえつけようとするコンテンツを禁じた

対してTwitterは昨年、その“オープンでリアルタイムな性質”が、“あらゆるタイプの偽情報の拡散に対する強力な対抗策だ”、と主張した。しかし研究者たちは、そのやり方に対して批判的だ。先月発表された研究は、2016年の大統領選の間にアクティブだった70万あまりのアカウントが、今もまだ健在であり、毎日100万のツイートをプッシュしていることを見つけた。

今年の選挙に関してTwitterのスポークスパーソンは、“各州の選挙管理職員と国土安全保障省および二大政党の選挙参謀たちが、われわれのポリシーの強力な施行と、われわれのサービスの健全な会話性の保護を支援できるために、オープンなコミュニケーションラインと、直接的で容易な活動拡大経路を確立した”、と言っている。

[原文へ]
(翻訳:iwatani(a.k.a. hiwa

Facebookがファクトチェックを強化。新技術を導入してフェイクニュースと戦う

今日(米国時間6/21)午前、Facebookは同社のファクトチェック(事実検証)プログラムを始めとするフェイクニュース対策の拡大について発表した。2016年の大統領選挙の際にロシアの誤情報キャンペーンに侵入され、1億5000万人のアメリカ人に偽ニュースを配信して以来、人間とアルゴリズムの両面からファクトチェックを強化してきた。

同社は昨年の春にサイト内のニュースのファクトチェックを、超党派国際ファクトチェックネットワークの認証を受けた独立第三者ファクトチェック業者の協力を得て開始した。

ファクトチェックで記事の正確さを評価することによって、Facebookは偽情報とされた記事のニュースフィードのランクを下げて配信を減らすことができる。

本日Facebookは、このプログラムを世界14カ国に拡大し、今年中にさらに多くの国々で展開すると発表した。さらに同社は、ファクトチェックの効果でフェイクニュースの配信が平均80%減少したことも報告した。

同社は写真とビデオのファクトチェックのプログラムを4カ国に拡大したことも発表した。

今年の春以来、Facebookは改ざんされたビデオや写真のファクトチェックも行っている。政治路線に合わせて文脈から外れた画像の使い方を防ぐものだ。これは極めて大きな問題であり、さまざまな場面や場所、時間の画像を組み合わせて使うことで事実を曲げたニュースを拡散するやり方は非常に多く見られる。

一例として、Druge Reportが米国・メキシコ国境に関する記事で使用した少年らが銃を持っている写真がある。その写真は実際には国境とかけはなれたシリアで2012年に撮影されたもので、写真家によって次のキャプションがつけられていた。「シリアのアザーズで4人の若きシリアの少年が、おもちゃの銃を抱えて私のカメラの前でポーズをとっている。私が会った人の殆どがピースサインをしていた。この小さな町は2012年にアザーズの戦いで自由シリア軍に制圧された」。

偽画像や誤解を招く画像で人々の恐怖や嫌悪感や他の集団に対する憎悪を煽ったりする行為は、オンラインで写真やビデオを悪用する典型的方法であり、ファクトチェックすべき対象だ。

Facebookによると、同社は機械学習技術を活用して、すでに暴露された記事の再利用を発見するのに役立てている。そして同社は、ファクトチェックのパートナーと共に、Schema.orgのClaim Reviewを利用する。これはオープンソースのフレームワークで、複数のファクトチェッカーがレーティングをFacebookと共有することで、特に非常時におけるソーシャルネットワークの行動を迅速化する。
同社は、フェイクニュース対策拡大の一環として、機械学習を利用して、金銭目当てのデマを拡散する海外Facebookページのランクを下げる取り組みも行っている。

近く、Facebookと共同で誤情報の量と影響を測定している選挙調査委員会がウェブサイトを立ち上げ、初の提案依頼を発表する予定だ。

Facebookは、選挙と民主主義におけるソーシャルメディアの役割をさらに追求する計画をすでに発表している。この委員会は、プライバシー保護されたデータセットやユーザーがFacebookに貼ったリンクのサンプルをアクセスできるので、どんなコンテンツがシェアされているかを理解するのに役立つとFacebookは説明した。この調査は「当社が説明責任を果たし進捗状況を把握するのに役立つ」と同社は言っている。

今後に注目したい。

[原文へ]

(翻訳:Nob Takahashi / facebook

あなただけではない。米国成人の40%がニュースは誤情報だと思っている

最新の調査結果は、誰もがすでに知っていることを浮き彫りにした。人々は伝統的メディアを以前ほど信じていない。ソーシャルメディアのことはもっと信じていない。そして、共和党支持者と高卒以下の学歴の人たちを含む一部の層が、自分たちの読むものの正確性を最も疑っている。

The Gallup/Knight Foundationは、無作為に集めた米国人1440人を対象に、米国の成人がどれほど誤情報を信じているか、主要インターネット会社は誤情報の拡散防止にどれほど責任を持っているかに関する最新調査結果を公開した。

結果は芳しいものではない。米国人全体では、テレビやラジオ、新聞で見聞きするニュースの39%は人を欺くことを意図していると考えている。ソーシャルメディアを通じて見つけたニュースに関してはさらに悪く考えている。同調査によると、ソーシャルメディアを通じて発見したニュースの2/3が何らかの誤情報であると考えている。

想像できるように、政治的傾向も認識に影響を与えている。共和党員の51%、自称保守主義者の54%が、伝統的メディアを誤情報と認識する傾向が強い。対して民主党員では23%、リベラル派では24%だった。

露出機会も影響を与えている。伝統的ニュースに「大いに」注目していると答えた人たちは、ニュースの37%が誤情報であると答えたのに対して、全国ニュースにほとんどあるいは全く注目していない人たちは、53%が意図的な誤情報であると考えている。

ニュースの効果あるいは効果のなさについての認識に関しては、教育も要因の一つだ。大学院卒資格をもつ人たちは伝統的メディア(テレビ、ラジオ、新聞)の29%が誤情報であると推定した。大学卒は35%、高卒以下の人たちは43%の伝統メディア記事が何らかのレベルの誤情報を含んでいると答えた。

こうした発見に心を痛めているレポーターがいたらは安心されたい。ソーシャルメディアの方がずっとひどい。

Facebookの2015、2016年の選挙介入疑惑のニュースを追っている人には当然のことだが、信頼できる正確な情報を見つける場所としてソーシャルメディアを信頼している人の数は…多くない! 事実、米国成人の65%が眉に唾をつけてソーシャルメディアを読んでいる。

ではこれほど多くの人達が「フェイクニュース」を読んでいる新世界で、いったいわれわれはどうすればよいのか? ソーシャルメディアは伝統的メディアより対処しやすい、と本調査の対象者は考えている。回答者の76%が、インターネット企業は自分のサイトやプラットホームやアプリの記事が誤情報だと断定したら、ユーザーにそのことを警告する義務があると答えた。

事実、過半数をわずかに上回る回答者が、誤情報の識別はソーシャルメディア企業の需要な責務の一つだと言っている。彼らは、「信じるに値する」ニュースをフィードで優先的に流すために、ユーザー調査を利用して質の高いニュースソースを選び、センセーショナリズムや誤情報と戦うという1月にFacebookが発表した方針を思い浮かべたのかもしれない。その行動に勇気づけられた可能性もある。調査によると、70%以上の回答者が、信頼できるニュースソースの記事への注目度を高くするなどの誤情報拡散防止対策について、少なくとも「何らかの効果」が期待できると答えた。

詳細を知りたい読者のために、誤情報に関する研究結果はここで、メディアとソーシャルネットワークの偏向に関する調査結果はここで読むことができる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebookはいかにしてフェイクニュースと戦うべきか:フェイクニュースの発信者から利益を得る方法

(日本語版注:本稿は、Amber Caseによって執筆された。Amber CaseはGeoloqiの元CEOであり、SXSWiとTEDでは基調演説を行った。著書には「Calm Technology: Designing for Billions of Devices and the Internet of Things」(O’Reilly Media)がある。現在はハーバード大学のBerkman Center for Internet and Societyのフェローを務める)

 

Facebookを始めとするプラットフォームでは、今でもSNSに投稿される虚偽的な内容の怪しい「ニュース」の蔓延と戦っている。

先日、Cambridge AnalyticaとFacebookの企業対応の遅れが発覚したことで、現在進行形の、同程度に深刻な問題から人々の目がそらされてしまった。それは、Facebookをしばらく使っていると、かならず怪しスポンサー記事広告が画面に現れるというものだ。とりわけ、重大な事件が発生し、影響力を持つアメリカ国内外のネットワークがリーチを拡大しようと競い合いを始めたときに、とくに多く見られる。簡単なユーザーアンケートによってこの危機に対処するという、先に発表されたFacebookの計画は、どうも信用できない。

その根底にあるのは、経済というよりは思想の問題だとよく言われる。Facebookのようなサイトは広告収益に依存しており、メディア企業はFacebookの広告を利用して自分たちのウェブサイトに人々を導き、そこで利益を得ている。こうした活動的なメディアでは、評判が良いメディアでさえ、そこから配信されるものには、クリックを促すための、本題よりも優先される暗黙の誘因が仕込まれている。

道義心の低い業者は、さらに一歩進んでいる。そう信じたいと願っている人々の感情に的を絞って、嘘とまでは行かないがいい加減な、あるいはまったくのでたらめな記事をでっち上げるのだ。事実、2016年の大統領選挙期間中に流された政治関連の嘘ニュースのほとんどは、ロシアの諜報機関が流したものではなく、政治勢力をゆがめようと偽情報をまき散らす怪しい連中の仕業だった。こうした問題の拡大は、一企業であるFacebookには大きな負担だ。ファクトチェックを行う人財を大量に雇い入れて、自らのプラットフォームで広告として掲載されている怪しい記事をすべて審査するなど、現実的ではない。

Facebookには、もっとよい、確かで、費用対効果が高い方法が使えると私は信じている。Facebookユーザーの集合的な観察力をテコにして、嘘ニュースを炙り出し、それを出した広告主の責任を追及して、そのような手口で利益を得ようという考えを改めさせるのだ。

まずは、ユーザー主体のコンテンツ審査がある。数多くのインターネット・サービスですでに採用され成功している手法だ。たとえば、ドットコム時代のデートサイト「Hot or Not」では、デートサービスを開始した時点で節度が乱れる問題にぶち当たってしまった。そこでHot or Notでは、ユーザーの節度を管理するモデレーターを多く雇用する代わりに、一部のユーザーを選び出して、アップロードした写真が不適切なもの(ポルノやスパムなど)でないかどうかを判断させることにした。

ユーザーはペアになり、写真の可否について、同意に至るまで投票を続ける。大多数のユーザーから不適切と指摘された写真は削除され、その正しい判断を下したユーザーには報償ポイントが贈られる。意見が分かれる写真のみがHot or Notの審査担当者に送られ、最終判断が下される。通常、そこへ送られる写真は、全体のほんのわずかな割合だ。

Facebookは、もっと有効に、こうしたシステムを採り入れられる立場にある。ユーザー数が格段に多く、その人たちの粒度の細かい情報を把握しているからだ。Facebookは、ユーザー層や思想の違いに基づくユーザーの小さなサブセット(数十万人規模)を簡単に選ぶことができ、コンテンツの審査を依頼できる。報酬が得られるならば、ユーザーはモデレーターとして適切に対応してくれるはずだ。

  • 真偽の怪しい記事を含むFacebook広告の問題に対して、この審査方式は次のように進められる。
  • ニュースサイトが記事や動画の広告料金をFacebookに支払う
  • Facebookは料金を第三者預託とする
  • Facebookは、その記事に信頼性があるか否かの判断をボランティアとして行う選ばれたユーザーに広告を表示する
  • その人たちの大半(60パーセント以上)が信頼できると判断すれば、その広告は自動的に配信され、Facebookは広告料を受け取る
  • 60パーセント以上の人が信頼できないと判断したものに関しては、Facebookの内部審査委員会に送られる
  • 審査委員会が信頼できると判断すれば、その広告はFacebookに掲載される審査委員会が信頼できないと判断すれば、その広告は掲載されず、Facebookは広告料金のほとんどを広告主に払い戻し、10〜20パーセントを審査手数料として受け取る

(Photo by Alberto Pezzali/NurPhoto via Getty Images)

私は、嘘ニュースの一貫性のある特定が幅広いユーザー層によって行われ、Facebookの労働時間と人件費は大幅に削減されるものと信じている。さらに、私のこのシステムを導入すれば、企業は政治的な偏見による非難から身を守ることもできる。マーク・ザッカーバーグは正直にこう言えばいい。「アレックス・ジョーンズさん、申し訳ないが、あなたの嘘ニュース広告の掲載を拒否したのは私たちではない。ユーザーたちなんですよ」と。おそらく、さらに重要なこととして、Facebookは人件費を抑えることができるだけでなく、嘘ニュースを排除することで利益を上げられるはずだ。

この戦略は、他のSNSにも採り入れることができる。とくに、TwitterとYouTubeだ。この流行病に本当の意味で打ち勝つには、Googleを代表とする主要なインターネット広告主も、同様の審査方法を採り入れるべきだろう。ユーザーの同意によるフィルター・システムのレイヤーは、個人やグループが自発的に発信し、またはボット・ネットワークによって拡散される怪しいコンテンツにも応用できる。

民主主義的制度における私たちの信頼を損なわせようと必死になる軍勢との激しい戦いの中で、この方法が唯一、私たちに勝ち目を与えてくれるものだと私は確信する。毎週のように、新しい記事の見出しが私たちの想像を超える規模で増えている。私がこの記事を書いた目的は、シリコンバレーが行動を起こさない言い訳としてよく使う言葉に反論するためだ。彼らはこう言う。「スケーラブルじゃない」と。しかしこの場合、スケールこそソーシャル・ネットワークが持つパワーなのだ。それが最大の防御力となる。

[原文へ]

(翻訳:TechCrunch Japan)

Facebook、クローキングを禁止――クローラーを騙して偽サイトを表示する行為を発見すれば追放

「クローキング(cloaking)」といえば何やらSFっぽい術語に聞こえるかもしれないが、スパムサイトが現在ひんぱんに使っている騙しの手口だ。スパマーは検索エンジンやコンテンツのキュレーターに対して健全なサイトを表示する。ところがユーザーが実際にこのサイトを訪問すると広告やマルウェアを満載した別のバージョンに導かれる。

たとえば、あるスパマーがFacebookのレビューチームを欺こうとした場合、Facebookに掲載されるURLや広告のランディングページとして無害なコンテンツのIPが割り振られる。ところがFacebookのレビューチーム以外の一般ユーザーがこのサイトを訪問すると、怪しげなダイエット薬だのFacebookの利用約款に反するポルノの広告だのが表示されるという仕組みだ。

そこで今日(米国時間8/9)、Facebookはクローキングの取締に乗り出した。Facebookの広告プロダクト担当ディレクターのRob Leathernは私のインタビューに答えて、「あるサイトがクローキングを行っていることを発見した場合、われわれはその広告アカウントを無効にしてFacebookから蹴り出す。連中のFacebookページも削除する」と述べた。

クローキングを対象とした監視システムでは人間の専門家と拡張された人工知能の双方が用いられる。ただしスパマーを利するおそれがあるため、クローキングを認定するための具体的なテクニックや基準などは公開されない。

正常なビジネスには一切影響はないという。「クローキングに正当な用途はない。クローキングを行っているのが誰だろうと問題ではない。定義からしてそんなことをやるのは悪いやつ、スパマーに決まっている。つまりどんな方法だろうと誰だろうとクローキングをしていたらわれわれのプラットフォームから追い出す」とLeathernは言う。つまりFacebookはサイトのコンテンツがなんであれ、それとは関わりなくクローキング行為自体を禁止し、違反者をFacebookから排除するということだ。

Facebookのニュースフィードのメカニズムがフェイクニュース、クリック詐欺、スパム、劣悪なコンテンツなどとの戦いを進める一貫として今回の変更が行われた。Facebookに対しては2016年の大統領選挙以来、フェイクニュースを放置しているという批判が高まっていた。スパムサイトへのトラフィックを遮断することはサイトの収入源を断つこととなり、金儲けのためだろうと特定の政治的目的だろうと、偽情報を広めるような悪事を働くグループの活動を抑制するために効果があるはずだ。

BuzzFeedは最近、過激に党派的な政治的ニュースを掲載するサイトに投稿された400万の記事を調査した結果、「このようなサイトのパブリッシャーはFacebookがクリックベイトやフェイクニュースの取締に力を入れ始めたことにきわめて神経質になっており、アルゴリズムの変化を注視してこのソーシャルネットワークから追放されることがないように気を配っている」と結論している。

もちろんクローキングはFacebookだけの問題ではない。そのためFacebookでは他のテクノロジー企業とも協力し、手口に関する情報や対策を交換してクローキングの締め出しに役立てたいと考えている。私の取材に対してFacebookは「〔業界内でのこの協力関係は〕まだ始まったばかりであり、さらに効果的な方法を模索している段階だ。しかしクローキングを、児童ポルノやテロリストのコンテンツと同様、指紋化して実行者を同定することができるようにしたい。 Facebookは膨大なユーザーベースから得られた知見をインターネットの他の組織と共有することで有効な対策を立てることに貢献できると考えている」と述べた。

〔日本版〕クローキングに関してはWikipediaにエントリーがある。

画像:: Bryce Durbin/TechCrunch

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook、リンクプレビューの変更を禁止して偽ニュースの流布を防ぐ

これまでFacebookページオーナーは、投稿したリンクのニュースフィードに表示されるプレビュー画面のタイトルや本文、画像などを自由に変更することができた。そのため偽ニュースを流布する連中は、視聴者をだまして記事を読ませたり、まともなニュース配信会社が扇動的あるいはウソの見出しを投稿したと思わせることができた。しかし同時にこのしくみは、ニュース会社がプレビューのA/Bテストをして読者に合わせてコンテンツを変更したり、ニュース内容の進行に合わせてプレビューを更新することを可能にしていた。

信頼できるニュース提供者に不便をかけることなく偽ニュースと戦うために、FacebookはFacebookページが投稿するリンクのプレビューを編集する機能を無効化する。ただし一部のニュースソースは例外だ。

ページ制作ツールに追加されたリンク所有に関する新しいタブでは、無効化を免除されたページオーナーが、自身で所有するウェブドメインを指定することが可能で、このドメインへのリンクのプレビューは変更が許される。所有リンクの登録は、未承認のプレビュー変更が全面的に削除される2017年9月12日までに承認を受ける必要がある。

これまでFacebookページのリンクプレビューを変更して偽ニュースを作ることが可能だったことを示す一例

Facebookは次のように書いている。「このリンク所有機能は、ニュース、スポーツ、エンターテイメントを始めとするメディア出版事業者にまず提供する。こうしたFacebookページの多くが自社記事へのリンク変更を大量に行っているためだ」。ウェブマスターは、自分のサイトや記事の Open Graphタグを変更し、Open Graphデバッガ―でテストしてコンテンツの標準プレビューを設定することができる。

4月のF8カンファレンスでFacebookは、リンクプレビュー修正APIの変更に言及したが、プレビュー修正にたよってコンテンツを最適化している多くのFacebookページにとっての解決案は持っていなかった。

この変更によってFacebookは、コンテンツを個々に判定することなく偽ニュースの大量配信を防ぐことが可能になるかもしれない。今回の方法や、数多く様々recent アルゴリズム変更を通じて、Facebookは直接「嘘」を監視することをせずに、真実を広められるように努めてきた。この戦略なら政治的志向の一方を他方より優遇して批判を浴びるのを避けることができる。

[原文へ]

(翻訳:Nob Takahashi / facebook

Facebook、外部リンクを開く前に関連記事とファクトチェックを表示(テスト中)

Facebookはユーザーに、記事を読む前にまずその見出しが真実なのかをよく考え、その話題のついての別の視点も見て欲しいと考えている。偽ニュース対策の次のステップとして、今日からFacebookは、通常は外部リンクからニュースフィードに戻った時に表示される「関連記事」ウィジェットの新しいバージョンのテストを開始する。さらにFacebookは、関連記事を表示する際多くの人が話題にしている記事にはサードパーティのファクトチェッカーを併せて表示する。

「これでユーザーは、サードパーティーによるファクトチェックを含め、異なる視点と情報を手に入れやすくなる」とFacebookは言っている。

要するに、ある記事が誇張であったり、偏見が強かったり、まったくのウソかも知れないということを、読んだ後に説得するのではなく、ユーザーにはウソや脚色に洗脳される前に疑いを持ってほしいとFacebookは考えている。この機能は、人々が情報フィルターに囲まれた世界に深入りする前に抜け出すきっかけを与えてくれるかもしれない。

例えば「チョコレートでがんが治る」という無名のブログ記事へのリンクがあると、クリックする前に関連記事ボックスが表示され、New York Timesや医学専門誌の、チョコレートにはがんのリスクを減らす抗酸化能力はあるが治療はしないという説明が現れる。Snopesなどのファクトチェック機構が元記事のウソを暴いていれば、それも関連記事に出てくる。

Facebookは、これは単なるテストであり有効性が実証されなければ一般公開するとは限らないと言っている。また、Facebookページのニュースフィードへのリーチに大きな変化はないとも指摘している。関連記事欄に広告が入ることはない。

Facebookは、関連記事を2013年にスタートし、記事を読んだ直後に関連する興味のありそうなリンクを表示するようになった。しかし、2016年の米国大統領選挙で偽ニュースを容認したと批判されて以来、 第三者ファクトチェッカー の協力を得て、議論のある記事には警告を付加している。

後にMark Zuckerbergは、人道主義宣言の中で、この問題と戦う一つの方法は人々の視野を広げることだと語った。「さまざまな視点を紹介し、自分の考えが全体でどの位置にあるかを知ることは、効果の高い方法だ。いずれユーザーたちは、どの情報源が幅広い視点を提供してコンテンツをもっと自然なかたちで表示するようにするかを見極めるだろう」。

パブリッシャーによっては、関連記事を通じて著名なライバルが読者を奪うことを喜ばないかもしれない。しかし、Facebookが自ら真実の裁定者になることなく偽ニュースの害と戦うためには、話題について幅広い意見を提示することで、突飛な(かつバイラルな)ものに読む価値があるとは限らないことを人々に理解させるのが最善の方法なのかもしれない。

[原文へ]

(翻訳:Nob Takahashi / facebook

Googleの事実チェック機能がグローバルになりGoogle検索にも導入、フェイク・ニュースの包囲網狭まるか

私たちは、フェイク・ニュース(fake news, 偽ニュース)の時代に生きている。単純に嘘のニュースもあれば、一部の人たちが厳しい事実を認めたくないから“フェイク”と呼ぶニュースもある。フェイク・ニュースがお金になったり、政治的な目的に奉仕するかぎり、問題は解決しない。事実チェック(fact-check)をやっている団体はたくさんあるが、意識的に彼らのデータを探さないかぎり、一般消費者は偽ニュースを区別できない。

ここ数か月、Googleはこれらの事実チェックグループと協働して、彼らの記事のリンクをGoogle News(Googleニュース、ただし米国版と英国版)に載せるようにした。でもそれは微々たる努力で、アメリカとイギリスのGoogleニュースだけだった。しかし今日(米国時間4/7)からは、事実チェックがグローバルに提供され、GoogleニュースだけでなくGoogle検索の結果ページにも載るようになった。

Google Newsでは、事実チェックのある記事には“fact check”ラベルが付く。

またGoogle検索(Google Search)で事実を探すなら、PolitiFactやSnopesなどのサイトの情報がページの目立つところに出るので、それらを見ることになるだろう。検索結果のページには、これらのサイトの事実チェックへのリンクと、若干の注記情報、そしてその団体の評価ランク(真・偽・中間)がある。

ときどき、同じ記事でも、グループによって真偽判断が異なる場合がある。この種の判断にはどうしても、あやふやな部分がある。Googleによると、そういう異なる意見はそのままユーザーに提示するそうだ。“異なる結論があっても、そのニュースに関するコンセンサスの程度が分かるという意味で有意義であり、どこがどんな意見かはっきり分かるのも良い”、と同社は今日の発表声明で述べている。“検索結果の中で事実チェックをよく目立つようにすれば、人びとは事実チェックそのものも評価でき、情報に基づいた自分なりの意見を持つようになる、と考えられる”。

そのヘルプページでGoogleは、自分では事実チェックをやらない、と言っている(“事実チェックに非同意なら、それを公開したWebサイトのオーナーにコンタクトしてください”)。自分たちの事実チェックをGoogle検索に載せてもらいたい団体は、Googleのかなり厳しいガイドラインに従わなければならない。Googleとしては、事実チェックのふりをしたフェイク・ニュースを絶対に載せたくないのだ。しかし事実チェックの出元の信頼度はアルゴリズムが決めるから、それを出し抜く方法をいずれ誰かが見つけるだろう。

〔参考記事: Facebookのフェイク・ニュース判断基準(未訳)〕

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

ザッカーバーグ、Facebookはメディアだと認める―ビデオ対談でフェイク・ニュース対策を約束

2016-12-22-zuckerberg-leader

今日(米国時間12/21)、マーク・ザッカーバーグはCOOのシェリル・サンドバーグとライブビデオで対話し、Facebookの役割についての考えを語った。ザッカーバーグはフェイク(捏造)ニュースと戦うチームの努力を全面的にバックアップすることを約束した。Facebookでは当初、フェイク・ニュースに関するザッカーバーグの反応を物足りないと感じた社員もいたようだ。

「Facebookは新しいタイプのプラットフォームだ。われわれは伝統的な意味のテクノロジー企業ではない」とザッカーバーグは先週自分が述べた言葉を繰り返した。これはFacebookがサードパーティーの力を借りて フェイク・ニュースをチェックするできるようプロダクトのアップデートを発表したときに語った言葉だ。しかし今回はさらに一歩進んで、「われわれは伝統的な意味でのメディア企業でもない。われわれは新しいテクノロジーを開発するが、同時にそのテクノロジーの使われ方についても責任を持たねばならないと感じている」と述べた。

これはザッカーバーグがFacebookはやはりある種のメディア企業であることを示唆したことになるだろう。ただし伝統的なメディア企業と異なるのはコンテンツを自ら作成するわけではないという点だ。

Facebookを伝統的なニュースメディアと比較するなら、記事を投稿するユーザーは記者にあたり、どの記事が表示されるか、どのような扱いを受けるかを決めるニュースフィードのアルゴリズムが編集部にあたる。一方で記事を書く基準やコミュニティーのあり方を決めるFacebookのトップも編集部だろう。警察が人を射った記事とかヌードが写っていても歴史的に価値がある写真など議論を呼びそうな記事の扱い方を決め、場合によっては記事に対して掲載を拒否することもある。

Facebookはある面ではテクノロジー企業としてアルゴリズムを決定するが、他方ではメディア企業として編集方針の策定から個別記事の掲載の可否まで編集権を行使しなければならない。

zuckerberg-live

ビデオの後の方で、ザッカーバーグは「2016年を振り返って、社員の真剣さを誇りに思う」と述べているが、フェイク・ニュースという問題が表面化した当初、ザッカーバーグは重視にさほど乗り気でないように見えた。

そのためBuzzFeedの11月14日のSheera Frenkelの記事にあるように、「反乱軍」的な社員のグループが結成された。11月18日になるとザッカーバーグもスタンスを変え、フェイク・ニュース対策に本腰を入れるようになった。ザッカーバーグはフェイク・ニュースをFacebookに対する重大な脅威とみなし、先週になって、いくつかの対策をl実行に移した

ザッカーバーグの発言の関連部分は下記のとおり。 【略】

[原文へ]

(翻訳:滑川海彦@Facebook Google+

Facebook、フェイク記事追放には人力よりも機械学習アルゴリズムを重視する方針

2016-11-15-facebook-human-algorithm-news-scan

Facebookにはフェイク・ニュースを拡散してドナルド・トランプの大統領当選を助けたという非難が殺到している。Gizmodoの記事によるとFacebookは右派メディア多数に対する影響が大きすぎるという理由でフェイク・ニュースを探知するアップデートを延期したという。

Facebookはこの報道を直接に否定し、TechCrunchに対して「記事の主張は真実ではない。われわれは特定の政治的立場への影響を考慮してニュースフィードへの変更を行ったり、延期したりしたことはない」と語った。

TechCrunchはコンテンツの中立性に関してFacebookから直接詳しいアップデートを得る機会があった。

news-feed-machine-screengrab

2015年の1月にFacebookは捏造ニュース記事を追放するためのアップデートを発表した。これはユーザーによって多数の「報告」フラグが付けられた記事の表示ランクを下げるものだった。こうして降格された記事の多くは後で投稿者自身が削除している。このシステムは現在も作動中だ。

その後2016年8月にFacebookはさらにニュースフィードのアップデートを行った。 これは クリックベイトと呼ばれる記事を抑止することを目的としたもので、 Facebookは人間が選んだ典型的なクリックベイト的記事タイトルを資料として機械学習システムに学習させた。機械学習はクリックベイト的タイトルを認識し、そのような記事の表示ランクを自動的に下げることが期待された。

Facebookによると、 今年のクリックベイト対策アップデートで、開発チームは2種類のオプションを用意した。一つは2015年のユーザー報告にもとづくフェイク検出システムで、他方はもっぱら機械学習のアルゴリズムに頼るコンピューター・システムだった。

Facebookによれば、機械学習を利用したクリックベイト探知システムは間違った陽性反応(クリックベイトでないものをクリックベイトと判定すること)もその逆のエラーも人間の場合より少なく良好な実績だったという。そこでFacebookはこのシステムをリリースした。もちろん開発過程でリリースされなかったバージョンをGizmodoが取り上げている可能性はある。Facebookの担当者に対するインタビューでは、「右派の言論の降格が適切であるかどうかはクリックベイト抑止策を実際に選択するにあたって全く考慮されなかった」ということだ。しか政治的バイアスの有無はやはり懸念事項だろう。

Facebookの決断は ユーザーの「報告」に基づく人間のキュレーションより機械学習アルゴリズムに重きを置くというものだった。これは「人間の介入によるバイアスの可能性を減らす」というFacebookの最近の方針にも一致する。ただしこの立場自体がさまざまな問題を含んでいる。

fb-clickbait1

今年に入ってGizmodoに掲載された記事には「Facebookのトレンドをチェックする人間のキュレーターは編集権の一環として主観によって保守派の傾向の記事を排除している」という主張が紹介されていた。Facebookはこの主張を否定したが、同時にキュレーション・チームを解雇し、人力に頼らずアルゴリズムによってトレンドを設定する方向に舵を切った。すると今度はFacebookはフェイク記事をトレンドとして表示したとして非難された。New York Timesの記事は「トレンドの記事選定方法はFacebookの客観性を麻痺させるもの」と激しく攻撃した。

仮に Facebookが保留されているクリックベイト対策版をリリースしていたとするなら、フェイク記事の選択はユーザーからの報告を検討する担当スタッフの主観に依存することになっていただろう。しかしクリックベイトを選び出すにあたって、あからさまなデタラメと巧妙なトリックとの間の線引は非常に難しい。一方、政治活動家やトロルはFacebookの記事報告機能を乱用して、自分たちに不利であれば正確な記事に対しても組織的に報告フラグを立てるという攻撃をしかけるだろう。

この難しい状況はソーシャル・フィードの掲載ランク付けにあたってユーザー・エンゲージメントをベースとしていること必然的な結果だ。国民を2分するような政治的状況における選挙活動やどんな記事であろうと閲覧されれば広告収入が得られるということがフェイク記事の氾濫の大きな動機となっている。

facebook-news-feed-algorithm

誰が真実の審判者となるのか?

Facebookとともに大きなニュースのチャンネルであるTwitter、Googleも前途に難関が予想される。事実によって簡単にそれと見分けられるフェイクは問題の一部に過ぎず、対処も比較的簡単だろう。誇張が極端な記事、あからさまなテクニックを用いた釣り(クリックベイト)記事への対応はもっと難しい。

というのも、Facebookなどのプラットフォームはユーザー・エンゲージメントに比例する報酬システムを用いているため、ニュース媒体にはセンセーショナリズムによってページビューを稼ごうとする動機が存在するかだらだ。政治的立場が明らかな伝統あるニュース媒体の場合、不当な誇張がないよう責任を持つことが求められる。しかしFacebookのようなネットワーク上である目的のために特別に設定され、口コミのパワーだけ頼ろうとするニュースサイトの責任を問うのは難しい。こうした媒体はその場限りのトラフィックと収入を目的としているので、読者が誇張やフェイクにうんざりしても、単にそのサイトを閉鎖して新しい名前で別のサイトを立ち上げればすむ。

誇張ないしフェイク記事を報告する手順をシンプルにする、実否が疑わしい記事にはファクトチェック・サイトへのリンクを追加する、正確性が立証されていないサイトの記事の拡散を保留する、などはそれぞれ有効だろう。しかしフェイク記事がマネタイズに有効だという構造そのものを再検討するのがフェイクの追放にあたって最優先されるべき事項だ。

facebook-news-feed-equation

しかしFacebookのようなネットワークに真実の警察となるよう求めるのは危険過ぎる。どのニュースを削除しろという圧力は現在よりはるかに増え、それに伴って非難のボルテージが上がるのは必然的だ。少なくともテクノロジー・プラットホームがユーザー・エンゲージメントによって記事のランキングを行うならば、仮にフェイク・ニュースの検出で誤りがあったとしても、それは個々のユーザーが誇張やフェイクであるかどうかを判断すればよいことだ。FacebookのCEO、マーク・ザッカーバーグはこの立場を強調し、「われわれ自身が真理の審判者であるかのような立場に立つことにはこの上なく慎重でなければならない」と書いている。

現在 Facebookは難しい立場に置かれている。ユーザーの判断を信頼するとしてフェイク・ニュースが拡散するに任されば非難されるだろう。しかしフェイク・ニュースを発見して削除する立場を取れば、それは検閲と同じでありユーザーから選択の自由を奪うことなるとして非難されるはずだ。世界最大のソーシャル・ネットワークは次の行動を慎重に選ばねばならないだろう。

[原文へ]

(翻訳:滑川海彦@Facebook Google+