近々Facebookは、通常ならポリシーに反するような、暴力やヌード等を含むどぎついコンテンツでも、ニュース価値や重要性の高いものであれば掲載するようになる。
Facebookのグローバルポリシー担当副社長、Joel Kaplanが次のように書いている。「当社の意向は、安全を脅したり、未成年者や見たくないユーザーに生々しい画像を見せたりことなく、今より多くの画像や記事の投稿を許可することにある」
今回の変更に先立ち、ベトナム戦争で裸の子供を撮った「ナパーム弾の少女」という著名な写真をFacebookが検閲し、一時的に公開中止したことへの批判があった。当初、ノルウェーのジャーナリストがその写真をシェアし、後に所属する新聞社もシェアした。メディアや世論の激しい抗議を受けたFacebookは、最終的に決定を覆し、シェアされた写真を復活させた。
さらにFacebookは、フィランド・キャスティルが警察官に射たれて死亡する直前のビデオも、一時的に公開を中止した。当時Facebookは、このニュース性の高いビデオの消失を「技術的問題」だと説明した。しかし、先月Facebookのニュースフィード担当副社長、Adam Mosseriは、「当社の基準に違反するコンテンツを自動的に検出する試みを行っている。カテゴリー分けを間違えることもある」と語った。つまり、日常的なサーバーのダウンではなく、検閲アルゴリズムが誤って適用されたことをものがたっている。
そしてつい昨夜のこと、Facebookはスウェーデンの乳がん防止ビデオを検閲、公開中止し、後に謝罪して再公開した。7月にFacebookは検閲ポリシーの詳細をTechCrunchに語ったが、適用方法を明確に定義する必要があることは明らかであり、近く対応するようだ。
最近Facebookは、ユーザーの見たいもの見たくないものについてフィードバックを受けた。「今後数週間のうちに、ユーザーにとってニュース価値があるもの、意味のあるもの、あるいは公共の利益にとって重要な記事は公開できるようにしていく ― たとえ他の面で当社の基準に反するものであっても」とKaplanは言った。
考えられる方法のひとつが、未成年者に有害なものを年齢制限コンテンツにすることだ。成人に関して、TechCrunchがFacebookに提案したのは、どぎついコンテンツに関する 全画面警告を表示し、ユーザーがクリックしないと見えないようにすることだ。これを支援するために、コンテンツが「どぎついがニュース価値がある」ことを示すフラグを追加することを提案した。そうすることでユーザーは企業に対して、コンテンツには警告が必要だが削除すべきではないことを伝えられる。
Facebookは、自分たちがメディア会社でないことを再三訴えてきた。たとえ視聴者に害を与えるコンテンツであっても、検閲する編集責任は持たなくてよい、という意味だ。Facebookは、ユーザーの欲しがるものを与えるテクノロジープラットフォームとして運用していると主張している。
TechCrunch Disruptの壇上でMosseriはこう言った。「われわれはテクノロジー企業だと考えている。メディア界で重要な役割を果たしていることは知っている」しかし「われわれの責任は、あらゆるアイデアのためのプラットフォームであり続けることだ。人々がどんなアイデアについて読むべきかを決定する立場にはない」。
しかし、今日基準を緩和したことで、Facebookはその声明に真っ向から矛盾する行動をとったことになる。何にニュース価値があるか、たとえ他のユーザーに有害であっても人々が読むべきかどうかを判定しようとしている。これによってFacebookは、制約を受けない全く自由なコンテンツサイトとして運用するか、融通の利かない検閲ポリシーを適用するつもりでない限り、メディア企業としての責任を受け入れざるを得ないことは明らかだ。
[原文へ]
(翻訳:Nob Takahashi / facebook)