米国時間11月18日、Facebook(フェイスブック)はユーザーがプラットフォーム上で表示される内容をより細かくコントロールできるようにするためのテストを実施することを発表した。
このテストは、英語圏のユーザーを対象としたFacebookのアプリで実施される。Facebookのニュースフィードに表示される内容を管理するメニューに「友達と家族」「グループとページ」「有名人」という3つのサブメニューが追加されることになる。テストに参加しているユーザーは、自分の好みに応じて、これらの投稿の割合を「通常」のままにするか「多め」または「少なめ」に変更するかを選択できる。
テストに参加している人は、トピックについても同様に、自分が興味のあるものや見たくないものを指定することができるようになる。Facebookはブログ記事の中で、このテストが世界中の「ごく一部の人々」に提供されるとした上で、今後数週間のうちにテストを徐々に拡大していくとしている。
また、Facebookは、広告主が特定のトピック領域からコンテンツを除外できるツールを拡張し、ブランドが「ニュースと政治」「社会問題」「犯罪と惨事」の隣に表示されないようにすることができるようにする。「広告主が1つまたは複数のトピックを選択すると、その広告は、ニュースフィードで最近それらのトピックに反応した人々には配信されません」と同社はブログ記事で書いている。
Facebookのアルゴリズムは、扇情的なコンテンツや危険な誤報を助長することで有名だ。そのため、Facebookとその新しい親会社であるMeta(メタ)は、プラットフォームを浄化し、その慣行をより透明化するよう、規制当局からの圧力を受けている。議会では、ユーザーが表示内容をコントロールできるようにしたり、アルゴリズムによるコンテンツの不透明さを解消したりするための解決策が検討されているが、Facebookはまだ自主規制の時間が残っていると期待しているようだ。
2021年10月、Facebookの内部告発者であるFrances Haugen(フランシス・ハウゲン)氏は、Facebookの不透明なアルゴリズムが、特に同社が最も精査している市場以外の国では危険であることを指摘した。米国やヨーロッパでも、ニュースフィードのランキングシステムでエンゲージメントを優先するという決定により、分断的なコンテンツや政治的に扇動的な投稿が急増している。
ハウゲン氏は、同じく10月に放送された「60 Minutes」で「Facebookの今日のコンテンツの選び方が招いている結果の1つは、エンゲージメントやリアクションを得られるコンテンツに最適化するようになっているということです。しかし、独自の調査によると、憎悪、分裂、偏向的なコンテンツは、他の感情よりも人々の怒りを刺激しやすいことがわかっています」と語っていた。
画像クレジット:Facebook
[原文へ]
(文:Taylor Hatmaker、翻訳:Akihito Mizukoshi)