フェイスブックはルール違反したグループメンバーに対してニュースフィード内でランクダウンするペナルティを予定

Facebookは、Facebookグループの管理者がオンラインコミュニティをより良く管理・運営できるように、グループ機能のアップデートを地道に行ってきた。最近では自動化されたモデレーション機能の提供 や白熱している議論に関するアラート機能といったリリースや、グループを抑制することを目的とした新しいポリシーの発表などが挙げられる。そして米国時間10月20日、Facebookは新たな2つの変更を発表した。今後は、ルールに違反したグループメンバーに対して、より厳格な措置を講じるとともに、新たな「Flagged by Facebook」(Facebookによるフラグ済)機能を使って削除プロセスの透明性を高めていく。

関連記事:フェイスブックが自動モデレーション機能などのグループ管理者向け新ツール発表

具体的には、Facebookプラットフォーム上のあらゆる場所で、Facebookのコミュニティ基準に違反したメンバーのすべてのグループコンテンツの、ランクダウンを開始するとしている。つまり、Facebook内で悪質な行為を行う者は、たとえグループそのもののルールやポリシーに違反していなくても、グループで共有したコンテンツの優先度がランクダウンしてしまう可能性があるということだ。

なお「ランクダウン」とは、そうしたメンバーが共有したコンテンツをニュースフィードの下の方に表示することを意味する。別名「ダウンランキング」とも呼ばれるこうした措置は、これまでもFacebookが、ニュースフィードへの掲載を減らしたいクリックベイトやスパム、さらには報道機関の投稿に対して、ペナルティを科すために行ってきたものだ。

また、Facebookは、ユーザーがFacebook全体でより多くの違反行為を積み重ねるにつれて、これらのランクダウンはより厳しくなるとしている。Facebookのアルゴリズムは、個々のユーザーに合わせてニュースフィードのコンテンツをランク付けしているため、このようなランクダウン措置がどの程度機能しているのか、あるいは機能していないのかを今後追跡するのは難しいだろう。

また、Facebookによると、このランクダウン措置は現在、メインのニュースフィードにのみ適用され、グループタブ内の専用フィードには適用されないということだ。

同社は、この変更によって特定のメンバーが他者の目に触れる機会が減ることを期待している。そしてこのルール違反に対するペナルティが、ユーザーの投稿、コメント、グループへの新規メンバーの追加、新しいグループの作成を制限することなどを含む現在のグループペナルティに加わると指摘している。

もう1つの変更点は「Flagged by Facebook」(Facebookによるフラグ済)という新機能の登場だ。

画像クレジット:Facebook

この機能により、グループ管理者は、Facebookによって自動的に削除フラグを立てられたコンテンツを、コミュニティに公開する前に知ることができるようになる。管理者はその後、コンテンツを自ら削除するか、Facebookの判断を受け入れるかどうかのためにコンテンツをレビューすることができる。もしFacebookの判断に異議がある場合には、コンテンツを残すべきだと考える理由について追加のフィードバックを添えてFacebookにレビューを依頼することができる。これは、自動モデレーションエラーを取り除く役に立つだろう。グループ管理者が関与してレビューを要求できるようにすることで、不必要な攻撃や削除が行われる前にメンバーを保護できるようになるだろう。

この機能は、コミュニティ基準に違反する投稿があった場合に「グループ管理者に投稿を報告」することができる従来のオプションに似ているが、管理者がより積極的にプロセスに関与できる方法を提供する点が異なっている。

Facebookにとって残念なことは、このようなシステムは、グループが積極的に管理されている場合にのみ機能する。残念ながらいつでもそうだとは限らない。グループに管理者がいたとしても、その管理者がFacebookをやめたり、グループの管理をやめたりした場合に、後任の管理者やモデレーターを任命しなければ、そのグループは大混乱に陥る可能性がある。特にそのグループ規模が大きければ大きいほど。4万人以上のメンバーを抱える大規模グループのあるグループメンバーは、彼らの管理者が2017年からグループ内で活動していないと語る。メンバーはこのことを知っていて、モデレーションがないことを利用して、時には好き勝手なことを投稿する者もいるという。

これは、Facebookのグループインフラがまだまだ未完成であることを示す一例だ。もし企業がプライベートグループのためのプラットフォームをゼロから構築する場合、たとえばコンテンツの削除方法やルール違反に対するペナルティなどのポリシーや手順が、何年もかけて追加されることはないだろう。それらは基盤となる要素だからだ。それなのに、Facebookは2010年に登場したグループ機能の中でとっくに確立されていなければならなかったプロトコルを今やっと展開しつつあるのだ。

画像クレジット:TechCrunch

原文へ

(文:Sarah Perez、翻訳:sako)

TikTokは第2四半期に規約違反で動画8100万本を削除、アップロード総数の1%に相当

TikTok(ティクトック)は、2021年4月1日から6月30日の間にプラットフォームから削除されたコンテンツに関する透明性のアップデートを発表した。同プラットフォームによると、同期間中にコミュニティガイドラインや利用規約に違反したとして削除された動画は8151万8334本で、投稿された動画全体の1%にも満たない。これはまた、同四半期中に81億本以上の動画がTikTokに投稿されたことを意味し、1日平均約9000万本の動画が投稿されたことになる。

TikTokは7月に、未成年者の安全、成人のヌードや性的行為、暴力的で生々しいコンテンツ、違法行為などに関するポリシーに違反するコンテンツを自動的に削除する技術を導入した。同プラットフォームは、特にこれらのコンテンツに対して自動化を活用している。というのも、同技術の精度が最も高い分野だからだ。また、報告されたコンテンツを精査する安全チームに人間のコンテンツモデレーターを配置している。

自動化された技術が発表されたとき、TikTokは削除の誤判定率(実際にはルールに違反していないコンテンツを削除してしまうこと)は5%だと発表した。この数字は、今日発表された透明性レポートにも反映されていて、削除された8100万本の動画のうち、約460万本が復活した。削除された動画の41.3%を占めるコンテンツ削除理由で最も多かったのは、軽微な安全ガイドライン違反だった。TikTokによると、削除されたコンテンツの94.1%はユーザーが報告する前に特定・削除されているという。

それでも、誤って削除されたコンテンツの5%の中には、失敗したコンテンツモデレーションのトラブル事例がある。例えば、人気の黒人クリエイターZiggi Tyler(ジギー・タイラー)氏は、自分のアカウントのプロフィールに「Black Lives Matter」や「I am a black man」などのフレーズが含まれていると、アプリが「不適切」と判定すると指摘した。一方で「白人至上主義を支持する」などの表現はすぐには検閲されなかった。

YouTube(ユーチューブ)やFacebook(フェイスブック)といったプラットフォームがワクチンの誤情報を含むコンテンツを禁止する動きを見せる中、TikTokのような他の名の知れたソーシャルメディア企業は、同様の問題にどのように取り組むか態度をはっきりさせなければならない。TikTokのコミュニティガイドラインでは、新型コロナウイルス感染症(COVID-19)やワクチン、さらに広範な反ワクチン誤情報について、虚偽または誤解を招くようなコンテンツを禁止している

関連記事:YouTubeが新型コロナに続きワクチン全般の誤情報も禁止対象に

第2四半期にTikTokは新型コロナウイルスに関する誤情報を理由に2万7518本の動画を削除した。TikTokによると、これらの動画の83%はユーザーから報告される前に削除され、87.6%は投稿から24時間以内に削除された。そして69.7%は閲覧回数がゼロだったという。一方、WHO(世界保健機関)やCDC(米疾病管理予防センター)の情報をもとに開発されたTikTokのCOVID-19情報ハブは、全世界で9億2100万回以上閲覧された。

数字に関して言えば、TikTokの月間アクティブユーザー数は9月に10億人を突破し、TikTokが成長し続けていることは間違いない。今回の透明性報告書の数字も、そうした成長を反映している。2020年上半期にTikTokは1億400万本の動画を削除したが、これは投稿された全コンテンツの1%に相当した。この1%の削除率は、本日発表されたデータと一致しているが、本日の報告書にある削除された動画8100万本というのは、2四半期分ではなく1四半期分だ。

関連記事:TikTokの月間アクティブユーザーが10億人に到達

画像クレジット:Costfoto / Barcroft Media / Getty Images

原文へ

(文:Amanda Silberling、翻訳:Nariko Mizoguchi