フェイスブックはルール違反したグループメンバーに対してニュースフィード内でランクダウンするペナルティを予定

Facebookは、Facebookグループの管理者がオンラインコミュニティをより良く管理・運営できるように、グループ機能のアップデートを地道に行ってきた。最近では自動化されたモデレーション機能の提供 や白熱している議論に関するアラート機能といったリリースや、グループを抑制することを目的とした新しいポリシーの発表などが挙げられる。そして米国時間10月20日、Facebookは新たな2つの変更を発表した。今後は、ルールに違反したグループメンバーに対して、より厳格な措置を講じるとともに、新たな「Flagged by Facebook」(Facebookによるフラグ済)機能を使って削除プロセスの透明性を高めていく。

関連記事:フェイスブックが自動モデレーション機能などのグループ管理者向け新ツール発表

具体的には、Facebookプラットフォーム上のあらゆる場所で、Facebookのコミュニティ基準に違反したメンバーのすべてのグループコンテンツの、ランクダウンを開始するとしている。つまり、Facebook内で悪質な行為を行う者は、たとえグループそのもののルールやポリシーに違反していなくても、グループで共有したコンテンツの優先度がランクダウンしてしまう可能性があるということだ。

なお「ランクダウン」とは、そうしたメンバーが共有したコンテンツをニュースフィードの下の方に表示することを意味する。別名「ダウンランキング」とも呼ばれるこうした措置は、これまでもFacebookが、ニュースフィードへの掲載を減らしたいクリックベイトやスパム、さらには報道機関の投稿に対して、ペナルティを科すために行ってきたものだ。

また、Facebookは、ユーザーがFacebook全体でより多くの違反行為を積み重ねるにつれて、これらのランクダウンはより厳しくなるとしている。Facebookのアルゴリズムは、個々のユーザーに合わせてニュースフィードのコンテンツをランク付けしているため、このようなランクダウン措置がどの程度機能しているのか、あるいは機能していないのかを今後追跡するのは難しいだろう。

また、Facebookによると、このランクダウン措置は現在、メインのニュースフィードにのみ適用され、グループタブ内の専用フィードには適用されないということだ。

同社は、この変更によって特定のメンバーが他者の目に触れる機会が減ることを期待している。そしてこのルール違反に対するペナルティが、ユーザーの投稿、コメント、グループへの新規メンバーの追加、新しいグループの作成を制限することなどを含む現在のグループペナルティに加わると指摘している。

もう1つの変更点は「Flagged by Facebook」(Facebookによるフラグ済)という新機能の登場だ。

画像クレジット:Facebook

この機能により、グループ管理者は、Facebookによって自動的に削除フラグを立てられたコンテンツを、コミュニティに公開する前に知ることができるようになる。管理者はその後、コンテンツを自ら削除するか、Facebookの判断を受け入れるかどうかのためにコンテンツをレビューすることができる。もしFacebookの判断に異議がある場合には、コンテンツを残すべきだと考える理由について追加のフィードバックを添えてFacebookにレビューを依頼することができる。これは、自動モデレーションエラーを取り除く役に立つだろう。グループ管理者が関与してレビューを要求できるようにすることで、不必要な攻撃や削除が行われる前にメンバーを保護できるようになるだろう。

この機能は、コミュニティ基準に違反する投稿があった場合に「グループ管理者に投稿を報告」することができる従来のオプションに似ているが、管理者がより積極的にプロセスに関与できる方法を提供する点が異なっている。

Facebookにとって残念なことは、このようなシステムは、グループが積極的に管理されている場合にのみ機能する。残念ながらいつでもそうだとは限らない。グループに管理者がいたとしても、その管理者がFacebookをやめたり、グループの管理をやめたりした場合に、後任の管理者やモデレーターを任命しなければ、そのグループは大混乱に陥る可能性がある。特にそのグループ規模が大きければ大きいほど。4万人以上のメンバーを抱える大規模グループのあるグループメンバーは、彼らの管理者が2017年からグループ内で活動していないと語る。メンバーはこのことを知っていて、モデレーションがないことを利用して、時には好き勝手なことを投稿する者もいるという。

これは、Facebookのグループインフラがまだまだ未完成であることを示す一例だ。もし企業がプライベートグループのためのプラットフォームをゼロから構築する場合、たとえばコンテンツの削除方法やルール違反に対するペナルティなどのポリシーや手順が、何年もかけて追加されることはないだろう。それらは基盤となる要素だからだ。それなのに、Facebookは2010年に登場したグループ機能の中でとっくに確立されていなければならなかったプロトコルを今やっと展開しつつあるのだ。

画像クレジット:TechCrunch

原文へ

(文:Sarah Perez、翻訳:sako)

TikTokがコンテンツ管理改善のため欧州に安全諮問委員会を設置

TikTok(ティックトック)は子どもの安全や、若年層のメンタルヘルスと過激主義などを専門とする外部専門家が参加するSafety Advisory Council(安全諮問委員会)を欧州に設置する。そうした分野でのコンテンツモデレーションに役立てるのが狙いだ。

米国時間3月2日に発表されたこの動きは、イタリアのデータ保護当局による2021年1月の介入を受けてのものだ。イタリアでは、TikTokでの失神チャレンジに参加した少女が窒息死したと現地メディアに報じられた事件を受けて、現地当局がTikTokに年齢を確認できていないユーザーをブロックするよう命じた。

関連記事:「失神チャレンジ」による少女死亡事件でTikTokのイタリア当局への対応に注目

TikTokはまたEU消費者保護当局によって取りまとめられた一連の苦情の対象にもなっていた。当局は2021年2月、子どもの安全に関する懸念を含め、EUの消費者保護とプライバシーの規則に関する数多くの違反を詳細に記した2つのレポートを発表している。

「当社は常に既存の機能と規則をレビューし、安全を最優先とするための大胆な新しい対策を考え出そうとしています」とTikTokは説明し、欧州でプラットフォームの安全性を改善する必要性を肯定的にとらえている。

「諮問委員会には欧州中の研究機関や市民社会のリーダーに参加してもらいます。各委員は当社が直面している課題についてそれぞれ異なる、新鮮な見方を示し、当社のコンテンツモデレーション規則と実行についてアドバイスする際にその特定分野の専門性を提供します。今日当社が抱えている課題を解決する前向きな規則を定めるのをサポートするだけでなく、将来TikTokや当社のコミュニティに影響する新たな問題を特定するのにも力を貸してくれます」。

そうしたアドバイザー機関をTikTokが立ち上げるのは今回が初めてではない。同社は1年前、選挙誤情報の拡散と広範なセキュリティの問題をについて米国の議員から厳しい調査を受けることになった後、米国安全諮問委員会を発表した。セキュリティの問題には、中国企業が所有するTikTokアプリが中国政府の命令で検閲を行っているという告発も含まれた。

しかしTikTokの欧州コンテンツモデレーション諮問組織への最初の被任命者の一覧は、同社の欧州でのフォーカスが子どもの安全と若年層のメンタルヘルス、過激主義、ヘイトスピーチに向けられていることを示しており、これは欧州の議員や当局、市民社会からこれまで最も厳しい目が向けられている主要分野であることを反映している。

TikTokは欧州の諮問委員会に9人を指名した(リストはここ)。さしあたっては、いじめ対策、若年層のメンタルヘルス、デジタルペアレンティング、オンラインでの子どもの性的搾取・虐待、過激主義と脱急進化、偏見と差別、ヘイトクライムの対策の外部専門家に参加してもらう。委員会のメンバーは今後さらに増やす、とTikTokは話している(「将来当社をサポートしてもらうために、より多くの国や異なる専門性を持つメンバー」を加えるとしている)。

TikTokはまた、EUでサービスを展開しているプラットフォーム向けに準備中の汎EU規則にも注意を向けている。

EUの議員たちは最近、デジタルサービスプロバイダーが推進して収益を上げているコンテンツに説明責任を持たせることを目的とする法案を提出した。現在は草案で、EUの共同立法過程を経ることになるDigital Services Act(デジタルサービス法)は、さまざまなプラットフォームが明らかに違法なコンテンツ(ヘイトスピーチや子どもの性的搾取など)を削除するのにどのように対応しなければならないかを定める。

EUのデジタルサービス法は若年層のメンタルヘルス問題など、多岐にわたる害に対応するプラットフォームのための特定の規則を定めることを回避した。それとは対照的に、英国はソーシャルメディアを規制するための計画でそうした問題に対処することを提案している(Online Safety bill、オンライン安全性法)。しかし、計画された法制化はさまざまな方法でデジタルサービスをめぐる説明責任を推進するという意図だ。

関連記事:2021年提出予定の英国オンライン危害法案の注意義務違反への罰金は年間売上高10%

例えば法案には、TikTokが含まれるであろう大手プラットフォームに外部研究者がそのサービスの社会的影響を研究できるようデータを提供することを求める、というものが含まれている。耳目を集める(独立した)研究が、注目を引いているサービスのメンタルヘルス影響を調べることになるというのは想像に難くない。なので、プラットフォームのデータは、例えばユーザーに安全な環境を提供できていないなど、サービス事業者にとってマイナスのPR材料と変わり得る。

監視体制が導入される前に、プラットフォームは先回りして良い位置に付けられるよう、欧州の市民社会への接触を高めるためのインセンティブを増やしている。

【更新】TikTokへの最近の消費者・データ保護苦情を取りまとめた欧州の消費者協会であるBEUC(欧州消費者機構)にTikTokの諮問機関についてのコメントを求めたところ、審議官Ursula Pachl(アルスラ・パクル)氏の名前で次のような声明が送られてきた。「どのようにユーザーを、特に子どもをこれまで以上に保護するのか、専門家からアドバイスを受けるようTikTokに促すことしかできません。第一に取り組むべきTikTokの懸念は、同社が欧州と国内の法令に則るためにあらゆる方策を取るようにすべき、ということです」。

カテゴリー:ネットサービス
タグ:TikTokヨーロッパモデレーション

画像クレジット:Chesnot / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

Facebookの監督委員会は4件の削除を無効と決定、コミュニティ基準に対し9項目を勧告

Facebook(フェイスブック)が自主的に設置した監督委員会(FOB)は、投稿の削除などで争われていたFacebookによるモデレーションの審査を始めてからほぼ2カ月後に最初のケースについての決定を公表した。

Facebookが投稿の削除などのモデレーションを行った場合、抗議を呼ぶことが多い。FOB(Facebook監督委員会)はノーベル平和賞受賞者を含む世界の有識者20人で構成され、コンテンツの削除が引き起こす抗議の一部を処理するための評価期間だ。成立までに長い時間がかかったが、モデレーションにともなう悪影響からFacebook自身を守るための危機管理努力の一部でもある。FOBは2020年10月に不服申立ての受付を開始した 。そしてすぐに「結果を出すのが遅い」という批判に直面することとなった。

FOBは米国時間1月28日に最初の決定を発表した。これによると、Facebookが以前に行った投稿削除決定のうち1つだけを維持し、他の4つの決定を無効とした。

FOBによればこの決定は問題となった国・地域から少なくとも1名のメンバーが含まれる男女5名の委員会によって行われた。決定は監督委員会の全員に回付されパネルの所見が検討され、その後、全委員の過半数の承認を得て正式決定となった。

Facebookのモデレーションが維持されたのは「ヘイトスピーチに関するコミュニティ基準」に該当すると認められて「тазики(タジク)」というロシア語を使用した投稿が削除されたケース(2020-003-FB-UA) だ。投稿者はアルメニアと比べてアゼルバイジャンには歴史がないと主張するために「タジク」と呼んだという。

他の4つのケースは「ヘイトスピーチ」「アダルトヌード」「危険な個人および組織」「暴力と扇動」に関するポリシーに関連するものだったが、委員会はFaceookの投稿削除決定4件を覆した(それぞれのケースの概要は、同社のウェブサイトで読むことができる)

これらの決定はFacebookの特定のポリシーに関連したものだが、FOBは全体的ポリシーに関して9項目の勧告を出している。

勧告は以下の通りだ(強調はTechCrunch)。

医療上の誤った情報に関する新しいコミュニティ基準を作成し、既存の基準も統合して明確化する。これには「誤情報(misinformation)」などの重要用語の定義が含まれるべきだ。

「健康上の誤情報」のモデレーションにあたっては、投稿内容がFacebookが設定する「差し迫った身体的危険」のレベルに達していない場合、強制が少ない手段を採用する

健康に関する誤報の拡散防止について透明性を高める。新型コロナウイルス(COVID-19)パンデミックに関してコミュニティ基準がどのように適用されてきたか透明性報告書を公表することを含めて透明性を高める必要がある。この勧告は、監督委員会に寄せられたパブリックコメントに基づいている。

ユーザーに対してFacebookのコミュニティ基準が適用された場合、その理由ならびに適用されたのがどの基準であるかが常に当該ユーザーに対し通知されるようにする(FOBは、審査したケース2件に関連して勧告を出しおり、「コミュニティ基準の適用に関して透明性を欠いたことにより『Facebookはユーザーの見解に反対であるために投稿を削除した』という誤った非難が生じた」と指摘している)。

「危険な個人および組織」のコミュニティ基準の重要用語がどのような場合に適用されるのか例を挙げて説明する必要がある。「賞賛する」「支援する」「代表する」などの用語の意味を明確化すべきだ。またコミュニティ基準では、「危険な個人や組織」に言及した場合、ユーザーが意図を明確にするための方法についてさらに詳しいアドバイスを提供すべきだ。

「危険な個人および組織」のコミュニティ基準では「危険」と指定された組織および個人のリストを公開すべきだ。最低限でも実例を挙げたリストの提供が必要だ

コンテンツのモデレートがアルゴリズムによって自動化されている場合、その事実をユーザーに知らせ、またコンピューターによる決定に不満があるユーザーがそれを人間に訴えることができるようにする。また画像の自動検出フィルターも改善される必要がある。たとえば乳がんの初期症状に対する啓発目的の投稿が誤って「アダルトヌーディティ」フラグを立てられないようにすべきだ。Facebookはまたアルゴリズムによる自動モデレーションの実行に関する透明性報告を改善すべきだ。

Instagramのコミュニティガイドラインを改正する必要がある。乳がんへの意識を高める目的であれば女性の乳首を表示することができることを明記する。またInstagramのコミュニティガイドラインとFacebookのコミュニティ基準との間に矛盾がある場合はFacebookの基準が優先されることを明確にする。

Facebookの削除決定を覆したことに関連してFOBは「7日以内にFacebookがコンテンツの削除された部分を復元することを期待している」とした。

さらに、FOBは「Facebookは当委員会が審査したケースと同一文脈のコンテンツの当否も検討することになる」と述べている。またFacebookに対して「勧告の各項目に対し30日以内に正式に回答しなければならない」と期限を示した。

Facebookが勧告されたポリシー再調整に対してどういう態度をとるか、特に透明性を高めるための諸勧告(AIが自動的にコンテンツを削除した場合にユーザーに通知するという勧告など)関する部分に対する反応は興味深い。Facebookが自主規制機関から勧告に完全に従うか否かが注目される。

Facebookは監督委員会の憲章を決定しメンバーを選定したが、Facebookから「独立している」という点を強調してきた。もちろんFOBの運営経費はFacebookから出ているが、特にこのために設立された財団を通すかたちになっている。

また委員会は「審査決定はFacebookを拘束する」としているが、コミュニティ基準の改善はあくまで勧告であってFacebookを拘束するものではない。

また今回のFOBの審査はFacebookによる投稿削除に絞られている。Facebookがプラットフォーム上で表示する内容選択の当否について委員会は取り上げていない。

影響する要素が多すぎることもあり、FacebookがFacebook監督委員会にどれだけの影響力をおよぼせるのか数値化することは不可能だろう。Facebookが上で紹介した勧告をすべて受け入れるかどうか不明だが、最もありそうなのは「極めて複雑な領域へのFOBの思慮深い 提言を歓迎し将来の改善に当たって十分に考慮していく」といった広報コメントを出すことだ。なんといっても監督委員会を作り、資金を出しているのは他ならぬFacebook自身だ。

つまり、FOBは最高裁というわけではない。

今後数週間でFOBは非常に大きな注目を集めることになるだろう。つまり2021年1月初めにFacebookはDonald Trump(ドナルド・トランプ)前大統領が「ワシントンで暴動を扇動した」と認定してFacebookアカウントを無期限に停止した。FOBはこの件を審査することになる。

監督委員会はこのケースについてのパブリックコメントを「近日中に」受付開始する予定だと述べている。委員会は声明にこう書いている。

米国をはじめ世界中で起きた最近の出来事は、インターネットサービス企業によるモデレーションが人権や表現の自由に与える影響が非常に大きいことを浮き彫りにした。投稿内容に対するモデレーションにおける現在の手法とその諸問題が明らかになった。このためFacebookのような影響力ある企業による決定に対する独立した監督の必要性に注目が高まっている。

とはいえ「独立委員会」は、組織を創設したFacebookから完全に独立しているというわけにはいかない。

【更新】FOBの決定に対する純粋に独立した回答として、Facebookによって選ばれていないメンバーで構成される非公式の「Real Facebook Oversight Board」は、判決は「深い矛盾」で両極端に分かれており、「人権の厄介な前例」を設定していると、厳しい評価を下した。

「Oversight Boardの裁定は、Facebookが隠していた最悪の秘密、つまりモデレーション戦略に明確な基準も一貫した基準もないことを裏付けている」とReal Facebook Oversight Boardは付け加えている。

関連記事
Facebookの最新のフェイク、監督委員会を民主的な独立機関と思うなかれ
Facebookの監督委員会がトランプ前大統領のアカウント停止決定について再審議

カテゴリー:ネットサービス
タグ:Facebookモデレーション

画像クレジット:TechCrunch

原文へ

(文:Natasha Lomas、翻訳:滑川海彦@Facebook