【コラム】ファクトチェックのスタートアップをの構築で学んだこと

2016年の米大統領選の余波を受けて、筆者はオンライン上のフェイクニュースの惨害に対処できるプロダクトの開発に着手した。最初の仮説は単純だった。偽の主張や疑わしい主張を自動的にハイライトし、それに対して最高品質のコンテクストに基づく事実を提案する半自動のファクトチェックアルゴリズムを構築する。私たちの論旨は、おそらくユートピア的であるとしても、明確であった。テクノロジーの推進力により、人々が真実、事実、統計、データを求めて意思決定を行うようになれば、誇張ではなく、理性と合理性を備えたオンラインの議論を構築することができるはずだ。

5年にわたる努力の末、Factmata(ファクトマタ)は一定の成功を収めた。しかし、この分野が真に成長するためには、経済面から技術面に至るまで、まだ克服しなければならない多くの障壁がある。

鍵となる課題

私たちはすぐに、自動化されたファクトチェックが極めて難しい研究課題であることを認識した。最初の課題は、チェックする事実そのものを定義することであった。次に、特定の主張の正確性を評価するために、最新の事実データベースをどのように構築し、維持するかについて検討した。例えば、よく使われているWikidata(ウィキデータ)の知識ベースは明らかな選択肢であったが、急速に変化する出来事に関する主張をチェックするには更新が遅すぎる側面がある。

また、営利目的のファクトチェック企業であることが障害になっていることも判明した。ほとんどのジャーナリズムやファクトチェックのネットワークは非営利であり、ソーシャルメディアプラットフォームはバイアスの告発を避けるために非営利団体との連携を好む。

これらの要因の枠を超えたところに、何が「良い」かを評価できるビジネスを構築すること自体が本質的に複雑で微妙であるという問題がある。定義については議論が絶えない。例を挙げると、人々が「フェイクニュース」と呼ぶものがしばしば極端な党派間対立であることが判明し、人々が「偽情報」と称するものが実際には反対意見による見解であったりする。

したがって、ビジネスの観点からは、何を「悪い」(有害、不道徳、脅威的または憎悪的)と判断するかということの方がはるかに容易であると私たちは結論づけた。具体的には「グレーエリア」の有害なテキストを検出することにした。これは、プラットフォームから削除すべきかどうかわからないが、追加のコンテクストが必要なコンテンツだ。これを達成するために、コメント、投稿、ニュース記事の有害性を、党派間対立性、論争性、客観性、憎悪性など15のシグナルのレベルで評価するAPIを構築した。

そして、関連する企業の問題についてオンラインで展開されるすべての主張を追跡することに価値があることを認識した。そのため当社のAPIを超えて、ブランドのプロダクト、政府の方針、新型コロナウイルス感染症のワクチンなど、あらゆるトピックで展開する噂や「ナラティブ」を追跡するSaaSプラットフォームを構築した。

複雑に聞こえるかもしれない。実際にそうだからだ。私たちが学んだ最大の教訓の1つは、この領域において100万ドル(約1億1400万円)のシード資金がいかに少ないかということだった。有効性が確認されたヘイトスピーチや虚偽の主張に関するデータを訓練することは通常のラベリング作業とは異なる。それには、主題に関する専門知識と正確な検討が必要であり、いずれも安価なものではない。

実際、複数のブラウザ拡張機能、ウェブサイトのデモ、データラベリングプラットフォーム、ソーシャルニュースコメントプラットフォーム、AI出力のリアルタイムダッシュボードなど、必要としていたツールを構築することは、複数の新しいスタートアップを同時に構築するようなものだった。

さらに事態を複雑にしていたのは、プロダクトと市場の適合性を見つけるのが非常に困難な道のりだったことだ。長年の構築の後、Factmataはブランドの安全性とブランドの評判にシフトした。当社のテクノロジーは、広告インベントリのクリーンアップに目を向けているオンライン広告プラットフォーム、評判管理と最適化を求めているブランド、コンテンツモデレーションを必要としている小規模プラットフォームに提供されている。このビジネスモデルに到達するまでには長い時間がかかったが、2020年ようやく複数の顧客からトライアルや契約の申し込みが毎月寄せられるようになった。2022年半ばまでに経常収益100万ドルを達成するという目標に向かって前進している。

やるべきこと

私たちが辿った道のりは、メディア領域で社会的にインパクトのあるビジネスを構築する上で、多くの障壁があることを示している。バイラル性と注目度がオンライン広告、検索エンジン、ニュースフィードの指標である限り、変化は難しいだろう。また、小規模な企業では、それを単独で行うことは難しい。規制面と財政面の両方の支援が必要になる。

規制当局は、強力な法律の制定に踏み切る必要がある。Facebook(フェイスブック)とTwitter(ツイッター)は大きな前進を遂げたが、オンライン広告システムは大幅に後れを取っており、新興プラットフォームには異なる形での進化を促すインセンティブがない。今のところ、企業が違法ではない発言をプラットフォームから排除するようなインセンティブはない。評判上のダメージやユーザーの離脱を恐れるだけでは十分ではないのだ。言論の自由を最も熱心に支持する向きでさえ、筆者も同様であるが、金銭的なインセンティブや禁止を設ける必要性を認識している。そうすることで、プラットフォームは実際に行動を起こし、有害なコンテンツを減らし、エコシステムの健全性を促進するためにお金を使い始めるようになるだろう。

代替案にはどのようなものがあるだろうか?悪質なコンテンツは常に存在するが、より良質なコンテンツを促進するシステムを作り出すことは可能である。

欠点はあるかもしれないが、大きな役割が期待できるのはアルゴリズムだ。オンラインコンテンツの「善良さ」すなわち品質を自動的に評価するポテンシャルを有している。こうした「品質スコア」は、広告ベースとはまったく異なる、社会に有益なコンテンツのプロモーション(およびその支払い)を行う新しいソーシャルメディアプラットフォームを生み出すための基盤となる可能性を秘めている。

問題のスコープを考えると、これらの新しいスコアリングアルゴリズムを構築するには膨大なリソースが必要だ。最も革新的なスタートアップでさえ、数億ドル(数百億円)とは言わないまでも、数千万ドル(数十億円)の資金調達がなければ厳しいだろう。複数の企業や非営利団体が参加して、ユーザーのニュースフィードに埋め込むことのできる多様なバージョンを提供する必要がある。

政府が支援できる方法はいくつかある。まず「品質」に関するルールを定義する必要があるだろう。この問題を解決しようとしている企業が、独自の方針を打ち出すことは期待できない。

また政府も資金を提供すべきである。政府が資金援助をすることで、これらの企業は達成すべき目標が骨抜きにされるのを回避できる。さらに、企業が自社のテクノロジーを世間の目に触れやすいものにするよう促し、欠陥やバイアスに関する透明性を生み出すことにもつながる。これらのテクノロジーは、無料で利用可能な形で一般向けにリリースされるよう奨励され、最終的には公共の利益のために提供される可能性もある。

最後に、私たちは新興テクノロジーを取り入れていく必要がある。コンテンツモデレーションを効果的かつ持続的に行うために必要な深層テクノロジーに真剣に投資するという点で、プラットフォームは積極的な歩みを見せてきた。広告業界も、4年が経過した頃から、FactmataやGlobal Disinformation Index(グローバル・ディスインフォメーション・インデックス)、Newsguard(ニュースガード)などの新しいブランド安全アルゴリズムの採用を進めている。

当初は懐疑的であったが、筆者は暗号資産とトークンの経済学のポテンシャルについても楽観的に見ている。資金調達の新たな方法を提示し、質の高いファクトチェック型メディアの普及、大規模な配信に貢献することが考えられる。例えば、トークン化されたシステムの「エキスパート」により、ラベリングに多額の先行投資を必要とする企業の手を借りることなく、主張をファクトチェックし、AIコンテンツモデレーションシステムのデータラベリングを効率的に拡張することが可能になるかもしれない。

ファクトベースの世界の技術的な構成要素として、Factmataに掲げた当初のビジョンが実現するかどうかはわからない。しかし、私たちがそれに挑戦したことを誇りに思うとともに、現在進行中の誤報や偽情報との戦いにおいて、他の人々がより健全な方向性を示すことに、私たちの経験が役立つことを期待している。

編集部注:本稿の執筆者Dhruv Ghulati(ドルヴ・グラティ)氏は、オンラインの誤情報に取り組む最初のグローバルスタートアップの1つFactmataの創設者で、自動ファクトチェックを研究する最初の機械学習科学者の1人。London School of EconomicsとUniversity College Londonで経済学とコンピューターサイエンスの学位を取得している。

画像クレジット:sorbetto / Getty Images(Image has been modified)

原文へ

(文:Dhruv Ghulati、翻訳:Dragonfly)

監視委員会、Metaにエチオピアでの暴力を広める役割を検証するよう求める

Facebookが自社の方針決定を見直すために設立したグループである監視委員会は、現地時間12月14日、紛争地エチオピアで起きた誤報の事例を取り上げ、紛争地域でヘイトスピーチや検証されていない情報が自由に広がることを許容することの危険性について警告を発した。

監視委員会は、エチオピア在住のFacebookユーザーがアムハラ語で投稿した、ラヤコボや同国アムハラ州の他の人口密集地での殺人、レイプ、略奪はティグライ人民解放戦線(TPLF)が行っており、ティグライ人の民間人がそれを助けていると主張した記事を検証した。

「このユーザーは、情報源がこれまでの無名の報告書や現場の人々であると主張しているが、その主張を裏付ける状況証拠すら提供していない」と、監視委員会はその評価の中で書いている。

「この投稿に見られるような、ある民族が集団残虐行為に加担していると主張する噂は危険であり、差し迫った暴力のリスクを著しく高めるものです」。

この投稿は当初、Facebookの自動コンテンツ修正ツールによって検出され、プラットフォームのアムハラ語コンテンツ審査チームがヘイトスピーチに対するプラットフォームの規則に違反していると判断し、削除された。この件は監視委員会にエスカレーションされた後、Facebookは自らの決定を覆し、コンテンツを復活させた。

監視委員会は、ヘイトスピーチに関する規則ではなく、暴力と扇動に関するFacebookの規則に違反するとして、投稿を復活させるというFacebookの決定を覆した。その決定の中で、エチオピアのような暴力に満ちた地域で検証不可能な噂が広まることは「ミャンマーで起こったような重大な残虐行為につながる 」と懸念を表明している。

同月には、米国のロヒンギャ難民のグループが、Facebookの参入がロヒンギャ民族の大量虐殺の「重要な変曲点」として機能したとして、Metaを相手に1500億ドル(約17兆円)の集団訴訟を起こしている。ミャンマーでは民族暴力を煽る誤った情報がFacebook上で広く拡散し、しばしば軍関係者によって蒔かれ、同国の少数イスラム教徒を標的とし、排除しようとする民族暴力がエスカレートしたと広く信じられている。

Facebookの内部告発者であるFrances Haugen(フランシス・ホーゲン)氏は、ミャンマーやエチオピアといった国々でアルゴリズムによって増幅された民族暴力と、それに適切に対処しなかったMetaの失敗を、このプラットフォームの最大の危険性の1つとして挙げている。「ミャンマーで見たこと、そして今エチオピアで見ていることは、とても恐ろしい物語の序章に過ぎず、誰もその結末を読みたくありません」と、ホーゲン氏は10月に議会で述べていた。

監視委員会はまた、エチオピアの民族暴力のリスクを悪化させるFacebookとInstagramの役割について、独立した人権評価をするよう命じ、同国の言語でのコンテンツをどの程度抑制できるかを評価するようMetaに指示した。

2021年11月、Metaは、誤報やヘイトスピーチに対するルールの一部の適用範囲を拡大したことを強調し、同国に対して行った同社の安全対策を擁護した。同社はまた、過去2年間に同国での行使能力を改善させ、現在では最も一般的な4言語であるアムハラ語、オロモ語、ソマリ語、ティグリニャ語のコンテンツを審査する能力を備えていると述べている。

原文へ

(文:Taylor Hatmaker、翻訳:Akihito Mizukoshi)

Twitchがボットを使ったハラスメントでユーザー2人を提訴

Twitch(ツイッチ)は米国時間9月6日の週に、同社のプラットフォーム上で自動化されたヘイト・ハラスメントキャンペーンを展開していたとして、2人の人物を提訴した。

往々にして黒人とLGBTQのストリーマーをターゲットにしているハラスメントはTwitchでは「ヘイトレイド」という独特の現象として現れる。Twitchではクリエイターは自身のストリームでオーディエンスを楽しませた後に他のフレンドリーなアカウントへとオーディエンスをよく誘導する。これは「レイド」として知られている慣行だ。ヘイトレイドはこの図式が逆向きになっているもので、嫌がらせの流入を阻止するために自由に使える十分なツールを持っているストリーマーを悩ませるためにボットを送り込む。

ヘイトレイドはTwitchの新しいタグ付けシステムを活用している。このシステムは簡単にコミュニティを構築したり、共感を呼ぶコンテンツを発見できるよう、多くのトランスジェンダーが要望してきたものだ。5月にTwitchは視聴者がストリームを「ジェンダー、性的指向、人種、国籍、能力、メタルヘルスなど」で区分けできるよう、350以上の新しいタグを加えた。嫌がらせを拡散しているアカウントは現在、人種的・性的差別、トランスジェンダーや同性愛に対する差別をストリーマーに送るためにそれらのタグを使っていて、明らかにクリエイターを支援するためのツールの不幸な誤った使用例だ。

訴状でTwitchはヘイトレイドを行う人のことを、プラットフォームの利用規約を回避する新しい方法を行き当たりばったりで試す「かなり強く動機付けられている」悪意ある個人、と表現した。同社は訴状でユーザー2人の名前「CruzzControl」と「CreatineOverdose」を挙げたが、本名を入手することはできなかった。このユーザー2人はオランダとオーストリアを拠点としていて、8月から行為は始まった。CruzzControlだけでヘイトレイドに関わっている3000ものボットアカウントにつながっていた、とTwitchは主張する。

Twitchが最近のハラスメントキャンペーンを影で操る個人の身元を特定することはできないかもしれない一方で、訴訟はTwitchで嫌がらせを送りつけている他のアカウントに対する抑止力となるかもしれない。

「我々はここ数週間で何千というアカウントを特定して禁止措置にしてきましたが、こうした悪意ある人たちは引き続き、当社の改善を回避するためのクリエイティブな方法に懸命に取り組んでいて、やめる気配はみられません」と訴状にはある。「この提訴がこうした攻撃と、他のユーザーを食い物にするツールの背後にいる個人の身元を明るみ出し、当社のコミュニティのメンバーに対する卑劣な攻撃に終止符を打つことにつながることを望みます」。

「この提訴は標的型攻撃を解決するために取られる唯一のアクションでは決してなく、また今回が最後になるわけでもありません」とTwitchの広報担当はTechCrunchに語った。「先回りした感知システムをアップデートしつつ出てくる新しい動きを解決し、また開発に何カ月も費やしてきた先回りの新しいチャンネルレベルの安全ツールを仕上げるために、当社のチームは休むことなく懸命に取り組んできました」。

Twitchの提訴に先立ち、一部のTwitchクリエイターはヘイトレイドの標的となったユーザーのためにソリューションを示さなかったと同社に抗議するために#ADayOffTwitchを組織した。この抗議に参加している人々は、ヘイトレイドからのストリーマー保護のために、クリエイターが流入してくるレイドを拒否したり、新しく作られたアカウントでのチャット参加者をスクリーンから追いしたりできるようにするなど、Twitchに決定的な措置を取ることを要求していた。抗議参加者はまた、1つの電子メールアドレスにリンクできるアカウントの数に制限を設けていないTwitchの規則にも注目した。これは抜け穴となっていて、簡単にボットアカウント軍団をつくって展開できる。

関連記事:動画配信サービスTwitchがプラットフォーム外でのユーザーの悪質な行為にルール適用へ

画像クレジット:Gabby Jones/Bloomberg via Getty Images / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

LinkedInがヘイトスピーチの削除に関するEUの行動規範に正式署名

Microsoft(マイクロソフト)傘下のLinkedIn(リンクトイン)は、欧州連合(EU)における同社のプラットフォームから違法なヘイトスピーチを迅速に排除するため、自主的な行動規範に正式に署名し、より一層の努力を約束した。

欧州委員会は現地時間6月25日の声明で、LinkedInがEUの「オンライン上の違法なヘイトスピーチに対抗するための行動規範」に参加したことを発表した。Didier Reynders(ディディエ・レンデルス)司法委員は、LinkedInの(遅ればせながらの)参加を歓迎し、行動規範は「デジタルサービス法によって確立された枠組みを含め、ヘイトスピーチに対抗するための重要なツールであり、今後もそうあり続けるだろう」と声明で付け加えた。

「オンラインの世界から憎しみがなくなるよう、より多くの企業に参加していただきたいと思います」とレンデルス氏は付け加えた。

LinkedInは、これまでこの自主規範に正式に参加していなかったが、親会社であるMicrosoftを通じて、この取り組みを「支援する」と述べた。

今回、正式に参加することを決定した声明で、LinkedInは次のようにも述べた。

「LinkedInは、人々がつながり、学び、新しい機会を見つけるために訪れる、プロフェッショナルな対話の場です。現在の経済状況や、世界中の求職者や専門家がLinkedInに寄せる信頼の高まりを考えると、我々は、メンバーのために安全な体験を作る責任を負っていると言えます。我々のプラットフォームでヘイトスピーチが許されないことは、あまりにも明白です。LinkedInは、メンバーのキャリア全体において、プロフェッショナルとしてのアイデンティティーの重要な部分を占めています。それは、雇用主や同僚、潜在的なビジネスパートナーからも見られる可能性があります」。

EUでは「違法なヘイトスピーチ」とは、人種差別的または外国人を差別する見解を支持するコンテンツ、または人種、肌の色、宗教、民族的出自などを理由に、ある集団に対する暴力や憎悪を扇動しようとするコンテンツを意味する。

多くの加盟国がこの問題に関する国内法を制定しており、中にはデジタル分野に特化した独自の法律を制定している国もある。つまり、EUの行動規範は、実際のヘイトスピーチに関する法律を補完するものだ。また、法的な拘束力もない。

関連記事:ドイツがオンラインヘイトスピーチを取り締まる法律を厳格化

この取り組みは2016年に始まった。ひと握りの大手テック企業(Facebook、Twitter、YouTube、Microsoft)が、違法なスピーチの排除を加速させることに合意した(あるいは、そうすることで自社のブランド名をPRする機会とした)。

この行動規範が運用されるようになってから、2020年10月に動画共有プラットフォームのTikTok(ティックトック)を含め、他のテック系プラットフォームもいくつか参加した。

しかし、多くのデジタルサービス(特にメッセージングプラットフォーム)はまだ参加していない。そのため、欧州委員会は、より多くのデジタルサービス企業に参加を呼びかけている。

同時に、EUは違法コンテンツの分野でハードなルールを固めようとしている。

2020年、欧州委員会は、既存の電子商取引規則の大幅な更新(別名、デジタルサービスアクト)を提案した。これは、違法コンテンツや違法そのものの商品などの分野において、オンラインに関わる法をオフラインの法的要件と一致させることを目的とした運用上の基本ルールを定めるものだ。これにより、今後数年間で、EUは単なる自主的な行動規範ではなく、ヘイトスピーチの問題に少なくとも高いレベルで取り組む法的枠組みを得ることになる。

また、EUは最近、テロリストコンテンツの削除に関する法律を採択し(2021年4月)、来年からオンラインプラットフォームへの適用を開始する予定だ。

関連記事:EUがプロバイダーによるテロ関連コンテンツの1時間以内の削除を法制化

しかし、興味深いのは、おそらくさらなる議論を呼ぶであろうヘイトスピーチの問題(これは表現の自由に深く関わる可能性がある)について、欧州委員会が今後の法規制と並行して自主規制という選択肢を維持したいと考えていることだ。レインダース氏の発言がそれを裏づけている。

ブリュッセルは、議論の焦点となっているデジタル規制の問題について「アメとムチ」を組み合わせることに価値を見出しているようだ。特に、言論規制という物議を醸す「危険地帯」においてはそうだ。

デジタルサービス法は、標準化された「通知と対応」の手順を盛り込み、デジタルプレイヤーらが違法コンテンツに迅速に対応できるようにしている。一方で、ヘイトスピーチの行動規範を維持することで、主要なプラットフォームが欧州委員会から法律の文言以上のことを約束するよう促される並行した導線が存在することになる。(それにより、議員がより拡張的な言論統制措置を法律に盛り込もうとした場合に、論争を回避することができる)。

EUでは、数年前から「オンラインの偽情報に関する行動規範」を自主的に制定している。また、LinkedInの広報担当者は、親会社であるMicrosoftを通じて、LinkedInがその開始時から署名していたことを確認した。

議会は最近、この規範を強化する計画を発表した。矛盾した表現だが「より拘束力のあるもの」にするためだ。

欧州委員会は6月25日、ヘイトスピーチの行動規範に関して追加の声明を発表し、2020年6月に行われた5回目のモニタリング演習で、企業は平均して、報告されたコンテンツの90%を24時間以内に審査し、違法なヘイトスピーチであると考えられるコンテンツの71%を削除したと述べた。

欧州委員会は、この結果を歓迎すると同時に、署名企業に対し、特にユーザーへのフィードバックや、報告と削除に関する透明性の確保に向けた取り組みを強化するよう求めた。

欧州委員会はまた、偽情報に関する行動規範に署名したプラットフォームに対し、プラットフォーム上で氾濫している「フェイクニュース」に対処するための、より一層の努力を繰り返し求めている。公衆衛生に関しては、欧州委員会が2020年「新型コロナインフォデミック」と呼んだものが含まれる。

新型コロナウイルスの問題は、デジタル領域を効果的に規制する方法という複雑な問題に議員らの心を集中させることに寄与し、EUの多くの取り組みを加速させたことは間違いない。

カテゴリー:ネットサービス
タグ:LinkedInヘイトスピーチEU

画像クレジット:Ali Balikci / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

Facebook、AIによる誤報やヘイトスピーチの検出に関する最新情報を公表

誤報対策に取り組むFacebookの戦いが終わりを告げることはないだろうが、だからといって同社は諦めたわけではない。それどころが、自動化されたシステムに絶え間なく改善を加えているおかげで、ヘイトスピーチや誤報をある程度は減少させることができている。CTOのMike Schroepfer(マイク・シュロープファー)氏は米国時間11月20日、一連の記事の中でこれら改善点の最新情報を公表した

今回の変更は、スパムや誤解を招くニュース、人種差別的中傷などを未然に防ぐために同社が利用しているAI関連システムに対するものだ。Facebookのコンテンツモデレーターさえもが目にする前の時点で阻止してしまうというものである。

改善点として、Facebookがヘイトスピーチなどを検出するために採用している言語分析システムが挙げられている。シュロープファー氏の説明によると、これは同社が細心の注意を払うべき分野の1つだという。広告スペースで誤検知(何か詐欺っぽいというような)された場合のリスクは低いが、ヘイトスピーチと誤解されて記事を削除される場合の誤検知は深刻な問題だ。そのため決断を下すときにはしっかりした確信を持つことが重要である。

残念ながら、ヘイトスピーチやそれに近いコンテンツは非常に微妙なものである。議論の余地なく人種差別主義者と思われるようなものでさえ、たった一言の言葉で意味が反転したり、ひっくり返ったりすることがある。言語の複雑さと多様性を反映した機械学習システムを構築するというのは、想像を絶するほどの計算資源を必要とするタスクである。

「linear」+「transformer」からの造語であるLinformerは、1日に何十億もの投稿をスキャンすることで膨れ上がるリソースコストを管理するためにFacebookが作った新しいツールだ。正確に計算するのではなく、トランスフォーマーベースの言語モデルのセントラル・アテンション・メカニズムを概算するものだが、性能におけるトレードオフはほとんどない(この意味をすべて理解できる読者がいたら拍手を送りたい)。

これは言語理解の向上につながるが、計算コストはわずかに高くなるだけで、例えば、最初のウェーブに悪いモデルを使用して、疑わしいアイテムに対してのみ高価なモデルを実行する必要はない。

同社の研究者らは、画像内のテキスト、画像、テキストの相互作用を理解するという、やや形のはっきりしない問題にも取り組んでいる。テレビやウェブサイトの偽スクリーンショットやミームなど、投稿によく見られるものはコンピューターにとって驚くほど理解しにくいものだが、膨大な情報源となっている。また、視覚的な詳細がほとんど同じでも、たった1つ言葉が変更されただけで意味を完全に反転させてしまうこともある。

外観がわずかに異なる、同じ誤情報の2つのケースの例。左側を認識したシステムが右側を認識した。画像クレジット:Facebook

 

Facebookは無限大の種類の誤情報を検出できるようになってきているとシュロープファー氏は説明する。まだ困難さを極めてはいるものの、例えばCOVID-19の誤報画像、マスクが癌を引き起こすといったような偽ニュース報道でそれを掲載している人々が、たとえデザインを操作したり変えたりしても検出することができ、そういった意味で大きな進歩を遂げているという。

これらのモデルの展開と維持も複雑で、オフラインでのプロトタイピング、デプロイメント、オンラインテスト、そしてそのフィードバックを新しいプロトタイプに反映させるという作業を絶えず繰り返す必要がある。レインフォースメント・インテグリティ・オプティマイザー(RIO)には新しいアプローチを採用しており、ライブコンテンツに対する新しいモデルの有効性を監視し、その情報を週間レポートなどではなくトレーニングシステムに常に伝えている。

Facebookが成功していると言えるかどうかを判断するのは容易ではない。しかし、同社が発表した統計によると、ヘイトスピーチや誤報が削除される割合は増加しており、前四半期に比べるとヘイトスピーチや暴力的な画像、児童搾取コンテンツが何百万件も多く削除されているという朗報が伝えられている。

Facebookがどのようにして成功や失敗をより正確に追跡することができるのかについてシュロープファー氏に尋ねてみた。数字の増加は、削除のためのメカニズムが改善されたか、あるいは単にそのコンテンツが同じ速度で大量に削除されたためかもしれないからだ。

「ベースラインは常に変化するため、これらすべてのメトリックを同時に確認する必要があります。長い目で見たとき、念頭におくべきものはまん延率です」と同氏は説明し、あるタイプのコンテンツが先制して削除されたかどうかではなく、実際にユーザーが遭遇する頻度について言及した。「誰も見ることのないコンテンツを1000個削除しても、あまり有効とはいえません。バイラルになろうとしていたコンテンツを1つ削除すれば、それは大成功です」。

Facebookはヘイトスピーチのまん延率について四半期ごとの「コミュニティ標準実施報告書」に含め、次のように定義している。

まん延率とは、当社のプラットフォーム上で違反コンテンツを目にする回数の割合を推定したものです。ヘイトスピーチのまん延率は、Facebook上で見られているコンテンツのサンプルを選択し、その中でどれだけのコンテンツが当社のヘイトスピーチポリシーに違反しているかをラベル付けすることで算出します。ヘイトスピーチは言語や文化的背景に大きく関係するので、私たちはこれらの代表的なサンプルを異なる言語や地域のレビュアーに送っています。

この新しい統計の最初の測定値は次のようなものだ。

2020年7月から2020年9月までは0.10%から0.11%となりました。つまり、Facebookのコンテンツ閲覧数1万件のうち、10から11件がヘイトスピーチだったということです。

この数字が間違っていなければ、現在Facebook上にある1000のコンテンツのうち1つがヘイトスピーチに該当することを意味し、これは少し確率的に高いように感じられる(Facebookにこの数字をもう少し明確にするよう求めた)。

この数字の完全性を問う必要もあるだろう。エチオピアのような戦争で荒廃した地域からの報告によると、ヘイトスピーチがまん延しているにも関わらず十分に検出や報告がなされず、取り除かれていないことが多いと伝えられている。一方、Facebook上の白人至上主義者や民族主義者などによる爆発的なコンテンツは適切に記録されている。

シュロープファー氏は、自身の役割は物事の「実装」側にあり、ソーシャルネットワークの巨大なオペレーションにおけるポリシーやスタッフの配置、その他の重要な部分は多かれ少なかれ彼の管轄外であることを強調している。率直に言って、世界で最も影響力のある企業に属するCTOが言う言葉としてはガッカリなものである。この問題に深刻に取り組んでいるはずなのだから尚更だ。しかし、同氏とそのチームが上記のような技術的な救済策を追求することにそれほど熱心でなかったなら、Facebookは不意打ちで撃墜されたというより、ヘイトとフェイクで完全に埋もれてしまっているのではないかとも思う。

関連記事:YouTubeが投稿前にユーザーに再考を促す機能を導入、悪意的なコメント対策で

カテゴリー:人工知能・AI
タグ:Facebook ヘイトスピーチ
[原文へ]

(翻訳:Dragonfly)

YouTubeが投稿前にユーザーに再考を促す機能を導入、悪意的なコメント対策で

YouTube(ユーチューブ)は12月3日、コメントをする人に悪意のある攻撃的な文言を投稿前に再考するよう促す新しい機能を立ち上げると発表した。同社はまた、レビューのために自動的に棚上げされている、自身のチャンネルにある憎悪に満ちたコメントをクリエイターが読むことを余儀なくされる事態を回避できるようにするフィルターのテストを開始する。新機能は、YouTubeプラットフォーム上のコメントの質に関する長年の問題の解決を意図している。この問題についてはクリエイターが何年もの間苦情を言ってきた。

同社はまた、クリエイターに平等な機会を提供することを目的とした調査を間もなく行うとも述べた。調査のデータは、一部のクリエイターがどのようにオンライン上のヘイトとハラスメントの影響をより多く受けているのかを把握するのに役立てられる。

12月3日から提供される新しいコメント機能はYouTubeにとってかなり大きな変化だ。

この機能はユーザーがビデオのコメント欄に何か攻撃的な文言を投稿しようとするときに表示され、「コメントを丁寧なものにして」と警告する。また、コメントが適切なものかどうか確かではない場合はサイトのコミュニティ・ガイドラインを確認するようユーザーに呼びかける。

ポップアップはその後、表示されるスクリーンの中で目立つ選択肢「編集」ボタンをクリックして「編集」することでコメントを訂正するようユーザーを誘導する。

しかしこの機能は実際にはユーザーのコメント投稿を妨げはしない。もしユーザーがそのまま進めたければ、「いずれにせよ投稿する」のオプションをクリックできる。

画像クレジット:YouTube

投稿前にユーザーに言葉や行動を再考する時間を与えるためにバリケードを設けるという考えは、一部のソーシャルメディアプラットフォームが現在とっているものだ。

Instagram(インスタグラム)は昨年、攻撃的なコメントが投稿される前にフラッグを立てる機能を立ち上げた。その後、この機能の適用対象を攻撃的なキャプションにも拡大した。データの提供はなしに、同社はこうした「小突き」がオンラインいじめを減らすのに役立っていると主張した。一方、Twitter(ツイッター)は今年、リアクションをツイートする前にシェアしようとしているツイートにリンク付された記事を読むようユーザーを促し始めた。そしてそれまでのようにはワンクリックでリツイートできないようにした。

こうしたソーシャルメディアプラットフォームに組み込まれた意図的な「一旦停止」は、人々が感情や怒りに任せてコンテンツに反応するのをやめさせ、代わりにユーザーに自身の言動について思慮深くなるよう促すことを意図したものだ。このようなユーザーインターフェースの変更は、基本的な人間心理学を活用している。そして一部のケースでは効果があることを証明するかもしれない。しかしこれはユーザーのエンゲージメントを抑制することにもなり、プラットフォームはそうした微調整の展開にはこれまで消極的だった。

YouTubeの場合、同社のシステムはどういったコンテンツがユーザーによって繰り返しフラッグを立てられてきたのかに基づいて何が攻撃的だと考えられるかを学習する、とTechCrunchに話した。テクノロジーの検知能力は向上し、またシステムそのものがさらに発達するにつれ、このAIで動くシステムは時間とともに向上することができるはずだ。

この機能はまず、英語で利用しているAndroid端末ユーザーに提供される、とGoogleは話す。今後数日かけて展開される。他のプラットフォームでの展開や対応言語についてのタイムフレーム、あるいはそうしたサポートが今後行われるのかなどについて同社は明らかにしなかった。

加えて、YouTubeはチャンネルを管理するのにYouTube Studioを使っているクリエイター向けの機能のテストを開始するとも語った。

クリエイターは、自動的にレビュー待ちになる攻撃的で有害なコメントを隠す新しいフィルターを試すことができるようになる。

YouTube Studioユーザーはいま、不適切なコメントと思われるものを自動モデレーツするよう選ぶことができる。それから、ユーザーは手動でレビューし、承認、隠す、報告することができる。新しいフィルターは不適切なコメントを一時的に棚上げするには役立つが、それでもクリエイターにとってこうしたコメントに完全に対処するするのは往々にして難しい。というのも、オンライン上の荒らし者たちは信じられないほど冷酷だからだ。フィルターを活用すればクリエイターは攻撃的かもしれないコメントを完全に避けることができる。

YouTubeはまた、レビュープロセスを簡単に進められるようモデレーションツールを合理化する、と話す。

こうした変更を加える前、YouTubeはプラットフォーム上のヘイトスピーチや誤情報の問題に十分に取り組んでいないと激しく批判されてきた。YouTubeのルール違反に関する「ストライク」システムでは、ビデオは個々に削除されるが、チャンネルそのものは多くの「ストライク」がない限りそのまま使用される。実際には、YouTubeクリエイターは政府当局者の斬首を求めるなど暴力的になることができ、それでもYouTubeの使用を継続できる(対照的に、そうした同様の脅しはTwitterではアカウント禁止につながる)。

YouTubeは毎日のヘイトスピーチのコメントの削除件数が2019年初めから46倍に増えた、と話す。そして直近の四半期では、ポリシー違反で180万超のチャンネルを禁止し、そのうち5万4000超がヘイトスピーチによるものだった。問題は大きくなっていることを示していて、これが新たな対策につながった。一部の人は、YouTubeがさらに行動を起こす責任があると主張するだろうが、バランスをとるのは難しい。

これとは別の動きとして、YouTubeは間もなくクリエイターに性別や性的指向、人種、民族性についての情報を自発的にYouTubeと共有するよう依頼する新たな調査を始める。収集されたデータを使って、さまざまなコミュニティからのコンテンツが検索、ディスカバリー、収益化システムでいかに扱われているかしっかりと検証することできるとYouTubeは主張する。

また、一部のコミュニティに偏重して影響を及ぼしている可能性のあるヘイトやハラスメント、差別のパターンの有無も調べる。調査ではまた、#YouTubeBlackクリエイターの集いやFanFestといったYouTubeが主宰する他のイニシアチブに参加するオプションをクリエイターに提供する。

この調査は2021年に開始する予定で、クリエイターと公民・人権専門家に諮問されることになっている。集められたデータは広告目的で使用されることはなく、クリエイターはいつでもオプトアウトしたり情報をすべて削除したりすることができるとYouTubeは話している。

カテゴリー:ネットサービス
タグ:YouTubeヘイトスピーチ

画像クレジット:Olly Curtis/Future / Getty Images

原文へ

(翻訳:Mizoguchi

Facebookが方針転換してホロコースト否定コンテンツを禁止へ

Facebook(フェイスブック)は米国時間10月12日に、同サイトにおけるホロコースト否定コンテンツに対する方針を大きく転換した。長年にわたり、フェイスブックは表現の自由を優先して著しく攻撃的なコンテンツを削除せず、伝統的出版社の果たしてきた責任から距離をおいている(Vox記事)ことを非難されてきた。10月12日に同社は立場を翻し、「ホロコーストを否定あるいは歪曲するいかなるコンテンツも禁止する」ようヘイトスピーチポリシーを変更した。

この決定は、オンラインヘイトスピーチ攻撃が増え続けている中、プラットフォーム全体でヘイトスピーチの蔓延と戦うフェイスブックの新たな取組みの一環であると同社は語った。

「私たちは250を超える白人至上主義団体を排除し、ポリシーを改定して武装集団とQAnon(キューアノン)に対処しました」とフェイスブックはコンテンツ担当副社長であるMonika Bickert(モニカ・ビッカート)氏が書いた発表文で説明した。「また当社は、世界中でその他の個人および団体も定期的に追放しているほか、2020年第2四半期には2250万件のヘイトスピーチを削除しました。最近当社は一年間にわたる外部専門家との協議を経て、世界やその主要な組織を動かしているとするユダヤ民族の団結力に対する反ユダヤ姿勢の投稿を禁止しました」と同社は述べている。

さらにフェイスブックは、この分野における同社の不作為が世界に与えた影響を如実に表す不穏な統計データを公表した。18~39歳の米国成人を対象とした最近の調査によると、1/4近くがホロコーストは作り話であるか、誇張されているか、あるいはよくわからないと答えたとフェイスブックは語った。

フェイスブックは、ホロコーストの研究と追悼に取り組むYad Vashem(ヤド・ヴァシェム)などの組織が、ホロコースト教育は反ユダヤとの戦いの鍵であると強調していることも指摘した。

憶えている人も多いだろうが、かつてフェイスブックのCEOであるMark Zuckerberg(マーク・ザッカーバーグ)氏は、フェイスブックがプラットフォームに投稿された内容に介入すべきかどうか議論の一例としてホロコースト否定を取り上げた。2018年、Recodeのインタビューとその関連記事でザッカーバーグ氏は、ホロコースト否定は間違った考えであり個人的に「極めて不快」だと語ったが、フェイスブックはそのコンテンツを削除すべきではない、なぜなら「誤っている人は存在するものだから」と語った。

しかしこの問題とその賛否はフェイスブックにとって新しいものではなかった。ホロコースト否定コンテンツはこの会社にとって長年の問題であり、フェイスブックの表明する立場に反対している社員も少なくない(未訳記事)。2009年5月には、言論の自由の保護を優先し、それは否定的結果よりも重要であると主張した(未訳記事)ことさえあった。

その後フェイスブックは自社プラットフォーム上でホロコースト否定を許すだけでなく、積極的に推進した。2020年の英国拠点の反過激主義組織、Institute for Strategic Dialogue(ISD/戦略的対話研究所)の調査(The Guardian記事)でフェイスブックを検索したところ、フェイスブック上のホロコースト否定ページが候補に表示された。推奨されたリンクの中にはホロコースト修正主義者や否定主義者の書籍を販売している出版社も入っていた。

今夏、ADLおよびNAACP(全米黒人地位向上協会)やColor of Changeなどの人権擁護団体が1カ月にわたるフェイスブック広告ボイコット運動を行い、フェイスブックがヘイトスピーチ対策に力を入れ、何らかの措置をとることを促した。取組みには1000社以上の広告主が賛同(The New York Times記事)し、フェイスブックに方針転換のプレッシャーを与えた。

その後フェイスブックは、フェイスブックおよび初めてInstagramでも反ユダヤ陰謀論を全面的に禁止(Recode記事)し、一部に反ユダヤ的要素を含むQAnonの排除を開始した。しかし、ホロコースト否定の禁止までには至らなかった。

そして10月12日、ザッカーバーグ氏はフェイスブックの公開投稿で次のように述べている。

私は表現の自由の保護、およびホロコーストの恐怖を矮小化あるいは否定することによる危害という両者間の緊張に苦慮してきました。反ユダヤ暴力の増加を示すデータを見てきたことで私自身の考えが変化するとともに、ヘイトスピーチに対する当社のポリシーも変わっています。許される表現と許されないの正しい境界線を引くことは、ひと筋縄ではいきませんが、現在の世界の状況を踏まえると、これが適切なバランスだと私は信じています。

フェイスブックは、今回の決定によってプラットフォームからこの種のコンテンツが直ちに一掃されるわけではないといっている。

「こうしたポリシーの施行は一夜にしてなせるものではありません。ポリシーに反するコンテンツにはさまざまな種類があり、施行にあたって当社のレビュー担当者とシステムを訓練するための時間がしばらく必要です」とフェイスブックは説明した。

関連記事:Facebookは全プラットフォームで米国の陰謀論グループQAnonを締め出しへ

カテゴリー:パブリック / ダイバーシティー
タグ:Facebookホロコーストヘイトスピーチ

画像クレジット:Jakub Porzycki/NurPhoto/ Getty Images

原文へ

(翻訳:Nob Takahashi / facebook