バルセロナで開催されているACM FAT 2020カンファレンスにおいて、1月27日、YouTubeのプラットフォームは、ユーザーを極右思想に晒して過激化させる役割を果たしているとの見解が示された。
スイス連邦工学大学ローザンヌ校とブラジルのミナス・ジェライス連邦大学の研究者たちが行った調査で、極右コンテンツの中でも中庸なものにコメントするなどしたユーザーが、過激な極右コンテンツに誘導される証拠が見つかった。
2018年3月、社会学者のZeynep Tufekci(ゼイネップ・フィクサイ)氏は、YouTubeは過激化エンジンであるという、今では広く知られるようになった論文をニューヨーク・タイムズに寄稿した。その続報として、ジャーナリストのKevin Roose(ケビン・ルース)氏は、Caleb Cain(カレブ・ケイン)氏の個人的な体験をもとに説得力のある記事を掲載した。彼はYouTubeの「オルタナ右翼の巣穴」にはまったと書いている。しかし、カンファレンスで論文を発表した研究者のManoel Horta Ribeiro(マノエル・ホルタ・リベイロ)氏は、そうした逸話を実証する審査可能な証拠を握れるかどうかを確かめたかったと話している。
「Auditing radicalization pathways on YouTube」(YouTubeにおける過激化過程の審査)と題された彼らの論文には、一部の右傾化したYouTubeコミュニティーが、過激な右翼思想への入口となっていることの証拠の痕跡が、コメントや再生回数などに残っていないかを大規模に調査した結果が、詳しく解説されている。
それによると彼らは、動画をメディア、新右翼、インテレクチャル・ダークウェブ(IDW)、オルタナ右翼の4つのタイプに大きく分類し、349のチャンネルに投稿された33万925本の動画を分析。そしてユーザーのコメントを、過激化を「十分に」代表するものとした(彼らのデータセットには7200万件のコメントが含まれている)。
この発見は、新右翼やIDWのYouTubeコンテンツにコメントを書き始めたユーザーが、徐々に過激な極右コンテンツにコメントを書くようになるというパイプライン効果が、長年にわたって存在していたことを示唆している。
「メディア」コンテンツを視ている人と、オルタナ右翼のコンテンツを視ている人が重複する割合は非常に低い。
「コメントを書いたユーザーの相当数が、初めは温和な内容のコンテンツにのみコメントしていたが、過激なコンテンツにコメントするよう計画的に移行させられた」と論文は訴えている。「この発見が、YouTube上でユーザーをこまで、そして今でも過激化させている活動の重大な証拠を示しており、こうしたコミュニティーの活動の分析結果が[中略]IDWや新右翼のコンテンツが人気になっていることと過激なコンテンツとが抱き合わせになっているとの説と矛盾しないことを私たちは突き止めた。[中略]こうした移動現象は数年間にわたって一環しているのみならず、その絶対数においても深刻であることを私たちは示した」
研究者たちは、YouTubeで「新右翼」の政治学を視ていたユーザーを、もっとも過激な極右思想にエンゲージさせるよう導くメカニズムそのものの解明には至らなかったが、「おすすめ」データへのアクセスを制限するなど、最前線で試みられている重要な対策をいくつか紹介している。だがこの研究では、アカウントのパーソナライゼーション(YouTubeのおすすめに影響する可能性がある)については考慮されていない。
しかし、パーソナライゼーションをいじらなくても、「大きなメディアチャンネルの中にある過激なコンテンツにユーザーを導く道筋を探し出すことは可能だ」と彼らは言っている。
カンファレンスの論文発表後に行われた質疑応答で、Horta Ribeiro(ホルタ・リベリオ)氏は、研究が確認した過激化効果が、外部のサイトと関わりなくYouTube内部で起きていることの、つまり当人たちは最初から過激だった(そのため過激思想に強い関心を抱いた)という理由は排除して、YouTubeはそのものが活発な過激化パイプラインだという考え方に基づく証拠には、何が挙げられるかを尋ねられた。
YouTubeが責められるべきだとは言い切れないと、彼は認めている。しかし、それらのコミュニティーのホストとしての責任はYouTubeもあるとも指摘した。
「私たちは、ユーザーが過激化する証拠の痕跡を確かに発見しています。ではなぜ、YouTubeは責任ある対応をしないのかと疑問に思われるでしょう。その答えはおそらく、それらのコミュニティーの多くがYouTubeの中に存在していて、さらに、YouTubeで多くのコンテンツを公開しているからとなります。だからこそ、YouTubeは非常に深く関わっているのです」とリベリオ氏は答えた。
「そのため過激化はYouTubeの、あるいはおすすめのシステムのせいだと非難し、同プラットフォームに責任を負わせるのは大変に難しいことを、私もある程度は理解しています。何か別のものが、過激化を引き起こしていることもあり得ます。そうした意味において、私たちの分析結果は、ユーザーが温和なチャンネルから過激なチャンネルに移っていくプロセスが存在することを示しています。そして、過激なコンテンツと無縁だった人たちが、それに関わるようになっていることから、確かな証拠も存在します。とはいえ、明確な因果関係を示して、YouTubeは責任を取れと責めることはできません」
我々はこの研究に関するコメントをYouTubeに求めたが、回答はない。
YouTubeは近年、ヘイトスピーチ、ターゲットを絞った嫌がらせ、過激化のリスクに対する政治または一般からの圧力が増す中、特定の極右コンテンツと過激主義者のコンテンツへの対応を厳しくしている。
また同社は、悪意ある陰謀論や偽科学など、一般的なコンテンツのガイドラインから外れた、有害と思しき不愉快な特定タイプのコンテンツに対して、アルゴリズムによる増幅を低減させる実験も行っている。
[原文へ]
(翻訳:金井哲夫)