YouTubeが投稿前にユーザーに再考を促す機能を導入、悪意的なコメント対策で

YouTube(ユーチューブ)は12月3日、コメントをする人に悪意のある攻撃的な文言を投稿前に再考するよう促す新しい機能を立ち上げると発表した。同社はまた、レビューのために自動的に棚上げされている、自身のチャンネルにある憎悪に満ちたコメントをクリエイターが読むことを余儀なくされる事態を回避できるようにするフィルターのテストを開始する。新機能は、YouTubeプラットフォーム上のコメントの質に関する長年の問題の解決を意図している。この問題についてはクリエイターが何年もの間苦情を言ってきた。

同社はまた、クリエイターに平等な機会を提供することを目的とした調査を間もなく行うとも述べた。調査のデータは、一部のクリエイターがどのようにオンライン上のヘイトとハラスメントの影響をより多く受けているのかを把握するのに役立てられる。

12月3日から提供される新しいコメント機能はYouTubeにとってかなり大きな変化だ。

この機能はユーザーがビデオのコメント欄に何か攻撃的な文言を投稿しようとするときに表示され、「コメントを丁寧なものにして」と警告する。また、コメントが適切なものかどうか確かではない場合はサイトのコミュニティ・ガイドラインを確認するようユーザーに呼びかける。

ポップアップはその後、表示されるスクリーンの中で目立つ選択肢「編集」ボタンをクリックして「編集」することでコメントを訂正するようユーザーを誘導する。

しかしこの機能は実際にはユーザーのコメント投稿を妨げはしない。もしユーザーがそのまま進めたければ、「いずれにせよ投稿する」のオプションをクリックできる。

画像クレジット:YouTube

投稿前にユーザーに言葉や行動を再考する時間を与えるためにバリケードを設けるという考えは、一部のソーシャルメディアプラットフォームが現在とっているものだ。

Instagram(インスタグラム)は昨年、攻撃的なコメントが投稿される前にフラッグを立てる機能を立ち上げた。その後、この機能の適用対象を攻撃的なキャプションにも拡大した。データの提供はなしに、同社はこうした「小突き」がオンラインいじめを減らすのに役立っていると主張した。一方、Twitter(ツイッター)は今年、リアクションをツイートする前にシェアしようとしているツイートにリンク付された記事を読むようユーザーを促し始めた。そしてそれまでのようにはワンクリックでリツイートできないようにした。

こうしたソーシャルメディアプラットフォームに組み込まれた意図的な「一旦停止」は、人々が感情や怒りに任せてコンテンツに反応するのをやめさせ、代わりにユーザーに自身の言動について思慮深くなるよう促すことを意図したものだ。このようなユーザーインターフェースの変更は、基本的な人間心理学を活用している。そして一部のケースでは効果があることを証明するかもしれない。しかしこれはユーザーのエンゲージメントを抑制することにもなり、プラットフォームはそうした微調整の展開にはこれまで消極的だった。

YouTubeの場合、同社のシステムはどういったコンテンツがユーザーによって繰り返しフラッグを立てられてきたのかに基づいて何が攻撃的だと考えられるかを学習する、とTechCrunchに話した。テクノロジーの検知能力は向上し、またシステムそのものがさらに発達するにつれ、このAIで動くシステムは時間とともに向上することができるはずだ。

この機能はまず、英語で利用しているAndroid端末ユーザーに提供される、とGoogleは話す。今後数日かけて展開される。他のプラットフォームでの展開や対応言語についてのタイムフレーム、あるいはそうしたサポートが今後行われるのかなどについて同社は明らかにしなかった。

加えて、YouTubeはチャンネルを管理するのにYouTube Studioを使っているクリエイター向けの機能のテストを開始するとも語った。

クリエイターは、自動的にレビュー待ちになる攻撃的で有害なコメントを隠す新しいフィルターを試すことができるようになる。

YouTube Studioユーザーはいま、不適切なコメントと思われるものを自動モデレーツするよう選ぶことができる。それから、ユーザーは手動でレビューし、承認、隠す、報告することができる。新しいフィルターは不適切なコメントを一時的に棚上げするには役立つが、それでもクリエイターにとってこうしたコメントに完全に対処するするのは往々にして難しい。というのも、オンライン上の荒らし者たちは信じられないほど冷酷だからだ。フィルターを活用すればクリエイターは攻撃的かもしれないコメントを完全に避けることができる。

YouTubeはまた、レビュープロセスを簡単に進められるようモデレーションツールを合理化する、と話す。

こうした変更を加える前、YouTubeはプラットフォーム上のヘイトスピーチや誤情報の問題に十分に取り組んでいないと激しく批判されてきた。YouTubeのルール違反に関する「ストライク」システムでは、ビデオは個々に削除されるが、チャンネルそのものは多くの「ストライク」がない限りそのまま使用される。実際には、YouTubeクリエイターは政府当局者の斬首を求めるなど暴力的になることができ、それでもYouTubeの使用を継続できる(対照的に、そうした同様の脅しはTwitterではアカウント禁止につながる)。

YouTubeは毎日のヘイトスピーチのコメントの削除件数が2019年初めから46倍に増えた、と話す。そして直近の四半期では、ポリシー違反で180万超のチャンネルを禁止し、そのうち5万4000超がヘイトスピーチによるものだった。問題は大きくなっていることを示していて、これが新たな対策につながった。一部の人は、YouTubeがさらに行動を起こす責任があると主張するだろうが、バランスをとるのは難しい。

これとは別の動きとして、YouTubeは間もなくクリエイターに性別や性的指向、人種、民族性についての情報を自発的にYouTubeと共有するよう依頼する新たな調査を始める。収集されたデータを使って、さまざまなコミュニティからのコンテンツが検索、ディスカバリー、収益化システムでいかに扱われているかしっかりと検証することできるとYouTubeは主張する。

また、一部のコミュニティに偏重して影響を及ぼしている可能性のあるヘイトやハラスメント、差別のパターンの有無も調べる。調査ではまた、#YouTubeBlackクリエイターの集いやFanFestといったYouTubeが主宰する他のイニシアチブに参加するオプションをクリエイターに提供する。

この調査は2021年に開始する予定で、クリエイターと公民・人権専門家に諮問されることになっている。集められたデータは広告目的で使用されることはなく、クリエイターはいつでもオプトアウトしたり情報をすべて削除したりすることができるとYouTubeは話している。

カテゴリー:ネットサービス
タグ:YouTubeヘイトスピーチ

画像クレジット:Olly Curtis/Future / Getty Images

原文へ

(翻訳:Mizoguchi