ツイッターがデータ分析により問題行動をより早期に特定する新しい違反ツイート報告システムをテスト中

Twitter(ツイッター)は、ユーザーがTwitterのルールに違反していると思われるツイートを報告する方法に、いくつかの変更を加えようとしている。

多くのソーシャルメディア企業と同様に、Twitterはこれまで、ポリシー違反の可能性があるツイートにフラグを立てるために、ユーザーからの報告に頼ってきた。しかし、同社が思い描いている新しいシステムでは、報告された情報は、個々のインシデントを単独評価する方法ではなく、そのユーザーのプラットフォーム上の行動パターンをより詳細に把握できるようになる。

画像クレジット:Twitter

Twitterは現在、米国内の一部のユーザーを対象に新システムのテストを行っているが、2022年からはより広範囲のユーザーにこのシステムを提供する予定だ。このシステムは、Twitterユーザーがコンテンツを報告する際に表示される既存のプロンプトを置き換える。

最も大きな変更点の1つは、ユーザーが報告する際、特定のツイートがTwitterのどのポリシーに違反しているか尋ねるのではなく、ユーザーは情報を提供し、Twitterは自動システムを使って、そのツイートがどのルールに違反しているかを提案することだ。

ツイートを報告したユーザーは、その提案を受け入れることも、正しくないと指摘することもできる。このフィードバックは、Twitterが報告システムにさらに磨きをかけるために利用される。Twitterはこれを、医者に行って自分の症状を説明するのと、自己診断するのとの違いになぞらえている。

担当チームのシニアUXマネージャーであるRena Al-Yassini(レナ・アル・ヤシーニ)氏は次のように述べている。「違反を報告する際にもどかしく複雑なのは、プロセスがTwitterルールで定義されている利用規約違反に基づいているということです。報告される内容の大部分は、Twitterの違反行為という特定の基準を満たしていない、より大きなグレーの領域に属していますが、ユーザーは自分が経験していることを、深刻で、非常に害悪なものとして報告しているのです」。

Twitterは、このようなグレーエリアに属する報告を収集・分析し、プラットフォーム上の問題行動のスナップショットを得たいと考えている。理想的には、ハラスメント、偽情報、ヘイトスピーチ、その他の問題領域の新たな傾向を、それらがすでに定着した後ではなく、浮上してきた時点で特定できるようになる。Twitterは、この変更によって人間のモデレーターを増員する必要があるかどうかについてはコメントを避け、人間によるモデレーションと自動化されたモデレーションを併用して情報を処理するとしている。

また同社は、ユーザーからの報告プロセスを改善し「ループを閉じる」ことで、たとえあるツイートが執行措置に至らなかったとしても、報告プロセスをより有意義なものにしたいと考えている。この新システムは、プラットフォームをより安全にするための調査で判明した、よくある苦情を解決することを目指している。

Twitterのヘルスチームに属する製品管理担当ディレクターのFay Johnson(フェイ・ジョンソン)氏はこう語っている。「このシステムは、まだ把握されていない未知の問題に対処するのに役立ちます。また、まだルールが存在しないような新たな問題が発生した場合、それを知るためのメソッドを確保していきたいと考えています」。

関連記事
ツイッターが悪口や嫌がらせを自動的に除外する「セーフティモード」のテストを開始
ツイッターが安全ポリシーを拡大、本人承諾なしの人物画像投稿を禁止

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Taylor Hatmaker、翻訳:Aya Nakazato)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。