元TikTokコンテンツモデレーター2人が「精神的トラウマ」で提訴

TikTokのコンテンツレビュワー2人が、TikTokから不快な動画を削除するというひどい心痛をともなう作業に従事する中で、適切なサポートが受けられなかったとして同社を提訴した。NPRが最初に報じたこの訴訟は、米3月24日に連邦裁判所に起こされた

原告のAshley Velez(アシュリー・ヴェレス)氏とReece Young(リース・ヤング)氏は、それぞれカナダのハイテク企業Telus International(テルス・インターナショナル)とニューヨークのAtrium(アトリウム)という第三者企業を通じてTikTokのモデレーション作業を請け負っていた。ヴェレス氏とヤング氏は集団訴訟を模索しており、企業の慣行によって悪影響を受けたと主張する他のTikTokコンテンツモデレーターも訴訟に参加できるようになりそうだ。

訴訟では、ヴェレス氏とヤング氏が日常的に従事させられている「異常に危険な活動」の精神的リスクにもかかわらず、TikTokとByteDanceが適切なメンタルヘルスサポートを提供せず、カリフォルニア労働法に違反したと主張している。また、同社はモデレーターに対して、ノルマを達成するために大量の過激なコンテンツをレビューするよう強制し、さらにモデレーターが見たものについて法的な議論ができないよう秘密保持契約(NDA)にサインさせることによって、その害を増幅させたと主張している。

「被告は、アプリにアップロードされたフィルタリングされていない不快で攻撃的なコンテンツと、毎日アプリを利用する何億人もの人々との間のゲートキーパーである何千人もの請負業者に安全な職場を提供しなかった」と訴状にはある。TikTokとByteDanceは、このようなトラウマ的なコンテンツに長期間さらされることによる心理的リスクを知っていたにもかかわらず、労働者が過激なコンテンツに対処するための「適切な改善措置」を事後的に提供する努力をしなかった、と主張している。

訴状では、両原告が勤務日にどのように「児童の性的虐待、レイプ、拷問、残忍な行為、斬首、自殺、殺人」を含む過激で不快なコンテンツのレビューに12時間費やしたかを説明している。また、ヴェレス氏とヤング氏は、生々しいコンテンツ以外にも、ヘイトスピーチや陰謀論に繰り返しさらされ、それが精神衛生に悪影響を及ぼしたと訴えている。TikTokのコンテンツモデレーターであるCandie Frazier(キャンディ・フレイジャー)氏も12月に同様の訴訟を起こしたが、NPRの報道によるとこの訴訟はもはや前進していないようだ。

新しいTikTokの訴訟は、同じ弁護団が2018年にFacebook(フェイスブック)に対して起こした集団訴訟に続くものだ。同社は2年後、日常的にコンテンツの選別を任された結果、メンタルヘルスに悩む1万1000人以上のモデレーターに5200万ドル(約63億円)を支払うことで合意し、和解した。

画像クレジット:TOLGA AKMEN / Contributor / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

TikTokをモデレーターが提訴、生々しい動画の審査業務が精神的トラウマに

Bloombergの報道によると、TikTok(ティックトック)のモデレーターが、生々しい動画による精神的トラウマを理由に、同ソーシャルメディアプラットフォームとその親会社であるByteDance(バイトダンス)を訴えたという。提案されている集団訴訟の中で、モデレーターのCandie Frazier(キャンディー・フレイジャー)氏はこれまで、暴力、学校での銃撃、致命的な転落、さらにはカニバリズムなどが映っている動画をスクリーニングしたと述べている。「(結果)原告は睡眠障害に悩み、眠れた時には恐ろしい悪夢にうなされています」と訴状には記されている。

問題をさらに悪化させているのは、TikTokはモデレーターたちに12時間のシフト制で働くことを要求し、1時間の昼食と15分の休憩を2回取ることしか許さないことだという。訴状によると「膨大な量のコンテンツがあるため、コンテンツモデレーターは、1つの動画につき25秒以内の視聴しか許されず、同時に3~10本の動画を観ることになる」とのこと。

TikTokは、Facebook(フェイスブック)やYouTubeを含む他のソーシャルメディア企業とともに、児童虐待やその他のトラウマになるような画像にモデレーターが対処するためのガイドラインを作成した。その中には、モデレーターのシフトを4時間に制限することや、心理的なサポートを提供することなどが盛り込まれている。しかし、訴訟によると、TikTokはこれらのガイドラインを実施しなかったとされている。

コンテンツモデレーターは、ソーシャルメディアに掲載される生々しい画像やトラウマになるような画像の矢面に立ち、ユーザーがそれらを体験しなくて済むようにする役目を背負っている。大手テック企業にコンテンツモデレーターを提供しているある企業は、この仕事が心的外傷後ストレス障害(PTSD)を引き起こす可能性があることを同意書の中で認めているほどだ。しかし、ソーシャルメディア企業は、心理的な危険性を考慮して十分な報酬を支払っておらず、メンタルヘルスのサポートも十分ではないとして、モデレーターなどから批判を受けている。2018年には、Facebookに対して同様の訴訟が起こされている。

フレイジャー氏は、他のTiktokスクリーナーを代表して集団訴訟を起こすことを希望しており、心理的傷害に対する補償と、モデレーターのための医療費支援基金を設ける裁判所命令を求めている。

編集部注:本稿の初出はEngadget。著者Steve Dent(スティーブ・デント)氏は、Engadgetのアソシエイトエディター。

画像クレジット:Nur Photo / Getty Images

原文へ

(文:Steve Dent、翻訳:Aya Nakazato)