あなたがさまざまなソーシャルネットワークで、ある程度有名な場合、リプライやコメントの中でヘイトスピーチにさらされる可能性がある。フランスのスタートアップBodyguardは最近、有害なコンテンツに触れないように、アプリとサービスの英語版をローンチした。このアプリとサービスは数年前からフランス語で提供されており、すでに5万人のユーザーを獲得している。
「インターネット上のヘイトスピーチを90〜95%の精度で検出し、誤検出をわずか2%に抑える技術を開発しました」と、CEOのCharles Cohen(チャールズ・コーエン)氏は米TechCrunchに対して語っている。
Bodyguardは、誰でも使えるモバイルアプリからスタートした。アプリをダウンロードし、お気に入りのソーシャルネットワークと連携させた後、モデレーション(管理)レベルを選択する。これには侮辱、ボディシェイミング、モラルハラスメント、セクシャルハラスメント、人種差別、ホモフォビア(同性愛嫌悪)など、いくつかのカテゴリーがある。カテゴリーごとに優先度を低くするか、最優先にするかも選択できる。
その後、アプリケーションを再度開く必要はない。Bodyguardはサーバーからの返信やコメントをスキャンし、何が適当かどうかを判断する。そしてたとえばコメントを隠したり、ユーザーをミュートしたり、ブロックしたりすることができる。Instagram(インスタグラム)やTwitter(ツイッター)を開くと、そのような憎むべきコメントが存在しなかったようになる。
アプリは現在、TwitterとYouTube(ユーチューブ)、Instagram、Twitch(ツイッチ)をサポートしている。残念ながらAPIの制限のため、SnapchatとTikTokのコンテンツを処理することはできない。
実際、ほとんどのモデレーションサービスは機械学習やキーワードベースの管理方式に大きく依存している。一方、Bodyguardは異なるアプローチを選択している。具体的にはアルゴリズム的にコメントをクリーンアップし、コメントの内容を文脈に沿って分析しようとする。コメントが自分にとって不快なものなのか、第三者にとって不快なものなのか、ある人物のグループにとって不快なものなのかなどを判断できる。
さらに最近、BodyguardはB2B向けの製品をローンチした。企業はBodyguardを搭載したAPIを使用して、ソーシャルプラットフォーム上や自社アプリ内でリアルタイムにコメントを管理できる。同社は従来のSaaS(Software-as-a-Service)のアプローチを使用して、顧客に課金している。
カテゴリー:ソフトウェア
タグ:Bodyguard、フランス
画像クレジット:Bodyguard
[原文へ]
(翻訳:塚本直樹 / Twitter)