Twitterが「暴力を称える内容」とトランプ大統領のミネアポリスに関するツイートに再び警告

米国時間5月26日に郵送投票に関する誤解を招くようなDonald Trump(ドナルド・トランプ)大統領のツイートに要事実確認の警告を付けた後もTwitter(ツイッター)は好調だ。さらにトランプ大統領の別のツイートにも警告を付けた。今回は、大統領のツイートが自動表示されないようにした。暴力を称える内容がルール違反だと表示し、ただし公益性があるとしてツイートを閲覧できるようにもしている。

トランプ大統領のツイートがどのように表示されるかは、以下のスクリーンショットにある通りだ。


トランプ大統領が書き込んだものに「公益性があるかもしれない」の表示が取って変わっている。つまり大統領の攻撃的なツイートを閲覧するには、ユーザーはクリックするというアクションしなければならない。

この措置により、大統領のツイートへの反応も限定される。つまり、ユーザーができるのはコメント付きでのリツイートだけだ。「いいね」の意思表示やリプライ、称賛するようなリツイートは不可となっている。

Twitterの警告ではさらに、なぜ大統領のツイートを完全に削除しなかったのかも説明している。これは、ポリシーの中にある「公益性がある」の要素が関わるところだ。同社はこう記している。「ツイートを閲覧できるようにしておくことが公益性があると判断した」

インターネット企業がユーザーのコンテンツに法的責任を負わないという法律の運用見直しを目的とした大統領令に署名した5月28日の大統領の対応を、Twitterは意に介していないようだ。結果的に、保守派の意見を意図的に抑制しているとソーシャルメディアプラットフォームを批判してきたトランプ大統領を不愉快にさせた。ただ実際のところ、広告プラットフォームのアルゴリズムは憤りに満ちたコンテンツや意見を拡散させていて、保守的な意見を広めているという多くの証拠がある。

問題となった最新の投稿で、トランプ大統領は黒人男性のGeorge Floyd(ジョージ・フロイド)氏が白人の警官に殺された事件を発端にミネアポリスで起こっている抗議暴動についてツイートした。その中で大統領は、「軍」を派遣すると脅す前に「暴徒たちはジョージ・フロイドの名誉を傷つけている」と主張した。

「いかなる困難があろうとも、我々はコントロールする。略奪が始まれば、銃撃が始まる。以上!」と大統領は付け加えた。市民に対して軍事力を行使するという露骨な脅しだ。

Twitterはここ数年、コンテンツに関する規則を破る世界のリーダーたちにいかに対処するかという問題と格闘してきた。メインとなるのがトランプ大統領だ。彼はライバルの政治家から嫌っているジャーナリスト、従順でない企業のリーダー、彼を立腹させる俳優に至るまで、あらゆる種のターゲットをいじめるために、また時に乱暴的に脅すために日頃からTwitterを頻繁に使っている。

大統領に選ばれてからは、北朝鮮やイランに対し、ツイートいう形で軍事的な脅しをかけるなど、Twitterのグローバルプラットフォームを外交政策の武器としても使ってきた。

例えば2018年にトランプ大統領は北朝鮮の金正恩(キム・ジョンウン)朝鮮労働党委員長に核のボタンが用意されていることをチラつかせた(以下のツイート参照)。北朝鮮の独裁者に直接会って「恋に落ちる」前のことだ。

Twitterは過去においては攻撃的なトランプ大統領のツイートを精査しないという防衛策をとってきた。だが米国の大統領として、狂気じみた、悪質で、危険なツイートの内容は本質的には報道価値がある。

最近になって同社は干渉できるよう規則を設け、2019年夏には「Twitter上での公益性あるコンテンツ」を定義した。

その後(ほぼ1年前の2019年6月)Twitterは規則違反になるようなツイートに「公益性あるコンテンツ」の案内を表示することもあると注意を促した。攻撃的なツイートを削除するのではなく、「追加の説明と透明性を提供するため」だ。

そして今、Twitterはトランプ大統領のツイートに警告表示を適用し始めた。26日に大統領選に関するツイートに「要事実確認」の警告を付けたのが最初で、その後にトランプ大統領が暴力を称えるツイートに「公益性あるコンテンツ」の警告を付けた。

ついにTwitterはリアルタイムで大統領の周りに停止線を引く方向に向かっているようだ。

ミネアポリスでの略奪に対し軍に銃撃を命じるという大統領の脅しに警告を付けた理由について、Twitterは次のように説明した。「歴史的背景や暴力とのつながりから、このツイートは暴力の美化に関する我々のポリシーに反している。また今日のような暴動を連鎖で引き起こす可能性もある」。

「我々は人々が暴力行為へと焚き付けられることがないよう、このような措置をとったた。しかし、現在進行形の社会にとって重大な事案に関するツイートを閲覧できるようにしておくことは重要であり、削除せずにTwitter上でこのツイートを閲覧できるようにしている」。

Twitterはまた、暴力を称えるツイートに関するポリシーのリンクも貼っている。そこにははっきりと太文字で「個人や集団に対し暴力で脅してはならない」書かれている

2019年6月、Twitterは「暴力的な行い」の警告について発表した際に、ツイートが「公益性がある」かどうかの判断はアルゴリズム促進の影響は受けないとし、次のように説明した。「言論の自由、責任、そうしたツイートによって引き起こされ得る悪影響の抑制、それらのバランスを保てるよう、ツイートがアルゴリズムで評価されることがないよう取り組みを進める」。

しかし、ようやくトランプ大統領にルールを適用するという報道価値のあるTwitterの判断は、アルゴリズムを適用しない余地が十分にあることを保証するものだ。

筆者はトランプ大統領の最新のツイートに対して公益性があるかチェックをかけるという判断についてTwitterに質問しているが、この記事執筆時点で返事はない。

27日夜にTwitterのCEOで共同創業者のJack Dorsey(ジャック・ドーシー)氏は、トランプ大統領の郵送投票に関して誤解を与えるツイートに「要事実確認」の警告を表示した理由を一連のツイートで説明した。

「これは我々を『真偽の決定者』にするものではない」とドーシー氏は書いている。「相対する考えを点と点でつなげ、人々が自分で判断できるように議論されている情報を示すことが我々の意図するところだ。我々が取った措置の理由を人々が確認できるようにするには透明性が不可欠だ」。

ドーシー氏の発言は、Facebook(フェイスブック)のCEO、Mark Zuckerberg(マーク・ザッカーバーグ)氏のFox Newsへのコメントに言及してのものだ。ドーシー氏は、プラットフォーム監視におけるFacebookがいうところの「中立性」と、政治広告のような問題と距離を置いているTwitterのポリシーを比較することを意図した(Twitterは政治広告を不可としている)。

「Facebookは、オンラインでの人々の全発言の真偽を決定する存在であるべきでないと固く信じている」とザッカーバーグ氏は保守的なメディアであるFox Newsに語った。「民間企業、特にプラットフォーム企業はそうしたことを行う立場にあるべきではない」。

ドーシー氏が、論点すり替えの議論だとしてTwitterのポリシーに対するフェイスブックの攻撃をはね返すのに、ザッカーバーグ氏が用いたフレーズ「真偽の決定者」をそのまま使っているのは注目に値する。

アップデート1 トランプ大統領の反応:Twitterの措置に対し、トランプ政権はホワイトハウスの公式Twitterアカウントから、トランプ大統領の攻撃的なツイートの文言を引用する形でリツイートしている。大統領の暴力的な脅しの再拡散だ。

トランプ大統領はまた、5月29日朝に発した一連のツイートの中で、通信品位法230条を無効にすることでソーシャルメディアを規制するという脅しを繰り返した。その中で大統領は、Twitterが「中国や過激な左翼民主党が発する嘘やプロパガンダ」を無視していると非難した。

アップデート2 もぐらたたき:Twitterは、ホワイトハウスの公式Twitterアカウントが投稿した、トランプ大統領のツイートの文言を引用する形のツイートに警告を付けている。

画像クレジット:Chip Somodevilla

[原文へ]

(翻訳:Mizoguchi

TwitterのCEOがトランプ大統領のツイートに警告を付けた理由を説明

Twitter(ツイッター)が5月26日にトランプ大統領の2つのツイートに「要事実確認」の警告を表示した後、ドナルド・トランプ大統領と彼のお気に入りのソーシャルメディアプラットフォームの間で緊張が高まっている。

27日夜、TwitterのCEOであるJack Dorsey(ジャック・ドーシー)氏は自社プラットフォームで同社の対応を説明した。彼は滅多に政治的闘争をしない。

声明の中でドーシー氏は、Facebook(フェイスブック)のプラットフォーム取締りに関する取り憑かれたような中立的アプローチとTwitterの現在の状況を比較する、Mark Zuckerberg(マーク・ザッカーバーグ)氏がFox News向けに出したコメントに言及した。ザッカーバーグ氏は「Facebookはオンラインでの人々の全発言の真偽を決定する存在であるべきではないと固く信じている」と述べた。「民間企業、特にプラットフォーム企業はそうしたことを行う立場にあるべきではない」

ドーシー氏はまた、Twitterの幹部を責めるトランプ氏のオンラインサポーターや代理人たちを非難した。トランプ氏のTwitterに対する憤りに感化されて活発になった批判者たちに「Twitter従業員をどうか巻き込まないでほしい」と求めた。

ドーシー氏の個人アカウントと同社のセーフティーアカウントで「トランプ氏の2つのツイートに要事実確認のリンクを貼るという措置は、それらが『投票用紙を受け取って選挙に参加するために何をすべきか、有権者を混乱させる』可能性があったからだ」とはっきり説明した。

同社が警告を表示したツイートの中で(見えないようにしたり削除したりはしていない)、トランプ大統領はカリフォルニア州知事が「誰であろうが、どうしてそこにいるのかに関係なく州に住んでいる何百万というあらゆる人に投票用紙を送ろうとしている」と誤った内容を記述している。実際にはカリフォルニア州は登録された有権者だけに投票用紙を送る。大統領はまた、郵送投票の信用性について恐ろしいほど偽りの主張を展開した。郵送投票のシステムはすでに不在票という形で米国中で活用されている。

説明とともに、ドーシー氏はTwitterが「civic integrity policy」と呼ぶ、プラットフォーム上での特定の種の「操るような言動」を禁止するルールへのリンクも案内した。ルールによると、投票方法や投票するために必要な書類、選挙の日時に関してミスリードするような情報は禁止されている。ポリシーに照らすと、「『選挙は仕組まれている』という根拠のない主張のような」選挙に関する漠然とした主張は禁止されていない。

Twitterの介入アクションとしては、ユーザーにツイート削除を強制する、経歴に誤情報を表示した場合のアカウント凍結、「深刻なポリシー違反、または度重なるポリシー違反」で永久追放というものがある。

26日のTwitterの対応は、トランプ大統領が根拠のない陰謀説を推進する一連のツイートに続くものとなったというタイミングは偶然の一致だろう。大統領はMSNBCのホストで「政治ライバルのJoe Scarborough(ジョー・スカーボロ)氏が24年ほど前の議会インターンの死に関わっている」との陰謀説を主張していた。

27日夜、ホワイトハウス報道官のKayleigh McEnany(ケイリー・マッケナニー)氏は「大統領が『ソーシャルメディアに関する』大統領令に間もなく署名するだろう」と記者団に述べた。ショッキングではあるが非現実的なTwitterへの報復だと広く受け止められている。大統領令は、現代のインターネットを支えるのに必須の規定である通信品位法230条を脅かし、FTC(連邦取引委員会)とFCC(連邦通信委員会)を通じてソーシャルメディア企業の力を削ごうとする、ホワイトハウスが以前展開した取り組みの焼き直しとなりそうだ。

トランプ大統領は8000万人超のフォロワーに対して「Stay Tuned!!!」(乞うご期待)とツイートし、今後の報復をほのめかした。

画像クレジット: Cole Burston/Bloomberg via Getty Images / Getty Images

関連記事:Twitterのファクトチェック警告に怒り心頭のトランプ大統領、SNSを規制または閉鎖すると息巻く

[原文へ]

(翻訳:Mizoguchi

AI vs ウソと差別的発言、コロナ禍のいまFacebookが抱える大問題とは

FacebookのAIツールは、いまFacebookで吹き荒れている差別的発言や偽情報とユーザーの間に立つモデレーターの役割を一手に引き受けている。同社の研究者は、ミームを装った新型コロナウイルス感染症関連の偽情報や差別発言を特定することで、こうした発言に対する水際対策を講じるための機能をいくつか考え出した。

今は新型コロナウイルス関連の偽情報を検出して排除することが優先事項であることは間違いない。Facebookやその他のソーシャルメディアは、通常の憶測や議論だけでなく、組織的に不和の種をまいたりエセ科学を広めたりするなどの、悪意ある妨害の温床となっているからだ。

「新型コロナウイルス感染症の影響で、サイト全体でユーザーの行動が大きく変わってきている。我々が危険だと感じる偽情報が急増している」とFacebookのMike Schroepfer(マイク・シュローファー)CTOは報道陣の取材に答えた。

Facebookは世界中で数十社のファクトチェック団体と契約している。そうした団体との協力体制がどの程度の効果を上げているのかという疑問はさておき、偽情報はすぐに変異していく傾向があるため、1つの画像やリンクを削除するだけでも複雑な仕事になる。

一例として、次の1つの画像を見てほしい。

これらの画像は、背景、色、書体が同じであることからほぼ同一であるともいえる。だが、2枚目の画像は少し異なっている。オリジナルではなく、誰かがオリジナル画像のスクリーンショットを撮ったものだ。3枚目の画像もほぼ同じだが、文が逆の意味になっている。

あまり洗練されていない画像認識アルゴリズムでは、これらの画像はわずかに異なる部分があるために(生成されるハッシュ値がまったく異なるため)まったく別の画像として認識されるか、圧倒的に類似点が多いためすべて同じ画像として認識されるかのどちらかである。もちろん、人間が見ればすぐに違いが分かるが、この違いを確実に識別できるようにアルゴリズムをトレーニングするのはかなり難しい。それにFacebookでは情報がまたたく間に拡散するため、上記のような同じような画像が数千も存在する状態になることがある。

「我々の目的は、人が見れば同じ画像とみなされるこうした類似画像を同じ画像として検出することだ」とシュローファー氏はいう。「これまでのAIシステムは非常に精度が高かったが、その分、わずかな違いに対して非常に弱い。数ピクセル変更しただけで、別画像と認識してしまい、削除対象から除外されてしまう。そこで我々はこの2年半で、ニューラルネットワークベースの類似性検出システムを構築した。これにより、より広範囲にわたって、こうしたわずかに異なる画像を高精度で特定できるようになった」。

幸いにも、そうした規模での画像解析はFacebookの得意とするところだ。写真を比較して顔やあまり望ましくないものの特徴を検索するためのアルゴリズム基盤はすでに整っている。あとは何を探すのかを教えるだけだ。そうして数年の努力の結果完成したのが「SimSearchNet」だ。SimSearchNetは、最も目立つ(ただし人の目ではまったく気づかないような)特徴を詳しく調べることによって、ある画像に非常によく似た画像を検索および解析するシステムだ。

現在、InstagramとFacebookにアップロードされる1日あたり数十億にのぼる画像はすべて残らずSimSearchNetによって調査されている。

Facebook MarketplaceもSimSearchNetの監視の対象だ。このマーケットプレイスでは、アップロード画像に関するルールをすり抜けようとする人たちが、同じ出品アイテムについて、ほぼ同一だが少しだけ編集した画像(例えばN95マスクの画像など)をアップロードして、削除を免れるようにしている。SimSearchNetでは、色やその他の方法で編集された写真の類似性がチェックされ、(削除対象となっている写真と同一と判定されれば)出品が中止される。

差別的ミームと意味があいまいなスカンク

Facebookが対応に苦慮しているもう1つの問題がヘイトスピーチ、およびそれに準ずる不快表現だ。とりわけAIによる検出が特に難しいことが分かっている領域としてミームがある。

問題は、こうした投稿は画像とテキストの相互作用によって初めて意味を成すことが多いという点だ。テキストだけではまったく問題なかったり意味があいまいだったりしても、画像と組み合わせることで意味が明確になる。それだけではない。画像やフレーズにはそれこそ無限のバリエーションがあり、それによって意味が微妙に変わる(あるいは変わらない)ことがある。次の例をご覧いただきたい。

Facebook上のミーム

これらは悪意のあるミームだがトーンダウンされている。Facebookでよく見かける本当に差別的なミームはこんなものではない

パズルを構成する個々の画像は、コンテキストによって問題ないこともあれば、侮辱的にもなる。こうした善悪を機械学習システムでどのように判別すればよいだろうか?こうした「複合型ヘイトスピーチ」は、AIの動作の仕組みという観点からすると大きな問題となる。既存のAIシステムは言葉を理解し、画像を判別できるが、両者の相互作用によってもたらされる結果を特定するのは簡単ではない。

Facebookの研究者たちによると、このようなテキストと画像の相互作用というテーマに関する研究は驚くほど少ないという。その意味でFacebookの研究は解決策というより探査ミッションのようなものだ。この研究によりFacebookがたどり着いたテクニックは数段階の手順から成る。まず、人に膨大な数のミーム型画像も見てもらい差別的発言かどうかを示す注釈を付けてもらう。次に、このデータに基づいて機械学習システムをトレーニングして、既存のシステムとは決定的に異なるシステムを構築した。

こうした画像分析アルゴリズムはほとんどの場合、テキストと画像を同時に提示すると、まずはテキスト、次に画像という具合に別々に分類してから、両者の関連付けを行う。しかし、その方法には上述のような脆弱さがある。つまり、差別的ミームのテキストと画像を、コンテキストを考えずに別々に見ると、まったく無害なコンテンツであると判別される可能性がある。

Facebookのシステムはテキストと画像の情報をパイプラインの最初の段階で組み合わせて(これを「早期融合」と呼ぶ)、従来の「遅延融合」アプローチとの違いを生み出す。この方法は人の処理方法に近い。つまり、メディアを構成するすべての要素を見てからその意味やトーンを評価するというやり方だ。

この新しいアルゴリズムは現時点ではまだ本格的導入されてはいない。全体的な精度は65~70%程度だ。だがシュローファー氏によると、有効性の評価には「本当に判別の難しい問題」を使っているという。複合型ヘイトスピーチは簡単に判別できるものもあれば、人でも判別が難しいものもある。

システムのミーム判別能力をさらに高めるため、Facebookでは、今年後半に開催されるNeurIPS AIコンファレンスで「差別的ミームチャレンジ」と題するコンテストを実施する予定だ。コンテストは普通、機械学習システムにとって難しいタスクが課題として使われる。そのような新しい問題は研究者たちの大好物だからだ。

FacebookのポリシーにおいてAIが果たす役割の変化

Facebookは、新型コロナウイルス大流行の初期に、AIのモデレーターとしての役割を拡充強化していく計画を発表した。マーク・ザッカーバーグ氏は3月、記者会見で、「1万5000人のモデレーター契約社員が自宅で有給休暇を取っている状態を考えると、『偽陽性』(誤って削除対象にしてしまうコンテンツ)の件数が増えると思われる」と語った。

YouTubeTwitterも同時期にコンテンツのモデレーション作業のAI移行を強化したが、AIによるモデレーションへの依存度が大きくなると、ルールに違反していないコンテンツが誤って削除対象となる可能性があることを警告している。

FacebookはAI化を進める一方で、人間のレビューアの通常出勤を促すことに必死である。ザッカーバーグ氏は4月半ば、社員の通常出勤への復帰スケジュールを明示し、コンテンツレビュアーは通常勤務への早期復帰が最も望まれる「重要職」であると述べた。

FacebookはAIシステムによるコンテンツの削除は行き過ぎる可能性もあると警告しているが、新型コロナウイルス危機の拡大にともない、ヘイトスピーチ、悪質な脅し、偽情報などもサイトで拡散を続けている。Facebookは最近、マスクをしないようにとか、ワクチンが入手可能になっても買い求めないように促す、健康に関する偽情報ルールに明らかに違反した口コミ動画を広めたとして非難されている。

この動画は「Plandemic」という公開予定の偽情報ドキュメンタリーから抜粋され、最初はYouTubeで拡散したものだが、研究者たちはFacebookで活発に活動している陰謀論支持者グループが広くこの動画を共有した結果、ネット上で広く議論される主要な話題となったと見ている。陰謀説がちりばめられた26分間のこの動画は、アルゴリズムで解釈するのが難しいコンテンツの典型例でもある。

またFacebookは火曜、テロリズム、ハラスメント、ヘイトスピーチといったカテゴリ全体にわたるモデレーション作業の詳細を記述したコミュニティ規定違反対応レポートを発表した。今回のレポートにはパンデミックが発生してから1か月分の結果しか含まれていないが、AIによるモデレーションへの移行が進めば、次回は、その成果がより反映されたものとなるだろう。

Facebookのモデレーション作業に関する質問に対し、ザッカーバーグ氏は「パンデミックによって人によるレビューが大変難しくなった。ユーザーのプライバシー保護および社員の精神衛生の保護に関する懸念から、レビューアの在宅勤務は課題が多いが、それでも現在その方向に確実に進めている」と述べた。FacebookはTechCrunchの取材に対し、常勤コンテンツレビュアーの出社勤務については、ごく一部の希望者にのみ許可していると回答した。コンテンツ管理担当副社長Guy Rosen(ガイ・ローゼン)氏によると、大部分の契約コンテンツレビュアーは在宅勤務が可能となったという。「モデレーション作業では今後も人間の能力が重要な役割を果たすだろう」とローゼン氏は語った。

関連記事:いまさら聞けない機械学習入門

Category:AI・人工知能

Tag:Facebook 機械学習 画像認識

“新型コロナウイルス

[原文へ]

(翻訳:Dragonfly)