ニール・ヤング、人気ポッドキャスターによるコロナ誤情報に抗議してSpotifyから楽曲を引き上げると宣言

ミュージシャンのNeil Young(ニール・ヤング)氏は、Spotify(スポティファイ)とポッドキャスターのJoe Rogan (ジョー・ローガン)氏との独占契約が反ワクチン運動を助長しているという懸念から、同ストリーミングサービスから自身の音楽カタログを引き上げると宣言した。

ヤング氏はマネージャーとレコード会社に宛てたオープンレターで「今日すぐにSpotifyに、私の音楽はすべて彼らのプラットフォームから削除するよう伝えてほしい。Spotifyは私かローガン、どちらかを選ばなければならない。両方はあり得ない」と書いている。その後削除された内容を、Rolling Stoneが報じた

「Spotifyで独占的に配信されているJRE(Joe Rogan Experience)は、世界最大のポッドキャストであり、多大な影響力を持っている。Spotifyにはプラットフォーム上での誤情報の拡散を緩和する責任があるが、今のところ、誤った情報に関するポリシーというものがない」とも。

Spotifyは、2020年に「The Joe Rogan Experience(ジョーローガン・エクスペリエンス)」の独占配信権を1億ドル(約113億9000万円)以上の価格で購入した。しかし、ローガン氏がトランスフォビア的な発言をしたり、トランスジェンダーコミュニティに批判的なゲストを招いたりしていることが話題になるなど、契約後、Spotifyは人気ポッドキャスターである同氏との関係をめぐる批判にさらされている。

2022年1月初めには、ローガン氏がTwitter(ツイッター)から追放されたウイルス学者、Robert Malone(ロバート・マローン)博士をゲストに迎え、新型コロナウイルスに関する誤った情報を広めたことを受けて、約300人の医療専門家からなるグループがSpotifyに公開書簡を提出し、誤情報に関するルールを導入するよう求めた。

「マローン博士は、JREのプラットフォームを利用して、新型コロナワクチンに関するいくつかのデマや、社会的リーダーが国民を『催眠術にかけている』という根拠のない説など、数々の無根拠な主張をさらに広めました」とその書簡には書かれている

「これらの発言の多くはすでに否定されており、信憑性のないものです。特にマローン博士は、パンデミック政策をホロコーストと比較した最近のJREのゲスト2人のうちの1人です。これらの行動は、不適切で攻撃的であるだけでなく、医学的にも文化的にも危険なものです」。

ローガン氏はパンデミックを通して、科学的なコンセンサスに疑問を投げかけ、健康な若年層にワクチン接種を思いとどまるよう勧めたり、FDAが一般市民に注意を促している動物用医薬品で、ローガン氏が自身のコロナ治療に使用したイベルメクチンを推奨したりしている。

ニール・ヤング氏がSpotifyから自身の楽曲を削除すると宣言したことで、他のエンターテインメント関係者からも圧力がかかるかどうかはわからないが、今回の発言により、Spotifyの誤情報に対する姿勢の甘さに注目が集まっていることは確かだ。同社はローガン氏と契約した後も、世界で最も再生されているポッドキャストとの独占的な関係を他のコンテンツと同様に扱っていた。

今やSpotifyは、どのコンテンツに対価を支払い、宣伝するかという編集上の決定には、特にそのコンテンツが公衆衛生上の危機に寄与する場合には、さらなる責任が伴うという現実を突きつけられているのかもしれない。

画像クレジット:Matthew Baker / Contributor / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Aya Nakazato)

ツイッター、偽報報告機能をブラジル、スペイン、フィリピンにも拡大

2021年8月、Twitter(ツイッター)は米国など一部の市場で、招待ユーザーが選挙や新型コロナウイルス関連の偽情報に出会ったら報告できる機能を導入した。そしてこの度、同社はテストを拡大して対象となるマーケットを増やした。現在の米国、オーストラリア、韓国に加えて、ブラジルとスペインとフィリピンでも導入される。

関連記事:ツイッターはユーザーに新型コロナと選挙の誤情報報告を依頼

Twitterはまた、本機能の普及に関する最新情報を提供し、デビュー以来、370万件以上のユーザー投稿レポートを受け取ったと述べた。ちなみに、Twitterの収益化可能な1日のアクティブユーザー数は、直近の決算発表時点で約2億1100万で、そのうち3700万は米国在住、1億7400万人は国際市場在住となっている。

Twitterのサイトインテグリティ担当責任者であるYoel Roth氏によると、同社が偽情報に対して偽情報扱いをしなければならないコンテンツの「大部分」は、自動化(措置の50%以上を占める)または事前モニタリングによって前もって識別されたものだという。新機能を通じてユーザーから提出されたレポートは、Twitterが誤報のパターンを識別するために使用され、Twitterがこの機能によってこれまでに最も成功を収めた分野だとロス氏はいう。これは、Twitterのプラットフォーム外でホストされているコンテンツにリンクしているメディアやURLのような、テキストベースではない偽情報の分野で特に当てはまる。

しかし、Twitterが個々の報告されたツイートのサブセットをレビューしたところ、分析した多くのツイートには偽情報がまったく含まれていなかったため、他の政策分野の20~30%と比較して、「対応可能」とされたのは10%程度だったとも指摘している。

本日、このテスト機能をブラジル、スペイン、フィリピンからのツイートにも拡大しました。現在までに約300件の報告があり、私たちのポリシーに違反するツイートを指摘したり、新しい誤報の傾向を把握するのに役立っています。

今後の展開にご期待ください。

この機能を使えるマーケットでは、ユーザーはツイートの右上にある3ドットメニューから「report tweet」を選ぶ。そして「it’s misleading」を指定すればよい。

Twitterには、すでに違反コンテンツを報告する方法があるが、この度のオプションのように、偽情報を含むツイートそのものを報告する明確な方法はない。むしろユーザーが「怪しくてスパムかもしれない」「乱暴で有害である」とオプションから選ばなければならない。そこからやっと、Twitterのルールに違反している特定のツイートを絞り込んでいく。

今回のツイートを偽情報と指定する方式では、ユーザーがもっと早く直接的にルール違反のコンテンツを指定できる。そして報告そのものはTwitterの今ある規則執行の流れに結びついており、人間によるレビューとモデレーションを合わせて、罰すべきコンテンツか否かを判断する。また、報告されたツイートは、そのプライオリティでソートされレビューされため、フォロワー数が多かったり、エンゲージメントのレベルが高い人のツイートが先にレビューされる。

この機能の展開は、ソーシャルネットワークが、そのプラットフォーム上で拡散を許してしまった偽情報を一掃するか、あるいはそのような一掃を強制する規制や、おそらくそうしなかった場合の罰則を制定するよう圧力を受けている時期のものだ。

Twitterが偽情報に対抗するための取り組みは、フラグ立てのオプションだけではない。同社はBirdwatchという実験も行っており、Twitterユーザーが誤解を招くツイートに事実関係の注釈を付けることで、クラウドソーシングによる事実確認を目指している。このサービスはまだパイロットテスト中で、ユーザーからのフィードバックに基づいてアップデートされている。

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

【コラム】ソーシャルメディアとマッチングアプリが抱える深刻な身元確認問題

ソーシャルメディアとマッチングアプリはそろそろ、自分たちが蒔いてきた種を刈り取り、各プラットフォームから詐欺、偽装、デマ情報を一掃すべきだ。

その誕生当初、ソーシャルメディアやマッチングアプリは、インターネットの世界の小さな一角を占めるにすぎず、ユーザーはわずかひと握りだった。それが今では、Facebook(フェイスブック)やTwitter(ツイッター)が、選挙に影響を及ぼしたり、ワクチン接種の促進を後押しまたは阻害したり、市場を動かしたりするほどに巨大な存在になっている。

また、何百万もの人々が「生涯の」伴侶と出会うためにTinder(ティンダー)やBumble(バンブル)などのマッチングアプリを利用しており、そのユーザー数はFacebookやTwitterに迫る勢いだ。

しかし、お祭り騒ぎはここまでだ。信用や安全よりも利益が優先されてきた結果、なりすまし犯罪やオンライン詐欺が入り込む隙が作り出されてしまった。

今や、BumbleやTinderで友達が「キャットフィッシング(なりすましロマンス詐欺)」に遭ったという話も、家族の誰かがTwitterやFacebookでオンライン詐欺の被害を受けたという話も、日常茶飯事である。悪意のあるネット犯罪者が個人情報を盗んで、あるいはなりすましの個人情報を新たに作って、詐欺を行ったり、政治的または商業的な利益のために偽情報を拡散したり、ヘイトスピーチを広めたりした、というニュースは毎日、耳に入ってくる。

ほとんどの業界では、ユーザーによるなりすまし詐欺の実害を被るのは当事者である企業だけで済む。しかし、マッチングアプリやソーシャルメディアのプラットフォームで信用が崩壊すると、その被害はユーザーと社会全体に及ぶ。そして、個人に及ぶ金銭的、心理的、時には身体的な被害は「リアルな」ものだ。

このような詐欺事件の増加を食い止める、あるいは撲滅する責任を果たしてきたのは誰だろうか。何らかの措置を講じてきたと主張するプラットフォームもあるが、各プラットフォームがその責任を果たしてこなかったことは明白だ。

Facebookは、2020年10月から12月の期間に、13億件の偽アカウントを摘発したが、これは十分というには程遠い数だ。実際のところ、ソーシャルメディアやマッチングアプリは現在、最低限の詐欺防止策しか講じていない。簡単なAIと人間のモデレーターは確かに有用だが、膨大な数のユーザーには到底追い付かない。

Facebookによると、3万5000人のモデレーターが同プラットフォームのコンテンツをチェックしているという。確かに大勢だ。しかし、概算すると1人のモデレーターが8万2000件のアカウントを担当していることになる。さらに、ディープフェイクの使用や合成ID詐欺犯罪の手法の巧妙化など、悪意のあるネット犯罪者は手口を日ごとに進化させているだけではなく、その規模も広げつづけている。経験豊富なユーザーでさえもそのような詐欺行為に引っかかってしまうほどだ。

ソーシャルメディアやマッチングアプリのプラットフォームは、この問題と闘う点で腰が思いと批判されてきた。しかし、実際のところどのように闘えるのだろうか。

なりすましロマンス詐欺の被害は深刻

次のような場面を想像するのは難しくない。マッチングアプリで誰かと出会って連絡を取り始める。その相手がいう内容や質問してくる内容に、怪しさは感じられない。その関係が「リアル」だと感じ始め、親しみを覚え始める。その感情は気づかないうちにエスカレートして、警戒心は完全に解け、危険信号に対して鈍感になり、やがて恋愛感情に発展する。

このようにして新たに出会った特別な人とあなたは、ついに直接会う計画を立てる。するとその相手は、会うために旅行するお金がないという。そこであなたはその人を信じて、愛情を込めて送金するのだが、間もなくその人からの連絡が一切途絶えてしまう。

なりすましロマンス詐欺事件の中には、被害が最小限にとどまり自然に解決するものもあるが、上記のように金銭の搾取や犯罪行為につながる事例もある。米国連邦取引委員会によると、ロマンス詐欺の被害額は2020年に過去最高の3億400万ドル(約348億8000万円)を記録したという。

しかし、これは過少に報告されている結果の数字であり、実際の被害額はこれよりはるかに大きい可能性が高く「グレーゾーン」やネット物乞いを含めるとさらに膨れ上がるだろう。それなのに、ほとんどのマッチングアプリは身元を確認する術を提供していない。Tinderなど一部の人気マッチングアプリは、身元確認機能をオプションとして提供しているが、他のマッチングアプリはその類いのものを一切提供していない。ユーザー獲得の妨げになるようなことはしたくないのだろう。

しかし、オプションとして身元確認機能を追加しても、単に上っ面をなでるような効果しかない。マッチングアプリ各社は、匿名IDや偽IDを使ったユーザーの加入を防ぐために、もっと対策を講じる必要がある。また、そのようなユーザーが社会と他ユーザーに及ぼす被害の重大さを考えると、マッチングアプリ各社が防止策を講じることを、私たちが社会として要求すべきだ。

身元確認はソーシャルメディアにおいて両刃の剣

ロマンス詐欺はなにもマッチングアプリに限ったことではない。実際のところ、ロマンス詐欺の3分の1はソーシャルメディアから始まる。しかし、ソーシャルネットワークサービスにおいて身元確認を行うべき理由は他にもたくさんある。ユーザーは、自分が本物のOprah Winfrey(オプラ・ウィンフリー)やAriana Grande(アリアナ・グランデ)のアカウントを見ているのか、それともパロディアカウントを見ているのかを知りたいと思うかもしれない。オプラ・ウィンフリーやアリアナ・グランデ本人たちも、本物のアカウントとパロディアカウントとの違いがはっきり分かるようにして欲しいと思うだろう。

別の重要な点は、ソーシャルネットワーク各社は身元確認を行うことによってネット荒らしの加害者を抑制すべきだという世論が高まっていることだ。英国では、同国のリアリティー番組人気タレントKatie Price(ケイティー・プライス)が主導して始まった「#TrackaTroll(#トロール行為を取り締まる)」運動が勢いを増している。プライスがHarvey’s Law(ハーヴェイ法)の制定を求めて英国議会に提出した嘆願書には、およそ70万人が署名した。ハーヴェイとは、匿名の加害者からひどいネット荒らしの被害を受けてきた、彼女の息子の名前だ。

しかし、ソーシャルネットワークを利用する際の身元確認を義務化することについては、強く反対する意見も多い。身元確認を行うと、家庭内暴力から逃げている人や、政治的な反対勢力を見つけ出して危害を加えようとする抑圧的な政権下の国にいる反体制派の身を危険にさらすことになる、というのが主な反対理由だ。さらに、政治やワクチンに関する偽情報を拡散しようとする多くの人々は、自身の存在を顕示して、自分の意見に耳を傾ける人を集め、自分が何者なのかを世の中に認知させたいと考えているため、身元確認を行っても彼らを抑止することはできないだろう。

現在、FacebookとTwitterは、正規アカウントに青い認証済みバッジを表示させる制度に「認証申請」プロセスを導入しているが、確実な措置というには程遠い。Twitterは最近、「認証申請」プログラムを一時的に停止させた。いくつもの偽アカウントを正規アカウントとして誤認証してしまったためだ

Facebookはもっと進んだ措置を講じてきた。かなり前から、特定の場合、例えばユーザーが自分のアカウントからロックアウトされたときなどに、身元確認を行ってきた。また、投稿されたコンテンツの性質、言葉遣い、画像に応じて、投稿者のブロック、認証の一時停止、人間のモデレーターによるレビューを行っている。

身元確認とプライバシー保護を両立させることの難しさ

悪意のあるネット犯罪者がマッチングアプリやソーシャルメディアで偽のIDを作って詐欺行為を働いたり、他の人に危害を加えたりすると、それらのプラットフォームに対する社会の信頼は損なわれ、プラットフォームの収益にも悪影響が及ぶ。ソーシャルメディアのプラットフォーム各社は今、ユーザー数を最大限まで伸ばすことと、ユーザーのプライバシーを保護することを両立させるために、あるいは、より厳しくなる規制とユーザーからの信頼失墜に直面して、日々格闘している。

盗難やハッキングによる個人情報の悪用を防ぐことは非常に重要である。もしTwitterやFacebookで誰かが自分になりすましてヘイトスピーチを拡散させたらどうなるだろう。自分はまったく関与していないのに、職を失うかもしれないし、もっと深刻な被害を受ける可能性もある。

ソーシャルメディアプラットフォーム各社は、ユーザーと自社のブランドを守るためにどのような選択をするのだろうか。これまで、プラットフォーム各社の決断は、テクノロジーよりも、ポリシーや利益の保護を中心として下されてきた。プライバシーに関する懸念に向き合って信頼を築くための対策と、利益確保の必要性とのバランスを取ることは、彼らが解決すべき戦略上の大きなジレンマだ。いずれにしても、ユーザーにとって安全な場所を作り出す義務はプラットフォーム各社にある。

ソーシャルメディアやマッチングアプリのプラットフォームは、ユーザーを詐欺や悪意のあるネット犯罪者から守るために、もっと大きな責任を担うべきだ。

編集部注:本稿の執筆者Rick Song(リック・ソング)氏はPersonaの共同設立者兼CEO。

画像クレジット:Andriy Onufriyenko / Getty Images

原文へ

(文:Rick Song、翻訳:Dragonfly)

議事堂暴動を調査する米下院委員会がMeta、YouTube、Twitter、Redditに召喚状

2021年1月6日の米議会議事堂での暴動に関する調査を主導する下院委員会は米国時間1月13日、テック大手4社に召喚状を出した。

「1月6日特別委員会」の委員長Bennie G. Thompson(ベニー・G・トンプソン、民主・ミシシッピ州選出)氏は、YouTube(ユーチューブ)の親会社Alphabet(アルファベット)、Facebook(フェイスブック)とInstagram(インスタグラム)の親会社のMeta(メタ)、Reddit(レディット)、Twitter(ツイッター)に対し、これらのプラットフォームが当日の暴動を組織するためにどのように使われたかについて追加情報を提供するよう要求する文書を送付した。

発表の中で委員会は、連邦議会議事堂への攻撃計画に関連したコンテンツをホストしていると各社を非難している。「Metaのプラットフォームは憎悪、暴力、扇動のメッセージを共有するため、選挙に関する誤った情報、偽情報、陰謀論を広めるため、そして『Stop the Steal運動』を調整、または調整しようとするために使われたとされています」と委員会は述べ、その後解散したFacebookのCivic Integrityチームが調査に関連する情報を持っていたと考えていると指摘した。

当時報じたように、Facebookは2020年の米大統領選の正当な結果を否定するコンテンツの拡散を制御できず、Stop the Steal運動の主要ハブだった。また、Facebookは以前、Proud BoysやThree Percentersなど、議事堂襲撃事件の一翼を担うに至った一部の過激派や民兵的なグループを組織するためのプラットフォームとして選ばれていたこともあった。

同委員会のRedditへの苦情は、2020年1月下旬にヘイトスピーチを巡って禁止された後、独自ドメインに移行した悪名高いサブレディット「r/The_Donald」に焦点を当てているようだ。委員会はまた、YouTubeが暴動のライブストリームに使用されたこと、Twitterユーザーが「暴行の計画と実行に関するコミュニケーションに同プラットフォームを使用したとされている」ことを指摘した。

委員会は2021年8月に初めて15のプラットフォームに関連記録を要求したが、その回の書簡では、Snapchat(スナップチャット)、Twitch(ツイッチ)、TikTok(ティクトック)といった従来のソーシャルメディアアプリに加え、4chan(4チャン)、8kun(8クン)、Gab(ギャブ)、Parler(パーラー)、theDonald.win(ザドナルド・ドット・ウィン)といった過激派向けのサイトにも情報を要求している。

「繰り返し具体的に要請したにもかかわらず」4つの主要なソーシャルプラットフォームが十分に詳細な情報を提供しなかったため、委員会は前回と同じ要請をしており、今回は1月27日を期限としている。

画像クレジット:Photo by Spencer Platt/Getty Images / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

世界中のファクトチェック団体がYouTubeに誤報・偽情報対策を要求

世界中の80以上の著名なファクトチェック団体が、YouTube(ユーチューブ)に新型コロナウイルスに関する誤報への対策を求めている。この誤報は新型コロナウイルス感染拡大から2年が経過した現在でも、依然としてこの動画共有サイト上で広まっている。

「ファクトチェック機関の国際的なネットワークとして、私たちはオンラインでどのように嘘が広がるかを監視しています。そしてYouTubeがオンラインの偽情報や誤報を世界に広める主要な導線の1つとなっていることを、毎日私たちは目の当たりにしているのです」と、ファクトチェック機関の連合はPoynter(ポインター)に掲載された公開書簡で述べている。「これは、世界のファクトチェッキングコミュニティの重要な懸念事項です」。

この公開書簡に署名したファクトチェック機関は、PolitiFact(ポリティファクト)、The Washington Post Fact Checker(ワシントンポスト紙のファクトチェッカー)、PoynterのMediaWise(メディアワイズ)といった米国を拠点とする団体に加え、アフリカのDubawa(ドゥバワ)とAfrica Check(アフリカ・チェック)、インドのFact Crescendo(ファクト・クレッシェンド)とFactly(ファクトリー)、さらにはインドネシア、イスラエル、トルコといった国々の団体など、世界中に広がっている。

同グループは、YouTubeが長年にわたって健康に関する誤った情報の温床になっていると指摘。その中には、がん患者に非科学的な治療法で闘病を促す内容も含まれている。

「2021年は、いくつもの陰謀集団が繁栄し、国境を越えて協力し合うのを、我々は目にしてきました。その中には、ドイツで始まった活動がスペインに飛び火し、ラテンアメリカにまで広がった国際的な運動も含まれます。これらはすべてYouTubeで展開されているのです」と、書簡には書かれている。「その一方で、何百万人ものYouTubeユーザーが、予防接種を拒否するよう勧めたり、ウイルス感染症をインチキな治療法で治すことを奨励するギリシャ語やアラビア語の動画を見ています」。

この書簡では、英語以外の言語の動画で誤った情報が広がるという特殊な危険性も強調している。Facebook(フェイスブック)の内部告発者であるFrances Haugen(フランシス・ハウゲン)氏は、英語圏以外でのコンテンツモデレーションに十分な投資を行っていないFacebookでも、同様の懸念があることに注意を促していた。ファクトチェック団体グループは、YouTubeに対して「国や言語ごとのデータや、あらゆる言語に対応した字幕サービスを提供する」ことで、英語以外の言語から誤報の流出を防ぐよう働きかけている。これはYouTubeが注力しているモデレーションの方法だ。

ファクトチェッカー団体は、問題点を指摘するだけでなく解決策も提示しており、YouTubeは誤報や偽情報に関するポリシーの透明性を高め、それらの問題を専門とする独立した研究者を支援すべきだと指摘している。また、同グループはYouTubeに対し、誤報を否定して迅速にその件に関する事情や背後関係をプラットフォーム上で提供する取り組みを強化するようにも求めている。この2つの取り組みは、ファクトチェック機関との連携を深めることで実現可能だ。

FacebookやTwitter(ツイッター)は、プラットフォーム上での誤った情報の拡散について、長い間、世間の厳しい目にさらされてきたが、YouTubeはしばしばそれらの監視の目をかいくぐっている。YouTubeの推薦アルゴリズムは近年、危険な主張を広めることに能動的な役割を果たしているが、TikTok(ティックトック)と同様にテキストベースではなく動画であるため、一般的に研究者にとっては調査が困難で、テクノロジーの説明責任に関する公聴会を開いている議員たちにとっては理解することが難しい。

「YouTubeは、不謹慎な行為者が他人を操って利用したり、組織化して資金調達したりするために、自社のプラットフォームを武器にすることを許している」と、ファクトチェッカー団体はいう。「現在の対策では不十分です」。

画像クレジット:Olly Curtis/Future / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Hirokazu Kusakabe)

ツイッター、米議員の個人アカウントを新型コロナ誤情報規約違反で使用禁止に

Twitter(ツイッター)は、米国のMarjorie Taylor-Greene(マージョリー・テイラー・グリーン)下院議員(共和党、ジョージア州)の個人アカウントを「新型コロナウイルス誤情報規約に繰り返し違反したため」永久停止したと発表した。同氏の政府公式アカウントは引き続き有効だ。

グリーン下院議員は、パンデミックに関連すると思われる記事や統計情報を盛んに投稿・拡散していたが、多くは誤解を招いたり、完全に間違っていたりした。これはTwitterが超えてはならない一線を引いたトピックの1つだ。ウイルス、感染経路、ワクチンの効果などに関する誤った情報は公衆衛生に重大な影響を及ぼすためだ。

Twitterの新型コロナ規約の概要はこちら。同社は声明で「我々は、この規約のストライクシステムに従い、繰り返し規約に違反したアカウントを永久停止することを明確にしてきました」と述べた。

永久停止の前の2021年には、短期間のアカウントロックと警告が複数回発生し、報告されていた。グリーン氏はその際「言論の自由」が侵害されていると訴えていた。Twitterが民間が所有・運営するプラットフォームで、ルールを明確に示しているにもかかわらずだ。同氏は米国時間1月2日朝の声明で最後の苦言を呈した。「Twitterは米国の敵で、真実を扱うことができません。いいでしょう。奴らは米国に必要ないことを教えてあげましょう。敵を倒す時が来たのです」。

関連記事:新型コロナワクチン誤情報の投稿でツイッターが米共和党員のアカウントを一時停止

この声明が、同氏が必要ないと主張する「敵」プラットフォームの利用を、自身が中止することを意味するのかどうかは不明だ。同氏の米議会の公式アカウントは、1週間前から使用されていないものの、オンライン上に残っている。このアカウントも同氏の違反行為によって危険にさらされているのか、Twitterに問い合わせた。回答があればこの記事を更新する。

Twitterは、暴力の扇動、虚偽情報や個人情報の公開、パンデミックに関する虚偽情報の拡散に関する規則に違反した非主流派に対して、定期的に停止措置を出している

本件は進展を続けている。後ほど更新の有無を確認して欲しい。

関連記事:Twitterが右翼を挑発する政治的な問題を扱うビデオ制作会社のジェームズ・オキーフ氏を偽アカウントに関するポリシー違反で永久停止

画像クレジット:Bloomberg / Contributor / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Nariko Mizoguchi

【コラム】ファクトチェックのスタートアップをの構築で学んだこと

2016年の米大統領選の余波を受けて、筆者はオンライン上のフェイクニュースの惨害に対処できるプロダクトの開発に着手した。最初の仮説は単純だった。偽の主張や疑わしい主張を自動的にハイライトし、それに対して最高品質のコンテクストに基づく事実を提案する半自動のファクトチェックアルゴリズムを構築する。私たちの論旨は、おそらくユートピア的であるとしても、明確であった。テクノロジーの推進力により、人々が真実、事実、統計、データを求めて意思決定を行うようになれば、誇張ではなく、理性と合理性を備えたオンラインの議論を構築することができるはずだ。

5年にわたる努力の末、Factmata(ファクトマタ)は一定の成功を収めた。しかし、この分野が真に成長するためには、経済面から技術面に至るまで、まだ克服しなければならない多くの障壁がある。

鍵となる課題

私たちはすぐに、自動化されたファクトチェックが極めて難しい研究課題であることを認識した。最初の課題は、チェックする事実そのものを定義することであった。次に、特定の主張の正確性を評価するために、最新の事実データベースをどのように構築し、維持するかについて検討した。例えば、よく使われているWikidata(ウィキデータ)の知識ベースは明らかな選択肢であったが、急速に変化する出来事に関する主張をチェックするには更新が遅すぎる側面がある。

また、営利目的のファクトチェック企業であることが障害になっていることも判明した。ほとんどのジャーナリズムやファクトチェックのネットワークは非営利であり、ソーシャルメディアプラットフォームはバイアスの告発を避けるために非営利団体との連携を好む。

これらの要因の枠を超えたところに、何が「良い」かを評価できるビジネスを構築すること自体が本質的に複雑で微妙であるという問題がある。定義については議論が絶えない。例を挙げると、人々が「フェイクニュース」と呼ぶものがしばしば極端な党派間対立であることが判明し、人々が「偽情報」と称するものが実際には反対意見による見解であったりする。

したがって、ビジネスの観点からは、何を「悪い」(有害、不道徳、脅威的または憎悪的)と判断するかということの方がはるかに容易であると私たちは結論づけた。具体的には「グレーエリア」の有害なテキストを検出することにした。これは、プラットフォームから削除すべきかどうかわからないが、追加のコンテクストが必要なコンテンツだ。これを達成するために、コメント、投稿、ニュース記事の有害性を、党派間対立性、論争性、客観性、憎悪性など15のシグナルのレベルで評価するAPIを構築した。

そして、関連する企業の問題についてオンラインで展開されるすべての主張を追跡することに価値があることを認識した。そのため当社のAPIを超えて、ブランドのプロダクト、政府の方針、新型コロナウイルス感染症のワクチンなど、あらゆるトピックで展開する噂や「ナラティブ」を追跡するSaaSプラットフォームを構築した。

複雑に聞こえるかもしれない。実際にそうだからだ。私たちが学んだ最大の教訓の1つは、この領域において100万ドル(約1億1400万円)のシード資金がいかに少ないかということだった。有効性が確認されたヘイトスピーチや虚偽の主張に関するデータを訓練することは通常のラベリング作業とは異なる。それには、主題に関する専門知識と正確な検討が必要であり、いずれも安価なものではない。

実際、複数のブラウザ拡張機能、ウェブサイトのデモ、データラベリングプラットフォーム、ソーシャルニュースコメントプラットフォーム、AI出力のリアルタイムダッシュボードなど、必要としていたツールを構築することは、複数の新しいスタートアップを同時に構築するようなものだった。

さらに事態を複雑にしていたのは、プロダクトと市場の適合性を見つけるのが非常に困難な道のりだったことだ。長年の構築の後、Factmataはブランドの安全性とブランドの評判にシフトした。当社のテクノロジーは、広告インベントリのクリーンアップに目を向けているオンライン広告プラットフォーム、評判管理と最適化を求めているブランド、コンテンツモデレーションを必要としている小規模プラットフォームに提供されている。このビジネスモデルに到達するまでには長い時間がかかったが、2020年ようやく複数の顧客からトライアルや契約の申し込みが毎月寄せられるようになった。2022年半ばまでに経常収益100万ドルを達成するという目標に向かって前進している。

やるべきこと

私たちが辿った道のりは、メディア領域で社会的にインパクトのあるビジネスを構築する上で、多くの障壁があることを示している。バイラル性と注目度がオンライン広告、検索エンジン、ニュースフィードの指標である限り、変化は難しいだろう。また、小規模な企業では、それを単独で行うことは難しい。規制面と財政面の両方の支援が必要になる。

規制当局は、強力な法律の制定に踏み切る必要がある。Facebook(フェイスブック)とTwitter(ツイッター)は大きな前進を遂げたが、オンライン広告システムは大幅に後れを取っており、新興プラットフォームには異なる形での進化を促すインセンティブがない。今のところ、企業が違法ではない発言をプラットフォームから排除するようなインセンティブはない。評判上のダメージやユーザーの離脱を恐れるだけでは十分ではないのだ。言論の自由を最も熱心に支持する向きでさえ、筆者も同様であるが、金銭的なインセンティブや禁止を設ける必要性を認識している。そうすることで、プラットフォームは実際に行動を起こし、有害なコンテンツを減らし、エコシステムの健全性を促進するためにお金を使い始めるようになるだろう。

代替案にはどのようなものがあるだろうか?悪質なコンテンツは常に存在するが、より良質なコンテンツを促進するシステムを作り出すことは可能である。

欠点はあるかもしれないが、大きな役割が期待できるのはアルゴリズムだ。オンラインコンテンツの「善良さ」すなわち品質を自動的に評価するポテンシャルを有している。こうした「品質スコア」は、広告ベースとはまったく異なる、社会に有益なコンテンツのプロモーション(およびその支払い)を行う新しいソーシャルメディアプラットフォームを生み出すための基盤となる可能性を秘めている。

問題のスコープを考えると、これらの新しいスコアリングアルゴリズムを構築するには膨大なリソースが必要だ。最も革新的なスタートアップでさえ、数億ドル(数百億円)とは言わないまでも、数千万ドル(数十億円)の資金調達がなければ厳しいだろう。複数の企業や非営利団体が参加して、ユーザーのニュースフィードに埋め込むことのできる多様なバージョンを提供する必要がある。

政府が支援できる方法はいくつかある。まず「品質」に関するルールを定義する必要があるだろう。この問題を解決しようとしている企業が、独自の方針を打ち出すことは期待できない。

また政府も資金を提供すべきである。政府が資金援助をすることで、これらの企業は達成すべき目標が骨抜きにされるのを回避できる。さらに、企業が自社のテクノロジーを世間の目に触れやすいものにするよう促し、欠陥やバイアスに関する透明性を生み出すことにもつながる。これらのテクノロジーは、無料で利用可能な形で一般向けにリリースされるよう奨励され、最終的には公共の利益のために提供される可能性もある。

最後に、私たちは新興テクノロジーを取り入れていく必要がある。コンテンツモデレーションを効果的かつ持続的に行うために必要な深層テクノロジーに真剣に投資するという点で、プラットフォームは積極的な歩みを見せてきた。広告業界も、4年が経過した頃から、FactmataやGlobal Disinformation Index(グローバル・ディスインフォメーション・インデックス)、Newsguard(ニュースガード)などの新しいブランド安全アルゴリズムの採用を進めている。

当初は懐疑的であったが、筆者は暗号資産とトークンの経済学のポテンシャルについても楽観的に見ている。資金調達の新たな方法を提示し、質の高いファクトチェック型メディアの普及、大規模な配信に貢献することが考えられる。例えば、トークン化されたシステムの「エキスパート」により、ラベリングに多額の先行投資を必要とする企業の手を借りることなく、主張をファクトチェックし、AIコンテンツモデレーションシステムのデータラベリングを効率的に拡張することが可能になるかもしれない。

ファクトベースの世界の技術的な構成要素として、Factmataに掲げた当初のビジョンが実現するかどうかはわからない。しかし、私たちがそれに挑戦したことを誇りに思うとともに、現在進行中の誤報や偽情報との戦いにおいて、他の人々がより健全な方向性を示すことに、私たちの経験が役立つことを期待している。

編集部注:本稿の執筆者Dhruv Ghulati(ドルヴ・グラティ)氏は、オンラインの誤情報に取り組む最初のグローバルスタートアップの1つFactmataの創設者で、自動ファクトチェックを研究する最初の機械学習科学者の1人。London School of EconomicsとUniversity College Londonで経済学とコンピューターサイエンスの学位を取得している。

画像クレジット:sorbetto / Getty Images(Image has been modified)

原文へ

(文:Dhruv Ghulati、翻訳:Dragonfly)

【コラム】プーチンと習近平の進化した偽情報の手法は新たな脅威をもたらす

TechCrunch Global Affairs Projectは、テクノロジー部門と世界政治のますます複雑になっている関係を検証する。

情報領域が国家間の競争においてますます活発で重要なものとなる中、2つの国が全面的に乗り出している。中国とロシアは、地政学的な利益を促進するために洗練された情報戦略を展開しており、その手法は進化している。ロシア政府はもはや、極論を展開するコンテンツを大量に生成するプロキシトロールファームに依存するのではなく、軍事インテリジェンス資産を利用して、プラットフォーム検知メカニズムを回避するために、よりターゲットを絞った情報活動を行うようになっている。また、世界で500万人超の命を奪ったパンデミックの責任を取らされるのではないかという懸念から、中国政府は「戦狼外交を使ってネット上で陰謀論を展開し、リスクをかなり回避するようになっている。自由で開かれたインターネットというビジョンを維持するために、米国は反撃のための戦略を練らなければならない。

ロシアの情報操作の手口は進化している

多くの指標から見て衰退しつつあるロシアは、短期的には近隣諸国や地政学的競争相手の機関、同盟、国内政治を混乱させることによって、非対称的手段でその相対的な弱さを補おうとしている。ロシア政府は、自らの活動を世間に知られることで失うものは少なく、得るもの方が多いため、その帰属に特に敏感でもなければ、反動も気にしていない。そして大西洋共同体を混乱させ、分裂させ、自国の利益を損ないかねない外交政策を自信を持って協調して実行できないようにするために、ロシアは偽情報を使って混乱をあおり、無秩序を助長している。

これを達成するために、ロシアは2016年の米大統領選挙を妨害するための「広範かつ組織的な」キャンペーン以来、その手法の成熟を示す少なくとも2つのテクニックを使用している。第一に、情報操作を本物の運動と見せるために、ターゲットとする社会の声や制度を定期的に活用しており、しばしばターゲット人口内にトロールを隠したり、ローカル市民のソーシャルメディアアカウントを借りたり抗議行動をあおる本物の活動家を採用したりしている。これは、ますます洗練されているプラットフォーム検知の仕組みを回避するためでもあり、米国内でコンテンツモデレーションの議論が政治化するのを悪化させるためでもある。

第二に、ロシアの偽情報屋は、自分たちや他者が持つ印象を作り出すために大規模な活動を継続する必要はなく、その印象だけで選挙結果の正当性に対する疑念を生み、党派間の不和を悪化させるのに十分であることを認識している。このようにロシアは、特に選挙という場面において、不正操作の可能性に対する広範な懸念を利用し、たとえ不正操作が成功しなくても、不正操作が行われたと主張することで、目的を達成することができる。

中国はロシアを見習い、策を弄している

一方、中国は新興国であり、干渉活動を世間に知られることで得るものは少なく、失うものは大きい。ロシアとは異なり、安定した国際秩序を望んでいるが、米国が主導する現在の枠組みよりも自国の利益に資する秩序を望んでいる。その結果、情報領域における中国の活動は、責任あるグローバル大国としての中国のイメージを高め、その威信を傷つけるような批判を封じ込めることを主目的としており、米国とそのパートナー国を無能で偽善者と決めつけることで民主主義の魅力に水を差している。

中国にとって、こうした利益を追求するためには、他の強者のプロパガンダ・ネットワークに便乗し、民衆の支持を取り繕い、自国の人権記録に関する会話を取り込むという3本柱の戦略が必要だ。中国は独自のインフルエンサー・ネットワークを持たないため、ロシアのプロパガンダでおなじみのオルタナティブな思想家たち(その多くは西洋人)に定期的に頼っている。北京が国内で禁止しているプラットフォームで中国寄りの立場を支持させることの難しさを強調し、中国の狼戦士外交官はTwitterで定期的に偽の人物と関わりを持っている。また、中国の人権記録に対する批判を跳ね返すために、ハッシュタグキャンペーンや巧妙なビデオを使って、新疆ウイグル自治区のイスラム教徒の扱いに関する議論を取り込もうとしている。

独裁者たちの連携、ただし時々

長期的な目標には大きな違いがあるものの、ロシアと中国は、民主主義の世界的な威信を損ない、多国間機関を弱め、民主的な同盟関係を弱めるという、複数の直接的な目標を共有している。その結果、両国はいくつかの同じ戦術を展開する。

ロシア、中国とも、特に人種問題において、米国を偽善者と見なす「whataboutism」を用いている。Twitterで多くのフォロワーを獲得するためにクリックベイトコンテンツを利用し、聴衆が戦略的資産であることを認識している。しかしロシアと中国は、政治的な出来事に関する公式発表を疑い、自分たちの活動に対する非難から逃れ、客観的な現実など存在しないという印象を与えるために、複数の、しばしば矛盾する陰謀説を定期的に流している。2国とも、自分たちの好む物語を広めるために大規模なプロパガンダ組織を運営している。

また、同じような物語を数多く展開している。ロシアも中国も、ある種の西側の新型コロナウイルスワクチンの安全性に関する記録に対する信頼を低下させ、米国とその同盟国のワクチンを効果のないものとして描写するよう働きかけている。とはいえ、ロシアは主に分極化を深め、制度やエリートに対する信頼を低下させるような分裂的なコンテンツを押し出すことに注力しており、同時に既存のメディアにおける反ロシア的な偏向とみなされるものを押し退けている。一方、中国は自国の統治モデルの利点強調することに主眼を置き、自国の権利侵害に対する批判を偽善と決めつけている。ロシアの国営メディアは、ロシアの国内政治をほとんど取り上げない。ロシア政府の目標は、視聴者をロシアに引き寄せるのではなく、政治的な西側から遠ざけることだ。中国は、その逆だ。

米国との競争において、ロシアと中国がさまざまな領域で協力関係にあることはよく知られている。その証拠に、両国の情報活動には、互いのコンテンツを配信するという極めて象徴的な合意以上の正式な連携はほとんど見られない。これはまったく驚くべきことではない。中国は、ロシアが宣伝するシナリオを増幅させたり、ロシアの情報戦略の他の成功要素を模倣したりするために、ロシアと正式に協力する必要はない。

今後の展開

ロシアと中国の情報戦略はともに進化している。ロシアの偽情報活動は標的が絞られ、発見が難しくなっている。一方、中国は以前よりも主張が強く、繊細さに欠けるアプローチを取っている。ロシアにとって、こうした変化は、2016年以降、その活動に対する認識が高まっていることが背景にあるようで、同時に新しいプラットフォーム政策と検出メカニズムの導入を促し、選挙の正当性をめぐる党派的な議論が今日まで響いている時代を迎えた。中国にとって、情報戦略への変更は、主に新型コロナのパンデミックという、地政学的な点で独特の重要性を持つ世界的危機によって動機づけられているようで、中国にとって新しいアプローチを試す機会を作り続けることになる。

ロシアと中国の情報領域への取り組み方に対するこうした重大な変化を認識した上で、米国は独自の手法を必要としている。強固な戦略には、抑圧的な支配の失敗を強調するために真実の情報を活用すること、不安定な偽情報キャンペーンを行う者を阻止したりコストを課すために米国のサイバー能力を展開すること、プラットフォームの透明性、特に信頼できる研究者を規範とするような法律を実施することが含まれる。最後に、情報の自由は民主主義社会にとって有益であり、権威主義的な競争相手に課題を与えるものであるため、米国は世界中で情報の自由をより強力に擁護する必要がある。

民主主義社会と権威主義社会との間の結果として起こる事においては、独裁者が主導権を握っている。この措置は、米国がそれを取り戻すことを確実にするための大胆で責任ある行動の出発点となるものだ。成功させるために、米国とその民主的パートナーは迅速に行動しなければならない。

編集部注:寄稿者Jessica Brandt(ジェシカ・ブラント)氏はAI and Emerging Technology Initiativeの政策担当ディレクターで、ブルッキングズ研究所の外交政策プログラムのフェロー。

画像クレジット:masterSergeant / Getty Images

原文へ

(文:Jessica Brandt、翻訳:Nariko Mizoguchi

監視委員会、Metaにエチオピアでの暴力を広める役割を検証するよう求める

Facebookが自社の方針決定を見直すために設立したグループである監視委員会は、現地時間12月14日、紛争地エチオピアで起きた誤報の事例を取り上げ、紛争地域でヘイトスピーチや検証されていない情報が自由に広がることを許容することの危険性について警告を発した。

監視委員会は、エチオピア在住のFacebookユーザーがアムハラ語で投稿した、ラヤコボや同国アムハラ州の他の人口密集地での殺人、レイプ、略奪はティグライ人民解放戦線(TPLF)が行っており、ティグライ人の民間人がそれを助けていると主張した記事を検証した。

「このユーザーは、情報源がこれまでの無名の報告書や現場の人々であると主張しているが、その主張を裏付ける状況証拠すら提供していない」と、監視委員会はその評価の中で書いている。

「この投稿に見られるような、ある民族が集団残虐行為に加担していると主張する噂は危険であり、差し迫った暴力のリスクを著しく高めるものです」。

この投稿は当初、Facebookの自動コンテンツ修正ツールによって検出され、プラットフォームのアムハラ語コンテンツ審査チームがヘイトスピーチに対するプラットフォームの規則に違反していると判断し、削除された。この件は監視委員会にエスカレーションされた後、Facebookは自らの決定を覆し、コンテンツを復活させた。

監視委員会は、ヘイトスピーチに関する規則ではなく、暴力と扇動に関するFacebookの規則に違反するとして、投稿を復活させるというFacebookの決定を覆した。その決定の中で、エチオピアのような暴力に満ちた地域で検証不可能な噂が広まることは「ミャンマーで起こったような重大な残虐行為につながる 」と懸念を表明している。

同月には、米国のロヒンギャ難民のグループが、Facebookの参入がロヒンギャ民族の大量虐殺の「重要な変曲点」として機能したとして、Metaを相手に1500億ドル(約17兆円)の集団訴訟を起こしている。ミャンマーでは民族暴力を煽る誤った情報がFacebook上で広く拡散し、しばしば軍関係者によって蒔かれ、同国の少数イスラム教徒を標的とし、排除しようとする民族暴力がエスカレートしたと広く信じられている。

Facebookの内部告発者であるFrances Haugen(フランシス・ホーゲン)氏は、ミャンマーやエチオピアといった国々でアルゴリズムによって増幅された民族暴力と、それに適切に対処しなかったMetaの失敗を、このプラットフォームの最大の危険性の1つとして挙げている。「ミャンマーで見たこと、そして今エチオピアで見ていることは、とても恐ろしい物語の序章に過ぎず、誰もその結末を読みたくありません」と、ホーゲン氏は10月に議会で述べていた。

監視委員会はまた、エチオピアの民族暴力のリスクを悪化させるFacebookとInstagramの役割について、独立した人権評価をするよう命じ、同国の言語でのコンテンツをどの程度抑制できるかを評価するようMetaに指示した。

2021年11月、Metaは、誤報やヘイトスピーチに対するルールの一部の適用範囲を拡大したことを強調し、同国に対して行った同社の安全対策を擁護した。同社はまた、過去2年間に同国での行使能力を改善させ、現在では最も一般的な4言語であるアムハラ語、オロモ語、ソマリ語、ティグリニャ語のコンテンツを審査する能力を備えていると述べている。

原文へ

(文:Taylor Hatmaker、翻訳:Akihito Mizukoshi)

政治的な偽情報がケニアのTwitterトレンドトピックを覆う

ケニアのUhuru Kenyatta(ウフル・ケニヤッタ)大統領がオフショアのタックスヘイブンに資産を秘密裏に保有していることが明らかになった直後、Odanga Madung(オダンガ・マドゥン)氏はTwitter(ツイッター)上で奇妙なことに気づいた。ケニヤッタ大統領が密かにタックスシェルタースキームを利用しているという決定的な情報にもかかわらず、ケニアのツイッターでは、苦境に立たされた大統領を擁護する話題が流布しているのだ。

ケニア大統領の隠し口座は「パンドラ文書」の中で明らかになった秘密の1つにすぎない。同文書は、世界のリーダーや有名人、億万長者が、パナマや英領ヴァージン諸島などに隠している財産を詳述したもので、約1200万件が漏洩した。

いずれもMozilla Tech and Societyのフェローであるマドゥン氏とそのサポートリサーチャーであるBrian Obilo(ブライアン・オビロ)氏は新しい調査で、パンドラ文書発覚の直後に、ネットの政治的プロパガンダが同国の情報の空白をどう埋めたかを明らかにした。

「これは、ケニアにおけるTwitterのプラットフォームに非常に広く見られる問題です」とマドゥン氏はTechCrunchの取材に対し答えた。

2人は、TwitterのFirehose APIを利用して、パンドラ文書の公開後、10月3〜10日に送信された8331件のツイートを分析した。その結果「#offshoreaccountfacts」と「#phonyleaks」という2つのハッシュタグが発見された。これらのハッシュタグは、流出した財務情報に含まれる正当な暴露を妨害する意図があり、同期間中、ケニアのトレンドトピックとして急浮上した。

「政府と大統領が圧力を受けるなか、ネットで怒りが高まり、反論作戦が実行され、Twitter上に強い味方を見つけました」とマドゥン氏は書いている。「その結果、歪んだ見方が勢いを増し始めました。そこでは、ケニアの人々が、パンドラ文書の決定的な調査結果に対してではなく、ケニヤッタ大統領が不正行為をしたことに対して憤慨しているように見せています」。

2人の分析によると、このトレンドは自然発生的なものとは程遠い。2人は、関連するハッシュタグを繰り返しツイートし、喧伝するアカウントを多数発見した。その内容は、ケニヤッタ氏の隠された資産に関する情報を隠蔽し、その行為がいかなる法律にも違反していないことを主張し、オフショアでの保有を賢明な財務的行動であると擁護するなど、ケニヤッタ氏の容疑を晴らそうとするものだ。

マドゥン氏が過去の調査と照合した結果、真実ではないコンテンツをアップロードしたアカウントが、ケニアの政府支持派周辺のプロパガンダを流していることが判明した。

「ここで重要なのは、これらのコンテンツの多くが明確な嘘ではなかったということです」とマドゥン氏は書いている。「これは、プロパガンダと偽情報を組み合わせた政治色のある偽りの草の根運動です。特に、ケニア人の多くがケニヤッタ大統領を支持し、パンドラ文書に不信感を抱いているというコンセンサスを捏造することを目的としていました」。

キャンペーンの手法は洗練されたものではなかったが、組織的かつ効率的だった。同じ画像や言葉遣いを繰り返したり、有名人の名前を頻繁に使ったりしていたため、アカウントの特定は容易だった。それら同士の関連性が強かったため、2人はノイズを突破して、Twitter上ではっきりとわかる複数のトレンドトピックを識別することができた。

偽りの草の根運動によるキャンペーンの多くは、真実を曲げて伝えることを目的としているが、それらの主催者は情報の捏造も躊躇しなかった。例えば、ナイロビ在住の経済学者Reginald Kadzutu(レジナルド・カズツ)氏がBBCのインタビューでケニヤッタ大統領を擁護しているように見える画像があるが、そのインタビューは実際には行われていない。画像は偽物だ。

Twitterは、マドゥン氏からの通報を受け、230以上のアカウントに対し、プラットフォーム操作とスパムに関するポリシー違反として措置を取った。

「Twitterのユニークでオープンな性質は、このような調査を後押しします」とTwitterの広報担当者はTechCrunchに話した。また、TwitterはAIと人間のモデレーターを組み合わせ、プラットフォーム上の会話を操作しようとする試みを検出しているとも述べた。

マドゥン氏によると、ケニアの情報エコシステムは、Twitterを翻弄し続ける、確立した偽情報産業に悩まされている。「偽情報は、他の産業と同じように、お金や明確な成果を求める産業です」とマドゥン氏はTechCrunchに語った。「多くの点でそうしたキャンペーンは通常の機関と非常によく似ています」。

この業界には、コンテンツをTwitterのトレンドモジュールにまで増幅させ、結果を出す確立された方法がある。2人のインタビューに応じたあるTwitterユーザーは、過去5年間、ケニアの政党の話題など、さまざまなコンテンツをTwitterのトレンドに載せるために金をもらっていたと説明した。

さらにマドゥン氏はインタビューを通じ、こうしたキャンペーンの中には、自分たちのメッセージを宣伝するために認証済みのユーザーを雇ったり、報酬を支払ったりして、Twitterのトレンドアルゴリズムの下で、さらにトレンドを押し上げようとしていることを知った。

この種の仕事を探している人は、国内のさまざまな政治キャンペーンのために人材を募集しているWhatsApp(ワッツアップ)グループを見つけることができる。そうしたグループは偽情報活動の司令塔としての役割を果たしており、メッセージを伝達し、そのメッセージができるだけ効果的になるようにタイミングを調整している。

「私たちが話を聞いたインフルエンサーの1人は、『ツイッターは簡単だ』と話していた」とマドゥン氏は書いている。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

Facebookアプリの元責任者が内部告発者の議会証言に対して同社を擁護

米国時間10月19日の午後、WSJ Tech Liveイベントで、元FacebookアプリのトップでCEOのMark Zuckerberg(マーク・ザッカーバーグ)氏の直属だったFidji Simo(フィジー・シモ)氏が、自分が以前在籍していたソーシャルネットワークを擁護した。Instacartの新CEOになった同氏は、イベントでフードデリバリーの未来について述べたが、質問では、最近のFacebookの内部告発者の議会での証言と、それが喚起した社会的関心についても尋ねられた。

関連記事:グローサリー配達のInstacartが新CEOにフェイスブック幹部のシモ氏を指名

シモ氏によると、Facebookが多くの人の生活に与える影響を考えるとセキュリティは重要だが、Facebookが批判を鎮めるために十分なことをやっていないのが心配だ、という。Facebookは世界最大のソーシャルネットワークとして複雑な問題に取り組んでいるにもかかわらず、まだ十分でない、と。

シモ氏は自分が最近離れたFacebookを擁護し「Facebookは、ユーザーの安全のために大金を投じている。また自らの社会的影響についても、業界屈指の詳細な調査研究を行っています。心配なのは、多くの人が『イエス』か『ノー』かの答えを求めることです。実際のところ、この問題は多くのニュアンスを含んでいます」と述べている

内部告発者のFrances Haugen(フランセス・ハウゲン)氏によると、ユーザーのエンゲージメントを優先するFacebookのアルゴリズムにより、人間よりも利益が重視されているという。シモ氏が警告するのは、問題がこれまで説明されてきたようにAかBか、人間か利益かといった、単純な二分法ではないということだ。シモ氏の説明によると、Facebookが行ってきた調査研究に基づいて成し遂げるべき変化は、何かのダイヤルを回して、突然、魔法のように問題が消滅するものではない。なぜならFacebookは基本的に、人間性の反映そのものであるからだ。

画像クレジット:Instacart

シモ氏によると、むしろFacebookの本当の問題は、Facebookが何かを変えるたびに、社会に重要な影響が及ぶことと、その在り方だ。そのためFacebookはついでに何かが起こってしまったではなく、Facebookの事業で問題が起こりそうな部分を判断し、そこをを事前に改善することが重要だ。

「トレードオフがあるときは、それは通常、2種類の社会的インパクト間のトレードオフだ」とシモ氏はいう。

彼女が挙げるかなり単純な調整の例は、ユーザーを怒らせるような投稿を事前に判断して、その種の投稿をあまり見せないようにすることだ。

ハウゲン氏が上院で証言したのは、Facebookのアルゴリズムがエンゲージメントを奨励するようになっていることだ。「いいね!」などのインタラクティブなアクションの多い投稿はより広く拡散され、ユーザーのニュースフィードで上位に表示される。しかしハウゲン氏によると、エンゲージメントが「いいね!」やポジティブなリアクションだけでなく、クリックベイトや人を怒らせるような投稿でも起こるため、アルゴリズムはそれらも優先してしまう。その結果、虚偽情報や悪質で暴力的なコンテンツなど、激しいリアクションを喚起するポストが広まる。

しかしながら、Facebook上の怒りはダイヤルを回して音量を下げるように簡単に減らすことはできない。もしそんなことをしたら、別のタイプの社会的インパクトが生じるだろうとシモ氏はいう

シモ氏によれば、そもそも大きな社会運動は怒りがつくり出すため、企業は多くの人の行動を左右するようなインパクトをどうやって変えるのか、という問題を抱えてしまう。

(しかしWSJの記事によると、そのような状況ではなかった。むしろアルゴリズムの加工によって個人の感情的なポストがプロたちの知的なコンテンツより優先されるようになると、発行者や政党などは怒りやセンセーショナリズムに迎合するポストを発表するようになる。記事によると、この問題を修復せよという提案に対しザッカーバーグしは抵抗している)

シモ氏によると「怒り」の問題はほんの一例にすぎない。「実際には、どんな問題でも常に別のタイプの社会的インパクトとのトレードオフになります。そんな状況に、長くいたためわかりますが、それは『社会にとって良いこと』vs.『Facebookにとって良くて利益になること』という単純な問題ではありません。実際の議論は常に、異なる種類の社会的インパクト同士の間にあります。それは私企業にとって非常に扱いづらい議論です」。

「だからFacebookは公的規制を求めているのだ」とハウゲン氏はいう。

「この部分でFacebookが長年規制を求めてきたのも意外ではない。立場を異にする複数の社会的インパクトがあるとき、私企業はどちらか一方の主張を味方することはできない。行司役を担うのは、政府がふさわしい」とシモ氏はいう。

最近増えているエビデンスによれば、Facebookの事業が社会に負の影響を与えていることはFacebook自身も社内調査などで理解している。そんな中でシモ氏は、Facebookを辞めたことを、Facebook内で起きていることが理由だとはしなかった。

むしろシモ氏は「Facebookにいた10年はあまり勉強しませんでした。Instacartへの移籍は、Facebook以外のいろいろなことを学べる良いチャンスだからです」という。

画像クレジット:Porzycki/NurPhoto/Getty Images

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

Facebookアプリの元責任者が内部告発者の議会証言に対して同社を擁護

米国時間10月19日の午後、WSJ Tech Liveイベントで、元FacebookアプリのトップでCEOのMark Zuckerberg(マーク・ザッカーバーグ)氏の直属だったFidji Simo(フィジー・シモ)氏が、自分が以前在籍していたソーシャルネットワークを擁護した。Instacartの新CEOになった同氏は、イベントでフードデリバリーの未来について述べたが、質問では、最近のFacebookの内部告発者の議会での証言と、それが喚起した社会的関心についても尋ねられた。

関連記事:グローサリー配達のInstacartが新CEOにフェイスブック幹部のシモ氏を指名

シモ氏によると、Facebookが多くの人の生活に与える影響を考えるとセキュリティは重要だが、Facebookが批判を鎮めるために十分なことをやっていないのが心配だ、という。Facebookは世界最大のソーシャルネットワークとして複雑な問題に取り組んでいるにもかかわらず、まだ十分でない、と。

シモ氏は自分が最近離れたFacebookを擁護し「Facebookは、ユーザーの安全のために大金を投じている。また自らの社会的影響についても、業界屈指の詳細な調査研究を行っています。心配なのは、多くの人が『イエス』か『ノー』かの答えを求めることです。実際のところ、この問題は多くのニュアンスを含んでいます」と述べている

内部告発者のFrances Haugen(フランセス・ハウゲン)氏によると、ユーザーのエンゲージメントを優先するFacebookのアルゴリズムにより、人間よりも利益が重視されているという。シモ氏が警告するのは、問題がこれまで説明されてきたようにAかBか、人間か利益かといった、単純な二分法ではないということだ。シモ氏の説明によると、Facebookが行ってきた調査研究に基づいて成し遂げるべき変化は、何かのダイヤルを回して、突然、魔法のように問題が消滅するものではない。なぜならFacebookは基本的に、人間性の反映そのものであるからだ。

画像クレジット:Instacart

シモ氏によると、むしろFacebookの本当の問題は、Facebookが何かを変えるたびに、社会に重要な影響が及ぶことと、その在り方だ。そのためFacebookはついでに何かが起こってしまったではなく、Facebookの事業で問題が起こりそうな部分を判断し、そこをを事前に改善することが重要だ。

「トレードオフがあるときは、それは通常、2種類の社会的インパクト間のトレードオフだ」とシモ氏はいう。

彼女が挙げるかなり単純な調整の例は、ユーザーを怒らせるような投稿を事前に判断して、その種の投稿をあまり見せないようにすることだ。

ハウゲン氏が上院で証言したのは、Facebookのアルゴリズムがエンゲージメントを奨励するようになっていることだ。「いいね!」などのインタラクティブなアクションの多い投稿はより広く拡散され、ユーザーのニュースフィードで上位に表示される。しかしハウゲン氏によると、エンゲージメントが「いいね!」やポジティブなリアクションだけでなく、クリックベイトや人を怒らせるような投稿でも起こるため、アルゴリズムはそれらも優先してしまう。その結果、虚偽情報や悪質で暴力的なコンテンツなど、激しいリアクションを喚起するポストが広まる。

しかしながら、Facebook上の怒りはダイヤルを回して音量を下げるように簡単に減らすことはできない。もしそんなことをしたら、別のタイプの社会的インパクトが生じるだろうとシモ氏はいう

シモ氏によれば、そもそも大きな社会運動は怒りがつくり出すため、企業は多くの人の行動を左右するようなインパクトをどうやって変えるのか、という問題を抱えてしまう。

(しかしWSJの記事によると、そのような状況ではなかった。むしろアルゴリズムの加工によって個人の感情的なポストがプロたちの知的なコンテンツより優先されるようになると、発行者や政党などは怒りやセンセーショナリズムに迎合するポストを発表するようになる。記事によると、この問題を修復せよという提案に対しザッカーバーグしは抵抗している)

シモ氏によると「怒り」の問題はほんの一例にすぎない。「実際には、どんな問題でも常に別のタイプの社会的インパクトとのトレードオフになります。そんな状況に、長くいたためわかりますが、それは『社会にとって良いこと』vs.『Facebookにとって良くて利益になること』という単純な問題ではありません。実際の議論は常に、異なる種類の社会的インパクト同士の間にあります。それは私企業にとって非常に扱いづらい議論です」。

「だからFacebookは公的規制を求めているのだ」とハウゲン氏はいう。

「この部分でFacebookが長年規制を求めてきたのも意外ではない。立場を異にする複数の社会的インパクトがあるとき、私企業はどちらか一方の主張を味方することはできない。行司役を担うのは、政府がふさわしい」とシモ氏はいう。

最近増えているエビデンスによれば、Facebookの事業が社会に負の影響を与えていることはFacebook自身も社内調査などで理解している。そんな中でシモ氏は、Facebookを辞めたことを、Facebook内で起きていることが理由だとはしなかった。

むしろシモ氏は「Facebookにいた10年はあまり勉強しませんでした。Instacartへの移籍は、Facebook以外のいろいろなことを学べる良いチャンスだからです」という。

画像クレジット:Porzycki/NurPhoto/Getty Images

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

Facebookアプリの元責任者が内部告発者の議会証言に対して同社を擁護

米国時間10月19日の午後、WSJ Tech Liveイベントで、元FacebookアプリのトップでCEOのMark Zuckerberg(マーク・ザッカーバーグ)氏の直属だったFidji Simo(フィジー・シモ)氏が、自分が以前在籍していたソーシャルネットワークを擁護した。Instacartの新CEOになった同氏は、イベントでフードデリバリーの未来について述べたが、質問では、最近のFacebookの内部告発者の議会での証言と、それが喚起した社会的関心についても尋ねられた。

関連記事:グローサリー配達のInstacartが新CEOにフェイスブック幹部のシモ氏を指名

シモ氏によると、Facebookが多くの人の生活に与える影響を考えるとセキュリティは重要だが、Facebookが批判を鎮めるために十分なことをやっていないのが心配だ、という。Facebookは世界最大のソーシャルネットワークとして複雑な問題に取り組んでいるにもかかわらず、まだ十分でない、と。

シモ氏は自分が最近離れたFacebookを擁護し「Facebookは、ユーザーの安全のために大金を投じている。また自らの社会的影響についても、業界屈指の詳細な調査研究を行っています。心配なのは、多くの人が『イエス』か『ノー』かの答えを求めることです。実際のところ、この問題は多くのニュアンスを含んでいます」と述べている

内部告発者のFrances Haugen(フランセス・ハウゲン)氏によると、ユーザーのエンゲージメントを優先するFacebookのアルゴリズムにより、人間よりも利益が重視されているという。シモ氏が警告するのは、問題がこれまで説明されてきたようにAかBか、人間か利益かといった、単純な二分法ではないということだ。シモ氏の説明によると、Facebookが行ってきた調査研究に基づいて成し遂げるべき変化は、何かのダイヤルを回して、突然、魔法のように問題が消滅するものではない。なぜならFacebookは基本的に、人間性の反映そのものであるからだ。

画像クレジット:Instacart

シモ氏によると、むしろFacebookの本当の問題は、Facebookが何かを変えるたびに、社会に重要な影響が及ぶことと、その在り方だ。そのためFacebookはついでに何かが起こってしまったではなく、Facebookの事業で問題が起こりそうな部分を判断し、そこをを事前に改善することが重要だ。

「トレードオフがあるときは、それは通常、2種類の社会的インパクト間のトレードオフだ」とシモ氏はいう。

彼女が挙げるかなり単純な調整の例は、ユーザーを怒らせるような投稿を事前に判断して、その種の投稿をあまり見せないようにすることだ。

ハウゲン氏が上院で証言したのは、Facebookのアルゴリズムがエンゲージメントを奨励するようになっていることだ。「いいね!」などのインタラクティブなアクションの多い投稿はより広く拡散され、ユーザーのニュースフィードで上位に表示される。しかしハウゲン氏によると、エンゲージメントが「いいね!」やポジティブなリアクションだけでなく、クリックベイトや人を怒らせるような投稿でも起こるため、アルゴリズムはそれらも優先してしまう。その結果、虚偽情報や悪質で暴力的なコンテンツなど、激しいリアクションを喚起するポストが広まる。

しかしながら、Facebook上の怒りはダイヤルを回して音量を下げるように簡単に減らすことはできない。もしそんなことをしたら、別のタイプの社会的インパクトが生じるだろうとシモ氏はいう

シモ氏によれば、そもそも大きな社会運動は怒りがつくり出すため、企業は多くの人の行動を左右するようなインパクトをどうやって変えるのか、という問題を抱えてしまう。

(しかしWSJの記事によると、そのような状況ではなかった。むしろアルゴリズムの加工によって個人の感情的なポストがプロたちの知的なコンテンツより優先されるようになると、発行者や政党などは怒りやセンセーショナリズムに迎合するポストを発表するようになる。記事によると、この問題を修復せよという提案に対しザッカーバーグしは抵抗している)

シモ氏によると「怒り」の問題はほんの一例にすぎない。「実際には、どんな問題でも常に別のタイプの社会的インパクトとのトレードオフになります。そんな状況に、長くいたためわかりますが、それは『社会にとって良いこと』vs.『Facebookにとって良くて利益になること』という単純な問題ではありません。実際の議論は常に、異なる種類の社会的インパクト同士の間にあります。それは私企業にとって非常に扱いづらい議論です」。

「だからFacebookは公的規制を求めているのだ」とハウゲン氏はいう。

「この部分でFacebookが長年規制を求めてきたのも意外ではない。立場を異にする複数の社会的インパクトがあるとき、私企業はどちらか一方の主張を味方することはできない。行司役を担うのは、政府がふさわしい」とシモ氏はいう。

最近増えているエビデンスによれば、Facebookの事業が社会に負の影響を与えていることはFacebook自身も社内調査などで理解している。そんな中でシモ氏は、Facebookを辞めたことを、Facebook内で起きていることが理由だとはしなかった。

むしろシモ氏は「Facebookにいた10年はあまり勉強しませんでした。Instacartへの移籍は、Facebook以外のいろいろなことを学べる良いチャンスだからです」という。

画像クレジット:Porzycki/NurPhoto/Getty Images

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

TikTokは第2四半期に規約違反で動画8100万本を削除、アップロード総数の1%に相当

TikTok(ティクトック)は、2021年4月1日から6月30日の間にプラットフォームから削除されたコンテンツに関する透明性のアップデートを発表した。同プラットフォームによると、同期間中にコミュニティガイドラインや利用規約に違反したとして削除された動画は8151万8334本で、投稿された動画全体の1%にも満たない。これはまた、同四半期中に81億本以上の動画がTikTokに投稿されたことを意味し、1日平均約9000万本の動画が投稿されたことになる。

TikTokは7月に、未成年者の安全、成人のヌードや性的行為、暴力的で生々しいコンテンツ、違法行為などに関するポリシーに違反するコンテンツを自動的に削除する技術を導入した。同プラットフォームは、特にこれらのコンテンツに対して自動化を活用している。というのも、同技術の精度が最も高い分野だからだ。また、報告されたコンテンツを精査する安全チームに人間のコンテンツモデレーターを配置している。

自動化された技術が発表されたとき、TikTokは削除の誤判定率(実際にはルールに違反していないコンテンツを削除してしまうこと)は5%だと発表した。この数字は、今日発表された透明性レポートにも反映されていて、削除された8100万本の動画のうち、約460万本が復活した。削除された動画の41.3%を占めるコンテンツ削除理由で最も多かったのは、軽微な安全ガイドライン違反だった。TikTokによると、削除されたコンテンツの94.1%はユーザーが報告する前に特定・削除されているという。

それでも、誤って削除されたコンテンツの5%の中には、失敗したコンテンツモデレーションのトラブル事例がある。例えば、人気の黒人クリエイターZiggi Tyler(ジギー・タイラー)氏は、自分のアカウントのプロフィールに「Black Lives Matter」や「I am a black man」などのフレーズが含まれていると、アプリが「不適切」と判定すると指摘した。一方で「白人至上主義を支持する」などの表現はすぐには検閲されなかった。

YouTube(ユーチューブ)やFacebook(フェイスブック)といったプラットフォームがワクチンの誤情報を含むコンテンツを禁止する動きを見せる中、TikTokのような他の名の知れたソーシャルメディア企業は、同様の問題にどのように取り組むか態度をはっきりさせなければならない。TikTokのコミュニティガイドラインでは、新型コロナウイルス感染症(COVID-19)やワクチン、さらに広範な反ワクチン誤情報について、虚偽または誤解を招くようなコンテンツを禁止している

関連記事:YouTubeが新型コロナに続きワクチン全般の誤情報も禁止対象に

第2四半期にTikTokは新型コロナウイルスに関する誤情報を理由に2万7518本の動画を削除した。TikTokによると、これらの動画の83%はユーザーから報告される前に削除され、87.6%は投稿から24時間以内に削除された。そして69.7%は閲覧回数がゼロだったという。一方、WHO(世界保健機関)やCDC(米疾病管理予防センター)の情報をもとに開発されたTikTokのCOVID-19情報ハブは、全世界で9億2100万回以上閲覧された。

数字に関して言えば、TikTokの月間アクティブユーザー数は9月に10億人を突破し、TikTokが成長し続けていることは間違いない。今回の透明性報告書の数字も、そうした成長を反映している。2020年上半期にTikTokは1億400万本の動画を削除したが、これは投稿された全コンテンツの1%に相当した。この1%の削除率は、本日発表されたデータと一致しているが、本日の報告書にある削除された動画8100万本というのは、2四半期分ではなく1四半期分だ。

関連記事:TikTokの月間アクティブユーザーが10億人に到達

画像クレジット:Costfoto / Barcroft Media / Getty Images

原文へ

(文:Amanda Silberling、翻訳:Nariko Mizoguchi

YouTubeが新型コロナに続きワクチン全般の誤情報も禁止対象に

YouTube(ユーチューブ)は米国時間9月29日、ワクチンについての誤情報を禁止する新しいガイドラインを医療誤情報の規則に含めた。Google(グーグル)所有の動画プラットフォームYouTubeは以前、新型コロナウイルス感染症について危険な誤情報を広めた100万本を超える動画削除している。そして現在、YouTubeはワクチンの安全性、有効性、成分に関する誤情報を広めるコンテンツも削除するという。YouTubeは以前、新型コロナワクチンに限定して誤情報を禁止したが、今回、はしかやB型肝炎のような定期接種に関する誤情報や、地域の健康衛生当局や世界保健機構(WHO)によって安全が確認されたワクチンについての一般的な嘘も禁止するために規則をアップデートする。

関連記事:YouTubeは2020年2月以降、新型コロナに関する100万の危険な誤情報動画を削除

規則の変更は、新型コロナワクチン接種率が低い中でのものだ。米国のコロナワクチン接種完了者の割合は約55%だが、この数字はカナダと英国ではそれぞれ71%と67%で、米国より高い。バイデン大統領はソーシャルメディア上でワクチン誤情報が拡散していると指摘した。さらにホワイトハウスは国民にワクチン接種を促すためにOlivia Rodrigo(オリビア・ロドリゴ)氏のような新星のスーパースターに助けを求めすらした。

YouTubeの今回の新しいガイドラインはFacebook(フェイスブック)に倣っている。Facebookは2月に、誤ったワクチン情報を取り締まるために使用している基準を拡大した。Twitter(ツイッター)もまた、ミスリードする新型コロナ情報の拡散を禁止し、AIと人間の組み合わせでミスリードしているツイートにラベルを貼っている。Twitterは、ワクチンとマスクは新型コロナ拡散を抑制しないという誤った主張を展開したジョージア州選出の議員、Marjorie Taylor Greene(マジョリー・テイラー・グリーン)氏を一時停止措置にすらした。

関連記事
フェイスブックがワクチン接種の邪魔をする新型コロナ陰謀論を削除へ
Twitterが新型コロナワクチン誤情報への注意を喚起するラベルを導入、まずは英語でのツイートが対象

YouTubeの新ガイドラインに違反するコンテンツの例としては、ワクチンはがんや糖尿病など慢性的な副作用を引き起こすと主張する動画、ワクチンには接種した人を追跡できるデバイスが含まれていると主張するビデオ、ワクチンは人口抑制計画の一環だと主張する動画などが挙げられる。ユーザーがこれらのガイドラインに違反するコンテンツを投稿すると、YouTubeはそのコンテンツを削除し、なぜビデオが削除されたのかをアップロードした人に案内する。初めての規則違反である場合、警告を受けるだけで罰則は科されないとYouTubeは話す。もし違反が初回でなければ、ユーザーのチャンネルはストライク1つとなる。そして90日以内にストライク3つとなると、チャンネルは削除される。YouTubeはまた、Joseph Mercola(ジョセフ・メルコラ)氏やRobert F. Kennedy Jr.(ロバート・F・ケネディ・ジュニア)氏のようなワクチン反対派の有名人に関連するチャンネルも取り締まる。

「新しいガイドラインでは重要な例外もあります」とYouTubeはブログ投稿で述べている。「科学的なプロセスにおける自由公開討論や議論の重要性を踏まえ、当社は引き続き、ワクチン政策や新しいワクチンの試験、これまでのワクチンの成功や失敗などについてのコンテンツがYouTube上にあることを認めます」。

YouTubeはまた、コンテンツが他のガイドラインに違反しない限り、ユーザーがワクチンに関する個人的な体験を議論することも認める。しかしチャンネルが反ワクチンを促進する動きをみせると、YouTubeはコンテンツを削除する。これらのガイドラインは9月29日から適用される。だが、新しい規則にはよくあることだが「完全適用」にはしばらく時間がかかる、とYouTube書いている。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Amanda Silberling、翻訳:Nariko Mizoguchi

「動画版ストリートビュー」を目指すHappaningの技術はマルチ視点ビデオで現実世界を記録し誤情報も防ぐ

スタートアップHappaningは、同じ出来事を異なる視点から見られるようにすることで、ビデオをより没頭的な体験にしようとしている。共同ファウンダーでCEOのAndrew Eniwumide(アンドリュー・エニウミド)氏が好む表現を使うなら「Googleストリートビュー、ただしビデオ版」だ。同社はそのユニークのテクノロジーが提供するマルチ視点ビデオは、ビデオに新たなユーザー体験をもたらすだけではなく、誤情報やディープフェイクなどの問題を解決する可能性をもっていると信じている。同じシーンを別の視点から撮影した検証済み映像は、ビデオ編集によって人を欺こうとする動画のファクトチェックにも使えるからだ。

しかし、その崇高な目標はさらに先を見ている。

米国時間9月22日、TechCrunch Disrup 2021のスタートアップバトルフィールドの「ワイルドカード」枠で公開されたHappaningのアーリーベータ版は、まずマルチ視点ビデオのコンセプトを紹介する。同社はこれを「ViiVid」テクノロジーとして商標登録している。これはユーザーが同社のモバイルアプリを使ってビデオコンテンツを作成し、同じ場所同じ時間に撮影された別のビデオと組み合わせるシステムだ。

ビデオの検証にブロックチェーン技術は使われていないが、コンセプトには類似点がある。Happaningは数多くの人々がmaster ledger(元帳)のようなものに情報を書き込むブロックチェーンの分散ネットワークのアイデアを借用している。ただしHappaningでは、同じ情報をすべて持っているノードは存在しない、ある人のビデオは誰のビデオとも異なるからだ。しかし、組み合わさることで、ある時間と場所で起きた真実をより詳しく見せることができる。

同社は複数ビデオストリームの同期、異なるビデオ視点間をスワイプで移動するユーザー体験など、自社テクノロジーに関係するコンセプトの特許を、チームの拠点がある英国および世界知的所有権機関(WIPO)で取得している。

このテクノロジーの最初の使用事例は、結婚式、コンサート、スポーツイベント、抗議運動、デモ行進、そのた大勢の人の集まる実世界イベントの記録だ。Happanningに記録した後は、同じイベントを異なる角度や視点かから撮影したビデオをタップして見比べることができる。例えばコンサートで後列からステージを見下ろしているビデオから前列のビデオに切り替えるところを想像して欲しい。

エニウミド氏は、ビデオが悪用されたり誤解を招くために使用されている問題を解決するためにHappaningのアイデアを思いついたと話す。彼はこの問題がソーシャルメディア全体に広がっていることを指摘し、誤情報源によるFacebook投稿が、信用あるニュースサイトの記事よりも6倍多く反応を得ていることを示す記事を引用した。

「昨今、うそつきメディアの手法は日に日に高度化し、360度ビデオまで登場しています。しかし、同時に私たちは、それらが悪用されたり、不用意な編集をされたり、偏見やディープフェイクに使われている事実も見てきました」とエニウミド氏はいう。ビデオが改ざんされず、本当に宣言どおりの場所で起きたこと検証できるアプリがあれば役に立つと彼は考えた。

「私はこれをGoogleストリートビューのビデオバージョンと呼ぶのが好きです」とエニウミド氏は続ける。「つまり、あなたがビデオを撮ったのと同じ場所で誰かもビデオを撮っていたら、時間と場所、音声や視覚的なヒントを使って私たちが同期します」。

そして、見ている人は自分の行きたい方向にスワイプすれば、Google Street Viewで別方向に移動できるのと同じように、別の角度や視点からシーンを見ることができる。

公開時点では、ライブストリームビデオに焦点を合わせているが、今後は自分たちの知的財産を一種の技術標準として開発し、ビデオをエクスポートしたり別のところで公開する方法を提供したいとスタートアップは考えている。Happaningのデビューバージョンは、ほぼMVP(実用最小限の製品)か技術デモというべきもので、全体のユーザーインターフェースと体験は開発が完了したようには見えない。しかしアプリは無料で利用可能で、勢いがつけば、長期的にサブスクリプションプランも考えている。

エニウミド氏には、英国のエンジニアリング企業、Detica、BAE Systemsなどでソフトウェア開発者および主要コンサルタントとして12年以上働いた経験がある。その後同氏はCFOのLeslie Sagay(レスリー・サゲイ)氏、CMOのJoanna Steele(ジョアンナ・スティール)氏、CTOのColin Agbabiaka(コリン・アグバジアカ)氏、インフラストラクチャー担当のAJ Adesanya(アジ・アデサニャ)氏らを迎え入れた。ただしチームの大半は現時点で同社のフルタイム社員ではない。

Happaningはこれまでにプレシード資金21万9500ポンド(約3300万円)を調達前評価額300万ポンド(約4億5000万円)で調達しており、調達前評価額450万ポンド(約6億7000万円)でシード資金50万ポンド(約7500万円)を調達することを目標にしている。

画像クレジット:Happaning

原文へ

(文:Sarah Perez、翻訳:Nob Takahashi / facebook

【インタビュー】数学者が紐解く偽情報の世界

偽情報に誤報、インフォテイメントにalgowars(アルゴワーズ)。メディアの未来をめぐるここ数十年間の議論に意味があるとすれば、少なくとも言語には刺激的な痕跡を残したということだろう。個人の心理的状態や神経学的な問題から、民主主義社会についてのさまざまな懸念まで、ソーシャルメディアが我々の社会にもたらす影響に関するあらゆる非難と恐怖がここ何年もの間、世間を渦巻いている。最近Joseph Bernstein(ジョセフ・バーンスタイン)氏が語った通り「群衆の知恵」から「偽情報」へのシフトというのは確かに急激なものだったと言えるだろう。

そもそも偽情報とは何なのか。それは存在するのか、存在するとしたらそれはどこにあるのか、どうすればそれが偽情報だとわかるのか。お気に入りのプラットフォームのアルゴリズムが私たちの注意を引きつけようと必死に見せてくる広告に対して我々は警戒すべきなのか?Noah Giansiracusa(ノア・ジアンシラクサ)氏がこのテーマに興味を持ったのは、まさにこのよう入り組んだ数学的および社会科学的な疑問からだった。

ボストンにあるベントレー大学の教授であるジアンシラクサ氏は、代数幾何学などの数学を専門としているが、計算幾何学と最高裁を結びつけるなど、社会的なトピックを数学的なレンズを通して見ることにも興味を持っていた。最近では「How Algorithms Create and Prevent Fake News(アルゴリズムがフェイクニュースを生み、防ぐ仕組み)」という本を出版。著書では今日のメディアをめぐる課題と、テクノロジーがそれらの傾向をどのように悪化させたり改善したりしているかを探求している。

先日筆者はTwitter Spaceでジアンシラクサ氏をお招きしたのだが、何とも儚いTwitterではこのトークを後から簡単に聴くことができないため、読者諸君と後世のためにも会話の中で最も興味深い部分を抜き出してみることにした。

このインタビューはわかりやすくするために編集、短縮されている。

ダニー・クライトン:フェイクニュースを研究し、この本を書こうと思った理由を教えてください。

ノア・ジアンシラクサ:フェイクニュースについては社会学や政治学の分野で非常に興味深い議論がなされています。一方でテック系サイドではMark Zuckerberg(マーク・ザッカーバーグ)氏が「AIがすべての問題を解決してくれる」などと言っています。このギャップを埋めるのは少し難しいのではないかと感じました。

ソーシャルメディア上の誤報について、バイデン大統領が「誤報が人を殺している」と言ったのを耳にしたことがあるでしょう。このように、アルゴリズムの側面を理解するのが難しい政治家たちはこのようなことを話しているのです。一方、コンピューターサイエンスの専門家らは細部にまで精通しています。私は筋金入りのコンピューターサイエンスの専門家ではないので、その中間にいると言えるでしょう。ですから一歩下がって全体像を把握することが私には比較的簡単にできると思っています。

それに何と言っても、物事が混乱していて、数学がそれほどきれいではない社会との相互作用をもっと探究したいと思ったのです。

クライトン:数学のバックグラウンドを持つあなたが、多くの人がさまざまな角度から執筆しているこの難しい分野に足を踏み入れています。この分野では人々は何を正しく理解しているのでしょうか。また、人々が見落としているものとは何でしょうか。

ジアンシラクサ:すばらしいジャーナリズムがたくさんあります。多くのジャーナリストがかなり専門的な内容を扱うことができていることに驚かされました。しかし、おそらく間違っているわけではないのですが、1つだけ気になったことがあります。学術論文が発表されたり、GoogleやFacebookなどのハイテク企業が何かを発表したりするときに、ジャーナリストたちはそれを引用して説明しようとするのですが、実際に本当に見て理解しようとすることを少し恐れているように見えました。その能力がないのではなく、むしろ恐怖を感じているのだと思いました。

私が数学の教師として大いに学んだことですが、人々は間違ったことを言ったり、間違えたりすることをとても恐れています。これは技術的なことを書かなければならないジャーナリストも同じで、間違ったことを言いたくないのです。だからFacebookのプレスリリースを引用したり、専門家の言葉を引用したりする方が簡単なのでしょう。

数学が純粋に楽しく美しい理由の1つは、間違いなどを気にせずアイデアを試してみて、それがどこにつながっていくのかを体験することで、さまざまな相互作用を見ることができるということです。論文を書いたり講演をしたりするときには、詳細をチェックします。しかし数学のほとんどは、アイデアがどのように相互作用するかを見極めながら探求していく、この創造的なプロセスなのです。私は数学者としての訓練を受けてきたので、間違いを犯すことや非常に正確であることを気にかけていると思うかもしれませんが、実はそれはとは逆の効果があるのです。

それから、これらのアルゴリズムの多くは見た目ほど複雑ではありません。私が実際に実行しているわけではありませんし、プログラムを組むのは難しいでしょう。しかし、全体像を見ると最近のアルゴリズムのほとんどはディープラーニングに基づいています。つまりニューラルネットワークがあり、それがどんなアーキテクチャを使っているかは外部の人間として私にはどうでもよく、本当に重要なのは予測因子は何なのかということです。要するにこの機械学習アルゴリズムに与える変数は何か、そして何を出力しようとしているのか?誰にでも理解できることです。

クライトン:アルゴリズムを分析する上での大きな課題の1つは透明性の低さです。問題解決に取り組む学者コミュニティの純粋数学の世界などとは異なり、これらの企業の多くは、データや分析結果を広く社会に提供することについて実際には非常に否定的です。

ジアンシラクサ:外部からでは、推測できることには限界があるように感じます。

YouTubeの推薦アルゴリズムが人々を過激派の陰謀論に送り込むかどうかを学者チームが調べようとしていましたが、これは良い例です。これが非常に難しいのは、推薦アルゴリズムにはディープラーニングが使われており、検索履歴や統計学、視聴した他の動画や視聴時間など、何百もの予測因子に基づいているためです。あなたとあなたの経験に合わせて高度にカスタマイズされているので、私が見つけた研究ではすべてシークレットモードが使用されていました。

検索履歴や情報を一切持たないユーザーが動画にアクセスし、最初におすすめされた動画をクリックし、またその次の動画をクリックする。そのようにしていけばアルゴリズムが人をどこへ連れて行くのかを確認することができるでしょう。しかしこれは履歴のある実際のユーザーとはまったく異なる体験ですし、とても難しいことです。外部からYouTubeのアルゴリズムを探る良い方法は誰も見つけられていないと思います。

正直なところ、私が考える唯一の方法は、大勢のボランティアを募り、その人たちのコンピューターにトラッカーを取り付けて「インターネットを普段通り閲覧して、見ている動画を教えてください」と頼む昔ながらの研究方法です。このように、ほとんどすべてと言っていいほど多くのアルゴリズムが個人のデータに大きく依存しているという事実を乗り越えるというのはとても困難なことです。私たちはまだどのように分析したら良いのか分かっていないのです。

データを持っていないために問題を抱えているのは、私やその他の外部の人間だけではありません。アルゴリズムを構築した企業内の人間も、そのアルゴリズムがどのように機能するのか理論上はわかってはいても、実際にどのように動作するのかまでは知らないのです。まるでフランケンシュタインの怪物のように、作ったはいいがどう動くかわからないわけです。ですから本当の意味でデータを研究するには、そのデータを持っている内部の人間が、時間とリソースを割いて研究するしかないと思います。

クライトン:誤報に対する評価やプラットフォーム上のエンゲージメントの判断には多くの指標が用いられています。あなたの数学的なバックグラウンドからすると、こういった指標は強固なものだと思いますか?

ジアンシラクサ:人々は誤った情報を暴こうとします。しかし、その過程でコメントしたり、リツイートしたり、シェアしたりすることがあり、それもエンゲージメントとしてカウントされます。エンゲージメントの測定では、ポジティブなものをきちんと把握しているのか、それともただすべてのエンゲージメントを見ているのか?すべて1つにまとめられてしまうでしょう。

これは学術研究においても同様です。被引用率は研究がどれだけ成功したものかを示す普遍的な指標です。例えばウェイクフィールドの自閉症とワクチンに関する論文は、まったくインチキなのにも関わらず大量に引用されていました。その多くは本当に正しいと思って引用している人たちですが、その他の多くはこの論文を否定している科学者たちです。しかし引用は引用です。つまり、すべてが成功の指標としてカウントされてしまうのです。

そのためエンゲージメントについても、それと似たようなことが起きているのだと思います。私がコメントに「それ、やばいな」と投稿した場合、アルゴリズムは私がそれを支持しているかどうかをどうやって知ることができるでしょう。AIの言語処理を使って試すこともできるかもしれませんが、そのためには大変な労力が必要です。

クライトン:最後に、GPT-3や合成メディア、フェイクニュースに関する懸念について少しお話したいと思います。AIボットが偽情報でメディアを圧倒するのではないかという懸念がありますが、私たちはどれくらい怖がるべきなのか、または恐れる必要はないのか、あなたの意見を教えてください。

ジアンシラクサ:私の本は体験から生まれたものなので、公平性を保ちながら人々に情報を提供して、彼らが自分で判断できるようにしたいと思いました。そのような議論を省いて、両方の立場の人に話してもらおうと思ったのです。私はニュースフィードのアルゴリズムや認識アルゴリズムは有害なものを増幅させ、社会に悪影響を与えると思います。しかしフェイクニュースを制限するためにアルゴリズムを生産的にうまく使っているすばらしい進歩もたくさんあります。

AIがすべてを解決し、真実を伝えて確認し、誤った情報を検出してそれを取り消すことができるアルゴリズムを手に入れることができるというテクノユートピア主義の人々がいます。わずかな進歩はありますが、そんなものは実現しないでしょうし、完全に成功することもありません。常に人間に頼る必要があるのです。一方で、もう1つの問題は不合理な恐怖心です。アルゴリズムが非常に強力で人間を滅ぼすという、誇張されたAIのディストピアがあります。

2018年にディープフェイクがニュースになり、GPT-3が数年前にリリースされた際「やばい、これではフェイクニュースの問題が深刻化して、何が真実かを理解するのがずっと難しくなってしまう」という恐怖が世間を取り巻きました。しかし数年経った今、多少難しくなったと言えるものの、予想していたほどではありません。主な問題は何よりも心理的、経済的なものなのです。

GPT-3の創造者らはアルゴリズムを紹介した研究論文を発表していますが、その中で、あるテキストを貼り付けて記事へと展開させ、ボランティアに評価してもらいどれがアルゴリズムで生成された記事で、どれが人間が生成した記事かを推測してもらうというテストを行いました。その結果、50%に近い精度が得られたと報告されています。すばらしくもあり、恐ろしいことでもありますね。

しかしよく見ると、この場合は単に1行の見出しを1段落の文章に展開させたに過ぎません。もしThe Atlantic誌やNew Yorker誌のような長文の記事を書こうとすると、矛盾が生じ、意味をなさなくなるかもしれません。この論文の著者はこのことには触れておらず、ただ実験をして「見て、こんなにも上手くいったよ」と言っただけのことです。

説得力があるように見えますし、なかなかの記事を作ることは可能です。しかしフェイクニュースや誤報などについて言えば、なぜGPT-3がさほど影響力がなかったかというと、結局のところそれはフェイクニュースがほとんどクズ同然だからです。書き方も下手で、質が低く、安っぽくてインスタントなものだからです。16歳の甥っ子にお金を払えば、数分で大量のフェイクニュース記事を作ることができるでしょう。

数学のおかげでこういったことを理解できるというよりも、数学では主に懐疑的になることが重要だから理解できるのかもしれません。だからこういったことに疑問を持ち、少し懐疑的になったら良いのです。

関連記事
米国政府・自治体はアップルとグーグル共同開発のコロナ接触通知APIを活用できず大失敗との調査結果
YouTubeは2020年2月以降、新型コロナに関する100万の危険な誤情報動画を削除
ツイッターはユーザーに新型コロナと選挙の誤情報報告を依頼
画像クレジット:Valera Golovniov/SOPA Images/LightRocket / Getty Images

原文へ

(文:Danny Crichton、翻訳:Dragonfly)

米国政府・自治体はアップルとグーグル共同開発のコロナ接触通知APIを活用できず大失敗との調査結果

米国政府・自治体はアップルとグーグル共同開発のコロナ接触通知APIを活用できず大失敗との調査結果

ArtMarie via Getty Images

Googleとアップルが共同開発した新型コロナ接触通知APIは世界各国のアプリに採用され、日本ではAndroid版の「COCOA」が数か月にわたって事実上機能していなかった一件もありつつも、英国では6000人もの命を救ったと推計されています。

しかしGoogleとアップルの本国である米国では、このAPIを使ったアプリはほとんど失敗に終わったとの調査結果が発表されています。

米Business Insiderの調べによると、米国の多くの州ではアプリ開発さえ行われず、作られても利用率も低く、わざわざアプリに感染記録を残しているユーザーもほとんどおらず、まるで役に立ってないと判明したとのことです。

この報告では、連邦政府から個人に至るまで様々な失敗例が紹介されています。まず最初の問題は、ホワイトハウス(米行政府)が米国で共通の接触通知アプリを作らず、各州に委ねていたことです。

FTC(米連邦取引委員会)の元チーフテクノロジストは、個々の州にアプリ開発を任せたことが全国的な認知度を高め、ユーザーに検査結果を入力してもらう努力を妨げたのではないかと推測。さらに「もし連邦政府がシステムを支援し、このアプリや同種のアプリを全米に広く展開していたら、この数字(使用率)はおそらく大きく変わっていたでしょう」と述べています。

第2に、米国の約半数の州がそもそもアプリを開発しない道を選んだことです。サービスを利用できた28州および準州の人口は約1億8680万人。つまり、残り1億4150万人(全人口の43.1%)もの米国人が一切カバーされなかったわけです。

第3にアプリを展開した州でも、プロモーションや教育が不十分であったため、利用率が極めて低かったことです。一部の州では住民にサービスを検討してもらうことさえ困難であり、たとえばアリゾナ州では人口の1.3%しかアプリを導入しないまま、2021年7月にはプログラムを終了したとのことです。ほかミシガン州では住民の6.3%、ワイオミング州では0.69%(約4000人)しかアプリを入れなかったという低調ぶりです。

最後に、新型コロナの陽性反応が出た人々のうち、実際にアプリに記録した人はわずか2%でした。接触通知アプリは、陽性診断を受けた本人がアプリを通じて報告し、その人と濃厚接触した可能性のある人々に警告することが目的のため、98%もの陽性ユーザーが記録を付けなければまったく意味を成さないことになります。

これは同じAPIを使っている英国民保険サービス(NHS)のアプリでは、実に感染ユーザーの40%以上が報告していたこととは対照的ではあります。

米9to5Macは、多くの米国人が接触通知アプリを「自分の居場所や会った人を追跡している」と勘違いしていたと指摘。その原因のひとつは偽情報ではあるのですが、もう一つは政治家らが接触通知アプリを使っても安心だと説得するどころか、アプリの使用に積極的に反対していたためだと推測しています。

新型コロナワクチンについてもYouTubeで誤情報を拡散する動画がはびこっているほか、ロシアが自国製ワクチン売込みのために偽情報を広めているとの報道もありました

人類と新型コロナとの戦いは、一方で人流を減らしたりワクチン接種を進めるといった物理的な対策をしつつ、他方では反ワクチン主義者の出会い系アプリなど誤情報を抑止することも必須のため、いっそう困難となっているといえそうです。

(Source:Business Insider。Via 9to5MacEngadget日本版より転載)

YouTubeは2020年2月以降、新型コロナに関する100万の危険な誤情報動画を削除

YouTube(ユーチューブ)の最高製品責任者Neal Mahon(ニール・マホン)氏によると、YouTubeは2020年2月以降に新型コロナウイルス感染症に関する危険な誤情報のために100万点の動画を削除した。

マホン氏は、誤情報に対して同社がどのような措置を取っているのかを示すブログ投稿の中で統計を共有した。「誤情報は端の方からメインストリームへと動きました」と同氏は書いた。「ホロコースト否定者や9-11の真実を求める人たちの封印された世界にとどまらず、社会のあらゆる側面に入り込み、時として猛スピードでコミュニティを駆け抜けます」。

と同時にマホン氏はYouTubeのコンテンツ全体における「悪いコンテンツ」の割合はわずかだと主張しれいる。「悪いコンテンツはYouTube上の何十億という動画のうち、パーセンテージとしてはわずかです(全動画の約0.16〜0.18%がYouTubeの規則に違反)」と同氏は書いた。そしてYouTubeが各四半期に約1000万点の動画を削除していて「削除される動画の大半は視聴回数が10回にも満たない」と付け加えた。

Facebook(フェイスブック)も最近、自社プラットフォーム上のコンテンツについて同様の主張をした。同社は先週、人気の投稿のほとんどはミーム、あるいは非政治的なコンテンツだと主張するレポートを発表した。そして新型コロナウイルス感染症とワクチンの誤情報の扱いに対する批判について、同社はワクチン誤情報は大半のユーザーが目にしているものを代表してはいない、と主張した。

パンデミックの間、Facebook、YouTubeいずれも健康に関する誤情報をめぐる規則について特に厳しい目が向けられた。両プラットフォームとも10億人超のユーザーを抱えていて、これはたとえほんのわずかな数のコンテンツでも広範に影響を及ぼす力を持っていることを意味する。そしてどちらのプラットフォームもこれまでのところ、ワクチンと健康に関する誤情報がどの程度広まったのか、あるいはどれだけのユーザーが誤情報に遭遇したのか、開示を却下してきた。マホン氏は、誤情報の削除は同社のアプローチの1つの側面にすぎない、とも語った。YouTubeは「信頼できるソースからの情報の増加と害のある誤情報をともなう動画の拡散の抑制」にも取り組んでいる。

編集部注:本記事の初出はEngadget。著者Karissa Bell(カリッサ・ベル)氏はEngadgetのシニアエディター。

関連記事
ツイッターはユーザーに新型コロナと選挙の誤情報報告を依頼
ツイッターがAP通信、ロイターと提携して誤情報の拡散防止を強化
EUが大手テック企業の「新型コロナ偽情報対応は不十分」と指摘
画像クレジット:Olly Curtis/Future / Getty Images

原文へ

(文:Karissa Bell、翻訳:Nariko Mizoguchi

ツイッターはユーザーに新型コロナと選挙の誤情報報告を依頼

Twitter(ツイッター)は米国時間8月17日、ユーザーが同サービス上で遭遇した誤情報を報告し「誤解を招きやすい」ことを会社に警告できる新しいテスト機能を導入した。テストは米国、オーストラリア、韓国の大部分のユーザーに同日公開される。

この新しいテストでTwitterは、ツイートの右上隅にある3ドット「…」のコンテキストメニューに 「report tweet」(ツイートを報告)を追加し、ユーザーは誤解を招くツイートを報告するオプションを選べるようになる。次のメニューでは、ツイートが「政治」「健康」「その他」のいずれに関して誤解を招きやすいかを指定する。「政治」を選んだ場合は誤解を招く政治的ツイートが選挙に関するものかどうか、健康を選んだ場合は新型コロナウイルス感染症(COVID-19)に関するものかどうかを指定できる。

Twitterは以前、ユーザーが選挙関連誤情報を報告する方法を追加したが、その時のオプションは各国の選挙にリンクされた一時的な機能だった。2019年、同社は投票に関する誤解を招くツイートを報告して選挙の安全を守る機能をヨーロッパとインドで公開している。

関連記事:新型コロナワクチン誤情報の投稿でツイッターが米共和党員のアカウントを一時停止

その意図は、選挙とパンデミック関連の誤情報という同社が力を入れている2つの話題に関する既存ポリシーに違反するツイートを、ユーザーが報告できるようにすることだ。このユーザー報告システムはTwitterの人力と自動を組み合わせた潜在的危険情報事前検出システムと連動する。現時点でユーザーは自分が報告した誤解を招くツイートがどうなったかについて会社からフィードバックを得ることはないが、将来機能が追加されるかもしれない。

新たな報告機能はかなり広範囲で利用可能だが、同社はこれを「実験」であると説明しており完成した機能ではない。Twitterは、ユーザーが誤情報報告ツールをどう使うかを観察してその効果を見極めようとしているが、いつ機能を全面公開するのかあるいはテスト機能を削除するのか、具体的時期は示されていない。

関連記事:Twitterが新型コロナ感染拡大につながるツイート削除を強化

今のところTwitterはユーザーが新機能を乱用する心配はあまりしていないようで、これは新しい報告オプションが実績のある管理システムと直接つながっているからだ。それでも、ユーザーが会社に「誤解を招く」ツイートを知らせるというアイデアは、すでに誤情報を拡散しがちなプラットフォームのさまざまな場所から検閲を求める新たな声を誘発することは間違いない。

誤解を招くツイート警告するオプションは新しいものだが、報告されたツイートはTwitterの既存の実行フローに合流し、そこには健康と政治の誤情報に関する確立されたルールがあり、人力とアルゴリズム混合による方法で実施されている。

そのプロセスでは報告されたツイートを優先度に応じて分類してからレビューする。フォロワーの多いユーザーのツイートや、非常に高いレベルのエンゲージメントを生み出しているツイートはレビュー行列の前の方にくる。選挙と新型コロナに関するツイートというTwitterが誤情報監視に関して力を入れている2分野についても同様だ。

新しいテストは、Twitterが自身のコミュニティに頼って誤情報を検出しようとする最新の取り組みだ。この路線におけるTwitterの最も野心的な実験がBirdwatch(バードウォッチ)で、これはクラウドソーシングを使ってユーザーがツイートにコメントと事実確認を追加し、他のユーザーがアップ / ダウン投票できる仕組みだ。今のところBirdwatchはパイロットプログラムにすぎないが、同社が監視機能の分散化に興味を持っていることは明らかであり、これはツイートを報告する方法を追加するだけよりもはるかに論点の多い実験だ。

関連記事
Twitterが誤った情報と戦うためにツイートにコンテキストを追加する「Birdwatch」システムを開発中
ツイッターがユーザーの手を借りた新ファクトチェック機能「バードウォッチ」の試験運用開始

カテゴリー:ネットサービス
タグ:Twitter誤情報SNS

画像クレジット:Bloomberg / Getty Images

原文へ

(文:Taylor Hatmake、翻訳:Nob Takahashi / facebook