【コラム】強力な商業プラットフォームに対する欧州のデジタル規制は、ウィキペディアのような非営利協働型サイトも縛る

2020年に新型コロナウイルス(COVID-19)が世界中に急速に広まる中で、世界中のみんなが信頼できる情報を渇望した。科学者、ジャーナリスト、医療関係者からの情報を集約して、一般の人々がアクセスできるようにするために、ボランティアのグローバルネットワークがこの課題に取り組んだ。

そのうちの2人は、お互いから3200km近く離れた場所に住んでいる。その1人Alaa Najjar(アラア・ナジャー)博士は、ウィキペディアのボランティアであり、医師でもある人物だ。彼は救急病院での勤務の合間を縫って、アラビア語版のサイトにおける新型コロナの誤報に取り組んでいる。もう1人、スウェーデン在住の臨床神経科学者で医師のNetha Hussain(ネサ・フセイン)博士は、オフの時間に新型コロナの記事を英語とマラヤーラム語(インド南西部の言語)で編集し、その後、新型コロナワクチンに関するウィキペディアの記事の改善に力を注いだ。

ナジャー博士とフセイン博士、そして28万人以上のボランティアのおかげで、ウィキペディアは 新型コロナに関する最新かつ包括的な知識を得ることができる最も信頼できる情報源の1つとなり、188の言語で約7000の記事が掲載されるまでになった。ウィキペディアがもつ、主要な病気についての情報提供から学生のテスト勉強の支援までをカバーする世界規模での到達性と知識共有の可能性は、ひとえにボランティア主導の協力的なモデルを可能にする法律があってこそ実現されている。

欧州議会は、デジタルサービス法(DSA)のようなパッケージを通じて、ビッグテックのプラットフォームのウェブサイトやアプリで増幅される違法コンテンツの責任を追及することを目的とした新しい規制を検討しているが、彼らは同時に公共の利益のために協力する市民の働きを保護しなければならない。

多くの国で違法とされているコンテンツを含め、身体的・心理的な被害をもたらすコンテンツの拡散を食い止めようとしている議員たちの姿勢は正しいものだ。彼らが包括的なDSAのためのさまざまな条項を検討している中で、私たちは、プラットフォームのコンテンツモデレーションがどのように機能すべきかについての透明性を高めるための要件などを含む、提案されているいくつかの要素は歓迎している。

しかし、現在の草案には、利用規約をどのように適用すべきかについての指示的要件も含まれている。一見すると、それらはソーシャルメディアの台頭を抑制し、違法コンテンツの拡散を防ぎ、オンライン空間の安全性を確保するために必要な措置のように思える。しかし、ウィキペディアのようなプロジェクトはどうなるのだろうか?提案されている要件の中には、人びとの力を取り上げてプラットフォーム提供者に移管させる可能性のあるものも存在している。これによって大規模な商業プラットフォームとは異なる運営をしているデジタルプラットフォームが阻害される可能性があるのだ。

ビッグテックのプラットフォームは、ウィキペディアのような非営利の協働型サイトとは根本的に異なる方法で機能されている。ウィキペディアのボランティアによって作成されたすべての記事は、無料で利用可能で広告はなく、読者の閲覧習慣を追跡することもない。商業プラットフォームのインセンティブ構造は、利益とサイト滞在時間を最大化することで、そのために詳細なユーザープロファイルを活用したアルゴリズムを使って、利用者に対して影響を与える可能性の高いコンテンツを提供する。彼らは、コンテンツを自動的に管理するために、より多くのアルゴリズムを導入しているが、その結果、過剰規制と過小規制のエラーが発生する。例えば、コンピュータープログラムは、芸術作品風刺を違法なコンテンツと混同することが多く、プラットフォームの実際のルールを適用するために必要な人間のニュアンスや文脈を理解することができない。

ウィキメディア財団と、ウィキメディア・ドイツのような特定の国に拠点を置く関連団体は、ウィキペディアのボランティアと、ウィキペディアに存在すべき情報とそうでない情報について決定を下す彼らの自律性を尊重している。オンライン百科事典ウィキペディアのオープン編集モデルは、どの情報をウィキペディアに載せるかは利用者が決めるべきだという信念に基づいており、中立性と信頼性の高い情報源に対して、ボランティアが開発して確立された規則を活用している。

このモデルでは、ウィキペディアのどんなテーマの記事でも、そのテーマについて知っている人や関心のある人が、そのページでどのようなコンテンツが許可されるかを決めるという規則が適用されるのだ。さらに、プラットフォーム上での編集者間の会話はすべて公開されているため、コンテンツ管理は透明性が高く説明責任が果たされている。これは完璧なシステムではないが、ウィキペディアを中立的で検証された情報の世界的な情報源とするためにはほぼ機能している

ウィキペディアを、読者や編集者への説明責任を欠いた、トップダウンの権力構造を持つ商業プラットフォームのように運営せよと強いることは、コンテンツに関する重要な決定からコミュニティを排除することであり、DSAの真の公益的意図を覆すことになるといっても間違いではない。

インターネットは変曲点を迎えている。民主主義と市民の空間は、ヨーロッパをはじめ世界中で攻撃を受けている。私たち全員が今まで以上に、新しい形の文化、科学、参加、知識を可能にするオンライン環境を、新しい規則が妨げるのではなく促進するにはどうすれば良いかを注意深く考える必要がある。

議員たちは、私たちのような公益団体と協力することで、より包括的で、より適用可能で、より効果的な基準や原則を策定することができるだろう。だが、最も強力な商業インターネットプラットフォームのみを対象としたルールを課すべきではない。

私たちは、より良い、より安全なインターネットを手にすることができるべきだ。私たちは議員に対して、ウィキメディアを含むさまざまな分野の協力者ともに、市民がともに改善できる力を与えるような規制を策定することを求めたい。

編集部注:著者のAmanda Keton(アマンダ・ケトン)氏はウィキメディア財団の顧問、
Christian Humborg(クリスチャン・ハンボルグ)氏は、ウィキメディア・ドイツのエグゼクティブ・ディレクターである。

画像クレジット:KTSDESIGN/SCIENCE PHOTO LIBRARY/Getty Images

原文へ

(文: Amanda Keton、Christian Humborg、翻訳:sako)

TikTokは第2四半期に規約違反で動画8100万本を削除、アップロード総数の1%に相当

TikTok(ティクトック)は、2021年4月1日から6月30日の間にプラットフォームから削除されたコンテンツに関する透明性のアップデートを発表した。同プラットフォームによると、同期間中にコミュニティガイドラインや利用規約に違反したとして削除された動画は8151万8334本で、投稿された動画全体の1%にも満たない。これはまた、同四半期中に81億本以上の動画がTikTokに投稿されたことを意味し、1日平均約9000万本の動画が投稿されたことになる。

TikTokは7月に、未成年者の安全、成人のヌードや性的行為、暴力的で生々しいコンテンツ、違法行為などに関するポリシーに違反するコンテンツを自動的に削除する技術を導入した。同プラットフォームは、特にこれらのコンテンツに対して自動化を活用している。というのも、同技術の精度が最も高い分野だからだ。また、報告されたコンテンツを精査する安全チームに人間のコンテンツモデレーターを配置している。

自動化された技術が発表されたとき、TikTokは削除の誤判定率(実際にはルールに違反していないコンテンツを削除してしまうこと)は5%だと発表した。この数字は、今日発表された透明性レポートにも反映されていて、削除された8100万本の動画のうち、約460万本が復活した。削除された動画の41.3%を占めるコンテンツ削除理由で最も多かったのは、軽微な安全ガイドライン違反だった。TikTokによると、削除されたコンテンツの94.1%はユーザーが報告する前に特定・削除されているという。

それでも、誤って削除されたコンテンツの5%の中には、失敗したコンテンツモデレーションのトラブル事例がある。例えば、人気の黒人クリエイターZiggi Tyler(ジギー・タイラー)氏は、自分のアカウントのプロフィールに「Black Lives Matter」や「I am a black man」などのフレーズが含まれていると、アプリが「不適切」と判定すると指摘した。一方で「白人至上主義を支持する」などの表現はすぐには検閲されなかった。

YouTube(ユーチューブ)やFacebook(フェイスブック)といったプラットフォームがワクチンの誤情報を含むコンテンツを禁止する動きを見せる中、TikTokのような他の名の知れたソーシャルメディア企業は、同様の問題にどのように取り組むか態度をはっきりさせなければならない。TikTokのコミュニティガイドラインでは、新型コロナウイルス感染症(COVID-19)やワクチン、さらに広範な反ワクチン誤情報について、虚偽または誤解を招くようなコンテンツを禁止している

関連記事:YouTubeが新型コロナに続きワクチン全般の誤情報も禁止対象に

第2四半期にTikTokは新型コロナウイルスに関する誤情報を理由に2万7518本の動画を削除した。TikTokによると、これらの動画の83%はユーザーから報告される前に削除され、87.6%は投稿から24時間以内に削除された。そして69.7%は閲覧回数がゼロだったという。一方、WHO(世界保健機関)やCDC(米疾病管理予防センター)の情報をもとに開発されたTikTokのCOVID-19情報ハブは、全世界で9億2100万回以上閲覧された。

数字に関して言えば、TikTokの月間アクティブユーザー数は9月に10億人を突破し、TikTokが成長し続けていることは間違いない。今回の透明性報告書の数字も、そうした成長を反映している。2020年上半期にTikTokは1億400万本の動画を削除したが、これは投稿された全コンテンツの1%に相当した。この1%の削除率は、本日発表されたデータと一致しているが、本日の報告書にある削除された動画8100万本というのは、2四半期分ではなく1四半期分だ。

関連記事:TikTokの月間アクティブユーザーが10億人に到達

画像クレジット:Costfoto / Barcroft Media / Getty Images

原文へ

(文:Amanda Silberling、翻訳:Nariko Mizoguchi

G7は有害オンラインコンテンツ規制に取り組むべきと仏マクロン大統領が力説

エリゼ宮での記者会見で、フランスのEmmanuel Macron(エマニュエル・マクロン)大統領はオンライン規制、特に有害なコンテンツ規制に繰り返し言及した。G7サミットが今週英国で開催されるため、マクロン大統領は国際協力を呼びかけた。

「効果的な多国間主義の恩恵を受けるかもしれず、また我々が今回のG7サミットで取り上げる3つめの大きなトピックはオンライン規制です」とマクロン大統領は述べた。「再度話すことになると私が確信しているこのトピックは我々の民主主義にとって不可欠なものです」。

マクロン大統領はまた、記者会見の場を利用してこの件に関するフランスの取り組みを総括した。「2017年夏に我々はオンラインテロリストコンテンツに取り組むイニシアチブをTheresa May(テリーザ・メイ)首相と立ち上げました。当時も今日同様にクレイジーでしたが、イニシアチブはほとんど失敗に終わりました。言論の自由のために、人々は余計なお世話だ、というようなことを言いました」。

2019年にニュージーランドのクライストチャーチで恐ろしいモスク銃乱射事件が起こった。その銃撃の様子をとらえたビデオの複数のコピーがFacebook、YouTube、Twitter上で出回った。マクロン大統領はニュージーランドのJacinda Ardern(ジャシンダ・アーダーン)首相や何人かのG7のデジタル大臣、テック企業をパリに招待した。

出席者は「Christchurch Call」という拘束力のない誓約に署名した。ソーシャルプラットフォームを運営するテック企業は基本的に有害コンテンツ、なかでもテロリストのコンテンツの阻止でさらに取り組むことに同意した。

Facebook、Twitter、Google (そしてYouTube)、Microsoft、Amazon、その他のテック企業も誓約に署名した。17カ国と欧州委員会もまたChristchurch Callを支持した。ただし1つ大きな例外があった。米国は誓約に署名しなかった。

「誓約に署名したすべてのオンラインプラットフォームが従ったため、この戦略はいくらか具体的な成果につながりました」とマクロン大統領は話した。「この証拠はフランスが昨秋テロ攻撃に直面したときに起こったことに見られます」。2020年10月、フランスの教師Samuel Paty(サミュエル・パティ)氏がテロリストによって殺され、斬首された。

「プラットフォームはコンテンツにフラッグを立て、1時間以内にコンテンツを削除しました」とマクロン大統領は続けた。

その後、さらに多くの国やオンラインプラットフォームがChristchurch Call支持を表明した。2021年5月に米国のJoe Biden(ジョー・バイデン)大統領も有害コンテンツに対する国際的な取り組みに加わった。「米国で法人化されている企業の数を考えたとき、大きなステップであり、私はこれを歓迎します」とマクロン大統領は述べた。

しかしChristchurch Callの次に何がくるのだろう。マクロン大統領はまず、Christchurch Callを支持するようさらに多くの国に働きかけたいとと考えている。たとえば中国とロシアはChristchurch Call支持の輪に加わっていない。

「2つめは、あらゆる種のオンラインのヘイト言論、差別的言論、反ユダヤ主義言論、そしてオンラインハラスメントに関連するフレームワークづくりを進める必要があります」とマクロン大統領は話した。

そしてこの件に関するフランスの規制についても手短に言及した。オンラインプラットフォーム上のヘイトスピーチに関するフランスの規制は2020年、新しい法律が合憲かどうかを判断する最高機関である憲法評議会によって違憲だと判断された。

ヘイトスピーチコンテンツのリストは長く広範で、その一方で科され得る罰金はかなり高額だ。憲法評議会はオンラインプラットフォームがあまりにも早くコンテンツを検閲するのではないかと危惧した。

しかしそれでもマクロン大統領は欧州レベルとG7レベルでンラインコンテンツに関する新しい規制を支持するのをやめはしないようだ。

「G20サミットで議論でき、またオンラインでのやりとりの中の粗暴な行為に対して戦えるようにする効果的なフレームワークを構築する唯一の方法です。ゆえに、我々の新しい世界の秩序の中に粗暴な行為をおくことになります」とマクロン大統領は物議を醸している「粗暴な行為」という暗喩(フランス語ensauvagementは「野蛮化する」の意を使って述べた。この言葉は最初に極右の政治家によって広まった

マクロン大統領によると、世界のリーダーがオンライン規制で共通点を見つけ出せなかったらインターネットの崩壊につながる。たとえば一部のオンラインサービスをブロックすることを選択する国も出てくるかもしれない。

そして最近の事件は、そうした事態がすでに起こりつつあることを示している。ナイジェリア政府は数日前にTwitterを禁止した。テロリストコンテンツを阻止するために合意するのは簡単だが、他のコンテンツをモデレートしようと思えばあっという間に大変な作業になる。

カテゴリー:パブリック / ダイバーシティ
タグ:エマニュエル・マクロンコンテンツモデレーションSNSフランスG7

画像クレジット:Pascal Rossignol / AFP / Getty Images

原文へ

(文:Romain Dillet、翻訳:Nariko Mizoguchi