【コラム】強力な商業プラットフォームに対する欧州のデジタル規制は、ウィキペディアのような非営利協働型サイトも縛る

2020年に新型コロナウイルス(COVID-19)が世界中に急速に広まる中で、世界中のみんなが信頼できる情報を渇望した。科学者、ジャーナリスト、医療関係者からの情報を集約して、一般の人々がアクセスできるようにするために、ボランティアのグローバルネットワークがこの課題に取り組んだ。

そのうちの2人は、お互いから3200km近く離れた場所に住んでいる。その1人Alaa Najjar(アラア・ナジャー)博士は、ウィキペディアのボランティアであり、医師でもある人物だ。彼は救急病院での勤務の合間を縫って、アラビア語版のサイトにおける新型コロナの誤報に取り組んでいる。もう1人、スウェーデン在住の臨床神経科学者で医師のNetha Hussain(ネサ・フセイン)博士は、オフの時間に新型コロナの記事を英語とマラヤーラム語(インド南西部の言語)で編集し、その後、新型コロナワクチンに関するウィキペディアの記事の改善に力を注いだ。

ナジャー博士とフセイン博士、そして28万人以上のボランティアのおかげで、ウィキペディアは 新型コロナに関する最新かつ包括的な知識を得ることができる最も信頼できる情報源の1つとなり、188の言語で約7000の記事が掲載されるまでになった。ウィキペディアがもつ、主要な病気についての情報提供から学生のテスト勉強の支援までをカバーする世界規模での到達性と知識共有の可能性は、ひとえにボランティア主導の協力的なモデルを可能にする法律があってこそ実現されている。

欧州議会は、デジタルサービス法(DSA)のようなパッケージを通じて、ビッグテックのプラットフォームのウェブサイトやアプリで増幅される違法コンテンツの責任を追及することを目的とした新しい規制を検討しているが、彼らは同時に公共の利益のために協力する市民の働きを保護しなければならない。

多くの国で違法とされているコンテンツを含め、身体的・心理的な被害をもたらすコンテンツの拡散を食い止めようとしている議員たちの姿勢は正しいものだ。彼らが包括的なDSAのためのさまざまな条項を検討している中で、私たちは、プラットフォームのコンテンツモデレーションがどのように機能すべきかについての透明性を高めるための要件などを含む、提案されているいくつかの要素は歓迎している。

しかし、現在の草案には、利用規約をどのように適用すべきかについての指示的要件も含まれている。一見すると、それらはソーシャルメディアの台頭を抑制し、違法コンテンツの拡散を防ぎ、オンライン空間の安全性を確保するために必要な措置のように思える。しかし、ウィキペディアのようなプロジェクトはどうなるのだろうか?提案されている要件の中には、人びとの力を取り上げてプラットフォーム提供者に移管させる可能性のあるものも存在している。これによって大規模な商業プラットフォームとは異なる運営をしているデジタルプラットフォームが阻害される可能性があるのだ。

ビッグテックのプラットフォームは、ウィキペディアのような非営利の協働型サイトとは根本的に異なる方法で機能されている。ウィキペディアのボランティアによって作成されたすべての記事は、無料で利用可能で広告はなく、読者の閲覧習慣を追跡することもない。商業プラットフォームのインセンティブ構造は、利益とサイト滞在時間を最大化することで、そのために詳細なユーザープロファイルを活用したアルゴリズムを使って、利用者に対して影響を与える可能性の高いコンテンツを提供する。彼らは、コンテンツを自動的に管理するために、より多くのアルゴリズムを導入しているが、その結果、過剰規制と過小規制のエラーが発生する。例えば、コンピュータープログラムは、芸術作品風刺を違法なコンテンツと混同することが多く、プラットフォームの実際のルールを適用するために必要な人間のニュアンスや文脈を理解することができない。

ウィキメディア財団と、ウィキメディア・ドイツのような特定の国に拠点を置く関連団体は、ウィキペディアのボランティアと、ウィキペディアに存在すべき情報とそうでない情報について決定を下す彼らの自律性を尊重している。オンライン百科事典ウィキペディアのオープン編集モデルは、どの情報をウィキペディアに載せるかは利用者が決めるべきだという信念に基づいており、中立性と信頼性の高い情報源に対して、ボランティアが開発して確立された規則を活用している。

このモデルでは、ウィキペディアのどんなテーマの記事でも、そのテーマについて知っている人や関心のある人が、そのページでどのようなコンテンツが許可されるかを決めるという規則が適用されるのだ。さらに、プラットフォーム上での編集者間の会話はすべて公開されているため、コンテンツ管理は透明性が高く説明責任が果たされている。これは完璧なシステムではないが、ウィキペディアを中立的で検証された情報の世界的な情報源とするためにはほぼ機能している

ウィキペディアを、読者や編集者への説明責任を欠いた、トップダウンの権力構造を持つ商業プラットフォームのように運営せよと強いることは、コンテンツに関する重要な決定からコミュニティを排除することであり、DSAの真の公益的意図を覆すことになるといっても間違いではない。

インターネットは変曲点を迎えている。民主主義と市民の空間は、ヨーロッパをはじめ世界中で攻撃を受けている。私たち全員が今まで以上に、新しい形の文化、科学、参加、知識を可能にするオンライン環境を、新しい規則が妨げるのではなく促進するにはどうすれば良いかを注意深く考える必要がある。

議員たちは、私たちのような公益団体と協力することで、より包括的で、より適用可能で、より効果的な基準や原則を策定することができるだろう。だが、最も強力な商業インターネットプラットフォームのみを対象としたルールを課すべきではない。

私たちは、より良い、より安全なインターネットを手にすることができるべきだ。私たちは議員に対して、ウィキメディアを含むさまざまな分野の協力者ともに、市民がともに改善できる力を与えるような規制を策定することを求めたい。

編集部注:著者のAmanda Keton(アマンダ・ケトン)氏はウィキメディア財団の顧問、
Christian Humborg(クリスチャン・ハンボルグ)氏は、ウィキメディア・ドイツのエグゼクティブ・ディレクターである。

画像クレジット:KTSDESIGN/SCIENCE PHOTO LIBRARY/Getty Images

原文へ

(文: Amanda Keton、Christian Humborg、翻訳:sako)

投稿者:

TechCrunch Japan

TechCrunchは2005年にシリコンバレーでスタートし、スタートアップ企業の紹介やインターネットの新しいプロダクトのレビュー、そして業界の重要なニュースを扱うテクノロジーメディアとして成長してきました。現在、米国を始め、欧州、アジア地域のテクノロジー業界の話題をカバーしています。そして、米国では2010年9月に世界的なオンラインメディア企業のAOLの傘下となりその運営が続けられています。 日本では2006年6月から翻訳版となるTechCrunch Japanが産声を上げてスタートしています。その後、日本でのオリジナル記事の投稿やイベントなどを開催しています。なお、TechCrunch Japanも2011年4月1日より米国と同様に米AOLの日本法人AOLオンライン・ジャパンにより運営されています。