イタリア、Clearview AIに罰金約25億円とデータ削除を命令

欧州のプライバシー監視機関がまたもや、物議を醸している顔認識企業Clearview AI(クリアビューAI)に制裁を科した。同社はインターネットから自撮り写真を収集し、約100億の顔データベースを構築して、法執行機関に身元確認サービスを販売している。

イタリアのデータ保護当局は現地時間3月9日、EU法に違反したとして同社に2000万ユーロ(約25億円)の罰金を科すと発表した。また、同社が保有するイタリア国民に関するあらゆるデータの削除を命令し、市民の顔の生体情報を今後処理することを一切禁止した。

当局の調査は「苦情と報告」を受けて開始されたもので、個人情報保護法違反に加えて、同社がイタリア国民とイタリアに住む人々を追跡していたことが判明した、と述べている。

「調査によって、生体認証データや位置情報データを含め、同社が保有する個人データが、適切な法的根拠なく違法に処理されていることが明らかになり、これはClearview AIの正当な利益とはなり得ない」と、イタリアのデータ保護機関Garanteはプレスリリースで述べている。

その他のGaranteが欧州一般データ保護規則(GDPR)違反と認めたものには、透明性義務違反(Clearview AIがユーザーの自撮り写真で何をしているかを十分に伝えていない)、目的制限違反、ユーザーデータをオンラインで公開した目的以外に使用したこと、さらに保存に制限がないデータ保持規則違反が指摘されている。

「したがって、Clearview AIの活動は、機密の保護や差別されない権利など、データ主体の自由を侵害している」とも当局は述べている。

今回のGDPR制裁について、Clearview AIにコメントを求めている。

イタリア当局の対応は欧州のプライバシー監視機関としてはこれまでで最も強いものだ。英国のデータ保護機関ICOは2021年11月に同社に罰金の可能性を警告し、またデータ処理の停止を命じた。

同年12月にはフランスのデータ保護機関CNILも同社に市民のデータ処理の停止を命じ、保有しているデータの削除に2カ月の猶予を与えたが、金銭的制裁については言及しなかった。

しかし、イタリアが米国に本社を置く同社から2000万ユーロの罰金を徴収できるかどうかは、かなり大きな疑問だ。

制裁を発表したプレスリリースでGaranteは「データ主体の権利行使を容易にするため」、Clearview AIにEU域内の代表者を指名するよう命じたことも記されている(EU法での法的要件を同社が満たしていなかったと判断された)。しかし、EUに拠点を置く同社の事業体がないため、イタリアが罰金を徴収することはかなり難しい。

EUのGDPRは、書類上では域外適用となり、EU域内の人々のデータを処理するすべての人に適用されるが、制裁を加えるべき現地法人や役員を持たない外国企業に対して制裁を加えることは、法律の適用範囲を現実的に制限することになる。

とはいえ、DPAは制裁対象企業の顧客となった愚かな現地企業を常に追及することができる。スウェーデンの監視機関が2021年、Clearview AIの顔認識ソフトウェアを違法に使用したとされる地元警察に罰金を科したのはいい例だ。

同社がEU市場で禁止行為を行うたびに、潜在的な顧客基盤は縮小していく。確かに公共部門においては、法執行機関がIDマッチング技術の主要なターゲットであることに変わりはない(だが、最近のワシントンポスト紙の報道によると、金融サービスやギグエコノミープラットフォームをターゲットとした民間セクターへのID照合サービスの販売を含む、同社のビジネスの大規模な拡大を投資家に売り込んでいるようだ)。

国際的な事業拡大について、Clearview AIは自社の投資家に対して強気の発言をしていると伝えられているが、物議を醸している同社はカナダからオーストラリアまで、世界中でプライバシーに関する制裁を受けている。

そのため、米国に拠点を置く法執行機関が利用し続けるとしても、国際的に拡大する同社の能力の制限は広がり続けている。当の米国でも、いくつかの州が生体認証の使用を制限する法律を可決した。これは、同社が自国においてさえ、その反プライバシー技術の使用拡大で法的問題に直面していることを意味する。

画像クレジット:John M Lund Photography Inc / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

分析や開発にも使えるリアルさを持つ合成データをAIで作り出すMOSTLY AIが約28.6億円調達

オーストリアの合成データデータスタートアップであるMOSTLY AI(モーストリー・エーアイ)は米国時間1月11日、シリーズBラウンドで2500万ドル(約28億6000万円)を調達したことを発表した。英国のVCファームMolten Ventures(モルテン・ベンチャーズ)がこのオペレーションを主導し、新たな投資家であるCiti Ventures(シティ・ベンチャーズ)が参加した。既存の投資家には、ミュンヘンの42CAP(42キャップ)と、MOSTLY AIの2020年の500万ドル(約5億2700万円)のシリーズAラウンドを主導したベルリンのEarlybird(アーリーバード)が名を連ねている。

合成データ(シンセティックデータ)はフェイクデータであるが、ランダムではない。MOSTLY AIは人工知能を利用して、顧客のデータベースに対する高い忠実度を達成する。同社によると、そのデータセットは「企業の元の顧客データと同じくらいリアルに見え、そこには多くの詳細情報が含まれているが、元の個人データポイントは存在しない」という。

MOSTLY AIのCEOであるTobias Hann(トビアス・ハン)氏はTechCrunchに対して、調達した資金について、プロダクトの限界の拡張、チームの成長、そして欧州と米国での顧客獲得に活用する計画であると語った。米国ではすでにニューヨーク市にオフィスを構えている。

MOSTLY AIは2017年にウィーンで設立され、その1年後にEU全域で一般データ保護規則(GDPR)が施行された。プライバシー保護ソリューションに対するこうした需要と、それに付随する機械学習の台頭は、合成データに向けて大きな勢いを生み出している。Gartner(ガートナー)の予測では、2024年までに、AIおよびアナリティクスプロジェクトの開発に使用されるデータの60%が合成的に生成されるようになるという。

MOSTLY AIの主な顧客は、Fortune 100(フォーチュン100)に名を連ねる銀行や保険会社、通信事業者などである。これら3つの高度に規制されたセクターは、ヘルスケアと並んで、シンセティック表形式データに対する需要の大部分を牽引している。

競合他社とは異なり、MOSTLY AIはこれまでヘルスケアに主力を置いていなかったが、それも変わる可能性がある。「ヘルスケアは確かに私たちが注視しているものです。実際、2022年はいくつかのパイロットプロジェクトの開始を予定しています」とCEOは話す。

AIの民主化は、合成データがいずれはFortune 100企業の枠を超えて使われるようになることを意味する、とハン氏はTechCrunchに語っている。したがって、同氏の会社は今後、より小規模な組織や、さらに幅広いセクターに向けてサービスを提供する計画である。だがこれまでの取り組みにおいて、MOSTLY AIがエンタープライズレベルのクライアントに注力することは理にかなうものであった。

現在のところ、合成データを扱うための予算、ニーズ、高度な技術を有しているのはエンタープライズ企業であるとハン氏は語る。その期待に適合するために、MOSTLY AIはISO認証を取得した。

ハン氏と話をする中で、明確になったことが1つある。同スタートアップは確かな技術的基盤を備える一方で、その技術の商業化と、自社がクライアントに提供し得る付加的なビジネス価値にも等しく労力を注ぎ込んでいる。「MOSTLY AIは、顧客デプロイメントと専門知識の両面で、この新興の急成長領域をリードしています」とMolten Venturesの投資ディレクターであるChristoph Hornung(クリストフ・ホルヌング)氏は述べている。

GDPRやCCPA(カリフォルニア州消費者プライバシー法)などのプライバシー法を遵守する必要性は、明らかに合成データに対する需要を促進するが、それだけが効果を現す要因ではない。例えば、欧州の需要は、より広い文化的コンテクストによっても牽引される。一方、米国では、それはイノベーションの追求からも生じる。そのユースケースとして、アドバンストアナリティクス、予測アルゴリズム、不正検出、プライシングモデルなどが挙げられるが、そこには特定のユーザーに遡ることのできるデータを含まない、という要素が求められる。

「多くの企業がこの領域に積極的にアプローチしているのは、顧客のプライバシー重視を理解しているからです」とハン氏。「これらの企業は、プライバシーを保護する方法でデータの処理と取り扱いを行う場合、競争上の優位性も得られることを認識しています」。

より多くの米国企業が革新的な手法における合成データの採用を求めている様相は、MOSTLY AIが米国でのチームの成長を目指す主要な理由となっている。一方で、同社はウィーン勤務とリモート採用の両方でより一般的な人材開拓も進めている。年末までに人員を35人から65人に増やす計画である。

ハン氏は、2022年は「合成データが軌道に乗る年」であり、その先は「合成データにとって実に堅調な10年」になると予想している。これは、AIの公平性や説明可能性といった重要な概念を中心に、責任あるAIに対する需要が高まっていることに支えられるであろう。合成データはこれらの課題の解決に貢献する。「合成データは、エンタープライズが自らのデータセットを増強し、バイアスを取り除くことを可能にします」とハン氏は語る。

機械学習を別にして、合成データはソフトウェアテストに活用されるポテンシャルが十分にあるとMOSTLY AIは考えている。これらのユースケースのサポートには、データサイエンティストだけではなく、ソフトウェアエンジニアや品質テスターも合成データにアクセスできるようにする必要がある。MOSTLY AIが数カ月前に同社のプラットフォームのバージョン2.0をリリースしたことは、彼らのことを考慮したものである。「MOSTLY AI 2.0はオンプレミスでもプライベートクラウドでも実装でき、それを使用する企業のさまざまなデータ構造に適応できる」と同社は当時記している

「当社は明らかにB2Bソフトウェアインフラ企業です」とハン氏は語る。シリーズAとBの両ラウンドで、同社はそのアプローチを理解する投資家を探し求めた。

筆者の質問に対してハン氏は、Molten Venturesは上場しているVCであり、通常の資金調達サイクルに縛られないこともかなりの重みがあることを認めている。「パートナーからこのような長期的なコミットメントを得られることは、私たちにとって非常に魅力的でした」。

Citi VenturesはCitigroup(シティグループ)のベンチャー部門であり、米国に本部を置いている。「当社は米国内のチームを大幅に拡大しており、米国内のネットワークや関係を支援可能な米国拠点の投資家を持つことは、あらゆる側面で大きな意義があります」とハン氏は語っている。

新たに2500万ドルの資金を調達し、米国でのプレゼンスを強化することで、MOSTLY AIは今後、合成データ領域の自社のセグメントで他の企業と競争するためのより多くのリソースを手にすることになる。そうした企業には、2021年9月にシリーズBで3500万ドル(約40億1000万円)を調達したTonic.ai(トニック・エーアイ)、同年10月にシリーズBで5000万ドル(約57億3000万円)を集めたGretel AI(グレテル・エーアイ)、シードラウンドを行った英国のスタートアップHazy(ヘイジー)の他、特定の垂直市場に特化したプレイヤーたちが含まれている。

「私たちはこの領域、そして市場全般でますます多くのプレイヤーが出現しているのを目にしており、そこに多くの関心があることが確実に示されています」とハン氏は語った。

画像クレジット:yucelyilmaz / Getty Images

原文へ

(文:Anna Heim、翻訳:Dragonfly)

フランスがClearview AIにデータ削除命令、EU他国でも同様の措置の可能性

インターネットから自撮り写真を収集し、約100億枚の画像データベースを構築して法執行機関にID照合サービスを販売する、物議を醸している顔認証企業Clearview AI(クリアビューAI)が、またしてもデータの削除命令を受けた。

フランスのプライバシー保護当局は現地時間12月16日、Clearviewが欧州の一般データ保護規則(GDPR)に違反したと発表した。

違反認定の発表の中で、CNIL(情報処理・自由委員会)はClearviewに対して「違法な処理」を停止するよう正式に通知し、2カ月以内にユーザーデータを削除しなければならない、としている。

当局は、2020年5月以降に寄せられたClearviewに対する苦情に対処している。

ClearviewはEUに拠点を置いていないため、同社の事業はEU全域で各国のデータ保護監督機関からも規制措置を受ける可能性があることを意味する。CNILの命令は、同社が保有するフランス領の人々に関するデータ(CNILは「数」千万人のインターネットユーザーが対象となると推定)にのみ適用されるが、EU各国の当局からもこのような命令が出される可能性が高い。

CNILは、調査結果を共有することで他の当局との協力を模索してきたと述べている。これは、Clearviewが、GDPRを国内法に移項した他のEU加盟国およびEEA諸国(合計で約30カ国)の当局からデータ処理の停止命令をさらに受けるかもしれないことを示唆している。

2021年、Clearviewのサービスはすでにカナダオーストラリア英国(EU離脱後も現在GDPRを国内法に残している)でプライバシー規則違反と認定され、罰金の可能性がある他、2021年11月ユーザーデータの削除を命じられた。

関連記事:Clearview AIの顔認識技術はカナダでもプライバシー侵害で違法

2つのGDPR違反

フランスのCNILは、Clearviewが2つのGDPR違反を犯したと認定した。法的根拠なく生体データを収集・使用したことによる第6条(処理の合法性)違反、そして第12条、第15条、第17条に規定されたさまざまなデータアクセス権の違反だ。

第6条の違反は、Clearviewが顔認証の使用について人々の同意を得ておらず、データの収集と使用について正当な利益の法的根拠にも依拠できないことによる。

「さまざまなウェブサイトやソーシャルネットワークで写真やビデオにアクセスできるこれらの人々は、国家が(警察などの)目的のために使用できる顔認証システムに供給するために、自身の画像がClearview AIによって処理されることは望まないでしょう」とCNILは書いている(フランス語からの翻訳)。

また、GDPRデータアクセス権を取得しようとした際に遭遇した多くの「困難」に関して、個人からの苦情も寄せられている。

CNILは、Clearviewが「正当な理由なく」個人のデータアクセス権を年2回に制限したり、過去12カ月間に収集されたデータに限定したり「同1人物からの過剰な数の要求」の後にのみ特定の要求に応じるなど、多くの点で規制に違反していることを明らかにした。

Clearviewは、人々のデータの削除要求に応じることを含め、データ主体の権利を適切に促進するよう命じられている。

同社がフランスの命令に従わない場合、さらなる規制措置(罰金の可能性も含む)に直面する可能性があるとCNILは警告している。

GDPRでは、DPAは2000万ユーロ(26億円)または企業の世界年間売上高の最大4%のいずれか高い方の制裁金を科すことができる。しかし、EUに拠点を持たない企業に対して罰金を科すことは、規制上の課題となっている。

TechCrunchはCNILの命令についてClearviewにコメントを求めている。

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

GDPRコンプライアンスを自動化する英Soverenが約7.4億円のシード資金を得て脱ステルス

ロンドンを拠点とし、プライバシーリスクの検出を自動化して企業のGDPR(EU一般データ保護規則)およびCCPA(カリフォルニア州消費者プライバシー法)への準拠を支援するスタートアップSoverenは、650万ドル(約7億4000万円)のシード資金を得て、ステルス状態から脱却した。

同社は、組織のインフラ内のリアルタイムのデータフローを分析して個人データを発見し、プライバシーリスクを検出することで、CTOやCISOがプライバシーギャップを認識して対処することを容易にする。Soverenによると、全世界でおよそ1千万社の企業が、プライバシーインシデントの検出と解決を怠ったために、GDPRやその他の規制上の義務に違反するリスクを抱えているという。

Soverenの創業者兼共同CEOであるPeter Fedchenkov(ピーター・フェドチェンコフ)氏は、TechCrunchにこう語った。「セキュリティソフトウェアは、セキュリティ上の脅威にはうまく対処できますが、プライバシー上の課題への対処には限定的な影響しか与えません。これは、簡単に隔離できる他の機密データとは異なり、個人データは実際に日々の業務の中でアクセスされ、使用され、共有されるようにできているためです。当社は、プライバシーは新しいセキュリティであると信じています。なぜなら、同じように自動化された継続的な保護対策が必要だからです」。

フェドチェンコフ氏は、Soverenのアイデアは、EC分野での個人的な経験から生まれたという。「今日、データ保護とプライバシーのコンプライアンスがいかに手作業で複雑であるかを目の当たりにしました。時間もお金も労力も、必要以上にかかっています」。

Sovernはこれまでに、北米および欧州において、ソフトウェア、eコマース、旅行、フィンテック、ヘルスケアなどの分野で、10社のライトハウスカスタマーを確保している。

今回の投資ラウンドは、Northzoneの参加を得てFirstminute Capitalが主導し、Airbnb(エアビーアンドビー)やMulesoft(ミュールソフト)などから11人のユニコーン創業者、Sir Richard Branson(サー・リチャード・ブランソン)の家族ファンド、Palo Alto Networks(パロアルトネットワークス)の会長CEOであるNikesh Arora(ニケシュ・アローラ)氏をはじめとするひと握りのグローバルCEOが参加した。

フェドチェンコフ氏によると、Soverenはまず、この資金を使って製品チームを拡大し、セールスとマーケティングに投資する予定だという。「マーケティング面ではまだ何もしていないので、それを強化したいと考えています」と同氏はTechCrunchに語っている。

画像クレジット:Bortonia / Getty Images

原文へ

(文:Carly Page、翻訳:Aya Nakazato)

フェイスブックの広告ツールが特定の個人をターゲティングできることを研究者グループが発表

スペインとオーストラリアの学者とコンピュータ-科学者のチームによって執筆された最新の研究論文で、Facebook(フェイスブック)のプラットフォームがユーザーに割り当てる関心事項について十分に認識していれば、Facebookのターゲットツール使用して、特定の個人のみに排他的に広告を配信できることが実証された。

「Unique on Facebook:Formulation and Evidence of (Nano)targeting Individual Users with non-PII Data(Facebook上での一意性:非個人データによる個人ユーザーのナノターゲティングの定式化と証拠)」と題するこの論文では、Facebookのプラットフォームによってユーザーに割り当てられた趣味・関心事に基づいて、ユーザーを一意に識別できる可能性を示すメトリックを定義する「データ駆動モデル」が説明されている。

研究者たちは、Facebookのアドマネージャーツールを使用して、意図した特定のFacebookユーザーのみに届くように多数の広告をターゲット配信することができることを実証した。

この研究では、Facebookの広告ターゲットツールが有害な目的に利用される可能性について、新たな疑問を投げかけている。さらには、Facebookがユーザーについて収集している情報を使用して個人を特定できる、つまり、ユーザーの趣味や関心のみに基づいてFacebook上の膨大なユーザーから1人を選び出すことができるという状況を踏まえ、Facebookの個人データ処理帝国の合法性についても疑問を呈している。

この研究結果により、行動ターゲティング広告の禁止または段階的廃止を求める議員に対する圧力が強まる可能性がある。行動ターゲティング広告は、個人的にも社会的にも害を及ぼす可能性があるため、何年にも渡って非難の対象になってきた。少なくとも今回の論文によって、こうした侵襲的なツールの使用方法について確固とした抑制と均衡を求める声が高まりそうだ。

また、この研究では、こうした独立系の研究機関でもアルゴリズムを利用したアドテックを調査できることの重要性も浮き彫りになっており、研究者のアクセスを遮断しないように求める対Facebookの圧力も強まるに違いない。

Facebookの関心は個人データ

「私たちのモデルで検証した結果、Facebookによってあるユーザーに割り当てられた関心事集合のうち4つの大変珍しい関心事または22のランダムな関心事によって90%以上の可能性でそのユーザーをFacebook上で一意に特定できることが明らかになりました」とマドリード大学Carlos III、オーストラリアのGraz University of Technology(グラーツ工科大学)、スペインのIT企業GTD System & Software Engineering(GTDシステム&ソフトウェアエンジニアリング)の研究者は書いている。これにより、1つの重要な事実がわかる。つまり、Facebookが認識している珍しい関心事または多くの関心事を持つ個人は、Facebook上で、数十億人という膨大なユーザーの中からでも容易に特定できるということだ。

「この論文は、私たちの知るかぎりでは、世界規模のユーザーベースを考慮した上で個人の一意性について調査した最初の研究です」と彼らは続け、28億人のアクティブなユーザーに対するデータマイニングというFacebook固有のスケールについて言及した(注:Facebookはユーザー以外の情報も処理している。つまり、Facebook上でアクティブなインターネットユーザーよりもさらに広範なスケールの人たちにリーチしている)。

研究者たちは、今回の論文は「Facebookの広告プラットフォームを体系的に悪用してインターネット上の非個人識別情報データに基づくナノターゲティングを実装できる可能性」について最初の証拠を提示するものであることを示唆している。

Facebookの広告プラットフォームが、1対1で相手を巧みに操るためのパイプの役割を果たしていることについては早くから論争が繰り広げられてきた。例えば2019年のDaily Dotの記事には、性生活に不満を抱えている夫に、妻やガールフレンドを心理的に操作するサービスを販売していたSpinner(スピナー)という会社の例が紹介されている。挑発的で無意識に相手を操作する広告がターゲットのFacebookやインスタグラムのフィードにポップアップ表示されるというものだ。

今回の研究論文では、2017年に起こった英国の政治生命に関する事例にも言及している。労働党の選挙運動の最高責任者がFacebookのカスタムオーディエンス広告ターゲティングツールを利用して、党首のJeremy Corbyn(ジェレミー・コービン)氏をだますことに成功したのだ。ただし、このケースでは、ターゲットになったのはコービン氏だけではなかった。彼の同僚や彼と同じ考えの数人のジャーナリストにも広告が送られた。

今回の研究チームは、Facebookのアドマネージャーツールを利用すれば、特定の1人のFacebookユーザーに広告を送ることができることを実証している。彼らはこのプロセスを「ナノターゲティング」と呼んでいる(現在のアドテックで「標準的」な「インターネットベース」の広告をユーザーグループに送るマイクロターゲティングとは異なる)。

「本稿では、21のFacebook広告キャンペーンによって実験を実施することで、広告主がユーザーの関心事を十分に認識していれば、Facebook広告プラットフォームを体系的に悪用して特定のユーザーに排他的に広告を配信できることを論文の3人の執筆者が証明する」と論文には書かれており、この論文は「ターゲットユーザーの関心事のランダム集合を認識するだけで、Facebook上に1対1のナノターゲティングを体系的に実装できる」という「最初の経験的証拠」を提示するものだとしている。

彼らが分析に使用した関心事データは、彼らが作成し、2017年1月以前にユーザーによってインストールされたブラウザ拡張機能を介して、2390人のFacebookユーザーから収集されたものだ。

この拡張機能はData Valuation Tool for Facebook Users(Facebookユーザー向けのデータ評価ツール)と呼ばれ、各ユーザーのFacebook広告設定ページを解析して、ユーザーに割り当てられた趣味や関心を収集すると同時に、Facebookのブラウジング中にそのユーザーに配信される広告によってFacebookにもたらされる利益のリアルタイムの推測値を計算する。

関心事データは2017年以前に収集されたものの、Facebookの広告プラットフォームを介して1対1のターゲティングが可能かどうかをテストする研究者たちの実験は2020年実施された。

「具体的には、この論文の3人の執筆者たちをターゲットとするナノターゲティング広告キャペーンを設定しました」と彼らはテスト結果について説明する。「私たちは、Facebookが各ターゲット執筆者に割り当てた関心事のリストから5、7、9、12、18、20、22個をランダムに選択したものを使用して各執筆者向けにオーディエンスを作成することで、データ駆動型モデルが実際に機能するかどうかをテストしました」。

「2020年の10月から11月の間に合計21回の広告キャンペーンを実施して、ナノターゲティングが現在実現可能であることを実証しました。実験でモデルの実施結果を評価したところ、攻撃者があるユーザーについて18個以上のランダムな関心事を認識していれば、そのユーザーに対して非常に高い確率でナノターゲティングを実行できることが分かりました。実験で18個以上の関心事を使用した9つのうち8つの広告キャンペーンで、当該ユーザーのナノターゲティングに成功しました」。

したがって、Facebookに18個以上のあなたの関心事が登録されている場合、あなたを巧みに操ることを目論んでいる人物にとって、それらの関心事は極めて興味深いものになる。

ナノターゲティングは止められない

1対1のターゲティングを防ぐ1つの方法として、Facebookが最小オーディエンスサイズに厳しい制限を課す方法が考えられる。

今回の論文によると、Facebookは、キャンペーンのオーディエンスサイズが1000人を超える(以前は21人以上だったが2018年にFacebookが制限値を上げた)可能性がある場合、アドキャンペーンマネージャーツールを使用して「Potential Reach(潜在的リーチ)」値を広告主に提示しているという。

しかし、Facebookは、実際には、この潜在的リーチよりも少ないユーザーをターゲットとするキャンペーンを広告主が実施することを禁止していない。ただ、メーッセージがリーチする人の数が極めて少ないことを広告主に知らせないだけだ。

研究者たちは、複数のキャンペーンで、1人のFacebookユーザーに無事広告が届いたことによってこの事実を実証することができた。その結果、広告のオーディエンスサイズはFacebookの広告レポート生成ツールによって生成されたデータを参照したものであること(「Facebookにより1人のユーザーだけにリーチしたことが報告された」)、ウェブサーバー上にユーザーが広告をクリックすることによってのみ生成されるログ記録が存在することによって確認された。さらには、ナノターゲティングの対象ユーザーに広告とそれに付随する「この広告が表示されている理由」オプションのスナップショットを取得してもらった。このオプションの値は、ナノターゲティングに成功したケースのターゲティングパラメーターに一致していたという。

実験結果のサマリーには次のように追記されている。「本実験から得られた主な結論は次のとおりである。(i)攻撃者がターゲットユーザーから18個以上の関心事を推測できる場合、Facebook上の特定の1人のユーザーをナノターゲティングできる可能性は非常に高い。(ii)ナノターゲティングは非常に低コストで実現できる。(iii)本実験によると、ナノターゲット広告の3分の2は有効キャンペーン期間中7時間以内にターゲットユーザーに配信されると予想される」。

ナノターゲティングの防止対策について議論されているこの論文の別のセクションでは、Facebookが課しているとされるオーディエンスサイズの制限は「まったくの無効であることが判明した」と主張しており、20人というオーディエンスサイズ制限は「現在適用されていない」と断言している。

また、Facebookがカスタムオーディエンス(広告主がPIIをアップロードできる別のターゲティングツール)に適用しているという100人制限の回避策も提示されている。

以下論文より抜粋する。

広告主による極めて少数のオーディエンスをターゲットとする広告の配信を防ぐためにFacebookが実装している最も重要な対策は、オーディエンスを形成するユーザーの最小数に制限を課すというものだ。しかし、この制限はまったくの無効であることが判明した。本論文の結果に動機付けられたFacebookは、アドキャンペーンマネージャーを使用して20人を下回るサイズのオーディエンスを設定することを禁止した。我々の調査では、この制限は現在適用されていない。その一方でFacebookは、最小カスタムオーディエンスサイズを100人とする制限を課している。セクション7.2.2で説明するとおり、この制限を回避して、カスタムオーディエンスを使用してナノターゲティングによる広告キャンペーンを実装するさまざまな方法が文献で紹介されている。

この論文では、全体を通して、インターネットベースのデータを「非個人識別情報(non-PII:Personally Identifiable Information)」と呼んでいるが、このような枠組みは欧州の法律のもとでは無意味であることを忘れてはならない。欧州では、一般データ保護規則(GDPR)のもとで、個人データについて非常に広い見方をしているからだ。

PIIという言葉は米国でのほうがより一般的だ。米国では、欧州のGDPRに相当する包括的な(連邦)プライバシー法というものがないからだ。

アドテック企業もPIIという言葉を使いたがる。ただし、それはずっと限定されたカテゴリでの話だ。アドテック企業が実際に処理するすべてのデータ(個人を識別およびプロファイリングして広告を配信するために使用できるデータ)という意味ではない。

GDPRのもとでは、個人データとは個人の名前やメールアドレス(つまり、PII)などの明白な識別子だけでではなく、個人を特定するために間接的に使用できる情報(居場所や関心事など)も含まれる。

以下に、GDPR(第4(1)項)の関連部分を抜粋する(強調部分はTechCrunchによる)。

「個人データ」とは、識別されている、または識別可能な自然人(データ主体)に関する任意の情報を指す。識別可能な自然人とは、特に、名前、識別番号、場所データ、オンライン識別子などの識別子、またはその人の身体的、生理的、遺伝的、精神的、経済的、文化的なアイデンティティに固有の1つ以上の要素を参照することで、直接または間接に識別可能な自然人のことである。

他の研究でも数十年に渡って繰り返し示されていることだが、個人は、クレジットカードメタデータNetflixの視聴習慣など、わずかな「非個人識別情報」があれば再特定できる。

膨大な数の人たちをプロファイリングし広告のターゲットにするFacebookは、継続的かつ広範囲にインターネットユーザーの行動をマイニングして関心事ベースのシグナル(つまり、個人データ)を収集し、個人プロファイリングを行って各個人に合わせた広告を配信する。そのFacebook帝国が、世界中のほとんど誰でも巧みに操作できる(ただし、相手について十分な知識があり、その相手がFacebookのアカウントを持っていることが条件)可能性のある攻撃ベクトルを作り出したとしても何も驚くには当たらない。

しかし、それが法的に問題のないことであるとは限らない。

実際、人々の個人データを処理して広告ターゲティングを行ってもよいというFacebookの主張の法的根拠は、EUで長年に渡って問題とされてきた。

広告ターゲティングの法的根拠

Facebookは以前、ユーザーは自身の個人データが広告ターゲティングに使われることについて同意していると主張していた。しかし、Facebookは、行動ターゲティングのためにプロファイリングされることを承諾するのか、ただ友人や家族とつながりたいだけなのかのどちらかをユーザーに選択してもらう際に、見返りを求めず、具体的で、明確な情報に基づいて選択できるようにしていない(ちなみに、見返りを求めず、具体的で、明確な情報に基づく同意というのは、同意についてのGDPRの基本的なスタンスだ)。

Facebookを使うには、自分の情報が広告ターゲティングに使用されることを承諾する必要がある。これは、EUのプライバシー運動家が「同意の強制」と呼ぶものだ。つまり、同意ではなく、強制だ。

しかし、2018年5月のGDPR施行以来、Facebookが合法的にヨーロッパ人の情報を処理できるのは欧州のユーザーが広告の受信についてFacebookと契約している状態だからだ、という主張に切り替えたようだ。

FacebookのEU規制当局として主導的立場にあるアイルランドのデータ保護委員会(DPC)によって今週始めに公開された仮決定では、こうした暗黙の主張変更は透明性に欠けるとして、Facebookに対し、3600万ドル(約40億9500万円)の罰金を課す提案をしている。

DPCは、Facebookの広告契約の主張には問題があるとは考えていないようだが、欧州の他の規制当局は問題があると考えており、アイルランドの仮決定に意義を唱える可能性が高い。この件に関するFacebookのGDPRに対する不満をめぐる規制当局側の調査は今後も続き、当分は終わりそうもない。

仮にFacebookがEUの法律を回避しているという最終判断が下った場合、Facebookはユーザーに対し、ユーザーの情報を広告ターゲティングに使用できるかどうかについて見返りを求めない選択肢をユーザーに与えることを強制されることになる。そうなると、Facebook帝国に存在の根幹に関わるような風穴をあけることになる。というのも、この研究でも強調しているとおり、(ターゲティング広告に利用せずに)保管しているだけの関心事データでも個人データになるからだ。

それでも、Facebookは、問題など存在しないと主張するいつもの常套手段を使っている。

今回の研究に対して回答した声明の中で、Facebookの広報担当はこの論文を「当社の広告システムの動作原理についての理解が間違っている」として一蹴している。

Facebookの声明では、この研究者たちの結論の核心部分から注意をそらして、彼らの研究結果の重要さを矮小化しようとしている。以下に、広報担当の言明を示す。

この研究は当社の広告システムの動作原理を間違って把握しています。広告ターゲティングに使用する特定の人に関連付けられた関心事のリストは、その人がそのリストを共有することを選択しないかぎり、広告主が見ることはできません。このリスト、つまり広告を見た人を特定する具体的な詳細情報がなければ、この研究者たちの手法を使って広告主が当社のルールを破ろうとしても無駄です。

Facebookからの反論に答えて、論文の執筆者の1人であるAngel Cuevas(アンヘル・クエバス)氏は、同社の議論を「残念だ」と表現し、問題がないなどと主張するのではなく、ナノターゲティングのリスクを防止するためのより強力な対策を実装すべきだとしている。

この論文では、ナノターゲティングにともなう数多くの有害なリスクが指摘されている。例えば心理的説得、ユーザーの操縦、脅迫などだ。

「驚くのは、ナノターゲティングが実現可能であり、対策は広告主がユーザーの関心事を推測できないと仮定することくらいしかないことをFacebook自身が暗黙に認識していることです」とクエバス氏はいう。

「広告主がユーザーの関心事を推測する方法はいくらでもあります。この論文でも、(ユーザーからは研究目的で行うという明示的な同意を得た上で)ブラウザのプラグインを使って実際に試してみました。それだけではありません。関心事の他にも、(今回の研究では試しませんでしたが)年齢、性別、都市、郵便番号などのパラメーターもあります」。

「これは残念なことです。Facebookのようなテック大手は、広告主がFacebookプラットフォームでのオーディエンスサイズを決めるために後で使用できるようユーザーの関心事を推測することなどできないという前提に頼らずとも、もっと強力な対応策を実現できるはずです」。

例えば2018年のCambridge AnalyticaによるFacebookデータの悪用スキャンダルを覚えているだろうか。Facebookのプラットフォームにアクセスした開発者が、クイズアプリを使って、気づかれることも同意を得ることもなく、数百万人のユーザーのデータを抽出することができたという事件だ。

つまり、クエバス氏のいうとおり、広告主 / 攻撃者 / エージェントが同じような不透明でずるいやり方を実装してFacebookユーザーの関心事データを取得し、特定の個人を巧みに操ることは決して難しくない。

論文の注には、ナノターゲティングの実験を行った数日後、テスト用キャンペーンに使用したアカウントがFacebookによって何の説明もなく閉鎖されたと記載されている。

Facebookからは(アカウントが閉鎖された理由も含め)論文に記載した具体的な質問に対する回答はなかった。だが、もしFacebookがナノターゲティングの問題を認識していたから閉鎖したのであれば、なぜそもそも特定の1人のユーザーをターゲットとする広告の配信を防ぐことができなかったのだろうか。

訴訟の増加

この研究結果は、Facebookの事業にどの程度広範囲な影響を及ぼすだろうか。

あるプライバシー研究者の話によると、この研究はもちろん訴訟に役立つという。欧州では、特にFacebook(広くはアドテック全般)に対するEU規制当局のプライバシー保護対策が遅々として進んでいないため、訴訟の数が増えている。

また別の研究者は、今回の研究結果は、Facebookが、個人データは処理していないと見せかけておきながら、実はユーザーの体系的な再特定化を大規模に行っていることを浮き彫りにしていると指摘する。つまり、Facebookは膨大な数のユーザーの膨大なデータを蓄積しており、個人情報の処理に制限を設ける程度の範囲の狭い法的規制など事実上回避できてしまうことを示唆している。

このため、行動ターゲティング広告がもたらす害を抑える有意義な制限を課そうとする規制当局は、Facebook独自のアルゴリズムが同社が保持する膨大なデータ内を検索して、その中からユーザーの代理人に相当するパラメーターを探し出して利用するという方法に気づく必要がある。また、同じような論法でFacebookのアルゴリズムによる処理は法的な制限を回避する可能性がある(例えばFacebookが慎重に扱うべき関心事の推測の問題で使った戦術)ことも認識しておく必要がある。

別のプライバシーウォッチャーで独立系の研究者でコンサルタントのDr Lukasz Olejnik(ウカシュ・オレジニク)博士は、今回の研究を驚くべきものだとし、過去10年間で最も重要なプライバシー研究結果のトップ10に入る内容だと説明する。

「28億人から1人を特定するのはとてつもないことです。Facebookプラットフォームは、そのようなマイクロターゲティングが行えないようにする予防策を講じていると主張しているにもかかわらず、です。この論文は、過去10年間で最も重要なプライバシー研究結果のトップ10に入ります」と語る。

「関心事は個人データに含まれるとするGDPR第4(1)項の意味する関心事によってユーザーを特定することができるようです。ただし、こうした処理をどのようにして大規模に実行するのかは明確に示されていませんが(ナノターゲティングのテストは3人のユーザーに対してのみ実行された点を指摘して)」。

オレジニク氏は、この研究はターゲティング広告が個人データ、そして「おそらくGDPR第9項の意味における特殊なカテゴリのデータにも」基づいて行われていることを示していると指摘する。

「これはつまり、適切な保護対策が行われていないかぎり、ユーザーの明示的な同意が必要であることを意味します。しかし、論文の内容から、私たちは、そうした対策は存在しているとしても不十分だという結論に達しました」と同氏は付け加えた。

今回の研究はFacebookがGDPR違反を犯していることを示していると思うかという質問に対し、オレジニク氏は「DPAは調査を行うべきです。その点は疑問の余地がありません」と話す。「技術的には難しい案件かもしれませんが、立件は2日もあればできるはずです」。

我々はこの研究結果をFacebookの欧州DPAで主導的立場にあるアイルランドDPCに知らせ、GDPR違反があるかどうかを判定するための調査を行うかどうか聞いてみたが、本記事の執筆時点では回答がなかった。

マイクロターゲティングの法的禁止に向けて

この論文によってマイクロターゲティングの法的禁止を肯定する論拠が補強されるかという質問に対し、オレジニク氏は、歯止めをかけることは「前進ではある」が、問題はその方法だと答えた。

「全面禁止にする場合、現在の業界および政治環境の対応準備ができているかどうかは分かりません。とはいえ、少なくとも、技術的な防止策は求めるべきです」と同氏はいう。「(Facebookによれば)すでに防止策は講じているということですが、(ナノターゲティングの件については)防止策は存在しないも同然のようです」。

オレジニク氏は、グーグルのプライバシーサンドボックス案に組み込まれているアイデアを一部利用すればすぐに変化が起こる可能性があると提案する。しかし、同案はアドテック各社が競争監視につながるとして不満を表明したため頓挫してしまっている。

マイクロターゲティングの禁止についてクエバス氏に意見を聞くと、次のように答えてくれた。「私の個人的な立場から言わせていただくと、我々はプライバシー保護のリスクと経済(求人、イノベーションなど)とのトレーオフについて理解する必要があるということです。私たちの研究によると、アドテック業界は、個人識別情報(メール、電話、住所など)について考えるだけでは不十分であり、オーディエンスの範囲を特定する(絞り込む)方法についてより厳しい対策を実装する必要があることは明らかです。

「その上で申し上げますが、私どもはマイクロターゲティング(少なくとも数万人規模のユーザーにオーディエンスを限定できる能力と考えます)を禁止することには反対です。マイクロターゲティングには重要な市場が存在しており、そこでは多くの仕事が生まれています。また、必ずしも悪いこととは限らない興味深いことが行われている極めて革新的な分野でもあります。ですから、マイクロターゲティングの潜在能力をある程度制限してユーザーのプライバシーを保護するというのが私どもの立場です」。

「プライバシーの分野で未だに解決されていない疑問は同意だと思います」と同氏はいう。「研究コミュニティとアドテックエコシステムは、(理想的には協力して)十分な説明を行った上での同意をユーザーから得るための効率的なソリューションを作成するために取り組みを進める必要があります」。

大局的な話をすると、欧州では、AI駆動形ツールの法的要件がおぼろげに見え始めたところだ。

EUでは2021年初めに提案された人工知能の高リスクの応用を規制する法律が施行される予定だ。この法律では「人の意識を超えて作用する行動を大きくねじ曲げるためのサブリミナル技術で、その人または別の人に心理的または身体的な害を及ぼすかその可能性のある技術」を展開するAIシステムの全面禁止が提案されている。

そのため、Facebookのアドツールが脅迫や個人の心理的操作に利用されないようにするための適切な保護策を同社がまだ実施していない場合、FacebookのプラットフォームがEUの将来のAI規制のもとで禁止に直面するのかどうかを推測してみるのは少なくとも興味深い。

とはいえ、現時点では、Facebookのターゲティング帝国にとっては、相変わらずもうかるビジネスである。

クエバス氏にFacebookプラットフォームに対する今後の研究計画について尋ねると「次の研究で是非やりたいのは、関心事と他の人口統計情報を組み合わせることでナノターゲティングが『より容易になる』のかどうかという調査です」。

「というのは、広告主がユーザーの年齢、性別、都市(または郵便番号)といくつかの関心事を組み合わせてユーザーに対してナノターゲティングを実行できる可能性が非常に高いからです」と同氏はいう。「こうしたパラメーターをいくつ組み合わせる必要があるのかを知りたいのです。年齢、性別、住所と数個の関心事をユーザーから推測するほうが、数十の関心事を推測するよちもはるかに簡単です」。

このナノターゲティングの論文は2021年12月のACM Internet Measurement Conferenceでのプレゼンテーションとして受理されている。

画像クレジット:NurPhoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

グーグルで18歳未満やその親が検索結果からの写真データ削除を申請可能に

Google(グーグル)は、18歳未満のユーザーとその親が、同社の画像検索結果から写真を削除することを申請できる機能を導入する。

この新しいプライバシーオプションは、Googleが2021年8月に発表した多くの変更点の1つで、18歳未満のユーザーをより厚く保護するために先行導入される。この他にも、アップロードされた動画をデフォルトで非公開にしたり、開封動画などの「過度に商業的な」YouTubeキッズコンテンツを無効にしたり、排除したりすることが計画されている。

関連記事:グーグルが検索やYouTubeなどの自社プラットフォームにおける未成年者保護を強化


18歳未満のユーザーまたはその親や保護者は、このリクエストフォームに必要事項を記入して、検索結果に表示される画像の削除をGoogleに依頼できる。その際「現在18歳未満の個人が写っている画像」を削除して欲しいと明示し、個人情報、画像のURL、検索結果に表示される検索クエリを示す必要がある。

Googleは、すべてのリクエストをレビューし、フォローアップのために必要に応じて確認のために追加で質問するという。問題のある画像が削除されたら、同社から通知が来るため、待たされたままになることはない。

米国をはじめとする多くの国では、オンライン上の「忘れられる権利」を扱う国内の法的枠組みが存在しない。強力なプライバシー規制の金字塔として広く知られているEUの包括的ルール「GDPR」では、写真を含むある種のオンライン識別情報の削除を要求する手段が用意されている。

Googleの新しいリクエストツールは便利で、世界中で利用可能だが、GDPRが定める要件には及ばない。Googleの場合、写真の削除を要求するには、対象となる人物が18歳未満でなければならない。GDPRはさらに進んでおり、画像がアップロードされた時点で本人が未成年であった場合、本人の要求に応じて画像を削除することをインターネット企業に義務付けている。

Googleが発表した上記の画像削除オプションをはじめとする一連の変更は、米国で同社や他のテック企業に対する規制当局の監視が厳しくなっていることを反映したものだ。10月26日には、YouTubeは上院商務委員会で同社の動画プラットフォームを利用する若くて脆弱なユーザーを保護する取り組みについて証言し、最近発表した変更点をアピールした。

画像クレジット:Alex Tai/SOPA Images/LightRocket / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Nariko Mizoguchi

アルファベットCEOピチャイ氏がテック業界の規制とサイバーセキュリティへの投資を米国に要求

WSJ Tech Liveカンファレンスで行われたリモートワークの未来からAIの革新、従業員の政治活動、さらにはYouTubeにおける誤情報にいたるまで幅広い話題に及んだインタビューで、Alphabet(アルファベット)CEOのSundar Pichai(サンダー・ピチャイ)氏は、米国における技術革新の現状と新たな規制の必要性について自身の考えを述べた。特にピチャイ氏が強調したのは、米国の連邦レベルのプライバシー基準の創設で、ヨーロッパのGDPR(一般データ保護規則)に類似するものだ。さらに同氏は、中国の技術エコシステムが欧米市場からさらに切り離されていく中、米国がAI、量子コンピューティング、サイバーセキュリティなどの分野で有意を保つことがより一層重要であると提起した。

ここ数カ月、中国はテック企業の締め付けを行っており、テック企業による独占の阻止、顧客データ収集の制限、およびデータセキュリティを巡る新たなルール制定など、新たな規制がいくつも施行されている。Google(グーグル)を含め多くの米国テック企業は中国で中核サービスを提供していないが、提供中のいくつかの企業は撤退を始めている。たとえばMicrosoft(マイクロソフト)は2021年10月、LinkedIn(リンクトイン)を中国市場から引き上げた

関連記事:マイクロソフトがLinkedInを中国市場から撤退

ピチャイ氏は、こうした欧米テック企業の中国との分離は今後増えていく可能性があると語った。

またピチャイ氏は、米国と中国が競合する分野で先行することが重要だと語り、AI、量子コンピューティング、サイバーセキュリティなどを挙げて、Googleによるこれらの分野への投資が、政府による「基礎研究開発財政支援」がやや後退したタイミングで行われたことを指摘した。

「政府のリソースは限られているので焦点を絞る必要があります」とピチャイ氏は話した。「しかし私たちが恩恵を受けているのは20~30年前の基礎的投資からです。現代テクノロジーの多くがこれに基づいており、少々慣れきっているところもあります」と彼は語った。「だから私は、半導体サプライチェーンと量子コンピューティングでリードするために、政府は重要な役割を果たすことができると考えています。それは政策面だけでなく、私たちが世界中から優れた人材を集めたり、大学と協力して長期的な研究分野を作り出すことを可能にすることです」とピチャイ氏は付け加えた。それらの分野は民間企業が最初から焦点を当てられるものではないかもしれないが、10年20年かけて実行できると彼は言った。

国境を超えるサイバー攻撃が増加する中、ピチャイ氏は、サイバーワールドのための「ジュネーブ協定」のようなものが必要な時が来たと語り、政府はセキュリティと規制の優先順位を上げるべきだと付け加えた。

同氏は米国における新たな連邦プライバシー規制に賛成する意見を明確に表明した。これはGoogleは過去何度にもわたって強く要求してきたもので、ヨーロッパのGDPRのようなものを想定している。

「GDPRはすばらしい基盤となっていると私は思います」とピチャイ氏は言った。「私は米国に連邦レベルのプライバシー基準ができることを強く望んでおり、州ごとにバラバラな現在の規制を懸念しています。そのために複雑さが増しています」と彼は続けた。「大企業はさまざまな規制に対応して自らを守ることができますが、小さな会社を始めるためには大きな障壁です」。

これは、Facebook(フェイスブック)CEOのMark Zuckerberg(マーク・ザッカーバーグ)氏が規制を求めた際にも再三指摘された問題だ。米国テック業界の規制が強化されることは、FacebookやGoogleのように規制のハードルを超えるためのリソースをもつ大企業に有利に働く。しかし、国が単一の基準を定めることによって、巨大テック企業はただ1つの規則と戦い、米国各州に点在する多くの規則に対応する必要がなくなる。

ピチャイ氏は消費者のプライバシーをセキュリティに結びつけ「プライバシーの最大のリスクはデータが不正アクセスされること」であるとも指摘した。Google最大のライバル、Amazon(アマゾン)のゲーム・ストリーミングサイトであるTwitch(トゥイッチ)がわずか数日前にハックされた後だけに興味深い発言だ。

テック業界の規制でどこに線を引くのかについてピチャイ氏は、法律はオープンインターネットを侵害すべきではないと語った。

「インターネットがうまくいっているのは、相互運用可能で、オープンで、国境を越えた利用が可能で、国境を越えた取引を推進しているからだと私は思っています。だから私たちがインターネットを進化、規制していく上で、こうした特性を維持していくことは重要だと考えています」と同氏は話した。

CEOは他にも、パンデミックが企業カルチャーに与える影響、従業員の政治活動、YouTube上の誤情報などAlphabetとGoogleが直面しているさまざまな問題に関する質問に答えた。

YouTubeの問題についてピチャイ氏は、体験の自由に対する誓約を表明しつつも、最終的には、会社がコンテンツクリエイターとユーザーと広告主のバランスを取ろうとしていることに言及した。同氏は、多くのブランド広告主が自分たちの広告がある種のコンテンツと並んで表示されることを望んでいないと語った。本質的に、YouTubeの広告を基盤とする経済には、誤情報問題の解決に役立つ可能性があることを同氏は示唆した。

「自由市場ベースで考えれば、自分の広告がブランドを損なうと思うコンテンツと並ぶことを広告主は望まない、ということができます。ある意味で、エコシステムのインセンティブが時間とともに正しい判断を後押しすることが実際にあるのです」。

しかしピチャイ氏は、YouTubeは自らがコンテンツの判断を下すことで、パブリッシャーのように振る舞っているのではないか、というインタビュアーの質問はかわした。

ピチャイ氏はパンデミック下におけるAlphabetの企業カルチャーとオフィスへの復帰についても語り、3-2モデル(3日対面と2日リモート)がよいバランスをもたらすと言った。対面勤務日によって共同作業とコミュニティが可能になり、リモート勤務日によって社員は長時間通勤など対面勤務につきものの問題をうまくやりくりできる。しかし、インタビューの別の部分では、ピチャイ氏は少なくなった自身の通勤時間を懐かしんだ。そこは「深く考える」ための空間だったと彼は言った。

従業員の積極活動について。近年多数かつ多様化した従業員が幹部の下した決定と対立する意見を共有することが頻繁に起こり、多くの積極的活動が見られている。ピチャイ氏はこれをビジネスにおける「新常態」だという。しかし、これはGoogleにとってまったく新しいことではないとも指摘した(たとえば数年前、Google従業員は会社が中国市場向けに検閲機能付き検索エンジンを開発していることに抗議した)。

「最近慣れてきたともいえます」とピチャイ氏は語り、会社としてできる最善のことは、決定したことを説明しようとすることだと語った。

「私はこれを会社の強みと考えています、高いレベルで。会社のやっていることをそこまで深く気にかけるほど熱心な従業員がいるのですから」と彼は言った。

画像クレジット:Kenzo Tribouillard / Getty Images

原文へ

(文:Sarah Perez、翻訳:Nob Takahashi / facebook

【コラム】データプライバシーを全世界的に標準化すれば、それは真の意味で人類の進歩となるはずだ

中国は2021年8月、初めて抜本的なデータプライバシー法を可決した。今後、中国の個人情報保護法(PIPL)の対象となる中国の住民(中国の人口は世界で最も多い)と関わるであろうグローバル企業や意欲的なスタートアップ企業は、オンラインで売買やサービスの提供を行う際に影響を受ける可能性がある。

この法律自体は2016年に導入されたEUの一般データ保護規則(GDPR)と類似し、目新しいものではない。衝撃的なのは、GDPRが導入された際は企業に2年の準備期間があったのに対し、PIPLは2021年11月1日に施行されるということである。

PIPLを受けて、関連する企業はコンプライアンスの遵守を確立するために奔走することになる。また、データプライバシーの重要性と緊急性が世界規模で高まっていることも明らかになった。中国は、GDPR類似のプライバシー法を制定した17番目の国となるが、さて、いまだにプライバシー法を制定していない世界の超大国はどこだろうか?

米国は、消費者に焦点を当てた国家レベルのデータプライバシー法をいまだに採用していない。国民はオンライン上の個人データの管理強化を望んでいるにもかかわらず、である(複数調査による)。データプライバシー法の不整備は、特にテクノロジー業界に大きな影響を及ぼす。

さまざまな事象が急速に進む現在、データプライバシーの発展は明らかに重要な分岐点に達している。私たちのとる行動によっては世界中の何十億、何千億もの消費者に影響を与える可能性があり、また、小さなスタートアップ企業から巨大なグローバル企業まで、さまざまな企業の発展にも影響が生じる。今こそ慎重な検討が必要だ。

この記事では、最初に米国におけるデータプライバシー法の進展、およびこれが世界にとって何を意味するかを検討し、次にデータの最小化(「必要」かつ「適切で、関連性があり、限定された」個人データのみを処理する原則)の取り組みでこれらの問題に対応できるかを確認して、データプライバシーという難問に挑んでみる。最後に、データプライバシーという問題の解決に欠かせないこれらの要素を比較した上で、人々が自分のデータを確実に管理できる、世界規模のデータプライバシー基準を提唱することで締めくくりたいと思う。

米国におけるデータプライバシー

米国のデータプライバシーを取り巻く状況は複雑だ。連邦レベルでは、(動きがあるものの)包括的なデータプライバシーポリシーは存在しない。その代わりに医療保険の相互運用性と説明責任に関する法律(HIPAA)、消費者金融商品を対象としたグラムリーチブライリー法(GLBA)など、業界ごとのプライバシー規制がある。

13歳未満の子どもを保護するための児童オンラインプライバシー保護法(COPPA)も存在する。また、連邦取引委員会(FTC)も、FTC独自のプライバシーポリシー(連邦取引委員会法)に違反しているアプリやウェブサイトを積極的に取り締まっている。

しかしながら、米国政府は、消費者のデジタルプライバシー権を保護するための包括的な法案を可決しておらず、各州が独自に対応している(例:カリフォルニア州のCCPA、バージニア州のVCDPA、コロラド州のColoPA)のが現状だ。このため多くの米国人のプライバシー権が侵害され、企業は何をすべきかを決めることができずに混乱している。

これが本来あるべき姿だと主張し、停滞した議会では意味のある消費者プライバシー法案を可決することはできないと警告する人々もいる。彼らは、仮に国家レベルのプライバシー法が可決されたとしても、内容は骨抜きにされ、慎重に構想された各州の法律にも悪影響を及ぼすだろうと考えているらしい。

それと同時に、50の州で異なるデータプライバシー法が存在することになる可能性も否定できない。どれも類似しているものの、それぞればらばらで、異なっている……正しく法を遵守しようとする企業にとっては悪夢のようなシナリオだ。この状況を世界規模に拡大してみよう。

データの最小化は唯一の解決策ではない

データプライバシーの問題に対処するための1つの方法として、データ最小化の原則が挙げられる。これは、企業が具体的な目的のためだけに個人情報を収集・保持することを認めるものである。

データ最小化の原則では、基本的には企業が収集するデータの量を減らすことが求められる。これには、マーケティングチームが収集するデータ量を減らしたり、データ保持のスケジュールを設定して使わなくなったデータを消去したりすることが考えられる。

これにメリットを感じる人もいるだろうが、現実的ではない。消費者に強く配慮する企業であっても、マーケティング担当者に対して潜在顧客の個人情報の収集を減らすように提案することはないだろうし、データを収集する正当な理由を探し出すことは間違いないだろう。

そして、たとえ目的が純粋なものであったとしても、個人情報や嗜好を調査して製品を開発し、ビジネスを成長させているスタートアップ企業にとって、この原則は有害なものになりかねない。この点で、データの最小化は、思わぬところでイノベーションを阻害する可能性がある。

さらに率直に言えば、消費者が自分自身のデータの取得・利用方法について選択できるようにすれば、データを最小化する必要はないと思われる。パーソナライズされたオーダーメイドの体験を好む消費者は、個人情報を共有しても問題ないと考えているケースもある。たとえば「Stitch Fix(スティッチフィックス)」「Sephora(セフォラ)」のようなブランドは、よりショッピングを楽しんでもらうために事前にたくさんの個人的な好みを質問しているが、多くのユーザーがそれを問題視していない。

世界規模のデータプライバシー基準の必要性

筆者は、このような複雑で微妙な問題が表面化し、企業や消費者を悩ませてしまうのは、皆が同じ見解を持つためのグローバルスタンダードが存在しないからだと考える。グローバルスタンダードが存在しない限り、他のいかなる法律や規則、基準も一時しのぎに過ぎない。

今こそ、世界中の消費者を保護し、企業が遵守すべき要件がどの地域でも同一になるよう、各国が合意できる基本原則を策定するときだ。

国際的なデータプライバシー法が乱立し、この地域の要件は厳しく、あの地域の要件は少しだけ異なる、といった状況になれば、企業がコンプライアンスを完全に遵守するのは不可能に近い。そうなるのも時間の問題だ。私たちは事態を収拾しなければならない。

データプライバシー基準は、国境を越えた公平性の基本を確立し、あらゆる段階の企業に適用される。そして、企業の国際的なビジネス展開は飛躍的に容易になる。

筆者は、今影響を受けている企業や地域が、国際的なデータプライバシー基準に向けた変化を促進してくれることを期待している。グローバル化を目指す企業にとって、地域で異なる基準は大きなマイナスであり、膨大なコストにつながっている。そういった企業が協力すれば、共通の解決策を見出すことができるだろう。推進力はそこにある。中国の動向を見れば、他の国が追随する日もそう遠くはないはずだ。

米国内でのデータプライバシー法の制定を待たずに、米国を拠点とする業界団体でさえグローバルスタンダードへの第一歩を踏み出そうとしている。例えばConsumer Reports(コンシューマーレポーツ)は解決策を検討するためのワーキンググループを立ち上げた。これにより、企業と消費者の双方を保護するためのデータプライバシーに関する世界的な関心が急速に高まる可能性がある。

データプライバシー基準の核心

データプライバシー基準はもはや必要不可欠であるといえるが、その策定にあたって忘れてはならないのは「消費者自身が、企業による自分の情報の扱いをコントロールできる」ようにしなければならないということである。

とりわけサービスやアプリケーションが取引を促進するために利用される場合は、消費者自身が、誰が自分の情報にアクセスできるのか、それはなぜなのかを知る権利を持つ。また、要求に応じて個人情報を削除させる権利や、企業が許可なく自分の情報を販売することを防ぐ権利も必要だろう。これらは基本的かつ普遍的な権利であり、政府機関や支援団体はこれを理解しなければならない。

マーケター、マーケティング担当者は不満かもしれないが、すべての消費者が自分の情報を共有することに反対していると考える必要はないだろう。実際には、前述の例のように、企業が個人情報を収集・保持することで、パーソナライズされた体験やショッピングができることを評価する人も少なくない。

消費者の選択権は、最終的にエコシステム全体の健全性を高め、企業が信頼と透明性を築くための新たな手段となる。企業も(地域ごとに)何種類もの消費者の権利を開発・管理するためにいつまでもあたふたする状況から解放される。

筆者は、スタートアップ企業がプライバシーファーストで設立されるようになると予想している。これは企業の差別化にもつながるだろう。しかし、変化の最大の要素は、消費者が世界のどこにいようと、個人情報を含むシステムが世界のどこにあろうと、自分のデータを確実にコントロールできるようにすることだ。データプライバシー基準は消費者の権利を保護し、混乱を解消して企業が効率的にビジネスを行えるようにする。他のアプローチでは同じことを合理的に行うことはできないし、大規模に展開することもできない。

データプライバシーを全世界で標準化し、私たち全員が同じステージに立つことができれば、それは真の意味で人類の進歩となるはずだ。

画像クレジット:Kardd / Getty Images

原文へ

(文:Daniel Barber、翻訳:Dragonfly)

WhatsAppに欧州のGDPR違反で約294億円の制裁金、ユーザー・非ユーザーに対する透明性の向上も命令

長らく待たれていたが、ついにFacebookは、大々的に報じられていた欧州のデータ保護体制からの批判を感じ始めている。2021年9月初旬、アイルランドのデータ保護委員会(DPC)が、WhatsAppに2億2500万ユーロ(約294億円)の制裁金を科すことを発表した。

Facebook傘下の同メッセージングアプリは、欧州連合(EU)のデータ統括者であるアイルランドのDPCによって2018年12月から調査を受けている。その数カ月前には、WhatsAppのユーザーデータ処理方法をめぐって最初の苦情が申し立てられていた。同社のユーザーデータ処理方法は、欧州の一般データ保護規則(GDPR)の適用が2018年5月に開始されている。

関連記事:GDPR施行、「同意の強制」でさっそくFacebookとGoogleに対し初の提訴

WhatsAppに関する具体的な苦情がいくつも寄せられたにもかかわらず、2021年9月初旬に決定が下されたDPCによる調査は「自発的」な調査として知られているものであった。つまり、規制当局が調査自体のパラメータを選定し、WhatsAppの「透明性」に関する義務を監査することを選択したものだ。

GDPRの重要な原則の1つは、個人のデータを処理する事業体はその個人の情報がどのように使用されるかについて、その個人に対して明確でオープンかつ正直でなければならない、ということにある。

この度のDPCの決定(266ページに及ぶ)は、WhatsAppがGDPRで要求されている基準を満たしていなかったと結論づけている。

この調査では、WhatsAppが同サービスのユーザーと非ユーザーの両方に対する透明性に関する義務を果たしているかどうかが検討された(例えばWhatsAppは、ユーザーが他人の個人情報を含む電話帳を取り込むことに同意すれば、非ユーザーの電話番号をアップロードすることができる)。また、親会社のFacebookとのデータ共有に関してプラットフォームが提供する透明性にも注目していた(2016年にプライバシーUターンが発表された当時、大きな議論を呼んだが、GDPRの適用前だった)。

要約すると、DPCはWhatsAppによる一連の透明性侵害を発見した。GDPRの第5条1項(a)号、第12条、第13条、第14条に及ぶものである。

多額の制裁金を科すことに加えて、当局はWhatsAppに対し、ユーザーと非ユーザーに提供する透明性のレベルを向上させるために多くの措置を講じるよう命じている。このテック大手には、指示されたすべての変更を行うために3カ月の期限が与えられた。

WhatsAppはDPCの決定に対する声明の中で、調査結果に異議を唱え、この制裁金を「まったく不相応」と表現するとともに、控訴する意向を示し、次のように記している。

WhatsAppは、安全でプライベートなサービスを提供することに尽力しています。当社は提供する情報の透明性と包括性の確保に努めており、今後も継続的に取り組んでいきます。当社が2018年に人々に提供した透明性に関するこの度の決定には同意できず、制裁金はまったく不相応なものです。当社はこの決定に控訴する意向です。

最終的な決定が下されたDPC調査の範囲は、WhatsAppの透明性に関する義務への考慮に限定されていたことを強調しておきたい。

規制当局は、明示的に、広範囲の苦情について調査してこなかった。それはFacebookのデータマイニング帝国に対して3年以上も前から提起されているもので、そもそもWhatsAppが人々の情報を処理していると主張する法的根拠に関するものである。

したがって、DPCはGDPR施行のペースとアプローチの両方について批判を受け続けることになるだろう。

実際、今日に至るまで、アイルランドの規制当局は「ビッグテック」に対処するための国境を越えた大規模な訴訟において、わずか1つの決定しか下していなかった。Twitterに対して行われたもので、2020年の12月に遡るが、歴史的なセキュリティ侵害をめぐりこのソーシャルネットワークに55万ドル(約6045万円)の制裁金を科したというものだった。

これとは対照的に、WhatsAppの最初のGDPR罰則はかなり大きく、EUの規制当局がGDPRのはるかに深刻な侵害だと考えていることを反映している。

透明性は規制の主要原則の1つである。そして、セキュリティ侵害はずさんな慣行を示しているかもしれない一方で、アドテック帝国が大きな利益を上げるためにそのデータに依存する人々に対する、組織的な不透明さは、むしろ意図的なものに見える。確かに、それは間違いなくビジネスモデル全体のことである。

そして、少なくとも欧州においては、そのような企業は、人々のデータを利用して何をしているのかについて最前線に立たされることになるだろう。

GDPRは機能しているだろうか?

WhatsAppの決定は、GDPRが最も重要なところで効果的に機能しているかどうかについての議論を再燃させるだろう。世界で最も強力な、そしてもちろんインターネット企業でもある各社に対して。

EUの代表的なデータ保護規制では、越境事案の決定には影響を受ける全規制当局(27の加盟国)の同意が必要である。そのためGDPRの「ワンストップショップ」メカニズムは、主規制当局を介して苦情や調査を集めることにより、越境企業の規制上の義務を合理化しようとしているが(通常は企業がEU内に主要な法的根拠を持っている場合)、今回のWhatsApp事案で起きたように、主監督当局の結論(および提案された制裁)に対して異議を申し立てることができる。

アイルランドは当初、WhatsAppに対して5000万ユーロ(約65億円)という、はるかに少額の制裁金を科すことを提案していたが、他のEU規制当局がさまざまな局面でこの決定案に異議を唱えた。その結果、欧州データ保護会議(EDPB)が最終的に介入し、多様な論争を解決するための拘束力のある決定を下さなければならなかった(EDPBはこの夏に施行された)。

DPCはその(確かにかなり痛みをともなう)共同作業を通じて、WhatsAppに科される制裁金の額を引き上げるよう求められた。Twitterの決定草案で何が起きたかを反映して、DPCは当初、より軽微な制裁金を提案していたのだった。

EUの巨大なデータ保護機関の間の紛争を解決するには、明らかな時間的コストがかかる。DPCは12月にWhatsAppの決定草案を他のDPAに提出して審査を求めていたので、WhatsAppの不可逆的ハッシュ化などに関するすべての紛争を徹底的に洗い出すのに半年以上かかっている。その決定と結論に「修正」が加えられているという事実は、たとえ共同で合意していなくても、少なくともEDPBに押し切られた合意を経て到達しているのであれば、プロセスが遅くて不安定ではあるが機能していることを示している。少なくとも技術的な意味においては。

それでも、アイルランドのデータ保護機関は、GDPRに関する苦情や調査の処理における大きな役割について批判を受け続けるだろう。DPCが、どの問題を(ケースの選択や構成によって)詳細に調査し、どの問題を完全に排除すべきか(調査を開始していない問題や、単に取り下げられたり無視されたりしている苦情)を、本質的に選り好みしていると非難する声もある。最も声高な批判者たちは、DPCが依然として、EU全体におけるデータ保護権の効果的な実施の大きなボトルネックになっていると主張している。

この批判に関連した結論は、Facebookのようなテック大手は、欧州のプライバシー規則に違反するためのかなりのフリーパスをまだ得ている、というものである。

しかし、2億2500万ユーロの制裁金がFacebookのビジネス帝国の駐車違反切符に相当するものであることは事実だとしても、そのようなアドテック大手が人々の情報を処理する方法を変更するよう命じられたことは、少なくとも問題のあるビジネスモデルを大幅に改善するポテンシャルを秘めている。

とはいえ、このような広範な命令が期待される効果をもたらしているかどうかを判断するには、やはり時間を要することになるであろう。

欧州の長年のプライバシー活動家Max Schrems(マックス・シュレムス)氏によって設立されたプライバシー擁護団体noybは、この度のDPCのWhatsAppの決定に反応した声明で次のように述べている。「アイルランドの規制当局によるこの初の決定を歓迎します。しかし、DPCには2018年以来、年間約1万件の苦情が寄せられていますが、今回が初めての大きな制裁措置です。DPCはまた、当初は5000万ユーロの制裁金を科すことを提案しており、他の欧州データ保護当局によって2億2500万ユーロへの移行を余儀なくされました。それでもFacebookグループの売上高の0.08%にすぎません。GDPRは売上高の最大4%の制裁金を想定しています。このことは、DPCが依然として極めて機能不全に陥っていることを示しています」。

シュレムス氏はさらに、同氏とnoybは、DPCの前で保留中の訴訟をいくつか抱えており、その中にはWhatsAppも含まれていることを指摘した。

さらなる発言の中で同氏らは、DPCが他のEUのDPAによって強化を余儀なくされた制裁措置を筋の通った形で擁護するのかについて、また上訴プロセスの長さについての懸念を表明した。

「WhatsAppは確かに決定を不服として控訴するでしょう。アイルランドの裁判所のシステムにおいて、これは制裁金が実際に支払われるまでに何年もかかることを意味します。私たちのケースでは、DPCは事実上の基礎固めを行うことよりも、見出しに関心があるように私たちはしばしば感じていました。DPCが実際にこの決定を守るかどうかを見るのは、非常に興味深いことです。なぜなら、DPCは基本的に欧州のカウンターパートによって今回の決定を下さざるを得なかったからです。私はDPCが単純にこの訴訟に多くのリソースを割くことをしないか、アイルランドにおいてWhatsAppと「和解」することを想像することができます。私たちは、DPCが確実にこの決定に従って進めていることを確認するために、この件を注意深く監視していきます」。

【更新】別の反応声明で、Facebook傘下のWhatsAppに対して苦情を申し立てている欧州の消費者保護団体BEUCは、この決定を「遅すぎた」と評している。

デジタルポリシーのチームリーダーであるDavid Martin(デビッド・マーティン)氏は次のように付け加えた。「今回のことは、Facebookとその子会社に対して、データ保護に関するEUの規則を破ることは重大な結果をもたらすという重要なメッセージを送っています。また、アイルランドのデータ保護当局がEUのカウンターパートによってさらに厳格なスタンスを取ることを余儀なくされたことから、欧州データ保護委員会がGDPRの施行に果たした決定的な役割も今回示されました。私たちは、消費者当局がこの決定に留意し、BEUCがWhatsAppに対して起こしている、規約やプライバシーポリシーの最近の変更を受け入れるよう同社がユーザーに不当な圧力をかけたことに関する別の苦情について、速やかな対応がなされることを願っています」。

関連記事:フェイスブックのEU米国間データ転送問題の決着が近い

画像クレジット:Justin Sullivan / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

AerialPerspective Works via Getty Images

中国が、ユーザーデータ保護法(PIPL)案を可決したと新華社が伝えています。PIPLは、企業がユーザーデータをどのように収集、処理、保護するかについての包括的なルールを定めるもので、欧州のGDPR(一般データ保護規則)に相当する法律です。

この法律では、データの最小化(データ収集を特定の目的に必要な情報のみに限定すること)が規定されています。また、個人情報の使用方法をユーザーがコントロールできるようにすることも義務付けられており、例えばユーザーにはターゲティング広告を拒否する選択肢などが得られるとのこと。Reutersによると、PIPLでは「企業は明確かつ合理的な目的のもとで個人情報を取り扱わなければならず、取得する情報は目的のために必要最小限な範囲に限定される」とのこと。

また、この法律には第三国へのデータ転送に関しても規定があり、GDPRに定められるデータ保護責任者 (DPO) 的ポストを設置して、プライバシー保護の堅牢性について定期的な監査が行われるとされます。

中国ではPIPLの他にもデータセキュリティ関連の法律(DSL)が可決され9月1日から施行されることになっており、これらは企業が持つ経済的価値と「国家安全保障との関連性」に応じてデータを管理するための明確な枠組みを定めようという動きで、この点においてPIPLは欧州市民の情報を扱うあらゆる企業に適用されるGDPRとは異なっているようです。

中国がこうした法律を用意するのは、巨大化してきた国内テクノロジー企業への規制を強めるためと考えられます。中国最大のEC企業アリババは今年4月に、その支配的立場を乱用した廉で、182億2,800万元(2916億4800万円:当時)の行政処罰を科せられました。またネット配車サービスのDiDiも7月、ニューヨーク証券取引所への新規株式公開(IPO)をおこなった直後に、中国サイバースペース管理局(CAC)がユーザーのプライバシーを侵害した疑いがあるとして調査に入ったことが伝えられ、その出足を大きくくじかれています。また8月7日にはWeChatの”Youth Mode”が児童保護法に違反しているとして、テンセントが提訴されています。

PIPLは2021年11月1日に発効するため、企業がこの法律に対応するための猶予は2か月ほどしか余裕がありません。

(Source:Xinhua。Via CNBCEngadget日本版より転載)

企業間でセキュアに顧客の記録を結びつけるプラットフォームInfoSumが約71.3億円を調達

ロンドンを拠点とするスタートアップで、異なる組織間でセキュアなデータ共有をする分散型プラットフォームを提供するInfoSumが、Chrysalis Investmentsが主導するシリーズBで6500万ドル(約71億3000万円)を調達した。

InfoSumは2020年9月にUpfront VenturesとIA Venturesが共同で主導したシリーズAで1510万ドル(約16億5500万円)を調達しており、それから1年経たないうちの調達となった。シリーズA以降にInfoSumは売上を3倍に、従業員数を2倍にし、AT&TやDisney、Omnicom、Merkleなど新規顧客を50社以上獲得した。

コロナ禍でリモートワークやクラウドベースのコラボレーションへの移行を余儀なくされたことが大いに影響して企業がデータのプライバシーに対する関心を強めたことから、InfoSumの成長が加速した。同社のデータコラボレーションプラットフォームは特許取得済みのテクノロジーを使って、データの移動や共有をすることなく2社、あるいは3社以上の企業間で顧客の記録を結びつける。企業はセキュリティに対する懸念を軽減でき、同社によればGDPRなど現行のすべてのプライバシー関連法を遵守しているという。

2021年前半にInfoSum Bridgeを公開したことで、同社のプラットフォームは強化された。InfoSum Bridgeは顧客IDをリンクする同社プラットフォームの機能を大幅に拡張する製品だという。広告識別子を独自に「蓄積した」データセットと関連づけ、ファーストパーティデータに基づく広告ターゲティングの運用を向上させるように設計されている。

InfoSumの会長でCEOのBrian Lesser(ブライアン・レッサー)氏は「企業が安全でセキュアに顧客データを比較できるテクノロジーは、プライバシーを気にする消費者と価値やコントロールを重視する企業のおかげでありがたいことに新しい段階に入っています。InfoSumはこの流れをリードしていることを誇りに思っています。企業はデータのコラボレーションに関する現在のフリクションや非効率性を解決するソリューションを求めています。InfoSumはこの発展を前進させる企業です」と述べた。

InfoSumは企業がプライバシーを重視するツールやソフトウェアを引き続き求めることから2021年に「急成長」する状況が整っているとし、今回の資金ですべての部門の人材を増やし、新たな地域へ進出し、プラットフォームの開発をさらに進める。

以前にビッグデータのスタートアップであるDataSiftを創業して率いたNick Halstead(ニック・ハルステッド)氏が、世界中のデータを共有せずに結びつけるというビジョンを持って2015年にInfoSumを創業した(創業当初の社名はCognitiveLogic)。米国、英国、ドイツに展開しているオフィスに現在80人の社員がいる。

カテゴリー:ネットサービス
タグ:InfoSum資金調達プライバシーGDPR

画像クレジット:Getty Images

原文へ

(文:Carly Page、翻訳:Kaori Koyama)

Zoomの使用を中止せよ、独ハンブルグのデータ保護機関が州政府に警告

ハンブルグ州政府はZoom(ズーム)の使用に対する公的警告を発した。データ保護の懸念が理由だ。

ドイツ同州のデータ保護機関(DPA)は、現地時間8月16日に公的警告を発する措置を取り、上院事務局における人気ビデオ会議ツールの使用は、ユーザーのデータが米国に転送されて処理されるため欧州連合(EU)一般データ保護規則(GDPR)に違反する、とプレスリリースに書いた。

DPAの懸念は、2020年夏に欧州最高裁判所がEU-米国間の重要なデータ転送協定(Privacy Shield)を、米国の監視法がEUのプライバシー権利と相容れないために無効とした画期的裁定(Schrems II)を受けたものだ。

Schrems IIの影響は、法的不確定性による即時適用以上には、なかなか現れていない。しかし、現在欧州のいくつかのDPAが、データ転送問題を理由に米国拠点のデジタルサービスの使用に関する捜査を進めており、Facebook(フェイスブック)やZoomといった主要米国製ツールに関して、海を渡ったユーザーデータは適切に予防できないとして、その使用に警告を発した例もある。

ドイツの諸機関はこの件に関して最も積極的だ。しかしEUのデータ保護監察機関も、欧州圏におけるAmazon(アマゾン)、Microsoft(マイクロソフト)ら米国の巨人のクラウドサービスの使用に関して、同じデータ転送の懸念を理由に捜査している。

関連記事
ドイツ政府機関が2021年中のフェイスブックページ削除を要請される
EU諸機関によるAWSとマイクロソフトの各クラウドサービス利用について同プライバシー責任者が調査を開始

一方で欧州委員会(EC)とバイデン政権による代替データ転送協定を探る交渉は今も続いている。しかし、EUの立法者たちは性急な修正への警告を繰り返し、プライバシー・シールド復活のためには米国監視法の改定が必要となる可能性が高いと言っている。法的に不安定な状態が続くにつれ、欧州ではますます多くの公的機関が米国拠点サービスを捨てEU圏内の代替サービスを利用するよう圧力を受けている。

今回のハンブルグの事例でDPAは、以前に起きた懸念に関する適切な回答を示さなかったために、上院事務局に対して公的警告を発行したと話した。

DPAは、公的機関によるZoomの使用は個人データ処理に関する正当な法的根拠に関するGDPRの要求を満たしていないと主張し、次のように書いている。「上院事務局から提出されたZoomの使用に関する文書は、GDPR標準が遵守されていないことを示している」。

DPAは、2021年6月17日の聴聞会で公的手続きを開始したが上院事務局は同ビデオ会議ツールの使用を中止しなかった、と言っている。また、規則に沿った使用を説明する追加の文書も証拠も提出しなかった。このため、DPAは一般データ保護規則第58条(2)(a)に従って公的警告の手続きを踏んだ。

ハンブルグのデータ保護および情報の自由担当委員、Ulrich Kühn(ウルリッヒ・キューン)氏は声明で、地域機関がZoomを使うためにEU法を無視し続けていたことは「理解し難い」と評し、ドイツ企業のDataport(いくつもの州、地域、地方当局にソフトウェアを提供している)が提供している代替製品がすでに利用可能であることを指摘した。

キューン氏は声明(原文はドイツ語からGoogle翻訳で英訳)で「公的機関はとりわけ法の遵守が重要です。このため、このような公的措置を取らねばならなかったことは非常に残念です。自由ハンザ都市ハンブルグでは、全従業員が第三国通信に関して問題のない十分にテストされたビデオ会議ツールを利用できます。主要サービス・プロバイダーであるdataportは、自社のデータセンターでも別のビデオ会議システムを提供しています。それらはシュレースヴィヒ=ホルシュタイン州など他の地域でも問題なく利用できています。このため、上院事務局が別の非常に問題のあるシステムの使用にこだわることは理解できません」。

TechCrunchはハンブルグのDPAと上院事務局に連絡を取り質問を送った。

更新:ハンブルグDPAの広報官はTechCrunchに次のように伝えた。「現時点でこれ以上の公的措置を講じる予定はありません。当該管理者が我々の法的論法を評価の上必要な行動をとることを期待しています。もちろん、さらに話し合い、可能な方法を探し続けることにやぶさかではありません。それが公的警告のそもそもの目的であり、そのままでい遭遇するであろう問題を管理者に気づかせることです。

Zoomにもコメントを連絡を取り、コメントを求めている。

カテゴリー:パブリック / ダイバーシティ
タグ:ドイツハンブルグZoomビデオ会議EUGDPR

画像クレジット:OLIVIER DOULIERY/AFP / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nob Takahashi / facebook

EUがAmazonに過去最大約971億円の罰金、ターゲット広告目的で顧客データを使用

ルクセンブルグのデータ保護当局National Commission for Data Protection(CNPD)は、ターゲット広告目的で顧客データを使用していたとして、Amazon(アマゾン)に対しGDPR(一般データ保護規則)の罰金として過去最大の7億4600万ユーロ(約971億円)を科した。

Amazonはこの決定を米国時間7月30日にSEC(米証券取引所)に提出した書類の中で明らかにした。その中で同社は、決定は根拠がないと批判し、また「この問題について強力に」異議を唱える意向も示した。

「顧客情報のセキュリティと信頼の維持は最優先事項です」とAmazonの広報担当は声明で述べた。「データ流出はなく、顧客データがサードパーティに漏えいしたこともありません。こうした事実は明白です」。

「当社はCNPDの決定に強く抗議します。そして控訴するつもりです。当社が顧客にどのように関連広告を表示していたかに関する決定は、欧州プライバシー法の主観的、かつ立証されていない解釈に基づいています。また示された罰金の額は、そうした解釈にすらもまったく見合っていません」。

今回の罰金は、プライバシー権を主張するフランスのグループLa Quadrature du Netによる2018年の訴えの結果だ。同グループは、政治的あるいは商業目的で行動を不正操作するために欧州人のデータがテック大企業によって使われることがないよう、多くの人の利益を代表していると主張する。Apple、Facebook、Google、LinkedInもターゲットにし、1万人超を代表して苦情を申し立てた同グループは、顧客がどの広告と情報を受け取るかを選ぶことでAmazonは商業目的のために顧客をコントロールしたと主張している。

La Quadrature du Netは「最悪の事態を懸念した3年間の沈黙の後に出された」CNPDの罰金の決定を歓迎した。

「我々のプライバシーと自由意思の搾取に基づく経済的支配のモデルは大いに規則に反しており、我々の民主的社会が擁護を主張するあらゆる価値観に背いています」と7月30日のブログ投稿で述べた

CNPDはまた、Amazonに商慣行の見直しも求めた。しかし、当局はこの決定について公にしておらず、Amazonもどのような商慣行の改善が求められているのか具体的に示さなかった。

GDPRに違反したとしてGoogleが2019年に科された5000万ユーロ(約65億円)を超える過去最大の罰金は、Amazonの欧州事業に厳しい目が向けられている中でのものだ。2020年11月に欧州委員会は、Amazonのプラットフォームを使っているサードパーティの事業者との競争で自社の立場を悪用したとして、Amazonに対し正式に独禁法違反を指摘した。と同時に、欧州委員会は自社サイトやパートナーのサイトでの自社プロダクトの優遇措置の疑いでAmazonに対する2つめの調査を開始した。

関連記事
仏データ保護当局がグーグルに罰金60億円超の支払い命令
不正なやり方でCookie同意を求めるウェブサイトの粛清が欧州で始まる
ドイツ当局がFacebookに対し物議を醸している「WhatsApp」の利用規約を適用しないよう命令

カテゴリー:ネットサービス
タグ:EUAmazonGDPR罰金広告プライバシー個人情報データ保護

画像クレジット:Natasha Lomas

原文へ

(文:Carly Page、翻訳:Nariko Mizoguchi

不正なやり方でCookie同意を求めるウェブサイトの粛清が欧州で始まる

あなたはCookie(クッキー)のポップアップにうんざりしていないだろうか?欧州では、ウェブサイトの閲覧時に現れる「データの選択」の通知が、オンラインで行おうとしていることを邪魔し、イライラさせられたり、混乱させられたりするため、ウェブが「使いにくい」という苦情が多数のユーザーから寄せられている。

煩わしいから、不気味な広告のような誰も好まないものを動かす必須でないCookieは「すべて拒否」できるボタンがあればいいのに、と思う人もいるだろう。

しかし法規では、ユーザーが明確に「拒否を選択(オプトアウト)する」意思表示がなされるべきだとしている。だからEUの「規制好きな官僚主義」が問題だと訴える人々は、文句をいう対象を間違えている。

Cookieの同意に関するEUの法規は明確だ。ウェブユーザーには「受け入れる」か「拒否する」かというシンプルで自由な選択が提供されるべきというものである。

問題は、単にほとんどのウェブサイトがこれを遵守していないということだ。例えば、それらのウェブサイトは、非常にシンプルな「受け入れる」(すべてのデータを渡す)と、非常に解り難くてイライラする退屈な「拒否する」(場合によっては拒否の選択肢がまったくない)という、歪んだ選択肢を提供しているところもある。これは法規を馬鹿にした行為だ。

勘違いしてはいけない。これは意図的に法律を無視するように作られたのだ。このようなサイトは、あえて非対称な「選択肢」を提供することで、人々を疲弊させ、データを奪い続けようとしているのだ。

しかし、現行のEU規制では、そのようなCookieの同意を求めるやり方は認められていないので、こういうことをしているウェブサイトは、欧州一般データ保護規則(GDPR)やeプライバシー(ePrivacy)指令の下、規則に背いたとして多額の罰金を科せられることになる。

例えば、2020年末にはフランスで、Google(グーグル)とAmazon(アマゾン)が、ユーザーの同意なしに追跡用のCookieを投下したとして、前者に総額1億ユーロ(約134億円)、後者には3500万ユーロ(約47億円)の罰金が科せられた。

罰金は確かに目を見張るほど高額だ。だが、不正なCookie同意に対するEUの取締りは、まだそれほど見られない。

これは欧州各国のデータ保護機関が、ウェブサイトをコンプライアンスに導くために、ほとんどの場合、穏便なアプローチをとってきたためである。しかし、取締りがより厳しくなる兆候もある。その1つは、データ保護機関が、適切なCookieの同意とはどういうものかを詳細に明記した指針を発表したことだ。これで意図的に間違ったことをしても言い訳の余地がなくなる。

一部のデータ保護機関は、企業がCookieの同意フローに必要な変更を加える時間を確保するため、コンプライアンスの猶予期間を設けていた。しかし、今やEUの一般データ保護規則(GDPR)が適用されてから、まる3年が経過している。もはや、いまだにひどく歪んだCookie同意バナーを掲載しているウェブサイトには、正当な理由はない。それはそのサイトが法律を破り、取り締まられない幸運を祈っている状態であることを意味する。

Cookie同意に関する取り締まりがすぐに始まることを予感させる理由は他にもある。欧州のプライバシー保護団体「noyb」は現地時間5月31日、コンプライアンス違反を一掃するための大規模なキャンペーンを開始したと発表。年内に最大1万サイトのコンプライアンスを確認し、違反しているサイトには自動的に苦情を申し立てるソフトウェアを開発したという。このキャンペーンの一環として、noybは違反者が規則を遵守するためのガイダンスも無料で提供している。

まずはその第1弾として、EU全域(33カ国)における大小さまざまなサイトに対し、すでに560件の苦情を申し立てたことが発表された。noybによると、苦情の対象となっているのは、Google(グーグル)やTwitter(ツイッター)などの大手企業から「ある程度の訪問者数を持つ」ローカルなページまで多岐にわたるという。

「コンサルタントからデザイナーに至るまで、業界全体が、仮想の同意率を確保するために、おかしなクリックの迷宮を開発しています。人々をイライラさせて『OK』をクリックさせることは、GDPRの原則に明らかに違反しています。この法律に従い、企業はユーザーの選択を容易にし、システムを公正にデザインしなければなりません。これらの企業は、実際にCookieを受け入れたいと思っているユーザーが全体の3%しかいないことを公に認めています。しかし、90%以上のユーザーは『同意』ボタンをクリックするように誘導することができるのです」と、nybの会長であり、長年にわたりEUのプライバシーキャンペーンに携わってきたMax Schrems(マックス・シュレムス)氏は声明の中で述べている。

「企業は『はい』か『いいえ』という単純な選択肢を与える代わりに、あらゆる手段を用いてユーザーを操作しています。私たちは、15種類以上のよくある悪用を確認しました。最も多く見られる問題は、最初のページに『拒否』ボタンがないことです」と、シュレムス氏は続けている。「私たちは欧州で人気のあるページに焦点を当てています。このプロジェクトで申し立てる苦情は、1万件を容易に超えるだろうと予想しています。私たちの団体は寄付によって運営されているため、法律事務所とは違って、企業に無料で簡単な解決方法を提供しています。ほとんどの苦情が迅速に解決され、バナーがもっともっとプライバシーに配慮したものになることを、私たちは期待しています」。

noybはその活動を拡大するため、Cookieの同意フローを自動的に解析してコンプライアンス上の問題点を特定し(最上層で「拒否」ボタンが提供されていない、ボタンの色がまぎらわしい、偽の「legitimate interest(正当な利益)」によるCookieの受け入れが行われている、など)、違反者にメールで送信できる(noybの法務担当者が確認してから)報告書のドラフトを自動的に作成するツールを開発した。

これは、組織的に行われている悪質なCookie操作に取り組むための、革新的で拡張性のあるアプローチと言える。実際に目立った変化を起こし、おぞましいCookieポップアップを一掃することができるだろう。

noybは、まず違反者に警告を与え、1カ月以内に違反行為を是正させる猶予を与える。それでも改善されなければ、そのサイトが関連するデータ保護機関に正式な苦情を申し立てる(そして違反者には涙が出るほど高額な罰金が課せられるだろう)。

その最初の取り組みでは、この地域で最もよく使用されているテンプレートツールの1つであるOneTrust(ワントラスト)の利用同意管理プラットフォーム(CMP)に焦点を当てている。このツールは、欧州のプライバシー研究者が以前、顧客ベースにプレチェックボックスのような非準拠の選択肢を設定するための豊富なオプションを提供していると指摘していた。困った話だ。

noybの広報担当者は、OneTrustのツールが人気が高いため、今回はそれから始めたと語っているが、将来的には他のCMPにも対象を拡大していくことを認めている。

noybが始めたCookie同意に関する苦情の取り組みは、現在多くのウェブサイトで展開されているダークパターンの腐敗ぶりを露呈させた。noybが確認した500以上のページのうち、81%は最初のページで「拒否する」選択肢を提供しておらず(つまり、ユーザーは拒否オプションを見つけるためにサブメニューを探さなければならない)、73%はユーザーを騙して「同意する」をクリックさせようとする「欺瞞的な色とコントラスト」を使用していたという。

noybの評価では、90%が法律で定められている「容易に同意を撤回できる」方法を提供していないこともわかった。

第1弾の苦情申立て対象となったサイトで見つかったCookie遵守に関する問題(画像クレジット:noyb)

このことは、大規模な法規制の施行がまったく成功していないということの現れだ。しかし、不正なCookie同意の横行も、もはやこれまでといったところだろう。

クロールしたウェブサイトに基づき、EU全域でCookieの不正使用がどの程度蔓延しているかを把握できたかと尋ねられたnoybの広報担当者は、その過程には技術的な問題があるため、判断は難しいと答えたが、しかし最初に収集した5000サイトから3600サイトに絞られたと述べた。そして、そのうち3300サイトがEU一般データ保護規則に違反していると判断できたという。

残りの300サイトについては、技術的な問題があるものと、違反していないものがあったが、やはり大部分(90%)は違反していると判断された。これほど多くの規則違反があるのだから「不正な同意」の問題を改善するには組織的なアプローチが必要だ。つまり、noybによる自動化技術の使用は、非常に理に適っている。

この非営利団体は、他にも革新的な方法を考えている。noybは欧州の人々が「迷惑なCookieバナーを使わずに、バックグラウンドでプライバシーに関する選択を知らせることができる」自動化されたシステムの開発に取り組んでいるという。

この記事を書いている時点では、このシステムがどのように機能するかについての詳細は明らかにされていないが(おそらくブラウザのプラグインのようなものになると思われる)、noybは「今後数週間のうちに」詳細を発表すると語っているので、なるべく早くわかることを期待したい。

「すべてを拒否する」ボタンを自動的に検出して選択することができる(たとえ、最も普及しているCMPのサブセットのみに有効であっても)ブラウザプラグインは「Do not track(追跡するな)」の夢を復活させるかもしれない。少なくとも、Cookieバナーによるダークパターンの弊害に対抗し、不正なCookieをデジタルの塵にするための強力な武器となるだろう。

関連記事
Google AnalyticsはちゃんとCookieがなくなった後に備えている
グーグルが「Cookie廃止後、それに代わる他のユーザー追跡技術を採用するつもりはない」と発言
GitHubがCookie追放を発表、わずらわしいCookieバナーも消える

カテゴリー:パブリック / ダイバーシティ
タグ:CookieヨーロッパGDPREUeプライバシー規則noyb

画像クレジット:Lisa Zins Flickr under a CC BY 2.0 license.

原文へ

(文:Natasha Lomas、翻訳:Hirokazu Kusakabe)

ドイツ当局がFacebookに対し物議を醸している「WhatsApp」の利用規約を適用しないよう命令

ハンブルグのデータ保護機関(DPA)はFacebookに対し、WhatsAppの利用規約の強制的な更新に基づいて同社が自らにアクセスを許可しようとしている、WhatsAppの追加的なユーザーデータに関する処理を禁止した。

物議を醸しているWhatsAppのプライバシーポリシーのアップデートは、公表されて以来、世界中で広範な混乱を引き起こしてきた。Facebookはユーザーから大きな反発を受け、競合のメッセージングアプリが憤慨するユーザーの流入で恩恵を享受することに直面した。同社はすでにその施行を数カ月延期している。

インド政府もまた、WhatAppの利用規約の変更を法廷で阻止しようとしており、同国の反トラスト当局が調査を進めている

関連記事
ユーザーの反発を受けWhatsAppがプライバシー規約の施行を3カ月延期
インド政府がWhatsAppの新プライバシーポリシーを法律違反として裁判所に差し止めを申請
インドの独占禁止監視機関がWhatsAppのプライバシーポリシー変更に対する調査を命じる

全世界のWhatsAppユーザーは、5月15日までに新しい規約に同意しなければならない(WhatsAppのFAQによると、その後も利用規約の更新への同意を求めるリマインダーは継続されるという)。

Facebookは、同規約を求められたユーザーの大多数はすでにこれに同意したとしているが、そのユーザーの割合は公表されていない。

しかし、ハンブルグのDPAの介入により、少なくともドイツ国内ではFacebookによる利用規約の施行がさらに遅れる可能性がある。当局は欧州連合(EU)の一般データ保護規則(GDPR)で認められている緊急措置を採用し、同社に対し3カ月間データを共有しないよう命じた。

WhatsAppの広報担当者は、ハンブルグ当局の命令の法的有効性に異議を唱え、これを「WhatsAppのアップデートの目的と影響に対する根本的な誤解」だとし「したがって合法的な根拠はない」と主張した。

「今回のアップデートは、ユーザーがWhatsApp上の企業にメッセージを送る際のオプションを明白にして、私たちがデータをどのように収集し、利用しているかについての透明性をさらに高めるものです。ハンブルグのDPAの主張は誤りであり、その命令は今回のアップデートの継続的展開に影響を与えるものとはならないでしょう。私たちは引き続き、すべての人に安全でプライベートなコミュニケーションを提供することに注力していきます」と広報担当者は付け加え、Facebook傘下のWhatsAppがこの命令を黙殺することを意図している可能性を示唆した。

TechCrunchでは、Facebookがハンブルクの手続きを訴える選択肢を検討していると認識している。

ハンブルグが採用している緊急措置権限は3カ月を超えて延長することはできないが、当局は欧州データ保護評議会(EDPB)に対し介入を求め、27の加盟国ブロックに及ぶ「拘束力のある決定」を下すよう圧力をかけている。

TechCrunchはEDPBに連絡を取り、ハンブルグのDPAの要請に応えるためにどのような措置を取り得るかについて尋ねた。

EUのDPAは通常、特定の苦情に関連する拘束力を有するGDPRの決定には関与しない。ただし、国境を越えた案件を処理するためのワンストップショップ制度の下で、主任監督機関による審査のために提出されたGDPRの決定草案についてEUのDPAが合意できない場合は、この限りではない。

こうしたシナリオでは、EDPBが自ら拘束力のある判断を採択できるが、それが緊急性の高い手続きに適しているかどうかは不透明だ。

【更新】DPAが暫定措置を延長または最終的なものとすることを希望する場合のように、第66条に基づく暫定措置を採択する決定を通知した監督機関が、EDPBに対して緊急の意見あるいは緊急の拘束力のある決定を要請することをGDPRが認めていることについて、EDPBが確認した。

「第66条は、GDPRのワンストップショップ制度(第60条)および一貫性制度(第63条)の例外規定です」とEDPBの広報担当者はTechCrunchに語った。「これは、監督機関がその管轄内のデータ主体の権利および自由を保護するために行動する緊急の必要性があると考える場合に利用できる、補完的な手続きです」。

「ハンブルグ当局はEDPBに対し、暫定措置を採用する決定を通知済みです」と同担当者は言い添えた。

ドイツのDPAは、FacebookがEUのデータ保護規則を軽視しているとして同社を厳しく批判するだけでなく、同地域の統括データ監督機関であるアイルランドのデータ保護委員会(DPC)に対しても、WhatsAppの新しい利用規約に付随する非常に広範な懸念を調査していないとして遺憾の意を表明した。

(「データ共有の事実上の慣行を調査する主任監督機関への我々の要請は、今のところ尊重されていない」というのが、ハンブルグのプレスリリースにおけるこの批判に関する丁寧な表現である)。

TechCrunchはDPCの所見を照会しており、入手次第、本記事を更新する。

【更新】DPCの広報担当者は次のように語った。「ハンブルグはワンストップショップの例外としてこのプロセスを開始しており、ハンブルグのDPAにとって、緊急手続きを開始するためのしきい値をどのように満たすかについて対応することが重要です。WhatsAppに関するアイルランドのDPA草案の決定は、DPA間の合意に達することができなかったため、GDPRの第65条紛争解決手続を通して処理されます。したがって、そのコンテキストにおいてハンブルグのDPAは、すでに進行中であるワンストップショップ手続きの例外としての第66条の下で、自らの行動を適格化する必要があります」。

アイルランドのデータ監視機関は、GDPRの施行に関して創造的な規制措置を怠っていると批判されている(批判者たちは、委員長のHelen Dixon[ヘレン・ディクソン]氏と同氏が率いるチームに対し、多くの苦情の調査を実施せず、調査を開始した場合にはその調査に数年を要したことについて非難している)。

DPCが大手テック企業に対してこれまでに下した唯一のGDPRの決定(Twitterに対するもので、データ漏えいに関連している)は、他のEUのDPAとの論争に発展した。DPA側は、最終的にアイルランドが科した55万ドル(約6000万円)の罰金よりもはるかに厳しい罰則を求めている。

FacebookとWhatsAppに対するGDPR関連の調査について、DPCは依然として積み残したままである。WhatsAppのデータ共有の透明性に関する決定書の草案が2021年1月に他のEUのDPAに送られて審査に入っているが、この規制が適用されてから3年近く経った今もなお決議案は日の目を見ていない。

つまり、最大の大手テック企業に対するGDPRの施行が欠如していることに対する不満が、他のEUのDPAの間でも高まっている。DPAの中には、アイルランドを通じて多くの苦情を集めるワンストップショップ(OSS)制度のボトルネックを回避するために、創造的な規制措置を取っているところもある。

イタリアのDPAも2021年1月にWhatsAppの利用規約の変更について警告を発しており、変更内容についての明確な情報が不足していることを懸念してEDPBに連絡したと述べている。

EDPBはその時点で、監督当局間の協力を促進することがEDPBの役割であることを強調した。さらに「その権限に従ってEU全体でデータ保護法の一貫した適用を確保するため」、DPA間の情報交換を引き続き促進すると付言した。しかし、EUのDPA間の合意は常に脆弱であり、執行上のボトルネックや、OSSのフォーラムショッピングにより規制が維持されていないという認識をめぐる懸念が広がっている。

このことは、行き詰まりを打開して広範な規制の崩壊を回避する何らかの解決策、すなわちより多くの加盟国機関が一方的な「緊急」措置に訴える場合の対処に向けた対策を講じるようEDPBに求める圧力を高めることになるだろう。

ハンブルグのDPAは、WhatsAppの規約が更新されたことで、WhatsAppのユーザーの位置情報をFacebookに渡したり、企業がFacebookのホスティングサービスを利用した場合にWhatsAppユーザーの通信データを第三者に譲渡できるようにするなど、WhatsApp自体の目的(広告やマーケティングを含む)のために「Facebookとデータを共有する広範囲な権限」がWhatsAppに与えられるとしている。

FacebookはEU法の下でデータ共有を拡大する法的基盤としての合法的な利益に依存することはできない、と同局は判断している。

また、大手テック企業がユーザーの同意に依存しようとしている場合、変更が明確に説明されていないことや、ユーザーが同意に関する自由な選択(これはGDPRで要求されている基準である)を提供されていないことから、基準を満たしていないことになる。

「新しい規約に関する調査により、FacebookがWhatsAppユーザーのデータをいつでも自分たちの目的のために利用できるようにするために、両社の密接な関係をさらに拡大しようとしていることが明らかになりました」とハンブルグ当局は続けた。「プロダクトの改善と広告の領域に関して、WhatsAppはデータ主体のさらなる同意を要求することなく、データをFacebook企業に渡す権利を留保しています。その他の領域については、現時点ですでにプライバシーポリシーに則った自社利用が想定されています」。

「WhatsAppとそのFAQによって提示されたプライバシーポリシーには、例えば、電話番号やデバイスIDなどのWhatsAppユーザーのデータが、ネットワークセキュリティやスパムの送信防止などの共同目的のために、すでに企業間で交換されていることが記述されています」。

ハンブルグをはじめとする各DPAは、当時TechCrunchが報じたように、EUの最高裁判所のアドバイザーによる最近の意見を参考にして、GDPRの施行に関する問題を自らの手で解決しようとしているのかもしれない。Bobek(ボベック)法務官は、EU法は「緊急措置」を採用するため、または「事案を処理しないことを決定した主要データ保護当局に従って」介入するためなど、特定の状況において各機関が独自の手続きを取ることを認めているとの見解を示した

この件に関するCJEU(欧州司法裁判所)の裁定はまだ係争中だが、法廷はアドバイザーの見解に同調する傾向が強くなっている。

関連記事:フェイスブックのEU米国間データ転送問題の決着が近い

カテゴリー:パブリック / ダイバーシティ
タグ:ドイツFacebookWhatsAppプライバシーGDPR

画像クレジット:Justin Sullivan / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す

欧州連合(EU)の欧州委員会が、域内市場のリスクの高い人工知能(AI)の利用に関するリスクベースの規制案を公表した。

この案には、中国式の社会信用評価システム、身体的・精神的被害を引き起こす可能性のあるAI対応の行動操作手法など、人々の安全やEU市民の基本的権利にとって危険性の高さが懸念される一部のユースケースを禁止することも含まれている。法執行機関による公共の場での生体認証監視の利用にも制限があるが、非常に広範な免除を設けている。

今回の提案では、AI使用の大部分は(禁止どころか)いかなる規制も受けていない。しかし、いわゆる「高リスク」用途のサブセットについては「ex ante(事前)」および「ex post(事後)」の市場投入という特定の規制要件の対象となる。

また、チャットボットやディープフェイクなど、一部のAIユースケースには透明性も求められている。こうしたケースでは、人工的な操作を行っていることをユーザーに通知することで、潜在的なリスクを軽減できるというのが欧州委員会の見解だ。

この法案は、EUを拠点とする企業や個人だけでなく、EUにAI製品やサービスを販売するすべての企業に適用することを想定しており、EUのデータ保護制度と同様に域外適用となる。

EUの立法者にとって最も重要な目標は、AI利用に対する国民の信頼を醸成し、AI技術の普及を促進することだ。欧州の価値観に沿った「卓越したエコシステム」を開発したいと、欧州委員会の高官は述べている。

「安全で信頼できる人間中心の人工知能の開発およびその利用において、欧州を世界クラスに高めることを目指します」と、欧州委員会のEVP(執行副委員長)であるMargrethe Vestager(マルグレーテ・ベステアー)氏は記者会見で提案の採択について語った

「一方で、私たちの規制は、AIの特定の用途に関連する人的リスクおよび社会的リスクに対処するものです。これは信頼を生み出すためです。また、私たちの調整案は、投資とイノベーションを促進するために加盟国が取るべき必要な措置を概説しています。卓越性を確保するためです。これはすべて、欧州全域におけるAIの浸透を強化することを約束するものです」。

この提案では、AI利用の「高リスク」カテゴリー、つまり明確な安全上のリスクをともなうもの、EUの基本的権利(無差別の権利など)に影響を与える恐れのあるものに、義務的な要件が課されている。

最高レベルの使用規制対象となる高リスクAIユースケースの例は、同規制の附属書3に記載されている。欧州委員会は、AIのユースケースの開発とリスクの進化が続く中で、同規制は委任された法令によって拡充する強い権限を持つことになると述べている。

現在までに挙げられている高リスク例は、次のカテゴリーに分類される。

  • 自然人の生体認証およびカテゴリー化
  • クリティカルなインフラストラクチャの管理と運用
  • 教育および職業訓練
  • 雇用、労働者管理、および自営業へのアクセス
  • 必要不可欠な民間サービスおよび公共サービスならびに便益へのアクセスと享受
  • 法執行機関; 移民、亡命、国境統制の管理; 司法および民主的プロセスの運営

AIの軍事利用に関しては、規制は域内市場に特化しているため、適用範囲から除外されている。

リスクの高い用途を有するメーカーは、製品を市場に投入する前に遵守すべき一連の事前義務を負う。これには、AIを訓練するために使用されるデータセットの品質に関するものや、システムの設計だけでなく使用に関する人間による監視のレベル、さらには市販後調査の形式による継続的な事後要件が含まれる。

その他の要件には、コンプライアンスのチェックを可能にし、関連情報をユーザーに提供するためにAIシステムの記録を作成する必要性が含まれる。AIシステムの堅牢性、正確性、セキュリティも規制の対象となる。

欧州委員会の関係者らは、AIの用途の大部分がこの高度に規制されたカテゴリーの範囲外になると示唆している。こうした「低リスク」AIシステムのメーカーは、使用に際して(法的拘束力のない)行動規範の採用を奨励されるだけだ。

特定のAIユースケースの禁止に関する規則に違反した場合の罰則は、世界の年間売上高の最大6%または3000万ユーロ(約39億4000万円)のいずれか大きい方に設定されている。リスクの高い用途に関連する規則違反は4%または2000万ユーロ(約26億3000万円)まで拡大することができる。

執行には各EU加盟国の複数の機関が関与する。提案では、製品安全機関やデータ保護機関などの既存(関連)機関による監視が想定されている。

このことは、各国の機関がAI規則の取り締まりにおいて直面するであろう付加的な作業と技術的な複雑性、そして特定の加盟国において執行上のボトルネックがどのように回避されるかという点を考慮すると、各国の機関に十分なリソースを提供することに当面の課題を提起することになるだろう。(顕著なことに、EU一般データ保護規則[GDPR]も加盟国レベルで監督されており、一律に厳格な施行がなされていないという問題が生じている)。

EU全体のデータベースセットも構築され、域内で実装される高リスクシステムの登録簿を作成する(これは欧州委員会によって管理される)。

欧州人工知能委員会(EAIB)と呼ばれる新しい組織も設立される予定で、GDPRの適用に関するガイダンスを提供する欧州データ保護委員会(European Data Protection Board)に準拠して、規制の一貫した適用をサポートする。

AIの特定の使用に関する規則と歩調を合わせて、本案には、EUの2018年度調整計画の2021年アップデートに基づく、EU加盟国によるAI開発への支援を調整するための措置が盛り込まれている。具体的には、スタートアップや中小企業がAIを駆使したイノベーションを開発・加速するのを支援するための規制用サンドボックスや共同出資による試験・実験施設の設置、中小企業や公的機関がこの分野で競争力を高めるのを支援する「ワンストップショップ」を目的とした欧州デジタルイノベーションハブのネットワークの設立、そして域内で成長するAIを支援するための目標を定めたEU資金提供の見通しなどである。

域内市場委員のThierry Breton(ティエリー・ブレトン)氏は、投資は本案の極めて重要な部分であると述べている。「デジタル・ヨーロッパとホライズン・ヨーロッパのプログラムの下で、年間10億ユーロ(約1300億円)を解放します。それに加えて、今後10年にわたって民間投資とEU全体で年間200億ユーロ(約2兆6300億円)の投資を生み出したいと考えています。これは私たちが『デジタルの10年』と呼んでいるものです」と同氏は今回の記者会見で語った。「私たちはまた、次世代EU[新型コロナウイルス復興基金]におけるデジタル投資の資金として1400億ユーロ(約18兆4000億円)を確保し、その一部をAIに投資したいと考えています」。

AIの規則を形成することは、2019年末に就任したUrsula von der Leyen(ウルズラ・フォン・デア・ライエン)EU委員長にとって重要な優先事項だった。2018年の政策指針「EUのためのAI(Artificial Intelligence for Europe)」に続くホワイトペーパーが2020年発表されている。ベステアー氏は、今回の提案は3年間の取り組みの集大成だと述べた。

ブレトン氏は、企業がAIを適用するためのガイダンスを提供することで、法的な確実性と欧州における優位性がもたらされると提言している。

「信頼【略】望ましい人工知能の開発を可能にするためには、信頼が極めて重要だと考えます」と同氏はいう。「(AIの利用は)信頼でき、安全で、無差別である必要があります。それは間違いなく重要ですが、当然のことながら、その利用がどのように作用するかを正確に理解することも求められます」。

「必要なのは、指導を受けることです。特に新しいテクノロジーにおいては【略】私たちは『これはグリーン、これはダークグリーン、これはおそらく若干オレンジで、これは禁止されている』といったガイドラインを提供する最初の大陸になるでしょう。人工知能の利用を考えているなら、欧州に目を向けてください。何をすべきか、どのようにすべきか、よく理解しているパートナーを得ることができます。さらには、今後10年にわたり地球上で生み出される産業データの量が最も多い大陸に進出することにもなるのです」。

「だからこそこの地を訪れてください。人工知能はデータに関するものですから―私たちはガイドラインを提示します。それを行うためのツールとインフラも備えています」。

本提案の草案が先にリークされたが、これを受けて、公共の場での遠隔生体認証による監視を禁止するなど、計画を強化するよう欧州議会議員から要請があった。

関連記事
EUがAIのリスクベース規則の罰金を全世界年間売上高の最大4%で計画、草案流出で判明
欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

最終的な提案においては、遠隔生体認証監視を特にリスクの高いAI利用として位置づけており、法執行機関による公の場での利用は原則として禁止されている。

しかし、使用は完全に禁止されているわけではなく、法執行機関が有効な法的根拠と適切な監督の下で使用する場合など、例外的に利用が認められる可能性があることも示唆されている。

脆弱すぎると非難された保護措置

欧州委員会の提案に対する反応には、法執行機関による遠隔生体認証監視(顔認識技術など)の使用についての過度に広範な適用除外に対する批判の他、AIシステムによる差別のリスクに対処する規制措置が十分ではないという懸念が数多くみられた。

刑事司法NGOのFair Trialsは、刑事司法に関連した意義ある保護措置を規制に盛り込むには、抜本的な改善が必要だと指摘した。同NGOの法律・政策担当官であるGriff Ferris(グリフ・フェリス)氏は、声明の中で次のように述べている。「EUの提案は、刑事司法の結果における差別の固定化の防止、推定無罪の保護、そして刑事司法におけるAIの有意義な説明責任の確保という点で、抜本的な改革を必要としています」。

「同法案では、差別に対する保護措置の欠如に加えて、『公共の安全を守る』ための広範な適用除外において刑事司法に関連するわずかな保護措置が完全に損なわれています。この枠組みには、差別を防止し、公正な裁判を受ける権利を保護するための厳格な保護措置と制限が含まれていなければなりません。人々をプロファイリングし、犯罪の危険性を予測しようとするシステムの使用を制限する必要があります」。

欧州自由人権協会(Civil Liberties Union for Europe[Liberties])も、同NGOが主張するような、EU加盟国による不適切なAI利用に対する禁止措置の抜け穴を指摘している。

「犯罪を予測したり、国境管理下にある人々の情動状態をコンピューターに評価させたりするアルゴリズムの使用など、問題のある技術利用が容認されているケースは数多く存在します。いずれも重大な人権上のリスクをもたらし、EUの価値観を脅かすものです」と、上級権利擁護担当官のOrsolya Reich(オルソリヤ・ライヒ)氏は声明で懸念を表明した。「警察が顔認識技術を利用して、私たちの基本的な権利と自由を危険にさらすことについても憂慮しています」。

ドイツ海賊党の欧州議会議員Patrick Breyer(パトリック・ブレイヤー)氏は、この提案は「欧州の価値」を尊重するという主張の基準を満たしていないと警告した。同氏は、先のリーク草案に対して基本的権利の保護が不十分だと訴える書簡に先に署名した40名の議員のうちの1人だ。

「EUが倫理的要件と民主的価値に沿った人工知能の導入を実現する機会をしっかり捕捉しなれけばなりません。残念なことに、欧州委員会の提案は、顔認識システムやその他の大規模監視などによる、ジェンダーの公平性やあらゆるグループの平等な扱いを脅かす危険から私たちを守るものではありません」と、今回の正式な提案に対する声明の中でブレイヤー氏は語った。

「公共の場における生体認証や大規模監視、プロファイリング、行動予測の技術は、私たちの自由を損ない、開かれた社会を脅かすものです。欧州委員会の提案は、公共の場での自動顔認識の高リスクな利用をEU全域に広めることになるでしょう。多くの人々の意思とは相反します。提案されている手続き上の要件は、煙幕にすぎません。これらの技術によって特定のグループの人々を差別し、無数の個人を不当に差別することを容認することはできません」。

欧州のデジタル権利団体Edriも「差別的な監視技術」に関する提案の中にある「憂慮すべきギャップ」を強調した。「この規制は、AIから利益を得る企業の自己規制の範囲が広すぎることを許容しています。この規制の中心は、企業ではなく人であるべきです」と、EdriでAIの上級政策責任者を務めるSarah Chander(サラ・チャンダー)氏は声明で述べている。

Access Nowも初期の反応で同様の懸念を示しており、提案されている禁止条項は「あまりにも限定的」であり、法的枠組みは「社会の進歩と基本的権利を著しく損なう多数のAI利用の開発や配備を阻止するものではない」と指摘している。

一方でこうしたデジタル権利団体は、公的にアクセス可能な高リスクシステムのデータベースが構築されるなどの透明性措置については好意的であり、規制にはいくつかの禁止事項が含まれているという事実を認めている(ただし十分ではない、という考えである)。

消費者権利の統括団体であるBEUCもまた、この提案に対して即座に異議を唱え、委員会の提案は「AIの利用と問題の非常に限られた範囲」を規制することにフォーカスしており、消費者保護の点で脆弱だと非難した。

「欧州委員会は、消費者が日々の生活の中でAIを信頼できるようにすることにもっと注力すべきでした」とBEUCでディレクターを務めるMonique Goyens(モニーク・ゴヤンス) 氏は声明で述べている。「『高リスク』、『中リスク』、『低リスク』にかかわらず、人工知能を利用したあらゆる製品やサービスについて人々の信頼の醸成を図るべきでした。消費者が実行可能な権利を保持するとともに、何か問題が起きた場合の救済策や救済策へのアクセスを確保できるよう、EUはより多くの対策を講じるべきでした」。

機械に関する新しい規則も立法パッケージの一部であり、AIを利用した変更を考慮した安全規則が用意されている(欧州委員会はその中で、機械にAIを統合している企業に対し、この枠組みに準拠するための適合性評価を1度実施することのみを求めている)。

Airbnb、Apple、Facebook、Google、Microsoftなどの大手プラットフォーム企業が加盟する、テック業界のグループDot Europe(旧Edima)は、欧州委員会のAIに関する提案の公表を好意的に受け止めているが、本稿執筆時点ではまだ詳細なコメントを出していない。

スタートアップ権利擁護団体Allied For Startupsは、提案の詳細を検討する時間も必要だとしているが、同団体でEU政策監督官を務めるBenedikt Blomeyer(ベネディクト・ブロマイヤー)氏はスタートアップに負担をかける潜在的なリスクについて警鐘を鳴らしている。「私たちの最初の反応は、適切に行われなければ、スタートアップに課せられる規制上の負担を大幅に増加させる可能性があるということでした」と同氏はいう。「重要な問題は、欧州のスタートアップがAIの潜在的な利益を享受できるようにする一方で、本案の内容がAIがもたらす潜在的なリスクに比例するものかという点です」。

その他のテック系ロビー団体は、AIを包み込む特注のお役所仕事を期待して攻撃に出るのを待っていたわけではないだろうが、ワシントンとブリュッセルに拠点を置くテック政策シンクタンク(Center for Data Innovation)の言葉を借りれば、この規制は「歩き方を学ぶ前に、EUで生まれたばかりのAI産業を踏みにじる」ものだと主張している。

業界団体CCIA(Computer & Communications Industry Association)もまた「開発者やユーザーにとって不必要なお役所仕事」に対して即座に警戒感を示し、規制だけではEUをAIのリーダーにすることはできないと付け加えた。

本提案は、欧州議会、および欧州理事会経由の加盟国による草案に対する見解が必要となる、EUの共同立法プロセスの下での膨大な議論の始まりである。つまり、EUの機関がEU全体のAI規制の最終的な形について合意に達するまでに、大幅な変更が行われることになるだろう。

欧州委員会は、他のEU機関が直ちに関与することを期待し、このプロセスを早急に実施できることを望んでいると述べるにとどまり、法案が採択される時期については明言を避けた。とはいえ、この規制が承認され、施行されるまでには数年かかる可能性がある。

【更新】本レポートは、欧州委員会の提案への反応を加えて更新された。

カテゴリー:パブリック / ダイバーシティ
タグ:EU人工知能チャットボットディープフェイク透明性GDPR欧州データ保護委員会生体認証顔認証

画像クレジット:DKosig / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

フェイスブックの情報漏洩公表の遅れはGDPR違反の問題を招く

Facebookの2021年4月初旬の大規模な情報漏えいに対し、規制当局が同社に制裁を加えるかどうかは未だ明らかではない。しかし、この事件の時間的経緯が明らかになるにつれ、Facebookの立場は危ういものになりつつある。

Business Insiderが米国時間4月3日発表したこのデータ侵害について、Facebook は当初、ユーザーの生年月日や電話番号などの情報は「古い」ものだと示唆して問題を小さく見せかけようとした。しかし、最終的に同社は、米国時間4月7日遅くに公開されたブログ投稿で、問題のデータが「2019年9月以前に」悪意のある者によってプラットフォームからスクレイピング(ウェブサイトからの情報抽出)されたことを明らかにした。

情報漏えいの時期が新たに公表されたが、それによりこの情報漏えいが2018年5月に発効したEUにおけるGDPR(一般データ保護規則)に抵触するのではないか、という疑問が持ち上がっている。

EUの規制では、データ管理者は情報漏えいの開示を怠った場合、全世界での年間売上高の最大2%、より深刻なコンプライアンス違反の場合は年間売上高の最大4%の罰金を科せられる。

Facebookは過去のプライバシー侵害に対し、2019年7月にFTC(米国連邦取引委員会)と50億ドル(約5400億円)を支払うことで問題を解決したが、2019年6月~9月はこの合意に含まれていない。この点から見ても、EUフレームワークは重要だ。

米国時間4月7日、Facebookの監督機関であるアイルランドデータ保護委員会(DPC)は、今回の情報漏えいに対応する声明を出し、新たに公開されたデータセットの実態は完全には明らかではなく「オリジナルの2018年(GDPR以前)のデータセットから構成されているようだ」として、2017年6月~2018年4月の間に発生したとされる電話番号検索機能の脆弱性に関連する過去のデータ漏えい(2018年に開示済み)に言及した。しかしその中には、新たに公開されたデータセットは「それよりも新しい時点のものかもしれない記録と組み合わされている可能性がある」と書かれている。

関連記事:近頃起こったデータ漏洩についてFacebookからの回答が待たれる

FacebookはDPCの声明を受け、2019年、同年9月までのデータがプラットフォームから抽出されていたことを認めた。

4月7日のFacebookのブログ記事では、ユーザーのデータが、前述の電話番号検索機能の脆弱性ではなく、まったく別の手口でスクレイピングされていたという事実も新たに明らかになった。連絡先インポートツールの脆弱性を突いた手口である。

この手口では、未知数の「攻撃者」は、Facebookのアプリを模倣したソフトウェアを使って、大量の電話番号をアップロードしてプラットフォームのユーザーと一致する電話番号を検出する。

例えばスパム送信者は、大量の電話番号データベースをアップロードして、名前だけでなく、生年月日、メールアドレス、所在地などのデータとリンクさせて、フィッシング攻撃を行う。

今回のデータ侵害に対し、Facebookは即座に、2019年8月にこの脆弱性を修正したと主張したが、8月であればGDPRはすでに発効している。

EUにおけるデータ保護フレームワークにはデータ違反通知制度が組み込まれている。データ管理者は、個人データの漏えいがユーザーの権利と自由に対するリスクとなる可能性が高いと考えられる場合、不当に遅延することなく(理想的には漏えいの認識から72時間以内に)関連する監督機関に通知することが求められる。

しかし、Facebookは未だに今回の事件についてDPCに一切の開示をしていない。これはEUの議会が意図した規制の在り方に反する行為であり、規制当局はBusiness Insiderの報告書を受けて、米国時間4月6日、Facebookに対し情報開示を積極的に求めることを明らかにした。

一方、GDPRではデータ侵害が広く定義されている。データ侵害とは、個人データの紛失や盗難、権限のない第三者によるアクセス、また、データ管理者による意図的または偶発的な行動や不作為による個人データの漏えいを意味する。

Facebookは、5億人以上のユーザーの個人情報がオンラインフォーラムで自由にダウンロードできる状態であったという今回のデータ漏えいについて「違反」と表現することを慎重に避けている。これは、この違反に付随する法的リスクによるものだと考えられる。

ユーザーの個人情報を「古いデータ」と呼んで、ことの重大性を小さく見せかけようとしているのも法的リスクを考慮したうえでのことだろう(携帯電話番号、メールアドレス、氏名、経歴などを定期的に変更する人はほとんどいないし、法的に生年月日が変更されるケースは考えられないのだが)。

一方で、Facebookのブログ投稿はデータがスクレイピングされたことに言及し、スクレイピングとは「自動化されたソフトウェアを使ってインターネット上の公開情報を取り出し、オンラインフォーラムで配布する一般的な手口」であると説明している。つまり、Facebookの連絡先インポートツールを通じて流出した個人情報が何らかの形で公開されていたことを暗に示している。

ブログ投稿でFacebookが展開しているのは、何億人ものユーザーが携帯電話番号などの機密情報をプラットフォームのプロフィールに公開し、アカウントのデフォルト設定を変更しなかったので、これらの個人情報が「スクレイピング可能な状態で公開されている/プライベートではなくなっている/データ保護法でカバーされていない」という論法だ。

これはユーザーの権利やプライバシーを著しく侵害する、明らかにばかげた論法であり、EUのデータ保護規制当局は迅速かつ決定的に拒否しなければならない。さもなければ、Facebookがその市場力を悪用して、規制当局が保護すべき唯一の目的である基本的な権利を侵害することに加担することになる。

今回の情報漏えいの影響を受けた一部のFacebookユーザーは、Facebookのプライバシーを侵害するデフォルト設定を変更していなかったために、連絡先インポートツールを通じて情報が流出したのかもしれない。その場合でも、GPDRの遵守にかかる重要な問題が生じる。なぜなら、GPDRはデータ管理者に対して、個人データを適切に保護し、プライバシーを設計段階からデフォルトで適用することも要求しているからだ。

Facebookは何億件ものアカウント情報が無防備にスパマー(あるいは誰でも)に奪われてしまった。これは優れたセキュリティやプライバシーのデフォルト適用とは言い難い。

Cambridge Analyticaのスキャンダル再び、である。

関連記事:フェイスブックが隠しておきたかった電子メールをひっそり公開

過去にあまりにもプライバシーやデータ保護を疎かにしていたFacebookは、今回も逃げ切ろうとしているようだ。これまでデータスキャンダルの連続であっても、規制当局の制裁を受けることが比較的少なかったため、逃げ続けることに自信を持っているのかもしれない。年間売上高が850億ドル(約9兆3000億円)を超える企業にとって、1回限りの50億ドル(約5400億円)のFTCの罰金は単なるビジネス経費に過ぎない。

Facebookに、ユーザーの情報が再び悪意を持って自社のプラットフォームから抜き取られていることを認識した時点(2019年)でなぜDPCに報告しなかったのか、また、影響を受けた個別のFacebookユーザーになぜ連絡しなかったのかを問い合わせたが、同社はブログ投稿以上のコメントを拒否した。

また、同社と規制当局とのやり取りについてもコメントしないとのことだった。

GDPRは、情報漏えいがユーザーの権利と自由に高いリスクをもたらす場合、データ管理者は影響を受ける個人に通知することを義務付けている。それには、ユーザーに脅威を迅速に知らせることで、詐欺やID盗難など、データが漏えいした場合のリスクから自らを守るための手段を講じることができるという合理的な理由がある。

Facebookのブログ投稿にはユーザーに通知する予定はないとも記されていた。

Facebookの「親指を立てる」というトレードマークは、ユーザーに中指を立てている(ユーザーを侮辱する表現)と見た方が適切かもしれない。

カテゴリー:ネットサービス
タグ:Facebookデータ漏洩プライバシーGDPREU

画像クレジット:JOSH EDELSON / Contributor / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

近頃起こったデータ漏洩についてFacebookからの回答が待たれる

Facebookの欧州連合(EU)のデータ保護規制当局は、2021年4月第1週末に報告された大規模なデータ侵害について、この大手企業に回答を求めている。

この問題は、米国時間4月2日に Business Insiderが報じたもので、5億件以上のFacebookアカウントの個人情報(メールアドレスや携帯電話番号を含む)が低レベルのハッキングフォーラムに投稿され、数億人のFacebookユーザーのアカウントの個人情報が自由に利用できる状態になっていた。

ビジネスインサイダーによると「今回公開されたデータには、106カ国の5億3300万人以上のFacebookユーザーの個人情報が含まれており、その中には、米国のユーザーに関する3200万人以上の記録、英国のユーザーに関する1100万人以上の記録、インドのユーザーに関する600万人以上の記録が含まれる」。さらにその中には、電話番号、FacebookのID、氏名、所在地、生年月日、経歴、一部のメールアドレスなどが含まれていることを明らかにした。

Facebookは、データ漏洩の報告に対して、2019年8月に「発見して修正した」自社プラットフォームの脆弱性に関連するものだとし、その情報を2019年にも報告された「古いデータ」と呼ぶ。しかし、セキュリティ専門家がすぐに指摘したように、ほとんどの人は携帯電話の番号を頻繁に変更することはない。そのため、この侵害をそれほど重大でないものに見せようとするFacebookの反応は、責任逃れのための思慮の浅い試みのように思われる。

また、 Facebookの最初の回答が示しているように、すべてのデータが「古い」ものであるかどうかも明らかではない。

Facebookがまたしても起こったこのデータスキャンダルを、それほど重大でないものに見せようとする理由は山ほどある。欧州連合のデータ保護規則では、重大なデータ漏洩を関連当局に速やかに報告しなかった企業に対して厳しい罰則が設けられていることもその理由の1つだ。また、欧州連合の一般データ保護規則(GDPR)では、設計上およびデフォルトでのセキュリティが期待されているため、違反自体にも厳しい罰則が課せられる。

Facebookは、流出したデータが「古い」という主張を推し進めることで、それがGDPRの適用開始(2018年5月)よりも前であるという考えを宣伝したいのかもしれない。

しかし、欧州連合におけるFacebookの主なデータ監督機関であるアイルランドのデータ保護委員会(DPC)は、TechCrunchに対し、現時点ではそれが本当に古いと言えるのかどうかは十分に明らかではないと述べる。

DPCのGraham Doyle(グラハム・ドイル)副委員長は「新たに公開されたデータセットは、オリジナルの2018年(GDPR以前)のデータセットと、それより後の時期のものと思われるデータ接セットで構成されているようだ」との声明を出している。

ドイル氏はまた「情報が公開されたユーザーの多くはEUユーザーだ。データの多くは、Facebookの公開プロフィールからしばらく前に取得されたデータのようだ」とも述べている。

「以前のデータセットは2019年と2018年に公開されたが、これはFacebookのウェブサイトの大規模なスクレイピングに関連するものだ(当時Facebookは、Facebookが電話検索機能の脆弱性を閉鎖した2017年6月から2018年4月の間にこれが発生したと報告していた)。このスクレイピングはGDPR発効以前に行われたため、FacebookはこれをGDPRに基づく個人データ侵害として通知しないことに決めたのだ」。

ドイル氏によると、規制当局は週末にFacebookから情報漏洩に関する「すべての事実」を取得しようとしており、現在もそれは「続いている」。つまり、Facebookが情報漏洩自体を「古い」と主張しているにもかかわらず、この問題については現在も明らかになっていないということだ。

GDPRでは、重要なデータ保護問題について規制当局に積極的に知らせる義務が企業に課せられているにもかかわらず、この問題についてFacebookから積極的な連絡がなかったことがDPCによって明らかになった。それどころか、規制当局がFacebookに働きかけ、さまざまなチャネルを使って回答を得なければならなかった。

こうした働きかけによりDPCは、Facebookとしては、情報のスクレイピングは、Cambridge Analyticaのデータ不正利用スキャンダルを受けて確認された脆弱性を考慮して2018年と2019年にプラットフォームに加えた変更の前に発生したと考えていることが分かったと述べている。

2019年9月、オンライン上で、Facebookの電話番号の膨大なデータベースが保護されていない状態で発見された。

関連記事:Facebookユーザーの電話番号が掲載された大量データベースが流出

また、Facebookは以前、自社が提供する検索ツールに脆弱性があることを認めていた。2018年4月には、電話番号やメールアドレスを入力することでユーザーを調べられる機能を介して、10億から20億人のFacebookユーザーの公開情報が抽出されていたことを明らかにしているが、これが個人情報の貯蔵庫となっている可能性もある。

Facebookは2020年、国際的なデータスクレイピングに関与したとして、2社を提訴している。

関連記事:Facebookがデータスクレイピングを実行する2社を提訴

しかし、セキュリティ設計の不備による影響は「修正」から数年経った今でもFacebookの悩みの種となっている。

さらに重要なのは、大規模な個人情報の流出による影響は、インターネット上で今や自分の情報が公然とダウンロードにさらされるようになったFacebookユーザーにも及んでおり、スパムやフィッシング攻撃、その他の形態のソーシャルエンジニアリング(個人情報の窃盗を試みるものなど)のリスクにさらされていることだ。

この「古い」Facebookデータが、ハッカーフォーラムで無料で公開されるに至った経緯については、謎に包まれている部分が多い。

DPCは、Facebookから「問題となっているデータは、第三者によって照合されたものであり、複数のソースから得られたものである可能性がある」との説明を受けたと述べている。

Facebookはまた「十分な信頼性をもってその出所を特定し、貴局および当社のユーザーに追加情報を提供するには、広範な調査が必要である」と主張しているが、これは遠回しに、Facebookにも出所の見当がつかないということを示唆している。

「Facebookは、DPCに対し、確実な回答の提供に鋭意努めることを保証している」とドイル氏は述べている。ハッカーサイトで公開された記録の中には、ユーザーの電話番号やメールアドレスが含まれているものもある。

「ユーザーには、マーケティングを目的としたスパムメールが送られてくる可能性がある。また電話番号やメールアドレスを使った認証が必要なサービスを自ら利用している場合も、第三者がアクセスを試みる危険性があるため注意が必要だ」

「DPCは、Facebookから報告を受け次第、さらなる事実を公表する」と彼は付け加えた。

本稿執筆時点で、Facebookにこの違反行為についてのコメントを求めたが、同社はこれに応じなかった。

自分の情報が公表されていないか心配なFacebookユーザーは、データ漏洩について助言を行うサイト「haveibeenpwned」で、自分の電話番号やメールアドレスを検索することができる。

haveibeenpwnedのTroy Hunt(トロイ・ハント)氏によると、今回のFacebookのデータ漏洩には、メールアドレスよりも携帯電話番号の方がはるかに多く含まれている。

彼によると、数週間前にデータが送られてきた。最初に3億7000万件の記録が送られてきたが、その後「現在、非常広く流通しているより大規模なデータ」が送られてきたという。

「多くは同じものですが、同時に多くが異なってもいます」とハント氏は述べ、次のように付け加えた。「このデータには1つとして明確なソースはありません」。

【更新1】Facebookは今回のデータ流出についてブログ記事を公開し、問題のデータは2019年9月以前に「悪意のある者」が連絡先インポート機能を使ってユーザーのFacebookプロフィールからスクレイピングしたものと考えていることを明らかにした。またその際、ツールに修正を行い、大量の電話番号をアップロードしてプロフィールに一致する番号を見つける機能をブロックすることで悪用を防ぐ変更を施している。

「修正前の機能では、(Facebookの連絡先インポートツールのユーザーは)利用者プロフィールを照合し、公開プロフィールに含まれる一定の情報のみは取得することができました」とFacebookは説明し、これらの情報には利用者の金融情報や医療情報、パスワードは含まれていないと付け加えた。

ただし、悪意のある者がツールを転用することでどのようなデータを取得できたかについて、あるいは当該行為者を特定し、訴追しようとしたかどうかという点については明記されていない。

その代わりに同社の広報は、そのような行為は同社の規約に違反しているとし「このデータセットの削除に取り組んでいる」ことを強調した。同社はまた「機能を悪用する人々を可能な限り積極的に追跡していきます」と述べているが、ここでも悪用者を特定して確実に排除した実例は示していない。

(例えば、Facebookが2018年にCambridge Analyticaのスキャンダルを受けて実施すると述べたアプリ内部監査の最終報告書はどこにあるのだろうか。英国のデータ保護規制当局は最近、Facebookとの法的取り決めにより、アプリ監査について公の場で議論することはできないと述べている。つまりFacebookは、自社ツールの不正使用にどう取り組むかについての透明性を回避することに関しては、積極的なアプローチをとっているようだ……)

「過去のデータセットの再流通や新たなデータセットの出現を完全に防ぐことは困難ではありますが、専任チームを設け、今後もこの課題に対して注力してまいります」とFacebookは広報の中で述べており、ユーザーのデータが同社のサービス上で安全であることを一切保証していない。

同社はユーザーに対し、アカウントに提供しているプライバシー設定をチェックすることを推奨している。その設定には、同社のサービス上で他人があなたを検索する方法を制御する機能も含まれている。これではデータセキュリティの責任はFacebook自身ではなくFacebookユーザーの手中にあると言っているようなもので、Facebookデータ漏洩の事実から逸脱し、責任転換をしようとしているだけである。

もちろん、実際はユーザー次第ではない。FacebookユーザーがFacebookから提供されるのはデータの部分的なコントロールだけであり、Facebookの設計と仕組み(プライバシーに配慮したデフォルト設定を含む)が全面的に関与するものだ。

さらに、少なくとも欧州では、製品の設計にセキュリティを組み込む法的責任がある。個人データに対して適切なレベルの保護を提供できない場合、大きな規制上の制裁を受ける可能性があるが、企業は依然としてGDPRの施行上のボトルネックから恩恵を享受している。

Facebookの広報はまた、ユーザーが二段階認証を有効にしてアカウントのセキュリティを向上させることを提案している。

それは確かに名案だが、二段階認証に関しては、Facebookが二段階認証用のセキュリティキーとサードパーティ認証アプリのサポートを提供していることは注目に値する。つまり、Facebookに携帯番号を与えるリスクを冒すことなく、この付加的なセキュリティ層を追加することができる。ユーザーの電話番号を大量にリークしていた過去もあり、ターゲティング広告に二段階認証の数字を使うことも認めているため、Facebookに自分の電話番号を託すべきではないといえるだろう。

【更新2】Facebookは追加の背景説明で、規制当局との通信内容についてはコメントしないことを明らかにした。

同社はまた、侵害についてユーザーに個別に通知する計画はないと述べ、さらに、データが取得された方法(スクレイピング)の性質上、通知が必要なユーザーを完全に特定することはできないとしている。

カテゴリー:ネットサービス
タグ:Facebookデータ漏洩GDPREUヨーロッパプライバシー個人情報

画像クレジット:Jakub Porzycki/NurPhoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

フェイスブックが2019年の個人情報流出で集団訴訟に直面する可能性

Facebook(フェイスブック)は2019年の大規模なユーザーデータ流出をめぐって訴えられることになりそうだ。このデータ流出は最近明らかになったばかりで、5億3300万超のアカウントの情報がハッカーフォーラムで無料でダウンロードできる状態だった。

Digital Rights Ireland(デジタル権利アイルランド、DRI)は現地時間4月16日、欧州連合(EU)の一般データ保護規則(GDPR)にある個人情報流出に対する金銭賠償を求める権利を引用しながら、Facebookを相手取って「集団訴訟」を開始することを発表した。

GDPRの82条では、法律違反によって影響を受けた人に「賠償と責任の権利」を認めている。GDPRが2018年5月に施行されて以来、関連する民事訴訟は欧州で増えている。

アイルランド拠点のデジタル権利のグループは、EUあるいは欧州経済圏に住むFacebookユーザーに、haveibeenpwnedウェブサイト(電子メールアドレスまたは携帯電話番号で確認できる)を通じて自身のデータが流出しなかったかどうかチェックし、もし該当するなら訴訟に加わるよう促している。

流出した情報には、FacebookのID、位置情報、携帯電話番号、電子メールアドレス、交際ステータス、雇用主などが含まれる。

訴訟についてFacebookにコメントを求めたところ、広報担当は以下のように述べた。

当社は人々の懸念を理解しており、引き続き許可なしのFacebookからのスクレイピングを困難なものにすべくシステムを強化し、そうした行為の裏にいる人物を追跡しています。LinkedInとClubhouseが示したように、完全にスクレイピングをなくしたり、スクレイピングによるデータセットの露出を防ぐことができる企業はありません。だからこそ当社はスクレイピングとの戦いにかなりのリソースをあてていて、引き続きこの問題の一歩先を進むよう対応能力を強化します。

Facebookは欧州本部をアイルランドに置いている。今週初め、同国のデータ保護委員会はEUとアイルランドのデータ保護法に基づき調査を開始した

国境をまたぐケースの調査を簡素化するためのGDPRのメカニズムにより、アイルランドのデータ保護委員会(DPC)がFacebookのEUにおける主なデータ規制当局だ。しかしながら、GDPR申し立てと調査の扱いやアプローチをめぐっては、クロスボーダーの主要ケースについて結論を出すまでの所要時間などが批判されてきた。これは特にFacebookの場合にあてはまる。

GDPRによるすばやいアプローチが導入されて3年になるが、DPCはFacebookの事業のさまざまな面に関する複数の調査を行っているものの、いずれもまだ結論が出ていない。

(最も結論に近いものは、FacebookのEUから米国へのデータ移転に関して2020年出した仮停止命令だ。しかし申し立てはGDPR施行のずいぶん前のことで、Facebookはただちにこの停止命令を阻止すべく裁判を起こした。解決は訴訟人がDPCプロセスの司法審査を提出後の2021年後半が見込まれている)。

関連記事:フェイスブックのEU米国間データ転送問題の決着が近い

2018年5月以来、EUのデータ保護規制では、最も深刻な違反をした企業に対し、グローバル売上高の最大4%の罰金を科すことができる。少なくとも書面上はそうだ。

ただし繰り返しになるが、DPCがこれまでにテック企業(Twitter)に対して科したGDPRの罰金は理論上の最大金額には程遠いものだ。2020年12月に規制当局はTwitterに対し、45万ユーロ(約5860万円)の罰金を発表した。この額はTwitterの年間売上高のわずか0.1%ほどにすぎない。

この罰金もまたデータ流出に対するものだった。しかしFacebookの情報流出と異なり、Twitterのものは同社が2019年に問題に気づいたときに公表された。そのため、5億3300万のアカウントの情報流出につながった脆弱性にFacebookが気づいたものの公表せず、2019年9月までに問題を修正したという主張は、Twitterが科されたものよりも高額な罰金に直面すべきと思わせる。

ただ、たとえFacebookが情報流出でかなりのGDPRの罰金を受けることになっても、監視当局の取り扱い案件の未処理分と手続きのペースが緩やかなことからして、始まってまだ数日の調査のすばやい解決は望めない。

過去の案件からするに、DPCがFacebookの2019年の情報流出について結論を出すのに数年はかかりそうだ。これは、DRIが当局の調査と並行して集団での訴訟を重視している理由だろう。

「今回の集団訴訟への参加を意義あるものにしているのは賠償だけではありません。大量のデータを扱う企業に、法律を順守する必要があり、もしそうしなければその代償を払わなければならないというメッセージを送ることが重要なのです」とDRIのウェブサイトにはある。

DRIは2021年4月初め、Facebookの情報流出についてDPCにも苦情を申し立てた。そこには「アイルランドの裁判所での損害賠償のための集団訴訟を含め、他の選択肢についても法律顧問と協議している」と書いている。

GDPR施行までのギャップによって、訴訟資金提供者が欧州に足を踏み入れ、データ関連の損害賠償を求めて一か八かで訴訟を起こすチャンスが増えているのは明らかだ。2020年、多くの集団訴訟が起こされた

関連記事:オラクルとセールスフォースのCookie追跡がGDPR違反の集団訴訟に発展

DRIの場合、どうやらデジタル権利が支持されるようにしようとしている。しかしDRIは、プライバシーの権利が踏みにじられたユーザーに金を支払うようテック大企業に強制する損害賠償を求める主張が法に則った最善の方法だとRTEに語った。

一方、Facebookは2019年に明らかにしなかった情報流出について「古いデータ」だと主張して軽視してきた。これは、人々の出生日は変わらない(そして、多くの人が携帯電話番号や電子メールアドレスを定期的に変えたりもしない)という事実を無視する歪んだ主張だ。

Facebookの直近の大規模な情報リークで流出した多くの「古い」データは、スパマーや詐欺師がFacebookユーザーを標的にするのにかなり使い勝手のいいものになる。そして訴訟の関係者がデータ関連の損害でFacebookをターゲットとするのにも格好の材料となっている。

カテゴリー:ネットサービス
タグ:Facebookデータ漏洩EUヨーロッパGDPR裁判個人情報

画像クレジット:Jakub Porzycki/NurPhoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

アップルのプライバシー対策にフランスのスタートアップのロビー団体が苦情

Apple(アップル)は欧州でまたもやプライバシーに関する苦情に直面している。スタートアップのロビー団体であるFrance Digitale(フランスデジタル)は、EUの規則に違反している疑いについて、同国のデータ保護監視機関調査を依頼した。

Politico(ポリティコ)が報じたこの苦情は、EUのプライバシー保護活動団体「noyb」が2020年、ドイツとスペインで訴えた2つの苦情に続くものだ。

これらの苦情はすべて、(直接および間接的に)Appleの「IDFA」と呼ばれる広告主のためのモバイルデバイス識別子を標的にしている。noybはAppleがその独自の識別子(その目的は、名前が示すように、広告ターゲティングのためにデバイスの追跡を有効化すること)をデバイスに割り当てる前に、ユーザーから同意を得るべきだったと主張している。

一方、France Digitaleによる訴えは、近々行われるAppleのプライバシーポリシー変更が、競争を阻害するという懸念を提起するものだ。この変更が実施されれば、サードパーティーのアプリ開発者は、ユーザーに追跡の許可を得なければならなくなるが、それと対照的に、Appleがユーザーを追跡することができるiOSの「パーソナライズされた広告」設定は、初期状態で有効になっていることをFrance Digitaleは指摘している。

関連記事:アップルのフェデリギ氏はユーザーデータ保護強化でのアドテック業界との対決姿勢を鮮明に

初期状態では、EUの法規(GDPR、EU一般データ保護規則)で求める要件に反しているのではないかと、France Digitaleは提言しているわけだ。

France Digitaleの苦情はまた、Appleが広告ターゲティングに利用するデータアクセスのレベルについての疑問も浮かび上がらせた。Appleは、提供されているiOSユーザーのデータは「一般的なデータ(出生年、性別、場所)」だけで、完全なターゲティングデータではないと述べている。

訴状に対応する声明の中で、Appleの広報担当者は次のように述べている。

この訴状における主張は、明らかに事実に反しており、ユーザーを追跡している人たちが、自分たちの行動から目をそらし、規制当局や政策立案者を誤解させようとする粗末な企てのように思われます。

ユーザーのための透明性と規制は、当社のプライバシー哲学の基本的な柱であり、Appleを含むすべての開発者に、等しく「AppTrackingTransparency(アプリのユーザー追跡の透明性)」を適用するようにしたのはそのためです。プライバシーは我々がプラットフォーム上で販売する広告に組み込まれており、ユーザーを追跡することはありません。

パーソナライズ広告のためのデータの使用は、ファーストパーティであるAppleに限定されており、ユーザーがこれをオフにすることができるようにすることで、より高い基準を維持しています。

CNIL(フランスの「情報処理と自由に関する国家委員会」)にも、この訴えについてコメントを求めているところだ。

今回のAppleに対するIDFA関連の苦情は、プライバシー保護団体によるものではなく、スタートアップのロビー団体からのものという点で少々珍しい。

しかし、サードパーティーのトラッキングをiOSユーザーが許可する必要があるように(「許可しない」を選ぶことができるようにしたのではなく)変更したAppleの決定が、強い反発を招いていることは明らかだ(この動きは、2020年フランスでパブリッシャーのロビー団体が不公正な競争を訴える事態にもつながった)。このあまりにも微妙な意味合いを含んだ行為によって、Appleは偽善という非難を受けている。

France Digitaleに、Appleに対してプライバシーに関する苦情を訴えた理由を尋ねると、広報担当者は次のようにTechCrunchに答えた。「スタートアップはルールに基づいて事業を行っています。世界最大のハイテク企業もそうであることを我々は期待します。競争の場に公平な規制がなければ、どんなに事業を拡大しても繁栄はないと、我々は信じています」。

「我々はCNILに法の執行を求めているに過ぎません。個人情報保護の番人は、私たちスタートアップのメンバーを常に調査しています。彼らの専門知識を、もっと大きな企業にも適用させようということです」と、彼は続けた。

同グループのCNILに対する訴えが急速に注目を集めている一方で、GDPRのワンストップショップのメカニズムの下、この問題はEU内でAppleのデータ運用を監督するアイルランドのデータ保護委員会による参照が必要だ。その後、調査するかどうかについての決定が下されることになる。

だから、この問題に何らかの迅速な規制措置が取られる可能性は低い。

関連記事:Appleのティム・クック氏がアドテックは社会の破滅をもたらすと警告、同社アプリトラッカーのオプトイン機能を擁護

カテゴリー:ソフトウェア
タグ:AppleフランスGDPRデータ保護プライバシー広告

画像クレジット:Apple (livestream

原文へ

(文:Natasha Lomas、翻訳:Hirokazu Kusakabe)