パナソニック、昨年11月のサイバー攻撃でハッカーが求職者とインターンの個人情報にアクセスと発表

日本のテック大企業Panasonic(パナソニック)は、2021年11月のサイバー攻撃で、ハッカーが求職者とインターンの個人情報にアクセスしたことを明らかにした。

同社は2021年11月26日にデータ流出を認め、その時点ではハッカーが機密情報にアクセスしたかどうかについてわかっていなかった。しかし、1月7日に発表された最新情報の中で、同社の特定部門の採用に応募したりインターンシップに参加した人の一部の個人情報にアクセスがあった、と明らかにした。影響を受けた人には通知していると述べた。

パナソニックの広報担当者Dannea DeLisser(ダニア・デリッサー)氏は、影響を受けた人の数やアクセスされた情報の内容については言及を避けた。

同社のアップデートでは、6月22日に始まって11月3日に終了し、そして11月11日に検出されたこのデータ流出では、まだ名前はわかっていないハッカーが、ビジネスパートナーから提供された不特定の「ビジネス関連情報」と、ビジネスパートナーの人材に関する情報を含むファイルを入手したことも明らかになった。

外部のセキュリティアドバイザーの協力を得て実施した社内調査の結果、第三者が海外子会社のサーバーを経由して日本国内のファイルサーバーに不正にアクセスしたことが確認された。パナソニックは、不正アクセス発見後、海外拠点からのアクセス制御の強化、関連するパスワードの再設定、サーバーへのアクセス監視の強化など「直ちにセキュリティ対策を追加で実施した」としている。

パナソニックは、再発防止に向けてセキュリティ対策を強化すると述べた。

同社を襲った11月のデータ流出は、インド子会社がランサムウェア攻撃の被害に遭い、ハッカーが財務情報や電子メールアドレスを含む4ギガバイトのデータを流出させてからわずか数カ月後に発生した。

画像クレジット:Kazuhiro Nogi / AFP / Getty Images

原文へ

(文:Carly Page、翻訳:Nariko Mizoguchi

米FTC、Log4jの脆弱性を修正しない組織に対する法的措置を警告

Javaで書かれた広く使われているログ記録ライブラリApache Log4jには、Log4Shellと通称されるゼロデイ脆弱性がある。連邦取引委員会(FTC)はこのほど、Log4Shellに対して顧客データのセキュリティを確保していない米国企業に対しては法的措置をとると警告した。

2021年12月に初めて発見されたこの「深刻な」脆弱性は、ますます多くの攻撃者によって悪用されており、何百万もの消費者製品に「深刻なリスク」をもたらすと、FTCは警告している。この公開書簡は、消費者に被害が及ぶ可能性を低減し、法的措置の可能性を回避するために、組織に対して脆弱性を緩和(ソフトウェアの最新バージョンへのアップデート)するよう組織に要請しています。

関連記事:iCloud、ツイッター、マインクラフトなどに使われているオープンソースのログユーティリティにゼロデイ脆弱性が見つかる

「脆弱性が発見され悪用された場合、個人情報の紛失・漏洩、金銭的損失、その他取り返しのつかない損害を被る危険性がある。既知のソフトウェアの脆弱性を軽減するために合理的な措置を講じる義務は、特に連邦取引委員会法およびグラム・リーチ・ブライリー法を含む法律に関係するものである。 Log4jに依存している企業やそのベンダーが、消費者に被害を与える可能性を減らし、FTCの法的措置を回避するために、今すぐ行動することが重要だ」とFTCは述べている。

FTCは、2017年にApache Strutsの既知の欠陥のパッチを怠り、消費者1億4700人の機密情報の侵害が起こったEquifaxの例を挙げている。その信用報告機関はその後、FTCとそれぞれの州に7億ドル(約810億円)を払う示談に合意した

さらにFTCは「Log4jや同様の既知の脆弱性の結果として、消費者データを露出から保護するための合理的な措置を講じていない企業を追及するために、完全な法的権限を行使する意向だ」と述べ、「今後同様の既知の脆弱性」が発生した場合に消費者を保護するために法的権限を適用する計画だと付け加えた。

FTCは、数百万ドル(数億円)規模の罰金を回避したい企業に対して、米国のサイバーセキュリティー・インフラセキュリティー庁(CISA)が発行したガイダンスに従うよう促している。これにより、企業はLog4jソフトウェアパッケージを最新バージョンにアップデートし、脆弱性を緩和するための対策を講じ、脆弱性の可能性があるサードパーティーやコンシューマーに脆弱性に関する情報を配布する必要がある。

このFTCによる警告射撃は、Microsoftが今週、Log4Shellの脆弱性が依然として企業にとって「複雑で高リスク」の状況にあると警告し、「12月最後の数週間、悪用の試みとテストは高いままであり、低スキルの攻撃者と国民国家の行為者が同様にこの欠陥を利用している」と述べたことを受けてのものだ。

関連記事:インターネットを破壊するバグ「Log4Shell」へのパッチ適用競争が始まっている

「現時点では、悪用コードやスキャン機能が広く出回っていることが、顧客の環境にとって現実的な危険であると考えるべきでしょう。影響を受けるソフトウェアやサービスが多く、更新のペースも速いため、修復には長い時間がかかると予想され、継続的な警戒が必要です」とMicrosoftとは述べている。

画像クレジット:Getty Images

原文へ

(文:Carly Page、翻訳:Hiroshi Iwatani)

アドエクスチェンジのOpenX、子どもの位置情報収集で連邦取引委員会が罰金

広告テクノロジー企業のOpenX(オープンX)は、同社が米国の児童プライバシー法に違反したという疑惑を解決をするため、連邦取引委員会に200万ドル(約2億3000万円)を支払うことになった。

連邦取引委員会は、カリフォルニア州中央地区連邦地方裁判所に提出した訴状において、OpenXが親の同意を得ずに13歳未満の子どもから個人情報を収集したことにより、児童オンライン・プライバシー保護法(COPPA)に違反したと主張している。

カリフォルニア州に本社を置くこの企業は、子どもや幼児、就学前児童の学習用に販売されている数百ものアプリから故意に情報を収集し、このデータ(詳細な位置情報、IPアドレス、デバイスの固有識別子など)を、ターゲット広告に使用する第三者に渡したとしても告発されている。

「OpenXは、子ども向けアプリから直接または間接的に数百万から数億のアドリクエストを受信し、子どもの個人情報を含む数百万から数億のビッドリクエストを送信した」と、訴状には書かれている。

連邦取引委員会の訴状では、OpenXはCOPPAに違反したことに加え、データ収集をオプトアウトしたユーザーから詳細な位置情報を収集していないと偽り、連邦取引委員会法に違反したと主張している。連邦取引委員会によると、OpenXは、一部のAndroidユーザーが位置情報の収集を「許可しない」を選択した後も、位置情報の収集を続けていたとのことだ。

「OpenXは、位置情報を密かに収集し、子どもを含む大規模なプライバシー侵害の扉を開きました」と、連邦取引委員会の消費者保護局で局長を務めるSamuel Levine(サミュエル・レビン)氏は述べている。「デジタル広告のゲートキーパーは、舞台裏で活動していても、法を免れることはできません」。

連邦取引委員会の理事を務めるNoah Joshua Phillips(ノア・ジョシュア・フィリップス)氏は、別の声明の中で、この命令は当初、OpenXに対して750万ドル(約8億5000万円)の罰金を求めていたが、同社の支払い能力が不十分であったため、罰金を200万ドルに減額したと述べている。また、この和解案では、同社がターゲット広告を配信するために収集したアドリクエストのデータをすべて削除し、COPPAを完全に遵守するための包括的なプライバシープログラムを実施することが求められている。

OpenXはTechCrunchのコメント要請にすぐには応じなかったものの、和解案に言及したブログ記事の中で、データ収集は「意図しないミス」であるとし、内部検査の結果「99%以上のドメインとアプリは適切に分類されていた」と述べている。

「当社は、COPPAを完全に遵守するために、ポリシーや手順の見直しと強化に取り組んでいます。また、質的および量的属性の厳格な基準に引き続き従い、サイトやアプリが当社のエクスチェンジに含まれるのに適しているかどうかを判断していきます」と同社は述べている。

画像クレジット:Bryce Durbin

原文へ

(文:Carly Page、翻訳:Hirokazu Kusakabe)

Metaがバグ報奨金プログラムを拡大、スクレイピングされたデータの発見も対象に

Meta(メタ)は、バグ報奨金プログラムを拡大し、データのスクレイピングを報告した研究者にも報奨金を与えると発表した。この変更により、スクレイピング行為を可能にするバグや、すでにオンラインで公開されている過去にスクレイピングされたデータを報告することも、報奨金の対象となる。

Metaはブログ記事で、スクレイピング行為に特化したバグ報奨金プログラムが起ち上げられたのは、同社が知る限り、これが初めてだと書いている。「当社では、攻撃者がスクレイピングの制限を回避して、我々が当初意図した以上の規模でデータにアクセスすることを可能にする脆弱性の発見を期待しています」と、セキュリティ・エンジニアリング・マネージャーのDan Gurfinkle(ダン・ガーフィンクル)氏は、説明会で報道陣に語った。

データスクレイピングは、Metaが追っている他の「悪意ある」攻撃とは異なり、自動化されたツールを使用して、ユーザーのプロフィールからメールアドレス、電話番号、プロフィール写真などの詳細な個人情報を大量に収集するというものだ。ユーザーがFacebookの公開プロフィール上でこれらの情報を自ら進んで公開していることもあるが、スクレイパーは、これらの個人情報を検索可能なデータベースに掲載するなど、より広範に公開する場合がある。

また、Metaがこのような行為に対抗するのは困難な場合もある。例えば、2021年4月には、5億人以上のFacebookユーザーの個人情報が、フォーラムで公開されたことがあった。このケースでは、実際のデータスクレイピングは数年前に発生したものであり、同社はすでに根本的な欠陥に対処済みだった。しかし、一度データがネット上に流出し始めてしまうと、同社にできることはほとんどなかった。また別のケースでは、データスクレイピングを理由に、同社が個人に対し訴訟を起こしたこともある。

関連記事
近頃起こったデータ漏洩についてFacebookからの回答が待たれる
・​Facebookがトルコ国籍のInstagramクローンサイト運営者を提訴

新しいバグ報奨金プログラムの下では、研究者は「PII(個人識別情報)または機密データ(例えば、メールアドレス、電話番号、住所、宗教や政治的所属)を含む、少なくとも10万件の固有のFacebookユーザーレコードが収蔵された、保護されていないまたは公開されているデータベース」を見つけると報奨金が支払われる。ただし、Metaによると、報奨金は研究者に直接支払われるのではなく、研究者が選んだ慈善団体に寄付されるという。これは(報奨金を目当てに)スクレイピングされたデータを公開しようとする行為を奨励しないようにするためだ。

データスクレイピングにつながるバグの報告については、研究者は寄付か直接支払いのどちらかを選択できる。Metaによると、バグまたはデータセットの発見には、どちらも最低500ドル(約5万7000円)以上の報奨金を支払うとのこと。

編集部注:本記事の初出はEngadget。執筆者Karissa BellはEngadgetのシニアエディター。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Karissa Bell、翻訳:Hirokazu Kusakabe)

WhatsApp、メッセージの自動消去をデフォルト設定可能に

WhatsAppユーザは、送信あるいは受信するすべての新規メッセージを簡単に消すことができるようになった。世界最大のインスタントメッセージングサービスは、同社幹部のいう次のプライバシー標準に向けて、機能を拡張している。

世界で20億人以上が使っているMeta(メタ)傘下のサービスは、ユーザーがすべてのチャットをデフォルトで自動消去させるオプションを米国時間12月6日に提供開始した。これまでユーザーは、新しいチャットごとに手動で自動消去を有効にする必要があった。

またWhatsAppは、メッセージを24時間あるいは90日後に消去させるオプションを、2020年最初に同機能を導入した際の7日間の期間に加えて提供する。

「自動消去によって、より自由で正直な会話が可能になります」とWhatsAppの消費者プロダクト責任者であるZafir Khan(ザファー・カン)氏がTechCrunchのインタビューで語った。全新規メッセージをデフォルトで自動消去させるオプションができることで、ユーザーが友達との気まずさを回避するのに役立つだろうとのことで、新機能の開発中、チームがユーザーからのフィードバックを得たことを付け加えた。

画像クレジット:WhatsApp

メッセージは、会話参加者のいずれかが自動消去オプションを有効にしていれば、一定時間後に消去する、と同氏は説明した。また、グループメッセージ向けにもこのオプションを提供する予定で、グループ作成時に選択できるようにする、と語った。

自動消去はWhatsAppが拡大展開する上での大きな焦点のようだ。「プライバシーは常にWhatsAppの中心にあります。私たちはエンド・ツー・エンド暗号化を提供しており、メッセージングの世界で標準となるずっと前にデフォルトにしました」と同氏はいう。

「自動消去はメッセージングの新たな業界標準だと考えています」とMetaのCEOであるMark Zuckerberg(マーク・ザッカーバーグ)氏はFacebookの投稿で述べ「すべてのメッセージが永遠に残る必要はありません」と付け加えた。

メッセージが消える仕組みは絶対ではないので念の為。

今後もメッセージを転送したりスクリーンショットを取ることで、消去プロセスを回避できる。しかしカン氏は、これは技術の問題ではないことを示唆した。メッセージを送る相手がこちらの要求に従いたくなければ、連絡するのをやめる以外にできることはほとんどない。

画像クレジット:Kirill Kudryavtsev / AFP / Getty Images

原文へ

(文:Manish Singh、翻訳:Nob Takahashi / facebook

ネクイノがNTTコミュニケーションズおよびアーク・イノベーションとフェムテック事業で提携、2022年度内に新事業を展開

ネクイノがNTTコミュニケーションズおよびアーク・イノベーションとフェムテック事業で提携、2022年度内に新事業を展開

インターネットを用いた婦人科遠隔医療サービス「スマルナ」(Android版iOS版)を展開するネクイノは11月29日、NTTコミュニケーションズ、システム開発やコンサルティングを行うアーク・イノベーションと共同で、ヘルスケア業界向けプラットフォームを活用し、婦人科向けの高付加価値な事業展開を行うための業務提携を締結したことを発表した。「スマルナ」の利用者データを活用したフェムテック事業の拡大を検討する。

婦人科では定期検診を受ける人が少なく、女性特有の健康問題が顕著化しているという。そこでは、医療データに基づいた、個人に合わせた治療プランや予防医療が必要となるが、個人情報を含む医療データは病院間での提供が難しく、十分に活用されていない。そこでこの3社は、スマルナで取得したデータを安全に利活用することで、婦人科領域の新たな高付加価値サービスの提供を目指すことにした。

具体的には、ネクイノが利用者の同意の上で収集した問診データやオンライン診療データ、提携クリニックの治療データなどをNTTコミュニケーションズのヘルスケア業界向けプラットフォーム「Smart Data Platform for Healthcare」に蓄積し、加工・分析を行い、データの管理や匿名化などで個人情報を安全に活用し、高付加価値な事業モデルにつなげるとしている。Smart Data Platform for Healthcareでは、データの安全な保管や、本人同意の取得管理、匿名加工や秘密計算などにより、機微な個人情報の安心・安全な活用を推進する。

事業モデルの例としては、データの統計情報化による新しい保険商品の開発が挙げられている。医療関連の記録を基に、リスクの細分化や個人に合わせた商品設計が可能になるという。また、スマルナを通して医師から受診勧奨や健康アドバイスを行うことで、罹患リスクを低減し保険料の適正化が図れるとのことだ。

この提携では、3社は次のように役割分担をする。ネクイノはスマルナで取得したデータの活用、高付加価値なヘルスケアサービスの検討と提供。NTTコミュニケーションズはSmart Data Platform for Healthcareの提供。アーク・イノベーションは3社共同の事業モデルの構築と実装支援。それらを通じて、2022年度内に婦人科向け保険サービスなどの新たな事業を展開するとしている。

ツイッターが安全ポリシーを拡大、本人承諾なしの人物画像投稿を禁止

Twitter(ツイッター)は米国時間11月30日午前、private information safety policy(個人情報に関するポリシー)を改訂し、個人のプライベートな画像や動画を本人の承諾なくシェアすることを禁止した。すでに同プラットフォームは、ユーザーが他人の個人情報を許可なくシェアすることを禁止している。住所や位置情報、個人を特定する文書、非公開の連絡先、財務情報、医療情報などだ。しかし今回の改訂によって、反ハラスメントや反ドキシング(doxxing、他人の個人情報をインターネット上にさらす行為)に関わるポリシーがさらに厳格化された。

これは、投稿前に写真やビデオに写っている人全員の承認を得ることを要求するものではない。しかし、写っている人がメディアの削除を要求した場合、Twitterは削除する。

「描写されている個人あるいは正式な代理人から、自分のプライベートな画像また動画がシェアされることを承諾していないという通知があれば、当社はそれを削除します」とTwitterがブログに書いた。「このポリシーは著名人や公人が写っているツイート・テキストをともなうメディアで、公共の利益のため、あるいは公的発言に価値を付加するものには適用されません」。

しかし、著名人のケースについてTwitterは、嫌がらせを目的としたコンテンツは、攻撃的な行為および相手の意に反するヌード画像を禁止する現行ポリシーに沿って削除する場合があることを明確にした。また同社は、著名人に関するコンテンツを削除するかどうかを判断する際、その情報がすでにテレビ、新聞など他の公開メディアに掲載されているかどうかを評価すると語った。

それでも、多くのTwitterユーザーがこの新ポリシーへの懸念をプラットフォーム上で表明している。例えばフットボールの試合で観衆の写真を投稿するとき、全員の承諾を得なくてはならないのではないか、このポリシーはユーザーを沈黙されるために使われるのではないかと、などを心配している。このため、懸念にこたえるべく、後に専用アカウントのTwitter Safetyが発表のスレッドにコメントを追加した。

「この意味をわかりやすく説明します」と同アカウントは書いた。「このポリシー改訂は、メディアの乱用による嫌がらせ、恫喝、個人情報の暴露など、女性、活動家、反対意見の人々、少数コミュニティのメンバーなどを不当に傷つける行為を抑制するものです」。

Twitterはさらに、大規模イベントに参加している人々を写した画像やビデオはポリシーに反しないことを説明した。もし、画像に写った人物、あるいはその人物の正式な代理人からの報告を受けた場合、Twitterは投稿を削除する決断を下す前に、そのツイートが「公的発言に価値を付加しているか」どうかを検討する。それでも、批判する人々は、どのコンテンツが価値を付加しているか、Twitterがどうやって判断するかについて懸念を示している。

「文脈が重要です。当社の現行の情報ポリシーには、ニュース価値の高いイベントや公共の利益になる発言に関する妥協のない報道を可能にするために、多くの例外が示されています」と同社は言った。

ちなみに、昨日インターネットを見なかった人のために書いておくと、Jack(ジャック・ドーシー氏)はTwitterのCEOを退任した。ただし、今回のポリシー改訂が彼の離脱と関係しているという痕跡はない。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Amanda Silberling、翻訳:Nob Takahashi / facebook

イスラエル発Cybellum奥田正和氏が語る「コネクテッドカーのセキュリティ」の今

2018年からの1年間でコネクテッドカーに対するサイバー攻撃が倍増した。イスラエル発のサイバーセキュリティ企業、Cybellum(サイべラム)で日本カントリーマネージャーを務める奥田正和氏は「コネクテッドカーのセキュリティは喫緊の課題ですが、対処していくスピードを上げる必要があります」と語る。コネクテッドカーが抱えるリスクとは何か。安全性はどう守られるべきなのか。同氏に詳しく話を聞いた。

コネクテッドカーのサイバーセキュリティとは

コネクテッドカーには数多くのソフトウェアが使用されている。そのため、ソフトウェアのセキュリティを守ることが重要になる。

奥田氏は「ソフトウェアの守り方は色々あります。ファイアウォールなど、防御の壁を増やすようなアプローチもありますが、ソフトウェアそのものにバグや脆弱性があったのでは、壁を足すだけでは守りきれません。そこで当社はコネクテッドカーの中のソフトウェアをスキャンし、脆弱性を見つけるツールを提供しています」と話す。

Cybellum プロダクト・セキュリティ・アセスメントのインターフェース

同氏によると、担当エンジニアは多くの場合「堅牢なソフトウェアはどんなものか」「ハッカーに攻撃される脆弱性はどんなものか」を理解しており、対応方法もわかっているという。問題は、コネクテッドカーに搭載されるソフトウェアの数が多く、すべての脆弱性に対応しきれないことなのだ。

専門家が脆弱性を発見した際、発見した脆弱性を登録するCommon Vulnerabilities and Exposures (CVE)、National Vulnerability Database(NVD)などのデータベースがある。こうした場所には年間2〜3万件の新規脆弱性が報告される。

奥田氏は「このペースで脆弱性が見つかるので、どこかの会社がソフトウェアを出したら、規模にもよりますが数カ月で数十件程度の脆弱性が見つかります。ハッカーたちは公表された脆弱性を使った攻撃も仕かけてきます。一方で、ソフトウェアには『未発見、未公表のすでに存在している脆弱性』もあります。また、1つの脆弱性を直すには数カ月〜数年かかることもあります。新しい脆弱性も後から出てきます。『脆弱性ゼロ』の日はありません。ソフトウェア提供企業は公表された脆弱性に優先的に対応しつつ、未公表の脆弱性にも対応していかなくてはなりません」と話す。

理想的には、開発段階から脆弱性データベースを参考に脆弱性が混入しないよう開発を進め、製品が出荷されてからもデータベースを見続け、公表された脆弱性が製品に該当しないかをチェックし続けることが望ましいという。

自動車サイバーセキュリティ規制

開発段階と自動車のライフタイム(開発以降のあらゆる時期)を通した脆弱性対策は、自動車サイバーセキュリティ規制(UNECE WP.29 R155)でも定められている。これは、国連欧州経済委員会の作業部会である自動車基準調和世界フォーラム(WP29)が策定したものだ。

奥田氏は「この規制で重要なのは、『自動車のサイバーセキュリティを担保する社内プロセスを保持すること』です。これを企業目線で具体的に落とし込むと、サイバーセキュリティの専門チームや専任者を設置する、開発プロセスとレビュープロセスを策定する、出荷後も脆弱性を監視し続ける、ということになります。組織とプロセスが全体的に規制されるのです」と説明。

自動車サイバーセキュリティ規制は、自動車における「安全性」の概念の変化も反映している。自動車はもはや「安全性を担保して出荷すれば良い物」ではない。自動車メーカーは企画・開発・生産から廃棄までセキュリティを監視しなければならないのだ。

さらに、この規制のステークホルダーは最終生産メーカーを筆頭に、部品メーカーやベンダーなど、サプライチェーン全体におよび、規制に対する対応の有無の説明責任は最終生産メーカーが負う。

セキュリティはコストなのか

自動車サイバーセキュリティ規制は、自動車のセキュリティをライフタイム全般にわたり担保するもので、ユーザーの利益になるものだ。だが、自動車メーカー側の負担は大きくないだろうか。

「その側面は否定できません。運転支援機能や自動運転機能のように、先端技術を追加して安全性を高めても、セキュリティ対策に関しては今はそうした付加価値を値段に転嫁しにくい状況です。『最先端のセキュリティに対応しているので、このクルマは10万円高くなります』というのは難しいのではないでしょうか」と奥田氏。

しかし、十分なセキュリティ対策を行わず、自動車がサイバー攻撃に遭い、損失や危険な事象が発生した場合、自動車メーカーの評判は落ちてしまう。

奥田氏は「攻撃が発生すれば『セキュリティをしっかりしておいてよかった』という話になりますが、そうでない時にはセキュリティはコストに見えてしまいます」とセキュリティの重要性を指摘する。

コネクテッドカー向けセキュリティの差別化

では、自動車メーカーはソフトウェアの脆弱性をどう発見すれば良いのか。

「多くの脆弱性はソースコードの中にあるので、エンジニアが集まってコードをレビューすれば、脆弱性を見つけることは可能です。ですが、今日の激増するソフトウェア量を考えるとこのやり方は非現実的です。実際には、当社が提供しているような、製品に組み込まれているソフトウェアコンポーネント群をスキャンし、脆弱性を見つけるサービスを活用して効率化を目指すのが望ましいです」と奥田氏。

しかし、ソフトウェアをスキャンするサービスならなんでもいいというわけではない。

奥田氏は「現在、多くのIT企業がソフトウェアチェッカーを提供しています。ですが、自動車の組み込みソフトウェアに十分に対応しているものはほんの一部です。組み込みソフトウェアは必ずしもサーバやPC上で動くものではないので、自動車用ではないソフトウェアチェッカーは、自動車のソフトウェアチェックに対応できない部分も多いのです」と力説する。

では、こうした企業はどうやって差別化しているのだろうか。

奥田氏によると、現在、自動車向けソフトウェアチェッカーを提供している主要な企業は、基本的に類似した技術を提供しており、差別化要素の1つが対応している半導体の種類、OSなどだそうだ。

また、ソフトウェアは使用される製品によって構造が変わってくる。そのため、ソフトウェアチェッカー提供企業の得手不得手も分野によって現れるという。

自動車業界のソフトウェア活用では、ソースコードとバイナリコードという観点も重要だ。ソースコードは、プログラミング言語で書かれたコンピュータプログラムで「どんな動作をさせたいか」を表現する。機械はソースコードをそのまま実行できないため、ソースコードは機械が読み込むことができるバイナリコードに変換される。

奥田氏は「自動車の最終生産メーカーがすべてのソースコードを保持していることは非常に稀です。自動車はサプライヤーから集めてきた多様なパーツで成り立つため、各部のソースコードが最終メーカーの手元にすべて届くとは限らないのです。むしろソースコードが送られてこない方が普通かもしれません」と話す。

しかし、最終メーカーの手元には、自動車の全体統制のために必要な全体のバイナリコードがある。そのため、実際にスキャンできるのは、バイナリコードになる。自動車のソフトウェアをスキャンするには、バイナリコードのスキャン技術と精度が重要になる。

奥田氏は「当社はバイナリコードのスキャンに対応していますが、ソースコードにしか対応していない企業もあります。バイナリコード対応の有無も差別化のポイントになりますね」と補足した。

対策すべきリスク

Uswitchの調査によると、2018年から2019年にかけてコネクテッドカーに対するサイバー攻撃が99%増加した。奥田氏はこれをどう見るのか。

「コネクテッドカーへの攻撃は、危惧されていたよりは増加していないと考えています。『実現可能な攻撃』に関する議論が活発化していますが、『実現可能な攻撃』と『実際に生じる攻撃』は別物です」と奥田氏。「『実際に生じる攻撃』は金銭的利益が発生するところで起こります。そのため、車載コンテンツ配信システムや、移動情報から得るドライバーの個人情報は狙われやすいでしょう。また、それを使ったランサムウェア攻撃もあり得ます。逆にいうと、コネクテッドカーを攻撃して、ドライバーを殺傷するようなことは金銭的利益があまり見込めないので、起こりにくいと考えられます」と話す。

コネクテッドカーを狙ったランサムウェア攻撃は誰に起こり得るのか。奥田氏はトラック運送会社など、コネクテッドカーを事業で利用している企業や組織が狙われるとみている。会社のコネクテッドカーが攻撃によりロックされてしまうと、一時的に売り上げが立てられなくなる。それなら身代金を払って一刻も早く自社のコネクテッドカーを仕事に回した方が良い、と決断する企業が出てきても不思議ではない。

奥田氏は「損失が身代金より大きいなら、払う方が良い、と考える企業はあるでしょう。今危惧されているのはこういった攻撃です」と話す。

コネクテッドカーは情報の宝庫だ。ドライバーの個人情報、家族の情報、移動情報などが蓄積される。これらの情報はそのまま売ることもできるし、銀行システムの攻撃にも悪用できる。

「自動車メーカーからすると、自社製品のセキュリティが破られたら、自社の評判が落ちます。また、過失が認められれば訴訟にも発展するかもしれません」と奥田氏は補足する。

とはいえ今のところ、コネクテッドカーのセキュリティの重要性の認知は、自動車メーカーやその周辺のエコシステムに限られており、一般の自動車ユーザーの間にはあまり浸透していない。そのため「この車はセキュリティ対策が優れています」というアピールが魅力的に映らない。

奥田氏は「自動車ユーザーのみなさんにセキュリティの大切さをお伝えできれば、車の魅力としてセキュリティをアピールすることもできます。ドライバーのみなさんを守るためにも、セキュリティ理解の促進は重要な課題です」と話した。

欧州のデジタル規制の再改定でフェイスブックの態度が変わる可能性、内部告発者フランシス・ホーゲン氏が欧州議会で証言

Facebook(フェイスブック)の内部告発者Frances Haugen(フランシス・ホーゲン)氏は、先に行われた英国と米国の国会議員の前でのセッションの後、欧州議会で洗練された証言を行った。

ホーゲン氏のコアメッセージは、大西洋の両側で発せられたのと同様の深刻な警告だった。「Facebookは安全より利益を優先し、個人、社会、民主主義に悪影響を及ぼす有害コンテンツの増幅を無視することを選んでいる。そして、欧州の規制監督は、こうした無責任な運営を行うプラットフォームを統制し、責任あるものにするために不可欠であり、立法者たちがソーシャルメディアに規制を課すことに一刻の猶予もない」。

Facebookの内部告発者として(これまでで)最も注目度の高い人物であるホーゲン氏は、欧州議会から非常に好意的な反応を受けた。議員たちは、同氏が時間を割いてくれたことや、彼らが同氏の「勇気」と表現する、懸念を公に表明してくれたことへの感謝の言葉を惜しまなかった。そして同氏が発言する前や、約3時間にわたるプレゼンテーションと質疑応答の最後にも、同氏を称賛した。

議員たちはさまざまな問題について同氏に質問した。最も大きな関心が寄せられていたのは、新たに導入されるEU全域のデジタル規制が、不安定なプラットフォーム大手に対して、効果的な透明性と説明責任をいかに最大限にもたらし得るかということだった。

Digital Services Act(DSA、デジタルサービス法)は、欧州議会議員の知性の前に置かれている。欧州委員会の提案に対する修正の検討と投票が行われており、この過程で同法案が大きく変化する可能性もある。

一部の議員が行動広告の全面禁止を求める動きを見せたことなどを受け、コンテクスチュアル広告のようなプライバシー保護に配慮した代替手段が法案に盛り込まれた。あるいは最近支持を得た別の修正案では、ニュースメディアをプラットフォームコンテンツの削除から除外するよう求めている

蓋を開けてみると、ホーゲン氏はこうした修正案に好意的ではないことがわかった。しかし、この規制を総じて支持すると同氏は発言した。

DSAの全般的な要点は、信頼できる安全なオンライン環境を実現することに置かれている。そして本日のセッション中に発言した多くの欧州議会議員たちは、ホーゲン氏が欧州議会で発言することに世界的な注目が集まっていることを受けて、EUの警笛を吹く街頭演説的なオポチュニティを捉えた。Facebookの(さらに)別のパブリシティ危機の真っただ中にある中、デジタル規制が審議中であるだけでなく、採択に向かって急速に進んでいる進歩的な状態であることを知らせるものだ。

Facebookの内部告発者は政治的エゴを満たすことに快く応じてみせた。EUがプラットフォーム規制に真剣に取り組んでいることに「感謝する」と述べ、EUはDSAにより「グローバルなゴールドスタンダード」を築くオポチュニティを有していると示唆した。

とはいえ、同氏は2021年10月に行われた別の証拠審議の際にも、英国議会で同様の表現を用いている。そこで同氏は、同国のオンライン安全法について同じように熱弁を振るった。

ホーゲン氏は欧州議会議員たちに対し、Facebookは「データを使ってごまかす」ことに並外れて長けている、と英国の立法者たちに警告した内容を繰り返し、Facebookのプラットフォーム上で起きていることに関するデータを提出することを単純に要求するだけのような甘い法律を通過させてはならない、と議員らに印象つけた。むしろFacebookは、データを引き出して監視監査を生成するのに使用するクエリの詳細に至るまで、同社が引き渡すデータセットのすべてについて説明を求められるべきだということだ。

法制化においてこのようなステップを取らなければ、EUの新しいデジタル規則に大きな抜け穴ができ、Facebookはチェックマークを付ける構図を描くのに必要なあらゆるクエリを実行して、選択的に自己利益的なデータを提供することでうまく乗り切るだろう、とホーゲン氏は警鐘を鳴らした。

Facebookのように信頼できないプラットフォームでも規制が効果を発揮するためには、市民社会組織や外部の研究者たちの幅広いエコシステムからの多層的で動的かつ継続的なインプットが必要だと同氏は提言した。新たに発生してくる弊害を掌握し、法律が意図した通りに機能していることを確保するためだ。

AIがもたらすインパクトに関して求められている説明責任を真に果たすためには、現在DSAが提案している「吟味された学識者」だけではなく、より広範な分野の外部専門家にプラットフォームデータを提供することで、監視に対する広い視野を持つべきだと同氏は強く要請した。

「Facebookがデータで偽ることは明らかです」と同氏は欧州議会で語っている。「DSAの導入を奨励します。Facebookはデータを提供する際、その取得方法を示す必要があります【略】データを引き出すために使用したプロセス、クエリ、ノートを開示することが極めて重要です。これを確認できない限り、提供された情報を信頼することはできません」。

ホーゲン氏は単に警告を発するだけではなかった。同氏はさらに賛辞を重ね、欧州議員たちに次のように伝えた。「欧州がこれらのプラットフォームを規制する上で重要な役割を担うことを強く信じています。欧州は活気に満ちた、言語的に多様な民主主義国家だからです」。

「言語的にも民族的にも多様な4億5000万人のEU市民のためのDSAの権利を獲得すれば、世界に向けたゲームチェンジャーを創出できます。ビジネスのオペレーションに対する社会的リスクの評価を各プラットフォームに義務づけることで、構築するプロダクトやその構築方法の決定は、利益の最大化だけに基づくものではなくなります。言論の自由を保護しつつ、リスクに対処する体系的なルールや基準を確立し、透明性、監視、執行がどのように機能すべきかを世界に示すことができるでしょう」。

「プラットフォームは自社がどのような安全システムを持っているのか、それらの安全システムがどのような言語に対応しているのか、言語ごとのパフォーマンスを明らかにしなければなりません。これを確実にすることが、深刻に、切実に求められています」と同氏は続け、包括的な情報開示の必要性に関する自身の主張を具体化した。「正直なところこれは欧州人の大多数にとって危険なことなのだろうか?と思われるかもしれません」。

ホーゲン氏によると、このようなアプローチは、そのプラットフォームが稼働するすべての市場と言語にまたがる弊害に対処する上で必要な「言語に依存しないコンテンツ中立的なソリューション」をFacebookに迫ることで、欧州を超えた規模のメリットをもたらすという。

Facebookの(限られた)安全予算における偏り、つまりどれだけの予算が英語圏の市場に向けられているのか、そして / または規制を恐れている少数の市場に向けられているのかという点は、Facebookの非常に多くの内部文書が漏洩したことで増幅された核心的な問題の1つである。そして同氏は、FacebookのAIモデルに状況に応じた透明性を持たせることで、強力なプラットフォームがどのように運用されているのか(そして何を優先するのか、何を優先しないのか)というグローバルな公平性の欠如に対処できると提言。そのためには一般的なパフォーマンス指標に加え、市場、言語、安全システム、そしてターゲットを絞ったコホート単位においても、詳細な情報が必要になると指摘した。

安全性を体系的な要件としてFacebookに取り組ませることは、欧州全域の市場でプラットフォームが引き起こす問題を解決するばかりでなく「世界の脆弱な地域に住んでいて、あまり影響力を持たない人々のために声を上げることにもなる」と同氏は主張する。そして次のように言い添えた。「世界で最も言語的な多様性に富む地域は、往々にして最も脆弱な地域であり、欧州が介入する必要性を抱えています。欧州は影響力を有しており、そうした地域の人々のために真に力を発揮できるのです」。

ホーゲン氏の発言の多くは以前の証言や記者会見でもお馴染みのものであった。一方、質疑応答では多くのEU立法者たちが、有害なコンテンツの増幅というFacebookの問題がマイクロターゲット / 行動広告(当議会で活発に議論されている)の全面禁止により解決されるのではないか、という論点に同氏の声を引き込もうとした。これによりアドテックの巨人は、背後にある人々の情報をデータ駆動型操作を通じて利益を得るために使用することができなくなるだろう、ということだ。

これについてホーゲン氏は異議を唱え、規制当局が決定するのではなく、人々が自分でターゲティング広告の有無を選択できるようにすることを支持すると述べた。

全面禁止の代わりに、同氏は「特定の事柄や広告は【略】実際に規制される必要があります」と提案し、規制の対象となる領域の1つとして広告料金を挙げた。「現在のシステムはヘイトを助成しています。つまり、ヘイト的な政治広告を掲載する方が、そうではない広告を掲載するよりも5倍から10倍安いのです。それを考えると、広告料を均一にする必要があると思います」と同氏は説明した。「ただし、特定の人をターゲットにした広告を規制すべきであるとも考えています」。

「ご存じかどうかわかりませんが、特定の広告について100人のオーディエンスをターゲットにすることも可能です。それが悪用されていることはまず間違いないと思います。政治広告に過剰にさらされているのはどのような人かを分析したところ、驚くことではありませんが、最も影響を受けているのはワシントンD.C.の人々で、それは極端に過度な露出状態です。私たちは月に何千もの政治広告について話し合っています。ですから、特定の人々を彼らの認識なしにターゲットにするメカニズムを持つこと【略】は容認できないと私は考えます」。

ホーゲン氏はまた、Facebookはサードパーティのデータソースを利用して、広告ターゲティング目的でユーザーのプロファイルを充実させていることに言及し、その利用を禁止するよう主張した。

「プロファイリングとデータ保持に関して、サードパーティのデータを取得することを許可すべきではないと思います。Facebookはクレジットカード会社やその他の形態と協働していますが、これは彼らの広告の収益性を根底から高めています」と同氏は述べ、次のように付け加えた。「データソースと連携する際にはその都度承諾する必要があると思います。人々は、Facebookに自分たちのデータの一部があることを知ればとても不愉快に感じるはずです」。

しかし、行動広告ターゲティングに関しては、全面禁止の支持を慎重に避けている。

それはこのセッション中に生じた興味深い波紋だった。この問題にはEU内部でモメンタムがあり、それにはホーゲン氏自身の内部告発が地域の立法者たちのFacebookに対する懸念を増幅させた結果としての影響も含まれていた。そしてホーゲン氏はそれを喚起するのに貢献したかもしれないのだ(しかしそうしないことを選んだ)。

「ターゲット広告に関しては、人々がどのようにターゲティングされるかを選択できるようにすべきであると強く提言します。そして、人々に選択を強要するダークパターンを禁止することを推奨します」と同氏はある回答の中で述べている(しかし「ダークパターン設計」のようなシニカルで多面的な要素に対し、規制当局がどのようにして有効な法律を作ることができるのかについての詳細には触れていない)。

「プラットフォームは、そのデータをどのように使うかについて透明である必要があります」と同氏は自身の提案のすべてを包含する本質を伝えてから、次の提案を繰り返すことに依拠した。「すべての政治広告に均一の広告レートを提供するようプラットフォームに義務づけるポリシーを公表すべきであることは、私が強く提唱するところです。政治広告でヘイトを助成すべきではありません」。

行動広告を禁止することに反対する同氏の主張は、規制当局が完全に包括的なプラットフォームの透明性を達成することに集約されている(むしろそれに依存している)ようだ。それは、Facebook(およびその他の同業各社)が人々のデータを使って実際に行っていることの正確な実態を提示できること、つまり、ユーザーがそのようなターゲティングを望むかどうかについて真の選択ができるようにすることだ。したがって、全面的な説明責任の遂行が重要な意味を持つ。

しかしセッションの別の局面で、それは子どもたちがFacebookのようなプラットフォームによるデータ処理に本当の意味で同意できるかどうかを尋ねられた後だったが、ホーゲン氏は、子どもはもちろんのこと、大人たちも、Facebookが自分たちのデータで何をしているのかを(現時点で)理解できているのか疑問であると主張した。

「自分がどのような情報をトレードしているのかを子どもたちが理解できるかということに関してですが、大人である私たちはほぼ間違いなく、何をトレードしているのかを理解していないと思います」と同氏は議員たちに語った。「アルゴリズムに何が含まれているのか、子どもたちにインフォームドコンセントが与えられるような形でターゲット設定されているのか、私たちにはわかりません。インフォームドコンセントが与えられているとは思えませんし、子どもたちの能力も限られています」。

これを踏まえると、同氏の信念、つまり「前述のような包括的な透明性は可能であり、すべての大人が操作的な行動広告を受け入れるか否かの判断を真に情報に基づいて下すことができるデータ駆動型操作、という普遍的に包括的な構図を描き出すだろう」との考えは、何というか、やや希薄に見える。

ホーゲンの論理、すなわち、規制当局がユーザーに提供されているあらゆるものについて不適切 / 不正確に伝達すること、および / または規制当局がユーザーに自らのリスクと権利に関する適切かつ普遍的な教育を保証していないことを含む、根本的な透明性の欠如に対して同氏が提案した解決策に従うならば、データ駆動型の搾取が(今まさに法律に組み込まれているフリーパスで)続いていくリスクがあることは確かであろう。

ここでの彼女の議論は一貫性に欠けているように感じられた。行動広告を禁止することに対する同氏の反対、そしてそれゆえに、ソーシャルメディアの操作的な有害性を助長する1つの根本的なインセンティブに対処することに反対している同氏の主張は、論理的というよりむしろイデオロギー的なものであるかのようだ。

(確かに、世界中の政府は同氏が主張しているような高い機能を備えた「完全な」監視機能を緊急に導入することができるという信念の飛躍は必要なように思える。とはいえ、同時に同氏は、何週間もかけて立法者たちに対し、プラットフォームは非常にコンテキストに特化した、データが詳細に記述されたアルゴリズムマシンとしてしか解釈し得ないものだと強く訴えてきた。同氏が今回の質疑応答で述べたようなFacebookの「驚くべき」データ量を考えれば、目の前にあるタスクの規模の大きさはいうまでもない。Facebookからデータを生の形で取得した場合、規制当局にとってあまりにも膨大すぎることが示されている)

これはおそらく、権利の専門家ではなく、データサイエンティストに期待される視点でもあるだろう。

(前述のような、行動広告の禁止に対する同氏の即座の拒否は、害が流れてそれが感じられるマシンの外にいるのではなく、ブラックボックスに内通してアルゴリズムやデータを操作することに専念してきたプラットフォームのインサイダーに見られるような、一種のトリガー反応といえよう)

セッション中の別の場面で、ホーゲン氏は、ソーシャルメディアの問題に対する唯一の万能薬として徹底的な透明性を求める自身の主張をさらに複雑にした。EUがこのような複雑な問題の施行を最大27の国家機関に任せることに対して警告を発した。

もしEUがそうするなら、DSAは失敗するだろうと同氏は示唆した。代わりに立法者たちに助言したのは、Facebookレベルのプラットフォームを包み込むために必要だと同氏が指摘する、非常に詳細で階層化された動的なルールの実施に対処するための中央EUの官僚機構を作ることだった。同氏はさらに、自身のような元業界のアルゴリズムの専門家たちがそこに「居場所」を見つけ、彼らの専門的な知識への支援や「公的な説明責任に貢献することによる還元」が推進されることを提唱した。

「アルゴリズムが実際にどのように機能し、その結果がどのような結果をもたらすのか、これらの分野の正式な専門家の数は、世界的に見て非常に少ないのが現状です。この分野に修士号や博士号はありません。そのため、分野に携わる企業の1つで働き、社内で実地訓練を受ける必要があります」と同氏は説明し、さらに次のように付け加えた。「この機能を27の加盟国に委譲した場合、1つの場所でクリティカルマスを獲得できなくなることを、私は深く懸念しています」。

「十分な専門家を確保し、それを広く分散させることは、非常に難しいでしょう」。

プラットフォームが人々の目をたやすく欺くことを防ぐためには、利己的なデータセットや「脆弱な」AIの中の悪質な詳細を明らかにする必要があると立法者たちに警告する声が非常に多い中、広告に個人データを使用しないなどの単純な制限を規制当局が実際に設定することにホーゲン氏が反対していることは、教訓的であるように思える。

同氏はまた、規制当局はプラットフォームがデータを使って実行できることに制限を設けるべきか、および / またはアルゴリズムに使用できるインプットに制限を設けるべきかについて、欧州議会議員らから直接質問を受けた。この質問に対しても、同氏は制限ではなく透明性を優先した(しかし他のところでは、前述のように同氏は、広告プロファイリングを充実させる目的でFacebookがサードパーティのデータセットを入手することは少なくとも禁止すべきだと主張している)。

結局のところ、このアルゴリズムの専門家のイデオロギーには、データ駆動型ソフトウェアマシンのための効果的な規制を考え出す方法について、ブラックボックスの外で考えることに関してはいくつかの盲点があるようだ。

民主主義社会がデータマイニングテクノロジーの巨人たちからコントロールを奪い返すためには、ある程度の急ブレーキは必要なことかもしれない。

したがって、ホーゲン氏の最大のアドボカシーは、デジタル規制を致命的に台無しにする抜け穴のリスクに関する極めて詳細な警告であろう。ここでのリスクが多元的であるという点で、同氏は間違いなく正しい。

同氏はプレゼンテーションの冒頭で、もう1つの抜け穴の可能性を指摘した。立法者たちに、ニュースメディアのコンテンツをDSAから除外しないよう求めた(これも議員たちが検討している修正案の1つだ)。「コンテンツ中立性のルールを作るのであれば、本当に中立でなければなりません」と同氏は主張した。「何も選ばれず、何も除外されないということです」。

「現代の偽情報キャンペーンはいずれも、システムを操作することで、デジタルプラットフォーム上のニュースメディアチャンネルを不当に利用していくでしょう」と同氏は警告した。「プラットフォームがこれらの問題に取り組むことをDSAが違法とする場合、私たちは法の有効性を損なうリスクを負うことになります。実際、今日の状況よりも状況が悪化する可能性があります」。

質疑応答の中でホーゲン氏は、いわゆる「メタバース」の構築に向けて計画されているFacebookの方向転換に照らして、規制当局が直面するであろう新たな課題について議員たちからいくつかの質問を受けた。

関連記事:ザッカーバーグ氏は110兆円規模のフェイスブックを「メタバース」企業にすると投資家に語る

これについて、同氏は議員らに対し「非常に懸念している」と述べ、家庭やオフィスでのメタバース供給センサーの普及によってデータ収集量が増加する可能性に警鐘を鳴らした。

同氏はまた、Facebookがワークプレイス用ツールの開発に注力していることが、ビジネスツールに関して従業員がほとんど発言権を持っていないことを考えると、オプトアウトが選択肢にさえならない状況をもたらすのではないかという懸念を表明した。これは人々が将来、Facebookの広告プロファイリングと、生計を立てることのどちらかを選ぶというディストピア的な選択に直面する可能性を示唆している。

Facebookが「メタバース」に新たな焦点を当てたことは、ホーゲン氏がFacebookの「メタ問題」と呼んだものを浮き彫りにしている。これはつまり、同社が現在のテクノロジーによって生じた問題を終わらせて修復するよりも「先に進む」ことを優先しているということでもある。

規制当局はこのジャガーノート(圧倒的な力を持つ存在)に対して、安全性に重点を置いた新たな方向性を計画させるためのレバーを投入しなければならない、と同氏は強調した。

​​画像クレジット:BENOIT DOPPAGNE/BELGA MAG/AFP / Getty Images under a license.

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

EU最高裁顧問がドイツの大規模データ保持法は違法と指摘

国民のデータを(曖昧かつ包括的な「セキュリティ」目的のために)保持したい欧州加盟国政府の欲求と、無差別な大規模監視はEU法の基本原則(プロポーショナリティー、プライバシー尊重など)と相容れないとする主張を繰り返し、基本的権利の擁護を続けるEUの最高司法機関である欧州司法裁判所(CJEU)との戦いは、大規模データ保持に関する国内法令に対する辛辣な法的批判を再度呼び込んだ。

今回矢面に立たされたのはドイツのデータ保持法で、CJEUは、ISP(インターネット・サービス提供者)のSpaceNet(スペースネット)とTelekom Deutchland(テレコム・ドイチュラント)が提起した顧客の通信トラフィックデータを保持する義務に異議を唱える複数の訴訟に続いて裁定する。

判決はまだ出ていないが、現地時間11月18日、CJEU顧問から影響力のある意見として、トラフィックおよび位置データの概略的で無差別な保持は、例外的(国家安全に対する脅威に関連するもの)にのみ認められるものであり、データは永続的に保持されてはならないという見解が示された。

EU司法裁判所のManuel Campos Sánchez-Bordona(マヌエル・カンボス・サンチェス-ボルドナ)法務官の意見を発表したプレスリリースで裁判所は、同法務官は「言及されたどの論点に対する答えも、すでに同裁判所の判例法に含まれているか、そこから容易に推測できると考えています」と述べ、ドイツ法の「極めて広範囲のトラフィックおよび位置データを対象とする」「概略的で無差別な保持義務」は、データを一括収集するものであり、対象を絞った方法(特定の国家安全保障目的など)ではないことから、保管に課せられた制限時間内にEU法と合致させることはできない、とする司法官の見解を明確に提示した。

同司法官は、無差別な一括収集は個人データの漏洩あるいは不正アクセスなど「深刻なリスク」を生むと指摘している。そして、市民のプライベートな家族生活と個人データ保護の基本的権利に対する「重大な干渉」をもたらすと繰り返した。

この見解に法的拘束力はないものの、CJEUの裁定はアドバイザーに合わせられる傾向にある。ただし、この訴訟の最終裁決が下されるのはまだ数カ月先のことだ。

CJEUは、類似の事例を1年前に裁定している。複数のデジタル権利団体が、英国およびフランス法に基づいて行われた国の大規模データ収集および保持に対して異議を申し立てた訴訟で、当時裁判所は限定的なデータ収集および一時的な保持のみが許されるという裁定を下した。

(しかしPoliticoによると、その後フランスは判決の回避方法を探っている。同紙は去る3月に、政府は最高裁判所に裁定に従わないよう要求したと報じた。)

2014年の画期的判決でCJEUは、圏内でデータ保持規則を調和させることを目的とした2006年のEU司令を却下し、この制度は市民の権利に対する過度の介入を構成すると裁定した。それなら加盟国はこれまでにそのメッセージを受け取っているはずだと思うだろう。

しかし、この法的衝突が一段落する見込みはなさそうだ。とりわけ、各国政府の間で汎EUデータ保持法を復活させようとする新たな動きがあることを示す漏洩した討議資料Netzpolitik(ネッツポリティック)が入手し、この夏に報道してたことを踏まえると。

画像クレジット:Vicente Méndez / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nob Takahashi / facebook

フェイスブックの広告ツールが特定の個人をターゲティングできることを研究者グループが発表

スペインとオーストラリアの学者とコンピュータ-科学者のチームによって執筆された最新の研究論文で、Facebook(フェイスブック)のプラットフォームがユーザーに割り当てる関心事項について十分に認識していれば、Facebookのターゲットツール使用して、特定の個人のみに排他的に広告を配信できることが実証された。

「Unique on Facebook:Formulation and Evidence of (Nano)targeting Individual Users with non-PII Data(Facebook上での一意性:非個人データによる個人ユーザーのナノターゲティングの定式化と証拠)」と題するこの論文では、Facebookのプラットフォームによってユーザーに割り当てられた趣味・関心事に基づいて、ユーザーを一意に識別できる可能性を示すメトリックを定義する「データ駆動モデル」が説明されている。

研究者たちは、Facebookのアドマネージャーツールを使用して、意図した特定のFacebookユーザーのみに届くように多数の広告をターゲット配信することができることを実証した。

この研究では、Facebookの広告ターゲットツールが有害な目的に利用される可能性について、新たな疑問を投げかけている。さらには、Facebookがユーザーについて収集している情報を使用して個人を特定できる、つまり、ユーザーの趣味や関心のみに基づいてFacebook上の膨大なユーザーから1人を選び出すことができるという状況を踏まえ、Facebookの個人データ処理帝国の合法性についても疑問を呈している。

この研究結果により、行動ターゲティング広告の禁止または段階的廃止を求める議員に対する圧力が強まる可能性がある。行動ターゲティング広告は、個人的にも社会的にも害を及ぼす可能性があるため、何年にも渡って非難の対象になってきた。少なくとも今回の論文によって、こうした侵襲的なツールの使用方法について確固とした抑制と均衡を求める声が高まりそうだ。

また、この研究では、こうした独立系の研究機関でもアルゴリズムを利用したアドテックを調査できることの重要性も浮き彫りになっており、研究者のアクセスを遮断しないように求める対Facebookの圧力も強まるに違いない。

Facebookの関心は個人データ

「私たちのモデルで検証した結果、Facebookによってあるユーザーに割り当てられた関心事集合のうち4つの大変珍しい関心事または22のランダムな関心事によって90%以上の可能性でそのユーザーをFacebook上で一意に特定できることが明らかになりました」とマドリード大学Carlos III、オーストラリアのGraz University of Technology(グラーツ工科大学)、スペインのIT企業GTD System & Software Engineering(GTDシステム&ソフトウェアエンジニアリング)の研究者は書いている。これにより、1つの重要な事実がわかる。つまり、Facebookが認識している珍しい関心事または多くの関心事を持つ個人は、Facebook上で、数十億人という膨大なユーザーの中からでも容易に特定できるということだ。

「この論文は、私たちの知るかぎりでは、世界規模のユーザーベースを考慮した上で個人の一意性について調査した最初の研究です」と彼らは続け、28億人のアクティブなユーザーに対するデータマイニングというFacebook固有のスケールについて言及した(注:Facebookはユーザー以外の情報も処理している。つまり、Facebook上でアクティブなインターネットユーザーよりもさらに広範なスケールの人たちにリーチしている)。

研究者たちは、今回の論文は「Facebookの広告プラットフォームを体系的に悪用してインターネット上の非個人識別情報データに基づくナノターゲティングを実装できる可能性」について最初の証拠を提示するものであることを示唆している。

Facebookの広告プラットフォームが、1対1で相手を巧みに操るためのパイプの役割を果たしていることについては早くから論争が繰り広げられてきた。例えば2019年のDaily Dotの記事には、性生活に不満を抱えている夫に、妻やガールフレンドを心理的に操作するサービスを販売していたSpinner(スピナー)という会社の例が紹介されている。挑発的で無意識に相手を操作する広告がターゲットのFacebookやインスタグラムのフィードにポップアップ表示されるというものだ。

今回の研究論文では、2017年に起こった英国の政治生命に関する事例にも言及している。労働党の選挙運動の最高責任者がFacebookのカスタムオーディエンス広告ターゲティングツールを利用して、党首のJeremy Corbyn(ジェレミー・コービン)氏をだますことに成功したのだ。ただし、このケースでは、ターゲットになったのはコービン氏だけではなかった。彼の同僚や彼と同じ考えの数人のジャーナリストにも広告が送られた。

今回の研究チームは、Facebookのアドマネージャーツールを利用すれば、特定の1人のFacebookユーザーに広告を送ることができることを実証している。彼らはこのプロセスを「ナノターゲティング」と呼んでいる(現在のアドテックで「標準的」な「インターネットベース」の広告をユーザーグループに送るマイクロターゲティングとは異なる)。

「本稿では、21のFacebook広告キャンペーンによって実験を実施することで、広告主がユーザーの関心事を十分に認識していれば、Facebook広告プラットフォームを体系的に悪用して特定のユーザーに排他的に広告を配信できることを論文の3人の執筆者が証明する」と論文には書かれており、この論文は「ターゲットユーザーの関心事のランダム集合を認識するだけで、Facebook上に1対1のナノターゲティングを体系的に実装できる」という「最初の経験的証拠」を提示するものだとしている。

彼らが分析に使用した関心事データは、彼らが作成し、2017年1月以前にユーザーによってインストールされたブラウザ拡張機能を介して、2390人のFacebookユーザーから収集されたものだ。

この拡張機能はData Valuation Tool for Facebook Users(Facebookユーザー向けのデータ評価ツール)と呼ばれ、各ユーザーのFacebook広告設定ページを解析して、ユーザーに割り当てられた趣味や関心を収集すると同時に、Facebookのブラウジング中にそのユーザーに配信される広告によってFacebookにもたらされる利益のリアルタイムの推測値を計算する。

関心事データは2017年以前に収集されたものの、Facebookの広告プラットフォームを介して1対1のターゲティングが可能かどうかをテストする研究者たちの実験は2020年実施された。

「具体的には、この論文の3人の執筆者たちをターゲットとするナノターゲティング広告キャペーンを設定しました」と彼らはテスト結果について説明する。「私たちは、Facebookが各ターゲット執筆者に割り当てた関心事のリストから5、7、9、12、18、20、22個をランダムに選択したものを使用して各執筆者向けにオーディエンスを作成することで、データ駆動型モデルが実際に機能するかどうかをテストしました」。

「2020年の10月から11月の間に合計21回の広告キャンペーンを実施して、ナノターゲティングが現在実現可能であることを実証しました。実験でモデルの実施結果を評価したところ、攻撃者があるユーザーについて18個以上のランダムな関心事を認識していれば、そのユーザーに対して非常に高い確率でナノターゲティングを実行できることが分かりました。実験で18個以上の関心事を使用した9つのうち8つの広告キャンペーンで、当該ユーザーのナノターゲティングに成功しました」。

したがって、Facebookに18個以上のあなたの関心事が登録されている場合、あなたを巧みに操ることを目論んでいる人物にとって、それらの関心事は極めて興味深いものになる。

ナノターゲティングは止められない

1対1のターゲティングを防ぐ1つの方法として、Facebookが最小オーディエンスサイズに厳しい制限を課す方法が考えられる。

今回の論文によると、Facebookは、キャンペーンのオーディエンスサイズが1000人を超える(以前は21人以上だったが2018年にFacebookが制限値を上げた)可能性がある場合、アドキャンペーンマネージャーツールを使用して「Potential Reach(潜在的リーチ)」値を広告主に提示しているという。

しかし、Facebookは、実際には、この潜在的リーチよりも少ないユーザーをターゲットとするキャンペーンを広告主が実施することを禁止していない。ただ、メーッセージがリーチする人の数が極めて少ないことを広告主に知らせないだけだ。

研究者たちは、複数のキャンペーンで、1人のFacebookユーザーに無事広告が届いたことによってこの事実を実証することができた。その結果、広告のオーディエンスサイズはFacebookの広告レポート生成ツールによって生成されたデータを参照したものであること(「Facebookにより1人のユーザーだけにリーチしたことが報告された」)、ウェブサーバー上にユーザーが広告をクリックすることによってのみ生成されるログ記録が存在することによって確認された。さらには、ナノターゲティングの対象ユーザーに広告とそれに付随する「この広告が表示されている理由」オプションのスナップショットを取得してもらった。このオプションの値は、ナノターゲティングに成功したケースのターゲティングパラメーターに一致していたという。

実験結果のサマリーには次のように追記されている。「本実験から得られた主な結論は次のとおりである。(i)攻撃者がターゲットユーザーから18個以上の関心事を推測できる場合、Facebook上の特定の1人のユーザーをナノターゲティングできる可能性は非常に高い。(ii)ナノターゲティングは非常に低コストで実現できる。(iii)本実験によると、ナノターゲット広告の3分の2は有効キャンペーン期間中7時間以内にターゲットユーザーに配信されると予想される」。

ナノターゲティングの防止対策について議論されているこの論文の別のセクションでは、Facebookが課しているとされるオーディエンスサイズの制限は「まったくの無効であることが判明した」と主張しており、20人というオーディエンスサイズ制限は「現在適用されていない」と断言している。

また、Facebookがカスタムオーディエンス(広告主がPIIをアップロードできる別のターゲティングツール)に適用しているという100人制限の回避策も提示されている。

以下論文より抜粋する。

広告主による極めて少数のオーディエンスをターゲットとする広告の配信を防ぐためにFacebookが実装している最も重要な対策は、オーディエンスを形成するユーザーの最小数に制限を課すというものだ。しかし、この制限はまったくの無効であることが判明した。本論文の結果に動機付けられたFacebookは、アドキャンペーンマネージャーを使用して20人を下回るサイズのオーディエンスを設定することを禁止した。我々の調査では、この制限は現在適用されていない。その一方でFacebookは、最小カスタムオーディエンスサイズを100人とする制限を課している。セクション7.2.2で説明するとおり、この制限を回避して、カスタムオーディエンスを使用してナノターゲティングによる広告キャンペーンを実装するさまざまな方法が文献で紹介されている。

この論文では、全体を通して、インターネットベースのデータを「非個人識別情報(non-PII:Personally Identifiable Information)」と呼んでいるが、このような枠組みは欧州の法律のもとでは無意味であることを忘れてはならない。欧州では、一般データ保護規則(GDPR)のもとで、個人データについて非常に広い見方をしているからだ。

PIIという言葉は米国でのほうがより一般的だ。米国では、欧州のGDPRに相当する包括的な(連邦)プライバシー法というものがないからだ。

アドテック企業もPIIという言葉を使いたがる。ただし、それはずっと限定されたカテゴリでの話だ。アドテック企業が実際に処理するすべてのデータ(個人を識別およびプロファイリングして広告を配信するために使用できるデータ)という意味ではない。

GDPRのもとでは、個人データとは個人の名前やメールアドレス(つまり、PII)などの明白な識別子だけでではなく、個人を特定するために間接的に使用できる情報(居場所や関心事など)も含まれる。

以下に、GDPR(第4(1)項)の関連部分を抜粋する(強調部分はTechCrunchによる)。

「個人データ」とは、識別されている、または識別可能な自然人(データ主体)に関する任意の情報を指す。識別可能な自然人とは、特に、名前、識別番号、場所データ、オンライン識別子などの識別子、またはその人の身体的、生理的、遺伝的、精神的、経済的、文化的なアイデンティティに固有の1つ以上の要素を参照することで、直接または間接に識別可能な自然人のことである。

他の研究でも数十年に渡って繰り返し示されていることだが、個人は、クレジットカードメタデータNetflixの視聴習慣など、わずかな「非個人識別情報」があれば再特定できる。

膨大な数の人たちをプロファイリングし広告のターゲットにするFacebookは、継続的かつ広範囲にインターネットユーザーの行動をマイニングして関心事ベースのシグナル(つまり、個人データ)を収集し、個人プロファイリングを行って各個人に合わせた広告を配信する。そのFacebook帝国が、世界中のほとんど誰でも巧みに操作できる(ただし、相手について十分な知識があり、その相手がFacebookのアカウントを持っていることが条件)可能性のある攻撃ベクトルを作り出したとしても何も驚くには当たらない。

しかし、それが法的に問題のないことであるとは限らない。

実際、人々の個人データを処理して広告ターゲティングを行ってもよいというFacebookの主張の法的根拠は、EUで長年に渡って問題とされてきた。

広告ターゲティングの法的根拠

Facebookは以前、ユーザーは自身の個人データが広告ターゲティングに使われることについて同意していると主張していた。しかし、Facebookは、行動ターゲティングのためにプロファイリングされることを承諾するのか、ただ友人や家族とつながりたいだけなのかのどちらかをユーザーに選択してもらう際に、見返りを求めず、具体的で、明確な情報に基づいて選択できるようにしていない(ちなみに、見返りを求めず、具体的で、明確な情報に基づく同意というのは、同意についてのGDPRの基本的なスタンスだ)。

Facebookを使うには、自分の情報が広告ターゲティングに使用されることを承諾する必要がある。これは、EUのプライバシー運動家が「同意の強制」と呼ぶものだ。つまり、同意ではなく、強制だ。

しかし、2018年5月のGDPR施行以来、Facebookが合法的にヨーロッパ人の情報を処理できるのは欧州のユーザーが広告の受信についてFacebookと契約している状態だからだ、という主張に切り替えたようだ。

FacebookのEU規制当局として主導的立場にあるアイルランドのデータ保護委員会(DPC)によって今週始めに公開された仮決定では、こうした暗黙の主張変更は透明性に欠けるとして、Facebookに対し、3600万ドル(約40億9500万円)の罰金を課す提案をしている。

DPCは、Facebookの広告契約の主張には問題があるとは考えていないようだが、欧州の他の規制当局は問題があると考えており、アイルランドの仮決定に意義を唱える可能性が高い。この件に関するFacebookのGDPRに対する不満をめぐる規制当局側の調査は今後も続き、当分は終わりそうもない。

仮にFacebookがEUの法律を回避しているという最終判断が下った場合、Facebookはユーザーに対し、ユーザーの情報を広告ターゲティングに使用できるかどうかについて見返りを求めない選択肢をユーザーに与えることを強制されることになる。そうなると、Facebook帝国に存在の根幹に関わるような風穴をあけることになる。というのも、この研究でも強調しているとおり、(ターゲティング広告に利用せずに)保管しているだけの関心事データでも個人データになるからだ。

それでも、Facebookは、問題など存在しないと主張するいつもの常套手段を使っている。

今回の研究に対して回答した声明の中で、Facebookの広報担当はこの論文を「当社の広告システムの動作原理についての理解が間違っている」として一蹴している。

Facebookの声明では、この研究者たちの結論の核心部分から注意をそらして、彼らの研究結果の重要さを矮小化しようとしている。以下に、広報担当の言明を示す。

この研究は当社の広告システムの動作原理を間違って把握しています。広告ターゲティングに使用する特定の人に関連付けられた関心事のリストは、その人がそのリストを共有することを選択しないかぎり、広告主が見ることはできません。このリスト、つまり広告を見た人を特定する具体的な詳細情報がなければ、この研究者たちの手法を使って広告主が当社のルールを破ろうとしても無駄です。

Facebookからの反論に答えて、論文の執筆者の1人であるAngel Cuevas(アンヘル・クエバス)氏は、同社の議論を「残念だ」と表現し、問題がないなどと主張するのではなく、ナノターゲティングのリスクを防止するためのより強力な対策を実装すべきだとしている。

この論文では、ナノターゲティングにともなう数多くの有害なリスクが指摘されている。例えば心理的説得、ユーザーの操縦、脅迫などだ。

「驚くのは、ナノターゲティングが実現可能であり、対策は広告主がユーザーの関心事を推測できないと仮定することくらいしかないことをFacebook自身が暗黙に認識していることです」とクエバス氏はいう。

「広告主がユーザーの関心事を推測する方法はいくらでもあります。この論文でも、(ユーザーからは研究目的で行うという明示的な同意を得た上で)ブラウザのプラグインを使って実際に試してみました。それだけではありません。関心事の他にも、(今回の研究では試しませんでしたが)年齢、性別、都市、郵便番号などのパラメーターもあります」。

「これは残念なことです。Facebookのようなテック大手は、広告主がFacebookプラットフォームでのオーディエンスサイズを決めるために後で使用できるようユーザーの関心事を推測することなどできないという前提に頼らずとも、もっと強力な対応策を実現できるはずです」。

例えば2018年のCambridge AnalyticaによるFacebookデータの悪用スキャンダルを覚えているだろうか。Facebookのプラットフォームにアクセスした開発者が、クイズアプリを使って、気づかれることも同意を得ることもなく、数百万人のユーザーのデータを抽出することができたという事件だ。

つまり、クエバス氏のいうとおり、広告主 / 攻撃者 / エージェントが同じような不透明でずるいやり方を実装してFacebookユーザーの関心事データを取得し、特定の個人を巧みに操ることは決して難しくない。

論文の注には、ナノターゲティングの実験を行った数日後、テスト用キャンペーンに使用したアカウントがFacebookによって何の説明もなく閉鎖されたと記載されている。

Facebookからは(アカウントが閉鎖された理由も含め)論文に記載した具体的な質問に対する回答はなかった。だが、もしFacebookがナノターゲティングの問題を認識していたから閉鎖したのであれば、なぜそもそも特定の1人のユーザーをターゲットとする広告の配信を防ぐことができなかったのだろうか。

訴訟の増加

この研究結果は、Facebookの事業にどの程度広範囲な影響を及ぼすだろうか。

あるプライバシー研究者の話によると、この研究はもちろん訴訟に役立つという。欧州では、特にFacebook(広くはアドテック全般)に対するEU規制当局のプライバシー保護対策が遅々として進んでいないため、訴訟の数が増えている。

また別の研究者は、今回の研究結果は、Facebookが、個人データは処理していないと見せかけておきながら、実はユーザーの体系的な再特定化を大規模に行っていることを浮き彫りにしていると指摘する。つまり、Facebookは膨大な数のユーザーの膨大なデータを蓄積しており、個人情報の処理に制限を設ける程度の範囲の狭い法的規制など事実上回避できてしまうことを示唆している。

このため、行動ターゲティング広告がもたらす害を抑える有意義な制限を課そうとする規制当局は、Facebook独自のアルゴリズムが同社が保持する膨大なデータ内を検索して、その中からユーザーの代理人に相当するパラメーターを探し出して利用するという方法に気づく必要がある。また、同じような論法でFacebookのアルゴリズムによる処理は法的な制限を回避する可能性がある(例えばFacebookが慎重に扱うべき関心事の推測の問題で使った戦術)ことも認識しておく必要がある。

別のプライバシーウォッチャーで独立系の研究者でコンサルタントのDr Lukasz Olejnik(ウカシュ・オレジニク)博士は、今回の研究を驚くべきものだとし、過去10年間で最も重要なプライバシー研究結果のトップ10に入る内容だと説明する。

「28億人から1人を特定するのはとてつもないことです。Facebookプラットフォームは、そのようなマイクロターゲティングが行えないようにする予防策を講じていると主張しているにもかかわらず、です。この論文は、過去10年間で最も重要なプライバシー研究結果のトップ10に入ります」と語る。

「関心事は個人データに含まれるとするGDPR第4(1)項の意味する関心事によってユーザーを特定することができるようです。ただし、こうした処理をどのようにして大規模に実行するのかは明確に示されていませんが(ナノターゲティングのテストは3人のユーザーに対してのみ実行された点を指摘して)」。

オレジニク氏は、この研究はターゲティング広告が個人データ、そして「おそらくGDPR第9項の意味における特殊なカテゴリのデータにも」基づいて行われていることを示していると指摘する。

「これはつまり、適切な保護対策が行われていないかぎり、ユーザーの明示的な同意が必要であることを意味します。しかし、論文の内容から、私たちは、そうした対策は存在しているとしても不十分だという結論に達しました」と同氏は付け加えた。

今回の研究はFacebookがGDPR違反を犯していることを示していると思うかという質問に対し、オレジニク氏は「DPAは調査を行うべきです。その点は疑問の余地がありません」と話す。「技術的には難しい案件かもしれませんが、立件は2日もあればできるはずです」。

我々はこの研究結果をFacebookの欧州DPAで主導的立場にあるアイルランドDPCに知らせ、GDPR違反があるかどうかを判定するための調査を行うかどうか聞いてみたが、本記事の執筆時点では回答がなかった。

マイクロターゲティングの法的禁止に向けて

この論文によってマイクロターゲティングの法的禁止を肯定する論拠が補強されるかという質問に対し、オレジニク氏は、歯止めをかけることは「前進ではある」が、問題はその方法だと答えた。

「全面禁止にする場合、現在の業界および政治環境の対応準備ができているかどうかは分かりません。とはいえ、少なくとも、技術的な防止策は求めるべきです」と同氏はいう。「(Facebookによれば)すでに防止策は講じているということですが、(ナノターゲティングの件については)防止策は存在しないも同然のようです」。

オレジニク氏は、グーグルのプライバシーサンドボックス案に組み込まれているアイデアを一部利用すればすぐに変化が起こる可能性があると提案する。しかし、同案はアドテック各社が競争監視につながるとして不満を表明したため頓挫してしまっている。

マイクロターゲティングの禁止についてクエバス氏に意見を聞くと、次のように答えてくれた。「私の個人的な立場から言わせていただくと、我々はプライバシー保護のリスクと経済(求人、イノベーションなど)とのトレーオフについて理解する必要があるということです。私たちの研究によると、アドテック業界は、個人識別情報(メール、電話、住所など)について考えるだけでは不十分であり、オーディエンスの範囲を特定する(絞り込む)方法についてより厳しい対策を実装する必要があることは明らかです。

「その上で申し上げますが、私どもはマイクロターゲティング(少なくとも数万人規模のユーザーにオーディエンスを限定できる能力と考えます)を禁止することには反対です。マイクロターゲティングには重要な市場が存在しており、そこでは多くの仕事が生まれています。また、必ずしも悪いこととは限らない興味深いことが行われている極めて革新的な分野でもあります。ですから、マイクロターゲティングの潜在能力をある程度制限してユーザーのプライバシーを保護するというのが私どもの立場です」。

「プライバシーの分野で未だに解決されていない疑問は同意だと思います」と同氏はいう。「研究コミュニティとアドテックエコシステムは、(理想的には協力して)十分な説明を行った上での同意をユーザーから得るための効率的なソリューションを作成するために取り組みを進める必要があります」。

大局的な話をすると、欧州では、AI駆動形ツールの法的要件がおぼろげに見え始めたところだ。

EUでは2021年初めに提案された人工知能の高リスクの応用を規制する法律が施行される予定だ。この法律では「人の意識を超えて作用する行動を大きくねじ曲げるためのサブリミナル技術で、その人または別の人に心理的または身体的な害を及ぼすかその可能性のある技術」を展開するAIシステムの全面禁止が提案されている。

そのため、Facebookのアドツールが脅迫や個人の心理的操作に利用されないようにするための適切な保護策を同社がまだ実施していない場合、FacebookのプラットフォームがEUの将来のAI規制のもとで禁止に直面するのかどうかを推測してみるのは少なくとも興味深い。

とはいえ、現時点では、Facebookのターゲティング帝国にとっては、相変わらずもうかるビジネスである。

クエバス氏にFacebookプラットフォームに対する今後の研究計画について尋ねると「次の研究で是非やりたいのは、関心事と他の人口統計情報を組み合わせることでナノターゲティングが『より容易になる』のかどうかという調査です」。

「というのは、広告主がユーザーの年齢、性別、都市(または郵便番号)といくつかの関心事を組み合わせてユーザーに対してナノターゲティングを実行できる可能性が非常に高いからです」と同氏はいう。「こうしたパラメーターをいくつ組み合わせる必要があるのかを知りたいのです。年齢、性別、住所と数個の関心事をユーザーから推測するほうが、数十の関心事を推測するよちもはるかに簡単です」。

このナノターゲティングの論文は2021年12月のACM Internet Measurement Conferenceでのプレゼンテーションとして受理されている。

画像クレジット:NurPhoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

フェイスブックがユーザーの政治的信条、宗教、性的指向を広告ターゲットにすることを禁止予定

Facebook(フェイスブック)は米国時間11月9日、個人の健康、性的指向、宗教的・政治的信条などの、潜在的に「センシティブ」な属性に基づいてユーザーをターゲティングすることを、この先広告主に許可しないことを発表した。たとえば「Lung cancer awareness(肺がんの知識)」「LGBT culture”(LGBTカルチャー)」「Jewish holidays”(ユダヤ教の休日)」などが、2022年初頭からターゲット外となるカテゴリーの例だ。

同社はブログに「こうした詳細なターゲット設定オプションを削除する決定は容易ではなく、この変更が一部の企業や組織に負の影響を及ぼす可能性があることは承知しています」と記し、その上で公民権の専門家、政策立案者、その他の関係者からの意見が今回の決定を後押ししたと述べている。広告収入はFacebookの主要な収入源であるため、広告ポリシーの大幅な変更は大きな副次的影響を及ぼす可能性がある。

Facebookは年齢、居住地、性別(ジェンダー)など、プロフィールに記載されている情報に基づいて、ユーザーをターゲットにすることができる。しかしFacebookプラットフォームが、ユーザーのプロフィールに記載されている性的指向に基づいてターゲットを絞ることはこれまでもしていなかったと、同社の担当者はTechCrunchに語った。この先、削除される広告とは、ユーザーのプロフィール内の関心カテゴリーに基づいて提供されている広告を指すという。

これまでFacebookは、ユーザーのアクティビティに基づいて、そうした関心カテゴリをユーザーのプロフィールに割り当てていた。Facebookのコンテンツにどのように関わったかに応じて、ユーザーには「米国のユダヤ文化」「LGBTの権利」「バラク・オバマ」など、Facebookが「センシティブ」と呼ぶカテゴリーが割り当てられる可能性がある。2022年1月19日から、広告主はこれらのような関心事に基づいて広告をターゲティングすることができなくなる。なお「ロッククライミング」や「編み物」など、センシティブではない他の関心グループは引き続きターゲットとして使われる予定だ。センシティブかどうかに関わらず、そうしたカテゴリーは何万もあるのだ

いまでもユーザーは、デスクトップの「設定とプライバシー→設定→広告→広告設定→広告のターゲット設定に使用されるカテゴリ→興味・関心のカテゴリ」で、自分のプロフィールにひも付けられた関心グループを確認することができる。また特定の関心事に基く広告を見たくない場合は、そこでオプトアウトすることができる。

この広告ポリシーの変更は、Facebookプラットフォームの親会社として新たに社名を変更したMeta(メタ)が、内部告発者のFrances Haugen(フランシス・ハウゲン)氏がリークした文書に関連した一連の上院公聴会の後、厳しい監視の目に晒されていることに起因している。より多くの文書が報道機関にリークされるにつれて、Metaは一部のジャーナリストの報道が同社の振舞を誤って伝えていると主張し、防御の姿勢を強めている。

とはいえ、Facebookの広告ポリシーは何年も前から問題視されていた。2020年の米国大統領選挙に向けて、Facebookは、作成できる政治広告の種類に制限を設けた。また2018年には、米住宅・都市開発省(HUD)が、家主や住宅販売業者たちが公正住宅法(Fair Housing Act)に違反する行為をFacebookが幇助していた件告発したことを受けて、Facebookは広告の5000以上のターゲティングオプションに対して同様の削除を実施した。その前の2016年には、Facebookは住宅、雇用、クレジット関連の広告に関する「民族的親和性」ターゲティングを無効にしている。これはProPublica(プロパブリカ)のレポートで、そうした機能が差別的な広告に使われる可能性があると指摘されたことを受けたからだ。住宅や雇用に関しては、特定の社会属性に基づいて広告を出すことは違法なのだ。また、ProPublicaの別の報告書によって、Facebookは反ユダヤ的な関心事のカテゴリーに基づく広告ターゲティングも削除している。

また同社は「私たちは、プラットフォーム上でどのように人びとにリーチできるかについての広告主の期待によりよく沿うと同時に、私たちが利用可能にしているターゲティングオプションを広告主が乱用することを防ぐことの重要性に関する公民権専門家、政策立案者、その他の利害関係者からのフィードバックにも対処したいと考えています」とブログ投稿を行っている。「こうした、詳細なターゲティングオプションを取り除く決定は容易ではなく、この変更が一部の企業や組織に負の影響を及ぼす可能性があることは承知しています」。

Facebookは、データが悪意ある者に悪用される可能性を懸念してこれらの決定を下したとしているものの、このデータが潜在的にポジティブな方向に使用される場合もあるため、一部の関係者を心配させている。たとえばこれまでは「糖尿病の知識」に興味がある人には、コンディションの管理に取り組んでいる非営利団体を紹介することができていたのだ。

それでも、Facebookには、特定のオーディエンスにアクセスするためのツールがまだ数多く残されている。例えばユーザーがiPhone上で広告トラッキングを許可した場合、Facebookの広告主はその情報を広告のターゲティングに利用することができる。また企業は「エンゲージメントカスタムオーディエンス」「類似オーディエンス」などを活用して、ユーザーにリーチすることができるが、その概要については同社のブログ記事で紹介されている。

画像クレジット:Lionel Bonaventure / Getty Images

原文へ

(文:Amanda Silberling、翻訳:sako)

株取引アプリRobinhoodが数百万人の顧客情報流出、ソーシャルエンジニアリング攻撃で

オンライン株取引プラットフォームのRobinhood(ロビンフッド)は、先週ハッキングされ、500万件以上の顧客のメールアドレスと200万件以上の顧客名、さらにそれよりも少数の一部のユーザーに関してはより詳細な顧客データが盗まれたことを確認した。

同社のブログによると、米国時間11月3日に悪意のあるハッカーが電話で顧客サービス担当者に対しソーシャルエンジニアリングを使い、顧客サポートシステムにアクセスしたとのこと。その結果、ハッカーは数百万人の顧客の名前とメールアドレスに加えて、310人の顧客のフルネーム、生年月日、郵便番号を入手することに成功した。

Robinhoodによると、10人の顧客については「より広範なアカウント詳細が漏洩した」という。社会保障番号、銀行口座番号、デビットカード番号は流出しておらず、それらの顧客に直接的な経済的損失は発生していないが、Robinhoodは具体的にどのような情報だったかは述べていない。

しかし、そうした個人情報は、悪意のあるハッカーが被害者にさらなる攻撃を仕掛けることを容易にする。例えば、名前と生年月日は、しばしばユーザーの身元を確認するために使用することができるため、ターゲティングされたフィッシングメールなどで使われる。

Robinhoodがシステムを保護した後、ハッカーは「身代金の支払いを要求した」と同社は述べている。Robinhoodは代わりに法執行機関とセキュリティ会社のMandiantに通知し、侵害の調査を依頼した。

これは、2020年7月にTwitter(ツイッター)がハッキングされたときと同様の侵害だ。当時10代だったハッカーがソーシャルエンジニアリング技術を使って、Twitterの一部の従業員を騙し、ハッカーを従業員と思わせて、Twitter内部の「管理者」ツールへのアクセスを許し、彼はそのツールを使って知名度の高いアカウントを乗っ取り、暗号資産詐欺を広めた。この攻撃により、ハッカーは10万ドル(約1130万円)強の暗号資産を手に入れた。Twitterはその余波を受けて、スタッフにセキュリティキーを配布し、今後この種の手口が通用しないよう、攻撃に対する防御を強化した。

ハッカーがRobinhoodの顧客サービス担当者を騙して内部システムへのアクセスを許可したセキュリティ管理の不備は、同社の調査の焦点となりそうだ。

画像クレジット:Andrew Harrer/Bloomberg / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Aya Nakazato)

各アプリの機密情報の取り扱い方を教えてくれるアップルのApp Privacy Reportがベータ版に

Apple(アップル)は「App Privacy Report(アプリ・プライバシー・レポート)」のベータ版の提供を開始した。この新機能は、日常的に使用しているアプリがどれくらいの頻度で機密情報へのアクセスを要求しているか、またその情報がどこで共有されているかといった詳細を、iOSユーザーに提供することを目的としている。この機能は、EメールのトラッキングピクセルをブロックするツールやプライベートVPNなど、プライバシーに焦点を当てた改善が行われているなかで、6月に開催されたAppleの世界開発者会議で初めて紹介された。Appleは当時、この新しいレポートには、アプリがユーザーの位置情報、写真、連絡先などのユーザーデータやセンサーにアクセスした際の詳細や、アプリがコンタクトするドメインのリストが含まれると説明していた。


iOS 15のアップデートの一部として発表されたものの、2021年の秋口に新バージョンのiOSが公表された時点では、App Privacy Reportは利用できなかった。このレポートはまだ一般には公開されていないが、iOS 15.2およびiPadOS 15.2のベータ版のリリースにともない、より広範なベータテストが開始された。

新しいレポートは、アプリがどのような機密データを収集し、それがどのように使用されているかを詳細に示す潜在的に誤る可能性があるApp Privacy(アプリプライバシー)ラベルにとどまらないものだ。開発者は、誤って、あるいはエンドユーザーに誤解を与えようとして、ラベルを正確に記入しないことがあり、AppleのApp Reviewチームがそのような記入漏れを常に見つけられるとは限らない。

関連記事:アップルがアプリのプライバシー方針を明らかにするラベルを全App Storeで公開

その代わりに、新しいApp Privacy Reportは、アプリがどのように振る舞っているかについての情報をより直接的に収集する。

ユーザーがデバイスのプライバシー設定で有効にすると、App Privacy Reportは、アプリの過去7日間のアクティビティのリストを作成する。アプリをタップすると、そのアプリが最後にセンシティブなデータやデバイスのセンサー(例えば、マイクや位置情報など)にアクセスした日時などの詳細が表示される。これらの情報は、各アクセスがタイムスタンプとともに記録されたリストで見ることができる。

別のセクション「App Network Activity(アプリ・ネットワーク・アクティビティ)」では、アプリが過去7日間に通信したドメインのリストを見ることができる。このリストには、アプリ自身が機能を提供するために使用したドメインを含んでいるだけではなく、アプリが分析や広告の目的で提携している第三者のトラッカーや分析プロバイダーのドメインも明らかにする。

「Website Network Activity(ウェブサイト・ネットワーク・アクティビティ)」は、同様のリストを提供しているが、ドメインにコンタクトしたウェブサイトに焦点を当てており、その中にはアプリが提供したものも含まれている。また、最もコンタクトのあったドメインを見たり、いつ、どのトラッカーやアナリティクスが使用しているのか、さらにはどのアプリがいつコンタクトしてきたかを確認するために個別のドメインを掘り下げたりもできる。

ベータ版の公開に先立ち、Appleは「Record App Activity(アプリ・アクティビティの記録)」という機能を提供した。これは、App Privacy Reportが利用可能になったときに、ユーザーに表示される内容を開発者がプレビューできるようにするものだ。このオプションは、アプリが予想どおりに動作していることを確認できるJSONファイルが生成する。この機能は、すでにいくつかの興味深い発見をもたらしている。例えば、中国のスーパーアプリWeChatは、新しい写真を見つけるため数時間ごとにユーザーの携帯電話をスキャンしていることがわかった

App Privacy Reportは、ユーザーにとってデータの宝庫となる一方で、開発者にとっては複雑な問題となる可能性がある。開発者は、これらのデータ要求が、アプリの機能を提供するためのもので、プライバシー侵害ではないということを、ユーザーに説明しなければならなくなるかもしれない。例えば、天気予報アプリでは、旅行の準備のために、嵐の情報など、変化する天気パターンに関するプッシュ通知をユーザーが要求した場合、位置情報を定期的に取得する必要がある。

開発者に提示する際、Appleは、このレポートが、アプリが行っていることについて透明性を提供することで、ユーザーと「信頼関係を築く」機会になると述べた。また、開発者自身がインストールを選択したSDKについて、その動作が開発者の要望や期待に沿ったものであることを確認するための、より良い洞察を与えることができるとしている。

Appleは、この新機能がいつベータ版を終了するかについては言及していないが、iOS 15.2が一般公開されたときに出荷される可能性がある。

画像クレジット:Apple

原文へ

(文:Sarah Perez、翻訳:Yuta Kaminishi)

【コラム】今現在も「ストーカーウェア」の大流出で数千人の携帯電話データが危険に晒されている

何十万人もの人々の個人的な電話データが危険にさらされている。通話記録、テキストメッセージ、写真、閲覧履歴、正確な位置情報、通話録音など、広く使われている消費者向けスパイウェアにおけるセキュリティ上の問題から、人の電話からすべてのデータが引き出される可能性がある。

しかし、私たちが伝えることができるのはその程度のことなのだ。TechCrunchは、身元が明らかになっていない開発者に、判明しているメールアドレスと非公開のメールアドレスすべてを使って何度もメールを送ったが、この問題を明らかにするための糸口は見えなくなってしまった。メールが読まれたかどうかを確認するために、オープントラッカーを使ってメールを送ったが、これもうまくいかなかった。

この問題が解決されるまでは、何千人もの人々のセキュリティとプライバシーが危険にさらされていることになるため、我々はスパイウェアの開発者へ連絡を試みた。スパイウェアやその開発者の名前を出すと、悪意のある者が安全ではないデータにアクセスしやすくなるため、ここで名前を出すことはできない。

TechCrunchは、消費者向けのスパイウェアに関する広範な調査の一環として、このセキュリティ問題を発見した。これらのアプリは、子どもの追跡や監視のためのソフトウェアとして販売されていることが多いのだが、本人の同意なしに人を追跡したり監視したりすることから「ストーカーウェア」と呼ばれることもある。これらのスパイウェアアプリは、無言で継続的に人の携帯電話のコンテンツを吸い上げ、その運営者が人の居場所や通信相手を追跡できるようにしてしまう。これらのアプリは、発見されたり削除されたりしないように、ホーム画面から消えるように設計されているため、多くの人は自分の携帯電話が危険にさらされていることに気づかない。

関連記事:「システムアップデート」を装ったAndroidの新たなスパイウェアはデバイスを完全に制御する

電子フロンティア財団のサイバーセキュリティ担当ディレクターで、ストーカーウェア反対連合の立ち上げを主導したEva Galperin(エヴァ・ガルペリン)氏は、TechCrunchとの電話で「失望しましたが、少しも驚いていません。このような行為は、怠慢であると考えるのが妥当だと思います。悪用を可能にする製品を作っている企業があるだけでなく、流出した情報を保護するための対策があまりにも不十分なため、悪用された情報をさらに悪用する機会を与えてしまっているのです」と述べている。

TechCrunchは、開発者のスパイウェアのインフラににホスティングを提供しているウェブ企業のCodero(コデロ)にも連絡を取ったが、Coderoはコメント要請に応じなかった。Coderoはストーカーウェアのホスティングに精通している。このウェブホストは2019年にストーカーウェアメーカーの「Mobiispy」に対して、数千枚の写真や電話の記録を流出させていたことが発覚し「行動を起こした」という。

「あるストーカーウェア企業をホストしているウェブホストが、他のストーカーウェア企業をホストするのは当然だと思いますし、以前に反応を示さなかったのであれば、今回も反応を示さないのは当然でしょう」とガルペリン氏は述べている。

このように簡単に手に入るスパイウェアが蔓延していることから、業界全体でこれらのアプリを取り締まる取り組みが行われている。アンチウイルスメーカーは、ストーカーウェアを検出する能力の向上に努めており、また、Google(グーグル)は、スパイウェアメーカーに対して、配偶者の携帯電話を盗み見る方法として製品を宣伝することを禁止しているが、一部の開発者は、Googleの広告禁止を逃れるために新たな戦術を用いている。

関連記事:グーグルがスマホのスパイアプリを宣伝した「ストーカーウェア」広告を停止

モバイルスパイウェアは、セキュリティ上の問題として他人事ではない。ここ数年の間に「mSpy」「Mobistealth」「Flexispy」「Family Orbit」など、10社以上のストーカーウェアメーカーがハッキングされたり、データが流出したり、人々の携帯電話のデータを危険にさらしたりしたことが知られている。別のストーカーウェア「KidsGuard」では、セキュリティの不備により何千人もの人々の電話データが流出し、最近では、配偶者のデバイスをスパイできると宣伝している「pcTattleTale」が、推測されやすいウェブアドレスを使ってスクリーンショットを流出させていた。

連邦規制当局も注目し始めている。2021年9月、米連邦取引委員会は、2000人以上の電話データを流出させたストーカーウェアアプリ「SpyFone」の使用を禁止し、被害者に電話がハッキングされたことを通知するよう命じた。これは、当委員会がスパイウェアメーカーに対して行った2回目の措置で、1回目は、何度もハッキングされ、最終的に閉鎖に追い込まれたRetina-Xだ。

関連記事:米連邦取引委員会がスパイウェアSpyFoneを禁止措置に、ハッキングされた被害者に通知するよう命令

あなたやあなたの知り合いが助けを必要としている場合、日本の内閣府のDV相談+ (0120-279-889)は、家庭内の虐待や暴力の被害者に対して、24時間365日、無料で秘密厳守のサポートを提供しています。緊急事態の場合は、110に電話してください。

また、ストーカーウェア反対連合では、自分の携帯電話がスパイウェアに感染していると思われる場合に役立つ情報を提供しています。この記者の連絡先は、SignalおよびWhatsAppでは+1 646-755-8849、Eメールではzack.whittaker@techcrunch.com。

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Zack Whittaker、Akihito Mizukoshi)

ミズーリ州知事が州のデータ漏えいを報じた地元ジャーナリストを告訴すると脅迫

米国ミズーリ州のMike Parson(マイク・パーソン)知事は、州ウェブサイトの深刻なセキュリティ障害を報道したジャーナリストを告訴すると脅したことで前代未聞の非難を浴びている。

先にSt. Louis Post-Dispatch(セントルイス・ポスト・ディスパッチ)紙のJosh Renaud(ジョシュ・ルノー)記者は、 州の初等中等教育局(DESE)のウェブサイトが、10万人を超える教員の社会保障番号(SSN)を露出したことを報じた。問題のSSNは同サイトのウェブページのHTMLソースコード経由で発見が可能で、インターネット接続のある人なら誰でも、ページで右クリックして「ページのソースを表示」を選ぶだけで個人情報を見ることができる。多くの人にとって、ページのソースコードはキーボードの「F12」キーを押すだけで見える。

Post-Dispatch紙はウェブサイトを修正するよう州当局に脆弱性を通知し、州に修正する時間を十分与えるために記事の公開を遅らせた。その後教育局は「教員検索機能は直ちに無効化」され、脆弱性はすでに修正されたことを正式発表した

それで終わるはずだった。当局責任者であれば、不具合を発見して公表前に警告してくれたことについて同紙に感謝するのが一般的だが、ミズーリ州の共和党州知事マイク・パーソン氏は、脆弱性を発見したジャーナリストを「ハッカー」呼ばわりし、新聞社が欠陥を発見したのは「州当局を辱める」ためだったと語った。

「ハッカーとは情報やコンテンツを不正にアクセスする連中です。この人物は自分のやったことの許可を得ていません」と米国時間10月14日の記者会見で知事は語った。「この人物は被害者ではありません。新聞社は州当局に逆らい、教員たち個人情報を漏洩させることで州をはずかしめ自分たちの報道機関の見出しを飾ろうとしたのです」。

関連記事:オープンソース版の登場に対してWhat3Wordsがセキュリティ研究者に法的警告を送付

「私たちのシステムをハッキングする者やそれを幇助する者に対して州は断固として法的措置をとります」と、パーソン氏は言った。さらに知事は本件を郡検察庁に送致した。

当然のことながら、Post-Dispatch紙の記事に対する知事の反応(および「ハッカー」という用語に対する明らかに誤解)は批判を噴出させ、彼自身の党内からも避難を浴びた。共和党のTony Lovasco(トニー・ロバスコ)議員はTwitter(ツイッター)に「知事室がウェブテクノロジーおよびセキュリティ脆弱性の報告に関する業界標準手続きを根本的に理解していないことは明らかです」と指摘し「ジャーナリストがデータ・プライバシーに関して責任を持って警告を発することは犯罪的ハッキングではありません」と付け加えた。

Ron Wyden(ロン・ワイデン)上院議員もパーソン氏の発言を非難するツイートをした。「ジャーナリズムは犯罪ではありません。サイバーセキュリティ研究も同様です。真のリーダーは報道が政府の失敗を暴露したときに攻撃犬を放ったりせず、真摯に問題を修正するものです」。

サイバーセキュリティ業界も直ちにパーソン氏の発言に介入した。ハッカーでSocialProof Security(ソーシャルプルーフ・セキュリティ)CEOのRachel Tobac(ラチェル・トバック)氏は次のようにツイートした。「公共機関の提供するツールで誰でもキーボードのF12を押すだけで個人情報が漏洩されるようなら、そこにあるのはハッキング状態ではなく、重大なデータ漏えい問題です」。

Post-Dispatch紙はパーソン氏の発言を真に受けることもなく、ルノー記者を支持する立場をとっている。同紙は、自社の記者は「自らの発見を教育局に報告することで、州当局が露見や悪用を防げるようする責任ある行動をとったのです」と語った。

「ハッカーとは、悪意や犯罪の意図をもってコンピューターセキュリティを破る人々のことです。今回の行動に、ファイアーウォールやセキュリティの侵害も、悪意も一切ありません」と同紙が声明で語った。「教育局がこれを『ハッキング』と称することで自らの失敗への批判をかわそうとすることに根拠はありません」。

もちろん、パーソン知事は、州がセキュリティ脆弱性を発見、修正するのを手助けしたその犯罪とされる行為の「責任」がPost-Dispatch紙にあると主張しているものの、米国最高裁判所が最近のVan Buren(ヴァン・ビューレン)事件の判決で、本来見ることのできないファイルや情報をアクセスした者は法に違反していると裁定したことを踏まえると、ルノー氏が最終的に有罪判決を受ける可能性は低い。

しかし、もし州当局が法的措置に出れば、訴えがジャーナリズムやセキュリティ研究を萎縮させ、セキュリティ欠陥を発見して当事者に報告したセキュリティ研究者が法的脅威や攻撃に直面する問題がさらに拡大しかねない。

関連記事:オープンソース版の登場に対してWhat3Wordsがセキュリティ研究者に法的警告を送付

画像クレジット:Evgenii Bobrov / Getty Images

原文へ

(文:Carly Page、翻訳:Nob Takahashi / facebook

Verizon傘下の格安携帯キャリアVisible、ハッカーがアカウント乗っ取り・複数iPhone購入も

Verizon(ベライゾン)傘下の格安携帯通信キャリアであるVisibleは、一部のユーザーアカウントがハッカーにアクセスされ、不正に請求されたことを確認した。

The Vergeが最初に報じたこの事件は、今週初め、Visibleの顧客がソーシャルメディアで彼らのアカウントが乗っ取られたと報告したことで明らかになった。Eメールアドレスとパスワードが何者かに変更されたという報告や、Visibleのアカウントから不要な請求が行われたという報告が多数寄せられた。

ある顧客は、自分のアカウントがハッキングされ、そのユーザーが接続しているPayPal(ペイパル)アカウントでiPhoneが購入されたとVisibleのsubredditに書き込んでいた。また、24時間以内に3台のiPhoneが自分の名前で注文されたというユーザーもいた。「毎回、異なる配送先 / 請求先住所だった」とのこと。

Visibleは当初この問題について沈黙を守っていたが、同社は米国時間10月13日にTwitter(ツイッター)で「脅威アクターが外部からユーザー名やパスワードにアクセスし、その情報を利用してVisibleアカウントにログインしていました」と確認した。これに加えて、複数のアカウントでパスワードを再利用しないようにというフォローアップのツイートがあったことから、影響を受けたユーザーは大規模なクレデンシャルスタッフィング攻撃(パスワードリスト型攻撃)の被害者である可能性が高いと考えられる。そうした攻撃では一般的に、ユーザー名やEメールアドレス、対応するパスワードのリストからなる盗まれたアカウント認証情報が、自動化されたログインリクエストを通じてアカウントへの不正アクセスに使用される。

これはVisible自体が侵害されていないことを示唆しているが、多くの顧客は、同社が2ファクタ認証(2FA)に対応していないことを強調している。これにより、アカウントの乗っ取りを防ぐことができたかもしれない。

TechCrunchは、Visibleに2FAを有効にする計画があるかどうか尋ねたが、今のところ回答は得られていない。同キャリアは、影響を受けたユーザーの数をまだ明らかにしていない。

The Vergeに寄せられた声明の中で、同社は次のように述べている。「Visibleは、一部のメンバーアカウントが不正にアクセスされ、請求されていた問題を認識しています。問題が判明したあとすぐに調査を開始し、問題を軽減するためのツールの導入し始め、お客様をさらに保護するための追加管理を可能にしました」。

「お客様のアカウントの安全性を含め、お客様の情報を保護することは、当社およびお客様にとって非常に重要なことです。なお、当社が電話でお客様のパスワード、秘密の質問、アカウント暗証番号をお尋ねすることはありません。お客様のアカウントが侵害されたと思われる場合は、visible.comのチャットでご連絡ください」とも。

Visibleのsubredditによると、同社は今後「商品を購入する際には、追加のセキュリティ対策として、支払い情報の再確認が必要となります」と顧客に伝えているという。また、同社はユーザーに対し、特に複数のサービスで使い回されているパスワードを再設定するよう勧めている。

関連記事:米T-Mobileで顧客データ漏洩、犯罪者フォーラムで販売

画像クレジット:Visible

原文へ

(文:Carly Page、翻訳:Aya Nakazato)

【コラム】データプライバシーを全世界的に標準化すれば、それは真の意味で人類の進歩となるはずだ

中国は2021年8月、初めて抜本的なデータプライバシー法を可決した。今後、中国の個人情報保護法(PIPL)の対象となる中国の住民(中国の人口は世界で最も多い)と関わるであろうグローバル企業や意欲的なスタートアップ企業は、オンラインで売買やサービスの提供を行う際に影響を受ける可能性がある。

この法律自体は2016年に導入されたEUの一般データ保護規則(GDPR)と類似し、目新しいものではない。衝撃的なのは、GDPRが導入された際は企業に2年の準備期間があったのに対し、PIPLは2021年11月1日に施行されるということである。

PIPLを受けて、関連する企業はコンプライアンスの遵守を確立するために奔走することになる。また、データプライバシーの重要性と緊急性が世界規模で高まっていることも明らかになった。中国は、GDPR類似のプライバシー法を制定した17番目の国となるが、さて、いまだにプライバシー法を制定していない世界の超大国はどこだろうか?

米国は、消費者に焦点を当てた国家レベルのデータプライバシー法をいまだに採用していない。国民はオンライン上の個人データの管理強化を望んでいるにもかかわらず、である(複数調査による)。データプライバシー法の不整備は、特にテクノロジー業界に大きな影響を及ぼす。

さまざまな事象が急速に進む現在、データプライバシーの発展は明らかに重要な分岐点に達している。私たちのとる行動によっては世界中の何十億、何千億もの消費者に影響を与える可能性があり、また、小さなスタートアップ企業から巨大なグローバル企業まで、さまざまな企業の発展にも影響が生じる。今こそ慎重な検討が必要だ。

この記事では、最初に米国におけるデータプライバシー法の進展、およびこれが世界にとって何を意味するかを検討し、次にデータの最小化(「必要」かつ「適切で、関連性があり、限定された」個人データのみを処理する原則)の取り組みでこれらの問題に対応できるかを確認して、データプライバシーという難問に挑んでみる。最後に、データプライバシーという問題の解決に欠かせないこれらの要素を比較した上で、人々が自分のデータを確実に管理できる、世界規模のデータプライバシー基準を提唱することで締めくくりたいと思う。

米国におけるデータプライバシー

米国のデータプライバシーを取り巻く状況は複雑だ。連邦レベルでは、(動きがあるものの)包括的なデータプライバシーポリシーは存在しない。その代わりに医療保険の相互運用性と説明責任に関する法律(HIPAA)、消費者金融商品を対象としたグラムリーチブライリー法(GLBA)など、業界ごとのプライバシー規制がある。

13歳未満の子どもを保護するための児童オンラインプライバシー保護法(COPPA)も存在する。また、連邦取引委員会(FTC)も、FTC独自のプライバシーポリシー(連邦取引委員会法)に違反しているアプリやウェブサイトを積極的に取り締まっている。

しかしながら、米国政府は、消費者のデジタルプライバシー権を保護するための包括的な法案を可決しておらず、各州が独自に対応している(例:カリフォルニア州のCCPA、バージニア州のVCDPA、コロラド州のColoPA)のが現状だ。このため多くの米国人のプライバシー権が侵害され、企業は何をすべきかを決めることができずに混乱している。

これが本来あるべき姿だと主張し、停滞した議会では意味のある消費者プライバシー法案を可決することはできないと警告する人々もいる。彼らは、仮に国家レベルのプライバシー法が可決されたとしても、内容は骨抜きにされ、慎重に構想された各州の法律にも悪影響を及ぼすだろうと考えているらしい。

それと同時に、50の州で異なるデータプライバシー法が存在することになる可能性も否定できない。どれも類似しているものの、それぞればらばらで、異なっている……正しく法を遵守しようとする企業にとっては悪夢のようなシナリオだ。この状況を世界規模に拡大してみよう。

データの最小化は唯一の解決策ではない

データプライバシーの問題に対処するための1つの方法として、データ最小化の原則が挙げられる。これは、企業が具体的な目的のためだけに個人情報を収集・保持することを認めるものである。

データ最小化の原則では、基本的には企業が収集するデータの量を減らすことが求められる。これには、マーケティングチームが収集するデータ量を減らしたり、データ保持のスケジュールを設定して使わなくなったデータを消去したりすることが考えられる。

これにメリットを感じる人もいるだろうが、現実的ではない。消費者に強く配慮する企業であっても、マーケティング担当者に対して潜在顧客の個人情報の収集を減らすように提案することはないだろうし、データを収集する正当な理由を探し出すことは間違いないだろう。

そして、たとえ目的が純粋なものであったとしても、個人情報や嗜好を調査して製品を開発し、ビジネスを成長させているスタートアップ企業にとって、この原則は有害なものになりかねない。この点で、データの最小化は、思わぬところでイノベーションを阻害する可能性がある。

さらに率直に言えば、消費者が自分自身のデータの取得・利用方法について選択できるようにすれば、データを最小化する必要はないと思われる。パーソナライズされたオーダーメイドの体験を好む消費者は、個人情報を共有しても問題ないと考えているケースもある。たとえば「Stitch Fix(スティッチフィックス)」「Sephora(セフォラ)」のようなブランドは、よりショッピングを楽しんでもらうために事前にたくさんの個人的な好みを質問しているが、多くのユーザーがそれを問題視していない。

世界規模のデータプライバシー基準の必要性

筆者は、このような複雑で微妙な問題が表面化し、企業や消費者を悩ませてしまうのは、皆が同じ見解を持つためのグローバルスタンダードが存在しないからだと考える。グローバルスタンダードが存在しない限り、他のいかなる法律や規則、基準も一時しのぎに過ぎない。

今こそ、世界中の消費者を保護し、企業が遵守すべき要件がどの地域でも同一になるよう、各国が合意できる基本原則を策定するときだ。

国際的なデータプライバシー法が乱立し、この地域の要件は厳しく、あの地域の要件は少しだけ異なる、といった状況になれば、企業がコンプライアンスを完全に遵守するのは不可能に近い。そうなるのも時間の問題だ。私たちは事態を収拾しなければならない。

データプライバシー基準は、国境を越えた公平性の基本を確立し、あらゆる段階の企業に適用される。そして、企業の国際的なビジネス展開は飛躍的に容易になる。

筆者は、今影響を受けている企業や地域が、国際的なデータプライバシー基準に向けた変化を促進してくれることを期待している。グローバル化を目指す企業にとって、地域で異なる基準は大きなマイナスであり、膨大なコストにつながっている。そういった企業が協力すれば、共通の解決策を見出すことができるだろう。推進力はそこにある。中国の動向を見れば、他の国が追随する日もそう遠くはないはずだ。

米国内でのデータプライバシー法の制定を待たずに、米国を拠点とする業界団体でさえグローバルスタンダードへの第一歩を踏み出そうとしている。例えばConsumer Reports(コンシューマーレポーツ)は解決策を検討するためのワーキンググループを立ち上げた。これにより、企業と消費者の双方を保護するためのデータプライバシーに関する世界的な関心が急速に高まる可能性がある。

データプライバシー基準の核心

データプライバシー基準はもはや必要不可欠であるといえるが、その策定にあたって忘れてはならないのは「消費者自身が、企業による自分の情報の扱いをコントロールできる」ようにしなければならないということである。

とりわけサービスやアプリケーションが取引を促進するために利用される場合は、消費者自身が、誰が自分の情報にアクセスできるのか、それはなぜなのかを知る権利を持つ。また、要求に応じて個人情報を削除させる権利や、企業が許可なく自分の情報を販売することを防ぐ権利も必要だろう。これらは基本的かつ普遍的な権利であり、政府機関や支援団体はこれを理解しなければならない。

マーケター、マーケティング担当者は不満かもしれないが、すべての消費者が自分の情報を共有することに反対していると考える必要はないだろう。実際には、前述の例のように、企業が個人情報を収集・保持することで、パーソナライズされた体験やショッピングができることを評価する人も少なくない。

消費者の選択権は、最終的にエコシステム全体の健全性を高め、企業が信頼と透明性を築くための新たな手段となる。企業も(地域ごとに)何種類もの消費者の権利を開発・管理するためにいつまでもあたふたする状況から解放される。

筆者は、スタートアップ企業がプライバシーファーストで設立されるようになると予想している。これは企業の差別化にもつながるだろう。しかし、変化の最大の要素は、消費者が世界のどこにいようと、個人情報を含むシステムが世界のどこにあろうと、自分のデータを確実にコントロールできるようにすることだ。データプライバシー基準は消費者の権利を保護し、混乱を解消して企業が効率的にビジネスを行えるようにする。他のアプローチでは同じことを合理的に行うことはできないし、大規模に展開することもできない。

データプライバシーを全世界で標準化し、私たち全員が同じステージに立つことができれば、それは真の意味で人類の進歩となるはずだ。

画像クレジット:Kardd / Getty Images

原文へ

(文:Daniel Barber、翻訳:Dragonfly)

欧州議会が生体認証による遠隔監視の禁止を支持

欧州議会は、生体認証による大規模な監視を全面的に禁止することについて賛成の立場を採択した。

顔認証などのAIを使った遠隔監視技術は、プライバシーのように自由や基本的な権利に大きく関わる問題だが、欧州ではすでに公共の場での使用が浸透している。

「プライバシーと人間の尊厳」を尊重するため、欧州議会は公共の場での個人の自動認識を恒久的に禁止することを可決すべきで、市民が監視されるのは犯罪の疑いがある場合のみだとした。

また、欧州議会は、民間の顔認証データベースの使用を禁止するよう求めた。米国のスタートアップ企業であるClearviewが開発した、物議を醸しているAIシステムがその例だ(これも欧州の一部の警察がすでに利用している)。欧州議会は、行動データに基づく予測的な取り締まりも非合法化すべきだとしている。

加えて欧州議会は、市民の行動や性格に基づいて信頼性を評価するソーシャルスコアリングシステムも禁止したいと考えている。

欧州連合(EU)執行部は4月、高いリスクをともなう人工知能技術の利用を規制する法案を発表した。この法案には、ソーシャルスコアリングの禁止や、公共の場での生体認証による遠隔監視の原則禁止が含まれていた。

しかし、市民社会、欧州データ保護会議、欧州データ保護監督官、および多くの欧州議会議員は直ちに、欧州委員会の提案が十分に行き届いていないと警告した

関連記事:欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

欧州議会全体としても、基本的権利に対する保護措置の強化を望んでいることが明らかになった。

現地時間10月5日夜に採択された決議で欧州議会議員は、市民の自由・司法・内務委員会の「刑法における人工知能」に関する報告書に377対248で賛成し、人工知能法の詳細を詰める今後のEU機関間の交渉で欧州議会が何を受け入れるかについて、強いシグナルを送った。

生体認証による遠隔監視に関する関連パラグラフでは、欧州委員会に次のことを求めた。

立法および非立法の手段により、また、必要ならば侵害訴訟により、法の執行を目的とした顔画像を含む生体データの処理で、公共の場での大量監視につながるようなものを禁止することを求める。さらに欧州委員会に対し、公共の場での無差別な大量監視につながる可能性のある生体データの研究や展開、プログラムへの資金提供を禁止するよう求める。

この決議は、アルゴリズムによる偏見にも目を向け、AIによる差別を防ぐために、特に法執行機関において、あるいは国境を越える場面で、人間による監督と強力な法的権限を求めた。

最終的な判断を下すのは常に人間のオペレーターでなければならず、AIを搭載したシステムに監視されている対象者は救済措置を受けることができなければならない、と欧州議会議員は合意した。

また、欧州議会議員は、AIベースの識別システムを使用する際に基本的権利が守られるよう求めた。AIベースの識別システムは、少数民族、LGBTI、高齢者、女性の誤認識が高いことが指摘されている。そして、アルゴリズムが備えるべき要件として、透明性、追跡可能性、十分な文書化が必要だとした。

公的機関に対しては、可能な限り透明性を高めるために、オープンソースのソフトウェアを使用するよう求めた。

さらに欧州議会議員は、EUから資金提供を受け、物議を醸している研究プロジェクトにも狙いを定めた。顔の表情を分析して「スマートな」嘘発見器を開発するという「iBorderCtrl」プロジェクトは中止すべきだと主張した。

関連記事:欧州司法裁判所で異議申立てされた「オーウェル的」AIうそ発見器プロジェクト

報告者のPetar Vitanov(ペーター・ビタノフ)氏(ベルギー、社会民主進歩同盟)は声明で次のように述べた。「基本的権利は無条件に与えられるものです。今回初めて、法の執行を目的とした顔認証システムの導入を一時停止することを要求します。この技術は効果的ではなく、しばしば差別的な結果をもたらすことが証明されているためです。私たちは、AIを利用した予測的な取り締まりや、大量の監視につながる生体情報の処理には明確に反対します。これは、すべての欧州市民にとって大きな勝利です」。

TechCrunchは欧州委員会に対し、今回の投票についてコメントを求めたところだ。

同議会の決議は、司法判断を補助するAIの禁止も求めている。これも、自動化がすでに適用されている大きな議論を呼ぶ分野だ。自動化により、刑事司法制度における偏見が体系的に固定・拡大される危険性がある。

世界的な人権慈善団体であるFair Trialsは、今回の採択を「テクノロジー時代の基本的権利と無差別のための画期的な結果」と歓迎している。

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

米連邦通信委員会がSIMスワップ詐欺に対抗する新規則を提案

ここ2、3年で、SIMスワップ詐欺の被害が増加している。最近はほとんどのオンラインサービスが電話番号に関連付けられているため、この手法は被害者の生活を破壊するおそれがある。現在、Federal Communications Commission(米連邦通信委員会)は、SIMスワップ詐欺やポートアウト詐欺など、電話番号や個人情報を乗っ取る手口を防止するための新たな規則を制定しようとしている

同委員会によると、これらの乗っ取り手法によって「重大な苦痛、不便、経済的被害を受けた」消費者から多数の苦情が寄せられているという。SIMスワップとは、悪質な行為者が無線通信事業者を騙して、被害者のサービスを自分が保有する携帯電話に移す手法だ。悪質な行為者が被害者のサービスと番号を別の通信事業者に移すことに成功した場合、それはポートアウト詐欺と呼ばれる。

詐欺師が標的とする被害者の電話番号の支配権を得ることを難しくするために、FCCはCPNI(Customer Proprietary Network Information、顧客に関する専属的ネットワーク情報)とLocal Number Portability(地域電話番号ポータビリティ)の規則を改正しようとしている。具体的には、顧客が新しい電話機に機種変更したり、他の通信事業者へサービス移管することに同意する前に、より安全な方法で本人確認を行うことを事業者に求めるというものだ。また、SIMカードの移行や別の通信事業者への移転の要請が、顧客のアカウントで行われた場合、プロバイダーは顧客に通知して確認を取ることを義務付ける規則も提案している。

FCCの規則制定プロセスの一環として、現在これらの提案に対して一般市民がコメントできるようになっている。連邦通信委員会は、これらの提案を読んだ上で、一般市民が声を届けることができる機会を再度提供してから、前述の規則を改正するかどうかを決定しなければならない。

編集部注:本記事の初出はEngadget。執筆者のMariella Moonは、Engadgetの編集委員。

画像クレジット:Luciano Belviso Flickr under a CC BY 2.0 license.

原文へ

(文:Mariella Moon、翻訳:Hirokazu Kusakabe)