1Passwordがプライバシー保護のためのログイン用電子メール生成機能を導入

iPhoneとMacのユーザーは2019年以来、新しいウェブサイトやサービス、アプリにアクセスするとき「Appleでサインイン」でランダムな電子メールアドレスを作り出すことでプライバシーを保護できるようになっている。大きな影響を及ぼすことができる小さな機能の1つであり、似たような機能が1Password(ワンパスワード)にも導入される。

同社はMasked Emailと呼ばれる機能を導入するために、電子メールホストFastmail(ファストメール)と提携した。Appleのものと同様、Masked Emailではログインのためにユニークな電子メールアドレスを生成することができる。1Passwordアプリ内で直接エイリアスを生成でき、つまりパスワードマネジャーが利用できるあらゆるプラットフォーム上でこのツールにアクセスできる。

あなたの電子メールを隠す能力は、どれだけ誇張してもし過ぎることはないあなたのオンラインプライバシー保護をサポートできる。プライバシー侵害の大半はフィッシングの電子メールから始まる。まず第一にそうしたメッセージを受け取らなければ、疑わしいリンクをクリックしたり、個人情報を不注意に共有したりというのはなくなるだろう。

編集部注:本稿の初出はEngadget。執筆者のIgor BonifacicはEngadgetの寄稿者。

関連記事
企業の秘密を「マシン・ツー・マシン」で保護する1Passwordが110億円調達、約2180億円の評価額に
1Passwordが企業秘密管理のSecretHubを買収、法人向け総合サービス展開へ

原文へ

(文:Igor Bonifacic、翻訳:Nariko Mizoguchi

独Xaynが広告を表示させずにプライバシーを保護できる検索ツールのウェブ版を発表

ベルリンを拠点とするスタートアップ企業Xayn(ゼイン)は、Googleのようなアドテック大手のトラッキングやプロファイリングを利用せずに、プライバシー保護とパーソナライズを両立させた広告のない検索サービスを提供している(2020年のTechCrunchの記事を参照のこと)。同社はその製品の提供範囲を拡大し、ウェブ版(現在はベータ版)を発表した。

関連記事:オンデバイスAIでプライバシー保護とパーソナライズを両立させる検索エンジン「Xayn」

同社がモバイルアプリと同様の機能を持つ「light web version」と説明しているウェブ版「Xayn WebBeta」は、あるコンテンツに「興味がないことを意思表示するためにスワイプ」できないといった点がXaynのモバイルアプリとは異なる。

ブラウザのように見えても、Xayn自体はブラウザとも少し違う。同社が「ブラウジングエンジン」と称するXaynでは、プライベート検索だけでなく、ディスカバリーフィード(ニュースフィード)の形でコンテンツを整理して表示することで、アプリ内でブラウジングすることができる。

デスクトップのブラウザでXaynを読み込むと、XaynのAIがフィードで何を表示するかを判断するために、短いタイムラグが発生する(モバイルでも同様)。Xaynを最初に起動したとき(すなわち、AIがゼロからコンテンツをユーザーの地域に合わせてローカライズしているとき)は、すでにユーザーが何回かXaynにアクセスしてユーザー固有の閲覧シグナルをAIが利用できるときを比べて、わずかに長く時間がかかるようだ。

ウェブ版のXaynでは、コンテンツの左右に緑(好き)またはピンク(嫌い)のバーが表示されている。そのバーの横にカーソルを合わせるとホップアップ表示される、上向き(または下向き)の親指のアイコンをクリックすることで、特定のコンテンツに対する「評価する」または「評価しない」のシグナルを送ることができる。左クリックだけで「いいね!」できる、という仕組みだ。

また、フィードを増やしたくない場合は、フィードをオフにして、起動時に検索バーだけを表示させることもできる。

デフォルトでは、検索結果はコンテンツペインに、ニュースフィードと同じような長方形のグリッドで表示される。情報を求めているユーザーにとっては、少しばかり情報密度が足りないだろうか。

Xaynウェブ版(ベータ版)の検索結果ページのサンプル(画像キャプチャー:Natasha Lomas / TechCrunch)

Xaynの学習AIは、右上の「脳」のアイコンをクリックすれば、いつでもオフにすることができる。オフにすると、ユーザーが閲覧しているものが、ユーザーに表示されるコンテンツ(フィードのコンテンツと検索結果の両方)を決定するAIの学習に使用されないようになる。

全体をまっさらな状態に戻したい場合は、手動で閲覧データを消去して学習をリセットすることもできる。

ユーザーに魅力的なもう1つの要素はXaynには広告が表示されないことだ。DuckDuckGoやQwantのような他の非追跡型プライベート検索エンジンは、コンテクスト広告を表示することで収益を上げているが、Xaynには広告がない。

さらに同社は、検索業界の常識にとらわれずに、Xayn AIの検索アルゴリズムをオープンソースで提供している。

他にもウェブ版のXaynには、クリック1つで関連コンテンツが表示される「ディープサーチ」や「コレクション」というブックマークのような機能がある。ユーザーは「コレクションを作成、コンテンツを追加、管理することで、お気に入りのウェブコンテンツを集めて保存することができる」という。

Xaynは広告を表示しないだけでなく、広告ブロッカーを搭載し、第三者のサイトに表示される広告をブロックして「ノイズのない」ブラウジングを実現している。

Xaynのウェブ版は、ChromiumベースのブラウザとFirefoxにのみ対応しているので、Safariユーザーはサポートされたブラウザに切り替えてXaynを使用する必要がある。

同社によると、2020年12月に発表されたXaynのモバイルアプリは、その後世界中で25万回以上ダウンロードされている。

Xaynのモバイルアプリでは、発表から3カ月後には毎日10万以上のアクティブ検索が行われ、Xaynはブラウジングデータとユーザーの興味を示すスワイプを取り込み、このツールの価値提案の中核であるパーソナライズされたコンテンツの検索のためのAIをトレーニングし、改善している。この学習と再評価はすべてデバイス上で行われ「Xaynはユーザーごとの検索結果のプライバシーを保護している」とアピールできる材料になっている。

また、フィルターバブル(泡の中にいるように、自分の見たい情報しか見えなくなること)効果を避けるために、Xaynの検索結果には意図的な変化が加えられ、アルゴリズムが常に同じものばかりをユーザーに提供しないようにしている。

Xaynのウェブ版もモバイル版も、Masked Federated Learning(保護されたフェデレーテッドラーニング(連合学習))と呼ばれる技術を用いて、ユーザーのプライバシーを損なうことなく、ユーザーにパーソナライズされたウェブエクスペリエンスを提供している。

もちろんGoogle(グーグル)も独自の広告ターゲティング技術の改善に取り組んでいて、現在、広告ターゲティングのためにブラウザユーザーをインタレストバケットに分類するFloC(コホートの連合学習)と呼ばれる技術を試験的に導入し、トラッキングクッキーを廃止しようとしている。しかし、Xaynとは異なり、Googleのコアビジネスはユーザーをプロファイリングして広告主に販売することだ。

共同創業者でCEOのLeif-Nissen Lundbæk(レイフニッセン・ルンドベーク)氏は声明で次のように述べる。「私たちは、誤ったプライバシーと利便性のジレンマへの直接的な対応としてXaynを開発しました。このジレンマを解決できることはすぐに証明されました。ユーザーはもはや敗者ではありません。実際、私たちのすばらしいエンジニア&デザイナーチームは、アップデートのたびに、プライバシーや品質、優れたユーザーエクスペリエンスがいかに密接に結びついているかを繰り返し実証してくれます」。

「私たちは既存のものをコピーするのではなく、じっくりと検討して新しいものを作りたいと考えました。Xaynでは、積極的にウェブを検索したり、インターネット全体からパーソナライズされたコンテンツを提案するディスカバリーフィードを閲覧したりして、インターネット上のお気に入りのサイトを見つけることができます。どちらの方法でもユーザーのプライバシーは常に保護されます」。

デザイン部門の責任者であるJulia Hintz(ジュリア・ヒンツ)氏も、別の声明で次のように付言している。「Xaynのウェブ版を開発するにあたり、Xaynアプリの成功につながったすべての要素をデスクトップのブラウザウィンドウで利用できるようにしました」。

「ウェブ版にもプライバシーを保護するアルゴリズム、直感的なデザイン、スムーズなアニメーションが採用されています。ユーザーは、慣れ親しんだ環境から切り離されることなく、モバイルとデスクトップを簡単に切り替えることができます。これこそが、シームレスで強いインタラクションの鍵となる、Xaynのすばらしい利点です」。

ウェブ版のXaynでは、ユーザーの個人情報はブラウザ内に保存されるという。

ウェブ版のセキュリティについては、広報担当者が次のように話す。「デスクトップパソコンは、一般的にスマートフォンよりも安全性が低いといわれています。Xaynはプライバシー保護のために、分散型の機械学習と暗号化を組み合わせて個人データを保護しています。純粋に技術的な観点から見ると、Xaynはデスクトップデバイス上のブラウザの中のブラウザです。Xaynはそれぞれのブラウザのサンドボックス内で動作し、個人データを第三者の不要なアクセスから保護します」。

Xaynは今後、プライバシーを保護しながらパーソナライズされたブラウジングを同期する機能を追加する予定で、オンラインであればどこからでも、モバイルとデスクトップの複数のデバイスでAIの学習結果を享受できるようになる。

ブラウザでwww.xayn.comにアクセスすれば、Xayn検索エンジンのウェブ版(ベータ版)をデスクトップパソコンで確認できる。

Xaynは2021年8月、日本のベンチャーキャピタルGlobal Brain(グローバル・ブレイン)とKDDIが主導し、ベルリンのEarlybird VC(アーリーバードVC)などの既存の支援者が参加したシリーズAラウンドで1200万ドル(約13億円)を調達。累計調達額は2300万ドル(約25億円)を超えた。同社が日本をはじめとするアジアに注目しているのは確実だ。

関連記事:プライバシーとパーソナライズを両立する検索エンジンXaynが日本のKDDIやGlobal Brainなどから約13億円調達

画像クレジット:Xayn

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

プライバシー重視のBraveブラウザで利用できる非トラッキングのビデオ会議ツールが一般公開

Braveは、社名と同じ「Brave」という名前のトラッキングをしないブラウザで知られるスタートアップだ。同社が提供するトラッキングをしないビデオ会議のアドオンがベータの段階を終了した。誰でもBraveブラウザからすぐにビデオ通話を開始することができる。

Brave Talkというこのツールは、2020年5月からベータテストが実施されていた。同社がTechCrunchに語ったところによると、ベータテスト期間中のDAU(デイリー・アクティブ・ユーザー)、つまりBraveブラウザのテストバージョンから参加したアーリーアダプターと開発者は1万4000人ほどだったという。

このBrave Talkが一般に公開された。Braveは「プライバシーを重視した」ビデオ会議としてインターネットユーザーにアピールしている。

同社は一般公開を発表するブログ記事の中で「Zoomなど多くのビデオ会議プロバイダーは、通話やメタデータ、画像をモニターしており、こうしたデータの記録はユーザーの同意なしに販売されたり共有されたりすることがあります」と書いている。

ブログ記事はさらに「Brave Talkの通話では複数レイヤーの暗号化を有効にできるので、盗み聞きしようする人がいても聞くことはできず、我々のサーバーにメタデータは保存されません。したがって、ユーザーの同意なく通話、画像、アクティビティが記録されたり共有されたりすることはまったくありません」と続く。

Brave Talkのプレミアム機能(グループ通話や通話の録画など)は月額7ドル(約770円)で利用できる。ただし1対1の通話は無料で無制限だ(AndroidとiOSのBraveアプリは今のところプレミアムにのみ対応しているが「数週間のうちに」無料版も利用できるようになる予定となっている)。

ビデオ通話はBraveブラウザから開始する必要があるが、招待される側は「モダンブラウザ」(Chrome、Firefox、Safari、Edge、Operaなど)ならどれでも参加できる。

Braveは非トラッキングの認証情報であることをZoomなどの主力ビデオ会議ソフトウェアとは異なる利点として売り込んでいるが、Brave Talkは(今のところはまだ)エンド・ツー・エンド暗号化に対応していないことには注意が必要だ。

Braveによれば、Brave Talkは8×8が手がけるオープンソースのビデオ会議プラットフォームであるJitsi as a Serviceを利用している。これはWebRTCオープンソーステクノロジーでブラウザに直接HDビデオを埋め込めるようにするものだ。

暗号化に関しては、設定で複数のレイヤーを有効にできるという。Braveは、Brave Talkの無料版でもプレミアム版でも「Videobridge暗号化」で現時点では最も強力なレベルで暗号化されると説明している。

同社の共同創業者でCEOのBrendan Eich(ブレンダン・アイク)氏は「この設定により、ビデオとオーディオのストリームが参加者によって生成されるキーを使って暗号化され、Videobridgeサーバーで盗み聞きが防止されます。Videobridge暗号化は『Security Options』から有効にできます」と述べている。

同氏はさらにTechCrunchに対し次のように述べた。「『エンド・ツー・エンド暗号化』という言葉がまぎらわしく大げさであると判断したため、Brave Talkではこの設定を『Videobridge暗号化』としました。ビデオ会議に参加する際に、エンド・ツー・エンド暗号化の通話はプライバシーとセキュリティの1つの側面でしかありません。暗号化を利用していても、『大手』のビデオツールの大半は、会話の参加者や開始時刻と継続時間など多くの情報に関して積極的にデータを集め保管しています」。

「Brave Talkが採用している匿名の資格情報システムにより、我々は利用者や会話の相手を知ることはできず、複数のセッションにわたって関連づけることもできません。Brave Talkはユーザーを追跡しない、プライバシー・バイ・デフォルトのツールです」とアイク氏はいう。

Videobridge暗号化とエンド・ツー・エンド暗号化の違いを明確にするために、同氏はTechCrunchに対しさらに次のように述べた。「Videobridge暗号化はオーディオとビデオをBrave、8×8、パッシブに盗み聞きしようとする人のいずれからも暗号化された状態にしていますが、我々が『Videobridge暗号化』と呼び『エンド・ツー・エンド暗号化』と呼ばない理由は、我々と8×8が協力し、会議の参加者を自動で認証してアクティブな攻撃者に対してさらに堅牢にしようとしているからです。この開発が完了すれば、自信を持って完全なエンド・ツー・エンド暗号化と言えるようになります。Zoomでは参加者がセキュリティコードを声に出して読み上げ、エンド・ツー・エンド暗号化されていることを確認しますが、こうしたプラットフォームに対して我々の圧倒的なアドバンテージになります」。

Brave Talk(以前はBrave Togetherと呼ばれていた)を試すには、通話を開始するためにまずBraveブラウザをダウンロードする必要がある。前述の通り、通話を受ける側はBraveでなくてかまわない。

アイク氏によれば、Braveの非トラッキング製品全体でMAUは3600万人を最近超えたという。これには検索エンジンとFirewall+VPNが含まれる。

関連記事
プライバシー重視ブラウザ「Brave」、非追跡型検索エンジンのベータ版をリリース
プライバシー重視のブラウザ開発Braveが独自の検索エンジンを発表、欧州版Firefoxの元開発者と技術の協力で
画像クレジット:Brave

原文へ

(文:Natasha Lomas、翻訳:Kaori Koyama)

迫るiOS 15リリースでマーケティング担当者が失うデータ、計画すべきDIYメトリクス戦略

Apple(アップル)は、米国時間9月20日(日本時間9月21日)に同社がリリースするiOS 15の一部として、重要なユーザーデータへの開発者のアクセスを排除することを計画しており、メールマーケティング担当者は、これからメトリクスをどのように把握していくかジレンマに陥っている。この問題に業界がどのようにアプローチしているのか、マーケティング担当者が収集したデータに基づいて行動することを支援するソフトウェア企業Movable InkのVivek Sharma(ヴィヴェック・シャルマ)CEOに話を聞いた。

このインタビューでは、8月に掲載されたExtra Crunch記事をベースに、メールマーケティング担当者がAppleのメールプライバシー保護の変更に備える方法を探っていく

今回のアップデートでメールマーケティング担当者にとってゲームチェンジャーなのは、AppleのMailのユーザーが自分のIPアドレスを隠すことができるようになった点だ。

マーケターたちはどのようにして戦術をピボットし、メトリクスを管理し続けられるのだろうか。シャルマ氏は、開封率ではなく、クリック数、コンバージョン数、収益といったダウンストリームメトリクスがより重視されるようになるだろうと考えている。「それはいいことのように聞こえますが、その分データは少なくなります。そして定義上、ファネルは狭くなり、その時点では人数が少ないので、何かがうまくいっているのか、うまくいっていないのかを知るのに時間がかかるかもしれません」。

シャルマ氏は、企業はゼロパーティデータに注目していると語る。「これには2つの要素があります。1つは指標としての『オープン』で、もう1つはオープン時に得られるIPアドレスや時間帯、推測される天候などの情報です。IPアドレスや日時などのような情報は、データ漏洩として認識されます。これらは、マーケターがアクセスできなくなるデータポイントのほんの一部です。そのため、彼らはすでに投資しているファーストパーティデータやゼロパーティデータを利用しています」。

シャルマ氏によると、課題は次のようなことになる。マーケターはどうすれば、ゼロパーティデータをおもしろく、視覚的に魅力的な方法で収集し、そのコンテンツをすべての顧客に対して大規模にパーソナライズできるのか?

以下に示したのは、Movable Inkがゼロパーティデータを収集した方法の1つだ。

「ゼロパーティデータ戦略」
世界的なアパレル小売企業が、ロイヤルティプログラムの導入時にゼロパーティデータを巧みに取り込みました。Movable Inkを利用したEメールでは、Movable Ink ExchangeのパートナーであるOracle CrowdTwistのデータを活用して、パーソナライズされたチェックリストのヒーロー画像を作成し、受信者のロイヤルティアカウントから主要なプロフィール質問を引き出し、完了までの進捗を表示し、回答ごとにポイントを提供しました。この合成画像は、Movable Inkが受信者の受信箱で消費したロイヤルティデータに基づいて自動的に生成され、1to1ユーザー体験を実現し、手動の制作プロセスを完全に回避しました。
​​レスポンス率149%アップ、ユニークCTR340%アップ(コントロール比)
画像クレジット:Movable Ink

シャルマ氏は次のように述べている。「ここにあるものはすべてアンケート調査の質問です。『ふだん何を買いますか』『靴のサイズは?』そして、そのお返しにポイントを付与するという、価値の交換が行われているのです。彼らは明確な方法であなたのことを知り、あなたが興味を持っているブランドと簡単に関わり合える方法を提供しているのです」。

データを手に入れたら、次の問題はそれをどのように利用するかだ。JetBlue(ジェットブルー)航空の例を見てみよう。

JetBlue パーソナライズド「イヤー・イン・レビュー」データ視覚化
2020年は旅行が困難な1年だったのを受けて、JetBlueはTrueBlueマイレージ会員を認識し、個々の乗客の旅行マイルストーンを紹介するために、一人ひとりパーソナライズされた、1年を振り返るデータビジュアライゼーションを提供したいと考えました。
Movable Inkは、JetBlueの記録システムからデータを抽出し、何十万通りもの組み合わせのクリエイティブアセットを各受信者の受信箱に直接自動生成することで、高価で時間のかかる手作業による制作を不要にしました。
画像クレジット:Movable Ink

シャルマ氏は、メールマーケティング担当者向けに、iOS 15での3つの重要なポイントを説明してくれた。

  1. クリック数やコンバージョン数などのファネル下部のメトリクスを重視すること。これこそが本当の意味でのエンゲージメントの指標となります。
  2. ゼロ・ファーストパーティデータ資産に投資する。真のパーソナライゼーションとは、人々が何を体験し、何を見るかということ。そのためには、ゼロパーティデータとファーストパーティデータを活用する必要があります。
  3. Eメールは、すでに投資されている成熟したチャネルであるため、顧客のエンゲージメントを高めるのに非常に有効です。Eメールは、顧客と一対一の関係を築くのにはすばらしいチャネルであり、それ以上の効果があります。この10年、15年の間に、Eメールはさまざまな変化を遂げてきました。この業界は進化し、プライバシーとパーソナライゼーションのバランスが取れたものになっていくでしょう。

画像クレジット:FeelPic

原文へ

(文:Miranda Halpern、翻訳:Aya Nakazato)

【コラム】9.11から20年、制限のないデータ収集がもたらす米国の新たな悲劇

2001年9月11日朝。米国の成人のほとんどは、自分がその時どこにいたかを鮮明に覚えているだろう。筆者はホワイトハウスのウェストウィング2階で、米国国家経済会議のスタッフ会議に出席していた。シークレットサービスが突然部屋に入ってきて「すぐに部屋を出てください。ご婦人方はハイヒールを脱いで!」と叫んだことは忘れられない。

そのちょうど1時間前、私は全米経済会議のホワイトハウス技術顧問として、9月13日にオーバルオフィスで予定されている大統領との会談に向けて最終的な詳細を副参謀長に説明していた。そして、米国政府のプライバシー保護法案を議会に提出するために、大統領のサインを得る準備が整った。カリフォルニア州のプライバシー保護法の国家版ともいえるこの法案は、それよりも強力で、情報を共有する際には対象となる市民の選択による同意を得て市民のデータを保護するなど、データの収集方法や使用方法を規定するものだった。

しかし、その日の朝、世界は一変した。私たちはホワイトハウスから避難し、その日は悲劇に次ぐ悲劇が発生した。米国、そして世界中に衝撃が走った。あの日、ワシントンD.C.にいた私たちは、悲しみ、連帯感、不信感、力強さ、決意、緊迫、そして希望など、人間の感情のすべてを目の当たりにし、自ら体験することとなった。

当日については多くのことが語られているが、筆者はその翌日のことを少し振り返ってみようと思う。

9月12日、オフィスに国家経済会議のスタッフが集まったとき、当時の上司であるLarry Lindsey(ラリー・リンゼイ、Lawrence Lindsey)が私たちに言った言葉を今でも覚えている。「今ここにいることを不安に思う人がいるかもしれません。私たちは全員が標的なのだから。愛国心や信仰心をアピールするつもりはありません。しかし、この部屋にいる皆が経済学者である以上、私はみなさんの合理的な自己利益に訴えます。今、私たちが逃げ出してしまえば、他の人たちも同じように逃げ出すでしょう。誰が私たちの社会の要を守ることができるでしょうか?私たちは国を守ります。この国の誇りとなるように行動してください。そして、安全と安心という自由への献身を放棄しないでください」。

9.11の悲劇に対して、国が一丸となったこと、そして米国政府の対応については多くのことを誇りに思っている。しかし、私はサイバーセキュリティとデータプライバシーの専門家として、まず、ラリーが言ったこと、その後の数年間で学んだ多くの重要な教訓、特に社会の要を守るということについて振り返りたい。

あの日の記憶は未だに鮮明だが、20年が経過し、9.11同時多発テロに至るまでの数カ月間にデータが果たした(果たさなかった)致命的ともいえる役割が解明されている。不幸なことに、すぐそばにあったはずの情報データはバラバラに保管されており、何千人もの命を救うことができたかもしれない点と点をつなぐことはできなかった。データのサイロ化によって、情報を安全に共有する仕組みがあれば見つけられたはずのパターンが見えなくなっていたのだ。

その後、私たちは「こんなことは二度とごめんだ」と自らに言い聞かせ、当局は、市民の自由だけでなくデータのセキュリティにも重大な影響を与えることを考慮せずに、収集できる情報の量を増やすことに邁進した。そして、CIAや法執行機関による20年間の監視要請が詰め込まれた愛国者法が施行された。司法省とともに愛国者法を交渉する場にいた私がはっきりと言えるのは、次のテロ攻撃を防ぎ、私たちの人々を保護するという意図は理解できるものの、その結果として広範囲に及んだ悪影響は明白であった、ということだ。

国内での盗聴や大規模な監視が当たり前になり、個人のプライバシーやデータの安全性、国民の信頼が少しずつ損なわれていった。これはデータプライバシーに対する危険な前例となったが、その一方で、このレベルの監視ではテロとの戦いにおいてわずかな成果しか得られなかった。

残念なことに、個人のプライバシー保護を強固にするはずであった、まさに9月11日の週に議会に提出する予定だった米国政府のプライバシー法案は、頓挫してしまった。

その後数年が経ち、大量の監視データを安価かつ簡単に収集・保管できるようになり、テクノロジー関連やクラウド関連の大手企業が急速に規模を拡大し、インターネットを支配するようになった。官民を問わずより多くのデータが収集されるようになり、個人の機密データが公に晒されるようになったが、このようなアクセスの拡大に対処できる、有効性のあるプライバシー保護措置は講じられなかった。

巨大なテクノロジー企業やIoTデバイスが、私たちの行動、会話、友人、家族、身体に関するデータポイントを集める20年後の現在、私たちは過剰なまでに野放図なデータ収集とアクセスに翻弄されている。原因がランサムウェアであろうとクラウドバケットの設定ミスであろうと、大規模で代償が大きいデータ漏えいでさえも新聞の一面で取り上げられないほど頻繁に発生している。この結果は社会の信頼の喪失だ。人権であるはずのプライバシーだが、それが守られていないことは誰もが知っている。

このことは、アフガニスタンでの人道的危機を見れば明らかだ。一例を挙げてみよう。連合軍を支援したアフガニスタン市民の生体情報データが入った米軍のデバイスがタリバンに奪われてしまった。このデータがあれば、タリバンは対象となる個人や家族を容易に特定し、追跡できる。機密性の高い個人情報が悪人の手に渡るという最悪のシナリオであり、私たちはそれを防ぐための十分な努力をしてこなかった。

決して許されることではない。20年経った今、私たちは再び「こんなことは二度とごめんだ」とつぶやいている。私たちは9.11の経験を、情報データをどのように管理、共有、保護したらいいかを再認識する機会とするべきだったが、未だにそれを正しく理解していない。20年前も現在も、データの管理方法は生死を決する。

進歩がないわけではない。2021年、ホワイトハウスと米国国防総省は、サイバーセキュリティとゼロトラスト(すべてが完全には信頼できないことを前提とする考え方)のデータ保護にスポットライトを当て、米国政府のデータシステムを強化する行動を促す大統領令を出した。私たちには、このような機密データを保護しながら共有もできるようにするために必要な技術がある、というのは良いニュースだろう。データが本来データを持つべきではない人の手に渡ることを防ぐ緊急時対応策も用意されている。しかし、残念なことに、私たちのアクションはまだ十分ではない。データの安全な管理という問題の解決が遅れれば遅れるほど、罪のない人々の命が失われていく。

私たちには、次の20年を見据えて信頼を回復し、データプライバシーの管理方法を変革する機会がある。何よりもまず、私たちは何らかのガードを設置することが必要だ。そのためには、個人に自分自身のデータ管理の自律性をデフォルトで持たせることのできるプライバシー保護の枠組みを構築しなければならない。

つまり、各個人による自らのデータの所有と管理を可能にするためには、公的機関や民間企業がIDとデータを結びつけ、データの所有権を各個人に戻すという技術的な裏方の作業を行う必要がある。簡単にできることではない……しかし、不可能なことではなく、米国市民、米国居住者、世界中の同盟国の人々を守るために必要なことだ。

このようなデータ保護の導入を促進するためには、相互運用性と柔軟性を備えた、無料でアクセスできるオープンソースソリューションのエコシステムが必要である。既存のプロセスやソリューションにデータ保護とプライバシーを重ね合わせることで、政府機関は、個人のプライバシーを損なうことなく、データを安全に収集・集計して全体像を明らかにすることができる。今の私たちはこのような技術がある。今こそそれを活用するときだ。

大量のデータが収集・保管されている現在、米国のデータが悪用される機会は格段に増えている。タリバンに奪われたデバイスは、現在危険に直面しているデータのごく一部に過ぎない。2021年に入ってからも、国家レベルのサイバー攻撃は増加の一途をたどっている。人命を脅かすこのサイバー攻撃は、決してなくなることはない。

2001年9月12日のラリーの言葉は、今でも心に残っている。今、私たちが手を引いたら、誰が社会の要を守れるだろうか。人々の自由を損なうことなく、プライバシーを守り抜くことができるかどうかは、官民のテクノロジーリーダーである私たちにかかっている。

まずはデータに対する国民の信頼を回復しよう。今からでも遅くはない。20年後、私たちはこの10年間を、個人のプライバシー権を保護・支持する上でのターニングポイントとして振り返ることになるだろうか。それとも、またしても「こんなことは二度とごめんだ」と思っているのだろうか。

編集部注:本稿の執筆者John Ackerly(ジョン・アッカーリー)氏はVirtru Corporationの共同創立者兼CEO。以前は、Lindsay Goldberg LLCの投資家、ホワイトハウスの技術政策アドバイザー、米国商務省の政策・戦略計画ディレクターを務めていた。

画像クレジット:Mark Rainwater/Eye Em / Getty Images

原文へ

(文:John Ackerly、翻訳:Dragonfly)

【コラム】すばやく行動し破壊することは、プライバシーとセキュリティを犠牲にする

私は長年、テクノロジーの未来の最前線に立ってきた。

Y Combinatorで採用担当ディレクターを務めていたとき、何百ものスタートアップのピッチを見た。その多くは特定の属性を共有していた。急速に拡大するユーザーの経路をたどり、ユーザーから抽出したデータを収益化するというものだ。

時間が経つにつれて、テクノロジーが作り出しているものの全体像を認識し始めた。すべての動きが追跡され、収益化される「マイノリティレポート」の世界。Facebookのように「Move fast and break things」(すばやく行動し破壊せよ)という信念を掲げる企業もあった。彼らは概念や常識を壊すことにととまらず、最終的には一部の人々の人生を犠牲にするような偽情報やプロパガンダを広め、私たちを失望させた。

それはどのような犠牲を払ってでも成長を遂げる「growth-at-all-cost」というマインドセットに起因するものだ。21世紀のシリコンバレーの消費者向け企業大手の中には、データを利用して、ユーザーのプライバシーやセキュリティをほとんど、あるいはまったく考慮せずに広告を販売することで繁栄した企業もある。私たちは、テクノロジーにおける最も聡明なマインドを持ち合わせている。真に望んだなら、最低限、人々がプライバシーや情報のセキュリティについて心配する必要がないように、状況を変えることができたであろう。

人々が自分のデータをよりコントロールできるような、そしてシリコンバレーがプライバシーとデータセキュリティのイノベーションを探求するようなモデルへと、私たちは移行することができるはずだ。複数の長期的なアプローチと、検討すべき新しいビジネスモデルのポテンシャルがある一方で、短期的にプライバシー重視のマインドセットにアプローチする方法もある。ここで、個人による自身のデータのコントロールが可能な未来に向かって進み始めるための、いくつかの方法に目を向けてみよう。

ワークプレイスは、より安全なアイデンティティテクノロジーの実現を先導すべき場所である

私たちは、テクノロジーが人間、ビジネス、社会に対して安全かつ倫理的に機能する未来を意識的に設計することを通じて、テクノロジーにアプローチする必要がある。

結果を理解せず、あるいは考慮せずにテクノロジーの成長にアプローチすることで、シリコンバレーへの信頼は損なわれてしまった。私たちはもっと適切に対処する必要がある。まずはワークプレイスにおいて、自己主権型アイデンティティを通じて、つまりデジタルアイデンティティのコントロールとオーナーシップを人々に与えるアプローチにより、個人データの保護を強化することから始めるべきだろう。

個人のデジタルアイデンティティのプライバシーとセキュリティを向上させるための出発点をワークプレイスに置くのは、理に適っている。パーソナルコンピューター、インターネット、携帯電話、電子メールなど、これまで広く採用されてきた多くのテクノロジーが、家庭のテクノロジーになる前に使われ始めた場所がワークプレイスであり、その基本原則が継承されている。オフィス生活への復帰の兆しが見えてきた今こそ、ワークプレイスで新しいプラクティスを取り入れる方法を再検討する好機と言えるだろう。

では雇用者はどのようにこれを行うのか。まず、オフィスへの復帰は、非接触型アクセスとデジタルIDの推進力として利用できる。これらは、物理的データおよびデジタルデータの侵害(後者の方が一般的になりつつある)に対する保護手段である。

従業員は、オフィスへの入館時にデジタルIDまたはトークン化されたIDを使用し、これらのIDは携帯電話に安全に格納される。偽造や複製が容易な、個人情報や写真が印刷されたプラスチックカードを使用する必要がなくなり、雇用者と従業員の両方のセキュリティ向上につながる。

非接触型アクセスも最近では大きな飛躍とはいえなくなっている。新型コロナウイルス(COVID-19)のパンデミックにより、デジタル識別に向けた機運が整ったと言えよう。新型コロナの影響で非接触型決済の利用が加速したため、非接触型IDへの移行は多くの人にとってシームレスなものになるだろう。

クリティカルなプライバシー重視のインフラストラクチャに投資する

トークン化された識別は、ユーザーの手に力をもたらす。これはワークプレイスでのアクセスやアイデンティティのためだけでなく、他の多くの、さらに重要な理由からも不可欠なものだ。トークン化されたデジタルIDは暗号化されており、1回しか使用できないため、システムが侵害された場合でも、デジタルIDに含まれるデータを閲覧することはほぼ不可能である。Signalと似ているが、個人のデジタルIDに対応する。

さらに高度なテクノロジーが普及するにつれて、より多くの個人データが生成されるようになることが考えられ、一層多くのデータが脆弱となることが懸念される。私たちが憂慮すべきは、運転免許証、クレジットカード、社会保障番号だけではない。生体認証や医療記録などの個人の健康関連データが、ますますオンライン化され、検証目的でのアクセスの対象となっている。ハッキングやID窃盗が横行している中、暗号化されたデジタルIDの重要性は極めて高い。トークン化されたデジタルIDがなければ、私たちは皆脆弱な状態に置かれてしまう。

私たちは最近、Colonial Pipelineが受けたランサムウェア攻撃で何が起きたかを目の当たりにした。米国のパイプラインシステムの大部分が数週間にわたって機能不全に陥っており、インフラストラクチャのクリティカルな要素が侵害に対して極めて脆弱であることが示された。

究極的には、私たちは人類に役立つテクノロジーを作ることを考える必要があるのであって、その逆ではない。また、私たちが生み出したテクノロジーが、ユーザーだけでなく社会全体にとって有益なものであるかを自問する必要があるだろう。人類により良いサービスを提供するテクノロジーを構築する1つの方法は、ユーザーとその価値を確実に保護することである。さらなるテクノロジーの発展とともに、自己主権型アイデンティティが今後の鍵となるだろう。特に、デジタルウォレットは単なるクレジットカード以上のものになり、安全なデジタルIDの必要性がより重視されるようになると考えられる。最も重要な要素は、個人や企業が自分のデータを管理する必要があるということに他ならない。

近年、プライバシーとセキュリティに対する全般的な意識がより高まっていることを考えると、雇用者側は個人データの脆弱性の脅威を真剣に受け止め、自己主権型アイデンティティの実現に向けて主導的な役割を果たさなければならない。ワークプレイスにおける非接触アクセスとデジタルIDの最初のステップを通して、私たちは、少なくとも私たち自身のデータとアイデンティティという観点から、より安全な未来に向けて少しずつ歩を進めていくことができるであろう。

編集部注:本稿の執筆者Denis Mars(デニス・マーズ)氏は、プライバシーファーストで人間主導のアイデンティティ技術を設計・構築するProxyのCEO兼共同設立者。

関連記事
【コラム】データを重視する企業はAIと同じくらい人にも価値を置くべきである
【コラム】データサイエンティストは恐れずに新しい分野に挑戦せよ
【コラム】アダルト系SNS「OnlyFans」の性的コンテンツ禁止でクリエイターは「権利章典」について語り出す
画像クレジット:John Lund / Getty Images

原文へ

(文:Denis Mars、翻訳:Dragonfly)

テキサス州「密告サイト」の運営元、中絶反対団体Texas Right to Lifeが求職者の履歴書を流出

妊娠中絶反対団体「Texas Right to Life」は、同団体ウェブサイトのバグにより、サイト上の保護されていないディレクトリに保存されていた履歴書に誰でもアクセスできるようになっていたことで、数百人の求職者の個人情報が流出した。

セキュリティ研究者がTechCrunchに語ったところによると、主にWordPressで構築されている同団体のメインウェブサイトでは、ウェブサイト上のファイルストレージが適切に保護されておらず、300人以上の就職希望者の履歴書や、ウェブサイトにアップロードされたその他のファイルの保存に使用されていたとのこと。それらの履歴書には氏名、電話番号、住所、各個人の職歴の詳細などが含まれていた。

このウェブサイトのバグは、流出の詳細がTwitter(ツイッター)に投稿されてからしばらく後の先週末に修正された。同団体のウェブサイトには、流出したファイルは現在掲載されていない。

Texas Right to Lifeの広報担当者であるKimberlyn Schwartz(キンバリー・シュワルツ)氏は、TechCrunchの取材に対し「情報を探し出して広めた」人々(行為者)について「関係者を保護するために行動を起こしている」と述べた。

シュワルツ氏は、セキュリティの不備によって個人情報が流出した人々に組織がその事実を通知する予定があるかどうかについては言及しなかった。

Texas Right to Lifeは先週、テキサス州の住民に、同州の新しい中絶禁止法に違反して中絶を求めている人がいたら報告するよう促す「内部告発」サイトを公開し、怒りを買っていた。この新法では、中絶を希望する人や、受胎後6週間以降の中絶を「ほう助」した人を誰でも訴えることができる。この条項は、中絶手術を行う医師だけでなく、中絶費用を支援する人、友人をクリニックに連れて行ったりするような関係者も対象になると広く解釈されている。

抗議の声が上がるのに長くはかからず、この「内部告発」サイトには、偽の情報やミーム、シュレックのポルノなどが殺到した。9月2日にサイトは一時的に停止したが、これはある活動家が同ウェブサイトのフォームに偽の情報を事前入力してあるiOSショートカットを公開したのと同じ日だった。

しかしその週末、ウェブサイトをホスティングしていたGoDaddyはTexas Right to Lifeに対して、このサイトが利用規約に違反していると指摘し、24時間以内に別のホストを探すようにと指示した。その結果、極右ソーシャルネットワーク「Gab」などの物議を醸したサイトを支援しているウェブホストEpikを介して、同団体は一時的にサイトを復旧させることができた。しかし、それも長くは続かなかった。

米国時間9月6日の時点で「内部告発者(whistleblower)」ウェブサイトは、Texas Right to Lifeのメインサイトに転送されるようになっている。

関連記事
極右お気に入りのレジストラが「検閲に強い」サーバーを構築中
極右ソーシャルネットワークGab、GoDaddyにドメイン登録を抹消されサービス停止

画像クレジット:Sergio Flores / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Aya Nakazato)

米SECが証券3社に制裁金、社員クラウドメールのハッキングで顧客情報が流出した疑いで

米国証券取引委員会(SEC)は複数の証券会社に対し、ハッカーがそれら企業の従業員の電子メールアカウントを乗っ取った後、数千人の顧客や取引先の個人を特定できる機密情報を漏洩させたとして、合計75万ドル(約8230万円)の制裁金を科した。

SECから制裁を受けたのは、3社に属する計8事業体。Cetera Financial Group(Advisor Networks、Investment Services、Financial Specialists、Advisors、Investment Advisers部門)、Cambridge Investment Research(Investment Research、Investment Research Advisors部門)、そしてKMS Financial Servicesがこれに含まれる。

SECはプレスリリースの中で、サイバーセキュリティポリシーおよび対策の不備により、クラウドベースの電子メールアカウントへのハッカーによる不正アクセスを許し、各企業の数千人の顧客および取引先の個人情報を流出させたとして、これらの企業に制裁を科したことを発表した。

SECによるとCetera(セテラ)の場合、60人以上の従業員のクラウドベースの電子メールアカウントが3年以上にわたり不正な第三者によってアクセスされ、少なくとも4388人の顧客の個人情報が流出したという。

この命令では、そのうちどのアカウントもCeteraのポリシーで定められた保護対策を備えていなかったとしている。またSECは、Ceteraの2つの事業体が「事件発覚後、実際よりもはるかに早く通知が出されたかのような誤解を招く表現」を含む情報漏洩通知を顧客に送付したとして、Ceteraを非難した。

SECのCambridge(ケンブリッジ)に対する命令では、少なくとも2177人の同社の顧客や取引先の個人情報が流出したのは、同社のサイバーセキュリティ対策が甘かった結果であると結論づけている。

「Cambridgeは2018年1月に最初のメールアカウント乗っ取りを発見したものの、2021年まで販売担当者たちのクラウドベースメールアカウントに対する会社全体の強化されたセキュリティ対策を採用して実装することができず、その結果、さらなる顧客やクライアントの記録や情報が露出され、潜在的に漏洩されることになった」とSECは述べている。

KMSに対する命令も同様で、SECの命令によると、同社が会社全体でセキュリティ対策強化を要求する書面による方針・対策を2020年5月まで採用しなかった結果、約5000人の顧客とクライアントのデータが流出したとしている。

SEC執行部サイバーユニットのチーフであるKristina Littman(クリスティーナ・リトマ)氏は次のように述べた。「投資アドバイザーおよびブローカーディーラーは、顧客情報の保護に関する義務を果たさなければなりません。強化されたセキュリティ対策を要求するポリシーを書いても、その要件が実装されなかったり、部分的にしか実装されていなかったら、特に既知の攻撃に直面した場合には十分ではありません」。

​​すべての当事者は、制裁金の支払いに同意するとともに、SEC調査結果の認否をせずに行政命令を受け入れた。この和解の一環として、Ceteraは30万ドル(約3300万円)、Cambridgeは25万ドル(約2740万円)、KMSは20万ドル(約2200万円)の制裁金を支払う。

CambridgeはTechCrunchに対し、規制上の問題に関するコメントはしないが、顧客の口座が完全に保護されていることを保証するために、包括的な情報セキュリティグループと対策を保って維持していると述べている。CeteraとKMSからは回答を得られていない。

今回のSECによる措置は、ロンドンに本社を置く出版・教育大手のPearson(ピアソン・エデュケーション)に対し、2018年に発生した同社のデータ漏洩について投資家に誤解を与えたとして、SECが100万ドル(約1億1000万円)の制裁金支払いを命じたわずか数週間後に行われた。

画像クレジット:BRENDAN SMIALOWSKI/AFP / Getty Images

原文へ

(文:Carly Page、翻訳:Aya Nakazato)

Palantirの不具合により一部FBI職員が暗号ハッカーの個人データに不正アクセスしていた疑い

PayPal(ペイパル)の創業者であるPeter Thiel(ピーター・ティール)氏が設立したAI企業Palantir(パランティア)は、CIAや米移民・関税執行局(ICE)などを顧客に持っているが、宜しくない理由で再び注目を浴びている。新たな報道によると、FBIが使用している同社の極秘ソフトウェアプログラムに不具合があり、権限を持たないスタッフが1年以上にわたって個人データにアクセスできたとのこと。ニューヨーク・ポスト紙によると、この不具合は、ハッカーとして告発されたVirgil Griffith(ヴァージル・グリフィス)容疑者に対するマンハッタン連邦裁判所の裁判で、検察官が書簡の中で明らかにしたもの。Palantirは声明の中でこの主張を否定し、障害はFBIがソフトウェアを誤って使用したことが原因だと述べている。

グリフィス容疑者は、暗号資産やブロックチェーン技術が米国の制裁を逃れるのに役立つという情報を北朝鮮に提供した疑いで、2019年に逮捕された。問題となっている事件は、当局が2020年3月に連邦政府の捜査令状によって入手した、ハッカーである容疑者のソーシャルメディアデータにまつわるものだ。書簡によると、Twitter(ツイッター)とFacebook(フェイスブック)の情報は、デフォルト設定でPalantirのプログラムにアップロードされており、事実上、権限を持たないFBI職員がアクセスできるようになっていた。

2020年5月から2021年8月までの間に、3人のアナリストと1人の捜査官が4回、この資料にアクセスしていた。書簡によれば、グリフィス容疑者の事件を担当するFBI捜査官は、2021年8月初めに同僚からこの問題を指摘されたという。情報にアクセスしたスタッフは、自分たちの捜査に使った覚えはないと検察官に語ったという。

書簡には「FBIのアナリストが、別の捜査を行う過程で、令状執行報告にアクセスするプラットフォームでの検索により、被告人とその別の捜査対象者との間のコミュニケーションを特定した」と記されている。

Palantirは、この問題から距離を置こうとしている。「当社のソフトウェアに不具合はありませんでした」とニューヨークポスト紙に声明を出し「顧客」が「令状執行報告を保護するために確立された厳格なプロトコル」に従わなかったためだ、と付け加えた。

成長を続けているPalantirにとって、ソフトウェアの欠陥による大きなPR危機は最も避けたいことだ。2020年秋に株式を公開して以来、同社の収益は急増しているが、運営上の損失も増加している。Palantirの顧客は現在、政府機関、IBMなどの重鎮テック企業、さらには鉱業グループのRio Tinto(リオ・ティント)にまで及んでいる。さらに同社は、商業宇宙企業と協力して237個の衛星からなるメタコンステレーションを管理している。

編集部注:本稿の初出はEngadget。著者Saqib Shah(サキブ・シャー)氏は、Engadgetの寄稿ライター。

関連記事
データ分析企業のPalantirとワークマネジメントツール開発のAsanaの株価はNYSE上場初日に急騰
TechCrunchの報道後、Palantirが上場申請書類から「非民主的」な条項を即刻削除
リークしたS-1書類によるとPalantirは政府の暗号化キー要求と戦う構え
画像クレジット:TechCrunch

原文へ

(文:Saqib Shah、翻訳:Aya Nakazato)

【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

先にApple(アップル)は、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。この新機能はまだリリースされていないが、2021年後半にはダウンロード配信される予定だ。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

この記事では、アップルのプライバシー担当責任者Erik Neuenschwander(エリック・ノイエンシュバンダー)氏に、アップル製端末に搭載されるこれらの新機能について話を聞いた。同氏は、この機能についてユーザーが抱いている多くの懸念について丁寧に回答してくれた。この機能の導入後に発生する戦術的、戦略的な問題についても詳しい話を聞くことができた。

また、密接に関連しているが、同じような目的を持つ完全に独立したシステム群であるこれらの機能の導入についても話を聞いた。アップルは今回3つの機能を発表しているが、これらの機能はその守備範囲においても、一般ユーザーの間でも、混同されることが多いようだ。

iCloud写真でのCSAM検出NeuralHashと呼ばれる検出システムは、全米行方不明・被搾取児童センターやその他の組織のIDと照合可能なIDを作成し、iCloud写真ライブラリにある既知のCSAMコンテンツを検出する。大半のクラウドプロバイダーでもユーザーライブラリをスキャンしてこうした情報を取得しているが、アップルのシステムは、クラウド上ではなく端末上でマッチングを行う点が異なる。

メッセージアプリの通信の安全性親がiCloudファミリーアカウントで未成年向けにオンにできる機能。画像を表示しようとする子どもたちに、その画像には露骨な性的表現が検出されていることを警告し、親にも同じ警告がなされることを通知する。

Siriと検索への介入:Siriや検索を介して児童性的虐待画像関連の表現を検索しようとするユーザーに介入して、そのユーザーに介入を通知し、リソースを紹介する。

これらの機能の詳細については、当社の記事(上記にリンクがある)またはアップルが先に投稿した新しいFAQを参照いただきたい。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

筆者は、個人的な体験から、上記の最初の2つのシステムの違いを理解していない、あるいは、自分たちの子どもの無害な写真でも何らかのフィルターに引っかかって厳しい調査を受ける可能性があると考えている人たちがいることを知っている。ただでさえ複雑な内容の発表に混乱を生じさせる結果となっているようだ。この2つのシステムはもちろん、組織がすでに虐待画像と認識しているコンテンツと完全に一致するコンテンツを検索するCSAM検出システムとは完全に別個のものである。メッセージアプリの通信の安全性では、すべての処理が端末上で実行され、外部には一切報告されない。単に、端末を使っている子どもに、性的に露骨な画像を表示しようとしている、またはその可能性があることを、その場で警告するだけである。この機能は親によるオプトイン方式となっており、有効化されていることを親も子どもも意識する必要はない。

アップルのメッセージアプリの通信の安全性機能(画像クレジット:Apple)

また、端末上で写真をハッシュ化しデータベースを使って比較対照できるIDを作成する方法についても疑問の声が上がっている。NeuralHashは、写真の高速検索など、他の種類の機能にも使用できるテクノロジーだが、iPhone上では今のところCSAMの検出以外には使用されていない。iCloud写真が無効になっている場合、この機能は、まったく動作しない。これにより、この機能をオプトアウトできるようにしているのだが、iCloud写真がアップルのオペレーティングシステムに統合されていることの利便性を考えると、オプトアウトすることで失うものが非常に大きいことは明らかだ。

エリック・ノイエンシュバンダー氏へのインタビューでは、これらの新機能について考えられるすべての質問に答えているわけではないが、アップルの上級プライバシー担当者による公開の議論としては、最も詳細な内容になっている。アップルがこれらの新機能の内容を公開しており、継続的にFAQを更新し、記者会見を開いていることから、同社はこのソリューションに明らかに自信を持っているように思われる。

この機能については、さまざまな懸念や反対意見があるものの、アップルは、必要なだけ時間をかけてすべての人たちに納得してもらうことに尽力しているようだ。

このインタビューはわかりやすくするために編集されている。

ーーー

TC:大半の他のクラウドプロバイダーは、すでにCSAM画像のスキャンをかなりの期間実施していますが、アップルはまだ行っていません。現在、サーバー上でCSAM画像の検出を行うことを強制する規制はありませんが、EUやその他の国では規制による混乱が起こっています。今回の新機能はこうした動きを受けてのことでしょうか。なぜ、今なのですか。

なぜ今リリースするのかという点については、児童の虐待からの強力な保護とユーザーのプライバシーのバランスをとるテクノロジーが実現したということに尽きます。アップルはこの分野にかなりの期間注目してきました。これには、クラウドサービス上のユーザーのライブラリ全体をスキャンする最先端の技術が含まれますが、ご指摘のとおり、アップルはこうした処理、つまりユーザーのiCloud写真を走査するという処理を行ったことがありません。今回の新システムもそうした処理は一切行いません。つまり、端末上のデータを走査することもなければ、iCloud写真に格納されているすべての写真を走査することもありません。では、何をやっているのかというと、既知のCSAM画像が蓄積し始めているアカウントを特定する新しい機能を提供しているのです。

ということは、この新しいCSAM検出テクノロジーが開発されたことが重要な転機となって、このタイミングで今回の機能をリリースすることになったというわけですね。しかも、アップル自身も満足のいく形で、なおかつユーザーにとっても「良い」方法でこの機能を実現できると考えていると。

そのとおりです。この機能には、同じくらい重要な2つの目的があります。1つはプラットフォーム上での児童の安全性を向上させること、もう1つはユーザーのプライバシーを保護することです。上記の3つの機能はいずれも、上記の2つの目的を実現するテクノロジーを組み合わせることで実現されています。

メッセージアプリの通信の安全性機能とiCloud写真でのCSAM検出機能を同時に発表したために、両者の機能と目的について混乱が生じているようです。これらを同時に発表したことは良かったのでしょうか。また、この2つが別個のシステムなら、なぜ同時に発表されたのでしょうか。

確かにこれらは2つの別個のシステムですが、Siriと検索における当社による介入の増加に伴って開発されたものです。アップルのiCloud写真サービスの中の既知のCSAMのコレクションが格納されている場所を特定することも重要ですが、その上流部分を特定することも重要です。上流部分もすでにひどい状況になっています。CSAMが検出されるということは、すでにレポートプロセスの処理対象になったことのある既知のCSAMが存在しており、それが広範囲に共有されて子どもたちが繰り返し犠牲になっているということです。そもそも最初にそうした画像が作成される原因となった虐待があり、そうした画像の作成者がいたはずです。ですから、そうした画像を検出することも重要ですが、人々が問題のある有害な領域に入ろうとするときに、あるいは、虐待が発生し得る状況に子どもたちを仕向ける虐待者がすでに存在している場合に、早期に介入することも重要です。メッセージアプリの通信の安全性と、Siriおよび検索に対する当社の介入は、まさにその部分に対する対応策です。つまり、アップルはCSAMに至るまでのサイクルを遮断しようと試みているのです。最終的にはCSAMがアップルのシステムによって検出されることになります。

iCloud写真システムにおけるアップルのCSAM検出プロセス(画像クレジット:Apple)

世界中の政府と政府機関は、何らかのエンド・ツー・エンドまたは部分的な暗号化を組織内で使用している大規模組織に常に圧力をかけています。政府機関は、バックドアや暗号解読手段に賛成する理論的根拠として、CSAMやテロにつながる可能性のある活動を抑えることを挙げることがよくあります。今回の新機能および端末上でのハッシュ照合を実現する機能をリリースするのは、それらの要求を回避し、ユーザーのプライバシーを犠牲にすることなく、CSAM活動を追跡し防止するために必要な情報を提供できることを示すための取り組みでしょうか。

最初に、端末上での照合についてですが、このシステムはマッチング結果を(通常マッチングと考えられているような方法で)端末または(端末が作成するバウチャーを考えている場合でも)アップルに公開しないように設計されている、という点を申し添えておきます。アップルは個々の安全バウチャーを処理することはできません。このシステムは、あるアカウントに、違法な既知のCSAM画像に関連付けられたバウチャーのコレクションが蓄積した時点で初めて、そのユーザーのアカウントについて調査できるように設定されています。

なぜそんなことをするのかというと、ご指摘のとおり、これはユーザーのプライバシーを保護しながら検出機能を実現するための仕組みだからです。我々の動機となっているのは、デジタルエコシステム全体で児童の安全性を高めるためにもっと多くのことを行う必要があるという事実です。上記の3つの機能はすべて、その方向への前向きな一歩になると思っています。同時に、アップルが、違法行為に関わっていない人のプライバシーを侵害することも一切ありません。

端末上のコンテンツのスキャンとマッチングを可能にするフレームワークを作成するというのは、法的執行機関の外部のフレームワークを作るということでしょうか。つまり「アップルはリストを渡します。ユーザーのデータをすべて検索するようなことはしたくありませんが、ユーザーに照合して欲しいコンテンツのリストを渡すことはできます」ということでしょうか。そのリストをこのCSAM画像コンテンツと照合できるなら、探しているCSAM画像以外のコンテンツとも照合できますよね。それは、アップルの現在の考え方、つまり「アップルはユーザーの端末を復号化できない。端末は暗号化されていて、我々はキーを持っていないのだから」という立場を損なうことになりませんか。

その立場は一切変わりません。端末は依然として暗号化されていますし、アップルは復号化キーも持っていません。今回の新システムは端末上のデータに対して機能するように設計されています。アップルが作成したのは端末側コンポーネントです。プライバシーを向上させる端末側コンポーネントも含まれています。サーバー上のユーザーデータをスキャンして評価するやり方もあったわけですが、そのほうが(ユーザーの承認なしに)データを自由に変更できるし、ユーザーのプライバシーも低いのです。

今回のシステムは、端末側コンポーネントとサーバー側コンポーネントで構成されています。端末側コンポーネントは、バウチャーを作成するだけで何も認識しません。サーバー側コンポーネントには、バウチャーと、アップルのサービスに入ってくるデータが送信され、当該アカウントについて、違法なCSAM画像のコレクションが存在するかどうか調査されます。つまり、サービス機能です。話が複雑になりますが、このサービスの機能に、バウチャーが端末上に作成される部分が含まれているのですが、何度も申し上げているとおり、端末上のコンテンツの内容が認識されることは一切ありません。バウチャーを生成することで、サーバー上ですべてのユーザーのコンテンツを処理する必要がなくなりました。もちろん、アップルはiCloud写真の内容を処理したことも一切ありません。そのようなシステムは、プライバシー保護の観点から、より問題を起こしやすいと思います。ユーザーに気づかれずにシステムを本来の設計意図とは異なるものに変更できてしまうからです。

このシステムに関して大きな疑問が1つあります。アップルは、CSAM画像以外のコンテンツをデータベースに追加して端末上でチェックするよう政府やその他の機関から依頼されたら拒否すると明言しました。アップルには、ある国で事業展開したければ、その国の法律に最高レベルで準拠しなければならなかった例が過去にあります。中国の件が良い例です。政府からシステムの意図的改ざんを要求または依頼されても、アップルは、そうした干渉を一切拒否するという約束は本当に信頼できるのでしょうか。

まず、このシステムは米国内でのみ、iCloudアカウントのみを対象としてリリースされます。ご質問では国全般または米国以外の国からの要請を想定されているようです。少なくとも米国の法律では、こうした要請を政府が行うことは許されていないと思われます。

システムを改ざんする試みについてですが、このシステムには、多くの保護機能が組み込まれており、児童虐待画像を保持している個人を(政府が)特定するにはあまり役立たないようになっています。ハッシュリストはオペレーティングシステムに組み込まれるのですが、アップルは1つのグローバルなオペレーティングシステムのみを所有しており、個々のユーザー向けにアップデートを配信することはできません。ですから、ハッシュリストはシステムを有効にしているすべてのユーザーに共有されます。第2に、このシステムでは、(バウチャーの中身を見るには)画像のしきい値を超える必要があるため、個人の端末または特定のグループの端末から単一の画像を探し出すことはできません。というのは、システムはアップルに、サービスに保存されている特定の画像について一切情報を提供しないからです。第3に、このシステムには手動によるレビュー段階が組み込まれています。つまり、あるアカウントに、違法なCSAM画像のコレクションが保存されていることを示すフラグが立つと、外部の機関に報告する前に、アップルのチームがその画像が確かに違法なCSAM画像と一致していることを確認するようになっています。ですから、ご指摘のような状況(アップルが政府の要請に応じてシステムを改ざんするような事態)が発生するには、例えばアップルに内部プロセスを変更させて違法ではない(既知のCSAM以外の)コンテンツも報告させるようにするなど、本当に多くの作業を行う必要があります。それに、アップルは、そうした要請を行うことができる基盤が米国内に存在するとは考えていません。最後に付け加えておきますが、ユーザーはこの機能を有効にするかどうかを選択できます。この種の機能が気に入らなければ、iCloud写真を使わない選択をすればよいだけです。iCloud写真が無効になっていれば、このシステムは一切機能しません。

iCloud写真が無効になっていればこのシステムは機能しないと、確かにFAQでも明言されています。この点について具体的にお聞きしますが、iCloud写真が無効になっている場合でも、このシステムは端末上で写真のハッシュの作成を継続するのでしょうか。それとも、無効にした時点で完全に非アクティブな状態になるのでしょうか。

ユーザーがiCloud写真を使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAMの検出では、ニューラルハッシュがオペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較対照されます。iCloud写真を使用していない場合、安全バウチャーの作成やバウチャーのiCloud写真へのアップロードなどの追加部分は、一切実行されません。

アップルは近年、端末上での処理によりユーザーのプライバシーが保護されるという事実に注目しています。今思い浮かぶ過去のすべての事例において、これは真実です。確かに、例えば写真をスキャンしてそのコンテンツを特定し、検索できるようにするといった処理は、ローカルの端末上で実行し、サーバーには送信しないで欲しいと思います。しかし、この機能の場合、外部の使用ケースがなければ個人的な使用をスキャンするのではなくローカルの端末をスキャンするという点で、ある種の抗効果が発生し、ユーザーの気持ちに「信頼性の低下」というシナリオが生まれる可能性があるように思います。それに加えて、他のすべてのクラウドプロバイダーはサーバー上をスキャンすることを考慮すると、この実装が他のプロバイダーとは異なるため、ユーザーの信頼性が低下するのではなく向上するのはなぜか、という疑問が生じるのですが。

アップルの方法は、業界の標準的な方法と比較して、高い水準にあると思います。すべてのユーザーの写真を処理するサーバー側のアルゴリズムでは、どのようなものであれ、データ漏洩のリスクが高くなり、当然、ユーザーのライブラリ上で行う処理という点で透過性も低くなります。これをオペレーティングシステムに組み込むことで、オペレーティングシステムの完全性によって他の多くの機能にもたらされているのと同じ特性を実現できます。すべてのユーザーが同じ1つのグローバルなオペレーティングシステムをダウンロードおよびインストールするため、個々のユーザー向けに特定の処理を行うのはより難しくなります。サーバー側ではこれは実に簡単にできます。いくつかのプロパティを用意しそれを端末に組み込んで、この機能が有効になっているすべてのユーザーでプロパティ設定を統一できることで、強力なプライバシープロパティが得られます。

第2に、オンデバイステクノロジーの使用によってプライバシーが保護されるというご指摘ですが、今回のケースでは、まさにおっしゃるとおりです。ですから、ユーザーのライブラリをプライバシー性の低いサーバー上で処理する必要がある場合の代替策になります。

このシステムについて言えるのは、児童性的虐待画像という違法行為に関わっていないすべてのユーザーのプライバシーが侵害されることは一切なく、アップルがユーザーのクラウドライブラリに関して追加の情報を得ることも一切ないということです。この機能を実行した結果としてユーザーのiCloud ライブラリが処理されることはありません。その代わりに、アップルは暗号的に安全なバウチャーを作成できます。このバウチャーには数学的プロパティが設定されています。アップルがコンテツを復号化したり画像やユーザーに関する情報を取得できるのは、そのユーザーが、CSAMハッシュと呼ばれる違法な画像ハッシュに一致する写真を収集している場合だけです。一方、クラウド処理スキャンサービスでは、まったく状況が異なります。すべての画像を復号化された形式でくまなく処理し、ルーチンを実行して誰が何を知っているのかを決定するからです。この時点で、ユーザーの画像に関して必要なことは何でも確定できます。それに対して、アップルのシステムでは、NCMECおよび他の児童虐待保護組織から直接入手した既知のCSAM画像ハッシュのセットに一致することが判明した画像について知ることしかできません。

このCSAM検出機能は、端末が物理的にセキュリティ侵害されたときにも全体として機能しますか。何者かが端末を手元で操作できれば、暗号がローカルに迂回されることもあります。これを防ぐための保護レイヤーはありますか。

これは難しく、犠牲が大きい問題ですが、非常に稀なケースであることを強調しておきたいと思います。この問題はほとんどのユーザーにとって日常的な関心事ではありませんが、アップルはこの問題を真剣に受け止めています。端末上のデータの保護は我々にとって最重要事項だからです。では、誰かの端末が攻撃されたという仮説の下で説明してみます。その攻撃は極めて強力なので、攻撃者が対象ユーザーに対して行えることはたくさんあります。攻撃者にはアクセス可能なユーザーのデータが大量にあります。誰かの端末のセキュリティを侵害するという極めて難しい行為をやってのけた攻撃者にとって最も重要なことが、アカウントの手動レビューを起動させることだという考え方は合理的ではありません。

というのは、思い出して欲しいのですが、しきい値が満たされていくつかのバウチャーがアップルによって復号化されても、次の段階で手動レビューによって、そのアカウントをNCMECに報告するべきかどうかを決定するわけですが、我々は合法的な高価値レポートであるケースでのみこうした報告を行うべきだと考えています。我々はそのようにシステムを設計していますが、ご指摘のような攻撃シナリオを考えると、攻撃者にとってあまり魅力的な結果にはならないと思います。

画像のしきい値を超えた場合のみ報告されるのはなぜですか。CSAM画像が1つ見つかれば十分ではないでしょうか。

NCMECに対してアップルが報告するレポートは高価値でアクション可能なものにしたいと考えています。また、すべてのシステムについて共通しているのは、その画像が一致するかどうかにある程度の不確かさが組み込まれるという点です。しきい値を設定することで、誤報告によってレビューに至る確率は年間で1兆アカウントに1つになります。ですから、既知のCSAMのコレクションを保持しているユーザー以外の写真ライブラリをスキャンすることに興味がないという考え方に反することになりますが、しきい値を設定することで、レビューしているアカウントをNCMECに報告したとき、法執行機関は効果的に調査、起訴、有罪判決まで持っていくことができると確信できます。

関連記事
電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ
アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに
アップルがSiri改善のためフィードバック収集アプリ「Siri Speech Study」をひそかに提供開始
また批判を浴びるアップルの児童虐待検出技術
画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Matthew Panzarino、翻訳:Dragonfly)

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

AerialPerspective Works via Getty Images

中国が、ユーザーデータ保護法(PIPL)案を可決したと新華社が伝えています。PIPLは、企業がユーザーデータをどのように収集、処理、保護するかについての包括的なルールを定めるもので、欧州のGDPR(一般データ保護規則)に相当する法律です。

この法律では、データの最小化(データ収集を特定の目的に必要な情報のみに限定すること)が規定されています。また、個人情報の使用方法をユーザーがコントロールできるようにすることも義務付けられており、例えばユーザーにはターゲティング広告を拒否する選択肢などが得られるとのこと。Reutersによると、PIPLでは「企業は明確かつ合理的な目的のもとで個人情報を取り扱わなければならず、取得する情報は目的のために必要最小限な範囲に限定される」とのこと。

また、この法律には第三国へのデータ転送に関しても規定があり、GDPRに定められるデータ保護責任者 (DPO) 的ポストを設置して、プライバシー保護の堅牢性について定期的な監査が行われるとされます。

中国ではPIPLの他にもデータセキュリティ関連の法律(DSL)が可決され9月1日から施行されることになっており、これらは企業が持つ経済的価値と「国家安全保障との関連性」に応じてデータを管理するための明確な枠組みを定めようという動きで、この点においてPIPLは欧州市民の情報を扱うあらゆる企業に適用されるGDPRとは異なっているようです。

中国がこうした法律を用意するのは、巨大化してきた国内テクノロジー企業への規制を強めるためと考えられます。中国最大のEC企業アリババは今年4月に、その支配的立場を乱用した廉で、182億2,800万元(2916億4800万円:当時)の行政処罰を科せられました。またネット配車サービスのDiDiも7月、ニューヨーク証券取引所への新規株式公開(IPO)をおこなった直後に、中国サイバースペース管理局(CAC)がユーザーのプライバシーを侵害した疑いがあるとして調査に入ったことが伝えられ、その出足を大きくくじかれています。また8月7日にはWeChatの”Youth Mode”が児童保護法に違反しているとして、テンセントが提訴されています。

PIPLは2021年11月1日に発効するため、企業がこの法律に対応するための猶予は2か月ほどしか余裕がありません。

(Source:Xinhua。Via CNBCEngadget日本版より転載)

中国で個人情報保護法が可決

中国で個人情報の保護を義務付ける法案が可決されたと、国営メディアの新華社が報じた。

この法律は「個人情報保護法(PIPL)」と呼ばれ、11月1日に施行される予定だ。

2020年提出されたこの法案は、ユーザー情報の収集に法的な制限を加えることで、商業分野における無節操なデータ収集を厳しく取り締まろうとする中国の共産党指導者の意図を示している。

関連記事:中国のインターネット規制当局は強制的なユーザーデータの収集を標的に

新華社によると、この新法はアプリメーカーに対し、個人の情報をどのように使用するか、あるいは使用しないか、そして使用する場合は個人の特性に基づいてマーケティングを行うか、あるいはマーケティングの対象としないか、といったことについての選択肢を、ユーザーに提供するよう求める。

また、この法律は、生体認証、医療・健康データ、財務情報、位置情報など、センシティブな種類のデータを取り扱う場合、個人から同意を得ることをデータ処理者に要求する。

ユーザーデータを違法に処理したアプリは、サービスの停止または終了を強いられるおそれがある。

中国でビジネスを行う欧米企業が、市民の個人データの処理をともなうビジネスを行う場合、この法律の域外適用に対処しなければならない。つまり、外国企業は、中国国内に代表者を配置し、中国の監督機関に報告しなければならないなどの規制上の要件に直面することになる。

表面上は、中国の新しいデータ保護制度の中核となる要素は、欧州連合(EU)の法律に長年にわたり組み込まれてきた要件とよく似ている。EUの一般データ保護規則(GDPR)では、個人データに深く関係する包括的な権利を市民に提供している。例えば、健康に関するデータなど、EU法が「特別なカテゴリーのデータ」と呼ぶ個人情報を処理する際には、同意に高いハードルを設けている(ただし、どのような個人情報が取り扱いに最も細心の注意を要するとみなされるかについては、各国のデータ法によって違いがある)。

また、GDPRの適用範囲も域外に及ぶ。

しかし、中国のデータ保護法が施行される状況の背景は、当然ながら欧州とは大きく異なる。特に、中国国家が膨大なデータ収集活動を利用して自国民の行動を監視し、取り締まっていることを考えるとなおさらだ。

PIPLが中国政府の各部門による市民のデータ収集に何らかの制限を課すとしても(この法律の草案では、国家機関も対象となっていた)、それはほとんど上辺だけの取り繕いに過ぎない可能性がある。中国共産党(CCP)の国家安全保障組織によるデータ収集を継続させ、政府に対する中央集権的な統制をさらに強化するためであると考えられるからだ。

また、中国共産党がこの新しいデータ保護規則を利用して、どのように国内のハイテク部門の力をさらに規制しようとする(「飼いならす」と言ってもいい)かも注目される。

中国共産党は、規制の変更をTencent(テンセント)のような大手企業に対する影響力として利用するなど、さまざまな方法を使ってこの分野を取り締まってきた。例えば今月初め、北京市はTencentのメッセージングアプリ「WeChat(ウィーチャット)」の青少年向けモードが、未成年者保護法に準拠していないと主張し、同社に対し民事訴訟を起こした

PIPLは、中国政府に国内のハイテク企業に制約を加えるための攻撃材料を豊富に提供することになる。

また、欧米の大手企業では当たり前のように行われているが、中国国内の企業が行うと摩擦が大きくなりそうなデータマイニングの実行に対しても、一刻の猶予も与えず攻撃している。

Reuters (ロイター)によると、全国人民代表大会(全人代)は同日、この法律の成立を記念して、国営メディア「人民法院報」に論説を掲載した。この論説では、この法律を称賛するとともに、レコメンドエンジンのような「パーソナライズされた意思決定」のためのアルゴリズムを使用する事業者は、まずユーザーの同意を得るよう求めている。

論説には次のように書かれている。「パーソナライズはユーザーの選択の結果であり、真のパーソナライズされたレコメンデーションは、強制することなくユーザーの選択の自由を確保しなければならない。したがって、ユーザーにはパーソナライズされたレコメンデーション機能を利用しない権利が与えられなければならない」。

中国以外の国でも、アルゴリズムによるターゲティングに対する懸念は、もちろん高まっている。

欧州では、議員や規制当局が行動ターゲティング広告の規制強化を求めている。欧州委員会は、デジタル市場法(Digital Markets Act)とデジタルサービス法(Digital Services Act)という、この分野を規制する権限を拡大する新たなデジタル規制案を2020年12月に提出し、現在協議を行っている過程にある。

インターネットの規制は、明らかに新しい地政学的な戦いの場であり、各地域はそれぞれの経済的、政治的、社会的な目標に合ったデータフローの未来を形作るために争っている。

関連記事:EUの主管プライバシー規制当局が行動監視に基づくターゲティング広告の禁止を求める
画像クレジット:George / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Hirokazu Kusakabe)

グーグルが検索やYouTubeなどの自社プラットフォームにおける未成年者保護を強化

Instagramがアプリを利用する未成年者の保護の強化を展開して数週間経過し、Google(グーグル)もGoogle検索、YouTube、YouTube Kids、Google Assistantなどのサービスにも同様の措置を講じることとなった。同社は米国時間8月10日、オンライン上の若年層を非公開にして保護された状態を維持できるようにサービスおよびポリシーを変更すると発表。広告ターゲットを制限する変更も行う。

関連記事:Instagramが10代ユーザーのアカウントをデフォルトで非公開に、広告や望まない大人からの接触を制限

Googleのサービスは1つのアプリに限定されるものではないので、Instagramの発表よりもさらに広範囲で、同社のサービス全体にわたる変更になる。

米国議会は、Googleをはじめとするハイテク企業に対し、企業のサービスが未成年者に与える悪影響を排除するよう圧力をかけてきたが、Googleは、法律で要請される以上の変更を行うという。

Googleの広報担当者は、TechCrunchの取材に対し次のように話す。「今後の規制に対応するアップデートもありますが、私たちはGoogleとYouTubeを利用するティーンエイジャーを保護するために、法律が要請する以上のことを行ってきました」「これらの変更の多くは、現在および今後発生し得る単体の規制を超えるものです。私たちは、世界中の子どもたちやティーンエイジャーに向けて、一貫性のあるエクスペリエンスとユーザーコントロールを提供する方法を検討しています」。

つまり、Googleは、現状に対応するだけでなく、業界の将来を考慮したアップデートを行うというのだ。

YouTubeでは、13~17歳のユーザーを対象に、デフォルトのアップロード設定を、最も限定的なものに「徐々に」変更していくという。これにより、動画の公開範囲は、一般ユーザーではなく、ユーザー本人と、本人が直接共有する相手に限定されることになる。アップロード設定を「公開」に変更することは可能だが、その際には明確かつはっきりとした意思を持つ選択が必要だ。Googleはこの場合、YouTubeに、自分のビデオの公開範囲を示すリマインダーを設置するとしている。なお、今回の変更はYouTubeの新規アップロードにのみ適用され、現在公開されている動画を遡って非公開にする予定はないとのこと。

また、YouTubeは、13~17歳のすべてのユーザーに対して「休憩」と「おやすみ」のリマインダーをデフォルトで有効にし、自動再生を無効にする。繰り返しになるが、これらの変更は、デフォルトの設定に関するものであり、ユーザーはDigital Wellbeing(デジタルの健全な利用)機能を無効にすることができる。

YouTubeの子ども向けプラットフォーム「YouTube Kids」には、自動再生オプションが追加される。このオプションはデフォルトでは無効になっており、子どもに自動再生機能を使わせるかどうかは保護者の判断になる。この変更は、子どもの安全支援団体や一部の国会議員による、アルゴリズムを使った機能に問題があるという指摘に対応し、選択を保護者の判断に任せるというものだ。保護者はデフォルトの選択をロックすることもできるようになる。

YouTube Kidsからは「過度に商業的なコンテンツ」も削除される。これは長らく「YouTubeは子どもたちによる消費(正確には、親にお金を使わせてくれと頼むこと)を助長している」と主張してきた消費者保護団体や子どもの専門家からの圧力が高まったことを受けた措置である。

許容できるコンテンツと「過度に商業的な」コンテンツの線引きは明確ではないが、例えば人気のある「開封の儀」動画のような、商品のパッケージに焦点を当てた動画は削除するとしている。この変更は、YouTubeで子ども向けの動画を制作している大手クリエーターの中でも、非常に高額な収入を得ているRyan’s Toy Review(ライアンズ・ワールドのおもちゃレビュー)のようなクリエーターに影響を与える可能性がある。同社は商品パッケージの他にも「視聴者に商品の購入を煽る」コンテンツや「商品の過剰な収集や消費に焦点を当てたコンテンツ」の削除も検討するとしている。

画像クレジット:YouTube

YouTube以外でも、未成年者を対象とする変更が展開される。

今後数週間のうちに、Googleは、18歳未満のユーザーまたは保護者が、Google画像検索の検索結果から自分の画像の削除を要請できるようにする新しいポリシーを導入する。これは、欧州ですでに実施されている「忘れられる権利」のプライバシーポリシーを拡張するもので、子どもとティーンエイジャーを守る新しいサービスと制御方法が全世界で展開されることになる。

また、18歳未満のユーザーアカウントについても、さまざまな調整を行う。

YouTubeの変更に加えて、Googleファミリーリンクで管理している13歳未満のすべてのユーザーに対してセーフサーチフィルタリングをデフォルトで有効にして、アダルトコンテンツへのアクセスを制限する。また、18歳未満のすべてのユーザーに対してセーフサーチを有効にし、新たにアカウントを作成するティーンエイジャーにもセーフサーチをデフォルトで適用する。Googleアシスタントでは、スマートスクリーンやウェブブラウザなどの共有デバイスで、セーフサーチの保護機能がデフォルトで有効になる。先の発表のとおり、Google Workspace for Educationを使用している学校の設定でも、セーフサーチがデフォルトになり、ゲストモードやシークレットモードのウェブブラウジングへの切り替えもデフォルトで無効になる。

位置情報の履歴はすべてのGoogleアカウントでデフォルトで無効になっているが、今後は管理対象のアカウントを利用している子どもたちについて、位置情報の履歴を有効にすることはできなくなる。この変更は全世界の18歳未満のユーザーに適用される。法的に成人するまで位置情報を有効にすることはできない、ということだ。

また、Google Playでは、アプリがファミリーポリシーに従っているかどうかを保護者に知らせるセクションが新設され、アプリ開発者は、自分のアプリがどのようにデータを収集・利用しているかを開示することが必要になる。これらの機能は、Apple(アップル)の「App Storeのプライバシーラベル」に一部ヒントを得たもので、すでにAndroid開発者向けに詳細が発表されている

Googleのペアレンタルコントロールツールも拡充される。ファミリーリンクを利用している保護者は、アシスタント機能を搭載したスマートデバイスで、ニュース、ポッドキャスト、ウェブページへのアクセスをフィルタリングしたり、ブロックしたりすることができるようになる。

広告主にとっても重要な変更がある。

Googleによると、年齢制限のある広告カテゴリーがティーンエイジャーに表示されないようにするための保護機能を拡充し、18歳未満のユーザーに対しては、年齢、性別、興味や関心などの要素に基づく広告ターゲティングをブロックするという。ティーンエイジャーや子どもをターゲットにする際に「興味や関心」のデータを利用しないという点は、Instagramが導入した広告の変更に似ているが、Instagramは年齢や性別によるターゲティングを許可している。Googleは年齢や性別によるターゲティングを許可しないことになり、この変更は「今後数カ月のうちに」全世界に展開されるとのことだ。

GoogleとYouTubeにおけるすべての変更は、今後数週間~数カ月の間に全世界で展開される予定である。

関連記事
米国政府がグーグルに要求した令状の4分の1がジオフェンスに関するもの
Googleが2要素認証で利用するTitanセキュリティキーのラインアップ簡素化、Bluetooth版廃止・NFC対応USB-C版追加
YouTubeの動画レコメンドAIは依然として悪行を重ねていることが大規模調査で判明
画像クレジット:Nicolas Economou / Getty Images

原文へ

(文:Sarah Perez、翻訳:Dragonfly)

T-Mobileがハッキングで少なくとも4700万人の現・元顧客が影響を受けたと発表

先にハッキングが報じられたT-Mobile(ティー・モバイル)は、現在および過去の膨大な顧客の情報が、データ流出により盗まれたことを認めた。

その声明の中で、1億人以上の顧客を擁するT-Mobileは、予備的な分析の結果、現在のT-Mobileの顧客のうち780万人が、データ流出で情報を持ち出されたことがわかったと述べている。このデータには、現在および過去のT-Mobileの顧客ならびに見込み顧客の「一部」の顧客名、生年月日、社会保障番号、運転免許証の情報が含まれていると同社は発表している。

また同社は、過去および見込み顧客に関する4000万件の記録が盗まれたものの「電話番号、口座番号、暗証番号(PIN)、パスワード、財務情報は漏洩していない」と発表している。

しかし同社は、約85万人分のT-Mobileのアクティブな顧客の名前、電話番号、および口座の暗証番号は実際に流出したと警告した。T-Mobileはそうした顧客の暗証番号をリセットしたことを発表した。T-Mobileは「すべてのお客様に、SIMスワッピング攻撃から口座を保護している暗証番号を積極的に変更することを推奨しています」と述べている。

関連記事:Twitterのジャック・ドーシーCEOのTwitterアカウントが乗っ取られる

先週末にVice(バイス)は、有名な犯罪フォーラム内である販売者が多数の記録を保有していると主張したため、T-Mobileはハッキングの可能性を調査してると報じていた。この販売者はViceに対し、T-Mobileの顧客に関する1億件の記録を持っていて、その中には顧客の名前、社会保障番号、住所、携帯電話のIMEI番号、運転免許証情報が含まれていると話している。

T-Mobileはさらに影響が続く可能性があることを警告している。同社は「プリペイド請求書ファイルを介して、現在は使用されていないプリペイドアカウントがアクセスされたことを確認した」としながらも、何の情報かは明らかにせず、ただ財務情報ではないということだけを述べた。

T-Mobileがハッキングされたのは、最近では1月に起きた事件や、2018年にさかのぼる複数の事案などを含めて、近年では5度目となる。

関連記事:米T-Mobileで顧客データ漏洩、犯罪者フォーラムで販売

カテゴリー:セキュリティ
タグ:T-Mobileデータ漏洩個人情報サイバー犯罪

画像クレジット:Ullstein Bild/Getty Images

原文へ

(文:Zack Whittaker、翻訳:sako)

米T-Mobileで顧客データ漏洩、犯罪者フォーラムで販売

T-Mobile(ティー・モバイル)は同社システムに「不正アクセス」があったことを認めた。よく知られているサイバー犯罪者フォーラムで同社顧客データの一部が売りに出されてから数日後のことだ。

米携帯通信の巨人で2020年Sprintと260億ドル(約2兆8435億円)の合併を完了した同社は、漏洩の事実を認めたが「顧客の個人データが含まれていたかどうかは未確認」としている。調査には「しばらく時間がかかる」と同社は話し、具体的な日程は示さなかった。

関連記事:T-MobileとSprintの合併が正式完了、新会社はT-MobileでCEOは交代

「侵入された入り口はすでに閉鎖されていることを確認しています。現在当社システム全体の状態を詳細に見直し、不法にアクセスされたデータの形跡を突き止めているところです」と同社は言った。

先にViceは、売り手が数百万件の記録を持っていると称した後、T-Mobileが侵入の可能性を調査していたと報じた。売り手は、T-Mobile顧客のデータ1億人分を保有しており、そこには顧客のアカウント名、電話番号、携帯電話の製造番号(IMEI)、社会保障番号および運転免許証情報など、同社が顧客の本人確認を行うためにしばしば収集しているデータが入っている、とViceに伝えた。

Viceが売り手から入手したサンプルを検証したところ、データは少なくとも部分的には正しいことを示唆していた。

TechCrunchが見たフォーラム投稿は、顧客データ3000万レコードと引き換えに、6ビットコイン、約27万5000ドル(約3010万円)相当を要求していた。データはT-Mobileが運営するインターネットに接続されたデータベースサーバーから入手された可能性があることをBleeping Computerが投稿したスクリーンショットが示している。同誌はその売り手が「2004年に遡る」IMEIデータベースも持っているとも報じている。IMEIおよびISMIは携帯電話ユーザーの特定と位置情報入手に使用される。

関連記事:45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに

TechCrunchが以前に見た同じ売り手による同じサンプルデータを使用した投稿には、1億2400万レコードあると書かれていたが、データソースがT-Mobileであるとは言っていなかった。投稿は過去数日の間に削除された。

これはTechCrunchが知る限り、ここ数年の間にT-Mobileがハックされた5回目の事例だ。

2021年1月にT-Mobileは、サイバー犯罪者が通話記録とその他の契約者データ約20万件を盗んだとされるデータ漏洩を報告した。2020年T-Mobileでは2件の事象が起きた。同社のEメールシステムにハッカーが侵入して複数のT-Mobile社員のメールアカウントをアクセスし、顧客データをアクセスしたデータ漏洩事件を認めた数カ月後には、プリペイド利用者100万人の個人情報と請求書情報が漏洩した。2018年にT-Mobileは、顧客200万人分の個人情報がスクレイピングされた可能性があると発表した。

関連記事:セキュリティ侵犯でTモバイルの顧客情報が100万件以上流出

カテゴリー:セキュリティ
タグ:T-Mobileデータ漏洩個人情報サイバー犯罪

画像クレジット:Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

スパイウェア「Pegasus」が政府批判を行う女性ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上

スパイウェア「Pegasus」が政府批判ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上先日、イスラエル企業NSOグループが開発・販売するスパイウェア「Pegasus」が、人権活動家や弁護士、ジャーナリストを標的に使用されているとのアムネスティ・インターナショナル報告がありました。その続報として、政府が女性ジャーナリストの持つスマートフォンからプライベートな写真を盗み出すことに使われたことが報じられています。

問題のPegasusは、感染したデバイスがスマートフォン内に保存されているメッセージや写真をひそかに送信したり、電話の通話を本人に知られずに録音できるというもの。2020年末には37人のジャーナリストが持つiPhoneが政府等によりハッキングされた証拠が見つかったと報告されたことに続き、先月アムネスティはiOS 14.6に存在していたゼロクリック脆弱性、つまりユーザーが何もしなくてもマルウェアをがインストール可能な抜け穴が利用されていたと発表していました。

さて米NBCニュースの報道によると、アルジャジーラ(中東カタールの国営テレビ局)のレバノン人放送ジャーナリストであるGhada Oueiss氏は2020年6月、自宅で夫と一緒に夕食を食べていたところ、同僚からTwitterをチェックするようにとメッセージを受け取ったとのことです。そこでTwitterをチェックしたOueiss氏は、ジャグジーでビキニを着ているときに撮影されたプライベートな写真が「上司の家で撮影された」というウソの情報と共に、複数のアカウントにより拡散されていたことにがく然としたと述べられています。

その後は数日にわたって、Oueiss氏のジャーナリストとしての信頼性を攻撃する何千ものツイートやDMが殺到し、彼女を売春婦、あるいは醜くて年老いた女と罵っていたそうです。それらメッセージの多くは、サウジアラビアのムハンマド・ビン・サルマーン・アル・サウード皇太子(MBS)の支持者らしきアカウントから発信されており、政府関係者の認証済みアカウントも含まれていたとのことです。

これは単なるOueiss氏の憶測ではなく、彼女のスマートフォンがデジタルフォレンジックの専門家により調査され、Pegasusが写真へのアクセスに使われたとの診断結果(2020年末にMBS皇太子や写真を拡散したTwitterユーザー相手に起こされた裁判にて、提出された訴状で言及)に基づいてのことです。

Oueiss氏は「私の携帯電話がハッキングされたことはすぐにわかりました」と語り、サウジアラビア政権への批判的な報道を封じるために標的にされたとの考えを語っています。また、問題の写真はどこにも公開されたことがなく、自分のデバイス内にしかなかったことも強調しています。

流出させられた写真は、日本や欧米の感覚では特に問題ないように思われます。しかしNBCニュースは、こうした類の写真でも、中東諸国では被害者がダメージを受ける可能性があることを指摘しています。すなわちサウジアラビアのような保守的な社会では、水着写真でさえもスキャンダラスなものとみなされ、女性たちを公に辱めて評判を落とすために利用されたというわけです。

アップルは7月末にiOS 14.7.1を配信し、そのセキュリティアップデートではNSOが過去に使用した脆弱性を塞いだと推測されます(アップルは明言していませんが)。が、NSO社はこれまでもiOSで対策が施されるたびに対応してきており、現在も新たな抜け穴を探していることは確実と思われます。

アップルはアムネスティの報告に対して、Pegasusgaが特定の個人を標的にしていると認めつつ「圧倒的多数のユーザーにとっては脅威ではないことを意味します」として、ほとんどのユーザーには関係ないと示唆していました。が、WhatsAppのCEOが英The Guardianの取材で述べていたように、より本腰を入れた対策が望まれそうです。

(Source:NBC News。Via 9to5MacEngadget日本版より転載)

関連記事
アップルがiOS 14.7で「悪意SSIDに繋ぐとWi-Fi機能破壊」バグを修正、公式なセキュリティ文書公開
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに
MicrosoftやGoogle、CiscoなどがWhatsAppスパイウェア訴訟でイスラエルのNSOに抗議
ジャーナリスト36人以上のiPhoneが「ゼロクリック」スパイウェアにハックされていたことが発覚

カテゴリー:セキュリティ
タグ:Apple / アップル(企業)iPhone(製品・サービス)NSO Group(企業)スパイウェア(用語)スマートフォン(用語)プライバシー(用語)個人情報 / 個人情報保護(用語)差別(用語)

EUがAmazonに過去最大約971億円の罰金、ターゲット広告目的で顧客データを使用

ルクセンブルグのデータ保護当局National Commission for Data Protection(CNPD)は、ターゲット広告目的で顧客データを使用していたとして、Amazon(アマゾン)に対しGDPR(一般データ保護規則)の罰金として過去最大の7億4600万ユーロ(約971億円)を科した。

Amazonはこの決定を米国時間7月30日にSEC(米証券取引所)に提出した書類の中で明らかにした。その中で同社は、決定は根拠がないと批判し、また「この問題について強力に」異議を唱える意向も示した。

「顧客情報のセキュリティと信頼の維持は最優先事項です」とAmazonの広報担当は声明で述べた。「データ流出はなく、顧客データがサードパーティに漏えいしたこともありません。こうした事実は明白です」。

「当社はCNPDの決定に強く抗議します。そして控訴するつもりです。当社が顧客にどのように関連広告を表示していたかに関する決定は、欧州プライバシー法の主観的、かつ立証されていない解釈に基づいています。また示された罰金の額は、そうした解釈にすらもまったく見合っていません」。

今回の罰金は、プライバシー権を主張するフランスのグループLa Quadrature du Netによる2018年の訴えの結果だ。同グループは、政治的あるいは商業目的で行動を不正操作するために欧州人のデータがテック大企業によって使われることがないよう、多くの人の利益を代表していると主張する。Apple、Facebook、Google、LinkedInもターゲットにし、1万人超を代表して苦情を申し立てた同グループは、顧客がどの広告と情報を受け取るかを選ぶことでAmazonは商業目的のために顧客をコントロールしたと主張している。

La Quadrature du Netは「最悪の事態を懸念した3年間の沈黙の後に出された」CNPDの罰金の決定を歓迎した。

「我々のプライバシーと自由意思の搾取に基づく経済的支配のモデルは大いに規則に反しており、我々の民主的社会が擁護を主張するあらゆる価値観に背いています」と7月30日のブログ投稿で述べた

CNPDはまた、Amazonに商慣行の見直しも求めた。しかし、当局はこの決定について公にしておらず、Amazonもどのような商慣行の改善が求められているのか具体的に示さなかった。

GDPRに違反したとしてGoogleが2019年に科された5000万ユーロ(約65億円)を超える過去最大の罰金は、Amazonの欧州事業に厳しい目が向けられている中でのものだ。2020年11月に欧州委員会は、Amazonのプラットフォームを使っているサードパーティの事業者との競争で自社の立場を悪用したとして、Amazonに対し正式に独禁法違反を指摘した。と同時に、欧州委員会は自社サイトやパートナーのサイトでの自社プロダクトの優遇措置の疑いでAmazonに対する2つめの調査を開始した。

関連記事
仏データ保護当局がグーグルに罰金60億円超の支払い命令
不正なやり方でCookie同意を求めるウェブサイトの粛清が欧州で始まる
ドイツ当局がFacebookに対し物議を醸している「WhatsApp」の利用規約を適用しないよう命令

カテゴリー:ネットサービス
タグ:EUAmazonGDPR罰金広告プライバシー個人情報データ保護

画像クレジット:Natasha Lomas

原文へ

(文:Carly Page、翻訳:Nariko Mizoguchi

ユーザーのプライバシーを護るGoogle Play「セーフティセクション」の詳細をグーグルが発表

Apple(アップル)はプライバシーの保護に関してApp Tracking TransparencyApp Storeのプライバシーラベルなどの企画でこのところ前進しているが、最近はGoogleも、Google Playに新たな「セーフティセクション」を導入する計画を発表している。それは、アプリが集めて共有するデータや、その他のセキュリティとプライバシーに関する情報をユーザーに提供することが目的だ。米国時間7月28日、同社は初めてこの新しいセクションのユーザーインタフェイスや、開発者への要求などを明らかにした。

関連記事:アップルがアプリのプライバシー方針を明らかにするラベルを全App Storeで公開

Googleは2021年5月に、セーフティセクションはアプリがデータをどのように取り扱うかをユーザーに伝え、ユーザーが情報に基づく選択をできるようにすると説明した。それによるとアプリの開発者は、データの暗号化などのセキュリティ実践をアプリが使っているか、子どもを対象とするGoogle Playのファミリーポリシーに従っているか、データの共有に関してユーザーが選択できるか、アプリのセーフティセクションをサードパーティが検査しているか、アプリはアンインストールのときユーザーにデータ削除のリクエストを認めているかといった事項を開示しなければならない。

Googleが本日発表したユーザーインタフェイスのコンセプトでは、これらのプライバシー保護機能がユーザーにはどのように見えるかを、開発者が知りうるものでなければならない。

画像クレジット:Google

セーフティセクションでは、アプリが収集しているデータに関する開発者からの詳細情報をユーザーが見られるものでなければならない。それぞれの詳細情報は、独自のアイコンによって所在を明らかにしなければならない。

要約部分をユーザーがタップすると、場所や連絡先、名前やメールアドレスなどの個人情報、経済情報といった収集、共有されているデータに関するその他の詳細を見ることができる。

また、それらのデータの使われ方もユーザーに開示される。アプリの機能性向上のため、やパーソナライズのためなどだ。そしてデータの収集は、ユーザーに決定および承認権のある選択事項でなければならない。

画像クレジット:Google

Googleによると、Play Storeのこれらの変更に対応するために開発者には十分な時間を与えたかったので、今やっと、データタイプの定義やユーザーインタフェイス、そして新しい機能に関するポリシーの要件などの情報を、共有できるようになった。

それによると、すべての開発者が2022年4月までにプライバシーポリシーを提供しなければならない。これまでは、個人的あるいは機密性のあるユーザー情報を集めるアプリのみが、それを要請されてきた。開発者はまた、自分のセーフティセクションにあるすべてのデータに関して、そのデータをアプリのサードパーティライブラリやSDKがどのように使っているかなどに関する正確で完全な情報を共有しなければならない。これは、Appleがアプリに対して要求している情報と整合している。

画像クレジット:Google

開発者は、Google Playに自分のセーフティセクションをローンチする2022年の第1四半期になる前に、2021年10月には自分の情報をGoogle Play Consoleで開示し、レビュー可能にしなければならない。

Googleによると、セーフティセクションのローンチと、それをGoogleが承認するまでには若干の猶予期間を設ける。ただし承認の最終締め切りは2022年の第2四半期であり、それが守られなければアプリの提出やアップデートが拒否されるリスクをともなう。そしてアプリが承認されたセーフティセクションを提供できなければ、そのアプリは「No information available」(情報がありません)と表示することになる。

この変更はGoogle Play上に存在する活動中のデベロッパーの数を明らかにするだろう。なぜなら、そんなデベロッパーは必ず新しいポリシーを採用し、アプリが集めて使用するデータに関する正直な情報を開示するはずだからだ。

残る問題は、Googleがこの新しいガイドラインを、どのように、そしてどの程度強制するのか、個々のアプリをどこまで細心に検査するのかという点だ。しかしGoogleの態度がどうであれ、良心的なデベロッパーは自分のセーフティセクションをサードパーティのレビューに対してオープンにし、ユーザーにはアプリのデータプライバシーとセキュリティに関して前向きの宣伝ができるようになる。

それを考えれば、このようなセーフティセクションは実効がないとする批判をかわせるだろう。それはAppleにとってもApp Storeのプライバシーラベルのローンチ以来の問題であり、The Washington Postの記事によれば、虚偽の情報を表示しているアプリがとても多くて、データを保護したいと真剣に願うユーザーの役に立っていない、というのだ。

このセーフティセクションの、サードパーティによる検査についてGoogleに問い合わせたが、それに関する詳しい情報はまだ得られていない。

関連記事
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
プライバシー重視の風潮に乗りユーザーの「同意」を管理するDidomiが好調
プライバシー重視ブラウザ「Brave」、非追跡型検索エンジンのベータ版をリリース

カテゴリー:ソフトウェア
タグ:Google PlayGoogleプライバシー個人情報アプリAndroid

画像クレジット:Mika Baumeister/Unsplash

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう

米国時間7月17日、国際的なニュース配信コンソーシアムが、メキシコやモロッコ、アラブ首長国連邦などの独裁的政府が、NSO Groupが開発したスパイウェアを使って、ジャーナリストや活動家、政治家、企業の役員など、強硬な批判勢力に対してハッキング行為を行ったと報じた。

監視対象になったと思われる5万人の電話番号を、パリの非営利ジャーナリズム団体Forbidden StoriesAmnesty International(アムネスティインターナショナル)が入手し、Washington PostThe Guardianなどと共有した。被害者の電話機数十台を分析した結果、それらがNSOのスパイウェアPegassusに侵されたことがわかった。そのスパイウェアは個人の電話機のすべてのデータにアクセスできる。報道は、NSO Groupが堅固にガードしている政府顧客についても明らかにしている。たとえばEUの一員であるHungaryは、基本的人権の一部として監視からのプライバシーの保護があるはずだが、NSOの顧客として名を連ねている。

報道は、NSOのデバイスレベルの侵入的な監視の対象になった者の人数を初めて明かしている。これまでの報道は、被害者の数を数百名または1000名以上としていた。

関連記事:45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに

NSO Groupは、これらの報道に厳しく反論している。NSOは長年、顧客のターゲットが誰であるかも知らないと述べていた。米国時間7月19日のTechCrunch宛の声明でも、同じことを繰り返している。

アムネスティの調査は、その結果をトロント大学のCitizen Labがレビューしている。その発見によると、NSOは被害者にリンクを送り、それを開けば電話機に感染する。またiPhoneのソフトウェアの脆弱性を悪用して無言で侵入する「ゼロクリック攻撃」というものもある。Citizen LabのBill Marczak(ビル・マルザック)氏によると、NSOのゼロクリックが悪さをするのは、iOSの最新バージョンであるiOS 14.6の上だという。

アムネスティの研究者たちは、詳細な調査報告とともに、電話機がPegasusuのターゲットにされたかを調べるツールキットを発表した。

そのMobile Verification Toolkit(MVT)とよばれるツールキットは、iPhoneとAndroidの両方で使えるが、動作はやや異なる。アムネスティによると、侵入の痕跡が見つかるのはiPhoneの方がAndroidより多いため、発見もiPhoneの方が容易になっている。MVTはまずユーザーにiPhone全体のバックアップ(ジェイルブレイクしている場合には完全なシステムダンプ)を取らせ、NSOがPegasusを送り込むために使っていることがあらかじめわかっている、侵犯の痕跡情報(indicators of compromise、IOCs)をフィードする。例えばテキストメッセージやメールでNSOのインフラストラクチャのドメインネームを送ることもある。iPhoneの暗号化バックアップがあるなら、全体の新しいコピーを作らなくてもMVTにそのバックアップを解読させてもよい。

MVTのツールキットの端末出力。iPhoneとAndroidのバックアップファイルをスキャンして侵入のIOCを探す(画像クレジット:TechCrunch)

ツールキットはコマンドラインなので、洗練されたUXではないし、端末の使い方の知識が多少必要だ。10分ほど使ってみたが、iPhoneのフレッシュなバックアップを作るつもりならさらに1時間はかかるだろう。そのツールキットに電話機をスキャンさせてPegasusの兆候を見つけるつもりなら、GitHubにあるアムネスティのIOCsをフィードする。IOCファイルがアップデートされたら、ダウンロードしてアップデート版を使おう。

作業を始めたら、ツールキットはあなたのiPhoneのバックアップファイルをスキャンして、侵入の証拠を探す。その処理に1〜2分かかり、その後、フォルダに吐き出す複数のファイルが、スキャンの結果だ。ツールキットが侵犯の可能性を見つけたら、出力ファイルがそういっている。私の場合は「detection」が1つあったが、それは偽陽性だったので、アムネスティの研究者たちにひと言告げてからIOCsから削除した。アップデートしたIOCsで再スキャンすると、侵入の兆候は返されなかった。

Androidの汚染を見つけるのは難しいため、MVTはもっと簡単な方法として、Androidデバイスのバックアップ中にリンクのテキストを探す。それがNSOのドメインだったら怪しい。また、デバイス上に悪質なアプリケーションがインストールされていないかも、スキャンして調べる。

このツールキットは、コマンドラインツールの常として、使い方は簡単だが、オープンソースなのでいずれ誰かがユーザーインタフェイスを作るだろう。プロジェクトの詳しいドキュメンテーションがあるので、私だけでなく多くの人が助かると思う。

チップスを安全に送りたい人はSignalやWhatsAppで+1 646-755-8849まで。ファイルやドキュメントは、SecureDropで送ることができる。詳しくはここで

関連記事
MicrosoftやGoogle、CiscoなどがWhatsAppスパイウェア訴訟でイスラエルのNSOに抗議
ジャーナリスト36人以上のiPhoneが「ゼロクリック」スパイウェアにハックされていたことが発覚

カテゴリー:セキュリティ
タグ:スパイウェアNSO Groupハッキング人権個人情報プライバシーiPhoneAndroidスマートフォン

画像クレジット:TechCrunch/PhotoMosh

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)