アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

アダルト動画配信のPornhubが2020年版透明性レポートを公開、違反動画検出の取り組みを詳述

アダルト動画配信のPornhubが2020年版透明性レポートを公開、違反動画検出の取り組みを詳述

Ethan Miller via Getty Images

2020年12月に、児童に対する性的虐待動画を公開し収益の一部を得ているとNew York Timesの記事で告発され、その後承認済みユーザーとコンテンツパートナー以外がアップロードした、ガイドラインに適合しない動画をすべて削除するという大胆な対応を行ったアダルト動画サイトPornhubが、初の透明性レポートを発表しました。この報告書では2020年にPornhubが受けた指摘と、実施してきたモデレーションの実績を明らかにしています。

報告書によると、Pornhubはガイドライン違反、たとえば未成年者が含まれるコンテンツから合意に基づかないコンテンツ、悪意ある表現、動物虐待、近親相姦、血液他の体液を含むもの、暴力的なもの、そして明らかに著作権を侵害しているコンテンツ65万3465件を特定し削除したとのこと。

また、2020年の1年間にサイトは政府、法執行機関、および民間団体から1081件の法的な要請を受けたと述べています。これには合意に基づかないコンテンツや児童労働搾取が含まれているとのこと。

NYTによる問題の告発を受け、Pornhubはアップロードされたコンテンツを公開する前にその違法性を検証するため導入した技術についても報告書には記されています。そのなかにはPornhub独自の映像認識技術であるSafeguardをはじめ、YouTubeが採用する児童性的虐待画像検出テクノロジーのCSAI Match、以前にアップロードされた侵害コンテンツと一致する可能性のあるコンテンツを検出するマイクロソフトのPhotoDNA、コンテンツ認識技術開発企業VobileのMediaWiseなどが列記されています。

さらに、機械的にコンテンツを検証するだけでなく、24時間体制のモデレーターによる人力でのレビューも併用してガイドライン違反のコンテンツ除去に取り組んでおり、利用規約やガイドラインに違反するコンテンツは公開されず、またアップロードしたアカウントの削除などの措置を必要に応じて実施するとのこと。

2月、Pornhubはコンテンツをアップロードするアカウントの身元確認にサードパーティの技術を採用していることも明らかにしていました。また問題が表面化して以降、提携していたVisaおよびMaster Cardは、Pornhubのみならず親会社MindGeekのサービス全体で有料コンテンツの決済処理を停止していましたが、Visaは2020年末頃にMindGeekの一部アダルトサイトで決済処理を再開したとのことです。とはいえPornhubに関してはまだ再開はしていない模様です。

Pornhub、承認済みユーザーおよびコンテンツパートナー以外の動画をすべて削除
Pornhub、NYT記事による批判受け動画アップロード制限およびダウンロード禁止へ

(Source:Pornhub、via:MotherboardEngadget日本版より転載)

関連記事
アダルト動画配信のPornhubが数百万本の投稿を凍結、違法動画掲載の非難を受けて
SnapchatのCEOの妹が文章と音声だけのポルノサイトをスタート
アダルトサイト、PornHubが2018年のまとめ発表――オンラインで皆が見ているのはいったい…?

カテゴリー:ネットサービス
タグ:児童ポルノ対策Pornhub(企業・サービス)Visa(企業・サービス)Mastercard(企業・サービス)