アップルが次期iOS15での児童性的虐待コンテンツ検出技術導入を延期

Apple(アップル)は、顧客や政策グループからのフィードバックを考慮して、2021年8月に突然発表した児童性的虐待コンテンツ(CSAM)検出技術の展開計画を延期した。

振り返ってみれば、そのフィードバックは大部分が否定的なものだった。Electronic Frontier Foundation(EFF、電子フロンティア財団)は今週、消費者から2万5000を超える署名を集めたと語っている。またそれに加えて100に迫る政策ならびに権利団体(「アメリカ自由人権協会」も含まれている)も、Appleに技術を展開する計画を放棄するように呼びかけていた。

関連記事
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
また批判を浴びるアップルの児童虐待検出技術

米国時間8月3日朝の声明で、AppleはTechCrunchに次のように語った。

「先月私たちは、コミュニケーションツールを使用して子どもを引き込んだり悪用したりするする捕食者たちから子どもたちを保護し、児童性的虐待コンテンツ(CSAM)の拡散を制限することを目的とした機能の計画を発表しました。しかし顧客の皆さま、プライバシー擁護団体、研究者の方々などからのフィードバックに基づいて、これらの非常に重要な子どものための安全機能をリリースする前に、今後数カ月にわたってさらに意見や情報を収集し、機能を改善するために時間をかけることに致しました」。

このAppleの計画しているNeuralHash(ニューラルハッシュ)テクノロジーは、ユーザーのデバイス上の既知のCSAMを、画像を取得しなくても、また画像の内容がわからなくても識別できるように設計されている。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているために、Appleでもデータにアクセスできない、よってNeuralHashは代わりにユーザーのデバイス上で既知のCSAMをスキャンする。このことからAppleは、現在多くのクラウドプロバイダーが行っている一括スキャンよりもプライバシーに配慮していると主張している

関連記事:【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答え

しかし、セキュリティの専門家やプライバシー擁護派は、政府などの豊富な資源を持つ者がシステムを悪用して、罪のない犠牲者を巻き込んだり、権威主義的な国民国家が、好ましくないと判断する任意のデータを検出するためにシステムを操作したりする可能性があると懸念を表明している。

技術が発表されてからわずか数週間で、研究者たちは、NeuralHashを使用して「ハッシュ衝突」を作成し、事実上システムをだまして2つのまったく異なる画像が同じであると思わせることができたと発表している。

iOS 15は、今後数週間以内にリリースされる予定だ。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Zack Whittaker、翻訳:sako)

また批判を浴びるアップルの児童虐待検出技術

Apple(アップル)が2021年8月初めに発表した、児童への性的虐待コンテンツ素材(child sexual abuse material、CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。

NeuralHashはユーザーのデバイスにある既知のCSAMを見つけるが、画像を所有したり、その画像のコンテンツを認知したりはしない。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているため、Appleですらそのデータにアクセスできない。そのため、NeuralHashはそユーザーのデバイスにある既知のCSAMをスキャンし、Appleはこれをよりプライバシーフレンドリーだと主張している。それは他企業のようにすべてのユーザーファイルをスキャンするのではなく、写真だけを対象にスキャンするからだ。

Appleは、ユーザーのデバイス上で、NCMECといった児童保護団体から提供されたハッシュ(画像を一意に識別できる文字と数字の組み合わせ)が同じである画像を探すことでこれを行います。NeuralHashが30個以上の一致するハッシュを見つけた場合、その画像はAppleにフラグが立てられ、アカウント所有者が法執行機関に報告される前に、手動で審査される。Appleによると、誤検出の可能性は1兆個のアカウントで約1つだという。

しかしセキュリティのエキスパートやプライバシー保護活動家たちは、そのシステムは政府のようなリソースが極めて豊富なところでは乱用誤用される可能性があるという懸念を表明している。たとえば罪のない人が巻き込まれたり、システムが操作されて権威主義的な国が有害と認めるような素材を検出するかもしれない。Appleのスタッフに対し社内的に配布されたメモのリークによると、NCMECはそういう批判者のことを「少数派のキーキー声」と呼んでいる。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

米国時間8月17日夜、Asuhariet Ygvar(アスーハリエット・イグバー)氏は、NeuralHashのコードをPythonのスクリプトに落として、そのコードをGitHubに公開し、Appleのデバイスが手元にない人でもこの技術をテストできるようにした。イグバー氏はRedditのポストで、NeuralHashは難読化されたコードでiOS 14.3に「すでに存在している」が、その技術を再構築することができたため、2021年の後期にiOSとmacOSデバイスに展開される前にセキュリティの研究者はアルゴリズムをもっとよく理解できる、と述べている。

コードが公開され他の人が手を加えるようになり、NeuralHashのケースでは2つの完全に異なる画像が同じハッシュを生成する「ハッシュの衝突」という現象が初めて報告された。この「ハッシュの衝突」を発見したのは、Intel Labsの著名な研究員であるCory Cornelius(コーリー・コーネリアス)氏だ。その後、イグバー氏も衝突を確認している。

ハッシュの衝突は、セキュリティを暗号技術に依存しているシステムのお葬式の鐘になることもある。何年もの間に、MD5やSHA-1のようなパスワードハッシングアルゴリズムは衝突攻撃によって無効になり、その後現役の座を去った

暗号技術のエキスパートでOpen Crypto Audit Projectを創ったKenneth White(ケネス・ホワイト)氏は、「iOSのNeuralHashのコードが見つかってから、最初の衝突が起きるまでの時間が、数カ月や数日ではなくて2時間だということを、理解してなかった人もいたようだね」とツイートしている。

Appleの広報担当者は公式のコメントを拒否したが、匿名かつオフレコで語ったところによると、Appleはハッシュの衝突を軽視し、保護策を講じることが重要と主張した。それは例えば法執行機関に報告する前に手作業で写真を調べることで虐待を防げる、と。さらにAppleによると、NeuralHashのコードを分解されたバージョンはジェネリック(総称的)なバージョンであり、2021年後期に展開する完全なバージョンではないという。

その技術に懸念を表明しているのは人権グループやセキュリティのエキスパートだけではない。ドイツの高名な国会議員が今週、AppleのCEOであるTim Cook(ティム・クック)氏に書簡を送り、同社は「危険な道」を歩んでいると述べて、Appleがそのシステムを実装しないことを強く要請した。

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
持続可能性にフォーカスするアップルのImpact Acceleratorが支援する有色人種企業15社を決定
アップルが不評だったSafariの変更点をiOS 15 beta 6で修正、再びアドレスバーの上部表示も可能に

画像クレジット:Getty Images

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)