iCloud、ツイッター、マインクラフトなどに使われているオープンソースのログユーティリティにゼロデイ脆弱性が見つかる

広く利用されているJavaログ出力ライブラリで見つかった問題の影響を受け、AppleのiCloud、Twitter、Cloudflare(クラウドフレア)、Minecraft(マインクラフト)、Steam(スチーム)など、数多くの人気サービスが、ゼロデイ脆弱性にさらされていることが報告されている。

膨大な数のアプリ、ウェブサイト、サービスで使用されているオープンソースのログユーティリティ「Apache Log4j」に発見されたこの脆弱性は、Alibaba(アリババ)のChen Zhaojun(チェン・ジャオジュン)氏が報告したもので、LunaSec(ルナセック)の研究者によって「Log4Shell」と名づけられた。Log4Shellが最初に発見されたのは、Microsoft(マイクロソフト)が所有するMinecraftだったが、LunaSecは、主なJavaベースの企業向けアプリやサーバーのほぼすべてにLog4jが「ユビキタス」に存在していることから「非常に多くのサービス」が悪意のある行為に対して脆弱であると警告している。このサイバーセキュリティ会社は、ブログ記事の中で、Apache Struts(アパッチ・ストラッツ)を使用している人は誰もが「おそらく脆弱である」と警告した。

これまでにLog4Shell攻撃に脆弱であることが確認されたサーバーを持つ企業は、Apple(アップル)、Amazon(アマゾン)、Cloudflare、Twitter、Steam、Baidu(百度、バイドゥ)、NetEase(ネットイース)、Tencent(テンセント)、Elastic(エラスティック)などだが、他にも数千とまではいかなくとも数百の組織が影響を受けている可能性がある。Cloudflareは、TechCrunchに寄せた声明で、攻撃を防ぐためにシステムを更新したと述べており、悪用された形跡はないと付け加えている。

NSA(米国家安全保障局)のサイバーセキュリティ担当ディレクターであるRobert Joyce(ロバート・ジョイス)氏は、同局が開発した無償でオープンソースのリバースエンジニアリングツール「GHIDRA」も影響を受けることを確認した。「Log4jの脆弱性は、NSAのGHIDRAも含め、ソフトウェアのフレームワークに広く搭載されているため、悪用される恐れが大きい」と、同氏は述べている。

ニュージーランドのCERT(コンピューター緊急対応チーム)や、ドイツテレコムのCERT、そしてウェブ監視サービスのGreynoise(グレイノイズ)は、攻撃者がLog4Shell攻撃を仕掛けるための脆弱なサーバーを積極的に探していると警告している。Greynoiseによると、約100の異なるホストがインターネット上でLog4jの脆弱性を悪用する場所をスキャンしているとのことだ。

HackerOne(ハッカーワン)のシニアセキュリティテクノロジストであるKayla Underkoffler(カイラ・アンダーコフラー)氏は、今回のゼロデイ脆弱により「世界の重要なサプライチェーンに対する攻撃において、オープンソースソフトウェアがもたらす脅威が増大している」ことが明らかになったと、TechCrunchに語った。

「オープンソースソフトウェアは、現代のデジタルインフラストラクチャのほぼすべてを支えており、平均的なアプリケーションでは528種類のオープンソースコンポーネントが使用されています」と、アンダーコフラー氏は語る。「2020年に発見されたリスクの高いオープンソースの脆弱性の大半は、2年以上前からコード上に存在していますが、ほとんどの組織では、サプライチェーン内のオープンソースソフトウェアを直接制御して、これらの弱点を簡単に修正することができません。しばしば資金が不足するこのソフトウェアを保護することは、それに依存しているあらゆる組織にとって急務です」。

Apache Software Foundation(アパッチ・ソフトウェア財団)は、Log4jのゼロデイ脆弱性を修正するための緊急セキュリティアップデートを米国時間12月10日に公開し、すぐにアップデートできない場合の緩和策も発表している。ゲーム開発会社のMojang Studios(モヤン・スタジオ)も、このバグに対応したMinecraftの緊急セキュリティアップデートを公開した。

画像クレジット:Busà Photography / Getty Images

原文へ

(文:Carly Page、翻訳:Hirokazu Kusakabe)

アップルが中小企業向けデバイス管理ソリューション「Apple Business Essentials」ベータ版を発表

多くの中小企業にとって、従業員のApple(アップル)製デバイスを管理し、常にアップデートされた状態を維持することは大きな課題となっている。そうした企業には高度なIT部門が存在しないことも多いため、デバイスが故障したり、ユーザーが質問したいことがあっても、Appleのコンシューマー向けサポートツールを使って自分たちで解決しなければならないことが多い。

この問題を認識したAppleは、2020年にFleetsmithを買収し、米国時間11月10日、従業員数500人以下の企業を対象としたデバイス管理ソリューション「Apple Business Essentials」のベータ版を発表した。

Appleのエンタープライズおよびエデュケーションマーケティング担当VPであるSusan Prescott(スーザン・プレスコット)氏によると、Appleはこれらの顧客企業がスタッフのApple製デバイスを導入、サポート、アップデートし、従業員が退職する際にはオフボーディングすることを支援したいと考えている。

「この製品は、デバイスのライフサイクル全体にわたってApple製デバイスを管理するために設計されており、3つのコア部分で構成されています。デバイス管理、ストレージ、そしてサポートを1つのサブスクリプションで提供します」とプレスコット氏は説明する。

管理コンポーネントは、Fleetsmithの買収とApple Device Enrollment Program(DEP)の組み合わせで構成されている。中小企業でも大企業と同様のツールを利用することができ、デバイス管理を強化し、従業員がログインしたらすぐに使えるようにすることが可能になる。

企業がサービスにサインアップすると、管理者はユーザーとグループを作成することができる。ユーザーはグループに所属し、管理者はグループごとに、サポートするデバイスの数やストレージ容量などの設定を行うことができる。また、各企業やグループには、そのグループに適したアプリの基本セットを含めることができる。

画像クレジット:Apple

注目すべきは、従業員が自分のデバイスを持ち込むことができ、サポートされているデバイスにサインインすると、会社がそれらの従業員の仕事用プロファイルを設定してくれることだ。そうすれば、仕事の成果物だけがバックアップされ、万が一、社員が会社を辞めた場合には、仕事の成果物だけが削除され、個人的なものはそのまま残され、雇用主がアクセスできないようになる。

また、個人所有、職場所有にかかわらず、このソリューションは、最新のシステムアップデートを維持することで、セキュリティを維持することができる。さらに、管理者は、MacのFileVaultによるフルディスク暗号化や、Apple製デバイスの紛失・盗難時にデバイスをロックするアクティベーションロックなどのセキュリティ設定を実施することができる。

ストレージにはiCloudを採用しているが、企業はDropbox(ドロップボックス)のようなサードパーティのストレージプロバイダーに自由に接続することができる。サポート要素には、Apple Business Essentialsを実行するIT部門と、Appleに関する質問がある従業員の両方に対するヘルプデスクサービスが含まれる。この部分は、ビジネスレベルサポート部門となる「AppleCare+ for Business Essentials」を通じて提供される。AppleCare+ for Business Essentialsではプランによって、問題報告から4時間以内のプライオリティーオンサイトサービスも含まれる。出張サービスは、Appleのパートナーが運営する。なお、AppleCare+ for Business Essentialsは無料ベータ版には含まれておらず、2022年春に提供開始予定とのこと。

Lopez Researchの創業者で主席アナリストのMaribel Lopez(マリベル・ロペス)氏は、このサービスは中小企業にとって、基本的にビジネス要件を満たすように設計されていないアップルのコンシューマーサポートチャネルを利用する必要がなくなることから、魅力的なものになるだろうと述べている。

「中小企業は、管理とサポートから事実上取り残されていました。重いMDM(モバイルデバイスマネジメント)は自分たちには向いていないと考え企業も多かったでしょうし、ジーニアスバーには、あらゆるビジネス、特に中小企業が必要とするリアルタイムのサポートが欠けていました。Fleetsmithは、よりユーザーフレンドリーで、モバイルに適したデバイス管理の方法だと考えられていました。また、ユーザー中心主義とデバイス中心主義の対立もその一因です」と同氏はいう。

IDCのデバイス&コンシューマーリサーチグループのアナリストであるTom Mainelli(トム・マイネリ)氏は「この新しいプログラムによって、中小企業はこれまで大企業にしか提供されていなかった一連のサービスを利用できるようになり、価格が妥当である限り、Appleにお金を払ってでもこれらのサービスを提供したいと考えるようになるでしょう」と語る。

「Appleが中小企業に焦点を当てていることは、非常に理にかなっています。企業の顧客は、すでにApple製品を管理するためのシステムを持っているかと思いますが、中小企業では必ずしも専任のIT担当者がいるとは限りません。つまり、雇用者が提供するデバイスと従業員が購入するデバイスが混在している場合は特に、すべてを管理するのは非常に困難です」。

「Appleは、さまざまなレベルのサービスを提供していることや、中小企業がそれらを必要とする理由について、ある程度の教育を行う必要があるでしょう。しかし、多くの経営者は、Appleにお金を払ってこれらの課題を解決してもらうことを喜んで受け入れるのではないでしょうか」と同氏。

ベータ版は無料で利用できるが、デバイス管理とストレージのコンポーネントについては、選択された構成に応じて、ユーザーごとに月単位で課金される。また、サポートに関しては、ユーザーごとに追加料金が発生するが、その部分は2022年春に予定されている同サービスの一般提供開始まで利用できないとのこと。

画像クレジット:Brian Heater

原文へ

(文:Ron Miller、翻訳:Aya Nakazato)

アップルが次期iOS15での児童性的虐待コンテンツ検出技術導入を延期

Apple(アップル)は、顧客や政策グループからのフィードバックを考慮して、2021年8月に突然発表した児童性的虐待コンテンツ(CSAM)検出技術の展開計画を延期した。

振り返ってみれば、そのフィードバックは大部分が否定的なものだった。Electronic Frontier Foundation(EFF、電子フロンティア財団)は今週、消費者から2万5000を超える署名を集めたと語っている。またそれに加えて100に迫る政策ならびに権利団体(「アメリカ自由人権協会」も含まれている)も、Appleに技術を展開する計画を放棄するように呼びかけていた。

関連記事
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
また批判を浴びるアップルの児童虐待検出技術

米国時間8月3日朝の声明で、AppleはTechCrunchに次のように語った。

「先月私たちは、コミュニケーションツールを使用して子どもを引き込んだり悪用したりするする捕食者たちから子どもたちを保護し、児童性的虐待コンテンツ(CSAM)の拡散を制限することを目的とした機能の計画を発表しました。しかし顧客の皆さま、プライバシー擁護団体、研究者の方々などからのフィードバックに基づいて、これらの非常に重要な子どものための安全機能をリリースする前に、今後数カ月にわたってさらに意見や情報を収集し、機能を改善するために時間をかけることに致しました」。

このAppleの計画しているNeuralHash(ニューラルハッシュ)テクノロジーは、ユーザーのデバイス上の既知のCSAMを、画像を取得しなくても、また画像の内容がわからなくても識別できるように設計されている。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているために、Appleでもデータにアクセスできない、よってNeuralHashは代わりにユーザーのデバイス上で既知のCSAMをスキャンする。このことからAppleは、現在多くのクラウドプロバイダーが行っている一括スキャンよりもプライバシーに配慮していると主張している

関連記事:【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答え

しかし、セキュリティの専門家やプライバシー擁護派は、政府などの豊富な資源を持つ者がシステムを悪用して、罪のない犠牲者を巻き込んだり、権威主義的な国民国家が、好ましくないと判断する任意のデータを検出するためにシステムを操作したりする可能性があると懸念を表明している。

技術が発表されてからわずか数週間で、研究者たちは、NeuralHashを使用して「ハッシュ衝突」を作成し、事実上システムをだまして2つのまったく異なる画像が同じであると思わせることができたと発表している。

iOS 15は、今後数週間以内にリリースされる予定だ。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Zack Whittaker、翻訳:sako)

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていると認める

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていたと認める

Apple

アップルは児童虐待(いわゆる児童ポルノ)対策のためにiCloudにアップロードされる画像をスキャンする方針を発表し、様々な方面から批判を集めています

そんななか、アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていることを認めたと伝えられています。その一方で、iCloud画像やiCloudバックアップはスキャンしていないとのことです。

この声明はアップルの不正防止責任者Eric Friedman氏が、自社サービスが「児童ポルノ写真を配布するための最大の温床になっている」と述べる社内メールが発覚した(Epic Gamesとの訴訟で提出された証拠から発掘)件を受けて、米9to5Macが問い合わせたことに対して回答されたものです。すなわちiCloudの写真をスキャンしていないのであれば、どうやって温床になっていると分かったんだ?というわけです。

9to5Macいわく、他にもアップルがiCloudメールのスキャンを行っているらしき手がかりはいくつもあったとのことです。たとえば「子供の安全」ページ(Webアーカイブ)には、「アップルは画像照合技術を使って児童搾取の発見と報告を支援しています。電子メールのスパムフィルターのように、Appleのシステムは電子署名を使って児童搾取の疑いがあるものを見つけ出します」との一節が確認できます。

さらにアップルの最高プライバシー責任者であるJane Horvath氏は、2020年1月に「アップルはスクリーニング(集団をふるいにかけて目的物を探す)技術を使って違法画像を探している」と述べたとの報道もあったとのことです。

これらにつきアップルは、Friedman氏の発言にノーコメントの一方で、iCloud画像をスキャンしたことはないと回答。しかし2019年以降、iCloudメールの送受信をCSAM画像を探すためスキャンしていると確認したとのことです。iCloudメールは暗号化されていないので、アップルのサーバーを通る際に添付ファイルをスキャンするのは容易だと思われます。

さらにアップルは他のデータを限定的にスキャンしていることを示唆しつつ、ごく小さな規模に留まる以外は、具体的なことを教えてくれなかったそうです。ただし「その他のデータ」にはiCloudのバックアップは含まれていないとのことです。

アップルのこうした回答を、9to5Macは責めているわけではありません。逆に上記のFriedman氏による「アップルが児童ポルノの温床」発言は確かなデータに基づいているわけではなく、ただの推論である可能性が出てきたと指摘しています。アップルが毎年CSAMに関して行っている報告は数百件にすぎず、電子メールのスキャンでは大規模な問題の証拠を捉えられていないことを意味している、とのことです。

かたや、Friedman氏の発言全文は「Facebookなどは信頼と安全性(偽アカウント)に注目しています。プライバシーに関しては、彼らは最悪です。私たちの優先順位は逆です。私たちが児童の(ポルノ)写真を配布するための最大の温床になっている理由です」というものです。

つまりFacebookやその他のクラウドサービスはプライバシー保護を棚上げしてまで児童ポルノ写真を取り締まっているが、アップルは逆にプライバシーを厳守しているために十分に取り締まれていない……と推測しているだけではないか、というわけです。

たしかにGoogleドライブの利用規約には「Google は、コンテンツが違法か否か、または Google のプログラム ポリシーに違反しているか否かを判断するために、コンテンツを審査することができます」とあり、少なくともスキャンが可能であるとは述べています(「Google によるコンテンツの審査が行われていることを前提としないでください」とも但し書きしていますが)。

またメールについても、他社は少なくとも児童ポルノ取締りについてはスキャンしていることは珍しくありません。やはりGoogleのGmailが違法な画像を見つけて、当局に通報したこともありました

アップルは、他のハイテク大手が以前からやっている「児童ポルノ取締りはプライバシー保護よりも優先する」という方針を大がかりに発表したことで、想定以上の注目や批判を集めてしまった面もあるのかもしれません。とはいえ、常々アップルは「プライバシーは基本的人権の1つ」と標榜しているだけに、他社よりも厳しい基準を求められるのも当然とは言えそうです。

(Source:9to5MacEngadget日本版より転載)

【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

先にApple(アップル)は、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。この新機能はまだリリースされていないが、2021年後半にはダウンロード配信される予定だ。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

この記事では、アップルのプライバシー担当責任者Erik Neuenschwander(エリック・ノイエンシュバンダー)氏に、アップル製端末に搭載されるこれらの新機能について話を聞いた。同氏は、この機能についてユーザーが抱いている多くの懸念について丁寧に回答してくれた。この機能の導入後に発生する戦術的、戦略的な問題についても詳しい話を聞くことができた。

また、密接に関連しているが、同じような目的を持つ完全に独立したシステム群であるこれらの機能の導入についても話を聞いた。アップルは今回3つの機能を発表しているが、これらの機能はその守備範囲においても、一般ユーザーの間でも、混同されることが多いようだ。

iCloud写真でのCSAM検出NeuralHashと呼ばれる検出システムは、全米行方不明・被搾取児童センターやその他の組織のIDと照合可能なIDを作成し、iCloud写真ライブラリにある既知のCSAMコンテンツを検出する。大半のクラウドプロバイダーでもユーザーライブラリをスキャンしてこうした情報を取得しているが、アップルのシステムは、クラウド上ではなく端末上でマッチングを行う点が異なる。

メッセージアプリの通信の安全性親がiCloudファミリーアカウントで未成年向けにオンにできる機能。画像を表示しようとする子どもたちに、その画像には露骨な性的表現が検出されていることを警告し、親にも同じ警告がなされることを通知する。

Siriと検索への介入:Siriや検索を介して児童性的虐待画像関連の表現を検索しようとするユーザーに介入して、そのユーザーに介入を通知し、リソースを紹介する。

これらの機能の詳細については、当社の記事(上記にリンクがある)またはアップルが先に投稿した新しいFAQを参照いただきたい。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

筆者は、個人的な体験から、上記の最初の2つのシステムの違いを理解していない、あるいは、自分たちの子どもの無害な写真でも何らかのフィルターに引っかかって厳しい調査を受ける可能性があると考えている人たちがいることを知っている。ただでさえ複雑な内容の発表に混乱を生じさせる結果となっているようだ。この2つのシステムはもちろん、組織がすでに虐待画像と認識しているコンテンツと完全に一致するコンテンツを検索するCSAM検出システムとは完全に別個のものである。メッセージアプリの通信の安全性では、すべての処理が端末上で実行され、外部には一切報告されない。単に、端末を使っている子どもに、性的に露骨な画像を表示しようとしている、またはその可能性があることを、その場で警告するだけである。この機能は親によるオプトイン方式となっており、有効化されていることを親も子どもも意識する必要はない。

アップルのメッセージアプリの通信の安全性機能(画像クレジット:Apple)

また、端末上で写真をハッシュ化しデータベースを使って比較対照できるIDを作成する方法についても疑問の声が上がっている。NeuralHashは、写真の高速検索など、他の種類の機能にも使用できるテクノロジーだが、iPhone上では今のところCSAMの検出以外には使用されていない。iCloud写真が無効になっている場合、この機能は、まったく動作しない。これにより、この機能をオプトアウトできるようにしているのだが、iCloud写真がアップルのオペレーティングシステムに統合されていることの利便性を考えると、オプトアウトすることで失うものが非常に大きいことは明らかだ。

エリック・ノイエンシュバンダー氏へのインタビューでは、これらの新機能について考えられるすべての質問に答えているわけではないが、アップルの上級プライバシー担当者による公開の議論としては、最も詳細な内容になっている。アップルがこれらの新機能の内容を公開しており、継続的にFAQを更新し、記者会見を開いていることから、同社はこのソリューションに明らかに自信を持っているように思われる。

この機能については、さまざまな懸念や反対意見があるものの、アップルは、必要なだけ時間をかけてすべての人たちに納得してもらうことに尽力しているようだ。

このインタビューはわかりやすくするために編集されている。

ーーー

TC:大半の他のクラウドプロバイダーは、すでにCSAM画像のスキャンをかなりの期間実施していますが、アップルはまだ行っていません。現在、サーバー上でCSAM画像の検出を行うことを強制する規制はありませんが、EUやその他の国では規制による混乱が起こっています。今回の新機能はこうした動きを受けてのことでしょうか。なぜ、今なのですか。

なぜ今リリースするのかという点については、児童の虐待からの強力な保護とユーザーのプライバシーのバランスをとるテクノロジーが実現したということに尽きます。アップルはこの分野にかなりの期間注目してきました。これには、クラウドサービス上のユーザーのライブラリ全体をスキャンする最先端の技術が含まれますが、ご指摘のとおり、アップルはこうした処理、つまりユーザーのiCloud写真を走査するという処理を行ったことがありません。今回の新システムもそうした処理は一切行いません。つまり、端末上のデータを走査することもなければ、iCloud写真に格納されているすべての写真を走査することもありません。では、何をやっているのかというと、既知のCSAM画像が蓄積し始めているアカウントを特定する新しい機能を提供しているのです。

ということは、この新しいCSAM検出テクノロジーが開発されたことが重要な転機となって、このタイミングで今回の機能をリリースすることになったというわけですね。しかも、アップル自身も満足のいく形で、なおかつユーザーにとっても「良い」方法でこの機能を実現できると考えていると。

そのとおりです。この機能には、同じくらい重要な2つの目的があります。1つはプラットフォーム上での児童の安全性を向上させること、もう1つはユーザーのプライバシーを保護することです。上記の3つの機能はいずれも、上記の2つの目的を実現するテクノロジーを組み合わせることで実現されています。

メッセージアプリの通信の安全性機能とiCloud写真でのCSAM検出機能を同時に発表したために、両者の機能と目的について混乱が生じているようです。これらを同時に発表したことは良かったのでしょうか。また、この2つが別個のシステムなら、なぜ同時に発表されたのでしょうか。

確かにこれらは2つの別個のシステムですが、Siriと検索における当社による介入の増加に伴って開発されたものです。アップルのiCloud写真サービスの中の既知のCSAMのコレクションが格納されている場所を特定することも重要ですが、その上流部分を特定することも重要です。上流部分もすでにひどい状況になっています。CSAMが検出されるということは、すでにレポートプロセスの処理対象になったことのある既知のCSAMが存在しており、それが広範囲に共有されて子どもたちが繰り返し犠牲になっているということです。そもそも最初にそうした画像が作成される原因となった虐待があり、そうした画像の作成者がいたはずです。ですから、そうした画像を検出することも重要ですが、人々が問題のある有害な領域に入ろうとするときに、あるいは、虐待が発生し得る状況に子どもたちを仕向ける虐待者がすでに存在している場合に、早期に介入することも重要です。メッセージアプリの通信の安全性と、Siriおよび検索に対する当社の介入は、まさにその部分に対する対応策です。つまり、アップルはCSAMに至るまでのサイクルを遮断しようと試みているのです。最終的にはCSAMがアップルのシステムによって検出されることになります。

iCloud写真システムにおけるアップルのCSAM検出プロセス(画像クレジット:Apple)

世界中の政府と政府機関は、何らかのエンド・ツー・エンドまたは部分的な暗号化を組織内で使用している大規模組織に常に圧力をかけています。政府機関は、バックドアや暗号解読手段に賛成する理論的根拠として、CSAMやテロにつながる可能性のある活動を抑えることを挙げることがよくあります。今回の新機能および端末上でのハッシュ照合を実現する機能をリリースするのは、それらの要求を回避し、ユーザーのプライバシーを犠牲にすることなく、CSAM活動を追跡し防止するために必要な情報を提供できることを示すための取り組みでしょうか。

最初に、端末上での照合についてですが、このシステムはマッチング結果を(通常マッチングと考えられているような方法で)端末または(端末が作成するバウチャーを考えている場合でも)アップルに公開しないように設計されている、という点を申し添えておきます。アップルは個々の安全バウチャーを処理することはできません。このシステムは、あるアカウントに、違法な既知のCSAM画像に関連付けられたバウチャーのコレクションが蓄積した時点で初めて、そのユーザーのアカウントについて調査できるように設定されています。

なぜそんなことをするのかというと、ご指摘のとおり、これはユーザーのプライバシーを保護しながら検出機能を実現するための仕組みだからです。我々の動機となっているのは、デジタルエコシステム全体で児童の安全性を高めるためにもっと多くのことを行う必要があるという事実です。上記の3つの機能はすべて、その方向への前向きな一歩になると思っています。同時に、アップルが、違法行為に関わっていない人のプライバシーを侵害することも一切ありません。

端末上のコンテンツのスキャンとマッチングを可能にするフレームワークを作成するというのは、法的執行機関の外部のフレームワークを作るということでしょうか。つまり「アップルはリストを渡します。ユーザーのデータをすべて検索するようなことはしたくありませんが、ユーザーに照合して欲しいコンテンツのリストを渡すことはできます」ということでしょうか。そのリストをこのCSAM画像コンテンツと照合できるなら、探しているCSAM画像以外のコンテンツとも照合できますよね。それは、アップルの現在の考え方、つまり「アップルはユーザーの端末を復号化できない。端末は暗号化されていて、我々はキーを持っていないのだから」という立場を損なうことになりませんか。

その立場は一切変わりません。端末は依然として暗号化されていますし、アップルは復号化キーも持っていません。今回の新システムは端末上のデータに対して機能するように設計されています。アップルが作成したのは端末側コンポーネントです。プライバシーを向上させる端末側コンポーネントも含まれています。サーバー上のユーザーデータをスキャンして評価するやり方もあったわけですが、そのほうが(ユーザーの承認なしに)データを自由に変更できるし、ユーザーのプライバシーも低いのです。

今回のシステムは、端末側コンポーネントとサーバー側コンポーネントで構成されています。端末側コンポーネントは、バウチャーを作成するだけで何も認識しません。サーバー側コンポーネントには、バウチャーと、アップルのサービスに入ってくるデータが送信され、当該アカウントについて、違法なCSAM画像のコレクションが存在するかどうか調査されます。つまり、サービス機能です。話が複雑になりますが、このサービスの機能に、バウチャーが端末上に作成される部分が含まれているのですが、何度も申し上げているとおり、端末上のコンテンツの内容が認識されることは一切ありません。バウチャーを生成することで、サーバー上ですべてのユーザーのコンテンツを処理する必要がなくなりました。もちろん、アップルはiCloud写真の内容を処理したことも一切ありません。そのようなシステムは、プライバシー保護の観点から、より問題を起こしやすいと思います。ユーザーに気づかれずにシステムを本来の設計意図とは異なるものに変更できてしまうからです。

このシステムに関して大きな疑問が1つあります。アップルは、CSAM画像以外のコンテンツをデータベースに追加して端末上でチェックするよう政府やその他の機関から依頼されたら拒否すると明言しました。アップルには、ある国で事業展開したければ、その国の法律に最高レベルで準拠しなければならなかった例が過去にあります。中国の件が良い例です。政府からシステムの意図的改ざんを要求または依頼されても、アップルは、そうした干渉を一切拒否するという約束は本当に信頼できるのでしょうか。

まず、このシステムは米国内でのみ、iCloudアカウントのみを対象としてリリースされます。ご質問では国全般または米国以外の国からの要請を想定されているようです。少なくとも米国の法律では、こうした要請を政府が行うことは許されていないと思われます。

システムを改ざんする試みについてですが、このシステムには、多くの保護機能が組み込まれており、児童虐待画像を保持している個人を(政府が)特定するにはあまり役立たないようになっています。ハッシュリストはオペレーティングシステムに組み込まれるのですが、アップルは1つのグローバルなオペレーティングシステムのみを所有しており、個々のユーザー向けにアップデートを配信することはできません。ですから、ハッシュリストはシステムを有効にしているすべてのユーザーに共有されます。第2に、このシステムでは、(バウチャーの中身を見るには)画像のしきい値を超える必要があるため、個人の端末または特定のグループの端末から単一の画像を探し出すことはできません。というのは、システムはアップルに、サービスに保存されている特定の画像について一切情報を提供しないからです。第3に、このシステムには手動によるレビュー段階が組み込まれています。つまり、あるアカウントに、違法なCSAM画像のコレクションが保存されていることを示すフラグが立つと、外部の機関に報告する前に、アップルのチームがその画像が確かに違法なCSAM画像と一致していることを確認するようになっています。ですから、ご指摘のような状況(アップルが政府の要請に応じてシステムを改ざんするような事態)が発生するには、例えばアップルに内部プロセスを変更させて違法ではない(既知のCSAM以外の)コンテンツも報告させるようにするなど、本当に多くの作業を行う必要があります。それに、アップルは、そうした要請を行うことができる基盤が米国内に存在するとは考えていません。最後に付け加えておきますが、ユーザーはこの機能を有効にするかどうかを選択できます。この種の機能が気に入らなければ、iCloud写真を使わない選択をすればよいだけです。iCloud写真が無効になっていれば、このシステムは一切機能しません。

iCloud写真が無効になっていればこのシステムは機能しないと、確かにFAQでも明言されています。この点について具体的にお聞きしますが、iCloud写真が無効になっている場合でも、このシステムは端末上で写真のハッシュの作成を継続するのでしょうか。それとも、無効にした時点で完全に非アクティブな状態になるのでしょうか。

ユーザーがiCloud写真を使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAMの検出では、ニューラルハッシュがオペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較対照されます。iCloud写真を使用していない場合、安全バウチャーの作成やバウチャーのiCloud写真へのアップロードなどの追加部分は、一切実行されません。

アップルは近年、端末上での処理によりユーザーのプライバシーが保護されるという事実に注目しています。今思い浮かぶ過去のすべての事例において、これは真実です。確かに、例えば写真をスキャンしてそのコンテンツを特定し、検索できるようにするといった処理は、ローカルの端末上で実行し、サーバーには送信しないで欲しいと思います。しかし、この機能の場合、外部の使用ケースがなければ個人的な使用をスキャンするのではなくローカルの端末をスキャンするという点で、ある種の抗効果が発生し、ユーザーの気持ちに「信頼性の低下」というシナリオが生まれる可能性があるように思います。それに加えて、他のすべてのクラウドプロバイダーはサーバー上をスキャンすることを考慮すると、この実装が他のプロバイダーとは異なるため、ユーザーの信頼性が低下するのではなく向上するのはなぜか、という疑問が生じるのですが。

アップルの方法は、業界の標準的な方法と比較して、高い水準にあると思います。すべてのユーザーの写真を処理するサーバー側のアルゴリズムでは、どのようなものであれ、データ漏洩のリスクが高くなり、当然、ユーザーのライブラリ上で行う処理という点で透過性も低くなります。これをオペレーティングシステムに組み込むことで、オペレーティングシステムの完全性によって他の多くの機能にもたらされているのと同じ特性を実現できます。すべてのユーザーが同じ1つのグローバルなオペレーティングシステムをダウンロードおよびインストールするため、個々のユーザー向けに特定の処理を行うのはより難しくなります。サーバー側ではこれは実に簡単にできます。いくつかのプロパティを用意しそれを端末に組み込んで、この機能が有効になっているすべてのユーザーでプロパティ設定を統一できることで、強力なプライバシープロパティが得られます。

第2に、オンデバイステクノロジーの使用によってプライバシーが保護されるというご指摘ですが、今回のケースでは、まさにおっしゃるとおりです。ですから、ユーザーのライブラリをプライバシー性の低いサーバー上で処理する必要がある場合の代替策になります。

このシステムについて言えるのは、児童性的虐待画像という違法行為に関わっていないすべてのユーザーのプライバシーが侵害されることは一切なく、アップルがユーザーのクラウドライブラリに関して追加の情報を得ることも一切ないということです。この機能を実行した結果としてユーザーのiCloud ライブラリが処理されることはありません。その代わりに、アップルは暗号的に安全なバウチャーを作成できます。このバウチャーには数学的プロパティが設定されています。アップルがコンテツを復号化したり画像やユーザーに関する情報を取得できるのは、そのユーザーが、CSAMハッシュと呼ばれる違法な画像ハッシュに一致する写真を収集している場合だけです。一方、クラウド処理スキャンサービスでは、まったく状況が異なります。すべての画像を復号化された形式でくまなく処理し、ルーチンを実行して誰が何を知っているのかを決定するからです。この時点で、ユーザーの画像に関して必要なことは何でも確定できます。それに対して、アップルのシステムでは、NCMECおよび他の児童虐待保護組織から直接入手した既知のCSAM画像ハッシュのセットに一致することが判明した画像について知ることしかできません。

このCSAM検出機能は、端末が物理的にセキュリティ侵害されたときにも全体として機能しますか。何者かが端末を手元で操作できれば、暗号がローカルに迂回されることもあります。これを防ぐための保護レイヤーはありますか。

これは難しく、犠牲が大きい問題ですが、非常に稀なケースであることを強調しておきたいと思います。この問題はほとんどのユーザーにとって日常的な関心事ではありませんが、アップルはこの問題を真剣に受け止めています。端末上のデータの保護は我々にとって最重要事項だからです。では、誰かの端末が攻撃されたという仮説の下で説明してみます。その攻撃は極めて強力なので、攻撃者が対象ユーザーに対して行えることはたくさんあります。攻撃者にはアクセス可能なユーザーのデータが大量にあります。誰かの端末のセキュリティを侵害するという極めて難しい行為をやってのけた攻撃者にとって最も重要なことが、アカウントの手動レビューを起動させることだという考え方は合理的ではありません。

というのは、思い出して欲しいのですが、しきい値が満たされていくつかのバウチャーがアップルによって復号化されても、次の段階で手動レビューによって、そのアカウントをNCMECに報告するべきかどうかを決定するわけですが、我々は合法的な高価値レポートであるケースでのみこうした報告を行うべきだと考えています。我々はそのようにシステムを設計していますが、ご指摘のような攻撃シナリオを考えると、攻撃者にとってあまり魅力的な結果にはならないと思います。

画像のしきい値を超えた場合のみ報告されるのはなぜですか。CSAM画像が1つ見つかれば十分ではないでしょうか。

NCMECに対してアップルが報告するレポートは高価値でアクション可能なものにしたいと考えています。また、すべてのシステムについて共通しているのは、その画像が一致するかどうかにある程度の不確かさが組み込まれるという点です。しきい値を設定することで、誤報告によってレビューに至る確率は年間で1兆アカウントに1つになります。ですから、既知のCSAMのコレクションを保持しているユーザー以外の写真ライブラリをスキャンすることに興味がないという考え方に反することになりますが、しきい値を設定することで、レビューしているアカウントをNCMECに報告したとき、法執行機関は効果的に調査、起訴、有罪判決まで持っていくことができると確信できます。

関連記事
電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ
アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに
アップルがSiri改善のためフィードバック収集アプリ「Siri Speech Study」をひそかに提供開始
また批判を浴びるアップルの児童虐待検出技術
画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Matthew Panzarino、翻訳:Dragonfly)

電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ

電子フロンティア財団が「アップルの大規模な監視計画に反対」との声明を発表、請願書への署名を呼びかけ

EFF

アップルは今月初め、児童虐待対策をiPhoneやMacに導入するとして、2つのしくみを発表しました。ひとつは「子供がメッセージアプリで性的な写真を受信したり送ろうとすると、本人に警告しつつ親に通報する」、もうひとつは「iCloudに保存されるCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)画像を検出し、当局に通報することもある」といったものです。

これに対してEFF(電子フロンティア財団)が「アップルの大規模な監視計画に反対する」との声明を発表し、iPhoneユーザーらに請願書への署名を呼びかけています。

EFFとは米国に拠点を置く非営利組織であり、デジタル世界での市民の自由を擁護することを目的とする団体です。先日もiOS 14でのアプリトラッキング制限については支持を表明しており、特に反アップルの色合いはありませんが、アップルが上記のCSAM対策を発表した直後に「私生活にバックドアを開く」として反対を表明していました

EFFは今回の声明で「大量の監視は、それがどんなに善意のものであっても、犯罪撲滅のための戦略として容認できるものではありません」と主張。その上でアップルの新方針を「次のバージョンのiOSがすべてのiPhoneに監視ソフトウェアをインストールする」とみなし、憤慨している人々に声を上げるよう訴えかけています。

この声明によれば「昨年EFFの支援者たちは、オンライン上のすべてのメッセージのスキャンを可能にする可能性があった政府の計画であるEARN IT法案を阻止しました」とのこと。ここでいうEARN IT法案とは、2020年3月に米上院議員らが提出したものであり、法執行機関が令状を取得した場合に、テクノロジー企業が暗号化データの解除を支援するよう義務づける内容でした。要は暗号解読バックドア法案ということで、否決に追い込まれています。

そしてEFFはアップルの計画を「すべてのiPhoneで写真のスキャンを可能にする」と定義し、EARN IT法案と同じように受け入れられないことを表明すべきだとの趣旨を述べています。

EFFいわく、アップルがiPhoneに導入しようとしている「スキャンシステム」は2つ。ひとつは「iCloudにアップロードされた写真をスキャンし、法執行機関が子どもに対する犯罪を調査する」ために準政府機関である全米行方不明・被搾取児童センター(NCMEC)を初めとした団体が持つCSAMデータベースと比較するシステムです。

もう1つは、保護者(iCloudファミリー共有が設定されている場合)が選んだ場合に作動するもので、未成年者が送信したiMessagesを調査し、あらゆる種類の「性的に露骨な」素材を探すアルゴリズムと照合するもの。その類の画像が検出された場合、iPhoneは本人、場合によっては親に年齢に応じた通知を行うーーといったEFFの解釈は、アップルの説明とも一致しています。

ちなみにアップル幹部はCSAM対策に批判が湧き起こった直後、この2つの施策を一度に発表したことで「アップルがメッセージアプリを検閲している」との誤解を招いてしまったと認め、もう少し違いをハッキリさせれば良かったと反省を述べていました

さてEFFの声明に戻ると「これらのシステムは、私たちのプライバシーとセキュリティを脅かすもの」であり、iCloud画像のスキャンについては「すべてのiCloud写真ユーザーのプライバシーを侵害」し、「政府が作成したCSAMの秘密データベースと照合する」と批判。かたやメッセージアプリでの保護者通知スキャンには「エンドツーエンドの暗号化の約束を破るもの」との見解を述べています。

締めくくりにEFFは、アップルの施策を「虐待する親のことを考慮していない」と分析し、ひいては「権威主義的な政府がその拡大(画像スキャンやメッセージの検閲など)を推し進めようとする」危険があると指摘しています。

これまでの批判に対してアップルは、iCloud写真スキャンは動画には適用されず、政府による利用もあり得ないと反論しています。しかし、一度そうしたしくみを作ってしまえばバックドアに転用される可能性を完全には否定しがたく、また一企業に過ぎないアップルが現地の法律に従わざるを得ないことはすでに証明済みです

そもそも一連の批判や混乱は、アップルが外部の児童虐待対策団体などに(少なくともNCMECや一部組織以外は)相談せず、すでに世界的なプラットフォームになったiPhoneについて、一方的にプライバシーに踏み込む施策を打ち出したことが大きな原因とも思われます。今後アップルはさらなる説明を追加するか、譲歩を迫られるのかもしれません。

(Source:EFF(1)(2)Engadget日本版より転載)

また批判を浴びるアップルの児童虐待検出技術

Apple(アップル)が2021年8月初めに発表した、児童への性的虐待コンテンツ素材(child sexual abuse material、CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。

NeuralHashはユーザーのデバイスにある既知のCSAMを見つけるが、画像を所有したり、その画像のコンテンツを認知したりはしない。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているため、Appleですらそのデータにアクセスできない。そのため、NeuralHashはそユーザーのデバイスにある既知のCSAMをスキャンし、Appleはこれをよりプライバシーフレンドリーだと主張している。それは他企業のようにすべてのユーザーファイルをスキャンするのではなく、写真だけを対象にスキャンするからだ。

Appleは、ユーザーのデバイス上で、NCMECといった児童保護団体から提供されたハッシュ(画像を一意に識別できる文字と数字の組み合わせ)が同じである画像を探すことでこれを行います。NeuralHashが30個以上の一致するハッシュを見つけた場合、その画像はAppleにフラグが立てられ、アカウント所有者が法執行機関に報告される前に、手動で審査される。Appleによると、誤検出の可能性は1兆個のアカウントで約1つだという。

しかしセキュリティのエキスパートやプライバシー保護活動家たちは、そのシステムは政府のようなリソースが極めて豊富なところでは乱用誤用される可能性があるという懸念を表明している。たとえば罪のない人が巻き込まれたり、システムが操作されて権威主義的な国が有害と認めるような素材を検出するかもしれない。Appleのスタッフに対し社内的に配布されたメモのリークによると、NCMECはそういう批判者のことを「少数派のキーキー声」と呼んでいる。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

米国時間8月17日夜、Asuhariet Ygvar(アスーハリエット・イグバー)氏は、NeuralHashのコードをPythonのスクリプトに落として、そのコードをGitHubに公開し、Appleのデバイスが手元にない人でもこの技術をテストできるようにした。イグバー氏はRedditのポストで、NeuralHashは難読化されたコードでiOS 14.3に「すでに存在している」が、その技術を再構築することができたため、2021年の後期にiOSとmacOSデバイスに展開される前にセキュリティの研究者はアルゴリズムをもっとよく理解できる、と述べている。

コードが公開され他の人が手を加えるようになり、NeuralHashのケースでは2つの完全に異なる画像が同じハッシュを生成する「ハッシュの衝突」という現象が初めて報告された。この「ハッシュの衝突」を発見したのは、Intel Labsの著名な研究員であるCory Cornelius(コーリー・コーネリアス)氏だ。その後、イグバー氏も衝突を確認している。

ハッシュの衝突は、セキュリティを暗号技術に依存しているシステムのお葬式の鐘になることもある。何年もの間に、MD5やSHA-1のようなパスワードハッシングアルゴリズムは衝突攻撃によって無効になり、その後現役の座を去った

暗号技術のエキスパートでOpen Crypto Audit Projectを創ったKenneth White(ケネス・ホワイト)氏は、「iOSのNeuralHashのコードが見つかってから、最初の衝突が起きるまでの時間が、数カ月や数日ではなくて2時間だということを、理解してなかった人もいたようだね」とツイートしている。

Appleの広報担当者は公式のコメントを拒否したが、匿名かつオフレコで語ったところによると、Appleはハッシュの衝突を軽視し、保護策を講じることが重要と主張した。それは例えば法執行機関に報告する前に手作業で写真を調べることで虐待を防げる、と。さらにAppleによると、NeuralHashのコードを分解されたバージョンはジェネリック(総称的)なバージョンであり、2021年後期に展開する完全なバージョンではないという。

その技術に懸念を表明しているのは人権グループやセキュリティのエキスパートだけではない。ドイツの高名な国会議員が今週、AppleのCEOであるTim Cook(ティム・クック)氏に書簡を送り、同社は「危険な道」を歩んでいると述べて、Appleがそのシステムを実装しないことを強く要請した。

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
持続可能性にフォーカスするアップルのImpact Acceleratorが支援する有色人種企業15社を決定
アップルが不評だったSafariの変更点をiOS 15 beta 6で修正、再びアドレスバーの上部表示も可能に

画像クレジット:Getty Images

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)

アップルがメッセージアプリで送受信される性的な画像を検知し、子どもと親に警告する新技術を発表

Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、今年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material: CSAM)の拡散を制限することを目的に、同社が導入するいくつかの新技術の一部だ。

これらの開発の一環として、アップルは消費者のプライバシーを尊重しつつ、iPhoneやiPadなどのモバイルデバイスやiCloud(アイクラウド)にアップロードされた写真の中から、既知のCSAM画像を検出できる技術を導入する。

一方、メッセージアプリの新機能は、子どもたちが健全なオンライン・コミュニケーションを取れるように、親がより積極的に関わり、情報が得られるようにするためのものだ。今年後半に予定されているソフトウェアアップデートにより、アップルのメッセージアプリは機械学習を使って画像添付ファイルを分析し、メッセージアプリで送受信される画像が、性的に露骨なものでないかを判断できるようになる。この技術では、すべての処理がデバイス上で行われるため、アップルが子どものプライベートな通信にアクセスしたり、それを傍受する必要はない。クラウド上のアップルのサーバーには何も転送されることはない。

メッセージの中に、性的な問題がありそうな画像が検知された場合、その画像はブロックされ、写真の下に「これは問題があるかもしれない画像です」というラベルが表示される。タップすればその画像を見ることができるが、子どもが写真の閲覧を選択すると、さらに詳しい情報を伝える別の画面が表示される。そこには、問題のありそうな写真や動画について、「水着で隠すプライベートな体の部分が写っています」とか「あなたは悪くないけれど、刺激的な写真や動画はあなたを傷つけるために使われることがあります」というメッセージが表示される。

また、写真や動画に写っている人が、見られたくないと思っているのに本人が知らないうちに共有されている可能性があることも提言する。

これらの警告は、子どもがそのコンテンツを見ないという正しい判断をするように導くためのものだ。

しかし、それでも子どもがタップして画像を見ようとすると、さらに別の画面が現れ、写真を見ることを選択した場合、親に通知されることが伝えられる。また、この画面では、親たちが子どもの安全を願っていることを説明し、本当は見たくないのに見るようにと強制されているなら、信頼できる人に相談するように勧めている。助けを求めるためのリソースへのリンクも表示される。

画面の下には写真を見るための選択肢は残されているものの、デフォルトで選べるようにはなっていない。その代わり、「写真を表示しない」という選択肢の方が目立つように画面がデザインされている。

コミュニケーションを妨げてアドバイスやリソースを提供するだけでなく、システムが保護者に警告を発するこのような機能は、子どもを性犯罪者から守ることに役立つ可能性がある。子どもが性犯罪者から被害を受けた時、親は子どもが相手とネットや電話で会話を始めたことにさえ気づかなかったというケースが多いからだ。性犯罪者は子どもの心理を巧みに操って信頼を得ようとし、子どもを親から引き離して、コミュニケーションを親に内緒にさせようとする。あるいは犯罪者が親に近づいてくるケースもある。

アップルのテクノロジーは、性的に露骨な内容の画像や動画が共有されることに介入し、特定して、警告を発することで、どちらのケースにおいても役に立つだろう。

しかし、CSAMの中には、いわゆる自己作成型CSAM、つまり子ども自身が撮影した画像を、子どものパートナーや仲間と合意の上で共有するものが増えている。セクスティングとか、裸の写真の共有などだ。子どもの性的搾取に対抗する技術を開発している企業のThorn(ソーン)が2019年に行った調査によると、この行為は非常に一般的になっており、13歳から17歳の女子の5人に1人が、自分の裸の写真を共有したことがあると答え、男子の10人に1人が、同じことをしたことがあると答えている。しかし、その画像を共有することで、性的虐待や搾取の危険にさらされることを、子どもは十分に理解していないかもしれないのだ。

アップルの新しいメッセージアプリは、これに対しても同様の保護機能が働く。この場合、子どもが性的に露骨な写真を送ろうとすると、写真が送信される前に警告が表示される。それでも子どもが写真を送信しようとした場合には、保護者にメッセージが届く。

アップルによれば、この新機能は今年後半に行われるソフトウェアアップデートの一環として、まずは米国から、iOS 15、iPadOS 15、macOS Monterey(モントレー)のiCloudで、家族として設定されたアカウントで有効になるとのこと。

このアップデートはSiriと検索にも適用され、子どもや親がオンラインで安全に過ごせるように、安全でない状況で助けを得るためのガイダンスやリソースが拡充される。例えば、ユーザーはSiriに、CSAMや児童の性的搾取を報告する方法を尋ねることができるようになる。また、ユーザーがCSAMに関連する疑問を検索すると、Siriと検索が介入して、そのトピックが有害であることを説明し、助けを得るための情報や相談先を提供する。

関連記事:

カテゴリー:
タグ:

画像クレジット:Janis Engel / EyeEm / Getty Images
原文へ
(文:Sarah Perez、翻訳:Hirokazu Kusakabe)

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

アップルがiCloudをアップデート、プライバシー機能を追加した「iCloud+」発表

Apple(アップル)はiCloud+という名称のサービスでiCloudをアップデートする。同社のデベロッパー会議WWDCで発表した。既存の有料iCloudユーザーは同じサブスク価格でiCloud+を利用できる。

AppleはSafariでPrivate Relayという新しいプライバシー機能を導入する。同社がCloudflareと開発してきた新しいDNS機能とやや似ている。元々はOblivious DNS-over-HTTPSという名称で、DNS-over-HTTPとプロキシサーバーの組み合わせだが、かなりシンプルという点でPrivate Relayはずっといい名称かもしれない。

Private Relayがオンになると、あなたのブラウジング履歴を誰も追跡できない。あなたのデバイスと、情報をリクエストするサーバーの間に介在するインターネットサービスプロバイダーも追跡できない。実際、どのように機能するか詳細についてはもうしばらく待たなければならない。

iCloud+の2つめの機能は「Hide my email」だ。ニュースレター購読を申し込むとき、あるいはウェブサイトでアカウントを開くとき、ランダムな電子メールアドレスを作成できる。もしあなたがこれまでに「Sign in with Apple」を使ったことがあるなら、フェイクのiCloud電子メールアドレスを使うオプションをAppleが提供していることを知っているだろう。これも同様に機能するが、どのアプリでも使える。

最後に、AppleはHomeKit Secure Videoを改良する。iCloud+の導入で、無料の iCloudユーザーと有料のiCloudユーザーを分ける。基本的にユーザーはこれまでストレージのためにお金を払っていたが、今後はストレージとさらに多くの機能が利用できるようになる。サブスクリプションは50GB(とiCloud+機能)月0.99ドル(約108円)からだ。

一般的なものでは、Appleは待望の2つの機能をiCloudアカウントに追加する。まず、アカウントリカバリーでの友達の追加だ。これにより、あなたのデータへのアクセスを友達にリクエストできるようになる。しかしそれはiCloudにあるあなたのデータに友達がアクセスできることを意味するのではない。あなたのアカウントをリカバーするための方法にすぎない。

そして切望されていたアップデートはレガシー機能だ。1つあるいはいくつかのレガシーコンタクト(データを相続する人の連絡先)を間もなく加えることができるようになる。そうすることであなたが死んだとき、データは引き継がれる。身近な人が亡くなると多くの写真ライブラリーがアクセスできなくなるため、これはかなり待ち望まれていた機能だ。

関連記事
アップルがiOS 15発表、「つながり続ける」「集中する」といった4つの柱を掲げFaceTime、通知などの新機能満載
アップルがmacOS 12 Monterey発表、PCとタブレットのギャップを埋める
アップルが動画や音楽をバーチャル共同視聴できる新機能「SharePlay」をiOS 15で導入
アップルのiOS 15新機能「Live Text」は写真内の文字を自動認識してテキストデータ化
今秋リリースのアップルのwatchOS 8にマインドフルネスと呼吸追跡の機能
アップルがMacにも「ショートカット」を搭載、Automatorからの移行を開始する
AppleマップがiOS 15アップグレードでより詳細な地図、交通機関ナビ、ARビューなど追加

カテゴリー:ネットサービス
タグ:AppleWWDC 2021WWDCプライバシーiCloudiCloud+Safariサブスクリプション

画像クレジット:Apple

原文へ

(文:Romain Dillet、翻訳:Nariko Mizoguchi

アップルがWindows版Chrome拡張機能としてiCloudパスワードを米国にてローンチ

Apple(アップル)は、ウェブブラウザChromeの拡張機能「iCloudパスワード」を米国で公開した。これは、WindowsパソコンとMacBookやiPhoneなどのAppleデバイスの両方を使っている人の人生を楽にしてくれるものだ。この新しいブラウザ拡張機能は、Safariに保存したパスワードを他のAppleデバイスからアクセスできるように、さらにWindowsを使ってるときはChromeでも利用できるようにしてくれる。

また、Chromeで設定した新しいパスワードをiCloudキーチェーンに保存できるため、Appleデバイス間でもパスワードが同期される。

画像クレジット:Apple

このiCloudパスワード拡張機能に関して、Appleは事前に正式発表していなかったが2021年1月末に公開されたWindows10用iCloud(ver.12)に関する広報資料ではすでに触れられていた。これまでも更新を行うと、iCloudキーチェーンのロゴで示される「パスワード」セクションが現れた。ここからこの新拡張機能をダウンロードすることになっているのだが、サービスの運用開始以前はリンクが切れていた。

9to5Googleの報告によると、それが1月31日の日曜日から使用可能となり、その日の夕方にはChromeウェブストアで新アドオンが公開されたという。現在は、Windowsでこの新しいパスワードセクションにアクセスすれば、ダウンロードを促すダイヤログボックスが表示され、正常に機能する。

インストールを行えば、Windows版Chromeのユーザーは、macOSまたはiOSのSafariに保存したパスワード、iCloudキーチェーンで生成された安全なパスワードのすべてにアクセスが可能になる。反対に、Windowsで作った新しいパスワードもiCloudキーチェーンに同期されるので、必要ならばMac、iPhone、iPadからもアクセスできる。

これは、WindowsでiCloudキーチェーンに対応する初めてのChrome拡張機能だ。これまでAppleが提供していたのは、Windows7と8用のiCloudブックマークのみだが、利用者数は700万人以上にのぼっていた。

画像クレジット:Apple

この拡張機能を試したユーザーの中には不具合を訴える者もいたが、原因は同機能を使うための必要条件であるWindows用iCloud 12.0への更新を怠っていたためと思われる。

Appleは自社のプラットフォームにユーザーを囲い込みたがる傾向にあるが、少しずつながらWindowsや、さらにはAndroidにも一部のサービスを広げている。今ではApple MusicやApple TVといったエンターテインメントアプリも、Androidを含む他のプラットフォームに提供している。Apple TVなどは、Amazon Fire TVをはじめとするライバルのメディアプレイヤー上でのサービスも開始している。9to5Macは、Appleは将来、Apple MusicとPodcastをMicrosoft Storeで展開する予定だとも伝えている。

関連記事:AppleがiOS 14.4を公開、ハッカーが悪用した3カ所の脆弱性を修正

カテゴリー:ソフトウェア
タグ:AppleChromeiCloud

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Sarah Perez、翻訳:金井哲夫)