グーグルとアップルのアプリ内決済ルール強制を禁じる韓国の法案の最終採決が延期に

Apple(アップル)とGoogle(グーグル)が、それぞれのアプリストアで配信するサードパーティ製アプリ内のサービスへの課金方法について定めたルールを巡ってますます厳しい目を向けられている中、韓国ではそれに関し大きな進展が起こっている。

韓国国会の司法委員会は現地時間8月25日、GoogleとAppleがアプリ内課金でソフトウェア開発者に手数料を請求する慣行を防ぐための、世界初となる画期的な法案を可決した。同日の本会議で予定されていた、同案を可決・有効化するために必要な全議員による最終採決は、当面の間延期となった。

メディアによると、本会議は暫定的に8月30日に延期されたとのこと。

法案が成立した場合、韓国は、このようなグローバルテック巨人らが特定のアプリ内決済システムを強要することを禁止する最初の国となる。

「反グーグル法」と名付けられたこの法案は、国会の立法・司法委員会で承認された電気通信事業法改正案で、GoogleとAppleがアプリ開発者に自社の決済システムの使用を強制することを禁じようとするものだ。

Googleは2020年9月、すべてのアプリ開発者に自社の決済システムを課し、すべてのアプリ内課金に対して最大30%の手数料を徴収すると発表した。

現地メディアの報道によると、2021年7月、Googleはアプリ開発者の要求に応じて新しい課金制度を2022年3月末に延期することを決定し、プレイストアの手数料を15%に引き下げると発表した。

Appleは声明で次のように述べた。「提案されている電気通信事業法は、他のソースからデジタル商品を購入するユーザーを詐欺のリスクにさらし、プライバシー保護を弱め、購入を管理することを困難にし、(子供向けの)『Ask to Buy』やペアレンタルコントロールなどの機能の効果が失われるでしょう。この法案の結果、App Storeでの購入に対するユーザーの信頼が低下し、これまでにAppleから8兆5500億ウォン(約8079億円)以上の収益を得ている、韓国の48万2000人以上の登録デベロッパーの事業機会の縮小につながると考えています」。

AppleとGoogleはもちろん、自社のアプリ内決済システムを義務付けることで、より良い安全なユーザーエクスペリエンスを実現するという大きな問題があると主張している。そして、この点がここでも論拠となっている。

Googleはコメントの要請に直ちに返答していない。

関連記事
GMがシボレー・ボルトのリコール損失約1100億円をLG Chemに請求すると表明
アップルとグーグルが上院の独禁法ヒアリングでサードパーティーアプリのデータ共有の詳細を問われる
韓国裁判所がNetflixに不利な判決、ISPによるストリーミングサービスへの帯域幅使用料徴収の道をひらく

原文へ

(文:Kate Park、翻訳:Aya Nakazato)

Spotifyのポッドキャストサブスクを米国の全クリエイターが利用可能に

米国時間8月24日、Spotifyはポッドキャストのサブスクリプションを米国の全ポッドキャストクリエイターに公開した。このサービスはテストとして2021年4月に少数のクリエイターを対象に開始されていた。大手から個人まですべてのクリエイターがSpotifyのポッドキャスト制作ツールであるAnchorを利用して特定のエピソードをサブスク利用者限定コンテンツに指定し、Spotifyや他のプラットフォームで配信できる。Spotifyによれば、サービス開始以降、100以上のポッドキャストがサブスクを利用しているという。同社はこのサービスを広く公開することにともない、早期に利用したクリエイターからのフィードバックに基づいて、価格と機能に関していくつか重要な変更を加えている

関連記事:Spotifyが米国で有料ポッドキャスト開始、2年間クリエイターの取り分は100%

これまでクリエイターは月額2.99ドル、4.99ドル、7.99ドル(約330円、550円、880円)のいずれかの価格を選ぶようになっていた。クリエイターは自分のオーディエンスにとって最適と思われる価格を選ぶことができた。

しかしクリエイターがもっと柔軟な価格設定を望んでいることがわかり、価格を20通りから選べるようになった。最低価格は0.49ドル(約55円)で、そこから徐々に上がっていって最高価格は150ドル(約1万6500円)だ。

画像クレジット:Spotify

Spotifyは調査の結果、クリエイターは価格を完全に自由に設定するよりも最初にある程度設定されている方を望むことがわかったと説明している。そのため、現在はクリエイターが価格を自由に入力するようにはなっていない。今後はテストの結果が良かった3通りの価格として0.99ドル、4.99ドル、9.99ドル(約110円、550円、1100円)が先頭に表示され、その下に17通りの価格が表示される。SpotifyはTechCrunchに対し、先頭の3通りのうち4.99ドル(約550円)が最もパフォーマンスが良かったと述べた。

価格設定と、別のポッドキャストアプリを使いたいリスナーが利用できるプライベートRSSフィードへのアクセスに加え、ポッドキャストクリエイターはサブスク利用者の連絡先アドレスのリストをダウンロードできるようになる。クリエイターはサブスク利用者に追加のベネフィットを提供してエンゲージメントを高められるとSpotifyは説明している。クリエイターが自分の顧客との直接的なつながりを構築するチャンスを失うとなれば、有料サブスクのようなサービスを利用するつもりがなかったクリエイターにも訴求するかもしれない。

画像クレジット:Spotify

有料ポッドキャストを提供しているのはSpotifyだけではない。Appleも2021年4月にポッドキャストのサブスクプラットフォームを発表した。しかし今のところ、Spotifyの方がクリエイターに有利だ。Appleは1年目はポッドキャストの売上の30%を徴収し、2年目には15%になる。これは他のサブスクアプリと同様だ。一方のSpotifyは、今後2年間はこのプログラムを無料に据え置く。つまりクリエイターは2023年まで売上の100%を受け取れる。その後はサブスクの売上のたった5%を徴収する計画だ。

関連記事:アップルがポッドキャストの有料定額サービス開始を発表、米国では番組あたり約53円から

マーケットプレイスモデルに参入する第一歩にあたり、Appleの独占的な振る舞いを厳しく批判するSpotifyが手数料をこれほど小さなパーセンテージにしたことは注目に値する。Spotifyは長年、AppleがSpotifyのサブスクビジネスから手数料を取るのは競争を阻害する行為だと主張してきた。AppleはApple MusicのサブスクによってSpotifyのビジネス上のライバルになっており、今度はポッドキャストのサブスクでもライバルになる。

現在、Spotifyはサブスクベースのポッドキャストを多数配信している。NPRのような大手から、Betches U Up?、Cultivating H.E.R. Space、Mindful in Minutesといった独立系クリエイターまでさまざまだ(NPRはAppleの有料ポッドキャストサービスでも配信されている)。Spotifyで配信するクリエイターは他のプラットフォームを利用してもよい。プライベートRSSフィードを自分の顧客と共有し、Appleのポッドキャストなど他のプラットフォームに配信できる。

Appleのサブスクサービスが出だしでつまづいていることに対してクリエイターの不満の声が高まる中で、Spotifyはサブスクをクリエイターに広く公開することにした。The Vergeの記事には、バグや紛らわしいユーザーインターフェイス、相互運用性の問題などに対するクリエイターの不満が書かれている。これに対してSpotifyは、ポッドキャストのサブスクに関心を持つクリエイターから「数千件」の登録があったと述べている。

Spotifyは米国以外にも利用を広げるとしている。2021年9月15日には米国以外のリスナーもサブスク専用コンテンツを聴けるようになる。その後すぐにクリエイターもポッドキャストのサブスクを利用できるようになる予定だ。

関連記事
音声プラットフォーム「Voicy」でリスナーから音声配信者への直接課金が月間1000万円を突破
Apple Podcastランキング1位「歴史を面白く学ぶコテンラジオ」を運営するCOTENが8400万円を調達
フェイスブックが音声SNS「Live Audio Rooms」とポッドキャスト向け新サービスの提供を米国で開始
画像クレジット:stockcam / Getty Images

原文へ

(文:Sarah Perez、翻訳:Kaori Koyama)

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていると認める

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていたと認める

Apple

アップルは児童虐待(いわゆる児童ポルノ)対策のためにiCloudにアップロードされる画像をスキャンする方針を発表し、様々な方面から批判を集めています

そんななか、アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていることを認めたと伝えられています。その一方で、iCloud画像やiCloudバックアップはスキャンしていないとのことです。

この声明はアップルの不正防止責任者Eric Friedman氏が、自社サービスが「児童ポルノ写真を配布するための最大の温床になっている」と述べる社内メールが発覚した(Epic Gamesとの訴訟で提出された証拠から発掘)件を受けて、米9to5Macが問い合わせたことに対して回答されたものです。すなわちiCloudの写真をスキャンしていないのであれば、どうやって温床になっていると分かったんだ?というわけです。

9to5Macいわく、他にもアップルがiCloudメールのスキャンを行っているらしき手がかりはいくつもあったとのことです。たとえば「子供の安全」ページ(Webアーカイブ)には、「アップルは画像照合技術を使って児童搾取の発見と報告を支援しています。電子メールのスパムフィルターのように、Appleのシステムは電子署名を使って児童搾取の疑いがあるものを見つけ出します」との一節が確認できます。

さらにアップルの最高プライバシー責任者であるJane Horvath氏は、2020年1月に「アップルはスクリーニング(集団をふるいにかけて目的物を探す)技術を使って違法画像を探している」と述べたとの報道もあったとのことです。

これらにつきアップルは、Friedman氏の発言にノーコメントの一方で、iCloud画像をスキャンしたことはないと回答。しかし2019年以降、iCloudメールの送受信をCSAM画像を探すためスキャンしていると確認したとのことです。iCloudメールは暗号化されていないので、アップルのサーバーを通る際に添付ファイルをスキャンするのは容易だと思われます。

さらにアップルは他のデータを限定的にスキャンしていることを示唆しつつ、ごく小さな規模に留まる以外は、具体的なことを教えてくれなかったそうです。ただし「その他のデータ」にはiCloudのバックアップは含まれていないとのことです。

アップルのこうした回答を、9to5Macは責めているわけではありません。逆に上記のFriedman氏による「アップルが児童ポルノの温床」発言は確かなデータに基づいているわけではなく、ただの推論である可能性が出てきたと指摘しています。アップルが毎年CSAMに関して行っている報告は数百件にすぎず、電子メールのスキャンでは大規模な問題の証拠を捉えられていないことを意味している、とのことです。

かたや、Friedman氏の発言全文は「Facebookなどは信頼と安全性(偽アカウント)に注目しています。プライバシーに関しては、彼らは最悪です。私たちの優先順位は逆です。私たちが児童の(ポルノ)写真を配布するための最大の温床になっている理由です」というものです。

つまりFacebookやその他のクラウドサービスはプライバシー保護を棚上げしてまで児童ポルノ写真を取り締まっているが、アップルは逆にプライバシーを厳守しているために十分に取り締まれていない……と推測しているだけではないか、というわけです。

たしかにGoogleドライブの利用規約には「Google は、コンテンツが違法か否か、または Google のプログラム ポリシーに違反しているか否かを判断するために、コンテンツを審査することができます」とあり、少なくともスキャンが可能であるとは述べています(「Google によるコンテンツの審査が行われていることを前提としないでください」とも但し書きしていますが)。

またメールについても、他社は少なくとも児童ポルノ取締りについてはスキャンしていることは珍しくありません。やはりGoogleのGmailが違法な画像を見つけて、当局に通報したこともありました

アップルは、他のハイテク大手が以前からやっている「児童ポルノ取締りはプライバシー保護よりも優先する」という方針を大がかりに発表したことで、想定以上の注目や批判を集めてしまった面もあるのかもしれません。とはいえ、常々アップルは「プライバシーは基本的人権の1つ」と標榜しているだけに、他社よりも厳しい基準を求められるのも当然とは言えそうです。

(Source:9to5MacEngadget日本版より転載)

【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

先にApple(アップル)は、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。この新機能はまだリリースされていないが、2021年後半にはダウンロード配信される予定だ。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

この記事では、アップルのプライバシー担当責任者Erik Neuenschwander(エリック・ノイエンシュバンダー)氏に、アップル製端末に搭載されるこれらの新機能について話を聞いた。同氏は、この機能についてユーザーが抱いている多くの懸念について丁寧に回答してくれた。この機能の導入後に発生する戦術的、戦略的な問題についても詳しい話を聞くことができた。

また、密接に関連しているが、同じような目的を持つ完全に独立したシステム群であるこれらの機能の導入についても話を聞いた。アップルは今回3つの機能を発表しているが、これらの機能はその守備範囲においても、一般ユーザーの間でも、混同されることが多いようだ。

iCloud写真でのCSAM検出NeuralHashと呼ばれる検出システムは、全米行方不明・被搾取児童センターやその他の組織のIDと照合可能なIDを作成し、iCloud写真ライブラリにある既知のCSAMコンテンツを検出する。大半のクラウドプロバイダーでもユーザーライブラリをスキャンしてこうした情報を取得しているが、アップルのシステムは、クラウド上ではなく端末上でマッチングを行う点が異なる。

メッセージアプリの通信の安全性親がiCloudファミリーアカウントで未成年向けにオンにできる機能。画像を表示しようとする子どもたちに、その画像には露骨な性的表現が検出されていることを警告し、親にも同じ警告がなされることを通知する。

Siriと検索への介入:Siriや検索を介して児童性的虐待画像関連の表現を検索しようとするユーザーに介入して、そのユーザーに介入を通知し、リソースを紹介する。

これらの機能の詳細については、当社の記事(上記にリンクがある)またはアップルが先に投稿した新しいFAQを参照いただきたい。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

筆者は、個人的な体験から、上記の最初の2つのシステムの違いを理解していない、あるいは、自分たちの子どもの無害な写真でも何らかのフィルターに引っかかって厳しい調査を受ける可能性があると考えている人たちがいることを知っている。ただでさえ複雑な内容の発表に混乱を生じさせる結果となっているようだ。この2つのシステムはもちろん、組織がすでに虐待画像と認識しているコンテンツと完全に一致するコンテンツを検索するCSAM検出システムとは完全に別個のものである。メッセージアプリの通信の安全性では、すべての処理が端末上で実行され、外部には一切報告されない。単に、端末を使っている子どもに、性的に露骨な画像を表示しようとしている、またはその可能性があることを、その場で警告するだけである。この機能は親によるオプトイン方式となっており、有効化されていることを親も子どもも意識する必要はない。

アップルのメッセージアプリの通信の安全性機能(画像クレジット:Apple)

また、端末上で写真をハッシュ化しデータベースを使って比較対照できるIDを作成する方法についても疑問の声が上がっている。NeuralHashは、写真の高速検索など、他の種類の機能にも使用できるテクノロジーだが、iPhone上では今のところCSAMの検出以外には使用されていない。iCloud写真が無効になっている場合、この機能は、まったく動作しない。これにより、この機能をオプトアウトできるようにしているのだが、iCloud写真がアップルのオペレーティングシステムに統合されていることの利便性を考えると、オプトアウトすることで失うものが非常に大きいことは明らかだ。

エリック・ノイエンシュバンダー氏へのインタビューでは、これらの新機能について考えられるすべての質問に答えているわけではないが、アップルの上級プライバシー担当者による公開の議論としては、最も詳細な内容になっている。アップルがこれらの新機能の内容を公開しており、継続的にFAQを更新し、記者会見を開いていることから、同社はこのソリューションに明らかに自信を持っているように思われる。

この機能については、さまざまな懸念や反対意見があるものの、アップルは、必要なだけ時間をかけてすべての人たちに納得してもらうことに尽力しているようだ。

このインタビューはわかりやすくするために編集されている。

ーーー

TC:大半の他のクラウドプロバイダーは、すでにCSAM画像のスキャンをかなりの期間実施していますが、アップルはまだ行っていません。現在、サーバー上でCSAM画像の検出を行うことを強制する規制はありませんが、EUやその他の国では規制による混乱が起こっています。今回の新機能はこうした動きを受けてのことでしょうか。なぜ、今なのですか。

なぜ今リリースするのかという点については、児童の虐待からの強力な保護とユーザーのプライバシーのバランスをとるテクノロジーが実現したということに尽きます。アップルはこの分野にかなりの期間注目してきました。これには、クラウドサービス上のユーザーのライブラリ全体をスキャンする最先端の技術が含まれますが、ご指摘のとおり、アップルはこうした処理、つまりユーザーのiCloud写真を走査するという処理を行ったことがありません。今回の新システムもそうした処理は一切行いません。つまり、端末上のデータを走査することもなければ、iCloud写真に格納されているすべての写真を走査することもありません。では、何をやっているのかというと、既知のCSAM画像が蓄積し始めているアカウントを特定する新しい機能を提供しているのです。

ということは、この新しいCSAM検出テクノロジーが開発されたことが重要な転機となって、このタイミングで今回の機能をリリースすることになったというわけですね。しかも、アップル自身も満足のいく形で、なおかつユーザーにとっても「良い」方法でこの機能を実現できると考えていると。

そのとおりです。この機能には、同じくらい重要な2つの目的があります。1つはプラットフォーム上での児童の安全性を向上させること、もう1つはユーザーのプライバシーを保護することです。上記の3つの機能はいずれも、上記の2つの目的を実現するテクノロジーを組み合わせることで実現されています。

メッセージアプリの通信の安全性機能とiCloud写真でのCSAM検出機能を同時に発表したために、両者の機能と目的について混乱が生じているようです。これらを同時に発表したことは良かったのでしょうか。また、この2つが別個のシステムなら、なぜ同時に発表されたのでしょうか。

確かにこれらは2つの別個のシステムですが、Siriと検索における当社による介入の増加に伴って開発されたものです。アップルのiCloud写真サービスの中の既知のCSAMのコレクションが格納されている場所を特定することも重要ですが、その上流部分を特定することも重要です。上流部分もすでにひどい状況になっています。CSAMが検出されるということは、すでにレポートプロセスの処理対象になったことのある既知のCSAMが存在しており、それが広範囲に共有されて子どもたちが繰り返し犠牲になっているということです。そもそも最初にそうした画像が作成される原因となった虐待があり、そうした画像の作成者がいたはずです。ですから、そうした画像を検出することも重要ですが、人々が問題のある有害な領域に入ろうとするときに、あるいは、虐待が発生し得る状況に子どもたちを仕向ける虐待者がすでに存在している場合に、早期に介入することも重要です。メッセージアプリの通信の安全性と、Siriおよび検索に対する当社の介入は、まさにその部分に対する対応策です。つまり、アップルはCSAMに至るまでのサイクルを遮断しようと試みているのです。最終的にはCSAMがアップルのシステムによって検出されることになります。

iCloud写真システムにおけるアップルのCSAM検出プロセス(画像クレジット:Apple)

世界中の政府と政府機関は、何らかのエンド・ツー・エンドまたは部分的な暗号化を組織内で使用している大規模組織に常に圧力をかけています。政府機関は、バックドアや暗号解読手段に賛成する理論的根拠として、CSAMやテロにつながる可能性のある活動を抑えることを挙げることがよくあります。今回の新機能および端末上でのハッシュ照合を実現する機能をリリースするのは、それらの要求を回避し、ユーザーのプライバシーを犠牲にすることなく、CSAM活動を追跡し防止するために必要な情報を提供できることを示すための取り組みでしょうか。

最初に、端末上での照合についてですが、このシステムはマッチング結果を(通常マッチングと考えられているような方法で)端末または(端末が作成するバウチャーを考えている場合でも)アップルに公開しないように設計されている、という点を申し添えておきます。アップルは個々の安全バウチャーを処理することはできません。このシステムは、あるアカウントに、違法な既知のCSAM画像に関連付けられたバウチャーのコレクションが蓄積した時点で初めて、そのユーザーのアカウントについて調査できるように設定されています。

なぜそんなことをするのかというと、ご指摘のとおり、これはユーザーのプライバシーを保護しながら検出機能を実現するための仕組みだからです。我々の動機となっているのは、デジタルエコシステム全体で児童の安全性を高めるためにもっと多くのことを行う必要があるという事実です。上記の3つの機能はすべて、その方向への前向きな一歩になると思っています。同時に、アップルが、違法行為に関わっていない人のプライバシーを侵害することも一切ありません。

端末上のコンテンツのスキャンとマッチングを可能にするフレームワークを作成するというのは、法的執行機関の外部のフレームワークを作るということでしょうか。つまり「アップルはリストを渡します。ユーザーのデータをすべて検索するようなことはしたくありませんが、ユーザーに照合して欲しいコンテンツのリストを渡すことはできます」ということでしょうか。そのリストをこのCSAM画像コンテンツと照合できるなら、探しているCSAM画像以外のコンテンツとも照合できますよね。それは、アップルの現在の考え方、つまり「アップルはユーザーの端末を復号化できない。端末は暗号化されていて、我々はキーを持っていないのだから」という立場を損なうことになりませんか。

その立場は一切変わりません。端末は依然として暗号化されていますし、アップルは復号化キーも持っていません。今回の新システムは端末上のデータに対して機能するように設計されています。アップルが作成したのは端末側コンポーネントです。プライバシーを向上させる端末側コンポーネントも含まれています。サーバー上のユーザーデータをスキャンして評価するやり方もあったわけですが、そのほうが(ユーザーの承認なしに)データを自由に変更できるし、ユーザーのプライバシーも低いのです。

今回のシステムは、端末側コンポーネントとサーバー側コンポーネントで構成されています。端末側コンポーネントは、バウチャーを作成するだけで何も認識しません。サーバー側コンポーネントには、バウチャーと、アップルのサービスに入ってくるデータが送信され、当該アカウントについて、違法なCSAM画像のコレクションが存在するかどうか調査されます。つまり、サービス機能です。話が複雑になりますが、このサービスの機能に、バウチャーが端末上に作成される部分が含まれているのですが、何度も申し上げているとおり、端末上のコンテンツの内容が認識されることは一切ありません。バウチャーを生成することで、サーバー上ですべてのユーザーのコンテンツを処理する必要がなくなりました。もちろん、アップルはiCloud写真の内容を処理したことも一切ありません。そのようなシステムは、プライバシー保護の観点から、より問題を起こしやすいと思います。ユーザーに気づかれずにシステムを本来の設計意図とは異なるものに変更できてしまうからです。

このシステムに関して大きな疑問が1つあります。アップルは、CSAM画像以外のコンテンツをデータベースに追加して端末上でチェックするよう政府やその他の機関から依頼されたら拒否すると明言しました。アップルには、ある国で事業展開したければ、その国の法律に最高レベルで準拠しなければならなかった例が過去にあります。中国の件が良い例です。政府からシステムの意図的改ざんを要求または依頼されても、アップルは、そうした干渉を一切拒否するという約束は本当に信頼できるのでしょうか。

まず、このシステムは米国内でのみ、iCloudアカウントのみを対象としてリリースされます。ご質問では国全般または米国以外の国からの要請を想定されているようです。少なくとも米国の法律では、こうした要請を政府が行うことは許されていないと思われます。

システムを改ざんする試みについてですが、このシステムには、多くの保護機能が組み込まれており、児童虐待画像を保持している個人を(政府が)特定するにはあまり役立たないようになっています。ハッシュリストはオペレーティングシステムに組み込まれるのですが、アップルは1つのグローバルなオペレーティングシステムのみを所有しており、個々のユーザー向けにアップデートを配信することはできません。ですから、ハッシュリストはシステムを有効にしているすべてのユーザーに共有されます。第2に、このシステムでは、(バウチャーの中身を見るには)画像のしきい値を超える必要があるため、個人の端末または特定のグループの端末から単一の画像を探し出すことはできません。というのは、システムはアップルに、サービスに保存されている特定の画像について一切情報を提供しないからです。第3に、このシステムには手動によるレビュー段階が組み込まれています。つまり、あるアカウントに、違法なCSAM画像のコレクションが保存されていることを示すフラグが立つと、外部の機関に報告する前に、アップルのチームがその画像が確かに違法なCSAM画像と一致していることを確認するようになっています。ですから、ご指摘のような状況(アップルが政府の要請に応じてシステムを改ざんするような事態)が発生するには、例えばアップルに内部プロセスを変更させて違法ではない(既知のCSAM以外の)コンテンツも報告させるようにするなど、本当に多くの作業を行う必要があります。それに、アップルは、そうした要請を行うことができる基盤が米国内に存在するとは考えていません。最後に付け加えておきますが、ユーザーはこの機能を有効にするかどうかを選択できます。この種の機能が気に入らなければ、iCloud写真を使わない選択をすればよいだけです。iCloud写真が無効になっていれば、このシステムは一切機能しません。

iCloud写真が無効になっていればこのシステムは機能しないと、確かにFAQでも明言されています。この点について具体的にお聞きしますが、iCloud写真が無効になっている場合でも、このシステムは端末上で写真のハッシュの作成を継続するのでしょうか。それとも、無効にした時点で完全に非アクティブな状態になるのでしょうか。

ユーザーがiCloud写真を使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAMの検出では、ニューラルハッシュがオペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較対照されます。iCloud写真を使用していない場合、安全バウチャーの作成やバウチャーのiCloud写真へのアップロードなどの追加部分は、一切実行されません。

アップルは近年、端末上での処理によりユーザーのプライバシーが保護されるという事実に注目しています。今思い浮かぶ過去のすべての事例において、これは真実です。確かに、例えば写真をスキャンしてそのコンテンツを特定し、検索できるようにするといった処理は、ローカルの端末上で実行し、サーバーには送信しないで欲しいと思います。しかし、この機能の場合、外部の使用ケースがなければ個人的な使用をスキャンするのではなくローカルの端末をスキャンするという点で、ある種の抗効果が発生し、ユーザーの気持ちに「信頼性の低下」というシナリオが生まれる可能性があるように思います。それに加えて、他のすべてのクラウドプロバイダーはサーバー上をスキャンすることを考慮すると、この実装が他のプロバイダーとは異なるため、ユーザーの信頼性が低下するのではなく向上するのはなぜか、という疑問が生じるのですが。

アップルの方法は、業界の標準的な方法と比較して、高い水準にあると思います。すべてのユーザーの写真を処理するサーバー側のアルゴリズムでは、どのようなものであれ、データ漏洩のリスクが高くなり、当然、ユーザーのライブラリ上で行う処理という点で透過性も低くなります。これをオペレーティングシステムに組み込むことで、オペレーティングシステムの完全性によって他の多くの機能にもたらされているのと同じ特性を実現できます。すべてのユーザーが同じ1つのグローバルなオペレーティングシステムをダウンロードおよびインストールするため、個々のユーザー向けに特定の処理を行うのはより難しくなります。サーバー側ではこれは実に簡単にできます。いくつかのプロパティを用意しそれを端末に組み込んで、この機能が有効になっているすべてのユーザーでプロパティ設定を統一できることで、強力なプライバシープロパティが得られます。

第2に、オンデバイステクノロジーの使用によってプライバシーが保護されるというご指摘ですが、今回のケースでは、まさにおっしゃるとおりです。ですから、ユーザーのライブラリをプライバシー性の低いサーバー上で処理する必要がある場合の代替策になります。

このシステムについて言えるのは、児童性的虐待画像という違法行為に関わっていないすべてのユーザーのプライバシーが侵害されることは一切なく、アップルがユーザーのクラウドライブラリに関して追加の情報を得ることも一切ないということです。この機能を実行した結果としてユーザーのiCloud ライブラリが処理されることはありません。その代わりに、アップルは暗号的に安全なバウチャーを作成できます。このバウチャーには数学的プロパティが設定されています。アップルがコンテツを復号化したり画像やユーザーに関する情報を取得できるのは、そのユーザーが、CSAMハッシュと呼ばれる違法な画像ハッシュに一致する写真を収集している場合だけです。一方、クラウド処理スキャンサービスでは、まったく状況が異なります。すべての画像を復号化された形式でくまなく処理し、ルーチンを実行して誰が何を知っているのかを決定するからです。この時点で、ユーザーの画像に関して必要なことは何でも確定できます。それに対して、アップルのシステムでは、NCMECおよび他の児童虐待保護組織から直接入手した既知のCSAM画像ハッシュのセットに一致することが判明した画像について知ることしかできません。

このCSAM検出機能は、端末が物理的にセキュリティ侵害されたときにも全体として機能しますか。何者かが端末を手元で操作できれば、暗号がローカルに迂回されることもあります。これを防ぐための保護レイヤーはありますか。

これは難しく、犠牲が大きい問題ですが、非常に稀なケースであることを強調しておきたいと思います。この問題はほとんどのユーザーにとって日常的な関心事ではありませんが、アップルはこの問題を真剣に受け止めています。端末上のデータの保護は我々にとって最重要事項だからです。では、誰かの端末が攻撃されたという仮説の下で説明してみます。その攻撃は極めて強力なので、攻撃者が対象ユーザーに対して行えることはたくさんあります。攻撃者にはアクセス可能なユーザーのデータが大量にあります。誰かの端末のセキュリティを侵害するという極めて難しい行為をやってのけた攻撃者にとって最も重要なことが、アカウントの手動レビューを起動させることだという考え方は合理的ではありません。

というのは、思い出して欲しいのですが、しきい値が満たされていくつかのバウチャーがアップルによって復号化されても、次の段階で手動レビューによって、そのアカウントをNCMECに報告するべきかどうかを決定するわけですが、我々は合法的な高価値レポートであるケースでのみこうした報告を行うべきだと考えています。我々はそのようにシステムを設計していますが、ご指摘のような攻撃シナリオを考えると、攻撃者にとってあまり魅力的な結果にはならないと思います。

画像のしきい値を超えた場合のみ報告されるのはなぜですか。CSAM画像が1つ見つかれば十分ではないでしょうか。

NCMECに対してアップルが報告するレポートは高価値でアクション可能なものにしたいと考えています。また、すべてのシステムについて共通しているのは、その画像が一致するかどうかにある程度の不確かさが組み込まれるという点です。しきい値を設定することで、誤報告によってレビューに至る確率は年間で1兆アカウントに1つになります。ですから、既知のCSAMのコレクションを保持しているユーザー以外の写真ライブラリをスキャンすることに興味がないという考え方に反することになりますが、しきい値を設定することで、レビューしているアカウントをNCMECに報告したとき、法執行機関は効果的に調査、起訴、有罪判決まで持っていくことができると確信できます。

関連記事
電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ
アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに
アップルがSiri改善のためフィードバック収集アプリ「Siri Speech Study」をひそかに提供開始
また批判を浴びるアップルの児童虐待検出技術
画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Matthew Panzarino、翻訳:Dragonfly)

電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ

電子フロンティア財団が「アップルの大規模な監視計画に反対」との声明を発表、請願書への署名を呼びかけ

EFF

アップルは今月初め、児童虐待対策をiPhoneやMacに導入するとして、2つのしくみを発表しました。ひとつは「子供がメッセージアプリで性的な写真を受信したり送ろうとすると、本人に警告しつつ親に通報する」、もうひとつは「iCloudに保存されるCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)画像を検出し、当局に通報することもある」といったものです。

これに対してEFF(電子フロンティア財団)が「アップルの大規模な監視計画に反対する」との声明を発表し、iPhoneユーザーらに請願書への署名を呼びかけています。

EFFとは米国に拠点を置く非営利組織であり、デジタル世界での市民の自由を擁護することを目的とする団体です。先日もiOS 14でのアプリトラッキング制限については支持を表明しており、特に反アップルの色合いはありませんが、アップルが上記のCSAM対策を発表した直後に「私生活にバックドアを開く」として反対を表明していました

EFFは今回の声明で「大量の監視は、それがどんなに善意のものであっても、犯罪撲滅のための戦略として容認できるものではありません」と主張。その上でアップルの新方針を「次のバージョンのiOSがすべてのiPhoneに監視ソフトウェアをインストールする」とみなし、憤慨している人々に声を上げるよう訴えかけています。

この声明によれば「昨年EFFの支援者たちは、オンライン上のすべてのメッセージのスキャンを可能にする可能性があった政府の計画であるEARN IT法案を阻止しました」とのこと。ここでいうEARN IT法案とは、2020年3月に米上院議員らが提出したものであり、法執行機関が令状を取得した場合に、テクノロジー企業が暗号化データの解除を支援するよう義務づける内容でした。要は暗号解読バックドア法案ということで、否決に追い込まれています。

そしてEFFはアップルの計画を「すべてのiPhoneで写真のスキャンを可能にする」と定義し、EARN IT法案と同じように受け入れられないことを表明すべきだとの趣旨を述べています。

EFFいわく、アップルがiPhoneに導入しようとしている「スキャンシステム」は2つ。ひとつは「iCloudにアップロードされた写真をスキャンし、法執行機関が子どもに対する犯罪を調査する」ために準政府機関である全米行方不明・被搾取児童センター(NCMEC)を初めとした団体が持つCSAMデータベースと比較するシステムです。

もう1つは、保護者(iCloudファミリー共有が設定されている場合)が選んだ場合に作動するもので、未成年者が送信したiMessagesを調査し、あらゆる種類の「性的に露骨な」素材を探すアルゴリズムと照合するもの。その類の画像が検出された場合、iPhoneは本人、場合によっては親に年齢に応じた通知を行うーーといったEFFの解釈は、アップルの説明とも一致しています。

ちなみにアップル幹部はCSAM対策に批判が湧き起こった直後、この2つの施策を一度に発表したことで「アップルがメッセージアプリを検閲している」との誤解を招いてしまったと認め、もう少し違いをハッキリさせれば良かったと反省を述べていました

さてEFFの声明に戻ると「これらのシステムは、私たちのプライバシーとセキュリティを脅かすもの」であり、iCloud画像のスキャンについては「すべてのiCloud写真ユーザーのプライバシーを侵害」し、「政府が作成したCSAMの秘密データベースと照合する」と批判。かたやメッセージアプリでの保護者通知スキャンには「エンドツーエンドの暗号化の約束を破るもの」との見解を述べています。

締めくくりにEFFは、アップルの施策を「虐待する親のことを考慮していない」と分析し、ひいては「権威主義的な政府がその拡大(画像スキャンやメッセージの検閲など)を推し進めようとする」危険があると指摘しています。

これまでの批判に対してアップルは、iCloud写真スキャンは動画には適用されず、政府による利用もあり得ないと反論しています。しかし、一度そうしたしくみを作ってしまえばバックドアに転用される可能性を完全には否定しがたく、また一企業に過ぎないアップルが現地の法律に従わざるを得ないことはすでに証明済みです

そもそも一連の批判や混乱は、アップルが外部の児童虐待対策団体などに(少なくともNCMECや一部組織以外は)相談せず、すでに世界的なプラットフォームになったiPhoneについて、一方的にプライバシーに踏み込む施策を打ち出したことが大きな原因とも思われます。今後アップルはさらなる説明を追加するか、譲歩を迫られるのかもしれません。

(Source:EFF(1)(2)Engadget日本版より転載)

アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲していると明らかに

アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲していると明らかに

Citizen Lab

アップルはAirPodsやiPadなどを公式ストアで注文したユーザーに対して、無料で刻印サービスを提供しています。このサービスに付き、中国や香港、台湾で政治的検閲を行っていると指摘するレポートが発表されています

この報告書は、カナダにあるトロント大学のインターネット監視団体Citizen Labが調査に基づき公表したものです。Citizen Labは中国生まれのTikTokが悪質な行為を行っている証拠はないと述べるなど、特に反中国というわけではありません。

アップルの無料刻印サービスはどの地域でも攻撃的な言葉やフレーズを禁止しており、米国でも170の単語を入力することができません。しかし中国では、禁止されている単語やフレーズの数は1000以上にのぼり、その中には政治的な言及も多く含まれているとのことです。

アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲していると明らかに

Citizen Lab

アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲していると明らかに

Citizen Lab

Citizen Labが行ったのも、どの単語が拒否されるかを調べるテストでした。これができたのは、アップルの刻印サイトが入力されたテキストを一文字ずつ分析し、受付できない内容に即座にフラグを立てるためです。

このテストは6つの地域で実施され、その結果アップルが国ごとに異なるAPIを使ってテキストを検証していると明らかになったそうです。さらに中国では政治的な検閲が行われていると分かり、その一部は香港や台湾にも及んでいました。

まず中国本土では、中国の指導者や政治システムに関する広範な言及、反体制派や独立系報道機関の名前、宗教や民主主義、人権に関する一般的な用語などが検閲されていると分かったとのことです。たとえば政治関係としては「政治、抵制、民主潮、人权(人権)」など、チベットやチベット宗教に関しては「正法、達賴(ダライ・ラマ)、达兰萨拉」といったところです。

かたや香港では、市民の集団行動に関するキーワードが広範囲に検閲されています。たとえば「雨伞革命」や「香港民运」「雙普選」、「新聞自由」など。はてはノーベル平和賞受賞者の劉暁波氏の妻で詩人の劉霞氏や、アーティストの艾未未氏の名前までも禁止されていることは「香港の国家安全法に基づくアップルの検閲義務をはるかに超えている」と評されています。

さらに台湾に対しても、中国に配慮したかのような政治的検閲が行われている模様です。こちらでは中国共産党の最高幹部らや歴史上の人物(毛主席など)、「外交部」などの国家機関、およびFALUNDAFAやFalun Gongなども禁止されているとのこと。台湾にはそうした言葉を取り締まる法律もなく、アップルが検閲を行う法的義務もありません。

それに加えてCitizen Labは、「8964」という数字まで検閲されていると突き止めています。この数字は中国では天安門事件の「1989年6月4日」という日付にちなんだものとして認識されているため、と推測されています。

アップルもいち民間企業に過ぎず、現地の法律には従う義務があり、Citizen Labも法律で禁止されている言葉の検閲を批判しているわけではありません。特に問題視されているのは、アップルが法的に要求されている以上を行っており、現地企業が自粛しているキーワードを検討せずに流用しているように見えることです。

今回の一件と関係あるかどうかは不明ですが、かつてiOS 11.4.1では“Taiwan”とタイプしたときに特定の言語や地域設定のiPhoneがクラッシュする問題や、日本語のiPhoneでも“たいわん”と入力して台湾の旗に変換できなかったことがあります(記事執筆時点では、どちらも修正済み)。

ちょうどアップルは、児童虐待対策として「iCloud上に保存された写真が自動スキャンされ、当局に通報されることもある」しくみの導入に対して、政府の検閲に利用されるのではないかとの懸念が寄せられているところです。アップルは「政府の要求を拒み続ける」と回答していますが、その言葉に信ぴょう性を与える行動が望まれそうです。

(Source:Citizen Lab。Via 9to5MacEngadget日本版より転載)

【コラム】自由とプライバシーの保有格差、デジタルフロンティアにおける不平等の拡大

プライバシーは感情的な側面がある。不快なデータエクスペリエンスにさらされて脆弱性や無力感を感じたとき、私たちは往々にしてプライバシーの価値を最大限に高めるものだ。しかし裁判所の視点では、感情は必ずしも、プライバシーの法的体系における構造的変化につながるような損害あるいは理由をなすものとはみなされない。

米国が切実に必要としているプライバシーの改善を促進するには、拡大するプライバシーの格差と、それがより広範な社会的不平等に及ぼす影響について、実質的な視点を持つ必要があるかもしれない。

Appleのリーダーたちは2020年に、App Tracking Transparency(ATT)に関するアップデート計画を発表した。端的にいうと、iOSユーザーは、アプリが他社のアプリやウェブサイトを横断して自分の行動を追跡するのを拒否することが可能になる。このアップデートにより、iOSユーザーの実に4分の3が、アプリ間トラッキングからオプトアウトしている。

ターゲティング広告の個別プロフィール作成に利用できるデータが少なくなることから、iOSユーザー向けのターゲティング広告は、広告代理店にとって効果的かつ魅力的なものとは映らなくなってきている。その結果として、広告主がiOS端末に費やす広告費は3分の1程度減少していることが、最近の調査で明らかになった。

広告主らはその資金をAndroidシステムの広告に振り向けている。AndroidはモバイルOSの市場シェアの42.06%余りを占めており、一方iOSは57.62%だ。

こうした動きが生み出すプライバシーの格差は、漠然とした不快感を超えたところにある、感情的、評判的、経済的などの実質的な害のリスクを徐々に高めていくだろう。多くのテック企業がいうように、プライバシーが私たち全員に等しく帰属するのであれば、なぜそれほどのコストが費やされているのか。あるユーザーベースがプライバシー保護措置を講じると、企業は単純に、最も抵抗の少ない道に沿って、法的または技術的なリソースがより少ない人々に向けてデータプラクティスを方向転換するのだ。

単なる広告以上のもの

Android広告への投資が増えるにつれて、広告テクニックはより巧妙になるか、少なくともより積極的になることが予想される。カリフォルニア州のCCPAのような関連法の下で、ユーザーのオプトアウトの法的権利を遵守する限りにおいては、企業がターゲティング広告を行うことは違法ではない。

これは2つの差し迫った問題を提起している。第1に、カリフォルニア州を除くすべての州の住民には現在、そのようなオプトアウト権がない。第2に、ターゲティング広告をオプトアウトする権利が一部のユーザーに供与されていることは、ターゲティング広告に害あるいは少なくともリスクがあることを強く示唆している。そして実際にそうしたことはあり得るのだ。

ターゲティング広告では、第三者がユーザーの行動に基づいてユーザーのプロフィールを舞台裏で構築し、維持する。フィットネスの習慣や購買パターンなど、アプリのアクティビティに関するデータを収集することで、ユーザーの生活の微妙な側面に対するさらなる推測につながる可能性がある。

この時点で、ユーザーの表現は、ユーザーが共有することに同意していないデータを含有する(正しく推測されているかどうかに関係なく)、規制が不十分なデータシステム内に存在することになる。(ユーザーはカリフォルニア州居住者ではなく、米国内の他の場所に居住しているものと想定)

さらに、ターゲティング広告は、ユーザーの詳細なプロフィールを構築する上で、住居取得や雇用の機会における差別待遇を生む可能性があり、場合によっては連邦法に違反することもあることが調査で明らかになっている。また、個人の自律性を阻害し、ユーザーが望まない場合でも、購入の選択肢を先取りして狭めてしまうこともある。その一方で、ターゲティング広告は、ニッチな組織や草の根組織が関心のあるオーディエンスと直接つながるのを支援することができる。ターゲティング広告に対するスタンスがどのようなものであっても、根本的な問題となるのは、対象となるかどうかについてユーザーが発言権を持たない場合だ。

ターゲティング広告は大規模で活況を呈するプラクティスだが、ユーザーのデータを尊重することを優先していない広範なビジネス活動網の中のプラクティスとしては唯一のものだ。米国の多くの地域ではこうした行為は違法ではないが、法律ではなく、自らのポケットブックを使用することで、データの軽視を回避することができる。

高級品としてのプライバシー

著名なテック企業各社、特にAppleは、プライバシーは人権であると宣言しているが、これはビジネスの観点において完全に理に適っている。米国連邦政府がすべての消費者のプライバシー権を成文化していない現状では、民間企業による果敢なプライバシー保護のコミットメントはかなり魅力的に聞こえる。

政府がプライバシー基準を設定しなくても、少なくとも筆者の携帯電話メーカーはそうするだろう。企業が自社のデータをどのように利用しているかを理解していると回答した米国人はわずか6%にとどまっているにしても、広範なプライバシー対策を講じているのは企業である。

しかし、プライバシーを人権だと宣言する企業が、一部の人にしか手が届かない製品を作っているとしたら、それは私たちの人権について何を物語っているだろうか?Apple製品は、競合他社の製品に比べて、より裕福で教育水準の高い消費者に偏っている。これは、フィードバックループが確立され、持てる者と持たざる者との間のプライバシー格差がますます悪化するという厄介な未来を投影している。プライバシー保護を得るためのリソースがより少ない人は、ターゲティング広告のような複雑なプラクティスに付随する技術的および法的な課題に対処するためのリソースがより限定されてしまう可能性がある。

これについて、プライバシーとアフォーダビリティを巡ってAppleとの確執を抱えるFacebookの側に立つものだと解釈しないようにしていただけたらと思う(最近明るみに出たシステムアクセス制御の問題を参照)。筆者の考えでは、その戦いにおいてどちらの側も勝ってはいない。

私たちには、誰もが手にすることができる、有意義なプライバシー保護を受ける権利がある。実際、その表現を重要な論点へと転換するならば、どの企業も自社製品から除外するべきではない、尊重すべきプライバシー保護を受ける権利を、私たちは有している。プライバシーの意義に重きを置き、プライバシーの広範な適用を確保するという、両方の側面を満たす「both/and(両方 / および)」アプローチがなされるべきである。

私たちが進むべき次なるステップ

先を見据えると、プライバシーの進歩には2つの鍵となる領域がある。プライバシーに関する法制化と開発者のためのプライバシーツールである。筆者はここで再び、both/andアプローチを提唱する。私たちは、テック企業というよりも、消費者のために信頼できるプライバシー基準を設定する立法者を必要としている。また、開発者がプロダクトレベルでプライバシーを実装しない理由(財務的、ロジスティクス的、またはその他の理由)を持たない、広範な適用を確保できる開発者ツールも必要だ。

プライバシーの法制化に関しては、政策の専門家がすでにいくつかの優れた論点を提起していると思う。そこで、筆者が気に入ったいくつかの最近の記事へのリンクを紹介しよう。

Future of Privacy ForumのStacey Gray(ステイシー・グレイ)氏と彼女のチームは、連邦プライバシー法と、州法の新たな寄せ集めとの相互作用に関する、良質のブログシリーズを公開している。

Joe Jerome(ジョー・ジェローム)氏は、2021年の州レベルのプライバシー状況と、すべての米国人のための広範なプライバシー保護への道筋について見事な要約を発表した。重要なポイントとして、プライバシー規制の有効性は、個人と企業の間でいかにうまく調和するかにかかっていることが挙げられている。これは、規制がビジネスに優しいものであるべきだということではなく、企業は明確なプライバシー基準を参照できるようにして、日々の人々のデータを自信を持って、敬意を払って処理できるようにすべきだということを示している。

プライバシーツールに関しては、すべての開発者に対してプライバシーツールへの容易なアクセスとアフォーダビリティを確保することで、プライバシー基準を満たすための弁解をテクノロジーに一切残さないことになる。例としてアクセス制御の問題を考えてみよう。エンジニアは、すでに機密性の高い個人情報が蓄積されている複雑なデータエコシステムにおいて、多様なデータにどの担当者とエンドユーザーがアクセスできるかを手動で制御しようとする。

そこでの課題は2つある。まず、すでに取り返しの難しい状況にある。技術的負債が急速に蓄積される中、プライバシーはソフトウェア開発の外に置かれている。エンジニアには、本番稼働前に、微妙なアクセス制御などのプライバシー機能を構築できるツールが必要だ。

このことは第2の課題につながっている。エンジニアが技術的負債をすべて克服し、コードレベルで構造的なプライバシーの改善を行うことができたとしても、どのような標準や広く適用可能なツールが使用できる状態にあるだろうか?

Future of Privacy Forumによる2021年6月のレポートが明らかにしているように、プライバシー技術には一貫した定義が切実に求められており、それは信頼できるプライバシーツールを広く採用するために必要なものだ。より一貫した定義と、プライバシーのための広く適用可能な開発者ツールという、技術的なトランスフォーメーションは、XYZブランドの技術に限られない全体的な技術としてユーザーによる自身のデータ制御に寄与する方法の、実質的な改善に結びつく。

私たちには、このゲームに関わっていない機関によって設定されたプライバシー規則が必要だ。規制だけでは現代のプライバシーの危険から私たちを守ることはできないが、有望な解決策には欠かせない要素である。

規制と並行して、すべてのソフトウェアエンジニアリングチームは、すぐに適用可能なプライバシーツールを持つべきである。土木技術者が橋を建設しても、一部の人々にとっては安全ではない可能性がある。橋の安全性は、横断するすべての人のために機能しなければならない。デジタル領域内外の格差を拡大させないようにする上で、データインフラストラクチャについても同じことが言えるだろう。

編集部注:本稿の執筆者のCillian Kieran(シリアン・キエラン)は、ニューヨークを拠点とするプライバシー企業EthycaのCEO兼共同設立者。

関連記事
【コラム】消費者の同意を取り付けるためだけのプライバシー通知をやめませんか?
【コラム】プログラマティック広告における広告詐欺と消費者プライバシー乱用との戦い方
画像クレジット:PM Images / Getty Images

原文へ

(文:Cillian Kieran、翻訳:Dragonfly)

アップルがSiri改善のためフィードバック収集アプリ「Siri Speech Study」をひそかに提供開始

Apple(アップル)は最近、対象ユーザーから音声データを収集するための研究を開始した。2021年8月初め、同社は「Siri Speech Study」という新しいiOSアプリをApp Storeで公開した。このアプリは、オプトインした調査参加者が自分の音声リクエストやその他のフィードバックをAppleと共有できるようにするもの。同アプリは世界の多くの市場で利用可能だが、公開されている「ユーティリティ」カテゴリーを含め、App Storeのチャートには登録されていない。

アプリストア分析会社Sensor Towerのデータによると、このiOSアプリは8月9日に初めて公開され、8月18日に新しいバージョンにアップデートされた。現在、米国、カナダ、ドイツ、フランス、香港、インド、アイルランド、イタリア、日本、メキシコ、ニュージーランド、台湾で利用可能となっており、本調査がグローバルに展開されていることを示している。ただし、App Storeをキーワードで検索しても、Appleが公開しているアプリの一覧を見ても、このアプリは表示されない。

Siri Speech Studyアプリ自体には、この研究の具体的な目的や参加方法はほとんど記載されていない。その代わりに、ごく標準的な使用許諾契約書へのリンクと、参加者がID番号を入力する画面が用意されているだけだ。

Appleにコメントを求めたところ、同社はTechCrunchに対し、このアプリはSiriの製品改良のためにのみ使用されており、参加者がAppleに直接フィードバックを共有する方法を提供している、と述べた。また、この研究に参加するには招待されなければならず、一般ユーザーが参加するために登録する方法はないと説明している。

App Storeのスクリーンショット

このアプリは、同社がSiriを改善するために取り組んでいる数多くの方法の1つに過ぎない。

これまでAppleは、一般ユーザーが録音した音声のごく一部を業者に送り、手作業で採点・レビューしてもらうことで、Siriのミスをより深く学ぼうとしてきた。しかし、ある内部告発者が英国のThe Guardian(ガーディアン)に、このプロセスでは機密事項を盗聴されることがあったと警告した。Appleはその後間もなく、そうした人手によるレビューをオプトイン方式に変更し、音声の採点を社内で行うようにした。このような消費者データの収集は継続されているが、その目的は調査研究とは異なる。

関連記事:アップルはSiriの音声クリップのレビュー方法を抜本的に見直しへ

そうした広範囲で一般的なデータ収集とは異なり、フォーカスグループのような調査では、収集したデータと人間のフィードバックを組み合わせるため、AppleはSiriのミスをよりよく理解することができる。Siri Speech Studyアプリでは、参加者がリクエストに応じて明確なフィードバックを提供するとAppleは述べている。例えば、Siriが質問を聞き間違えた場合、ユーザーは何を聞こうとしていたのか説明することができる。また、ユーザーが「Hey Siri」と言っていないのにSiriが起動した場合は、その旨を伝えることができる。また、HomePodのSiriが複数人の家庭で話者を誤認した場合、参加者はそれを記録することができる。

もう1つの特徴は、参加者のデータが自動的にAppleと共有されないことだ。代わりに、ユーザーは自分が行ったSiriのリクエストのリストを見た上で、どれを選択してフィードバックとともにAppleに送信するかを選べる。また、参加者から直接提供されたデータ以外のユーザー情報は、アプリ内で収集・使用されないと同社は述べている。

Apple WWDC 2021

Appleは、自分のことを理解してくれるインテリジェントなバーチャルアシスタントが競争上の優位性を持つことを理解している。

2021年に入り、Appleは元Google(グーグル)のAI科学者であるSamy Bengio(サミー・ベンジオ)博士を起用し、SiriをGoogle アシスタントの強力なライバルに育てようとしている。一方、家庭内ではAmazon(アマゾン)のAlexaを搭載したスマートスピーカーが米国市場を席巻しており、中国以外のグローバル市場でGoogleと競合している。AppleのHomePodが追いつくには、まだまだ時間がかかりそうだ。

しかし、近年、音声ベースのコンピューティングが急速に進歩しているにもかかわらず、バーチャルアシスタントは特定の種類の音声を理解するのに苦労することがまだある。例えば2021年初め、Appleはユーザーがポッドキャストで話始めにつっかえた際の音声クリップを集め、この種のスピーチパターンの理解を向上させると発表した。また、家庭内に複数の機器があり、複数の部屋からの音声コマンドを聞いている場合にも、アシスタントはミスを犯しやすい。また、家族の中で声を聞き分けようとしたり、子供の声を理解しようとすると、アシスタントはよく失敗する。

言い換えれば音声研究は、同社の現在のフォーカス以外にも、時間をかけて追求できる道筋がたくさんあるということだ。

AppleがSiriの音声研究を行っていることは、必ずしも新しいことではない。同社はこれまでにも、何らかの形でこのような評価や研究を行ってきた。しかし、Appleの研究が直接App Storeで公開されることはあまり多くない。

このアプリをより秘密にしておくために企業向けの配布プロセスを通じて公開することもできたはずだが、Appleは公開マーケットプレイスを利用することを選んだ。これは調査研究がAppleの従業員だけを対象とした社内向けのアプリではないためか、App Storeのルールに沿ったものとなっている。

しかし、一般ユーザーがこのアプリを偶然見つけて混乱することはまずないだろう。Siri Speech Studyアプリは、発見されないように隠されており、アプリのダイレクトリンクがなければ見つけることができない(我々が詮索好きでよかった)。

関連記事
「音声認識AIの競争に対する懸念が高まっている」とEUが発表
iOS 15でSpotlightが大幅強化、アプリのインストールも可能に
スマホを臨床的に認められた血圧計にするアプリをSiri開発者と科学者の「Riva Health」が開発中
画像クレジット:Apple

原文へ

(文:Sarah Perez、翻訳:Aya Nakazato)

また批判を浴びるアップルの児童虐待検出技術

Apple(アップル)が2021年8月初めに発表した、児童への性的虐待コンテンツ素材(child sexual abuse material、CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。

NeuralHashはユーザーのデバイスにある既知のCSAMを見つけるが、画像を所有したり、その画像のコンテンツを認知したりはしない。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているため、Appleですらそのデータにアクセスできない。そのため、NeuralHashはそユーザーのデバイスにある既知のCSAMをスキャンし、Appleはこれをよりプライバシーフレンドリーだと主張している。それは他企業のようにすべてのユーザーファイルをスキャンするのではなく、写真だけを対象にスキャンするからだ。

Appleは、ユーザーのデバイス上で、NCMECといった児童保護団体から提供されたハッシュ(画像を一意に識別できる文字と数字の組み合わせ)が同じである画像を探すことでこれを行います。NeuralHashが30個以上の一致するハッシュを見つけた場合、その画像はAppleにフラグが立てられ、アカウント所有者が法執行機関に報告される前に、手動で審査される。Appleによると、誤検出の可能性は1兆個のアカウントで約1つだという。

しかしセキュリティのエキスパートやプライバシー保護活動家たちは、そのシステムは政府のようなリソースが極めて豊富なところでは乱用誤用される可能性があるという懸念を表明している。たとえば罪のない人が巻き込まれたり、システムが操作されて権威主義的な国が有害と認めるような素材を検出するかもしれない。Appleのスタッフに対し社内的に配布されたメモのリークによると、NCMECはそういう批判者のことを「少数派のキーキー声」と呼んでいる。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

米国時間8月17日夜、Asuhariet Ygvar(アスーハリエット・イグバー)氏は、NeuralHashのコードをPythonのスクリプトに落として、そのコードをGitHubに公開し、Appleのデバイスが手元にない人でもこの技術をテストできるようにした。イグバー氏はRedditのポストで、NeuralHashは難読化されたコードでiOS 14.3に「すでに存在している」が、その技術を再構築することができたため、2021年の後期にiOSとmacOSデバイスに展開される前にセキュリティの研究者はアルゴリズムをもっとよく理解できる、と述べている。

コードが公開され他の人が手を加えるようになり、NeuralHashのケースでは2つの完全に異なる画像が同じハッシュを生成する「ハッシュの衝突」という現象が初めて報告された。この「ハッシュの衝突」を発見したのは、Intel Labsの著名な研究員であるCory Cornelius(コーリー・コーネリアス)氏だ。その後、イグバー氏も衝突を確認している。

ハッシュの衝突は、セキュリティを暗号技術に依存しているシステムのお葬式の鐘になることもある。何年もの間に、MD5やSHA-1のようなパスワードハッシングアルゴリズムは衝突攻撃によって無効になり、その後現役の座を去った

暗号技術のエキスパートでOpen Crypto Audit Projectを創ったKenneth White(ケネス・ホワイト)氏は、「iOSのNeuralHashのコードが見つかってから、最初の衝突が起きるまでの時間が、数カ月や数日ではなくて2時間だということを、理解してなかった人もいたようだね」とツイートしている。

Appleの広報担当者は公式のコメントを拒否したが、匿名かつオフレコで語ったところによると、Appleはハッシュの衝突を軽視し、保護策を講じることが重要と主張した。それは例えば法執行機関に報告する前に手作業で写真を調べることで虐待を防げる、と。さらにAppleによると、NeuralHashのコードを分解されたバージョンはジェネリック(総称的)なバージョンであり、2021年後期に展開する完全なバージョンではないという。

その技術に懸念を表明しているのは人権グループやセキュリティのエキスパートだけではない。ドイツの高名な国会議員が今週、AppleのCEOであるTim Cook(ティム・クック)氏に書簡を送り、同社は「危険な道」を歩んでいると述べて、Appleがそのシステムを実装しないことを強く要請した。

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
持続可能性にフォーカスするアップルのImpact Acceleratorが支援する有色人種企業15社を決定
アップルが不評だったSafariの変更点をiOS 15 beta 6で修正、再びアドレスバーの上部表示も可能に

画像クレジット:Getty Images

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)

アップルが不評だったSafariの変更点をiOS 15 beta 6で修正、再びアドレスバーの上部表示も可能に

Apple(アップル)は、次期iOS 15でモバイル版「Safari(サファリ)」のデザインを変更し、アドレスバーを画面の下部に移して、ページのコンテンツの上に重ねる(フローティングさせる)としていたが、物議を醸したこの決定から、ゆっくりと後戻りしつつあるようだ。このデザイン変更は、片手でSafariの操作がしやすいようにすることを主な目的としていたものの、実際にはこれによって以前より使いにくくなったという批判を受けていた。今回リリースされた最新のベータ版であるiOS 15 beta 6では、アップルはユーザーからのフィードバックや不満に応え、ページコンテンツの下にタブバーを表示するようにデザインを修正。このアップデートが気に入っていた人にも、標準的な体験を提供することになった。さらに重要なのは、アップルが画面下のタブバーをユーザーに強制しなくなったことだろう。

関連記事:アップルが物議を醸しているiOS 15のSafariの変更を最新ベータで微調整

最新リリース版では、アドレスバーを以前のようにページの上部に表示するオプションが追加されたのだ。今回のアップデートが気に入らなかったユーザーは、これで「普通」に戻すことができる。

タブバーの変更前と変更後(画像クレジット:スクリーンショット)

フローティングしたタブバーに対する大きな不満は、ウェブページによってはクリックしたいボタンやリンクがこのタブバーに遮られてしまうため、ほとんど使えなくなってしまう場合があることだった(タブバーに遮られた箇所をクリックするためには、いちいちタブバーを下にスワイプしなければならなかった。これでは最適なデザインとはとてもいえない)。

iOS 15のSafariでは下のバーのせいでチェックアウトボタンが押せないので、テイクアウトの注文ができない日が続いている。

あのブルスケッタを食べさせてくれないなんて、ありがとうSafari

フェデリコ・ヴィティッチ

iOS 15 beta 6では、これらの問題が解決されている。基本的に、タブバーの外観は以前のように、つまり画面の上部に設置されていた頃と同じように、見慣れたボタンが並んでいる。タブバーがウェブサイトのコンテンツを遮ることもなくなった。

ベータ版をテストした人からは、リロードボタンやリーダーモードなどのよく使う機能を、3つのドットで表示された「その他」メニューの下に隠すというアップルの独自の判断が、Safariを以前よりも使いにくくしているという指摘もあった。iOS 15 beta 4では、この問題を解決するために、リロードボタンと共有ボタンを復活させ、リーダーモードが利用可能な場合は表示されるように修正した。しかし、それでもボタンは小さく、以前よりもタップしにくかった。

新たに変更されたタブバーと、それが画面の上下に関わらず、普通に戻ったことは、この問題に関するユーザーの不満が妥当であると、アップルが事実上認めたことになる。また、これはベータテストの本来の目的である、新しいアイデアを試して、うまくいかなかった点は修正するということのデモンストレーションでもある。

この修正とは別に、beta 6ではタブバーをページの最上部に戻すこともできるようになった。そちらの方が好みであれば「設定」→「Safari」で、デフォルトの「タブバー」と、アドレスバーを画面上部に配置する「シングルタブ」のいずれかを選択できるようになった(ただし後者を選択すると、タブバーでは可能だった、開いているタブをスワイプして切り替える機能が失われる)。

アップルがデフォルト設定の代替となる選択肢を用意するのはよくあることだ。例えばMacのトラックパッドでは、ジェスチャーやクリックがどのように機能するかをユーザーが設定できるようになっているし、かつて物議を醸した「自然な」スクロール方向のオプションをオフにすることもできる。しかし、アドレスバーを最上部に戻すオプションが追加されたことは、iPhoneで最も頻繁に使用されるアプリケーションの1つであるSafariの使い方を学び直したくないと考えるユーザーが相当数いると、認めたということである。もし、そのようなユーザーにこの変更を強要すれば、彼らは代わりに他のブラウザを使うようになるかもしれない。

アップルは通常、iOSソフトウェアの最新版を秋にリリースするため、一般公開に先立って行われるSafariの変更は、今回のアップデートが最後になるかもしれない。

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

カテゴリー:ソフトウェア
タグ:AppleiOSiOS 15ベータ版ブラウザSafariアプリ

画像クレジット:Apple

原文へ

(文:Sarah Perez、翻訳:Hirokazu Kusakabe)

持続可能性にフォーカスするアップルのImpact Acceleratorが支援する有色人種企業15社を決定

Apple(アップル)による最近の社会奉仕事業の中に、Impact Acceleratorがある。ほぼ1年前に立ち上げた取り組みで、持続可能性や気候変動の問題に取り組んでいるマイノリティが経営する小規模企業を見つけて支援する。現在、その事業には最初の15社の参加企業があり、米国中から集まって3カ月のプログラムをこなし、Appleとの契約を得る。

Impact Acceleratorは同社の、1億ドル(約110億円)を投じた人種的平等と正義のための計画の一環だ。この計画はいくつかの努力目標からなり、既存の事業に資金を直接投じるものもあれば、有色人種が経営するベンチャー企業へお金が行くものもある。とにかく、Initiativeのチームが良いと考えた投資が対象だ。

これらの企業は、3カ月のバーチャルプログラムに参加する。Appleの発表にその詳細はないが、その後、Appleのカーボンニュートラルなサプライチェーンという目標のための、サプライヤーになる機会が得られる。

Appleが作成した15社のプロフィールはこのリストに載っているが、特に私の目についたのは次の5社だ。

  • Volt Energy Utility (共同創業者:Gilbert Campbell III): 恵まれてないコミュニティのための電力会社並の規模のソーラープロジェクト。
  • Bench-Tek (創業者:Maria Castellon): 環境フレンドリーな素材を使ったラボベンチ(実験台)。
  • Vericool(創業者:Darrell Jobe): 発泡スチロールの持続可能バージョンなど各種包装資材を作り、元服役者たちの職場とする。
  • Oceti Sakowin Power Authority (会長:Lyle Jack): 6人のスー族によるNGOで、中西部の保留地に再生可能エネルギーを供給する。
  • Mosaic Global Transportation(創業者:Maurice H. Brewster):企業の従業員用や各種イベント用にEVだけによるシャトル隊を提供する。

Appleの環境・政策・社会イニシアティブ担当バイスプレジデントであるLisa Jackson(リサ・ジャクソン)氏は発表声明で次のように述べている。「私たちが現在、提携している企業は、明日の多様で革新的な業界のリーダーになるところです。この方たちが作り出す変化がさざなみのように広がり、伝わり、気候変動がもたらした緊急的な危機に、世界中のコミュニティが対応できるようになるでしょう」。

関連記事
アップルは製品とサプライチェーンを含む事業全体を2030年までにカーボンニュートラルにすると発表
アップルが104億円を投じる「人種の公平性と正義のためのイニシアチブ」関連の新たな取り組みを発表

カテゴリー:EnviroTech
タグ:Apple持続可能性気候変動カーボンニュートラル

画像クレジット:Apple

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

モバイルアプリのアプリストア支配の打破で上院が新法案

あらゆる決定権が二人の巨人にあり、彼らが勝手に上前をはねているこの世界では、長年モバイルソフトウェアのメーカーが、アプリストアは直接開発者へ行くべきキャッシュの不公平な分け前をとってきた、と不平を言ってきた。そんな不満を聞いた一部の上院議員たちが今週、新しい法案を提出した。もしそれが通れば、AppleとGoogleの、彼らのオペレーティングシステムの中でアプリの購入をコントロールできる能力を大幅に減らし、モバイルソフトウェアの流通のあり方に全面的な動乱がやってくるだろう。

そのOpen App Markets Act(オープンなアプリの市場法)と呼ばれる法案は、収益の30%をAppleやGoogleに献上して疲弊していた開発者たちの、利益になる多くの権利を保証するだろう。法案の全文を下に埋め込んだが、それはオペレーティングシステムをコントロールしている企業に対し、サードパーティのアプリとアプリストアを認めるよう、迫っている。

この法案はまた、公式のアプリストア以外の、アプリをもっと安く入手できる場所や方法を開発者がユーザーに教えることを、二人の巨人が禁じている現状を打破するだろう。そして両社は、自分のプラットホームに関する非公開情報を利用して、競争上有利なアプリを作ることもできなくなるだろう。

この超党派の法案を提出した上院議員は、コネチカット州選出のRichard Blumenthal氏(民主党)とテネシー州のMarsha Blackburn氏(共和党)、そしてミネソタ州のAmy Klobuchar氏(民主党)だ。Klobuchar氏は上院反トラスト小委員会の議長であり、Blackburn氏とBlumenthal氏はどちらも小委員会のメンバーだ。

Blumenthal氏はこう言っている: 「この法律はアプリ経済における強制的で反競争的な壁を打破し、消費者の選択肢を広げ、小さなスタートアップのテクノロジー企業にも勝機を与える」。Blackburn氏は、アプリストアにおけるAppleとGoogleのやり方を「自由で公正な市場機会に対する公然たる侮辱だ」と呼び、Klobuchar上院議員は、彼らの振る舞いが「競争上の深刻な懸念」を惹起している、と言っている。

この法案は4月の当小委員会が行ったアプリストアと競争に関するヒアリングを継ぐものだ。そのヒアリングでは、議員たちがAppleとGoogle、そしてSpotifyとTileとMatch Groupから聴取を行い、後者3社は、アプリストアの反競争的なポリシーから被害を受けたと主張した。

そのときSpotifyの法務部長Horacio Gutierrez氏は、この法案に言及してこう述べた: 「議会はもっと早くOpen App Markets Actを通過させていただきたい。何もしなければAppleらは自分たちの利益のためにルールの書き換えを続けるだろう。そして消費者と開発者とデジタル経済に対するさらなる被害が、そこから発生するだろう」。

開発者擁護団体Coalition for App Fairness(アプリの公正のための連合)はこの法案を称賛して、デジタルの市場にイノベーションを起すだろう、と言っている。同連合の事務局長Meghan DiMuzio氏は曰く、「超党派で起案されたOpen App Markets Actは、合衆国および世界の開発者の競争を窒息させている巨大テクノロジー企業の慣行に責任を負わせる過程の第一歩だ」。

今後の規制強化を先回りして軽減するかのように、Appleはアプリストアの売上が100万ドルに満たない企業の手数料を30%から15%に下げた日本語記事)。続いてGoogleも、Play Storeにおける開発者の1年間の最初の収益100万ドルまでに対して同じく手数料を15%とした。一部の開発者はこれらの変更を、パブリシティのための見世物とけなしている。

世界の二大モバイルオペレーティングシステムから自分のソフトウェアを配布しようとすると、高い通行税を取られる。長年開発者は、これを不満としてきた。昨年はこの紛争がエスカレートして、Epic GamesはFortniteのプレーヤーがAppleを経由せずEpicに直接払えるようにして、Appleの決済を迂回した。そこから起こった法廷闘争は、モバイルソフトウェアの世界に重大な意味をもたらした。5月の審理に続いて、年内には評決が下されると予想されている。

今回の新しい法案に対してEpic Gamesの公共政策担当副社長Corie Wright氏はこう言っている: 「これによって大小さまざまな開発企業が、報復の恐れなく、有害な慣行に挑戦できる。それは法廷闘争でもよいし、単純に声を上げるだけでもよい」。

関連記事: ティム・クック氏はEpic Games対アップルの反トラスト裁判でしらを切る

Appleと違ってGoogleは、アプリのGoogle Play Store以外からの「サイドロード」とインストールを認めている。ソースはネットやストレージからだけでなく、他のデバイスからでもよい。しかしEpicのGoogleに対する並行訴訟で開示されたドキュメントによると、Play Storeの作者はサイドローディングがユーザーにとってひどい体験であることを知っていて、アプリの公式のマーケットプレースの利用をデベロッパーに守らせようとするとき、一種の脅しとしてサイドロードに言及している。

そしてそんなときの、Googleからの反論は、「公式のアプリストアはアプリを消費者にとって安全かつスムーズにする(トラブルがない)」、だ。AppleもGoogleも、App StoreやGoogle Play Storeからモバイルのソフトウェアを売るのに高額な料金を取っているが、彼らの主張は、公式のチャネルからアプリをすっきりとした形で売ることにより人びとをマルウェアから護り、ソフトウェアの迅速なアップデートにより、ユーザーのプライバシーを破壊するようなセキュリティの心配をパッチできる、というものだ。

Appleのスポークスパーソンも、こう言っている: 「Appleにおいては、App Storeを維持するにあたっての基本方針は、どのアプリも私たちの厳格なガイドラインを必ず満たしているという確信を人びとがお持ちになり、自分のプライバシーとセキュリティが保護されている安心感を持っていただけることだ」。

元Googleのポリシー担当役員で、今ではテクノロジーに支えられた業界団体Chamber of Progressを率いるAdam Kovacevich氏は、この新しい法案について、AndroidとiPhoneのオーナーにとっては「一種の挑発だ」と言う。

Kovacevich氏はこう言う: 「ワシントンまでデモ行進をして議会に、自分たちのスマートフォンをもっと馬鹿にしてくれ、と要求する消費者はいない。だから議会がやるべきは、企業間の大金が絡んでいる紛争に介入することではない」。

しかし少なくともGoogleの場合は、その反論の中に自分への反論がある。Androidは長年、マルウェアで悪名高い。しかしその悪質なソフトウェアの多くはサイドローディングでデバイスに入り込んだものではないだろう。それはGoogle Play Storeの正面玄関から堂々と入ってきたのだ。

関連記事: Senate antitrust hearing on app stores gives Apple critics a big soapbox(未訳)

関連記事: Coalition for App Fairness, a group fighting for app store reforms, adds 20 new partners(未訳)

(文:Taylor Hatmaker、翻訳:Hiroshi Iwatani)
画像クレジット: Chesnot/Getty Images

[原文へ]

WeedmapsのiPhoneアプリで大麻購入が可能に

Apple(アップル)のApp Storeガイドライン緩和によって、Weedmaps(ウィードマップ)ユーザーは人気アプリの中でカナビス(大麻)を購入できるようになった。これは、Weedmapsのユーザーがカナビスを一覧、選択、購入し、受取りあるいは配達までをアプリ内で行えるという意味だ。これまでユーザーは、地元小売店を探してメニューを見ることしかできなかった。それはApple(アップル)および地方、国のガイドラインのためだった。

アップデートされたアプリはすでに公開中だ。

関連記事:アップルが詐欺撲滅を目指してApp Storeガイドラインを改訂

この変更は、Appleが一部のカナビスアプリのためにApp Storeの規制を緩和した結果だ。新しいガイドラインの下では、ライセンスを受けたカナビス販売業者はライセンスを受けた薬局と同じ制限を(Appleから)受けるため、Weedmapsのようにライセンスを受けたカナビス業者を掲載しているアプリは販売サービスの提供が可能になる、という意味だ。

「当社のiOSアプリから購入できる機能は、当社の顧客とビジネスパートナー双方にとっての利便を改善する画期的な出来事です」とWM Technology, Inc.の最高技術責任者であるJustin Dean(ジャスティン・ディーン)氏はいう。「Appleのような会社が業界のリーダーたちと強力して私たちの業界のイノベーションを進めるソリューションを見つけてくれたことに感謝します。カナビスに対するポリシーや姿勢が目覚ましい成長を約束する形で変化していることに勇気づけられるとともに、当社プラットフォームを通じて小売店にカナビスを注文するもっと簡単な方法を提供できることを期待しています」。

Weedmapsはこの市場で独特の位置にいる。カナビス・アプリの第1人者として、すでに全米を通じて利用されている。競合するデリバリーサービスのEaze(イーズ)などと異なり、Weedmapsは配達に関与していない。ライセンスを受けたディスペンサリー(販売薬局)が商品とサービスのリストを載せるためのプラットフォームを提供しているだけだ。

新しいApp Store規則の下では、Weedmapsのようなアプリはユーザーがカナビスの販売が合法である限定地域内でのみ注文できるように制限しなければならない。これは、カナビス販売が違法な場所に住んでいるユーザーは、合法地域内のディスペンサリーから購入できないことを意味している。

以前のApple App Storeポリシーは以下のとおりだ。

たばこや電子タバコ(関連製品を含む)、違法な薬物、過度のアルコールの摂取を助長するAppは、App Storeでは許可されません。未成年者にこれらの摂取を促すAppは却下されます。また、規制薬物の販売(許認可を受けた薬局を除く)、およびたばこの販売を幇助することは認められません。

米国時間6月7日に改定されたポリシーは以下のとおり、変更部分を強調してある。

たばこや電子タバコ(関連製品を含む)、違法な薬物、過度のアルコールの摂取を助長するAppは、App Storeでは許可されません。未成年者にこれらの摂取を促すAppは却下されます。また、規制薬物の販売(許認可を受けた薬局、または許認可済みかその他の合法的な大麻ディスペンサリーによる販売を除く)、およびたばこの販売を幇助することは認められません。

規制の多い分野(バンキングや金融サービス、ヘルスケア、ギャンブル、合法大麻の使用、航空旅行など)でのサービスを提供するApp、機密性の高いユーザー情報を必要とするAppは、個人のデベロッパではなく、そうしたサービスを提供する法人によって提出される必要があります。大麻の合法的な販売を促進するためのAppは、それが合法とみなされる法的管轄地域でのみ利用できるよう、地域制限を設定する必要があります

カテゴリー:パブリック / ダイバーシティ
タグ:Weedmaps大麻AppleiOSApp Storeアメリカ

画像クレジット:Weedmaps

原文へ

(文:Matt Burns、翻訳:Nob Takahashi / facebook

アップルがiPhoneエミュレーションソフトメーカーCorelliumへの訴訟を取り下げ

Apple(アップル)が2019年のCorelliumとの訴訟を解決した。Corelliumは仮想iOSデバイスを開発しており、Washington Postの記事によるとセキュリティ研究者たちはそれらを利用して、iPhoneやその他のiOSデバイスのバグを見つけていた。解決の内容や条件は公表されていないが、その合意が為される前にAppleは、2020年後期の紛争で重要な敗訴を経験していた。

ユーザーはCorelliumのソフトウェアを使って、コンピューターのブラウザ上で仮想iPhoneを動かし、実機がなくてもiOSに深くアクセスできる。Appleは、CorelliumはAppleの著作権を侵犯しただけでなく、その製品を無差別に売ることによってプラットフォームのセキュリティを危殆化した、と主張した。

特にAppleは、Corelliumがその製品を政府に売って、Apple製品の欠陥を調べられるようにしたと非難した。Corelliumの共同創業者であるDavid Wang(デビッド・ワン)氏は、別の会社の社員だったときに、サンバーナーディーノ銃乱射事件の犯人であるテロリストが使っていたiPhoneの、FBIによるアンロックを手伝った

しかしながら判事は、著作権侵犯の訴えは「不誠実とはいえないまでも当を得ていない」として棄却した。その判決よると「法廷の所見ではCorelliumは公正使用の達成という難題を満たしており」、そのかぎりでのiOSの使用は許される、としている。

Corelliumは2021年の初めに、そのプラットフォームの個人サブスクライバーへの提供を開始しており、それまではエンタープライズのユーザーのみ可としていた。同社によると、アクセスのリクエストは個々に審査して悪用を防いでいる、という。

編集者注記: この記事の初出はEngadget。Steve DentはEngadgetの編集者。

カテゴリー:ソフトウェア
タグ:AppleiPhoneiOSエミュレーション裁判Corellium

画像クレジット:Kiichiro Sato/AP

(文:Steve Dent、翻訳:Hiroshi Iwatani)

原文へ

日本の技術系人材サービス大手テクノプロがインドの老舗アプリ開発会社Robosoftを約119.4億円で買収

インドに本社を置くデジタルソリューションメーカーのRobosoft Technologies(ロボソフト・テクノロジーズ)はインド時間8月10日、日本のITサービス企業であるTechnoPro(テクノプロ)に1億800万ドル(約119億4000万円)で事業を売却することで最終合意に達したと発表した。

1996年に設立されたRobosoft Technologiesは、Macプラットフォームに特化したソフトウェアサービス会社としてスタートし、その後、アプリ開発サービスを提供していた。

Robosoftは、世界で最も早くApple(アップル)からMac OS開発者として認定された企業の1つであり、それ以来、数十年にわたりiPhoneメーカーから繰り返し認定を受けている。

「iPhoneが発売され、App Storeのエコシステムが構築されたことで、モバイルが大きな意味を持つようになると我々は早くから認識していました。それから世界中のクライアントのためにモバイルアプリを作り始め、迷うことなく進んできました」と同社はウェブサイトで述べている。

Ascent Capital(アセント・キャピタル)やKalaari Capital(カラアリ・キャピタル)が出資しているRobosoftは、ゲーム、ニュース、スポーツ、ユーティリティ、ライフスタイルなどの分野で顧客を持ち、さらにプロダクトアドバイザリー、デザイン、エンジニアリング、アナリティクスのためのツールなど、提供するサービスを拡大してきた。

例えば、インドのニュースネットワークであるニューデリーテレビ会社(NDTV)のオリジナルアプリは、Robosoftが開発したものだ。Robosoftのクライアントには、メディア大手のViacom(バイアコム)インドのマクドナルドなどが含まれる。同社は米国や中東にもクライアントを持っている。

2017年以降、Robosoftは自社を「デジタルソリューション」企業として位置づけようとしている。

Robosoftは8月10日に発表した声明の中で、現在の経営陣が引き続き同社を率いていくと述べた。同社の創業者兼マネージングディレクターであるRohith Bhat(ロヒス・バット)氏は次のように述べている。「Robosoftは過去20年間に驚異的な旅をしてきており、その間に飛躍的な成長を遂げました。Ascent CapitalおよびKalaari Capitalとの提携が当社にとって力強い成長期を切り拓いた後に、テクノプロのようなグローバルプレイヤーに会社の手綱を渡すことができて大変うれしく思っています」。

東京証券取引所に上場しているテクノプロ・ホールディングスの代表取締役社長兼CEOである八木毅之(やぎ・たけし)氏は、「テクノプロとRobosoftの間には非常に大きな相乗効果があると期待しており、Robosoftの次の成長段階において、緊密な協力関係を築くことを楽しみにしています」と述べている。

関連記事
コロナ学校閉鎖でEdTech激戦地と化したインドのupGradがユニコーン企業の仲間入り
ソフトバンクGも出資するインドのオンライン保険アグリゲーターPolicybazaarがIPOを申請
マイクロソフトがインドのホテルチェーン「Oyo」に投資へ

カテゴリー:ソフトウェア
タグ:テクノプロRobosoft Technologies日本インド買収AppleアプリiOS

画像クレジット:Arijit Sen / Hindustan Times / Getty Images

原文へ

(文:Manish Singh、翻訳:Aya Nakazato)

電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か

電子フロンティア財団などが批判する中、アップルの児童虐待対策iCloud写真スキャンに関する社内メモ流出か

Apple

アップルが予告した次期iOS 15等での児童の性的虐待対策は、メッセージアプリに添付された写真やiCloudに保存される画像をスキャンすることから、複数の方面からプライバシー侵害や監視の恐れがあると批判を集めています。

こうした反発に対して、アップルが新機能を「誤解」を招きやすいと認めつつも、これらの新機能は子供たちの安全を守るための「重要な使命」の一部だと信念を強調した社内メモが流出したと伝えられています。

アップルが5日(米現地時間)に発表した「子供のための保護機能の拡張(Expanded Protections for Children)」への反発とは、具体的にはエドワード・スノーデン氏(米国国家安全保障局の情報を持って逃亡し、米政府が個人情報を監視していることを暴露した人物)や電子フロンティア財団(EFF)など著名な関係者からも寄せられているものです。

批判の対象となっているのは、主にアップルがiCloud画像をスキャンして児童性的虐待資料(CSAM)のデータベースに照合して一致するかどうかチェックする計画であり、わずかな変更により他の個人データも監視できるようになる可能性です。

さて米9to5Macが入手したのは、アップルのインテリジェントシステムエクスペリエンス担当副社長 セバスチャン・マリノー・メス(Sebastien Marineau-Mes)が社内スタッフ向けに書いたメモです。そこでは、アップルは「子供のための保護機能の拡張」に含まれる「機能の詳細を説明していく」ことを続けていくと述べられています。

マリノー・メス氏は、これら新機能に対して「多くの好意的な反応」を確認している一方で、どのように機能するのかを「一部の人々が誤解している」ことや、「少なからずその影響を心配している」ことも認識していると述べています。それでも、これらの機能は「子どもたちを守る」ために必要であり、同時に「ユーザーのプライバシーに対する深いコミットメント」を維持するものであるというアップルの信念を強調しています。

そのメモの全文は、次の通りです。

本日、「子どものための保護機能の拡張」が正式に公開されました。この数年間の皆さんのご尽力に感謝するために、この場をお借りしたいと思います。皆さんのたゆまぬ努力とたくましさがなければ、このような節目を迎えることはできませんでした。

子どもたちの安全を守ることは、とても重要な使命です。アップルらしく、この目標を達成するためには、エンジニアリング、GA、HI、法務、プロダクトマーケティング、PRなど、部門を超えた深い関与が必要でした。本日発表した製品は、この素晴らしいコラボレーションの成果であり、子供たちを守るためのツールを提供すると同時に、ユーザーのプライバシーに対するアップルの深いコミットメントを維持するものです。

今日は多くの好意的な反応をいただきました。誤解をされている方や、その影響を心配されている方も少なからずいらっしゃると思いますが、私たちが作ったものを理解していただけるよう、今後も機能の詳細を説明していきます。また、数ヵ月後に機能を提供するために多くのハードワークが待っていますが、本日NCMEC(全米行方不明・被搾取児童センター)から受け取ったこのメモを共有したいと思います。私自身、非常に刺激を受けましたし、皆さんにもぜひ読んでいただきたいと思います。

このような素晴らしいチームと一緒にアップルで働けることを誇りに思います。ありがとうございました。

このメモには上記の通り、NCMECからのメッセージも含まれています。

そこでは「全員がみなさん(アップル)を誇りに思っており、子供の保護を優先するという名目で行った信じられないような決断を称賛したいと思い、励ましの言葉をお伝えします」と称賛が述べられるとともに、激しい批判に晒されているアップルに対して「この長い日と眠れない夜の間、御社のおかげで何千人もの性的搾取の被害を受けた子供たちが救出され、癒しと彼らにふさわしい子供時代を過ごすチャンスを得ることができることを知って、慰めにしていただきたいと思います」という励ましの言葉も添えられています。

ほかアップルは、米国外でのCSAM検出機能の拡大は、現地の法律や規制に応じて国ごとに行われると9to5Macに対して確認したとのことです。ただし、いつ、どの国や地域に拡大するのかは具体的なスケジュールは提供されていません。

アップルやNCMECが言うとおり、新機能が本当に「プライバシーを守りつつ、子どもを保護するための道筋」となり、その他の使い道へと逸脱するおそれがあり得ないのか。今後もアップルに対しては技術の詳細につき説明が求められ、専門家らの厳しい精査にさらされる展開となりそうです。

Engadget日本版より転載)

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
Twitterが「業界初」機械学習アルゴリズムの「バイアス」を対象とする報奨金コンテスト実施
アップルが最新iOS 15のベータ版をすべての人に公開、開発者アカウント不要
【コラム】バイデン政権はインクルーシブであるためにAI開発の取り組みにもっと力を入れる必要がある
アリババは自社クラウド部門のウイグル人を顔認識する民族検知アルゴリズムにがく然
政府のデータ要求からユーザーを保護する(or しない)IT企業はここだ

カテゴリー:パブリック / ダイバーシティ
タグ:iOS(製品・サービス)iOS 15(製品・サービス)iPhone(製品・サービス)iPadOS 15(製品・サービス)Apple / アップル(企業)子ども / 子ども向け(用語)機械学習 / ML(用語)電子フロンティア財団 / EFF(組織)プライバシー(用語)

アップルがメッセージアプリで送受信される性的な画像を検知し、子どもと親に警告する新技術を発表

Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、今年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material: CSAM)の拡散を制限することを目的に、同社が導入するいくつかの新技術の一部だ。

これらの開発の一環として、アップルは消費者のプライバシーを尊重しつつ、iPhoneやiPadなどのモバイルデバイスやiCloud(アイクラウド)にアップロードされた写真の中から、既知のCSAM画像を検出できる技術を導入する。

一方、メッセージアプリの新機能は、子どもたちが健全なオンライン・コミュニケーションを取れるように、親がより積極的に関わり、情報が得られるようにするためのものだ。今年後半に予定されているソフトウェアアップデートにより、アップルのメッセージアプリは機械学習を使って画像添付ファイルを分析し、メッセージアプリで送受信される画像が、性的に露骨なものでないかを判断できるようになる。この技術では、すべての処理がデバイス上で行われるため、アップルが子どものプライベートな通信にアクセスしたり、それを傍受する必要はない。クラウド上のアップルのサーバーには何も転送されることはない。

メッセージの中に、性的な問題がありそうな画像が検知された場合、その画像はブロックされ、写真の下に「これは問題があるかもしれない画像です」というラベルが表示される。タップすればその画像を見ることができるが、子どもが写真の閲覧を選択すると、さらに詳しい情報を伝える別の画面が表示される。そこには、問題のありそうな写真や動画について、「水着で隠すプライベートな体の部分が写っています」とか「あなたは悪くないけれど、刺激的な写真や動画はあなたを傷つけるために使われることがあります」というメッセージが表示される。

また、写真や動画に写っている人が、見られたくないと思っているのに本人が知らないうちに共有されている可能性があることも提言する。

これらの警告は、子どもがそのコンテンツを見ないという正しい判断をするように導くためのものだ。

しかし、それでも子どもがタップして画像を見ようとすると、さらに別の画面が現れ、写真を見ることを選択した場合、親に通知されることが伝えられる。また、この画面では、親たちが子どもの安全を願っていることを説明し、本当は見たくないのに見るようにと強制されているなら、信頼できる人に相談するように勧めている。助けを求めるためのリソースへのリンクも表示される。

画面の下には写真を見るための選択肢は残されているものの、デフォルトで選べるようにはなっていない。その代わり、「写真を表示しない」という選択肢の方が目立つように画面がデザインされている。

コミュニケーションを妨げてアドバイスやリソースを提供するだけでなく、システムが保護者に警告を発するこのような機能は、子どもを性犯罪者から守ることに役立つ可能性がある。子どもが性犯罪者から被害を受けた時、親は子どもが相手とネットや電話で会話を始めたことにさえ気づかなかったというケースが多いからだ。性犯罪者は子どもの心理を巧みに操って信頼を得ようとし、子どもを親から引き離して、コミュニケーションを親に内緒にさせようとする。あるいは犯罪者が親に近づいてくるケースもある。

アップルのテクノロジーは、性的に露骨な内容の画像や動画が共有されることに介入し、特定して、警告を発することで、どちらのケースにおいても役に立つだろう。

しかし、CSAMの中には、いわゆる自己作成型CSAM、つまり子ども自身が撮影した画像を、子どものパートナーや仲間と合意の上で共有するものが増えている。セクスティングとか、裸の写真の共有などだ。子どもの性的搾取に対抗する技術を開発している企業のThorn(ソーン)が2019年に行った調査によると、この行為は非常に一般的になっており、13歳から17歳の女子の5人に1人が、自分の裸の写真を共有したことがあると答え、男子の10人に1人が、同じことをしたことがあると答えている。しかし、その画像を共有することで、性的虐待や搾取の危険にさらされることを、子どもは十分に理解していないかもしれないのだ。

アップルの新しいメッセージアプリは、これに対しても同様の保護機能が働く。この場合、子どもが性的に露骨な写真を送ろうとすると、写真が送信される前に警告が表示される。それでも子どもが写真を送信しようとした場合には、保護者にメッセージが届く。

アップルによれば、この新機能は今年後半に行われるソフトウェアアップデートの一環として、まずは米国から、iOS 15、iPadOS 15、macOS Monterey(モントレー)のiCloudで、家族として設定されたアカウントで有効になるとのこと。

このアップデートはSiriと検索にも適用され、子どもや親がオンラインで安全に過ごせるように、安全でない状況で助けを得るためのガイダンスやリソースが拡充される。例えば、ユーザーはSiriに、CSAMや児童の性的搾取を報告する方法を尋ねることができるようになる。また、ユーザーがCSAMに関連する疑問を検索すると、Siriと検索が介入して、そのトピックが有害であることを説明し、助けを得るための情報や相談先を提供する。

関連記事:

カテゴリー:
タグ:

画像クレジット:Janis Engel / EyeEm / Getty Images
原文へ
(文:Sarah Perez、翻訳:Hirokazu Kusakabe)

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

スパイウェア「Pegasus」が政府批判を行う女性ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上

スパイウェア「Pegasus」が政府批判ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上先日、イスラエル企業NSOグループが開発・販売するスパイウェア「Pegasus」が、人権活動家や弁護士、ジャーナリストを標的に使用されているとのアムネスティ・インターナショナル報告がありました。その続報として、政府が女性ジャーナリストの持つスマートフォンからプライベートな写真を盗み出すことに使われたことが報じられています。

問題のPegasusは、感染したデバイスがスマートフォン内に保存されているメッセージや写真をひそかに送信したり、電話の通話を本人に知られずに録音できるというもの。2020年末には37人のジャーナリストが持つiPhoneが政府等によりハッキングされた証拠が見つかったと報告されたことに続き、先月アムネスティはiOS 14.6に存在していたゼロクリック脆弱性、つまりユーザーが何もしなくてもマルウェアをがインストール可能な抜け穴が利用されていたと発表していました。

さて米NBCニュースの報道によると、アルジャジーラ(中東カタールの国営テレビ局)のレバノン人放送ジャーナリストであるGhada Oueiss氏は2020年6月、自宅で夫と一緒に夕食を食べていたところ、同僚からTwitterをチェックするようにとメッセージを受け取ったとのことです。そこでTwitterをチェックしたOueiss氏は、ジャグジーでビキニを着ているときに撮影されたプライベートな写真が「上司の家で撮影された」というウソの情報と共に、複数のアカウントにより拡散されていたことにがく然としたと述べられています。

その後は数日にわたって、Oueiss氏のジャーナリストとしての信頼性を攻撃する何千ものツイートやDMが殺到し、彼女を売春婦、あるいは醜くて年老いた女と罵っていたそうです。それらメッセージの多くは、サウジアラビアのムハンマド・ビン・サルマーン・アル・サウード皇太子(MBS)の支持者らしきアカウントから発信されており、政府関係者の認証済みアカウントも含まれていたとのことです。

これは単なるOueiss氏の憶測ではなく、彼女のスマートフォンがデジタルフォレンジックの専門家により調査され、Pegasusが写真へのアクセスに使われたとの診断結果(2020年末にMBS皇太子や写真を拡散したTwitterユーザー相手に起こされた裁判にて、提出された訴状で言及)に基づいてのことです。

Oueiss氏は「私の携帯電話がハッキングされたことはすぐにわかりました」と語り、サウジアラビア政権への批判的な報道を封じるために標的にされたとの考えを語っています。また、問題の写真はどこにも公開されたことがなく、自分のデバイス内にしかなかったことも強調しています。

流出させられた写真は、日本や欧米の感覚では特に問題ないように思われます。しかしNBCニュースは、こうした類の写真でも、中東諸国では被害者がダメージを受ける可能性があることを指摘しています。すなわちサウジアラビアのような保守的な社会では、水着写真でさえもスキャンダラスなものとみなされ、女性たちを公に辱めて評判を落とすために利用されたというわけです。

アップルは7月末にiOS 14.7.1を配信し、そのセキュリティアップデートではNSOが過去に使用した脆弱性を塞いだと推測されます(アップルは明言していませんが)。が、NSO社はこれまでもiOSで対策が施されるたびに対応してきており、現在も新たな抜け穴を探していることは確実と思われます。

アップルはアムネスティの報告に対して、Pegasusgaが特定の個人を標的にしていると認めつつ「圧倒的多数のユーザーにとっては脅威ではないことを意味します」として、ほとんどのユーザーには関係ないと示唆していました。が、WhatsAppのCEOが英The Guardianの取材で述べていたように、より本腰を入れた対策が望まれそうです。

(Source:NBC News。Via 9to5MacEngadget日本版より転載)

関連記事
アップルがiOS 14.7で「悪意SSIDに繋ぐとWi-Fi機能破壊」バグを修正、公式なセキュリティ文書公開
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに
MicrosoftやGoogle、CiscoなどがWhatsAppスパイウェア訴訟でイスラエルのNSOに抗議
ジャーナリスト36人以上のiPhoneが「ゼロクリック」スパイウェアにハックされていたことが発覚

カテゴリー:セキュリティ
タグ:Apple / アップル(企業)iPhone(製品・サービス)NSO Group(企業)スパイウェア(用語)スマートフォン(用語)プライバシー(用語)個人情報 / 個人情報保護(用語)差別(用語)

アップルがTouch ID付きキーボードを単品販売、テンキー付きモデルも

販売開始から3カ月半、Apple(アップル)はTouch ID付きMagic KeyboardをようやくiMacとのセットから分ける。Touch ID付きMagic Keyboardは単品でアップルストアや同社のサイトで購入できるようになった。

2つのバージョンがある。149ドル(日本価格は税込1万5800円)の標準モデルと、179ドル(同税込1万8800円)のテンキー付きの長いモデル。それから、丸みを帯びたコンパクトデザインでTouch IDは搭載していないバージョンも99ドル(同1万800円)である。

モデルはすべてSpotlight(スポットライト)、Dictation(ディクテーション)、 Do Not Disturb(ドゥーノットディスターブ)、絵文字専用のキーを備える(筆者は自身のキーボードで絵文字を使用不可にすることにした。アクシデントで を押すことを避けられなかったからだ)。

重要な注意点は、Touch IDはM1チップで動くMacでのみ使えるということ。つまり、現在マーケットに出回っているかなりのMacでは使えない。もしあなたがそうしたすてきな新システムを持っているのなら、安全なログインや購入などのためにTouch IDを使うことができる。こうした制限は、Touch IDが新しいチップに組み込まれたSecure Enclaveを使用しているためのようだ。

キーボードにはウーブンタイプのUSB-C / Lightningケーブルが付いてくるが、Touch IDはキーボードがBluetoothでワイヤレス接続されているときにも使える。また、Magic MouseとTrackpadのデザインが刷新されたバージョンも発売され、価格はマウスが79ドル(日本価格は8800円)、トラックパッドが129ドル(同1万3800円)だ。

関連記事
アップルの第3四半期決算はiPhoneと各種サービスが牽引し36%増、ただし翌四半期の鈍化予想も
アップルがiPhone 12用MagSafeバッテリーパック発表、最大15Wでワイヤレス充電が可能、税込1万1800円
新型コロナ後遺症の検出にFitbitデバイスやApple Watchなどウェアラブル機器が役立つとの研究結果が公表

カテゴリー:ハードウェア
タグ:AppleキーボードTouch ID

画像クレジット:Apple

原文へ

(文:Brian Heater、翻訳:Nariko Mizoguchi