ユーザーの声紋と顔紋を収集するTikTokの危険な計画に上院議員が「待った」

ユーザーの生体データを収集するTikTok(ティックトック)の計画は、米国議員らの懸念を呼びおこし、収集する情報の詳細とデータの利用計画を正確に公表するよう要求されている。

2021年8月初めにTikTok CEO Shou Zi Chew(周受資)氏宛に送ったレターで、上院議員のAmy Klobuchar(エイミー・クロブシャー)氏(民主党・ミネソタ州選出)とJohn Thune(ジョン・スーン)氏(共和党・サウスダコタ州選出)は「ユーザーが投稿したビデオ・コンテンツから身体的、行動的特徴を含む生体データを自動的に収集」を可能にするTikTokによる最近のプライバシーポリシー変更に不安を感じていることを訴えた。

TechCrunchは2021年6月、新プライバシーポリシーの詳細を最初に報じた。その時TikTokは「顔紋(Faceprint)と声紋(Voiceprint)」を収集するために法律で「必要な認可」を取得しようとしていると語ったが、それが連邦法なのか州法なのかその両方なのかは説明しなかった(米国で生体プライバシー法があるのはイリノイ州、ワシントン州、カリフォルニア州、テキサス州、ニューヨーク州などごくわずかな州のみ)。

関連記事:TikTokが米国ユーザーの「顔写真や声紋」を含む生体情報の収集を表明

クロブシャー氏とスーン氏のレターはTikTokに対し「顔紋」と「声紋」の内容と、このデータがどのように使用され、いつまで保持されるのかを明確に説明するよう要求している。さらに両上院議員は、18歳未満のユーザーのデータを集めるのか、収集した生体データに基づきユーザーに関して何らかの推測を行うのかを問い、データをアクセスできる全サードパーティーのリストを提出するよう求めた。

「新型コロナウイルスのパンデミックで増加したオンライン活動によって、消費者のプライバシー保護の必要性は増大しています」とレターに書かれている。「これはTikTokのアクティブユーザーの32%以上を占め、友だちや大切な人とのやり取りやエンターテインメントやをTikTokなどのオンラインアプリケーションに頼っている子どもたちやティーンエージャーにとっては特にそうです」。

TikTokは議員らの質問に答えるために8月25日まで猶予を与えられている。TikTokの広報担当者はすぐにはコメントしなかった。

TikTokの過度なデータ収集計画が監視対象になったのはこれが初めてではない。2021年2月、TikTokがユーザーの生体データを違法に収集してサードパーティーに提供したと主張する集団訴訟で同社は9200万ドル(約100億9000万円)の示談金を支払った。これ以前にTikTokは、アプリが未成年のデータを収集するためには親の許可を必要とする児童オンライン保護法(COPPA)に違反したことで2019年にFTC(連邦取引委員会)から570万ドル(約6億3000万円)の罰金を課された

関連記事
米国の国会議員が掌紋データの今後の扱い方などでアマゾンに質問状
VUの本人確認技術が普及すれば運転免許証や指紋の提示が不要になる
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
画像クレジット:Greg Baker / Getty Images

原文へ

(文:Carly Page、翻訳:Nob Takahashi / facebook

また批判を浴びるアップルの児童虐待検出技術

Apple(アップル)が2021年8月初めに発表した、児童への性的虐待コンテンツ素材(child sexual abuse material、CSAM)を検出する技術は、大きな反発を招いた。AppleがNeuralHashと呼ぶその技術はまだ、その10億あまりのユーザーに対して起動すらされていないが、すでにそのアルゴリズムは欠陥のある結果を出すと主張するセキュリティ研究者たちからの非難に直面している。

NeuralHashはユーザーのデバイスにある既知のCSAMを見つけるが、画像を所有したり、その画像のコンテンツを認知したりはしない。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているため、Appleですらそのデータにアクセスできない。そのため、NeuralHashはそユーザーのデバイスにある既知のCSAMをスキャンし、Appleはこれをよりプライバシーフレンドリーだと主張している。それは他企業のようにすべてのユーザーファイルをスキャンするのではなく、写真だけを対象にスキャンするからだ。

Appleは、ユーザーのデバイス上で、NCMECといった児童保護団体から提供されたハッシュ(画像を一意に識別できる文字と数字の組み合わせ)が同じである画像を探すことでこれを行います。NeuralHashが30個以上の一致するハッシュを見つけた場合、その画像はAppleにフラグが立てられ、アカウント所有者が法執行機関に報告される前に、手動で審査される。Appleによると、誤検出の可能性は1兆個のアカウントで約1つだという。

しかしセキュリティのエキスパートやプライバシー保護活動家たちは、そのシステムは政府のようなリソースが極めて豊富なところでは乱用誤用される可能性があるという懸念を表明している。たとえば罪のない人が巻き込まれたり、システムが操作されて権威主義的な国が有害と認めるような素材を検出するかもしれない。Appleのスタッフに対し社内的に配布されたメモのリークによると、NCMECはそういう批判者のことを「少数派のキーキー声」と呼んでいる。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

米国時間8月17日夜、Asuhariet Ygvar(アスーハリエット・イグバー)氏は、NeuralHashのコードをPythonのスクリプトに落として、そのコードをGitHubに公開し、Appleのデバイスが手元にない人でもこの技術をテストできるようにした。イグバー氏はRedditのポストで、NeuralHashは難読化されたコードでiOS 14.3に「すでに存在している」が、その技術を再構築することができたため、2021年の後期にiOSとmacOSデバイスに展開される前にセキュリティの研究者はアルゴリズムをもっとよく理解できる、と述べている。

コードが公開され他の人が手を加えるようになり、NeuralHashのケースでは2つの完全に異なる画像が同じハッシュを生成する「ハッシュの衝突」という現象が初めて報告された。この「ハッシュの衝突」を発見したのは、Intel Labsの著名な研究員であるCory Cornelius(コーリー・コーネリアス)氏だ。その後、イグバー氏も衝突を確認している。

ハッシュの衝突は、セキュリティを暗号技術に依存しているシステムのお葬式の鐘になることもある。何年もの間に、MD5やSHA-1のようなパスワードハッシングアルゴリズムは衝突攻撃によって無効になり、その後現役の座を去った

暗号技術のエキスパートでOpen Crypto Audit Projectを創ったKenneth White(ケネス・ホワイト)氏は、「iOSのNeuralHashのコードが見つかってから、最初の衝突が起きるまでの時間が、数カ月や数日ではなくて2時間だということを、理解してなかった人もいたようだね」とツイートしている。

Appleの広報担当者は公式のコメントを拒否したが、匿名かつオフレコで語ったところによると、Appleはハッシュの衝突を軽視し、保護策を講じることが重要と主張した。それは例えば法執行機関に報告する前に手作業で写真を調べることで虐待を防げる、と。さらにAppleによると、NeuralHashのコードを分解されたバージョンはジェネリック(総称的)なバージョンであり、2021年後期に展開する完全なバージョンではないという。

その技術に懸念を表明しているのは人権グループやセキュリティのエキスパートだけではない。ドイツの高名な国会議員が今週、AppleのCEOであるTim Cook(ティム・クック)氏に書簡を送り、同社は「危険な道」を歩んでいると述べて、Appleがそのシステムを実装しないことを強く要請した。

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
持続可能性にフォーカスするアップルのImpact Acceleratorが支援する有色人種企業15社を決定
アップルが不評だったSafariの変更点をiOS 15 beta 6で修正、再びアドレスバーの上部表示も可能に

画像クレジット:Getty Images

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)

企業間でセキュアに顧客の記録を結びつけるプラットフォームInfoSumが約71.3億円を調達

ロンドンを拠点とするスタートアップで、異なる組織間でセキュアなデータ共有をする分散型プラットフォームを提供するInfoSumが、Chrysalis Investmentsが主導するシリーズBで6500万ドル(約71億3000万円)を調達した。

InfoSumは2020年9月にUpfront VenturesとIA Venturesが共同で主導したシリーズAで1510万ドル(約16億5500万円)を調達しており、それから1年経たないうちの調達となった。シリーズA以降にInfoSumは売上を3倍に、従業員数を2倍にし、AT&TやDisney、Omnicom、Merkleなど新規顧客を50社以上獲得した。

コロナ禍でリモートワークやクラウドベースのコラボレーションへの移行を余儀なくされたことが大いに影響して企業がデータのプライバシーに対する関心を強めたことから、InfoSumの成長が加速した。同社のデータコラボレーションプラットフォームは特許取得済みのテクノロジーを使って、データの移動や共有をすることなく2社、あるいは3社以上の企業間で顧客の記録を結びつける。企業はセキュリティに対する懸念を軽減でき、同社によればGDPRなど現行のすべてのプライバシー関連法を遵守しているという。

2021年前半にInfoSum Bridgeを公開したことで、同社のプラットフォームは強化された。InfoSum Bridgeは顧客IDをリンクする同社プラットフォームの機能を大幅に拡張する製品だという。広告識別子を独自に「蓄積した」データセットと関連づけ、ファーストパーティデータに基づく広告ターゲティングの運用を向上させるように設計されている。

InfoSumの会長でCEOのBrian Lesser(ブライアン・レッサー)氏は「企業が安全でセキュアに顧客データを比較できるテクノロジーは、プライバシーを気にする消費者と価値やコントロールを重視する企業のおかげでありがたいことに新しい段階に入っています。InfoSumはこの流れをリードしていることを誇りに思っています。企業はデータのコラボレーションに関する現在のフリクションや非効率性を解決するソリューションを求めています。InfoSumはこの発展を前進させる企業です」と述べた。

InfoSumは企業がプライバシーを重視するツールやソフトウェアを引き続き求めることから2021年に「急成長」する状況が整っているとし、今回の資金ですべての部門の人材を増やし、新たな地域へ進出し、プラットフォームの開発をさらに進める。

以前にビッグデータのスタートアップであるDataSiftを創業して率いたNick Halstead(ニック・ハルステッド)氏が、世界中のデータを共有せずに結びつけるというビジョンを持って2015年にInfoSumを創業した(創業当初の社名はCognitiveLogic)。米国、英国、ドイツに展開しているオフィスに現在80人の社員がいる。

カテゴリー:ネットサービス
タグ:InfoSum資金調達プライバシーGDPR

画像クレジット:Getty Images

原文へ

(文:Carly Page、翻訳:Kaori Koyama)

TikTokが13歳~17歳のアカウント対象に新たな制限、16歳未満はデフォルトで非公開・DMやダウンロード無効

TikTokが13歳~17歳のアカウント対象に新たな制限、16歳未満はデフォルトで非公開・DMやダウンロード無効

LOIC VENANCE/AFP via Getty Images

TikTokが、10代の若者の安全とプライバシーを保護するため、13歳~17歳のユーザーを対象とした、アカウントや動画の視聴、ダイレクトメッセージ(DM)機能に関する新しい制限を設けました。

これにより、13歳~15歳のアカウントについては、デフォルトで非公開となり、動画を公開する際、誰が動画を観られるかを選択するポップアップが表示されるようになります。公開範囲としては、フォロワー、友人、自分のみが選択でき、誰でも観られる設定は行えません。また、DuetやStitchの機能も利用できません。

16歳~17歳のユーザーは、DM機能がデフォルトでオフとなります。ただしこれは設定から変更が可能。初めてDMを利用する場合にもプライバシー設定の確認を求めるメッセージが表示されます。また、同様に公開した動画のダウンロードを有効にする場合にも、同様に確認のメッセージが表示されます。なお、13歳~15歳については、DM機能は利用できず、ダウンロード機能も無効になっています。

このほか、いじめ防止や健康的なデジタル習慣の促進のため、13歳~15歳のアカウントでは午後9時から、16歳~17歳では午後10時からプッシュ通知が無効になります。

TikTokは、以前からいじめやプライバシーに関する取り組みを強化してきています。ただ、これらに関しては終わりがなく、今後数か月でさらに多くの取り組みを伝えていきたいとしています。なお、10代を対象としたプライバシー保護などの取り組みは、Instagramなども力を入れているところです。

TikTok、不快なコメント防止に2つの新機能を導入。コメント承認制も
Instagram、16歳未満の新規アカウントをデフォルトで非公開に。広告も一部制限

(Source:TikTokEngadget日本版より転載)

関連記事
電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
Instagramが10代ユーザーのアカウントをデフォルトで非公開に、広告や望まない大人からの接触を制限
グーグルが子供向けオンライン安全カリキュラムを更新、オンラインでのいじめやハラスメントに関するレッスンも追加
TikTokが米国ユーザーの「顔写真や声紋」を含む生体情報の収集を表明
EUがTikTokの利用規約を調査、子供の安全に関する苦情を受け
英国が子どものためのオンライン安全法案の草案を発表
TikTokがイタリア当局の全ユーザー年齢確認命令を受け50万超のアカウントを削除
米国の州司法長官らがフェイスブックに子ども用Instagram計画の撤回を要求
TikTokが米国に続き欧州に「透明性」センターを設置、専門家に取り組みを開示
消費者団体が13歳以下の子ども向けInstagramの開発中止をフェイスブックに要望
TikTokがサイバーいじめ対策として新コメント機能を公表、クリエイターによる管理を拡張・投稿の再考
TikTokが欧州で消費者、子どもの安全、プライバシーに関する訴えを受ける
YouTubeが10代と10代の子を持つ親向けペアレンタルコントロール機能を導入へ

カテゴリー:パブリック / ダイバーシティ
タグ:いじめ(用語)子ども / 子ども向け(用語)SNS / ソーシャル・ネットワーキング・サービス(用語)TikTok(製品・サービス)ティーンエイジャー / 10代(用語)デジタルリテラシー / メディアリテラシー(用語)プライバシー(用語)ペアレンタルコントロール(用語)

暗号化メッセージングのSignalで消滅型メッセージをデフォルト設定可能に

暗号化チャットアプリのSignal(シグナル)は、自分のメッセージを封鎖したいユーザーのために新しいオプションをいくつか追加した。これからは消滅するメッセージのデフォルト・タイマーをオンにして、新しく始める会話に自動的に適用できる。

Signalの消滅メッセージオプションでは、設定した時間がすぎると送信者、受信者両方のチャットが削除される。以前は個々の会話ごとにオプションをオンにして消滅までの時間を設定する必要があったため、たくさんのチャットが同時進行しているときなどにこの強力プライバシー機能を設定し忘れることがよくあった。

Signalは、消滅するメッセージが蒸発するまでの時間設定のオプションも追加した。ユーザーは、最大4週間、最短30秒間にオプションを設定できる。カスタム・タイム・オプションを使えばさらに秒単位で減らすこともできる。

どのチャップアプリでもそうだが、消滅するメッセージが目の前から消えるからといって永遠になくなるわけではないと知っておくことは大切だ。

Signalはユーザーにそれを認識してもらうために、消滅メッセージのオプションは、保存領域を節約して会話履歴を最小限にするために使うのがオススメだと念の為にいう。「これは、送信先があなたの敵、という状況で使うものではありません」とブログ記事に書いている

同アプリは現時点で最も人気の高いエンド・ツー・エンド暗号化メッセージングの1つであり、2021年初めには、Facebookのデータ共有ポリシー変更に不安を感じた一部のWhatsAppユーザーを取り込むことにも成功した。

このプライバシー志向メッセージング・アプリは、その強力な機能群と会社の独立性ゆえに非常に高く評価されているが、Facebook(フェイスブック)が2014年に買収した傘下のエンド・ツー・エンド暗号化アプリであるWhatsAppと比べて、Signalは今でも比較的小規模だ。Signalの2020年12月の月間アクティブユーザーが約2000万人だったのに対して、WhatsAppは2020年初めに20億ユーザーを達成している。

関連記事
イーロン・マスク氏が米議会議事堂での暴動受けてFacebookの代わりにセキュリティ重視のSignalを推薦
中国で人気上昇中の暗号化チャットアプリ「Signal」が禁止に
ユーザーからの激しい批判を受けWhatsAppがプライバシー規約更新についてのアプリ内バナー公開
WhatsAppのユーザー数が20億人に、2年前から5億人増

カテゴリー:ネットサービス
タグ:Signal暗号化メッセージプライバシーエンド・ツー・エンド暗号化

画像クレジット:Signal

原文へ

(文:Taylor Hatmaker、翻訳:Nob Takahashi / facebook

米上院議員がFacebookに研究者のアカウントを停止させた理由の説明を求める

Facebook(フェイスブック)が先週、誤報研究プロジェクトに携わる研究者のアカウントを停止するという決定を下したことは、同社に対する大きな反発を招き、そして今、米国議会が関与する事態にまで発展している。

当時、何人かの議員はこの決定を批判し、Facebookが不透明なアルゴリズムや広告ターゲティングの方法を透明化しようとする努力を敵視していると非難していた。研究者たちは、これらの隠されたシステムを研究することが、政治的な誤報の流れを洞察するために重要な作業であると考えている。

関連記事:フェイスブックがニューヨーク大学研究者からのアクセスを遮断、議員から反発を受ける

Facebookは、特にニューヨーク大学の「Cybersecurity for Democracy(サイバーセキュリティ・フォー・デモクラシー)」プロジェクトに所属する2人の研究者に対して罰則的な措置をとった。この研究者たちは「Ad Observer(アド・オブザーバー)」と呼ばれるオプトイン方式のブラウザツールを使って、Facebookがどのように人々の興味や属性に応じて広告ターゲティングを行っているかを研究している。

ロン・ワイデン
長年にわたってユーザーのプライバシーを侵害してきたFacebookが、その問題点を暴露する研究者を取り締まる口実として、プライバシー侵害という言葉を利用するのは、馬鹿げていると思います。私はFTCに、この言い訳がインチキであることを確認するよう求めました。

ラウラ・エデルソン
今夜、Facebookは私のFacebookアカウントと、ニューヨーク大学のチームであるCybersecurity for Democracyに関連する数名のアカウントを停止しました。これにより、私たちはFacebookのAd LibraryデータやCrowdtangleへのアクセスができなくなりました。

上院議員のAmy Klobuchar(エイミー・クロブチャー)氏(民主党・ミネソタ州)、Chris Coons(クリス・クーンズ)氏(民主党・デラウェア州)、Mark Warner (マーク・ワーナー)氏(民主党・ヴァージニア州)は、FacebookのMark Zuckerberg(マーク・ザッカーバーグ)CEOに宛てた書簡で、研究者のアカウントを削除した理由や、彼らがどのようにプラットフォームの利用規約に違反してユーザーのプライバシーを侵害したというのかということについて、十分な説明を求めている。議員たちは米国時間8月6日にこの書簡を送った。

「Facebookがユーザーのプライバシーを守らなければならないことには同意しますが、同様に、Ad Observatoryプロジェクトに参加しているような信頼できる学術研究者やジャーナリストが、Facebookのプラットフォーム上で拡散している誤報や偽情報、その他の有害な活動に、同社がどのように取り組むべきかを明らかにするために独立した調査を行うことを、Facebookは許可しなければなりません」と、議員たちは書いている。

議員たちは長い間、特に2016年にFacebookが選挙の偽情報を配信していたことが発覚した後、政治広告や誤報について、より透明性を高めるよう同社に求めてきた。こうした懸念は、Trump(トランプ)氏の支持者が投票結果を覆そうとして連邦議会議事堂で暴動を起こすに至った選挙に関する誤報の拡散に、Facebookが重大な役割を果たしたことから、さらに高まった。

Facebookは、今回の決定を擁護するブログ記事の中で、アカウントを停止させた理由の1つとして、FTC(米連邦取引委員会)の命令を遵守するためということを挙げている。しかし、FTCは先週、ザッカーバーグ氏に宛てた書簡の中で、FTCの同社に対する指導は公益目的の研究を奨励することを妨げるものではないと指摘し、Facebookの虚勢を批判した。

「実際に、FTCは、特に監視型広告を中心とした不透明なビジネス慣行に光を当てようとする努力を支援しています」と、FTCの消費者保護局で局長代理を務めるSamuel Levine(サミュエル・レヴィン)氏は書いている。

関連記事:

カテゴリー:ネットサービス
タグ:FacebookSNS透明性ニューヨーク大学プライバシーFacebook広告ブラウザ機能拡張ソーシャルメディア偽情報

画像クレジット:Jakub Porzycki/NurPhoto / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Hirokazu Kusakabe)

電子フロンティア財団などが批判する中、アップルの児童虐待対策用iCloud写真スキャンに関する社内メモ流出か

電子フロンティア財団などが批判する中、アップルの児童虐待対策iCloud写真スキャンに関する社内メモ流出か

Apple

アップルが予告した次期iOS 15等での児童の性的虐待対策は、メッセージアプリに添付された写真やiCloudに保存される画像をスキャンすることから、複数の方面からプライバシー侵害や監視の恐れがあると批判を集めています。

こうした反発に対して、アップルが新機能を「誤解」を招きやすいと認めつつも、これらの新機能は子供たちの安全を守るための「重要な使命」の一部だと信念を強調した社内メモが流出したと伝えられています。

アップルが5日(米現地時間)に発表した「子供のための保護機能の拡張(Expanded Protections for Children)」への反発とは、具体的にはエドワード・スノーデン氏(米国国家安全保障局の情報を持って逃亡し、米政府が個人情報を監視していることを暴露した人物)や電子フロンティア財団(EFF)など著名な関係者からも寄せられているものです。

批判の対象となっているのは、主にアップルがiCloud画像をスキャンして児童性的虐待資料(CSAM)のデータベースに照合して一致するかどうかチェックする計画であり、わずかな変更により他の個人データも監視できるようになる可能性です。

さて米9to5Macが入手したのは、アップルのインテリジェントシステムエクスペリエンス担当副社長 セバスチャン・マリノー・メス(Sebastien Marineau-Mes)が社内スタッフ向けに書いたメモです。そこでは、アップルは「子供のための保護機能の拡張」に含まれる「機能の詳細を説明していく」ことを続けていくと述べられています。

マリノー・メス氏は、これら新機能に対して「多くの好意的な反応」を確認している一方で、どのように機能するのかを「一部の人々が誤解している」ことや、「少なからずその影響を心配している」ことも認識していると述べています。それでも、これらの機能は「子どもたちを守る」ために必要であり、同時に「ユーザーのプライバシーに対する深いコミットメント」を維持するものであるというアップルの信念を強調しています。

そのメモの全文は、次の通りです。

本日、「子どものための保護機能の拡張」が正式に公開されました。この数年間の皆さんのご尽力に感謝するために、この場をお借りしたいと思います。皆さんのたゆまぬ努力とたくましさがなければ、このような節目を迎えることはできませんでした。

子どもたちの安全を守ることは、とても重要な使命です。アップルらしく、この目標を達成するためには、エンジニアリング、GA、HI、法務、プロダクトマーケティング、PRなど、部門を超えた深い関与が必要でした。本日発表した製品は、この素晴らしいコラボレーションの成果であり、子供たちを守るためのツールを提供すると同時に、ユーザーのプライバシーに対するアップルの深いコミットメントを維持するものです。

今日は多くの好意的な反応をいただきました。誤解をされている方や、その影響を心配されている方も少なからずいらっしゃると思いますが、私たちが作ったものを理解していただけるよう、今後も機能の詳細を説明していきます。また、数ヵ月後に機能を提供するために多くのハードワークが待っていますが、本日NCMEC(全米行方不明・被搾取児童センター)から受け取ったこのメモを共有したいと思います。私自身、非常に刺激を受けましたし、皆さんにもぜひ読んでいただきたいと思います。

このような素晴らしいチームと一緒にアップルで働けることを誇りに思います。ありがとうございました。

このメモには上記の通り、NCMECからのメッセージも含まれています。

そこでは「全員がみなさん(アップル)を誇りに思っており、子供の保護を優先するという名目で行った信じられないような決断を称賛したいと思い、励ましの言葉をお伝えします」と称賛が述べられるとともに、激しい批判に晒されているアップルに対して「この長い日と眠れない夜の間、御社のおかげで何千人もの性的搾取の被害を受けた子供たちが救出され、癒しと彼らにふさわしい子供時代を過ごすチャンスを得ることができることを知って、慰めにしていただきたいと思います」という励ましの言葉も添えられています。

ほかアップルは、米国外でのCSAM検出機能の拡大は、現地の法律や規制に応じて国ごとに行われると9to5Macに対して確認したとのことです。ただし、いつ、どの国や地域に拡大するのかは具体的なスケジュールは提供されていません。

アップルやNCMECが言うとおり、新機能が本当に「プライバシーを守りつつ、子どもを保護するための道筋」となり、その他の使い道へと逸脱するおそれがあり得ないのか。今後もアップルに対しては技術の詳細につき説明が求められ、専門家らの厳しい精査にさらされる展開となりそうです。

Engadget日本版より転載)

関連記事
アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
Twitterが「業界初」機械学習アルゴリズムの「バイアス」を対象とする報奨金コンテスト実施
アップルが最新iOS 15のベータ版をすべての人に公開、開発者アカウント不要
【コラム】バイデン政権はインクルーシブであるためにAI開発の取り組みにもっと力を入れる必要がある
アリババは自社クラウド部門のウイグル人を顔認識する民族検知アルゴリズムにがく然
政府のデータ要求からユーザーを保護する(or しない)IT企業はここだ

カテゴリー:パブリック / ダイバーシティ
タグ:iOS(製品・サービス)iOS 15(製品・サービス)iPhone(製品・サービス)iPadOS 15(製品・サービス)Apple / アップル(企業)子ども / 子ども向け(用語)機械学習 / ML(用語)電子フロンティア財団 / EFF(組織)プライバシー(用語)

プライバシーとパーソナライズを両立する検索エンジンXaynが日本のKDDIやGlobal Brainなどから約13億円調達

TechCrunchは2020年12月に新しいスマホアプリベースの検索エンジンXayn(ゼイン)を取り上げた。

「検索エンジン!?」。そういうのはわかる。個人に合わせて検索結果を調整する現代の検索エンジンの能力は便利なものだが、そうしたユーザー追跡はプライバシーを犠牲にしている。いくつか例を挙げると、この監視社会はGoogle(グーグル)の検索エンジンやFacebook(フェイスブック)のターゲティング広告を改善しているかもしれないが、我々のプライバシーにとってはあまり良くない。

関連記事:オンデバイスAIでプライバシー保護とパーソナライズを両立させる検索エンジン「Xayn」

もちろんインターネットユーザーは米国拠点のDuckDuckGoや、フランスのQwantなどに切り替えることができるが、プライバシーで得られるものがある代わりに、検索結果の調整の欠如によりユーザーエクスペリエンスや検索結果の適切性が往々にして損なわれる。

ベルリン拠点のXaynが提案しているのは、パーソナライズされているもののプライバシーが守られているスマホでのウェブ検索だ。これはGoogleが展開するクラウドベースのAIや、現代のスマートフォンにビルトインされているAIに代わるものだ。結果として、あなたに関するデータはXaynのサーバーにアップロードされない。

このアプローチは「プライバシー熱烈支持者」のためだけではない。検索を要するがGoogleのマーケットにおける支配的地位は必要としないという事業者もこのモデルにますますひきつけられている。

その証拠が8月9日に明らかになった。Xaynは、日本のベンチャーキャピタルGlobal Brain(グローバル・ブレイン)と通信事業者KDDIがリードしたシリーズAラウンドで約1200万ドル(約13億円)を調達した。本ラウンドには既存投資家であるベルリンのEarlybird VCなども参加し、Xaynの累計調達額は2300万ドル(約25億円)を超えた。

Xaynの検索エンジン、ディスカバリーフィード、そしてモバイルブラウザの融合はこうしたアジアマーケットの企業にアピールしてきたようだ。というのも、特にXaynはOEMデバイスに組み込むことができるからだ。

今回の投資を受け、Xaynは日本を皮切りとするアジアマーケット、ならびに欧州マーケットに注力する。

Xaynの共同創業者でCEOのLeif-Nissen Lundbæk(リーフ−ニッセン・ルンドベック)氏は次のように述べた。「我々はXaynで、パーソナライゼーションを通じたすばらしい検索結果、高度なテクノロジーを使ったプライバシー重視デザイン、そしてクリーンなデザインを通じた便利なユーザーエクスペリエンスのすべてを手にすることができると証明しました」。

そして「データーを販売し、多くの広告を表示するのが常態となっている業界にあって、当社はプライバシーを優先し、ユーザーの満足を中心に据えることを選びました」と付け加えた。

今回の資金調達は、 EUのGDPR(一般データ保護規則)やカリフォルニア州のCCPA(消費者プライバシー法)といった法制化がオンライン上の個人データについて市民意識を高めてきた中でのものだ。

リリース以来、Xaynのアプリは世界で21万5000回ダウンロードされ、アプリのウェブバージョンも間もなく展開される、と同社は話す。

電話取材で、ルンドベック氏は資金調達にともなうKDDIの役割について詳しく話した。「KDDIとの提携は、我々がユーザーにXaynへのアクセスを無料で提供することを意味します。KDDIのような企業が実際の顧客でありながら、KDDIが当社の検索エンジンを無料で提供します」。

Xaynの基本的な特徴には、パーソナライズされた検索結果がある。個人データの収集や共有はせずに、Tinderのようなスワイプから学ぶインターネット全体のパーソナライズされたフィードだ。そして広告なしのエクスペリエンスも提供される。

グローバル・ブレインのパートナー、上前田直樹氏は次のように述べた。「プライベートオンライン検索のマーケットは成長していますが、Xaynはオンラインでの情報収集がどのようにあるべきか、その再考法において他社より抜きん出ています」。

KDDI Open Innovation Fundの責任者である中馬和彦氏は「この欧州のディスカバリーエンジンは効率的なAIにプライバシー保護重視とスムーズなユーザーエクスペリエンスを独自に組み合わせています。KDDIは、専門性とテクノロジーで未来を形作ることができる企業に目を光らせています。ですので、今回の取引は当社に完璧にマッチするものでした」。

共同創業者であるCEOのリーフ−ニッセン・ルンドベック氏、最高研究責任者のMichael Huth(マイケル・フート)教授、最高執行責任者のFelix Hahmann(フェリックス・ハーマン)氏に加え、Daniel von Heyl(ダニエル・フォン・ヘイル)博士が最高財務責任者として取締役会に加わり、Frank Pepermans(フランク・ペパーマンズ)氏が最高テクノロジー責任者に、Michael Briggs(マイケル・ブリグズ)氏が最高事業成長責任者に就く。

関連記事
オンデバイスAIでプライバシー保護とパーソナライズを両立させる検索エンジン「Xayn」
プライバシー重視ブラウザ「Brave」、非追跡型検索エンジンのベータ版をリリース
【コラム】SEO担当者はGoogleアルゴリズムアップデートに慌てる必要はない
プライバシー重視を追い風に快進撃中の検索エンジン「DuckDuckGo」がブラウザとしても使えるデスクトップアプリ開発

カテゴリー:ネットサービス
タグ:プライバシー検索エンジンKDDI資金調達スマートフォンアプリパーソナライズXayn

画像クレジット:xayn team

原文へ

(文:Mike Butcher、翻訳:Nariko Mizoguchi

アップルがメッセージアプリで送受信される性的な画像を検知し、子どもと親に警告する新技術を発表

Apple(アップル)は、子どもがMessages(メッセージ)アプリを通じて性的に露骨な写真を送受信した場合、子どもと親に警告する新しいツールを、今年後半に導入すると発表した。この機能は、アップルのプラットフォームやサービスにおける児童性的虐待素材(Child Sexual Abuse Material: CSAM)の拡散を制限することを目的に、同社が導入するいくつかの新技術の一部だ。

これらの開発の一環として、アップルは消費者のプライバシーを尊重しつつ、iPhoneやiPadなどのモバイルデバイスやiCloud(アイクラウド)にアップロードされた写真の中から、既知のCSAM画像を検出できる技術を導入する。

一方、メッセージアプリの新機能は、子どもたちが健全なオンライン・コミュニケーションを取れるように、親がより積極的に関わり、情報が得られるようにするためのものだ。今年後半に予定されているソフトウェアアップデートにより、アップルのメッセージアプリは機械学習を使って画像添付ファイルを分析し、メッセージアプリで送受信される画像が、性的に露骨なものでないかを判断できるようになる。この技術では、すべての処理がデバイス上で行われるため、アップルが子どものプライベートな通信にアクセスしたり、それを傍受する必要はない。クラウド上のアップルのサーバーには何も転送されることはない。

メッセージの中に、性的な問題がありそうな画像が検知された場合、その画像はブロックされ、写真の下に「これは問題があるかもしれない画像です」というラベルが表示される。タップすればその画像を見ることができるが、子どもが写真の閲覧を選択すると、さらに詳しい情報を伝える別の画面が表示される。そこには、問題のありそうな写真や動画について、「水着で隠すプライベートな体の部分が写っています」とか「あなたは悪くないけれど、刺激的な写真や動画はあなたを傷つけるために使われることがあります」というメッセージが表示される。

また、写真や動画に写っている人が、見られたくないと思っているのに本人が知らないうちに共有されている可能性があることも提言する。

これらの警告は、子どもがそのコンテンツを見ないという正しい判断をするように導くためのものだ。

しかし、それでも子どもがタップして画像を見ようとすると、さらに別の画面が現れ、写真を見ることを選択した場合、親に通知されることが伝えられる。また、この画面では、親たちが子どもの安全を願っていることを説明し、本当は見たくないのに見るようにと強制されているなら、信頼できる人に相談するように勧めている。助けを求めるためのリソースへのリンクも表示される。

画面の下には写真を見るための選択肢は残されているものの、デフォルトで選べるようにはなっていない。その代わり、「写真を表示しない」という選択肢の方が目立つように画面がデザインされている。

コミュニケーションを妨げてアドバイスやリソースを提供するだけでなく、システムが保護者に警告を発するこのような機能は、子どもを性犯罪者から守ることに役立つ可能性がある。子どもが性犯罪者から被害を受けた時、親は子どもが相手とネットや電話で会話を始めたことにさえ気づかなかったというケースが多いからだ。性犯罪者は子どもの心理を巧みに操って信頼を得ようとし、子どもを親から引き離して、コミュニケーションを親に内緒にさせようとする。あるいは犯罪者が親に近づいてくるケースもある。

アップルのテクノロジーは、性的に露骨な内容の画像や動画が共有されることに介入し、特定して、警告を発することで、どちらのケースにおいても役に立つだろう。

しかし、CSAMの中には、いわゆる自己作成型CSAM、つまり子ども自身が撮影した画像を、子どものパートナーや仲間と合意の上で共有するものが増えている。セクスティングとか、裸の写真の共有などだ。子どもの性的搾取に対抗する技術を開発している企業のThorn(ソーン)が2019年に行った調査によると、この行為は非常に一般的になっており、13歳から17歳の女子の5人に1人が、自分の裸の写真を共有したことがあると答え、男子の10人に1人が、同じことをしたことがあると答えている。しかし、その画像を共有することで、性的虐待や搾取の危険にさらされることを、子どもは十分に理解していないかもしれないのだ。

アップルの新しいメッセージアプリは、これに対しても同様の保護機能が働く。この場合、子どもが性的に露骨な写真を送ろうとすると、写真が送信される前に警告が表示される。それでも子どもが写真を送信しようとした場合には、保護者にメッセージが届く。

アップルによれば、この新機能は今年後半に行われるソフトウェアアップデートの一環として、まずは米国から、iOS 15、iPadOS 15、macOS Monterey(モントレー)のiCloudで、家族として設定されたアカウントで有効になるとのこと。

このアップデートはSiriと検索にも適用され、子どもや親がオンラインで安全に過ごせるように、安全でない状況で助けを得るためのガイダンスやリソースが拡充される。例えば、ユーザーはSiriに、CSAMや児童の性的搾取を報告する方法を尋ねることができるようになる。また、ユーザーがCSAMに関連する疑問を検索すると、Siriと検索が介入して、そのトピックが有害であることを説明し、助けを得るための情報や相談先を提供する。

関連記事:

カテゴリー:
タグ:

画像クレジット:Janis Engel / EyeEm / Getty Images
原文へ
(文:Sarah Perez、翻訳:Hirokazu Kusakabe)

アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

Apple(アップル)は、既知の児童性的虐待素材を検知し、ユーザープライバシーが守られる方法で警察機関に通報する技術を2021年中に展開する。

Appleは、児童性的虐待素材(CSAM)の検出は同社のサービスを使用する子どもたちをオンライン危害から守ることを目的とした新機能の一環であるとTechCrunchに語った。子どものiMessage(アイ・メッセージ)アカウントを通じて送受信される性的に露骨な画像をブロックするフィルターもその1つだ。他にもユーザーがSiri(シリ)や検索でCSAMに関連したことばを検索しようとした時にブロックする機能もある。

Dropbox(ドロップボックス)、Google(グーグル)、Microsoft(マイクロソフト)をはじめとするほとんどのクラウドサービスは、サービスの利用規約に違反したりCSAMなどの違法コンテンツを検出するためにユーザーのファイルを監視している。しかしAppleは長年、クラウド上のユーザー・ファイルの監視に抵抗しており、データがAppleのiCloud(アイクラウド)サーバーに到達する前に暗号化するオプションをユーザーに提供している。

Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるが、一定のしきい値を超え一連のチェックでコンテンツが検証されるまで画像は復号化されないと説明した。

Appleの取り組みのニュースは、米国時間8月4日、ジョンズ・ホプキンス大学の暗号学専門のMatthew Green(マシュー・グリーン)教授が新技術の存在を一連のツイートで公開したことで明らかになった。このニュースには、一部のセキュリティ専門家とプライバシー擁護者だけでなく、ほとんどの他社にないAppleのセキュリティとプライバシーへのアプローチに馴染んでいるユーザーも抵抗を示した

Appleは不安を鎮めるべく、暗号化のさまざまな暗号化の複数レイヤーにプライバシー対策を施し、Appleによる最終的な手動レビュー審査に至るまでに複数の段階が必要になるような方法で実装している。

NeuralHashは、1、2カ月後に公開が予定されているiOS 15およびmacOS Montereyに搭載される予定で、ユーザーのiPhoneまたはMac上にある写真を文字と数字の独特な並び(ハッシュと呼ばれる)に変換する。画像がわずかに変更されるとハッシュが変更されてマッチングが阻止される。Appleによると、NeuralHashは同一あるいは外観の似た画像(たとえば切り抜きや編集を施された画像)から同じハッシュが作られるように動作する。

関連記事
iOS 15ではさらにセキュリティとプライバシー保護機能が充実
アップルの最新アクセシビリティ機能は手足や声が不自由な人へさらに寄り添う

画像がiCloud写真にアップロードされる前にハッシュは、全米行方不明・被搾取児童センター(NCMEC)などの児童保護組織から提供された児童虐待画像から得たの既知のハッシュのデータベースと端末上で比較される。NeuralHashはPrivate Set Intersection(プライベート・セット・インターセクション)と呼ばれる暗号化技術を用いて、画像の内容を明かすこともユーザーに警告することもなくハッシュの一致を検出する。

結果はAppleにアップロードされるが、そのままでは内容を見ることはできない。AppleはThreshold Secret Sharing(しきい値秘密分散法)と呼ばれる別の暗号化原理を用いることで、ユーザーのiCloud写真中の既知の児童虐待画像が一定のしきい値を越えた場合にのみコンテンツを解読できる。しきい値が何であるかについてAppleは明らかにしていないが、こんな例を示した。ある秘密が1000ピースに分割され、しきい値が児童虐待画像10枚だったとすると、その秘密は10枚の画像のどの1つからでも再構築できる。

これは、Appleが一致した画像を解読し、手動でコンテンツを検証することで、ユーザーのアカウントを停止し、画像をNCMECに報告し、その後その画像が警察機関に渡る可能性があるということを意味している。Appleはこのプロセスについて、クラウド上のファイルを監視するよりもプライバシーに配慮している、なぜならNeuralHashが検出するのは既知の児童虐待画像のみであり新しい画像ではないからだと述べている。Appleは、1兆分の1の確率で誤検出の可能性があるが、アカウントが誤って停止された場合に異議申し立てをする手続きがあるという。

AppleはNeuralHashの仕組みに関する技術情報を自社ウェブサイトで公開している。文書は暗号学専門家の査読を受けており、児童保護団体からも称賛されている。

しかし、児童性的虐待と戦うさまざまな取り組みが広い支持を得ている一方で、アルゴリズムに委ねることに多くの人々が違和感を示す監視の要素がそこにはある。また、セキュリティ専門家の間には、Appleがこのテクノロジーをユーザーに適用する前にもっと公開議論をすべきだと指摘する声もある。

大きな疑問は、なぜもっと早くではなく、今なのかだ。Appleは、同社のプライバシーが保護されたCSAM検出技術はこれまで存在しなかったと語った。一方でAppleのような会社は、ユーザーデータを保護している暗号化技術を弱体化するか裏口を提供することで警察機関の凶悪犯罪捜査を可能にすべし、という米国政府や同盟国からの大きな圧力にも直面している。

テック巨人らたちは自社システムの裏口を提供することを拒否し続けてきたが、政府によるアクセスをさらに遮断しようとする取り組みに対する抵抗を受けている。iCloudに保存されているデータはAppleがアクセスできない形で暗号化されているが、Reuters(ロイター)の2020年の記事によると、AppleはiPhoneのiCloudへのフルバックアップを暗号化する計画を、捜査を阻害するとFBIから抗議されて中止したという。

Appleの新しいCSAM検出ツールが公の場で議論されていない点についても、このテクノロジーが児童虐待画像を大量に送りつけて被害者のアカウントを停止に追い込むなど悪用の恐れがあるという懸念を呼んだ。しかしAppleは、手動レビューによって起こりうる悪用の証拠を検査するとして問題を軽視している。

Appleは、NeuralHashはまず米国で展開すると語ったが、世界的な展開の可能性や時期は明らかにしていない。最近まで、Facebook(フェイスブック)をはじめとする企業は、EU全体で児童虐待検出ツールが強制的に停止させられていた。当地でプライベートメッセージの自動監視が禁止されたためだった。Appleは新機能について、iCloud写真は使う義務がないので厳密には選択的であるが、使用するなら必須であると説明した。つまるところ、あなたの端末はあなたの所有物だが、Appleのクラウドはそうではない、ということだ。

カテゴリー:ソフトウェア
タグ:AppleiCloud子どもプライバシー個人情報児童ポルノ対策iOS 15macOS Monterey警察

画像クレジット:Bryce Durbin / TechCrunch / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nob Takahashi / facebook

フェイスブックがニューヨーク大学研究者からのアクセスを遮断、議員から反発を受ける

Facebook(フェイスブック)は米国時間8月3日、2人の学術研究者のアカウントを停止し、世界最大のソーシャルネットワーク上における政治広告や誤報を研究する力を奪った。

Facebookは、2人の研究者が「不正なスクレイピング」を行い、同社のプラットフォーム上でユーザーのプライバシーを侵害したと非難した。しかし、この主張に対し、Facebookの多くの批判者は、透明性に関する研究を阻止するための薄っぺらい口実だと酷評している。

Facebookが行動を起こした相手は、ニューヨーク大学の「Cybersecurity for Democracy(サイバーセキュリティ・フォー・デモクラシー)」プロジェクトに所属する著名な研究者で、以前からFacebookと対立していたLaura Edelson(ラウラ・エデルソン)氏とDamon McCoy(デーモン・マッコイ)氏の2人。この措置により、2人は「Ad Library(広告ライブラリ)」(これまでFacebookが行ってきた唯一の重要な透明性確保の取り組みだ)にアクセスできなくなり、さらにFacebookのモニタリングサービス「CrowdTangle(クラウドタングル)」から得られる人気投稿に関するデータも利用できなくなった。

Facebookとエデルソン氏やマッコイ氏との間には、過去に因縁がある。同社は2020年の米国大統領選挙の数週間前に、2人が作成した「Ad Observer(アド・オブザーバー)」と呼ばれるオプトインのブラウザツールを無効にして調査結果も公表しないように求める停止命令を送っていた。Ad Observerは誰でもインストールできるブラウザツールで、Facebookを1兆ドル(約110兆円)規模の企業に成長させた広告が、誰をどのようにターゲットにしているかを、研究者が知ることができるようにするものだ。

「この数年間、私たちはこのアクセスを使用して、Facebook広告ライブラリのシステム上の欠陥を明らかにし、選挙システムに不信感を植え付ける多くの政治広告の誤報を特定し、Facebookが党派的な誤報を明らかに増幅させていることについて調査してきました」と、エデルソン氏はTwitter(ツイッター)で述べている。

「Facebookは、私たちのアカウントを停止することで、これらすべての研究を事実上終わらせました。また、Facebookは、私たちのプロジェクトを通じてFacebookのデータにアクセスしている他の20数名の研究者やジャーナリストたちへのアクセスも、事実上遮断しました。それらの中には、Virality Project(バイラリティ・プロジェクト)と共同で行っているワクチンの誤報に関する調査や、私たちのデータを利用している多くのパートナーが含まれます」。

この事件をきっかけに、Facebookがより危険な行動におよぶ可能性において、透明性よりも不透明性を重視する姿勢が改めて批判されることになった。

翌8月4日になると、Facebookの行動は一部の連邦議会議員からも注目を集めた。民主党のRon Wyden(ロン・ワイデン)上院議員(オレゴン州選出)は、Facebookがユーザー保護の名目で研究者を罰する決定を下したことについて、同社が習慣的にプライバシーを侵害してきた長い歴史に照らし合わせて批判した。また、ワイデン上院議員は、Facebookが研究者のアクセス権を剥奪したのは、過去にユーザーのプライバシーを侵害したとして連邦取引委員会から出されたプライバシーに関する命令を遵守するためであるという同社の主張を「はったり」であると言い放った。

ロン・ワイデン
長年にわたってユーザーのプライバシーを侵害してきたFacebookが、その問題点を暴露する研究者を取り締まる口実として、プライバシー侵害という言葉を利用するのは、馬鹿げています。私はFTCに、この言い訳がインチキであることを確認するよう求めました。

ラウラ・エデルソン
今夜、Facebookは私のFacebookアカウントと、ニューヨーク大学のチームであるCybersecurity for Democracyに関連する数名のアカウントを停止しました。これにより、私たちはFacebookのAd LibraryデータやCrowdtangleへのアクセスができなくなりました。

民主党のマーク・ワーナー上院議員(バージニア州選出)も、Facebookの最新の論争について、この決定を「深く憂慮すべきもの」と意見した。ワーナー上院議員は、独立した研究者たちが「有害で搾取的な活動を明らかにすることで、ソーシャルメディアプラットフォームの品位と安全性を改善し続けている」と讃えている。

ワーナー上院議員は「詐欺や不正行為の主な原因となり続けているオンライン広告の影の世界に、より高い透明性をもたらすために、議会が行動を起こすべき時はとっくに来ています」と語った。

Firefox(ファイヤーフォックス)の開発元であるMozilla(モジラ)は4日、Ad Observerを擁護し、同社のストアフロントでこのブラウザ拡張機能を推奨する前に「コードレビューと同意フローの検証の両方を行って、2回レビューした」と強調した。Mozillaのチーフセキュリティオフィサーは、ブログ記事の中で、Facebookの主張は「まったく筋が通っていない」と述べている。

同日には、多くの独立した通信社、研究者、誤報専門家もFacebookの決定を非難した。The Markup(ザ・マークアップ)のJulia Angwin(ジュリア・アングイン)氏とNabiha Syed(ナビハ・サイード)氏は「Facebookのプライバシーに対するぞんざいなアプローチが、同社がこれほどまでに支配的になることを可能にしました」と、共同声明の中で書いている。

「しかし今、独立した研究者たちが、同社のプラットフォームとその影響力を調べようとすると、Facebookはユーザーのプライバシーを盾にして隠れようとしているのです」。

関連記事
なんとフェイスブックがまたもプライバシー設定を変更
フェイスブックもグーグルと同様に職場復帰する従業員にワクチン接種を義務付け
ザッカーバーグ氏は110兆円規模のフェイスブックを「メタバース」企業にすると投資家に語る

カテゴリー:ネットサービス
タグ:FacebookSNS透明性ニューヨーク大学プライバシーFacebook広告ブラウザ機能拡張

画像クレジット:TechCrunch

原文へ

(文:Taylor Hatmaker、翻訳:Hirokazu Kusakabe)

なんとフェイスブックがまたもプライバシー設定を変更

ユーザーへの思いやりを忘れないFacebook(フェイスブック)は、ものごとを明確で見つけやすくするためにはプライバシー設定を少々いじる必要があると判断した。そのために同社は「プライバシー設定」の設定項目をさまざまなカテゴリーへといたずらっぽく分散させた。

「当社はモバイルアプリの設定メニューを全面的に改訂して目的のものを見つけやすくしました。設定を20近い画面に分ける代わりに、1カ所からアクセスできるようにしました」と変更を知らせるブログ記事でFacebookで述べた。

おっと失礼。これは2018年の記事だった。さまざまな場所に分散化することに関する本日の投稿は「これだ」

「設定は6つの大項目に分類され、それぞれに、関連のある設定がいくつか入っています。Account(アカウント)、Preferences(設定)、Audience and Visibility(共有範囲と公開範囲)、Permissions(アクセス許可)、Your Information(あなたの情報)、Community Standards and Legal Policies(コミュニティ規定、利用規約およびポリシー)。プライバシー設定のカテゴリーを分解して、これまで入っていた設定を他のカテゴリーの中に移動しました」。

acebookがプライバシー設定を新たなカテゴリーに分解

このうちどのカテゴリーにプライバシー設定が属していると思うだろうか?Facebookは「人々のメンタルモデルによく合うように名称変更しました」と述べているので、明白であるに違いない。あなたのメンタルモデルを使うだけだ。

あなたの答えが「おそらく全部」だったら、おめでとう、そのとおり!今後プライバシー設定を変更したいとき、必要なのは新しいカテゴリーとサブカテゴリーをすべて訪れることだけだ。どのカテゴリーの中にも重要なトグルが入っているかもしれない。まるで宝探しだ。

Facebookの設定画面、最古(左)から最新(右)まで。どれがお好き?(画像クレジット:TechCrunch)

冗談はさておき、Facebookは「Privacy Checkup」(プライバシー設定の確認)項目もこのアップデートで目立たせた。この「guided review」(ガイド付きで確認)は、ユーザーを騙すダークパターンを使って、(会社にとって)より望ましくないプライバシー選択からユーザーを遠ざけるチャンスを会社に与える可能性もあるが、実際多くの重要な設定を巡り、ユーザーはそこで設定変更できる。

「新しい設定ページによってみなさまが設定ページを訪れ、必要な項目を見つけ、望んだ変更を行うことが簡単になることを確信しています」とFacebookはいう。新デザインがiOS、Android、モバイルウェブ、FB Liteそれぞれにいつ公開されるのかはすぐにわかるだろう。

関連記事
フェイスブックもグーグルと同様に職場復帰する従業員にワクチン接種を義務付け
フェイスブックの次期新製品は待望の「レイバン・スマートグラス」
ザッカーバーグ氏は110兆円規模のフェイスブックを「メタバース」企業にすると投資家に語る

カテゴリー:ネットサービス
タグ:FacebookSNSプライバシー

画像クレジット:TechCrunch

原文へ

(文:Devin Coldewey、翻訳:Nob Takahashi / facebook

スパイウェア「Pegasus」が政府批判を行う女性ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上

スパイウェア「Pegasus」が政府批判ジャーナリストのスマホから写真を盗むために使われた疑惑が浮上先日、イスラエル企業NSOグループが開発・販売するスパイウェア「Pegasus」が、人権活動家や弁護士、ジャーナリストを標的に使用されているとのアムネスティ・インターナショナル報告がありました。その続報として、政府が女性ジャーナリストの持つスマートフォンからプライベートな写真を盗み出すことに使われたことが報じられています。

問題のPegasusは、感染したデバイスがスマートフォン内に保存されているメッセージや写真をひそかに送信したり、電話の通話を本人に知られずに録音できるというもの。2020年末には37人のジャーナリストが持つiPhoneが政府等によりハッキングされた証拠が見つかったと報告されたことに続き、先月アムネスティはiOS 14.6に存在していたゼロクリック脆弱性、つまりユーザーが何もしなくてもマルウェアをがインストール可能な抜け穴が利用されていたと発表していました。

さて米NBCニュースの報道によると、アルジャジーラ(中東カタールの国営テレビ局)のレバノン人放送ジャーナリストであるGhada Oueiss氏は2020年6月、自宅で夫と一緒に夕食を食べていたところ、同僚からTwitterをチェックするようにとメッセージを受け取ったとのことです。そこでTwitterをチェックしたOueiss氏は、ジャグジーでビキニを着ているときに撮影されたプライベートな写真が「上司の家で撮影された」というウソの情報と共に、複数のアカウントにより拡散されていたことにがく然としたと述べられています。

その後は数日にわたって、Oueiss氏のジャーナリストとしての信頼性を攻撃する何千ものツイートやDMが殺到し、彼女を売春婦、あるいは醜くて年老いた女と罵っていたそうです。それらメッセージの多くは、サウジアラビアのムハンマド・ビン・サルマーン・アル・サウード皇太子(MBS)の支持者らしきアカウントから発信されており、政府関係者の認証済みアカウントも含まれていたとのことです。

これは単なるOueiss氏の憶測ではなく、彼女のスマートフォンがデジタルフォレンジックの専門家により調査され、Pegasusが写真へのアクセスに使われたとの診断結果(2020年末にMBS皇太子や写真を拡散したTwitterユーザー相手に起こされた裁判にて、提出された訴状で言及)に基づいてのことです。

Oueiss氏は「私の携帯電話がハッキングされたことはすぐにわかりました」と語り、サウジアラビア政権への批判的な報道を封じるために標的にされたとの考えを語っています。また、問題の写真はどこにも公開されたことがなく、自分のデバイス内にしかなかったことも強調しています。

流出させられた写真は、日本や欧米の感覚では特に問題ないように思われます。しかしNBCニュースは、こうした類の写真でも、中東諸国では被害者がダメージを受ける可能性があることを指摘しています。すなわちサウジアラビアのような保守的な社会では、水着写真でさえもスキャンダラスなものとみなされ、女性たちを公に辱めて評判を落とすために利用されたというわけです。

アップルは7月末にiOS 14.7.1を配信し、そのセキュリティアップデートではNSOが過去に使用した脆弱性を塞いだと推測されます(アップルは明言していませんが)。が、NSO社はこれまでもiOSで対策が施されるたびに対応してきており、現在も新たな抜け穴を探していることは確実と思われます。

アップルはアムネスティの報告に対して、Pegasusgaが特定の個人を標的にしていると認めつつ「圧倒的多数のユーザーにとっては脅威ではないことを意味します」として、ほとんどのユーザーには関係ないと示唆していました。が、WhatsAppのCEOが英The Guardianの取材で述べていたように、より本腰を入れた対策が望まれそうです。

(Source:NBC News。Via 9to5MacEngadget日本版より転載)

関連記事
アップルがiOS 14.7で「悪意SSIDに繋ぐとWi-Fi機能破壊」バグを修正、公式なセキュリティ文書公開
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに
MicrosoftやGoogle、CiscoなどがWhatsAppスパイウェア訴訟でイスラエルのNSOに抗議
ジャーナリスト36人以上のiPhoneが「ゼロクリック」スパイウェアにハックされていたことが発覚

カテゴリー:セキュリティ
タグ:Apple / アップル(企業)iPhone(製品・サービス)NSO Group(企業)スパイウェア(用語)スマートフォン(用語)プライバシー(用語)個人情報 / 個人情報保護(用語)差別(用語)

Zoom爆撃訴訟で和解金約93億円の支払いにZoomは同意

ユーザーのデータを許可なくサードパーティと共有し、Zoombombing(Zoom爆撃)を引き起こしたことでユーザーのプライバシーを侵害したと提訴されていた裁判で、ビデオ会議大手のZoom(ズーム)は和解金として8500万ドル(約93億円)を支払うことに同意した。

パンデミックでZoomの使用が爆発的に増えるなかでTechCrunchが2020年に造り出した言葉「Zoombombing」は、招待されていない人がZoomコールに侵入して攻撃的な画像を共有したり、増悪に満ちたメッセージを拡散するためにバックグラウンドを使ったり、あるいは人種差別的で冒とく的な表現をまくしたてることでコールを台無しにすることを指す。

関連記事
Zoomが参加者の承認をデフォルトにしてZoom爆撃を防止
人気ビデオ会議アプリ「Zoom」が今も抱えるさまざまな問題

2020年3月にカリフォルニア北部地区の米連邦裁地方判所におこされた裁判では、ZoomがFacebookやGoogle、LinkedInなどを含むサードパーティと個人的なユーザーデータを共有していたことも非難した。

和解金8500万ドルに加え、もし裁判が集団訴訟の扱いになれば、Zoomはサブスクリプション料金25ドル(約2700円)の15%を顧客に返金することになる。そして同社は、会議への乱入を防ぐためにさらなる予防措置を講じると話した。ここには、会議のホストあるいは他の参加者が会議でサードパーティのアプリを使うときにユーザーに警告したり、プライバシーやデータの取り扱いに関して従業員に特別な訓練を提供することが含まれる。

「Zoomにとってユーザーのプライバシーとセキュリティは最優先事項であり、顧客が当社におく信頼を真剣にとらえています」と同社は声明で述べた。「プラットフォームに加えた改善を誇らしく思っており、プライバシーとセキュリティを最前線で刷新し続けることを楽しみにしています」。

訴訟の和解が最終的に成立するにはカリフォルニア州サンノゼ地方裁判所の裁判官Lucy Koh(ルーシー・コー)氏の承認を得る必要がある。

カテゴリー:ネットサービス
タグ:Zoomビデオ会議プライバシー裁判

画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Carly Page、翻訳:Nariko Mizoguchi

EUがAmazonに過去最大約971億円の罰金、ターゲット広告目的で顧客データを使用

ルクセンブルグのデータ保護当局National Commission for Data Protection(CNPD)は、ターゲット広告目的で顧客データを使用していたとして、Amazon(アマゾン)に対しGDPR(一般データ保護規則)の罰金として過去最大の7億4600万ユーロ(約971億円)を科した。

Amazonはこの決定を米国時間7月30日にSEC(米証券取引所)に提出した書類の中で明らかにした。その中で同社は、決定は根拠がないと批判し、また「この問題について強力に」異議を唱える意向も示した。

「顧客情報のセキュリティと信頼の維持は最優先事項です」とAmazonの広報担当は声明で述べた。「データ流出はなく、顧客データがサードパーティに漏えいしたこともありません。こうした事実は明白です」。

「当社はCNPDの決定に強く抗議します。そして控訴するつもりです。当社が顧客にどのように関連広告を表示していたかに関する決定は、欧州プライバシー法の主観的、かつ立証されていない解釈に基づいています。また示された罰金の額は、そうした解釈にすらもまったく見合っていません」。

今回の罰金は、プライバシー権を主張するフランスのグループLa Quadrature du Netによる2018年の訴えの結果だ。同グループは、政治的あるいは商業目的で行動を不正操作するために欧州人のデータがテック大企業によって使われることがないよう、多くの人の利益を代表していると主張する。Apple、Facebook、Google、LinkedInもターゲットにし、1万人超を代表して苦情を申し立てた同グループは、顧客がどの広告と情報を受け取るかを選ぶことでAmazonは商業目的のために顧客をコントロールしたと主張している。

La Quadrature du Netは「最悪の事態を懸念した3年間の沈黙の後に出された」CNPDの罰金の決定を歓迎した。

「我々のプライバシーと自由意思の搾取に基づく経済的支配のモデルは大いに規則に反しており、我々の民主的社会が擁護を主張するあらゆる価値観に背いています」と7月30日のブログ投稿で述べた

CNPDはまた、Amazonに商慣行の見直しも求めた。しかし、当局はこの決定について公にしておらず、Amazonもどのような商慣行の改善が求められているのか具体的に示さなかった。

GDPRに違反したとしてGoogleが2019年に科された5000万ユーロ(約65億円)を超える過去最大の罰金は、Amazonの欧州事業に厳しい目が向けられている中でのものだ。2020年11月に欧州委員会は、Amazonのプラットフォームを使っているサードパーティの事業者との競争で自社の立場を悪用したとして、Amazonに対し正式に独禁法違反を指摘した。と同時に、欧州委員会は自社サイトやパートナーのサイトでの自社プロダクトの優遇措置の疑いでAmazonに対する2つめの調査を開始した。

関連記事
仏データ保護当局がグーグルに罰金60億円超の支払い命令
不正なやり方でCookie同意を求めるウェブサイトの粛清が欧州で始まる
ドイツ当局がFacebookに対し物議を醸している「WhatsApp」の利用規約を適用しないよう命令

カテゴリー:ネットサービス
タグ:EUAmazonGDPR罰金広告プライバシー個人情報データ保護

画像クレジット:Natasha Lomas

原文へ

(文:Carly Page、翻訳:Nariko Mizoguchi

ユーザーのプライバシーを護るGoogle Play「セーフティセクション」の詳細をグーグルが発表

Apple(アップル)はプライバシーの保護に関してApp Tracking TransparencyApp Storeのプライバシーラベルなどの企画でこのところ前進しているが、最近はGoogleも、Google Playに新たな「セーフティセクション」を導入する計画を発表している。それは、アプリが集めて共有するデータや、その他のセキュリティとプライバシーに関する情報をユーザーに提供することが目的だ。米国時間7月28日、同社は初めてこの新しいセクションのユーザーインタフェイスや、開発者への要求などを明らかにした。

関連記事:アップルがアプリのプライバシー方針を明らかにするラベルを全App Storeで公開

Googleは2021年5月に、セーフティセクションはアプリがデータをどのように取り扱うかをユーザーに伝え、ユーザーが情報に基づく選択をできるようにすると説明した。それによるとアプリの開発者は、データの暗号化などのセキュリティ実践をアプリが使っているか、子どもを対象とするGoogle Playのファミリーポリシーに従っているか、データの共有に関してユーザーが選択できるか、アプリのセーフティセクションをサードパーティが検査しているか、アプリはアンインストールのときユーザーにデータ削除のリクエストを認めているかといった事項を開示しなければならない。

Googleが本日発表したユーザーインタフェイスのコンセプトでは、これらのプライバシー保護機能がユーザーにはどのように見えるかを、開発者が知りうるものでなければならない。

画像クレジット:Google

セーフティセクションでは、アプリが収集しているデータに関する開発者からの詳細情報をユーザーが見られるものでなければならない。それぞれの詳細情報は、独自のアイコンによって所在を明らかにしなければならない。

要約部分をユーザーがタップすると、場所や連絡先、名前やメールアドレスなどの個人情報、経済情報といった収集、共有されているデータに関するその他の詳細を見ることができる。

また、それらのデータの使われ方もユーザーに開示される。アプリの機能性向上のため、やパーソナライズのためなどだ。そしてデータの収集は、ユーザーに決定および承認権のある選択事項でなければならない。

画像クレジット:Google

Googleによると、Play Storeのこれらの変更に対応するために開発者には十分な時間を与えたかったので、今やっと、データタイプの定義やユーザーインタフェイス、そして新しい機能に関するポリシーの要件などの情報を、共有できるようになった。

それによると、すべての開発者が2022年4月までにプライバシーポリシーを提供しなければならない。これまでは、個人的あるいは機密性のあるユーザー情報を集めるアプリのみが、それを要請されてきた。開発者はまた、自分のセーフティセクションにあるすべてのデータに関して、そのデータをアプリのサードパーティライブラリやSDKがどのように使っているかなどに関する正確で完全な情報を共有しなければならない。これは、Appleがアプリに対して要求している情報と整合している。

画像クレジット:Google

開発者は、Google Playに自分のセーフティセクションをローンチする2022年の第1四半期になる前に、2021年10月には自分の情報をGoogle Play Consoleで開示し、レビュー可能にしなければならない。

Googleによると、セーフティセクションのローンチと、それをGoogleが承認するまでには若干の猶予期間を設ける。ただし承認の最終締め切りは2022年の第2四半期であり、それが守られなければアプリの提出やアップデートが拒否されるリスクをともなう。そしてアプリが承認されたセーフティセクションを提供できなければ、そのアプリは「No information available」(情報がありません)と表示することになる。

この変更はGoogle Play上に存在する活動中のデベロッパーの数を明らかにするだろう。なぜなら、そんなデベロッパーは必ず新しいポリシーを採用し、アプリが集めて使用するデータに関する正直な情報を開示するはずだからだ。

残る問題は、Googleがこの新しいガイドラインを、どのように、そしてどの程度強制するのか、個々のアプリをどこまで細心に検査するのかという点だ。しかしGoogleの態度がどうであれ、良心的なデベロッパーは自分のセーフティセクションをサードパーティのレビューに対してオープンにし、ユーザーにはアプリのデータプライバシーとセキュリティに関して前向きの宣伝ができるようになる。

それを考えれば、このようなセーフティセクションは実効がないとする批判をかわせるだろう。それはAppleにとってもApp Storeのプライバシーラベルのローンチ以来の問題であり、The Washington Postの記事によれば、虚偽の情報を表示しているアプリがとても多くて、データを保護したいと真剣に願うユーザーの役に立っていない、というのだ。

このセーフティセクションの、サードパーティによる検査についてGoogleに問い合わせたが、それに関する詳しい情報はまだ得られていない。

関連記事
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
プライバシー重視の風潮に乗りユーザーの「同意」を管理するDidomiが好調
プライバシー重視ブラウザ「Brave」、非追跡型検索エンジンのベータ版をリリース

カテゴリー:ソフトウェア
タグ:Google PlayGoogleプライバシー個人情報アプリAndroid

画像クレジット:Mika Baumeister/Unsplash

原文へ

(文:Sarah Perez、翻訳:Hiroshi Iwatani)

顔認証の使用禁止措置や論争にもかかわらず同スタートアップには巨額の資金が注がれている

顔認証の使用を抑制するプライバシー規制の導入という地方自治体による取り組みを考えると、顔認証テクノロジーを開発している企業の最悪の事態を想像するかもしれない。しかし最近の投資資金の流入からするに、顔認証スタートアップ業界は苦境に陥るどころか、むしろ繁栄している。

関連記事
メイン州も危険なバイアスのかかった監視技術、顔認識導入を拒絶する自治体に
反人種差別デモの発端となったミネアポリス市が警察による顔認識技術の使用を禁止

顔認証は最も議論を呼び、また複雑な政策分野の1つだ。このテクノロジーはあなたがどこにいるのか、何をしているのかを追跡するのに使うことができる。公的機関や店舗などの民間企業によって使用されている。しかし顔認証は往々にして非白人の顔を誤認したり、有色人種のコミュニティに偏った影響を与えるなど、欠陥があり、また不正確であることが示されてきた。欠陥のあるアルゴリズムは無実の人を刑務所に送るのに使われ、プライバシープライバシー擁護派はこの種の生体認証データの保存・使用法について数え切れないほどの懸念を示してきた。

関連記事
アメリカの複数の国会議員がAmazonの顔認識ソフトウェアの精度で質問状、表現の自由の無視、人種差別の疑いも
Amazonの顔認識ソフトウェアを人権団体がプライバシー侵害で懸念、AMZNは歯牙にもかけず
アマゾンが顔認識技術を地方警察には1年間提供しないと表明、FBIへの提供についてはノーコメント

連邦法の制定が迫っているという恐れから、AmazonやIBM、Microsoftといった最大の顔認証会社の一部は投資家、顧客、そして米政府や入国管理局によるそうしたテクノロジーの使用に抗議した自社社員の怒りを和らげようと、顔認証技術の警察部門への販売を停止すると発表した

顔認証への抵抗はそこで止まらなかった。年初以来、メイン州マサチューセッツ州ミネアポリス市は何らかの形で顔認証の使用を制限したり禁止したりする法案を可決した。他の多くの市や州に続く動きで、ニューヨーク市も独自の規制を導入している。

関連記事
反人種差別デモの発端となったミネアポリス市が警察による顔認識技術の使用を禁止
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止

そうした動きと重なるここ6カ月ほど、投資家らはいくつかの顔認証スタートアップに数億ドル(数百億円)もの金を注いできた。FindBiometricsによるCrunchbaseデータの分析では、顔認証企業へのベンチャーファンディング額は2020年に通年で6億2200万ドル(約686億円)だったのに対し、2021年はこれまでのところ5億ドル(約551億円)を超えている。

5億ドルのおおよそ半分はスタートアップ1社のものだ。イスラエル拠点のスタートアップAnyVisionは7月上旬、学校やスタジアム、カジノ、小売店などで使われている顔認証技術のためにシリーズCでソフトバンクのVision Fund 2から2億3500万ドル(約259億円)を調達した。顧客の1社として知られているのがMacy’sで、同社は万引き犯を特定するために顔スキャニング技術を使用している。MicrosoftがAnyVisionのシリーズAでの投資を撤回した1年前に比べ、投資ラウンドの規模は急拡大している。Microsoftは、イスラエル政府によるヨルダン川西岸の住民の監視にAnyVisionのテクノロジーが使用されていた、という報道についての元米司法長官Eric Holder(エリック・ホルダー)氏による調査を受けて投資を撤回した。

関連記事
物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達
マイクロソフトが顔認証スタートアップから撤退、海外の顔認証技術への投資を終了
米移民局や検察局などが採用中の顔認識技術が一般企業にも売られていた

ユーザーに通知することなくユーザーの顔認証を使用していたと非難され、論争によって評判を落としたParavisionはJ2 Venturesがリードしたラウンドで2300万ドル(約25億円)を調達した。

そして先週、議論の的となっている顔認証スタートアップのClearview AIは「名前を公表しないで欲しい」と依頼されて「機関投資家とプライベートなファミリーオフィス」とした投資家から3000万ドル(約33億円)を調達したことをニューヨークタイムズ紙に認めた。Clearview AIはいくつかの政府による調査の対象となっていて、ソーシャルメディアサイトから何十億枚というプロフィール写真をスクレイピングしていた疑いで複数の集団訴訟も起こされている。つまり、投資家らは顔認証システムの構築に喜んで金を注いでいる一方で、そのテクノロジーに自分の名前を絡ませることのリスクと論争をしっかりと認識している。

顔認証の応用と顧客は幅広く、このテクノロジーに関しては大きなマーケットが広がっている。

顔認証を禁止した自治体の多くは、特定の状況での使用、あるいはそのテクノロジーを自由に購入して使用することができる民間企業向けに幅広い免除も設けている。米政府が新疆ウイグル自治区の少数民族ウイグルのイスラム教徒に対する人権侵害に関係づけているHikvisionやDahuaといった中国拠点の多くの顔認証企業、そして米政府がブラックリストに載せている何十ものスタートアップの排除は、政府などを顧客とする最も儲けの多い米国マーケットで競争を促すのに一役買った。

しかし顔認証には引き続き厳しい目が向けられていて、テクノロジーが誤って使用されることがないよう一層の取り組みを投資家らは企業に促している。

合計4兆5000億ドル(約496兆5075億円)超の資産を持つ投資家50人のグループは6月、AmazonやFacebook、Alibaba、Huaweiなど何十もの顔認証企業に倫理的にテクノロジーを構築するよう要求した。

「一部のケースでは、顔認証のような新しいテクノロジーは私たちの基本的権利を損なっています。このテクノロジーはほぼ制約のない方法でデザイン・使用されていて、基本的人権にとってリスクとなっています」と声明文には書かれた。

倫理の問題だけではない。さらなる政治的な逆風が不可避である業界の将来性を証明しようという問題でもある。欧州連合のデータ保護当局は4月、域内の公共の場での顔認証の使用停止を要求した。

声明文には「大規模な監視が拡大するにつれ、テクノロジー面でのイノベーションは人権保護をしのいでいます。顔認証テクノロジー使用の禁止、使用に対する罰金、そしてブラックリスト掲載は増えています。こうした疑問を考慮する差し迫った必要性があります」とも書かれている。

関連記事:EUデータ保護当局のトップ監督官が公共の場での顔認識の禁止を強く要請

カテゴリー:人工知能・AI
タグ:顔認証プライバシー

画像クレジット:TechCrunch

原文へ

(文:Zack Whittaker、翻訳:Nariko Mizoguchi

メイン州も危険なバイアスのかかった監視技術、顔認識導入を拒絶する自治体に

顔認識のような危険なバイアスのかかった監視技術の導入を拒絶する都市、郡、州が増えているが、これにメイン州も加わった。

同州の新しい法律は、米国で最も強力な州全体にわたる顔認識に関する法律であり、幅広い超党派の支持を得ただけでなく、州議会の両院で満場一致で可決された。法案を支持した進歩的な議員から、法案を委員会の外で採決した共和党議員、メイン州のACLU、州の法執行機関に至るまで、さまざまな政治的立場の議員や支持者が一堂に会し、メイン州やプライバシーの権利に関心を持つすべての人たちにとっての大きな勝利を手にした。

メイン州は、ACLUなどの草の根の活動家や組織が主導する、顔認識技術の使用を禁止または厳格に規制する全国的な運動の最新の成功事例だ。Pine Tree State(メイン州)からGolden State(カリフォルニア州)に至る、顔認識を規制する全国的な取り組みは、21世紀のデジタル時代にテクノロジーで自由の境界を決めることはできないという広範な認識を示している。

顔認識技術は、市民の権利と自由に対する深刻な脅威となっている。民主的な監視がなければ、政府がこの技術を捜査網の監視ツールとして利用し、言論と結社の自由、正当なプロセスの権利、そして放置される権利が脅かされてしまう。この技術が規制されないままだと、民主主義そのものが危機にさらされることになる。

顔認識の負荷が平等にかかっているわけではないことは認識されている。黒人や褐色人種のコミュニティ、特にイスラム教徒や移民のコミュニティは、政府による差別的監視の対象となっている。さらに悪いことに、顔監視アルゴリズムでは、肌の色が濃い人、女性、高齢者、子どもの顔を正確に分析するのが難しい傾向がある。簡単にいうと、この技術は機能していても機能していなくても、危険をはらんでいるということだ。

もっとも、この技術を規制するすべてのアプローチが平等になされているとはいえない。メイン州は、州全体の包括的な規制をいち早く可決した州に挙げられる。公民権団体、地域社会、宗教的自由団体の強い反対にもかかわらず脆弱な法案を可決したのは、ワシントンが最初だった。その法案が可決された背景には、ワシントンに本拠を置く巨大企業Microsoft(マイクロソフト)からの強力な支持があった。ワシントン州の顔認識法の下においても、テック企業は数百万ドル(約数億円)相当の自社技術を、考えられるあらゆる政府機関に売却することができるのだ。

これとは対照的に、メイン州の法律は別の道をたどり、一般のメイン州民の利益を民間企業の利潤動機よりも優先させている。

メイン州の新しい法律は、公立学校や監視目的など、行政のほとんどの分野で顔認識技術の使用を禁止している。法執行機関が顔認識を使用する際の例外を慎重に設定し、その使用基準を作成し、米国の他の地域で見られたような悪用の可能性の回避を図っている。重要なのは、メイン州で仕事をしたり、政治集会や抗議活動に参加したり、友人や家族を訪ねたり、医療を求めたりする人々に対して、顔認識技術を使って監視を行うことを禁じている点だ。

メイン州では、法執行機関が顔認識の要請を行う前に、さまざまな制限がある中で、正当な理由があるかどうかの基準を満たす必要がある。また、顔認識のマッチングを唯一の根拠として、逮捕や捜索を行うことはできない。さらに、地元の警察が独自の顔認識ソフトウェアを購入、所有、使用することも禁じられており、他の起きているように、Clearview AIのような後ろ暗い技術が、メイン州の行政当局によって秘密裏に使用されることはない。

メイン州で制定された法律をはじめとするこの種の規制は、顔認識のような未検証の新しい監視技術によってコミュニティが被害を受けないようにするために不可欠なものだ。しかし、米国人のプライバシーを顔の監視から効果的に保護するには、地方レベルの断片的なアプローチだけでなく、連邦レベルのアプローチが必要である。だからこそ、米国民にとって、2021年6月に両院の議員が提出した「顔認識および生体認証技術モラトリアム法案」を支持することには大きな意味がある。

ACLUは、米国のすべての人々を侵入的監視から保護するこの連邦法を支持している。私たちは、顔認識技術を阻止し、それを支援する運動に参加することを議員たちに要請するよう、すべての米国国民に強く呼びかけたい。

編集部注:本稿の著者であるAlison Beyea(アリソン・ベイヤ)氏はメイン州のACLUのエグゼクティブディレクター。Michael Kebede(マイケル・ケベデ)氏はメイン州のACLUの政策顧問。

関連記事
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達
英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす

カテゴリー:人工知能・AI
タグ:メイン州顔認証プライバシー

画像クレジット:FotografiaBasica / Getty Images

原文へ

(文:Alison Beyea、Michael Kebede、翻訳:Dragonfly)

オピオイド依存症治療アプリがユーザーの個人情報をサードパーティーと共有

広く利用されている多数のオピオイド治療回復アプリがユーザーの個人情報にアクセスしサードパーティーと共有していることが、最近の調査で判明した。

新型コロナウイルス感染症パンデミックとその感染を減らすためのさまざまな取り組みの結果、オピオイド依存症治療を提供するテレヘルスサービス(遠隔医療)およびアプリの人気が急増している。依存症治療施設が予算削減や閉鎖に直面する中で、こうしたアプリベースのサービスが台頭しており、その結果、投資家と政府の両者が、拡大する依存症危機に対する対抗手段としてテレヘルスに関心を向けるようになっている。

こうしたサービスにアクセスする人たちは、自分たちの医療データのプライバシーは保護されているのだろうという合理的な期待を持っているかもしれないが、ExpressVPN Digital Security LabがOpioid Policy Institute and the Defensive Labと共同編纂した最新のレポートによると、こうしたアプリの一部はユーザーの機密情報を収集し第三者と共有していることが判明しており、プライバシーとセキュリティ対策が疑問視されている。

このレポートでは、Android上で入手可能な10個のオピオイド依存症治療アプリ(Bicycle Health、Boulder Care、Confidant Health、DynamiCare Health、Kaden Health、Loosid、Pear Reset-O、PursueCare、Sober Grid、Workit Health)について調査している。これらのアプリは少なくとも18万回インストールされており、投資グループと連邦政府から3億ドル(約3300億円)を超える資金を調達している。

関連記事:合成麻薬中毒症をバーチャル治療で治すBicycle Health

こうしたサービスは膨大な数のユーザーに利用され、なおかつ機密情報を扱うにもかかわらず、このレポートの調査結果によると、大半のアプリがユーザー端末の一意な識別子にアクセスしており、一部のケースでは、そのデータを第三者と共有していたという。

調査対象となった10のアプリのうち、7つがAndroid Advertising ID(AAID、ユーザー生成の識別子で他の情報に紐付けることで識別可能な個人の詳細な情報を提供できる)にアクセスしており、5つのアプリがデバイスの電話番号に、3つのアプリがデバイスの一意なIMEIおよびIMSI番号にアクセスしている(これらの番号を使用して個人のデバイスを一意に識別できる)。さらに、2つのアプリがインストールされたアプリのユーザーリストにアクセスしている(研究者によると、このリストを使用してユーザーの「指紋」に相当するものを作成し、ユーザーの活動を追跡できるという)。

また、調査されたアプリの多くは、何らかの形式の位置情報も取得している。位置情報と一意な識別子を関連付けることで、個々人だけでなく、その人の生活習慣、日常の行い、接触相手などを監視する能力が強化される。上記のアプリでこれらを実現している方法の1つがBluetoothだ。上記のうち7つのアプリがBluetooth接続を確立する許可を求めてくる。研究者によると、これはユーザーの居場所を実世界で追跡するのに使用できるため、特に懸念されるという。

関連記事:いくつもの人気iPhoneアプリがユーザーの位置情報を売っている

「Bluetoothはいわゆる接近度追跡を実行できます。例えばあなたが食料品店にいるとき、特定の通路にいる時間とか、他の誰かとの接近度合いなどを認識できます」と、上記の調査を率いたExpressVPN Digital Security Labの主任研究員Sean O’Brien(シーン・オブライエン)氏はTechCrunchに語った。「Bluetoothは私が非常に懸念している領域です」。

もう1つ懸念される重要な点は、これらのアプリでトラッカーSDKが使用されていることだ。オブライエン氏は、最近実施した調査でこの点について警告している。それによると、数百にのぼるAndroidアプリが詳細なユーザー位置情報データをX-Modeに送信していたことが判明したという。X-Modeは位置情報データを米軍の請負業者に販売していたことで知られるデータブローカーで、現在はアップルとグーグルのアプリストアから追放されている。SDK(ソフトウェア開発キット)とは、アプリに含まれているコード開発用ツールセットであり、これによりアプリは位置情報データの収集といった処理を正しく実行できる。SDKは多くの場合、アプリが収集したデータを返送するという条件と引き換えに無償で提供されている。

関連記事:個人の位置情報をブローカーに売っていたX-Modeはアプリがストアから排除されてもユーザーの追跡を継続

多くの開発者がアプリ内にトラッカーが存在していることに気づいてもいないことから、研究者は、トラッカーを使用しているからといって常に悪意があるとは限らないことをしきりに強調しているが、調査対象の10のアプリのうち7つという高い率でトラッカーSDKが見つかっており、データ共有を行っている可能性があることが判明している。中にはユーザーデータの収集と集計専用のSDKもある。つまり、ユーザーデータのトラッキングがコア機能になっているSDKが存在するのだ。

しかし、研究者は回復支援センターまでのナビゲーションを行うアプリもおそらく1日中ユーザーの動きを追跡して、そのデータをアプリの開発者とサードパーティーに返送しているだろうと説明する。

Kaden Healthの場合、Stripe(アプリ内決済サービスに使用する)で、ユーザーのスマートフォンにインストールされているアプリ、スマートフォンの場所、電話番号、キャリア名、AAID、IPアドレス、IMEI、IMSI、およびSIMシリアル番号を読み取ることができる。

「Stripe(ストライプ)のような大手企業がアプリで上記のような情報を直接共有させているのは本当に驚きです。私が心配しているのは、これらの情報は法執行機関にとって極めて有用であるとわかっているからです」とオブライエン氏はいう。「誰が治療を受けたのかという情報を持っている者が最終的に健康保健と就職に関する意思決定にも関与してくるのではないかという点も懸念されます」。

これらのアプリでこうしたデータ共有が慣習的となるに至ったのは、おそらく、患者情報の扱いと公開に関する指針が不明確な米国の環境でこれらのサービスが開発されていることが原因と思われると研究者は指摘しているが、こうした行為は42 CFR Part 2(第42連邦規則集第2巻、依存症の治療に関する患者情報の公開の厳しい制限について規定した法律)に違反する可能性がある、とオブライエン氏はTechCrunchに語った。

ただし、Legal Action Centerの保健プライバシー担当上級専属弁護士Jacqueline Seitz(ジャクリーン・ザイツ)氏によると、この40年前の法律はアプリに対応できるようアップデートされていないという。

「プライバシーの欠如は、依然として、人々がオピオイド依存症の治療に踏み切れない大きな理由の1つとして挙げられています」とザイツ氏はいう。「42 CFR Part 2は物質使用障害治療における機密保持の重要性を認識してはいるものの、アプリにはまったく言及していません。既存のプライバシー法では、現状にまったく対応できていません」。

「テックコミュニティからリーダーシップを発揮する企業が現れて、基本的な標準を確立することが望まれます。テック企業が、極めて機密性の高い情報を収集していることを認識することで、ヘルス危機でプライバシーポリシーが回避される風潮の中、患者が放置されないようになれば良いのですが」とザイツ氏はいう。

上記の調査に参加したOpioid Policy InstituteのディレクターJonathan Stoltman(ジョナサン・ストルトマン)氏によると、こうした慣習が広まったもう1つの理由として考えられるのは、セキュリティとデータプライバシー人員の欠如だという。「病院のウェブサイトを見ると、物理的なセキュリティとデータセキュリティを担当する最高情報責任者、最高プライバシー責任者、最高セキュリティ責任者が配置されています」と同氏は語る。「上記のどのスタートアップにもそうしたポジションは用意されていません」。

「AAIDを収集しておいてプライバシーについて配慮しているなどあり得ません。しかも、こうしたアプリの大半は最初からそうした行為を行っています」とストルトマン氏は付け加えた。

グーグルはExpressVPNの調査結果を認識してはいるが、コメントは控えている。ただし、上記のレポートが公開された時点で、グーグルはすでに、ユーザーが追跡型広告をオフにできるようにするアップルの最近の取り組みに倣って、開発者によるAndroid Advertising IDへのアクセスを制限するための準備を始めていた。

ExpressVPNはこれらのアプリがプライバシー保護要件に違反している可能性があることを患者に認識してもらおうと熱心に取り組んでいるが、依存症治療と回復アプリがオピオイド依存症患者の生活で中心的な役割を果たしている事実も強調している。もし、自身または家族がこれらのいずれかのサービスを使用しており、機密情報が開示されるのは問題であると判断した場合は、米国保健社会福祉省を介して公民権事務所に連絡し、正式な苦情を申し立てていただきたい。

「肝心なことは、これはアプリエコノミー共通の問題であり、テレヘルスもアプリエコノミーに取り込まれようとしているということです。ですから、私達は今、極めて注意深く慎重になる必要があります」とオブライエン氏はいう。「個人情報の開示は必要ですが、ユーザーはそのことを認識した上で、プライバシー保護の向上を求める必要があります」。

依存症からの回復は可能です。お悩みの方は、機密保持治療に関する相談ホットライン(フリーコール1-800-662-HELP)までお電話いただくか、findtreatment.govにアクセスしてください。

関連記事
自分のスマホがNSOのPegasusスパイウェアにやられたか知りたい人はこのツールを使おう
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
45カ国と契約を結ぶNSOのスパイウェアによるハッキングと現実世界における暴力の関連性がマッピングで明らかに

カテゴリー:セキュリティ
タグ:遠隔医療プライバシーAndroidBluetooth位置情報トラッキング

画像クレジット:Rogier Nell / EyeEm / Getty Images

原文へ

(文:Carly Page、翻訳:Dragonfly)

監視カメラやAIビジョンシステムを合成人間のデータで訓練する英MindtechがIn-Q-Telなどから3.6億円調達

誰のプライバシーも侵害されず、巨大なデータベースに顔がスキャンされることもなく、プライバシー法が破られることもない世界があったとしたら?そんな世界がすぐそこまで来ている。企業は単に現実世界の監視カメラ(CCTV)映像を捨て、潜在的なシナリオを100万回以上演じる合成人間に切り替えることができるのではないだろうか?それが、有力な投資家から資金を集めている、英国の新しいスタートアップが示す魅惑的な展望だ。

英国に拠点を置くMindtech Global(マインドテック・グローバル)は、エンド・ツー・エンド合成データ作成プラットフォームを開発した。簡単にいえば、店内での人の行動や、道路を横断する様子など、視覚的なシナリオを想像できるシステムだ。このデータは、大手小売企業、倉庫業者、ヘルスケア、輸送システム、ロボット工学などの顧客向けに、AIベースのコンピュータービジョンシステムを訓練するために使用される。文字通り、合成世界の中で「合成」CCTVカメラを訓練するわけだ。

このたび同社は、英国の地域投資家である国家生産力投資基金(NPIF、National Productivity Investment Fund、Mercia Equity Finance)がリードし、Deeptech LabsIn-Q-Telが参加した325万ドル(約3億6000万円)のアーリーステージ資金調達ラウンドを終了したと発表した。

この最後の出資者は重要だ。In-Q-Telは、米国の諜報活動を支援するスタートアップに投資しており、(ペンタゴンのある)バージニア州アーリントンに拠点を置いている。

MindtechのChameleonプラットフォームは、コンピューターが人間同士のやり取りを理解し、予測できるように設計されている。周知のように、現在、AIビジョンシステムを学習させるためには、企業がCCTVの映像などのデータを調達する必要がある。このプロセスにはプライバシーの問題がともない、コストと時間がかかる。Mindtechによると、Chameleonはこの問題を解決し、顧客は「フォトリアリスティックなスマート3Dモデルを使って、無限のシーンやシナリオをすばやく構築することができる」という。

さらに、これらの合成人間は、AIビジョンシステムのトレーニングに利用でき、人間のダイバーシティやバイアスからくる人的要因を取り除くことができるとのこと。

MindtechのCEOスティーブ・ハリス氏(画像クレジット:Mindtech)

MindtechのCEOであるSteve Harris(スティーブ・ハリス)氏は次のように述べている。「機械学習チームは、トレーニングデータの調達、クリーニング、整理に最大80%の時間を費やしています。当社のChameleonプラットフォームはAIトレーニングの課題を解決し、業界はAIネットワークイノベーションのようなより価値の高いタスクに集中できるようになります。今回のラウンドにより、当社の成長を加速させることができ、人間同士や周囲の世界との関わり方をよりよく理解する新世代のAIソリューションを実現することができます」。

では、それによって何ができるのだろうか?次のような場合を考えてみよう。ショッピングモールで、子供が親の手を放して迷子になったとする。Mindtechのシナリオの中で動いている合成CCTVは、それをリアルタイムで発見してスタッフに警告する方法を何千回も訓練されている。別の例では、配達ロボットが路上で遊んでいる子供に出会い、どうすれば子供を避けることができるかを学習する。最後の例として、プラットフォーム上で乗客がレールに近づきすぎて異常な行動をしている場合、CCTVは自動的にそれを発見して助けを呼ぶように訓練されている。

In-Q-Telのマネージングディレクター(ロンドン)であるNat Puffer(ナット・パッファー)氏は次のようにコメントしている。「Mindtechは、Chameleonプラットフォームの成熟度と、グローバルな顧客からの商業的牽引力に感銘を受けました。このプラットフォームが多様な市場で多くのアプリケーションを提供し、よりスマートで直感的なAIシステムの開発における重要な障害を取り除くことができることに期待しています」。

Deeptech LabsのCEOであるMiles Kirby(マイルズ・カービー)氏は次のように述べた。「ディープテックの成功のための触媒として、当社の投資およびアクセラレータプログラムは、斬新なソリューションを持ち、世界を変えるような企業を作る意欲のある野心的なチームを支援しています。Mindtechの経験豊富なチームはAIシステムのトレーニング方法を変革するという使命感を持っており、我々は彼らの旅をサポートできることを嬉しく思います」。

もちろん、スーパーでの万引きを発見したり、過酷な労働環境にある倉庫作業員を最適化したりするような、よりダークな用途への応用も考えられる。しかし理論的には、Mindtechの顧客はこのプラットフォームを利用して、中間管理職のバイアスを排除し、顧客によりよいサービスを提供することができる。

関連記事
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
全米で失業保険用に導入された顔認識システムが申請を次々拒否、本人確認できず数カ月受給できない人も
欧州人権裁判所は「大規模なデジタル通信の傍受には有効なプライバシー保護手段が必要」と強調

カテゴリー:人工知能・AI
タグ:Mindtech Global資金調達イギリスプライバシーコンピュータービジョン監視カメラ

画像クレジット:Mindtech’s Chameleon platform/Mindtech

原文へ

(文:Mike Butcher、翻訳:Aya Nakazato)