独Xaynが広告を表示させずにプライバシーを保護できる検索ツールのウェブ版を発表

ベルリンを拠点とするスタートアップ企業Xayn(ゼイン)は、Googleのようなアドテック大手のトラッキングやプロファイリングを利用せずに、プライバシー保護とパーソナライズを両立させた広告のない検索サービスを提供している(2020年のTechCrunchの記事を参照のこと)。同社はその製品の提供範囲を拡大し、ウェブ版(現在はベータ版)を発表した。

関連記事:オンデバイスAIでプライバシー保護とパーソナライズを両立させる検索エンジン「Xayn」

同社がモバイルアプリと同様の機能を持つ「light web version」と説明しているウェブ版「Xayn WebBeta」は、あるコンテンツに「興味がないことを意思表示するためにスワイプ」できないといった点がXaynのモバイルアプリとは異なる。

ブラウザのように見えても、Xayn自体はブラウザとも少し違う。同社が「ブラウジングエンジン」と称するXaynでは、プライベート検索だけでなく、ディスカバリーフィード(ニュースフィード)の形でコンテンツを整理して表示することで、アプリ内でブラウジングすることができる。

デスクトップのブラウザでXaynを読み込むと、XaynのAIがフィードで何を表示するかを判断するために、短いタイムラグが発生する(モバイルでも同様)。Xaynを最初に起動したとき(すなわち、AIがゼロからコンテンツをユーザーの地域に合わせてローカライズしているとき)は、すでにユーザーが何回かXaynにアクセスしてユーザー固有の閲覧シグナルをAIが利用できるときを比べて、わずかに長く時間がかかるようだ。

ウェブ版のXaynでは、コンテンツの左右に緑(好き)またはピンク(嫌い)のバーが表示されている。そのバーの横にカーソルを合わせるとホップアップ表示される、上向き(または下向き)の親指のアイコンをクリックすることで、特定のコンテンツに対する「評価する」または「評価しない」のシグナルを送ることができる。左クリックだけで「いいね!」できる、という仕組みだ。

また、フィードを増やしたくない場合は、フィードをオフにして、起動時に検索バーだけを表示させることもできる。

デフォルトでは、検索結果はコンテンツペインに、ニュースフィードと同じような長方形のグリッドで表示される。情報を求めているユーザーにとっては、少しばかり情報密度が足りないだろうか。

Xaynウェブ版(ベータ版)の検索結果ページのサンプル(画像キャプチャー:Natasha Lomas / TechCrunch)

Xaynの学習AIは、右上の「脳」のアイコンをクリックすれば、いつでもオフにすることができる。オフにすると、ユーザーが閲覧しているものが、ユーザーに表示されるコンテンツ(フィードのコンテンツと検索結果の両方)を決定するAIの学習に使用されないようになる。

全体をまっさらな状態に戻したい場合は、手動で閲覧データを消去して学習をリセットすることもできる。

ユーザーに魅力的なもう1つの要素はXaynには広告が表示されないことだ。DuckDuckGoやQwantのような他の非追跡型プライベート検索エンジンは、コンテクスト広告を表示することで収益を上げているが、Xaynには広告がない。

さらに同社は、検索業界の常識にとらわれずに、Xayn AIの検索アルゴリズムをオープンソースで提供している。

他にもウェブ版のXaynには、クリック1つで関連コンテンツが表示される「ディープサーチ」や「コレクション」というブックマークのような機能がある。ユーザーは「コレクションを作成、コンテンツを追加、管理することで、お気に入りのウェブコンテンツを集めて保存することができる」という。

Xaynは広告を表示しないだけでなく、広告ブロッカーを搭載し、第三者のサイトに表示される広告をブロックして「ノイズのない」ブラウジングを実現している。

Xaynのウェブ版は、ChromiumベースのブラウザとFirefoxにのみ対応しているので、Safariユーザーはサポートされたブラウザに切り替えてXaynを使用する必要がある。

同社によると、2020年12月に発表されたXaynのモバイルアプリは、その後世界中で25万回以上ダウンロードされている。

Xaynのモバイルアプリでは、発表から3カ月後には毎日10万以上のアクティブ検索が行われ、Xaynはブラウジングデータとユーザーの興味を示すスワイプを取り込み、このツールの価値提案の中核であるパーソナライズされたコンテンツの検索のためのAIをトレーニングし、改善している。この学習と再評価はすべてデバイス上で行われ「Xaynはユーザーごとの検索結果のプライバシーを保護している」とアピールできる材料になっている。

また、フィルターバブル(泡の中にいるように、自分の見たい情報しか見えなくなること)効果を避けるために、Xaynの検索結果には意図的な変化が加えられ、アルゴリズムが常に同じものばかりをユーザーに提供しないようにしている。

Xaynのウェブ版もモバイル版も、Masked Federated Learning(保護されたフェデレーテッドラーニング(連合学習))と呼ばれる技術を用いて、ユーザーのプライバシーを損なうことなく、ユーザーにパーソナライズされたウェブエクスペリエンスを提供している。

もちろんGoogle(グーグル)も独自の広告ターゲティング技術の改善に取り組んでいて、現在、広告ターゲティングのためにブラウザユーザーをインタレストバケットに分類するFloC(コホートの連合学習)と呼ばれる技術を試験的に導入し、トラッキングクッキーを廃止しようとしている。しかし、Xaynとは異なり、Googleのコアビジネスはユーザーをプロファイリングして広告主に販売することだ。

共同創業者でCEOのLeif-Nissen Lundbæk(レイフニッセン・ルンドベーク)氏は声明で次のように述べる。「私たちは、誤ったプライバシーと利便性のジレンマへの直接的な対応としてXaynを開発しました。このジレンマを解決できることはすぐに証明されました。ユーザーはもはや敗者ではありません。実際、私たちのすばらしいエンジニア&デザイナーチームは、アップデートのたびに、プライバシーや品質、優れたユーザーエクスペリエンスがいかに密接に結びついているかを繰り返し実証してくれます」。

「私たちは既存のものをコピーするのではなく、じっくりと検討して新しいものを作りたいと考えました。Xaynでは、積極的にウェブを検索したり、インターネット全体からパーソナライズされたコンテンツを提案するディスカバリーフィードを閲覧したりして、インターネット上のお気に入りのサイトを見つけることができます。どちらの方法でもユーザーのプライバシーは常に保護されます」。

デザイン部門の責任者であるJulia Hintz(ジュリア・ヒンツ)氏も、別の声明で次のように付言している。「Xaynのウェブ版を開発するにあたり、Xaynアプリの成功につながったすべての要素をデスクトップのブラウザウィンドウで利用できるようにしました」。

「ウェブ版にもプライバシーを保護するアルゴリズム、直感的なデザイン、スムーズなアニメーションが採用されています。ユーザーは、慣れ親しんだ環境から切り離されることなく、モバイルとデスクトップを簡単に切り替えることができます。これこそが、シームレスで強いインタラクションの鍵となる、Xaynのすばらしい利点です」。

ウェブ版のXaynでは、ユーザーの個人情報はブラウザ内に保存されるという。

ウェブ版のセキュリティについては、広報担当者が次のように話す。「デスクトップパソコンは、一般的にスマートフォンよりも安全性が低いといわれています。Xaynはプライバシー保護のために、分散型の機械学習と暗号化を組み合わせて個人データを保護しています。純粋に技術的な観点から見ると、Xaynはデスクトップデバイス上のブラウザの中のブラウザです。Xaynはそれぞれのブラウザのサンドボックス内で動作し、個人データを第三者の不要なアクセスから保護します」。

Xaynは今後、プライバシーを保護しながらパーソナライズされたブラウジングを同期する機能を追加する予定で、オンラインであればどこからでも、モバイルとデスクトップの複数のデバイスでAIの学習結果を享受できるようになる。

ブラウザでwww.xayn.comにアクセスすれば、Xayn検索エンジンのウェブ版(ベータ版)をデスクトップパソコンで確認できる。

Xaynは2021年8月、日本のベンチャーキャピタルGlobal Brain(グローバル・ブレイン)とKDDIが主導し、ベルリンのEarlybird VC(アーリーバードVC)などの既存の支援者が参加したシリーズAラウンドで1200万ドル(約13億円)を調達。累計調達額は2300万ドル(約25億円)を超えた。同社が日本をはじめとするアジアに注目しているのは確実だ。

関連記事:プライバシーとパーソナライズを両立する検索エンジンXaynが日本のKDDIやGlobal Brainなどから約13億円調達

画像クレジット:Xayn

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

人身売買被害者の合成データでプライバシーを侵害せずにビッグデータ分析ができる

人身売買に効果的に対処するためには、対処する側がそれを理解する必要があり、最近ではそれは「データ」となる。残念ながら、被害者を知るための便利なインデクスはないが、でもこの秘密情報はいろいろなところで豊富だ。Microftと国際移住機関(International Organization for Migration、IOM)は、本物の人身売買データの重要な特徴をすべて備えているが、完全に人工的な新しい合成データベースで前進する方法を見つけたかもしれない。

各被害者は疑う余地もなく個人だが、人身売買が多い国や彼らが利用しているルートや方法、被害者の行き着く先など、基本的な高レベルの問いは統計の問題だ。トレンドやパターンを同定するためのエビデンスは防止活動にとって重要だが、これら何千もの個人のストーリーに埋もれていて、しかも公開されたくないものが多い。

IOMのプログラムコーディネーターであるHarry Cook(ハリー・クック)氏は、データセットを説明するニュースリリースで次のように述べている。「実際に見つかった人身売買の事件に関する管理データは、可利用なデータの主たる源泉だが、そのような情報は機密性が高い。IOMは過去2年間Microsoft Researchと協力して、そうしたデータを分析用にシェアし、それと同時に被害者の安全とプライバシーを守るという困難な課題において進歩できたことを、うれしく思っている」。

歴史的には、犯罪データベースや医療情報などは大量の編集をするのが常套手段だが、「匿名性を取り去る」この方法は、データを再構築しようとする真剣な試みに対して効果がないことが立証されてきた。現在では数多くのデータベースが公開され、あるいはリークされて、コンピューティングの力を誰もが利用できる時代であるため、編集された情報を極めて信頼できる形で提供できる。

Microsoft Researchが採った方法は、オリジナルデータをベースとして、ソースの重要な統計的関係を保持し、しかし場所・時期・個人等を同定できる情報がない合成データを作ることだ。「Jane Doe」を「Janet Doeman」に書き換えたり、彼女の故郷をクリーブランドからクイーンズに変えるのではなく、データに似通った性質のある10名弱の人たちのデータを合わせて、彼らを統計的に正確に表現している属性の集合をつくるが、それを使って個人を同定することはできなくなっている。

画像クレジット:Microsoft Research / IOM

当然この方法では元のデータの粒度は失われるが、機密性のあるソースと違ってこのデータは実際に使用できる。それはどこかのタスクフォースが分析して「そうか、次の人買いはXXXXで行われるのだ」というタイプの情報ではないが、このデータは直接的なエビデンスに基づいているため、政治や外交レベルで事実の記録として取り上げることができる。これまではもっと一般的に「X国と政府Zはこの件で無視できる」や「共謀している」などと言わなければならなかったのが、これからは確かなデータに基づいて「性的人身売買の36%はあなたの司法圏を通っている」と言えるようになる。

データが一種の強制手段として利用されるという意味ではなく、人間の悲惨のグローバルな交易を、一連のお互いに無関係な出来事の連鎖ではなく、1つのシステムとして理解することは、それ自身に価値がある。そのデータは、ここで見ることができ、その作り方を勉強したい人には、この事業のGitHubがある。

画像クレジット:SEAN GLADWELL / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Hiroshi Iwatani)

プライバシー重視のBraveブラウザで利用できる非トラッキングのビデオ会議ツールが一般公開

Braveは、社名と同じ「Brave」という名前のトラッキングをしないブラウザで知られるスタートアップだ。同社が提供するトラッキングをしないビデオ会議のアドオンがベータの段階を終了した。誰でもBraveブラウザからすぐにビデオ通話を開始することができる。

Brave Talkというこのツールは、2020年5月からベータテストが実施されていた。同社がTechCrunchに語ったところによると、ベータテスト期間中のDAU(デイリー・アクティブ・ユーザー)、つまりBraveブラウザのテストバージョンから参加したアーリーアダプターと開発者は1万4000人ほどだったという。

このBrave Talkが一般に公開された。Braveは「プライバシーを重視した」ビデオ会議としてインターネットユーザーにアピールしている。

同社は一般公開を発表するブログ記事の中で「Zoomなど多くのビデオ会議プロバイダーは、通話やメタデータ、画像をモニターしており、こうしたデータの記録はユーザーの同意なしに販売されたり共有されたりすることがあります」と書いている。

ブログ記事はさらに「Brave Talkの通話では複数レイヤーの暗号化を有効にできるので、盗み聞きしようする人がいても聞くことはできず、我々のサーバーにメタデータは保存されません。したがって、ユーザーの同意なく通話、画像、アクティビティが記録されたり共有されたりすることはまったくありません」と続く。

Brave Talkのプレミアム機能(グループ通話や通話の録画など)は月額7ドル(約770円)で利用できる。ただし1対1の通話は無料で無制限だ(AndroidとiOSのBraveアプリは今のところプレミアムにのみ対応しているが「数週間のうちに」無料版も利用できるようになる予定となっている)。

ビデオ通話はBraveブラウザから開始する必要があるが、招待される側は「モダンブラウザ」(Chrome、Firefox、Safari、Edge、Operaなど)ならどれでも参加できる。

Braveは非トラッキングの認証情報であることをZoomなどの主力ビデオ会議ソフトウェアとは異なる利点として売り込んでいるが、Brave Talkは(今のところはまだ)エンド・ツー・エンド暗号化に対応していないことには注意が必要だ。

Braveによれば、Brave Talkは8×8が手がけるオープンソースのビデオ会議プラットフォームであるJitsi as a Serviceを利用している。これはWebRTCオープンソーステクノロジーでブラウザに直接HDビデオを埋め込めるようにするものだ。

暗号化に関しては、設定で複数のレイヤーを有効にできるという。Braveは、Brave Talkの無料版でもプレミアム版でも「Videobridge暗号化」で現時点では最も強力なレベルで暗号化されると説明している。

同社の共同創業者でCEOのBrendan Eich(ブレンダン・アイク)氏は「この設定により、ビデオとオーディオのストリームが参加者によって生成されるキーを使って暗号化され、Videobridgeサーバーで盗み聞きが防止されます。Videobridge暗号化は『Security Options』から有効にできます」と述べている。

同氏はさらにTechCrunchに対し次のように述べた。「『エンド・ツー・エンド暗号化』という言葉がまぎらわしく大げさであると判断したため、Brave Talkではこの設定を『Videobridge暗号化』としました。ビデオ会議に参加する際に、エンド・ツー・エンド暗号化の通話はプライバシーとセキュリティの1つの側面でしかありません。暗号化を利用していても、『大手』のビデオツールの大半は、会話の参加者や開始時刻と継続時間など多くの情報に関して積極的にデータを集め保管しています」。

「Brave Talkが採用している匿名の資格情報システムにより、我々は利用者や会話の相手を知ることはできず、複数のセッションにわたって関連づけることもできません。Brave Talkはユーザーを追跡しない、プライバシー・バイ・デフォルトのツールです」とアイク氏はいう。

Videobridge暗号化とエンド・ツー・エンド暗号化の違いを明確にするために、同氏はTechCrunchに対しさらに次のように述べた。「Videobridge暗号化はオーディオとビデオをBrave、8×8、パッシブに盗み聞きしようとする人のいずれからも暗号化された状態にしていますが、我々が『Videobridge暗号化』と呼び『エンド・ツー・エンド暗号化』と呼ばない理由は、我々と8×8が協力し、会議の参加者を自動で認証してアクティブな攻撃者に対してさらに堅牢にしようとしているからです。この開発が完了すれば、自信を持って完全なエンド・ツー・エンド暗号化と言えるようになります。Zoomでは参加者がセキュリティコードを声に出して読み上げ、エンド・ツー・エンド暗号化されていることを確認しますが、こうしたプラットフォームに対して我々の圧倒的なアドバンテージになります」。

Brave Talk(以前はBrave Togetherと呼ばれていた)を試すには、通話を開始するためにまずBraveブラウザをダウンロードする必要がある。前述の通り、通話を受ける側はBraveでなくてかまわない。

アイク氏によれば、Braveの非トラッキング製品全体でMAUは3600万人を最近超えたという。これには検索エンジンとFirewall+VPNが含まれる。

関連記事
プライバシー重視ブラウザ「Brave」、非追跡型検索エンジンのベータ版をリリース
プライバシー重視のブラウザ開発Braveが独自の検索エンジンを発表、欧州版Firefoxの元開発者と技術の協力で
画像クレジット:Brave

原文へ

(文:Natasha Lomas、翻訳:Kaori Koyama)

フェイスブックのスマートサングラス、撮影を知らせるLEDライトが非常に「小さい」と欧州当局が懸念

Facebook(フェイスブック)を監督する欧州のプライバシー当局は、同社が現在販売している「スマート」Ray-Banサングラスについて懸念を示している。このサングラスには口頭での合図で写真やショートビデオを取ることができるカメラが搭載されている。

アイルランドのデータ保護委員会(DPC)は現地時間9月17日、ユーザーがビデオを撮るときに光るサングラス搭載のLEDインディケーターライトが、サングラスをかけている人に撮影されていることを他の人に知らせる効果的な方法であることを証明するようFacebookに求めた。

関連記事:フェイスブックがレイバンと共同でスマートサングラス「Ray-Ban Stories」発売、約3.3万円から

イタリアのプライバシー当局GaranteはすでにFacebookのスマートグラスを疑問視しているが、Facebookが欧州本部を置いているアイルランドは同社を監督する当局として並外れた役割を担っている。

Facebookは1年前、AR(拡張現実)スマートメガネ製作に向けた道のりにおける「次のステップ」と表現したものを発表した。その際、初期製品にはARは搭載されないと述べたが、高級メガネ大手Luxottica(ルクソティカ)との複数年にわたる提携を発表した。「スマート」メガネに次第に機能を増やしていくことを意図していたようだ。

関連記事:FacebookがARが日常生活になるスマートグラスを2021年に発売、Ray-BanブランドのLuxotticaともコラボ

FacebookのRay-Banブランドの第1弾の商品は9月初旬に発売された。一見、ほぼ普通のサングラスのようだが、5MPのカメラ2つをフロント部分に備え、ユーザーはこれらを使って目にしているものののビデオを撮って、Viewという新しいFacebookアプリにアップロードできる(サングラスはフレーム内部にスピーカーも搭載し、ユーザーは音楽を聴いたりコールを取ったりもできる)。

このサングラスのフロント部分にはLEDライトもある。これはビデオを撮影しているときに光る。しかし、DPCが「とても小さい」インディケーターと呼ぶものは、人々に自分が撮影されているリスクを警告するのには不十分なメカニズムであることを欧州の当局は懸念している。

Facebookはこのサングラスが引き起こしうるプライバシーのリスクを評価するための包括的な実地テストを行ったことを示していない、とも付け加えた。

「スマートフォンを含む多くのデバイスが第三者を撮影できることは受け入れられている一方で、通常カメラやスマホは撮影しているときにデバイスそのものが目に見え、ゆえに撮影されている人にその事実を知らせています。メガネでは、撮影中にとても小さなインディケーターライトが光るだけです。インディケーターLEDライトが撮影を周囲に知らせる有効な方法であることを確認するために、包括的な実地テストがFacebookあるいはRay-Banによって行われたことをDPCとGaranteに証明していません」とDPCは述べている。

Facebookの主要EUデータ保護当局は続けて、同社に「LEDインディケーターライトが目的にかなうものであることを実証し、この新しい消費者向け製品があまり目立たない撮影を引き起こすかもしれないことを大衆に警告するための情報キャンペーンを展開する」ことを求めている、と話す。

質問するためにFacebookに連絡を取った。

同社の広報担当はTechCrunchに次のように語った。「新テクノロジーについて、そしてそれがどのように機能するか、人々が疑問を抱えていることを当社は承知しており、また当社がこの会話の一部に入っていることは重要です。この新テクノロジーがどのようなものなのか、そしてコントロールについて人々が理解できるよう、 当社の主要監視当局であるアイルランドのDPCを含め、当局パートナーと協業します」。

同社はまた、スマートサングラスの発売に先立ってDPCとやり取りしたと主張し、また今後もやり取りを続けると述べた。加えて、サングラスにはオフのスイッチもあると指摘した。

アイルランドの当局は、発売前にスマートサングラスのデータ保護コンプライアンスに関してFacebookから概要説明があったことを認めたが、副委員長のGraham Doyle(グラハム・ドイル)氏はプロダクトの機能についての相談はなかった、と述べた。

「夏にデータ保護要件コンプライアンスについての概要説明と詳細の提供がありましたが、製品の開発についての相談はありませんでした(Facebookが我々のところにきたときにはデザインと機能の開発はすでに終わっていました)、とドイル氏は述べた。

「メガネのオペレーションと実地テストに対処するために、他のDPA、我々自身、そしてGaranteと情報、特に懸念について共有しました」。

スマートサングラスは9月初旬に発売された。米国での価格は299ドル(約3万3000円)だ。現在アイルランドとイタリア、そして英国でも販売していることをFacebookは明らかにした。

ここ数年、同社は規制当局の懸念を受けて、欧州でのプロダクト立ち上げを一部を延期してきた(あるいは中止したりした)。ここには顔のタグ付け機能が含まれる(これは後に別の形で再導入された)。

同社の欧州でのデートサービス展開も9カ月以上ずれ込み、DPCによる介入後に一部を変更して導入された。

また、Facebook所有のメッセージプラットフォームWhatsApp(ワッツアップ)が欧州でFacebookとデータ共有することにも制限がかけられている。こちらも規制当局介入の結果だ。欧州では多量のデータがまだWhatsAppからFacebookへと流れているが縮小してはいて、Facebookに対する数多くのプライバシーに関する苦情は欧州で調査中だ。これらの調査の結果はまだ出ていない

2021年9月初めにアイルランドのDPCは(欧州のGDPR法のもとで)Facebookに対する初の制裁を発表し、利用者への十分な説明を怠ったとしてWhatsAppに2億6700万ドル(約290億円)の罰金を科した。しかしDPCはFacebookや同社の傘下企業に対する複数の苦情についてはまだ調査を続けている。

2021年1月にアイルランド当局は、Facebookの欧州から米国へのデータ移送に対する2013年の苦情を「速やかに」解決することに同意してもいる。こちらもまだ結論は出ていない

原文へ

(文:Natasha Lomas、翻訳:Nariko Mizoguchi

迫るiOS 15リリースでマーケティング担当者が失うデータ、計画すべきDIYメトリクス戦略

Apple(アップル)は、米国時間9月20日(日本時間9月21日)に同社がリリースするiOS 15の一部として、重要なユーザーデータへの開発者のアクセスを排除することを計画しており、メールマーケティング担当者は、これからメトリクスをどのように把握していくかジレンマに陥っている。この問題に業界がどのようにアプローチしているのか、マーケティング担当者が収集したデータに基づいて行動することを支援するソフトウェア企業Movable InkのVivek Sharma(ヴィヴェック・シャルマ)CEOに話を聞いた。

このインタビューでは、8月に掲載されたExtra Crunch記事をベースに、メールマーケティング担当者がAppleのメールプライバシー保護の変更に備える方法を探っていく

今回のアップデートでメールマーケティング担当者にとってゲームチェンジャーなのは、AppleのMailのユーザーが自分のIPアドレスを隠すことができるようになった点だ。

マーケターたちはどのようにして戦術をピボットし、メトリクスを管理し続けられるのだろうか。シャルマ氏は、開封率ではなく、クリック数、コンバージョン数、収益といったダウンストリームメトリクスがより重視されるようになるだろうと考えている。「それはいいことのように聞こえますが、その分データは少なくなります。そして定義上、ファネルは狭くなり、その時点では人数が少ないので、何かがうまくいっているのか、うまくいっていないのかを知るのに時間がかかるかもしれません」。

シャルマ氏は、企業はゼロパーティデータに注目していると語る。「これには2つの要素があります。1つは指標としての『オープン』で、もう1つはオープン時に得られるIPアドレスや時間帯、推測される天候などの情報です。IPアドレスや日時などのような情報は、データ漏洩として認識されます。これらは、マーケターがアクセスできなくなるデータポイントのほんの一部です。そのため、彼らはすでに投資しているファーストパーティデータやゼロパーティデータを利用しています」。

シャルマ氏によると、課題は次のようなことになる。マーケターはどうすれば、ゼロパーティデータをおもしろく、視覚的に魅力的な方法で収集し、そのコンテンツをすべての顧客に対して大規模にパーソナライズできるのか?

以下に示したのは、Movable Inkがゼロパーティデータを収集した方法の1つだ。

「ゼロパーティデータ戦略」
世界的なアパレル小売企業が、ロイヤルティプログラムの導入時にゼロパーティデータを巧みに取り込みました。Movable Inkを利用したEメールでは、Movable Ink ExchangeのパートナーであるOracle CrowdTwistのデータを活用して、パーソナライズされたチェックリストのヒーロー画像を作成し、受信者のロイヤルティアカウントから主要なプロフィール質問を引き出し、完了までの進捗を表示し、回答ごとにポイントを提供しました。この合成画像は、Movable Inkが受信者の受信箱で消費したロイヤルティデータに基づいて自動的に生成され、1to1ユーザー体験を実現し、手動の制作プロセスを完全に回避しました。
​​レスポンス率149%アップ、ユニークCTR340%アップ(コントロール比)
画像クレジット:Movable Ink

シャルマ氏は次のように述べている。「ここにあるものはすべてアンケート調査の質問です。『ふだん何を買いますか』『靴のサイズは?』そして、そのお返しにポイントを付与するという、価値の交換が行われているのです。彼らは明確な方法であなたのことを知り、あなたが興味を持っているブランドと簡単に関わり合える方法を提供しているのです」。

データを手に入れたら、次の問題はそれをどのように利用するかだ。JetBlue(ジェットブルー)航空の例を見てみよう。

JetBlue パーソナライズド「イヤー・イン・レビュー」データ視覚化
2020年は旅行が困難な1年だったのを受けて、JetBlueはTrueBlueマイレージ会員を認識し、個々の乗客の旅行マイルストーンを紹介するために、一人ひとりパーソナライズされた、1年を振り返るデータビジュアライゼーションを提供したいと考えました。
Movable Inkは、JetBlueの記録システムからデータを抽出し、何十万通りもの組み合わせのクリエイティブアセットを各受信者の受信箱に直接自動生成することで、高価で時間のかかる手作業による制作を不要にしました。
画像クレジット:Movable Ink

シャルマ氏は、メールマーケティング担当者向けに、iOS 15での3つの重要なポイントを説明してくれた。

  1. クリック数やコンバージョン数などのファネル下部のメトリクスを重視すること。これこそが本当の意味でのエンゲージメントの指標となります。
  2. ゼロ・ファーストパーティデータ資産に投資する。真のパーソナライゼーションとは、人々が何を体験し、何を見るかということ。そのためには、ゼロパーティデータとファーストパーティデータを活用する必要があります。
  3. Eメールは、すでに投資されている成熟したチャネルであるため、顧客のエンゲージメントを高めるのに非常に有効です。Eメールは、顧客と一対一の関係を築くのにはすばらしいチャネルであり、それ以上の効果があります。この10年、15年の間に、Eメールはさまざまな変化を遂げてきました。この業界は進化し、プライバシーとパーソナライゼーションのバランスが取れたものになっていくでしょう。

画像クレジット:FeelPic

原文へ

(文:Miranda Halpern、翻訳:Aya Nakazato)

【コラム】9.11から20年、制限のないデータ収集がもたらす米国の新たな悲劇

2001年9月11日朝。米国の成人のほとんどは、自分がその時どこにいたかを鮮明に覚えているだろう。筆者はホワイトハウスのウェストウィング2階で、米国国家経済会議のスタッフ会議に出席していた。シークレットサービスが突然部屋に入ってきて「すぐに部屋を出てください。ご婦人方はハイヒールを脱いで!」と叫んだことは忘れられない。

そのちょうど1時間前、私は全米経済会議のホワイトハウス技術顧問として、9月13日にオーバルオフィスで予定されている大統領との会談に向けて最終的な詳細を副参謀長に説明していた。そして、米国政府のプライバシー保護法案を議会に提出するために、大統領のサインを得る準備が整った。カリフォルニア州のプライバシー保護法の国家版ともいえるこの法案は、それよりも強力で、情報を共有する際には対象となる市民の選択による同意を得て市民のデータを保護するなど、データの収集方法や使用方法を規定するものだった。

しかし、その日の朝、世界は一変した。私たちはホワイトハウスから避難し、その日は悲劇に次ぐ悲劇が発生した。米国、そして世界中に衝撃が走った。あの日、ワシントンD.C.にいた私たちは、悲しみ、連帯感、不信感、力強さ、決意、緊迫、そして希望など、人間の感情のすべてを目の当たりにし、自ら体験することとなった。

当日については多くのことが語られているが、筆者はその翌日のことを少し振り返ってみようと思う。

9月12日、オフィスに国家経済会議のスタッフが集まったとき、当時の上司であるLarry Lindsey(ラリー・リンゼイ、Lawrence Lindsey)が私たちに言った言葉を今でも覚えている。「今ここにいることを不安に思う人がいるかもしれません。私たちは全員が標的なのだから。愛国心や信仰心をアピールするつもりはありません。しかし、この部屋にいる皆が経済学者である以上、私はみなさんの合理的な自己利益に訴えます。今、私たちが逃げ出してしまえば、他の人たちも同じように逃げ出すでしょう。誰が私たちの社会の要を守ることができるでしょうか?私たちは国を守ります。この国の誇りとなるように行動してください。そして、安全と安心という自由への献身を放棄しないでください」。

9.11の悲劇に対して、国が一丸となったこと、そして米国政府の対応については多くのことを誇りに思っている。しかし、私はサイバーセキュリティとデータプライバシーの専門家として、まず、ラリーが言ったこと、その後の数年間で学んだ多くの重要な教訓、特に社会の要を守るということについて振り返りたい。

あの日の記憶は未だに鮮明だが、20年が経過し、9.11同時多発テロに至るまでの数カ月間にデータが果たした(果たさなかった)致命的ともいえる役割が解明されている。不幸なことに、すぐそばにあったはずの情報データはバラバラに保管されており、何千人もの命を救うことができたかもしれない点と点をつなぐことはできなかった。データのサイロ化によって、情報を安全に共有する仕組みがあれば見つけられたはずのパターンが見えなくなっていたのだ。

その後、私たちは「こんなことは二度とごめんだ」と自らに言い聞かせ、当局は、市民の自由だけでなくデータのセキュリティにも重大な影響を与えることを考慮せずに、収集できる情報の量を増やすことに邁進した。そして、CIAや法執行機関による20年間の監視要請が詰め込まれた愛国者法が施行された。司法省とともに愛国者法を交渉する場にいた私がはっきりと言えるのは、次のテロ攻撃を防ぎ、私たちの人々を保護するという意図は理解できるものの、その結果として広範囲に及んだ悪影響は明白であった、ということだ。

国内での盗聴や大規模な監視が当たり前になり、個人のプライバシーやデータの安全性、国民の信頼が少しずつ損なわれていった。これはデータプライバシーに対する危険な前例となったが、その一方で、このレベルの監視ではテロとの戦いにおいてわずかな成果しか得られなかった。

残念なことに、個人のプライバシー保護を強固にするはずであった、まさに9月11日の週に議会に提出する予定だった米国政府のプライバシー法案は、頓挫してしまった。

その後数年が経ち、大量の監視データを安価かつ簡単に収集・保管できるようになり、テクノロジー関連やクラウド関連の大手企業が急速に規模を拡大し、インターネットを支配するようになった。官民を問わずより多くのデータが収集されるようになり、個人の機密データが公に晒されるようになったが、このようなアクセスの拡大に対処できる、有効性のあるプライバシー保護措置は講じられなかった。

巨大なテクノロジー企業やIoTデバイスが、私たちの行動、会話、友人、家族、身体に関するデータポイントを集める20年後の現在、私たちは過剰なまでに野放図なデータ収集とアクセスに翻弄されている。原因がランサムウェアであろうとクラウドバケットの設定ミスであろうと、大規模で代償が大きいデータ漏えいでさえも新聞の一面で取り上げられないほど頻繁に発生している。この結果は社会の信頼の喪失だ。人権であるはずのプライバシーだが、それが守られていないことは誰もが知っている。

このことは、アフガニスタンでの人道的危機を見れば明らかだ。一例を挙げてみよう。連合軍を支援したアフガニスタン市民の生体情報データが入った米軍のデバイスがタリバンに奪われてしまった。このデータがあれば、タリバンは対象となる個人や家族を容易に特定し、追跡できる。機密性の高い個人情報が悪人の手に渡るという最悪のシナリオであり、私たちはそれを防ぐための十分な努力をしてこなかった。

決して許されることではない。20年経った今、私たちは再び「こんなことは二度とごめんだ」とつぶやいている。私たちは9.11の経験を、情報データをどのように管理、共有、保護したらいいかを再認識する機会とするべきだったが、未だにそれを正しく理解していない。20年前も現在も、データの管理方法は生死を決する。

進歩がないわけではない。2021年、ホワイトハウスと米国国防総省は、サイバーセキュリティとゼロトラスト(すべてが完全には信頼できないことを前提とする考え方)のデータ保護にスポットライトを当て、米国政府のデータシステムを強化する行動を促す大統領令を出した。私たちには、このような機密データを保護しながら共有もできるようにするために必要な技術がある、というのは良いニュースだろう。データが本来データを持つべきではない人の手に渡ることを防ぐ緊急時対応策も用意されている。しかし、残念なことに、私たちのアクションはまだ十分ではない。データの安全な管理という問題の解決が遅れれば遅れるほど、罪のない人々の命が失われていく。

私たちには、次の20年を見据えて信頼を回復し、データプライバシーの管理方法を変革する機会がある。何よりもまず、私たちは何らかのガードを設置することが必要だ。そのためには、個人に自分自身のデータ管理の自律性をデフォルトで持たせることのできるプライバシー保護の枠組みを構築しなければならない。

つまり、各個人による自らのデータの所有と管理を可能にするためには、公的機関や民間企業がIDとデータを結びつけ、データの所有権を各個人に戻すという技術的な裏方の作業を行う必要がある。簡単にできることではない……しかし、不可能なことではなく、米国市民、米国居住者、世界中の同盟国の人々を守るために必要なことだ。

このようなデータ保護の導入を促進するためには、相互運用性と柔軟性を備えた、無料でアクセスできるオープンソースソリューションのエコシステムが必要である。既存のプロセスやソリューションにデータ保護とプライバシーを重ね合わせることで、政府機関は、個人のプライバシーを損なうことなく、データを安全に収集・集計して全体像を明らかにすることができる。今の私たちはこのような技術がある。今こそそれを活用するときだ。

大量のデータが収集・保管されている現在、米国のデータが悪用される機会は格段に増えている。タリバンに奪われたデバイスは、現在危険に直面しているデータのごく一部に過ぎない。2021年に入ってからも、国家レベルのサイバー攻撃は増加の一途をたどっている。人命を脅かすこのサイバー攻撃は、決してなくなることはない。

2001年9月12日のラリーの言葉は、今でも心に残っている。今、私たちが手を引いたら、誰が社会の要を守れるだろうか。人々の自由を損なうことなく、プライバシーを守り抜くことができるかどうかは、官民のテクノロジーリーダーである私たちにかかっている。

まずはデータに対する国民の信頼を回復しよう。今からでも遅くはない。20年後、私たちはこの10年間を、個人のプライバシー権を保護・支持する上でのターニングポイントとして振り返ることになるだろうか。それとも、またしても「こんなことは二度とごめんだ」と思っているのだろうか。

編集部注:本稿の執筆者John Ackerly(ジョン・アッカーリー)氏はVirtru Corporationの共同創立者兼CEO。以前は、Lindsay Goldberg LLCの投資家、ホワイトハウスの技術政策アドバイザー、米国商務省の政策・戦略計画ディレクターを務めていた。

画像クレジット:Mark Rainwater/Eye Em / Getty Images

原文へ

(文:John Ackerly、翻訳:Dragonfly)

コードレベルでプライバシー遵守を実現するRelyance AIがシリーズAで約27.3億円調達

プライバシー関連法へのコンプライアンスをコードのレベルでチェックするアーリーステージのスタートアップRelyance AIが米国時間9月15日、2500万ドル(約27億3000万円)のシリーズAを発表した。また同社は、未発表だった500万ドル(約5億5000万円)のシードラウンドも公表した。

シリーズAをリードしたのはMenlo VenturesとUnusual Ventures、そしてシードラウンドはUnusualが単独でリードした。契約条件に従い、Unusualの連続起業家Jyoti Bansal(ジョティ・バンサル)氏が取締役会に加わる。彼のパートナーであるJohn Vrionis(ジョン・ブリオニス)氏も、シードラウンドの直後に加わっていた。MenloのMatt Murphy(マット・マーフィー)氏はオブザーバーとして加わる。同社の調達総額は3000万ドル(約32億8000万円)になる。

Relyance AIは、データがコンプライアンスを維持していることをコードのレベルで調べて検証するという、珍しい手法を採る。そのため契約や既存の法務要件などをコードとして取り入れ、企業がコンプライアンスを確保する。CEOで共同創業者のAbhi Sharma(アビ・シャルマ)氏によると、コードレベルのチェックこそがソリューションの鍵だ。シャルマ氏によると「世界で初めて、私たちは法的コンプライアンスや規制をソースコードに作り込んでいます」。

「Relyance AIは顧客のインフラストラクチャのDevOpsパイプラインに実際に組み込まれるため、新しいETL(データの抽出加工書き込み)パイプラインが作られたり、機械学習のモデルが新たなソースコードを受け取る度に、コンパイラーのような分析を行って、個人の秘密データが内部のマイクロサービス間やデータレイク間、データウェアハウス間でどのように流れるかをチェックします。得られたメタデータ分析を、企業内のプライバシーとコンプライアンスのプロフェッショナルに返します」。

同社の別の創業者で共同CEOであるLeila R. Golchehreh(レイラ・R・ゴルチェレ)氏は、コンプライアンス業務のベテランであり、これまでにも多くの企業のコンプライアンス遵守を指導してきた。彼女によると、Relyance AIにより企業はポリシーや契約をコードとして定義できる。

ゴルチェレ氏は「私たちのやり方は、契約の取り込みを重視しています。実際のところ、私たちは企業がデータ保護協定をつくる場合の、良い協定を書くためのアルゴリズムを作ってきました。私たちは適切な関連条項を取り出して、それを企業の業務実態と突き合わせています。不整合があったら、それをデータ不整合のインテリジェントなインサイトとして取り上げます」という。

共同創業者たちによると、現在、社員は32名だが今後1年〜1年半以内に2〜3倍にしたいという。ゴルチェレ氏とシャルマ氏はダイバーシティを自ら実現している共同創業者仲間であり、それを今後の同社のモデルにしたいという。2人によると、一般的にリモートファーストはダイバーシティの普及に貢献しているが、同社は内規でもそれを勧奨しているという。

「一緒に仕事をしているリクルーターたちも『私たちもいい人間と多様な人間を雇いたいんだ』という。企業としてのRelyance AIは、ジェンダーも人種も異なる2人が一緒に始めた会社の好例です。願わくば、規模を拡大していく中で、それを会社に伝えるという私たちの仕事ができると思います」とシャルマ氏はいう。

2人の創業者は長年の友人だが、2019年のある日、ディナーでピザを食べながら、会社を作ろうという話になった。アイデアがまとまって会社を興したのが2020年2月だ。彼らはコンプライアンスのプロたちにいろいろ話を聞いてて、求められる要件を理解した。そして2020年7月に、現在のソリューションを構築し始めた。2021年2月にはベータ版をリリースし、3月には密かに営業を開始した。

彼らのソフトウェアの、現在の初期の顧客にはDialpadやPatreon、SamsaraそしてTrueなどがいる

画像クレジット:SurfUpVector/Getty Images

原文へ

(文:Ron Miller、翻訳:Hiroshi Iwatani)

【コラム】すばやく行動し破壊することは、プライバシーとセキュリティを犠牲にする

私は長年、テクノロジーの未来の最前線に立ってきた。

Y Combinatorで採用担当ディレクターを務めていたとき、何百ものスタートアップのピッチを見た。その多くは特定の属性を共有していた。急速に拡大するユーザーの経路をたどり、ユーザーから抽出したデータを収益化するというものだ。

時間が経つにつれて、テクノロジーが作り出しているものの全体像を認識し始めた。すべての動きが追跡され、収益化される「マイノリティレポート」の世界。Facebookのように「Move fast and break things」(すばやく行動し破壊せよ)という信念を掲げる企業もあった。彼らは概念や常識を壊すことにととまらず、最終的には一部の人々の人生を犠牲にするような偽情報やプロパガンダを広め、私たちを失望させた。

それはどのような犠牲を払ってでも成長を遂げる「growth-at-all-cost」というマインドセットに起因するものだ。21世紀のシリコンバレーの消費者向け企業大手の中には、データを利用して、ユーザーのプライバシーやセキュリティをほとんど、あるいはまったく考慮せずに広告を販売することで繁栄した企業もある。私たちは、テクノロジーにおける最も聡明なマインドを持ち合わせている。真に望んだなら、最低限、人々がプライバシーや情報のセキュリティについて心配する必要がないように、状況を変えることができたであろう。

人々が自分のデータをよりコントロールできるような、そしてシリコンバレーがプライバシーとデータセキュリティのイノベーションを探求するようなモデルへと、私たちは移行することができるはずだ。複数の長期的なアプローチと、検討すべき新しいビジネスモデルのポテンシャルがある一方で、短期的にプライバシー重視のマインドセットにアプローチする方法もある。ここで、個人による自身のデータのコントロールが可能な未来に向かって進み始めるための、いくつかの方法に目を向けてみよう。

ワークプレイスは、より安全なアイデンティティテクノロジーの実現を先導すべき場所である

私たちは、テクノロジーが人間、ビジネス、社会に対して安全かつ倫理的に機能する未来を意識的に設計することを通じて、テクノロジーにアプローチする必要がある。

結果を理解せず、あるいは考慮せずにテクノロジーの成長にアプローチすることで、シリコンバレーへの信頼は損なわれてしまった。私たちはもっと適切に対処する必要がある。まずはワークプレイスにおいて、自己主権型アイデンティティを通じて、つまりデジタルアイデンティティのコントロールとオーナーシップを人々に与えるアプローチにより、個人データの保護を強化することから始めるべきだろう。

個人のデジタルアイデンティティのプライバシーとセキュリティを向上させるための出発点をワークプレイスに置くのは、理に適っている。パーソナルコンピューター、インターネット、携帯電話、電子メールなど、これまで広く採用されてきた多くのテクノロジーが、家庭のテクノロジーになる前に使われ始めた場所がワークプレイスであり、その基本原則が継承されている。オフィス生活への復帰の兆しが見えてきた今こそ、ワークプレイスで新しいプラクティスを取り入れる方法を再検討する好機と言えるだろう。

では雇用者はどのようにこれを行うのか。まず、オフィスへの復帰は、非接触型アクセスとデジタルIDの推進力として利用できる。これらは、物理的データおよびデジタルデータの侵害(後者の方が一般的になりつつある)に対する保護手段である。

従業員は、オフィスへの入館時にデジタルIDまたはトークン化されたIDを使用し、これらのIDは携帯電話に安全に格納される。偽造や複製が容易な、個人情報や写真が印刷されたプラスチックカードを使用する必要がなくなり、雇用者と従業員の両方のセキュリティ向上につながる。

非接触型アクセスも最近では大きな飛躍とはいえなくなっている。新型コロナウイルス(COVID-19)のパンデミックにより、デジタル識別に向けた機運が整ったと言えよう。新型コロナの影響で非接触型決済の利用が加速したため、非接触型IDへの移行は多くの人にとってシームレスなものになるだろう。

クリティカルなプライバシー重視のインフラストラクチャに投資する

トークン化された識別は、ユーザーの手に力をもたらす。これはワークプレイスでのアクセスやアイデンティティのためだけでなく、他の多くの、さらに重要な理由からも不可欠なものだ。トークン化されたデジタルIDは暗号化されており、1回しか使用できないため、システムが侵害された場合でも、デジタルIDに含まれるデータを閲覧することはほぼ不可能である。Signalと似ているが、個人のデジタルIDに対応する。

さらに高度なテクノロジーが普及するにつれて、より多くの個人データが生成されるようになることが考えられ、一層多くのデータが脆弱となることが懸念される。私たちが憂慮すべきは、運転免許証、クレジットカード、社会保障番号だけではない。生体認証や医療記録などの個人の健康関連データが、ますますオンライン化され、検証目的でのアクセスの対象となっている。ハッキングやID窃盗が横行している中、暗号化されたデジタルIDの重要性は極めて高い。トークン化されたデジタルIDがなければ、私たちは皆脆弱な状態に置かれてしまう。

私たちは最近、Colonial Pipelineが受けたランサムウェア攻撃で何が起きたかを目の当たりにした。米国のパイプラインシステムの大部分が数週間にわたって機能不全に陥っており、インフラストラクチャのクリティカルな要素が侵害に対して極めて脆弱であることが示された。

究極的には、私たちは人類に役立つテクノロジーを作ることを考える必要があるのであって、その逆ではない。また、私たちが生み出したテクノロジーが、ユーザーだけでなく社会全体にとって有益なものであるかを自問する必要があるだろう。人類により良いサービスを提供するテクノロジーを構築する1つの方法は、ユーザーとその価値を確実に保護することである。さらなるテクノロジーの発展とともに、自己主権型アイデンティティが今後の鍵となるだろう。特に、デジタルウォレットは単なるクレジットカード以上のものになり、安全なデジタルIDの必要性がより重視されるようになると考えられる。最も重要な要素は、個人や企業が自分のデータを管理する必要があるということに他ならない。

近年、プライバシーとセキュリティに対する全般的な意識がより高まっていることを考えると、雇用者側は個人データの脆弱性の脅威を真剣に受け止め、自己主権型アイデンティティの実現に向けて主導的な役割を果たさなければならない。ワークプレイスにおける非接触アクセスとデジタルIDの最初のステップを通して、私たちは、少なくとも私たち自身のデータとアイデンティティという観点から、より安全な未来に向けて少しずつ歩を進めていくことができるであろう。

編集部注:本稿の執筆者Denis Mars(デニス・マーズ)氏は、プライバシーファーストで人間主導のアイデンティティ技術を設計・構築するProxyのCEO兼共同設立者。

関連記事
【コラム】データを重視する企業はAIと同じくらい人にも価値を置くべきである
【コラム】データサイエンティストは恐れずに新しい分野に挑戦せよ
【コラム】アダルト系SNS「OnlyFans」の性的コンテンツ禁止でクリエイターは「権利章典」について語り出す
画像クレジット:John Lund / Getty Images

原文へ

(文:Denis Mars、翻訳:Dragonfly)

ツイッターが「ブロックせずにフォロワー解除」する機能をテスト中

Twitter(ツイッター)は米国時間9月7日、自分のフォロワーをブロックせずに解除できる機能を、ウェブ版でテストしていると発表した。Twitterユーザーには、フォロワーを完全にブロックすることなく、自分のツイートを見られないようにしたいと思うときがある。ブロックしてしまうと、そのフォロワーが自分のページに直接アクセスした場合、ブロックされていることが明らかになり、問題が生じるリスクがあるからだ。現在、この機能をテストできる一部のユーザーは、自分のプロフィールからフォロワーの一覧を表示し、解除したいフォロワーを選び、フォローボタンの横にある3つのドットのボタンをクリックして、ドロップダウンメニューから「このフォロワーを削除」を選択すればよい。今のところ、すべてのユーザーがこの機能を利用できるわけではない。

より簡単にフォロワーリストの管理ができるようにしています。現在はウェブでテスト中。ブロックせずにフォロワーを解除。

ツイッター・サポート

これまで、ユーザーは「ソフトブロック」と呼ばれる方法を用いてきた。それはまず、フォロワーを解除したいユーザーを一度ブロックし、それからブロックを解除するというやり方だ。こうすると、そのユーザーは自分のフォロワーリストから削除される。今回テストされている方法では、自分のフォロワーリストからしか削除できないので、あなたが特に人気の高いツイーターである場合、何千人もの名前をスクロールして探している人を見つけることは困難かもしれない。しかし、アプリ研究者のAlessandro Paluzzi(アレッサンドロ・パルッツィ)氏によると、Twitterは、自分のフォロワーリストだけでなく、相手のプロフィールからフォロワーを解除する機能も開発しているとのこと。

#Twitter は、相手のプロフィールから直接フォロワーを解除するオプションに取り組んでいます 。

アレッサンドロ・パルッツィ

Twitterは、ウェブの安全性に焦点を当てたユーザー体験のアップデートに継続的な投資を行っていることを示している。先週には、このフォロワーを解除する機能を含め、一連のプライバシーツールに取り組んでいることを明らかにしていた。Twitterは他にも、30日、60日、90日を経たツイートのアーカイブ化や「いいね」を押したツイートの非表示、会話からの離脱などの可能性についても提案している。これまでも、Semiphemeral(セミフェメラル)のようなサードパーティ製のプログラムを使えば、古いツイートを自動的に削除したり「いいね」を取り消したりできたが、これらの機能がTwitterアプリ自体に組み込まれていれば、ユーザーは外部の開発者とデータを共有することなく、自分のデジタルプレゼンスを、より簡単にコントロールすることが可能になる。

関連記事
ツイッターがついに「コミュニティ」機能導入、簡単に共通の関心事でつながれるように
ツイッターがディスプレイいっぱいの写真・動画表示をテスト中
ツイッターが悪口や嫌がらせを自動的に除外する「セーフティーモード」のテストを開始
Twitterが有料サブスク「Super Follows」を米国で開始、数週間内にグローバル展開
画像クレジット:TechCrunch

原文へ

(文:Amanda Silberling、翻訳:Hirokazu Kusakabe)

アップルが次期iOS15での児童性的虐待コンテンツ検出技術導入を延期

Apple(アップル)は、顧客や政策グループからのフィードバックを考慮して、2021年8月に突然発表した児童性的虐待コンテンツ(CSAM)検出技術の展開計画を延期した。

振り返ってみれば、そのフィードバックは大部分が否定的なものだった。Electronic Frontier Foundation(EFF、電子フロンティア財団)は今週、消費者から2万5000を超える署名を集めたと語っている。またそれに加えて100に迫る政策ならびに権利団体(「アメリカ自由人権協会」も含まれている)も、Appleに技術を展開する計画を放棄するように呼びかけていた。

関連記事
アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ
また批判を浴びるアップルの児童虐待検出技術

米国時間8月3日朝の声明で、AppleはTechCrunchに次のように語った。

「先月私たちは、コミュニケーションツールを使用して子どもを引き込んだり悪用したりするする捕食者たちから子どもたちを保護し、児童性的虐待コンテンツ(CSAM)の拡散を制限することを目的とした機能の計画を発表しました。しかし顧客の皆さま、プライバシー擁護団体、研究者の方々などからのフィードバックに基づいて、これらの非常に重要な子どものための安全機能をリリースする前に、今後数カ月にわたってさらに意見や情報を収集し、機能を改善するために時間をかけることに致しました」。

このAppleの計画しているNeuralHash(ニューラルハッシュ)テクノロジーは、ユーザーのデバイス上の既知のCSAMを、画像を取得しなくても、また画像の内容がわからなくても識別できるように設計されている。iCloudに保存されているユーザーの写真はエンド・ツー・エンドで暗号化されているために、Appleでもデータにアクセスできない、よってNeuralHashは代わりにユーザーのデバイス上で既知のCSAMをスキャンする。このことからAppleは、現在多くのクラウドプロバイダーが行っている一括スキャンよりもプライバシーに配慮していると主張している

関連記事:【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答え

しかし、セキュリティの専門家やプライバシー擁護派は、政府などの豊富な資源を持つ者がシステムを悪用して、罪のない犠牲者を巻き込んだり、権威主義的な国民国家が、好ましくないと判断する任意のデータを検出するためにシステムを操作したりする可能性があると懸念を表明している。

技術が発表されてからわずか数週間で、研究者たちは、NeuralHashを使用して「ハッシュ衝突」を作成し、事実上システムをだまして2つのまったく異なる画像が同じであると思わせることができたと発表している。

iOS 15は、今後数週間以内にリリースされる予定だ。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

画像クレジット:Bryce Durbin/TechCrunch

原文へ

(文:Zack Whittaker、翻訳:sako)

アップルが「デジタル免許証」をサポートする最初の2州を確保するも、プライバシーに関する疑問は残る

人々のお財布をデジタル化するというApple(アップル)の計画は、徐々に形になってきている。最初は飛行機の搭乗券や会場のチケットだったものが、後にクレジットカード地下鉄の乗車券学生証などに広がった。同社が次にデジタル化することを目指しているのは運転免許証や州発行の身分証明書で、年内に予定されているiOS 15のアップデートでサポートする予定だ。

関連記事
iPhoneやApple Watchでベイエリアの公共交通機関支払いが可能に
アップルは非接触型の学生証の導入をさらに多くの大学に拡大
iOS 15ではさらにセキュリティとプライバシー保護機能が充実

しかし、そのためには州政府の協力が必要だ。というのも、米国で運転免許証やその他の身分証明書を発行しているのは州政府であり、州ごとに身分証明書の発行方法は異なるからだ。Appleは米国時間9月1日、デジタル運転免許証や州発行の身分証明書を導入するために、これまでにアリゾナ州とジョージア州の2つの州との提携を確保したと発表した。

コネチカット州、アイオワ州、ケンタッキー州、メリーランド州、オクラホマ州、ユタ州がこれに続く見込みだが、展開のスケジュールは明かされていない。

Appleは2021年6月に、デジタル免許証とデジタルIDのサポートを開始すると発表した。また、米国内を飛行機で移動する際に必要なのは州発行のIDのみであることから、運輸保安局(TSA)はいくつかの空港でiPhoneからのデジタル免許証の受付を開始する最初の機関となる、とも述べた。TSAのチェックポイントでは、デジタルウォレットをIDリーダーにタップして提示することができるようになる。Appleによれば、この機能は安全で、携帯電話を係員に渡したりロックを解除する必要はないという。

デジタル免許証とIDのデータはiPhoneに保存されるが、運転免許証は参加州による照合が必要だ。何百万人ものドライバーや旅行者をサポートしつつ、偽IDの混入を防ぐためには、それが大規模かつ迅速に行われなければならない。

免許証や身分証明書のデジタル化の目的は、特定の問題を解決することではなく、利便性だ。しかし、この動きはプライバシー専門家からは信頼を得られていない。彼らは、Appleがこの技術をどのように構築し、それにより最終的に何を得るのかについて、透明性に欠けていると嘆いている。

Appleは、デジタルID技術がどのように機能するのか、また、iPhoneにデジタル免許証を登録するプロセスの一環として州政府がどのようなデータを取得するのかについて、まだ多くを語っていない。また、同社は自撮り写真を撮影してユーザーを認証するという、未発表の新しいセキュリティ認証機能にも取り組んでいるが、これは他人が勝手に免許証を使用するのを防ぐためらしい。これらのシステムに本質的な問題や欠陥があるというわけではないが、Appleが今後答えるべき、プライバシーに関する疑問が多くある。

しかし、米国内のデジタル免許証やIDの断片的な状況は、Appleの参入をもってしても、一夜にして見通しが良くなるということはないだろう。MuckRockによる最近の公文書開示請求では、Appleは2019年の時点で、カリフォルニア州やイリノイ州を含むいくつかの州とiPhoneにデジタル免許証やIDを導入することについて接触していたことがわかったが、現在はどちらの州もAppleから発表されていない。

ウィスコンシン州サウスカロライナ州ロードアイランド州は、WWDCで発表されたまさにその日にAppleのデジタル免許証計画を知ったため、導入はさらに遅れると思われる。

関連記事:また批判を浴びるアップルの児童虐待検出技術
画像クレジット:Apple / supplied

原文へ

(文:Zack Whittaker、翻訳:Aya Nakazato

TikTokがティーンエイジャーの親向けに教育リソースを提供、ユーザー保護強化で

TikTokはアプリ内のペアレンタルコントロール機能「Family Pairing」に、親がティーンエイジャーの子どもをこれまで以上にサポートできるようにするための教育リソースを加えた。同社が米国時間9月1日に明らかにした。2020年に世界中のユーザーへの提供が始まったペアリング機能では、子どものスクリーン使用時間や誰とダイレクトメッセージをやり取りできるかなどを設定できるよう、13歳以上の子どもを持つ親が自分のアカウントを子どものアカウントとつなげることができる。しかし同社のもとには、自分たちのデジタルライフへの親の関わりについても考慮して欲しいというティーンエイジャーからの声も届いた。

新しい教育コンテンツをつくるために、TikTokはオンラインセーフティに取り組む非営利団体Internet Mattersと提携した。同団体は、親にTikTokに関する状況やティーンエイジャーのソーシャルメディア使用について一般的な情報を提供すべく、ティーンエイジャーとのコラボで一連のリソースを開発した。

この取り組みの中で、Family Pairingのような機能を使う時、設定するルールを親に理解して欲しい、とティーンエイジャーはいう。また、ティーンエイジャーがオンラインに費やす時間について議論することにもオープンであって欲しいと思っている。ティーンエイジャーは親が境界線を定めることについては気にかけていない一方で、人生において大人からある程度の信頼を得たいと感じている。

また年齢を重ねるにつれ、ティーンエイジャーは自分のデバイスやソーシャルネットワークで自主権を持ちたくなる。そのため、与えられたプラットフォームで付け回されたくない、と親にいうことがあるかもしれない。

これは必ずしもティーンエイジャーが何か悪さをしているわけではない、と新しいリソースは親に説明している。ティーンエイジャーはただ、厳重な監視なしにオンライン上で友達とつるむことができる、と感じたいだけなのだ。これはパンデミック時代にある今日、オンライン体験の重要な部分になっている。パンデミックでは多くの若者が、実生活で友達と付き合ったり、対面でのグループ活動に参加したりする代わりに、これまでよりも長い時間を家で過ごしている。

画像クレジット:TikTok

ティーンエイジャーはまた、何かまずい状況になったときに、ひどく怒られたり親がパニックになったりするのでは、とびくびくせずに親を頼ることができれば、ともいう。もし規則を破れば相応の結果がともなうことをティーンエイジャーは知っているが、厄介な事態になったときに、怒るだけでなく親に一緒に解決策を考えて欲しいと思っている。

これらは至って簡単で常識的なアドバイスのように聞こえるが、子どものデジタルライフやソーシャルネットワークの使用に対するTikTok上の親の寛容度はさまざまだ。ティーンエイジャーが何を求め、どう感じているのかを説明している基本的なガイドラインが含まれるのは理に適っている。とはいえ、Family Pairingのようなペアレンタルコントロール機能を利用できるほどにテックに詳しい親はすでに最良のプラクティスの手がかりを得ているかもしれない。

画像クレジット:TikTok

加えて、ティーンエイジャーにフォーカスしたこの手のプライバシーセーフティコンテンツは、TikTokが若いユーザーの保護に取り組んでいるプラットフォームと自らを位置付けるのに使うためのものだ。最近大手テック企業が先んじようと試みている潜在的な規制を考えると、若いユーザーの保護はますます求められている。たとえばTikTokは2021年8月、アプリをより安全なものにするために若いティーンエイジャーのプライバシー保護をこれまでよりも強化すると発表したFacebook(フェイスブック)、Google(グーグル)、YouTube(ユーチューブ)も同様の取り組みを展開している。

Family Pairing機能を介して自分のアカウントをティーンエイジャーのアカウントにリンクさせている親や保護者は、ティーンエイジャーが望んでいること、そしてデジタルリテラシーやオンラインセーフティに関する会話へのアプローチについて知ってもらうためのノーティフィケーションを受け取る、とTikTokは話す。Family Pairingを初めて使用する親にもこのリソースが案内される。

関連記事
Instagramが10代ユーザーのアカウントをデフォルトで非公開に、広告や望まない大人からの接触を制限
グーグルが検索やYouTubeなどの自社プラットフォームにおける未成年者保護を強化画像クレジット:Anatoliy Sizov / Getty Images

原文へ

(文:Sarah Perez、翻訳:Nariko Mizoguchi

スペインのInternxtは「分散型ストレージのCoinbase」を目指して約1.1億円を調達する

バレンシアを拠点とするスタートアップInternxt(インターネクスト)は、インターネットに接続している人なら誰でも大容量のアクセスが可能な分散型クラウドストレージを実現するという意欲的な計画を静かに続けている。

Internxtは、Juan Roig(フアン・ロイグ氏、スペインで最も賑わうスーパーマーケットチェーンの経営者であり2番目の億万長者)が所有するヨーロッパのVCファンドAngels Capital(エンジェルズキャピタル)と、マイアミに拠点を置くVenture City(ベンチャーシティ)を中心に、100万ドル(約1億1000万円)のシード資金を調達した。同社はこれまで、初期の開発資金として、トークンセールで約50万ドル(約5500万円)を調達していた。

このシード資金は、次の成長段階に向けて投入される。同社の前月比成長率は30%で、少なくともそれを維持できる自信があるとし、また、製品開発を加速させるために、大幅な人員の増強も計画している。

このスペインのスタートアップは、その短い歴史のほとんどを分散型インフラの開発に費やしてきたが、同社はそのインフラを、Google(グーグル)をはじめとする大手テック企業が提供する、主流のクラウドベースのアプリケーションよりも本質的に安全でプライベートなものだと主張している。

これは、データへの不正なアクセスを防ぐためにファイルが暗号化されているだけでなく、情報が高度に分散化されて保存されているためだ。小さなシャードに分割された情報は、複数のロケーションのストレージに分散されるが、そのストレージスペースはネットワーク上の他のユーザーから提供されるものだ(そして、そのスペースに対する報酬は、予想に違わず暗号資産で支払われる)。

創業者でもあるCEOのFran Villalba Segarra(フラン・ヴィラルバ・セガラ)氏は「これは分散型アーキテクチャであり、世界中にサーバーがある」という。そして「このアーキテクチャは、企業や個人が提供するストレージスペースを活用している。当社のインフラに接続したストレージ提供者は、データシャードをホストし、当社は提供者がホストするデータに対する報酬を支払う。これは、従来のアーキテクチャのようにデータセンターを借りて固定のストレージ料金を支払うという方法ではないため、より手頃な価格でサービスを提供できる」と語る。

そして「これは、Airbnb(エアビーアンドビー)やUber(ウーバー)と同じようなモデルであり、ストレージを大衆化したものだ」と付け加える。

Internxtは、2017年から3年間の研究開発を経て、1年前に最初のクラウドベースのファイルストレージアプリ「Drive(ドライブ)」を公開し、そして今回、Googleフォトのライバルとなる「Photos(フォト)」を発表した。

ヴィラルバ・セガラ氏によると、これまでのところ、マーケティングには重点を置いていないものの、約100万人のアクティブユーザーを集めているという。

Internxt Mailは、次にリリースを控える製品で、GoogleのフリーミアムウェブメールクライアントであるGメールや、そのGmailにプライバシー保護で勝ることを謳うProtonMail(プロトンメール)に対抗するためのものだ(同社に勝算がある理由については後述する)。

また、Internxt Send(ファイル転送アプリ)も近々発表される予定だ。

「Google Workspaceに置き換わる製品を開発しており、Googleとの競争ではGoogleと同じレベルになるように取り組んでいる」と同氏はいう。

1つの場所にしか保存されていないファイルは、他の人からアクセスされるという脆弱性がある。Internxtのアーキテクチャは、その問題を解決しようとしている。それがストレージプロバイダー自身であろうと(Googleのように、ユーザーのデータをデータマイニングすることでプライバシーを侵害するビジネスモデルかもしれない)、またはプロバイダーのセキュリティを突破しようとするハッカーや第三者であろうと、結果として、ユーザーのファイルを盗み見たり改ざんしたりするなど、不正なアクセスを許すことになる。

ネットワークが不正アクセスされた場合のセキュリティリスクには、ここ数年増加傾向にあるランサムウェア攻撃などがある。これは、ネットワークに侵入した攻撃者が、保存されているファイルの正当な所有者のアクセスを遮断し、情報を身代金として要求するものだ(通常、攻撃者独自の暗号化レイヤーを適用し、データを解除する代わりに支払いを要求する)。

Internxtは、サーバーやハードドライブにまとまって保存されているファイルは、格好の標的になるという考えに基づき、分散化を推進している。

この問題に対するInternxtの答えは、ゼロ知識暗号化と分散化を組み合わせた新しいファイルストレージインフラだ。つまり、ファイルを複数のセグメントに分割して複数のストレージに分散し、さらにミラーリングすることにより、ストレージの故障やハッキング攻撃、スヌープに対して高い耐性を実現する。

このアプローチは、クラウドサービスプロバイダーによるプライバシー侵害に対する懸念を低減する。というのも、Internxt自身さえもユーザーデータにアクセスできないからだ。

Internxtのビジネスモデルはシンプルで、段階的なサブスクリプションだ。既存および計画中のすべてのサービスをカバーする(現在は)1つのプランを提供し、必要なデータ量に応じていくつかのサブスクリプション料金を設定している(つまりこれも、無料の10GBから始まるフリーミアムだ)。

インターネットにおけるコアアーキテクチャを見直すことがユーザーにとって重要であると考えたのは、もちろんInternxtが初めてではない。

スコットランドのMaidSafe(メイドセーフ)は、10年以上も前から分散型インターネットの構築に取り組んでおり、10年間のテストを経て、2016年に初めてSafe Network(セーフネットワーク)と呼ばれる代替ネットワークのアルファテストを開始した。同社のインターネットを再発明するという長期的なミッションは今も続いている。

分散型クラウドストレージの分野におけるもう1つの(まだベテランとはいえない)競合企業は、企業ユーザーをターゲットにしているStorj(ストージ)だ。また、Filecoin(ファイルコイン)Sia(シア)も挙げられる。両社は、Bitcoin(ビットコイン)が暗号資産やブロックチェーン・分散化に対する起業家の関心に火をつけた後に生まれた、ブロックチェーン関連スタートアップの新しい波の一旦を担っている。

関連記事:クラウド上の余剰容量を活用する、分散ストレージサービス運営のStorjがエンタープライズに進出

では、Internxtのアプローチは、この複雑な最先端技術に長く取り組む、これらの分散型ストレージのライバル企業とはどのように違うのだろうか。

ヴィラルバ・セガラ氏は「欧州を拠点とするスタートアップで分散型ストレージに取り組んでいるのは当社だけだ(欧州連合ではない英国のメイドセーフを除いて)」とし「Storj、Sia、Filecoinなど……知る限りでは、他の企業はすべて米国を拠点としている」と、データ保護やプライバシーに関する欧州連合の法体系が米国の競合他社に対して優位に働いていると主張する。

同氏が挙げるもう1つの大きな差別化の要因は、ユーザビリティだ。前述の競合他社のサービスは「開発者が開発者のために作った」ものだと指摘する。一方、Internxtの目標は「分散型ストレージのCoinbase(コインベース)」に相当するものだという。つまり、非常に複雑なテクノロジーを、専門知識のないインターネットユーザーでも容易に使えるようにすることだ。

「ブロックチェーンの分野は、計り知れない可能性を秘めているにもかかわらず、非常に大規模なテクノロジーであるため、使用するのが非常に難しいという状況がよく見られる」と同氏はTechCrunchに語る。「本質的にコインベースがやろうとしていることは、より簡単に暗号資産に投資できるように、より使いやすいブロックチェーンをユーザーに提供することだ。だから、Internxtでも同じように、クラウドストレージのブロックチェーンを人々に届けようとしている。とてもわかりやすいインターフェイスで使いやすくすることなどだ」。

「分散型クラウドの分野では、事実上唯一の利用可能なサービスであり、それがStorjなど他社との大きな差別化要因となっている」。

「インフラの面では、SiaやStorjとよく似ている」と同氏は続ける。さらに、Proton Drive(プロトンドライブ。エンド・ツー・エンドの暗号化メールサービスであるプロトンメールのメーカーが提供するファイルストレージサービス)の「ゼロアクセス」暗号化アーキテクチャになぞらえ、Internxtの「ゼロ知識」暗号化も、クライアント側で暗号化されており、サービスプロバイダーがユーザーの情報を盗み見ることができないことを技術的に保証しているという(だから、プライバシーを侵害しないと会社を信じる以上の安心が得られるということだ)。

Internxtのゼロ知識暗号化は、既成のAES-256暗号を使用しているようだが、同社はスペインの大手サイバーセキュリティ企業S2 Grupo(エスツー・グルーポ)の監査を受けた「ミリタリーグレード」であり、クライアントサイドで暗号化を行い、オープンソース暗号を使用しているという。また、それに加え、暗号化されたデータを分散化するというステップも踏んでいる。そのため、セキュリティ面で付加的なメリットがあると、ヴィラルバ・セガラ氏はいう。

「暗号化に加え、データを断片化し、世界中に分散させている。つまり、基本的にサーバーがホストしているのは、暗号化されたデータシャードであり、たとえハッカーがそのようなサーバーにアクセスしても、そこにあるのは根本的に意味を成さない暗号化されたデータシャードであるため、さらに安全だ。当社でさえ、そのデータにはアクセスできない」。

「これにより、ハッカーや第三者によるデータアクセスに対するセキュリティが格段に向上した。そしてその上で、非常に優れたユーザーインターフェイスを構築している。これはユーザーが使い慣れたGoogleとほとんど同じインターフェイスであり、その点でもStorjやSiaとは大きな違いを生んでいる」と同氏は述べる。

Internxtのユーザーファイルを保存するストレージスペースは、ストレージスペースが余っているユーザーから提供されるものだ。ストレージスペースを提供しデータシャードをホストするユーザーには、暗号資産のマイクロペイメントでインセンティブが与えられる。つまり、単にノートパソコンでInternxtに接続している個人ユーザーからも、大量の未使用ストレージ容量を持つデータセンター企業からもストレージスペースが提供される可能性があるということだ(ヴィラルバ・セガラ氏によると、OVH[オー・ヴィ・エイチ]など、いくつかのデータセンター企業が同社のネットワークに接続しているという)。

「当社は(ストレージを確保するための)直接的な契約はしていない。誰でもInternxtのネットワークに接続することができる。つまり、提供可能なストレージ容量を持つデータセンターは、Internxtのネットワークに接続すれば、報酬を得られる。当社は、従来の方法でデータセンターにストレージ料金を支払うことに比べれば、それほど多くの料金を支払うことはない」と同氏はいい、このアプローチを、ホストとゲストの両方を持つAirbnbや、ドライバーとライダーを必要とするUberに例えている。

「当社はユーザーとデータセンターをつなぐプラットフォームだが、当社自体がデータをホストすることはない」。

Internxtでは、ネットワークのアップタイムとサービスの質を確保するために、レピュテーションシステムを使ってストレージプロバイダーを管理している。また、ブロックチェーンの「プルーフ・オブ・ワーク」チャレンジを適用して、ノードオペレーターがクレームするデータを実際に保存していることを確認している。

同氏は「分散型アーキテクチャの特性上、一定の信頼性を確保する必要がある」とし「そのため、ブロックチェーンテクノロジーを利用する。自社のデータセンターにデータを保管する場合は、信頼性を確保するという点では簡単だ。しかし、分散型アーキテクチャにデータを保存する場合は、プライバシーの保護や価格の安さなど多くのメリットがあるものの、データを実際に保存しているかどうかの確認が必要であるなど、デメリットもある」と述べる。

ストレージスペースの提供者への支払いもブロックチェーンテクノロジーによって行われる。ヴィラルバ・セガラ氏によると、世界中の約1万人に及ぶノードオペレーターに対して、大規模なマイクロペイメントを自動化するには、ブロックチェーン技術が唯一の方法だという。

ブロックチェーンの基盤となるテクノロジー「プルーフ・オブ・ワーク」は、計算にともなうエネルギー消費の問題を指摘されている。同氏は、エネルギーコストの問題について、Internxtの分散型アーキテクチャが、データセンターによる従来のアーキテクチャよりもエネルギー効率が高いことを示唆している。これは、データシャードがアクセスをリクエストしたユーザーの近くに配置される可能性が高いためであり、パケットを取得するために必要なエネルギーは、常に世界の数カ所に集中しているデータセンターから取得するのに比べて低減される。

「エネルギー消費の観点から見ると、Internxtは、従来のクラウドストレージサービスよりもはるかにエネルギー効率が高いことがわかった。なぜか?考えてみて欲しい。Internxtでは、ファイルをミラーリングし世界中に保存している。Dropboxなど特定の場所から送信されたファイルにアクセスすることは、実際には不可能だ。基本的に、DropboxやGoogleドライブにアクセスしてファイルをダウンロードする場合、テキサス州などにあるデータセンターから送信される。そのため、データ転送には膨大なエネルギーが消費されるが、人々はそれについて考えていない」と同氏は主張する。

「データセンターのエネルギー消費量は、記憶が正しければすでに全世界のエネルギー消費量の2%*に達している。そのため、レイテンシーが利用可能で、ユーザーの近くからファイルを送ることができれば、ファイル転送はより速くなり、その結果はすべて当社のレピュテーションシステムに反映される。したがって、Internxtのアルゴリズムは、ユーザーに近いファイルを送ることで、多くのエネルギーを節約することができる。これを数百万人のユーザーと数百万テラバイトの単位で計算すると、実際にはかなりのエネルギー消費と当社のコストを削減できることになる」。

では、ユーザーから見たレイテンシーはどうだろうか。Internxtへのファイルのアップロードや、保存されているファイルのダウンロードのため、ユーザーがアクセスする際、Googleドライブなどと比べて顕著な遅延はあるのだろうか。

ヴィラルバ・セガラ氏によると、断片化されたファイルをユーザーの近くに保存することで、遅延を補うことができるという。しかし、主流のクラウドストレージサービスと比較して、若干の速度差があることも認めている。

「アップロードとダウンロードのスピードについては、GoogleドライブやDropboxにほぼ匹敵する」と同氏はいい「また、そういった企業は10年以上の歴史があり、サービスは非常に最適化されている。加えて従来型のクラウドアーキテクチャを採用しており、比較的シンプルで構築しやすく、何千人もの従業員を抱えているため、スピードなどの面では明らかに当社のサービスよりもはるかに優れている。しかし、当社は主流のストレージサービスに追いつきつつあり、Internxtのスピードをそのレベルに引き上げるとともに、当社のアーキテクチャとサービスにできるだけ多くの機能を組み入れることを目指して、全力で取り組んでいる」と述べる。

「基本的には、使いやすさという点ではプロトンドライブやTresorit(トレソリット)のレベルにあると考えている」とし、遅延について「Googleドライブに非常に近づいている。しかし、平均的なユーザーにとってはそれほど大きな違いはないはずだ。そしてすでに述べたように、当社のサービスを文字通りGoogleと同じように利用できるようにするため、できる限りの努力をしている。しかし、InternxtがStorj、Sia、メイドセーフの何年も先を行っていることは確かだ」と述べる。

Internxtは現在、わずか20人のチームでこのような複雑なネットワークを構築している。しかし、新たなシード資金を手にしたことから、今後数カ月の間に雇用を拡大することで、製品開発を加速させ、成長を維持し、競争力を高めていくことを計画している。

「シリーズAを実施する頃には、Internxtの従業員は約100人になっているはずだ」とヴィラルバ・セガラ氏はいう。そして、次のように続ける。「シリーズAの準備はすでに進めている。シードラウンドを終了したばかりだが、成長の速さから、米国やロンドンの有力なVCファンドから声がかかっている」。

「かなり大きなシリーズAになるだろう。スペインで最大のシリーズAになるかもしれない。シリーズAまで、これまでの成長率である前月比30%以上の成長を計画している」。

同氏はまた、シリーズAでは5000万ドル(約55億円)の評価額での資金調達を目指すとTechCrunchに語る。

「まさにシードラウンドを終えたばかりのため1年後に行う予定だったが、多くのVCから声をかけてもらっているので、年内に実施することになるかもしれない」といい「しかし、時間は問題ではない。最も重要なことは、目標とする最低評価額を達成できるかどうかだ」と語った。

注記:IEA(イー・アイ・エー)によると、2019年の世界の電力消費量のうち、データセンターとデータ伝送ネットワークは、それぞれ約1%を占める。

画像クレジット:Internxt

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていると認める

アップルが2019年からiCloudメールに児童虐待画像が添付されていないかスキャンしていたと認める

Apple

アップルは児童虐待(いわゆる児童ポルノ)対策のためにiCloudにアップロードされる画像をスキャンする方針を発表し、様々な方面から批判を集めています

そんななか、アップルがCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)を検出するため、2019年からiCloudメールの添付ファイルをスキャンしていることを認めたと伝えられています。その一方で、iCloud画像やiCloudバックアップはスキャンしていないとのことです。

この声明はアップルの不正防止責任者Eric Friedman氏が、自社サービスが「児童ポルノ写真を配布するための最大の温床になっている」と述べる社内メールが発覚した(Epic Gamesとの訴訟で提出された証拠から発掘)件を受けて、米9to5Macが問い合わせたことに対して回答されたものです。すなわちiCloudの写真をスキャンしていないのであれば、どうやって温床になっていると分かったんだ?というわけです。

9to5Macいわく、他にもアップルがiCloudメールのスキャンを行っているらしき手がかりはいくつもあったとのことです。たとえば「子供の安全」ページ(Webアーカイブ)には、「アップルは画像照合技術を使って児童搾取の発見と報告を支援しています。電子メールのスパムフィルターのように、Appleのシステムは電子署名を使って児童搾取の疑いがあるものを見つけ出します」との一節が確認できます。

さらにアップルの最高プライバシー責任者であるJane Horvath氏は、2020年1月に「アップルはスクリーニング(集団をふるいにかけて目的物を探す)技術を使って違法画像を探している」と述べたとの報道もあったとのことです。

これらにつきアップルは、Friedman氏の発言にノーコメントの一方で、iCloud画像をスキャンしたことはないと回答。しかし2019年以降、iCloudメールの送受信をCSAM画像を探すためスキャンしていると確認したとのことです。iCloudメールは暗号化されていないので、アップルのサーバーを通る際に添付ファイルをスキャンするのは容易だと思われます。

さらにアップルは他のデータを限定的にスキャンしていることを示唆しつつ、ごく小さな規模に留まる以外は、具体的なことを教えてくれなかったそうです。ただし「その他のデータ」にはiCloudのバックアップは含まれていないとのことです。

アップルのこうした回答を、9to5Macは責めているわけではありません。逆に上記のFriedman氏による「アップルが児童ポルノの温床」発言は確かなデータに基づいているわけではなく、ただの推論である可能性が出てきたと指摘しています。アップルが毎年CSAMに関して行っている報告は数百件にすぎず、電子メールのスキャンでは大規模な問題の証拠を捉えられていないことを意味している、とのことです。

かたや、Friedman氏の発言全文は「Facebookなどは信頼と安全性(偽アカウント)に注目しています。プライバシーに関しては、彼らは最悪です。私たちの優先順位は逆です。私たちが児童の(ポルノ)写真を配布するための最大の温床になっている理由です」というものです。

つまりFacebookやその他のクラウドサービスはプライバシー保護を棚上げしてまで児童ポルノ写真を取り締まっているが、アップルは逆にプライバシーを厳守しているために十分に取り締まれていない……と推測しているだけではないか、というわけです。

たしかにGoogleドライブの利用規約には「Google は、コンテンツが違法か否か、または Google のプログラム ポリシーに違反しているか否かを判断するために、コンテンツを審査することができます」とあり、少なくともスキャンが可能であるとは述べています(「Google によるコンテンツの審査が行われていることを前提としないでください」とも但し書きしていますが)。

またメールについても、他社は少なくとも児童ポルノ取締りについてはスキャンしていることは珍しくありません。やはりGoogleのGmailが違法な画像を見つけて、当局に通報したこともありました

アップルは、他のハイテク大手が以前からやっている「児童ポルノ取締りはプライバシー保護よりも優先する」という方針を大がかりに発表したことで、想定以上の注目や批判を集めてしまった面もあるのかもしれません。とはいえ、常々アップルは「プライバシーは基本的人権の1つ」と標榜しているだけに、他社よりも厳しい基準を求められるのも当然とは言えそうです。

(Source:9to5MacEngadget日本版より転載)

【インタビュー】アップルのプライバシー責任者、児童虐待検出機能とメッセージアプリの通信の安全性機能への懸念について答える

先にApple(アップル)は、同社の端末を使う児童の安全性の向上を目的とした一連の新機能を発表した。この新機能はまだリリースされていないが、2021年後半にはダウンロード配信される予定だ。これらの機能は、未成年の保護と児童性的虐待画像の拡散を抑えることをも目的としており、良い機能として受け入れられているものの、アップルが採用しているやり方に疑問の声が上がっている。

関連記事:アップルがiCloud上の児童虐待画像を検出する新技術「NeuralHash」導入へ

この記事では、アップルのプライバシー担当責任者Erik Neuenschwander(エリック・ノイエンシュバンダー)氏に、アップル製端末に搭載されるこれらの新機能について話を聞いた。同氏は、この機能についてユーザーが抱いている多くの懸念について丁寧に回答してくれた。この機能の導入後に発生する戦術的、戦略的な問題についても詳しい話を聞くことができた。

また、密接に関連しているが、同じような目的を持つ完全に独立したシステム群であるこれらの機能の導入についても話を聞いた。アップルは今回3つの機能を発表しているが、これらの機能はその守備範囲においても、一般ユーザーの間でも、混同されることが多いようだ。

iCloud写真でのCSAM検出NeuralHashと呼ばれる検出システムは、全米行方不明・被搾取児童センターやその他の組織のIDと照合可能なIDを作成し、iCloud写真ライブラリにある既知のCSAMコンテンツを検出する。大半のクラウドプロバイダーでもユーザーライブラリをスキャンしてこうした情報を取得しているが、アップルのシステムは、クラウド上ではなく端末上でマッチングを行う点が異なる。

メッセージアプリの通信の安全性親がiCloudファミリーアカウントで未成年向けにオンにできる機能。画像を表示しようとする子どもたちに、その画像には露骨な性的表現が検出されていることを警告し、親にも同じ警告がなされることを通知する。

Siriと検索への介入:Siriや検索を介して児童性的虐待画像関連の表現を検索しようとするユーザーに介入して、そのユーザーに介入を通知し、リソースを紹介する。

これらの機能の詳細については、当社の記事(上記にリンクがある)またはアップルが先に投稿した新しいFAQを参照いただきたい。

関連記事:アップルがメッセージアプリで送受信される性的な画像を検知し子どもと親に警告する新技術を発表

筆者は、個人的な体験から、上記の最初の2つのシステムの違いを理解していない、あるいは、自分たちの子どもの無害な写真でも何らかのフィルターに引っかかって厳しい調査を受ける可能性があると考えている人たちがいることを知っている。ただでさえ複雑な内容の発表に混乱を生じさせる結果となっているようだ。この2つのシステムはもちろん、組織がすでに虐待画像と認識しているコンテンツと完全に一致するコンテンツを検索するCSAM検出システムとは完全に別個のものである。メッセージアプリの通信の安全性では、すべての処理が端末上で実行され、外部には一切報告されない。単に、端末を使っている子どもに、性的に露骨な画像を表示しようとしている、またはその可能性があることを、その場で警告するだけである。この機能は親によるオプトイン方式となっており、有効化されていることを親も子どもも意識する必要はない。

アップルのメッセージアプリの通信の安全性機能(画像クレジット:Apple)

また、端末上で写真をハッシュ化しデータベースを使って比較対照できるIDを作成する方法についても疑問の声が上がっている。NeuralHashは、写真の高速検索など、他の種類の機能にも使用できるテクノロジーだが、iPhone上では今のところCSAMの検出以外には使用されていない。iCloud写真が無効になっている場合、この機能は、まったく動作しない。これにより、この機能をオプトアウトできるようにしているのだが、iCloud写真がアップルのオペレーティングシステムに統合されていることの利便性を考えると、オプトアウトすることで失うものが非常に大きいことは明らかだ。

エリック・ノイエンシュバンダー氏へのインタビューでは、これらの新機能について考えられるすべての質問に答えているわけではないが、アップルの上級プライバシー担当者による公開の議論としては、最も詳細な内容になっている。アップルがこれらの新機能の内容を公開しており、継続的にFAQを更新し、記者会見を開いていることから、同社はこのソリューションに明らかに自信を持っているように思われる。

この機能については、さまざまな懸念や反対意見があるものの、アップルは、必要なだけ時間をかけてすべての人たちに納得してもらうことに尽力しているようだ。

このインタビューはわかりやすくするために編集されている。

ーーー

TC:大半の他のクラウドプロバイダーは、すでにCSAM画像のスキャンをかなりの期間実施していますが、アップルはまだ行っていません。現在、サーバー上でCSAM画像の検出を行うことを強制する規制はありませんが、EUやその他の国では規制による混乱が起こっています。今回の新機能はこうした動きを受けてのことでしょうか。なぜ、今なのですか。

なぜ今リリースするのかという点については、児童の虐待からの強力な保護とユーザーのプライバシーのバランスをとるテクノロジーが実現したということに尽きます。アップルはこの分野にかなりの期間注目してきました。これには、クラウドサービス上のユーザーのライブラリ全体をスキャンする最先端の技術が含まれますが、ご指摘のとおり、アップルはこうした処理、つまりユーザーのiCloud写真を走査するという処理を行ったことがありません。今回の新システムもそうした処理は一切行いません。つまり、端末上のデータを走査することもなければ、iCloud写真に格納されているすべての写真を走査することもありません。では、何をやっているのかというと、既知のCSAM画像が蓄積し始めているアカウントを特定する新しい機能を提供しているのです。

ということは、この新しいCSAM検出テクノロジーが開発されたことが重要な転機となって、このタイミングで今回の機能をリリースすることになったというわけですね。しかも、アップル自身も満足のいく形で、なおかつユーザーにとっても「良い」方法でこの機能を実現できると考えていると。

そのとおりです。この機能には、同じくらい重要な2つの目的があります。1つはプラットフォーム上での児童の安全性を向上させること、もう1つはユーザーのプライバシーを保護することです。上記の3つの機能はいずれも、上記の2つの目的を実現するテクノロジーを組み合わせることで実現されています。

メッセージアプリの通信の安全性機能とiCloud写真でのCSAM検出機能を同時に発表したために、両者の機能と目的について混乱が生じているようです。これらを同時に発表したことは良かったのでしょうか。また、この2つが別個のシステムなら、なぜ同時に発表されたのでしょうか。

確かにこれらは2つの別個のシステムですが、Siriと検索における当社による介入の増加に伴って開発されたものです。アップルのiCloud写真サービスの中の既知のCSAMのコレクションが格納されている場所を特定することも重要ですが、その上流部分を特定することも重要です。上流部分もすでにひどい状況になっています。CSAMが検出されるということは、すでにレポートプロセスの処理対象になったことのある既知のCSAMが存在しており、それが広範囲に共有されて子どもたちが繰り返し犠牲になっているということです。そもそも最初にそうした画像が作成される原因となった虐待があり、そうした画像の作成者がいたはずです。ですから、そうした画像を検出することも重要ですが、人々が問題のある有害な領域に入ろうとするときに、あるいは、虐待が発生し得る状況に子どもたちを仕向ける虐待者がすでに存在している場合に、早期に介入することも重要です。メッセージアプリの通信の安全性と、Siriおよび検索に対する当社の介入は、まさにその部分に対する対応策です。つまり、アップルはCSAMに至るまでのサイクルを遮断しようと試みているのです。最終的にはCSAMがアップルのシステムによって検出されることになります。

iCloud写真システムにおけるアップルのCSAM検出プロセス(画像クレジット:Apple)

世界中の政府と政府機関は、何らかのエンド・ツー・エンドまたは部分的な暗号化を組織内で使用している大規模組織に常に圧力をかけています。政府機関は、バックドアや暗号解読手段に賛成する理論的根拠として、CSAMやテロにつながる可能性のある活動を抑えることを挙げることがよくあります。今回の新機能および端末上でのハッシュ照合を実現する機能をリリースするのは、それらの要求を回避し、ユーザーのプライバシーを犠牲にすることなく、CSAM活動を追跡し防止するために必要な情報を提供できることを示すための取り組みでしょうか。

最初に、端末上での照合についてですが、このシステムはマッチング結果を(通常マッチングと考えられているような方法で)端末または(端末が作成するバウチャーを考えている場合でも)アップルに公開しないように設計されている、という点を申し添えておきます。アップルは個々の安全バウチャーを処理することはできません。このシステムは、あるアカウントに、違法な既知のCSAM画像に関連付けられたバウチャーのコレクションが蓄積した時点で初めて、そのユーザーのアカウントについて調査できるように設定されています。

なぜそんなことをするのかというと、ご指摘のとおり、これはユーザーのプライバシーを保護しながら検出機能を実現するための仕組みだからです。我々の動機となっているのは、デジタルエコシステム全体で児童の安全性を高めるためにもっと多くのことを行う必要があるという事実です。上記の3つの機能はすべて、その方向への前向きな一歩になると思っています。同時に、アップルが、違法行為に関わっていない人のプライバシーを侵害することも一切ありません。

端末上のコンテンツのスキャンとマッチングを可能にするフレームワークを作成するというのは、法的執行機関の外部のフレームワークを作るということでしょうか。つまり「アップルはリストを渡します。ユーザーのデータをすべて検索するようなことはしたくありませんが、ユーザーに照合して欲しいコンテンツのリストを渡すことはできます」ということでしょうか。そのリストをこのCSAM画像コンテンツと照合できるなら、探しているCSAM画像以外のコンテンツとも照合できますよね。それは、アップルの現在の考え方、つまり「アップルはユーザーの端末を復号化できない。端末は暗号化されていて、我々はキーを持っていないのだから」という立場を損なうことになりませんか。

その立場は一切変わりません。端末は依然として暗号化されていますし、アップルは復号化キーも持っていません。今回の新システムは端末上のデータに対して機能するように設計されています。アップルが作成したのは端末側コンポーネントです。プライバシーを向上させる端末側コンポーネントも含まれています。サーバー上のユーザーデータをスキャンして評価するやり方もあったわけですが、そのほうが(ユーザーの承認なしに)データを自由に変更できるし、ユーザーのプライバシーも低いのです。

今回のシステムは、端末側コンポーネントとサーバー側コンポーネントで構成されています。端末側コンポーネントは、バウチャーを作成するだけで何も認識しません。サーバー側コンポーネントには、バウチャーと、アップルのサービスに入ってくるデータが送信され、当該アカウントについて、違法なCSAM画像のコレクションが存在するかどうか調査されます。つまり、サービス機能です。話が複雑になりますが、このサービスの機能に、バウチャーが端末上に作成される部分が含まれているのですが、何度も申し上げているとおり、端末上のコンテンツの内容が認識されることは一切ありません。バウチャーを生成することで、サーバー上ですべてのユーザーのコンテンツを処理する必要がなくなりました。もちろん、アップルはiCloud写真の内容を処理したことも一切ありません。そのようなシステムは、プライバシー保護の観点から、より問題を起こしやすいと思います。ユーザーに気づかれずにシステムを本来の設計意図とは異なるものに変更できてしまうからです。

このシステムに関して大きな疑問が1つあります。アップルは、CSAM画像以外のコンテンツをデータベースに追加して端末上でチェックするよう政府やその他の機関から依頼されたら拒否すると明言しました。アップルには、ある国で事業展開したければ、その国の法律に最高レベルで準拠しなければならなかった例が過去にあります。中国の件が良い例です。政府からシステムの意図的改ざんを要求または依頼されても、アップルは、そうした干渉を一切拒否するという約束は本当に信頼できるのでしょうか。

まず、このシステムは米国内でのみ、iCloudアカウントのみを対象としてリリースされます。ご質問では国全般または米国以外の国からの要請を想定されているようです。少なくとも米国の法律では、こうした要請を政府が行うことは許されていないと思われます。

システムを改ざんする試みについてですが、このシステムには、多くの保護機能が組み込まれており、児童虐待画像を保持している個人を(政府が)特定するにはあまり役立たないようになっています。ハッシュリストはオペレーティングシステムに組み込まれるのですが、アップルは1つのグローバルなオペレーティングシステムのみを所有しており、個々のユーザー向けにアップデートを配信することはできません。ですから、ハッシュリストはシステムを有効にしているすべてのユーザーに共有されます。第2に、このシステムでは、(バウチャーの中身を見るには)画像のしきい値を超える必要があるため、個人の端末または特定のグループの端末から単一の画像を探し出すことはできません。というのは、システムはアップルに、サービスに保存されている特定の画像について一切情報を提供しないからです。第3に、このシステムには手動によるレビュー段階が組み込まれています。つまり、あるアカウントに、違法なCSAM画像のコレクションが保存されていることを示すフラグが立つと、外部の機関に報告する前に、アップルのチームがその画像が確かに違法なCSAM画像と一致していることを確認するようになっています。ですから、ご指摘のような状況(アップルが政府の要請に応じてシステムを改ざんするような事態)が発生するには、例えばアップルに内部プロセスを変更させて違法ではない(既知のCSAM以外の)コンテンツも報告させるようにするなど、本当に多くの作業を行う必要があります。それに、アップルは、そうした要請を行うことができる基盤が米国内に存在するとは考えていません。最後に付け加えておきますが、ユーザーはこの機能を有効にするかどうかを選択できます。この種の機能が気に入らなければ、iCloud写真を使わない選択をすればよいだけです。iCloud写真が無効になっていれば、このシステムは一切機能しません。

iCloud写真が無効になっていればこのシステムは機能しないと、確かにFAQでも明言されています。この点について具体的にお聞きしますが、iCloud写真が無効になっている場合でも、このシステムは端末上で写真のハッシュの作成を継続するのでしょうか。それとも、無効にした時点で完全に非アクティブな状態になるのでしょうか。

ユーザーがiCloud写真を使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAMの検出では、ニューラルハッシュがオペレーティングシステムイメージの一部である既知のCSAMハッシュのデータベースと比較対照されます。iCloud写真を使用していない場合、安全バウチャーの作成やバウチャーのiCloud写真へのアップロードなどの追加部分は、一切実行されません。

アップルは近年、端末上での処理によりユーザーのプライバシーが保護されるという事実に注目しています。今思い浮かぶ過去のすべての事例において、これは真実です。確かに、例えば写真をスキャンしてそのコンテンツを特定し、検索できるようにするといった処理は、ローカルの端末上で実行し、サーバーには送信しないで欲しいと思います。しかし、この機能の場合、外部の使用ケースがなければ個人的な使用をスキャンするのではなくローカルの端末をスキャンするという点で、ある種の抗効果が発生し、ユーザーの気持ちに「信頼性の低下」というシナリオが生まれる可能性があるように思います。それに加えて、他のすべてのクラウドプロバイダーはサーバー上をスキャンすることを考慮すると、この実装が他のプロバイダーとは異なるため、ユーザーの信頼性が低下するのではなく向上するのはなぜか、という疑問が生じるのですが。

アップルの方法は、業界の標準的な方法と比較して、高い水準にあると思います。すべてのユーザーの写真を処理するサーバー側のアルゴリズムでは、どのようなものであれ、データ漏洩のリスクが高くなり、当然、ユーザーのライブラリ上で行う処理という点で透過性も低くなります。これをオペレーティングシステムに組み込むことで、オペレーティングシステムの完全性によって他の多くの機能にもたらされているのと同じ特性を実現できます。すべてのユーザーが同じ1つのグローバルなオペレーティングシステムをダウンロードおよびインストールするため、個々のユーザー向けに特定の処理を行うのはより難しくなります。サーバー側ではこれは実に簡単にできます。いくつかのプロパティを用意しそれを端末に組み込んで、この機能が有効になっているすべてのユーザーでプロパティ設定を統一できることで、強力なプライバシープロパティが得られます。

第2に、オンデバイステクノロジーの使用によってプライバシーが保護されるというご指摘ですが、今回のケースでは、まさにおっしゃるとおりです。ですから、ユーザーのライブラリをプライバシー性の低いサーバー上で処理する必要がある場合の代替策になります。

このシステムについて言えるのは、児童性的虐待画像という違法行為に関わっていないすべてのユーザーのプライバシーが侵害されることは一切なく、アップルがユーザーのクラウドライブラリに関して追加の情報を得ることも一切ないということです。この機能を実行した結果としてユーザーのiCloud ライブラリが処理されることはありません。その代わりに、アップルは暗号的に安全なバウチャーを作成できます。このバウチャーには数学的プロパティが設定されています。アップルがコンテツを復号化したり画像やユーザーに関する情報を取得できるのは、そのユーザーが、CSAMハッシュと呼ばれる違法な画像ハッシュに一致する写真を収集している場合だけです。一方、クラウド処理スキャンサービスでは、まったく状況が異なります。すべての画像を復号化された形式でくまなく処理し、ルーチンを実行して誰が何を知っているのかを決定するからです。この時点で、ユーザーの画像に関して必要なことは何でも確定できます。それに対して、アップルのシステムでは、NCMECおよび他の児童虐待保護組織から直接入手した既知のCSAM画像ハッシュのセットに一致することが判明した画像について知ることしかできません。

このCSAM検出機能は、端末が物理的にセキュリティ侵害されたときにも全体として機能しますか。何者かが端末を手元で操作できれば、暗号がローカルに迂回されることもあります。これを防ぐための保護レイヤーはありますか。

これは難しく、犠牲が大きい問題ですが、非常に稀なケースであることを強調しておきたいと思います。この問題はほとんどのユーザーにとって日常的な関心事ではありませんが、アップルはこの問題を真剣に受け止めています。端末上のデータの保護は我々にとって最重要事項だからです。では、誰かの端末が攻撃されたという仮説の下で説明してみます。その攻撃は極めて強力なので、攻撃者が対象ユーザーに対して行えることはたくさんあります。攻撃者にはアクセス可能なユーザーのデータが大量にあります。誰かの端末のセキュリティを侵害するという極めて難しい行為をやってのけた攻撃者にとって最も重要なことが、アカウントの手動レビューを起動させることだという考え方は合理的ではありません。

というのは、思い出して欲しいのですが、しきい値が満たされていくつかのバウチャーがアップルによって復号化されても、次の段階で手動レビューによって、そのアカウントをNCMECに報告するべきかどうかを決定するわけですが、我々は合法的な高価値レポートであるケースでのみこうした報告を行うべきだと考えています。我々はそのようにシステムを設計していますが、ご指摘のような攻撃シナリオを考えると、攻撃者にとってあまり魅力的な結果にはならないと思います。

画像のしきい値を超えた場合のみ報告されるのはなぜですか。CSAM画像が1つ見つかれば十分ではないでしょうか。

NCMECに対してアップルが報告するレポートは高価値でアクション可能なものにしたいと考えています。また、すべてのシステムについて共通しているのは、その画像が一致するかどうかにある程度の不確かさが組み込まれるという点です。しきい値を設定することで、誤報告によってレビューに至る確率は年間で1兆アカウントに1つになります。ですから、既知のCSAMのコレクションを保持しているユーザー以外の写真ライブラリをスキャンすることに興味がないという考え方に反することになりますが、しきい値を設定することで、レビューしているアカウントをNCMECに報告したとき、法執行機関は効果的に調査、起訴、有罪判決まで持っていくことができると確信できます。

関連記事
電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ
アップルが台湾・香港・中国向け刻印サービスで「ダライ・ラマ」「雨傘革命」など法的義務以上に検閲と明らかに
アップルがSiri改善のためフィードバック収集アプリ「Siri Speech Study」をひそかに提供開始
また批判を浴びるアップルの児童虐待検出技術
画像クレジット:Bryce Durbin / TechCrunch

原文へ

(文:Matthew Panzarino、翻訳:Dragonfly)

電子フロンティア財団が「アップルの大規模な監視計画に反対」と声明発表、請願書への署名を呼びかけ

電子フロンティア財団が「アップルの大規模な監視計画に反対」との声明を発表、請願書への署名を呼びかけ

EFF

アップルは今月初め、児童虐待対策をiPhoneやMacに導入するとして、2つのしくみを発表しました。ひとつは「子供がメッセージアプリで性的な写真を受信したり送ろうとすると、本人に警告しつつ親に通報する」、もうひとつは「iCloudに保存されるCSAM(子供を巻き込んだ性的に露骨な活動を描くコンテンツ)画像を検出し、当局に通報することもある」といったものです。

これに対してEFF(電子フロンティア財団)が「アップルの大規模な監視計画に反対する」との声明を発表し、iPhoneユーザーらに請願書への署名を呼びかけています。

EFFとは米国に拠点を置く非営利組織であり、デジタル世界での市民の自由を擁護することを目的とする団体です。先日もiOS 14でのアプリトラッキング制限については支持を表明しており、特に反アップルの色合いはありませんが、アップルが上記のCSAM対策を発表した直後に「私生活にバックドアを開く」として反対を表明していました

EFFは今回の声明で「大量の監視は、それがどんなに善意のものであっても、犯罪撲滅のための戦略として容認できるものではありません」と主張。その上でアップルの新方針を「次のバージョンのiOSがすべてのiPhoneに監視ソフトウェアをインストールする」とみなし、憤慨している人々に声を上げるよう訴えかけています。

この声明によれば「昨年EFFの支援者たちは、オンライン上のすべてのメッセージのスキャンを可能にする可能性があった政府の計画であるEARN IT法案を阻止しました」とのこと。ここでいうEARN IT法案とは、2020年3月に米上院議員らが提出したものであり、法執行機関が令状を取得した場合に、テクノロジー企業が暗号化データの解除を支援するよう義務づける内容でした。要は暗号解読バックドア法案ということで、否決に追い込まれています。

そしてEFFはアップルの計画を「すべてのiPhoneで写真のスキャンを可能にする」と定義し、EARN IT法案と同じように受け入れられないことを表明すべきだとの趣旨を述べています。

EFFいわく、アップルがiPhoneに導入しようとしている「スキャンシステム」は2つ。ひとつは「iCloudにアップロードされた写真をスキャンし、法執行機関が子どもに対する犯罪を調査する」ために準政府機関である全米行方不明・被搾取児童センター(NCMEC)を初めとした団体が持つCSAMデータベースと比較するシステムです。

もう1つは、保護者(iCloudファミリー共有が設定されている場合)が選んだ場合に作動するもので、未成年者が送信したiMessagesを調査し、あらゆる種類の「性的に露骨な」素材を探すアルゴリズムと照合するもの。その類の画像が検出された場合、iPhoneは本人、場合によっては親に年齢に応じた通知を行うーーといったEFFの解釈は、アップルの説明とも一致しています。

ちなみにアップル幹部はCSAM対策に批判が湧き起こった直後、この2つの施策を一度に発表したことで「アップルがメッセージアプリを検閲している」との誤解を招いてしまったと認め、もう少し違いをハッキリさせれば良かったと反省を述べていました

さてEFFの声明に戻ると「これらのシステムは、私たちのプライバシーとセキュリティを脅かすもの」であり、iCloud画像のスキャンについては「すべてのiCloud写真ユーザーのプライバシーを侵害」し、「政府が作成したCSAMの秘密データベースと照合する」と批判。かたやメッセージアプリでの保護者通知スキャンには「エンドツーエンドの暗号化の約束を破るもの」との見解を述べています。

締めくくりにEFFは、アップルの施策を「虐待する親のことを考慮していない」と分析し、ひいては「権威主義的な政府がその拡大(画像スキャンやメッセージの検閲など)を推し進めようとする」危険があると指摘しています。

これまでの批判に対してアップルは、iCloud写真スキャンは動画には適用されず、政府による利用もあり得ないと反論しています。しかし、一度そうしたしくみを作ってしまえばバックドアに転用される可能性を完全には否定しがたく、また一企業に過ぎないアップルが現地の法律に従わざるを得ないことはすでに証明済みです

そもそも一連の批判や混乱は、アップルが外部の児童虐待対策団体などに(少なくともNCMECや一部組織以外は)相談せず、すでに世界的なプラットフォームになったiPhoneについて、一方的にプライバシーに踏み込む施策を打ち出したことが大きな原因とも思われます。今後アップルはさらなる説明を追加するか、譲歩を迫られるのかもしれません。

(Source:EFF(1)(2)Engadget日本版より転載)

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

中国で企業の個人情報の扱い定める「個人情報保護法」が可決、EUのGDPR相当・個人情報の国外持ち出しを規制

AerialPerspective Works via Getty Images

中国が、ユーザーデータ保護法(PIPL)案を可決したと新華社が伝えています。PIPLは、企業がユーザーデータをどのように収集、処理、保護するかについての包括的なルールを定めるもので、欧州のGDPR(一般データ保護規則)に相当する法律です。

この法律では、データの最小化(データ収集を特定の目的に必要な情報のみに限定すること)が規定されています。また、個人情報の使用方法をユーザーがコントロールできるようにすることも義務付けられており、例えばユーザーにはターゲティング広告を拒否する選択肢などが得られるとのこと。Reutersによると、PIPLでは「企業は明確かつ合理的な目的のもとで個人情報を取り扱わなければならず、取得する情報は目的のために必要最小限な範囲に限定される」とのこと。

また、この法律には第三国へのデータ転送に関しても規定があり、GDPRに定められるデータ保護責任者 (DPO) 的ポストを設置して、プライバシー保護の堅牢性について定期的な監査が行われるとされます。

中国ではPIPLの他にもデータセキュリティ関連の法律(DSL)が可決され9月1日から施行されることになっており、これらは企業が持つ経済的価値と「国家安全保障との関連性」に応じてデータを管理するための明確な枠組みを定めようという動きで、この点においてPIPLは欧州市民の情報を扱うあらゆる企業に適用されるGDPRとは異なっているようです。

中国がこうした法律を用意するのは、巨大化してきた国内テクノロジー企業への規制を強めるためと考えられます。中国最大のEC企業アリババは今年4月に、その支配的立場を乱用した廉で、182億2,800万元(2916億4800万円:当時)の行政処罰を科せられました。またネット配車サービスのDiDiも7月、ニューヨーク証券取引所への新規株式公開(IPO)をおこなった直後に、中国サイバースペース管理局(CAC)がユーザーのプライバシーを侵害した疑いがあるとして調査に入ったことが伝えられ、その出足を大きくくじかれています。また8月7日にはWeChatの”Youth Mode”が児童保護法に違反しているとして、テンセントが提訴されています。

PIPLは2021年11月1日に発効するため、企業がこの法律に対応するための猶予は2か月ほどしか余裕がありません。

(Source:Xinhua。Via CNBCEngadget日本版より転載)

中国で個人情報保護法が可決

中国で個人情報の保護を義務付ける法案が可決されたと、国営メディアの新華社が報じた。

この法律は「個人情報保護法(PIPL)」と呼ばれ、11月1日に施行される予定だ。

2020年提出されたこの法案は、ユーザー情報の収集に法的な制限を加えることで、商業分野における無節操なデータ収集を厳しく取り締まろうとする中国の共産党指導者の意図を示している。

関連記事:中国のインターネット規制当局は強制的なユーザーデータの収集を標的に

新華社によると、この新法はアプリメーカーに対し、個人の情報をどのように使用するか、あるいは使用しないか、そして使用する場合は個人の特性に基づいてマーケティングを行うか、あるいはマーケティングの対象としないか、といったことについての選択肢を、ユーザーに提供するよう求める。

また、この法律は、生体認証、医療・健康データ、財務情報、位置情報など、センシティブな種類のデータを取り扱う場合、個人から同意を得ることをデータ処理者に要求する。

ユーザーデータを違法に処理したアプリは、サービスの停止または終了を強いられるおそれがある。

中国でビジネスを行う欧米企業が、市民の個人データの処理をともなうビジネスを行う場合、この法律の域外適用に対処しなければならない。つまり、外国企業は、中国国内に代表者を配置し、中国の監督機関に報告しなければならないなどの規制上の要件に直面することになる。

表面上は、中国の新しいデータ保護制度の中核となる要素は、欧州連合(EU)の法律に長年にわたり組み込まれてきた要件とよく似ている。EUの一般データ保護規則(GDPR)では、個人データに深く関係する包括的な権利を市民に提供している。例えば、健康に関するデータなど、EU法が「特別なカテゴリーのデータ」と呼ぶ個人情報を処理する際には、同意に高いハードルを設けている(ただし、どのような個人情報が取り扱いに最も細心の注意を要するとみなされるかについては、各国のデータ法によって違いがある)。

また、GDPRの適用範囲も域外に及ぶ。

しかし、中国のデータ保護法が施行される状況の背景は、当然ながら欧州とは大きく異なる。特に、中国国家が膨大なデータ収集活動を利用して自国民の行動を監視し、取り締まっていることを考えるとなおさらだ。

PIPLが中国政府の各部門による市民のデータ収集に何らかの制限を課すとしても(この法律の草案では、国家機関も対象となっていた)、それはほとんど上辺だけの取り繕いに過ぎない可能性がある。中国共産党(CCP)の国家安全保障組織によるデータ収集を継続させ、政府に対する中央集権的な統制をさらに強化するためであると考えられるからだ。

また、中国共産党がこの新しいデータ保護規則を利用して、どのように国内のハイテク部門の力をさらに規制しようとする(「飼いならす」と言ってもいい)かも注目される。

中国共産党は、規制の変更をTencent(テンセント)のような大手企業に対する影響力として利用するなど、さまざまな方法を使ってこの分野を取り締まってきた。例えば今月初め、北京市はTencentのメッセージングアプリ「WeChat(ウィーチャット)」の青少年向けモードが、未成年者保護法に準拠していないと主張し、同社に対し民事訴訟を起こした

PIPLは、中国政府に国内のハイテク企業に制約を加えるための攻撃材料を豊富に提供することになる。

また、欧米の大手企業では当たり前のように行われているが、中国国内の企業が行うと摩擦が大きくなりそうなデータマイニングの実行に対しても、一刻の猶予も与えず攻撃している。

Reuters (ロイター)によると、全国人民代表大会(全人代)は同日、この法律の成立を記念して、国営メディア「人民法院報」に論説を掲載した。この論説では、この法律を称賛するとともに、レコメンドエンジンのような「パーソナライズされた意思決定」のためのアルゴリズムを使用する事業者は、まずユーザーの同意を得るよう求めている。

論説には次のように書かれている。「パーソナライズはユーザーの選択の結果であり、真のパーソナライズされたレコメンデーションは、強制することなくユーザーの選択の自由を確保しなければならない。したがって、ユーザーにはパーソナライズされたレコメンデーション機能を利用しない権利が与えられなければならない」。

中国以外の国でも、アルゴリズムによるターゲティングに対する懸念は、もちろん高まっている。

欧州では、議員や規制当局が行動ターゲティング広告の規制強化を求めている。欧州委員会は、デジタル市場法(Digital Markets Act)とデジタルサービス法(Digital Services Act)という、この分野を規制する権限を拡大する新たなデジタル規制案を2020年12月に提出し、現在協議を行っている過程にある。

インターネットの規制は、明らかに新しい地政学的な戦いの場であり、各地域はそれぞれの経済的、政治的、社会的な目標に合ったデータフローの未来を形作るために争っている。

関連記事:EUの主管プライバシー規制当局が行動監視に基づくターゲティング広告の禁止を求める
画像クレジット:George / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Hirokazu Kusakabe)

【コラム】自由とプライバシーの保有格差、デジタルフロンティアにおける不平等の拡大

プライバシーは感情的な側面がある。不快なデータエクスペリエンスにさらされて脆弱性や無力感を感じたとき、私たちは往々にしてプライバシーの価値を最大限に高めるものだ。しかし裁判所の視点では、感情は必ずしも、プライバシーの法的体系における構造的変化につながるような損害あるいは理由をなすものとはみなされない。

米国が切実に必要としているプライバシーの改善を促進するには、拡大するプライバシーの格差と、それがより広範な社会的不平等に及ぼす影響について、実質的な視点を持つ必要があるかもしれない。

Appleのリーダーたちは2020年に、App Tracking Transparency(ATT)に関するアップデート計画を発表した。端的にいうと、iOSユーザーは、アプリが他社のアプリやウェブサイトを横断して自分の行動を追跡するのを拒否することが可能になる。このアップデートにより、iOSユーザーの実に4分の3が、アプリ間トラッキングからオプトアウトしている。

ターゲティング広告の個別プロフィール作成に利用できるデータが少なくなることから、iOSユーザー向けのターゲティング広告は、広告代理店にとって効果的かつ魅力的なものとは映らなくなってきている。その結果として、広告主がiOS端末に費やす広告費は3分の1程度減少していることが、最近の調査で明らかになった。

広告主らはその資金をAndroidシステムの広告に振り向けている。AndroidはモバイルOSの市場シェアの42.06%余りを占めており、一方iOSは57.62%だ。

こうした動きが生み出すプライバシーの格差は、漠然とした不快感を超えたところにある、感情的、評判的、経済的などの実質的な害のリスクを徐々に高めていくだろう。多くのテック企業がいうように、プライバシーが私たち全員に等しく帰属するのであれば、なぜそれほどのコストが費やされているのか。あるユーザーベースがプライバシー保護措置を講じると、企業は単純に、最も抵抗の少ない道に沿って、法的または技術的なリソースがより少ない人々に向けてデータプラクティスを方向転換するのだ。

単なる広告以上のもの

Android広告への投資が増えるにつれて、広告テクニックはより巧妙になるか、少なくともより積極的になることが予想される。カリフォルニア州のCCPAのような関連法の下で、ユーザーのオプトアウトの法的権利を遵守する限りにおいては、企業がターゲティング広告を行うことは違法ではない。

これは2つの差し迫った問題を提起している。第1に、カリフォルニア州を除くすべての州の住民には現在、そのようなオプトアウト権がない。第2に、ターゲティング広告をオプトアウトする権利が一部のユーザーに供与されていることは、ターゲティング広告に害あるいは少なくともリスクがあることを強く示唆している。そして実際にそうしたことはあり得るのだ。

ターゲティング広告では、第三者がユーザーの行動に基づいてユーザーのプロフィールを舞台裏で構築し、維持する。フィットネスの習慣や購買パターンなど、アプリのアクティビティに関するデータを収集することで、ユーザーの生活の微妙な側面に対するさらなる推測につながる可能性がある。

この時点で、ユーザーの表現は、ユーザーが共有することに同意していないデータを含有する(正しく推測されているかどうかに関係なく)、規制が不十分なデータシステム内に存在することになる。(ユーザーはカリフォルニア州居住者ではなく、米国内の他の場所に居住しているものと想定)

さらに、ターゲティング広告は、ユーザーの詳細なプロフィールを構築する上で、住居取得や雇用の機会における差別待遇を生む可能性があり、場合によっては連邦法に違反することもあることが調査で明らかになっている。また、個人の自律性を阻害し、ユーザーが望まない場合でも、購入の選択肢を先取りして狭めてしまうこともある。その一方で、ターゲティング広告は、ニッチな組織や草の根組織が関心のあるオーディエンスと直接つながるのを支援することができる。ターゲティング広告に対するスタンスがどのようなものであっても、根本的な問題となるのは、対象となるかどうかについてユーザーが発言権を持たない場合だ。

ターゲティング広告は大規模で活況を呈するプラクティスだが、ユーザーのデータを尊重することを優先していない広範なビジネス活動網の中のプラクティスとしては唯一のものだ。米国の多くの地域ではこうした行為は違法ではないが、法律ではなく、自らのポケットブックを使用することで、データの軽視を回避することができる。

高級品としてのプライバシー

著名なテック企業各社、特にAppleは、プライバシーは人権であると宣言しているが、これはビジネスの観点において完全に理に適っている。米国連邦政府がすべての消費者のプライバシー権を成文化していない現状では、民間企業による果敢なプライバシー保護のコミットメントはかなり魅力的に聞こえる。

政府がプライバシー基準を設定しなくても、少なくとも筆者の携帯電話メーカーはそうするだろう。企業が自社のデータをどのように利用しているかを理解していると回答した米国人はわずか6%にとどまっているにしても、広範なプライバシー対策を講じているのは企業である。

しかし、プライバシーを人権だと宣言する企業が、一部の人にしか手が届かない製品を作っているとしたら、それは私たちの人権について何を物語っているだろうか?Apple製品は、競合他社の製品に比べて、より裕福で教育水準の高い消費者に偏っている。これは、フィードバックループが確立され、持てる者と持たざる者との間のプライバシー格差がますます悪化するという厄介な未来を投影している。プライバシー保護を得るためのリソースがより少ない人は、ターゲティング広告のような複雑なプラクティスに付随する技術的および法的な課題に対処するためのリソースがより限定されてしまう可能性がある。

これについて、プライバシーとアフォーダビリティを巡ってAppleとの確執を抱えるFacebookの側に立つものだと解釈しないようにしていただけたらと思う(最近明るみに出たシステムアクセス制御の問題を参照)。筆者の考えでは、その戦いにおいてどちらの側も勝ってはいない。

私たちには、誰もが手にすることができる、有意義なプライバシー保護を受ける権利がある。実際、その表現を重要な論点へと転換するならば、どの企業も自社製品から除外するべきではない、尊重すべきプライバシー保護を受ける権利を、私たちは有している。プライバシーの意義に重きを置き、プライバシーの広範な適用を確保するという、両方の側面を満たす「both/and(両方 / および)」アプローチがなされるべきである。

私たちが進むべき次なるステップ

先を見据えると、プライバシーの進歩には2つの鍵となる領域がある。プライバシーに関する法制化と開発者のためのプライバシーツールである。筆者はここで再び、both/andアプローチを提唱する。私たちは、テック企業というよりも、消費者のために信頼できるプライバシー基準を設定する立法者を必要としている。また、開発者がプロダクトレベルでプライバシーを実装しない理由(財務的、ロジスティクス的、またはその他の理由)を持たない、広範な適用を確保できる開発者ツールも必要だ。

プライバシーの法制化に関しては、政策の専門家がすでにいくつかの優れた論点を提起していると思う。そこで、筆者が気に入ったいくつかの最近の記事へのリンクを紹介しよう。

Future of Privacy ForumのStacey Gray(ステイシー・グレイ)氏と彼女のチームは、連邦プライバシー法と、州法の新たな寄せ集めとの相互作用に関する、良質のブログシリーズを公開している。

Joe Jerome(ジョー・ジェローム)氏は、2021年の州レベルのプライバシー状況と、すべての米国人のための広範なプライバシー保護への道筋について見事な要約を発表した。重要なポイントとして、プライバシー規制の有効性は、個人と企業の間でいかにうまく調和するかにかかっていることが挙げられている。これは、規制がビジネスに優しいものであるべきだということではなく、企業は明確なプライバシー基準を参照できるようにして、日々の人々のデータを自信を持って、敬意を払って処理できるようにすべきだということを示している。

プライバシーツールに関しては、すべての開発者に対してプライバシーツールへの容易なアクセスとアフォーダビリティを確保することで、プライバシー基準を満たすための弁解をテクノロジーに一切残さないことになる。例としてアクセス制御の問題を考えてみよう。エンジニアは、すでに機密性の高い個人情報が蓄積されている複雑なデータエコシステムにおいて、多様なデータにどの担当者とエンドユーザーがアクセスできるかを手動で制御しようとする。

そこでの課題は2つある。まず、すでに取り返しの難しい状況にある。技術的負債が急速に蓄積される中、プライバシーはソフトウェア開発の外に置かれている。エンジニアには、本番稼働前に、微妙なアクセス制御などのプライバシー機能を構築できるツールが必要だ。

このことは第2の課題につながっている。エンジニアが技術的負債をすべて克服し、コードレベルで構造的なプライバシーの改善を行うことができたとしても、どのような標準や広く適用可能なツールが使用できる状態にあるだろうか?

Future of Privacy Forumによる2021年6月のレポートが明らかにしているように、プライバシー技術には一貫した定義が切実に求められており、それは信頼できるプライバシーツールを広く採用するために必要なものだ。より一貫した定義と、プライバシーのための広く適用可能な開発者ツールという、技術的なトランスフォーメーションは、XYZブランドの技術に限られない全体的な技術としてユーザーによる自身のデータ制御に寄与する方法の、実質的な改善に結びつく。

私たちには、このゲームに関わっていない機関によって設定されたプライバシー規則が必要だ。規制だけでは現代のプライバシーの危険から私たちを守ることはできないが、有望な解決策には欠かせない要素である。

規制と並行して、すべてのソフトウェアエンジニアリングチームは、すぐに適用可能なプライバシーツールを持つべきである。土木技術者が橋を建設しても、一部の人々にとっては安全ではない可能性がある。橋の安全性は、横断するすべての人のために機能しなければならない。デジタル領域内外の格差を拡大させないようにする上で、データインフラストラクチャについても同じことが言えるだろう。

編集部注:本稿の執筆者のCillian Kieran(シリアン・キエラン)は、ニューヨークを拠点とするプライバシー企業EthycaのCEO兼共同設立者。

関連記事
【コラム】消費者の同意を取り付けるためだけのプライバシー通知をやめませんか?
【コラム】プログラマティック広告における広告詐欺と消費者プライバシー乱用との戦い方
画像クレジット:PM Images / Getty Images

原文へ

(文:Cillian Kieran、翻訳:Dragonfly)

グーグルが検索やYouTubeなどの自社プラットフォームにおける未成年者保護を強化

Instagramがアプリを利用する未成年者の保護の強化を展開して数週間経過し、Google(グーグル)もGoogle検索、YouTube、YouTube Kids、Google Assistantなどのサービスにも同様の措置を講じることとなった。同社は米国時間8月10日、オンライン上の若年層を非公開にして保護された状態を維持できるようにサービスおよびポリシーを変更すると発表。広告ターゲットを制限する変更も行う。

関連記事:Instagramが10代ユーザーのアカウントをデフォルトで非公開に、広告や望まない大人からの接触を制限

Googleのサービスは1つのアプリに限定されるものではないので、Instagramの発表よりもさらに広範囲で、同社のサービス全体にわたる変更になる。

米国議会は、Googleをはじめとするハイテク企業に対し、企業のサービスが未成年者に与える悪影響を排除するよう圧力をかけてきたが、Googleは、法律で要請される以上の変更を行うという。

Googleの広報担当者は、TechCrunchの取材に対し次のように話す。「今後の規制に対応するアップデートもありますが、私たちはGoogleとYouTubeを利用するティーンエイジャーを保護するために、法律が要請する以上のことを行ってきました」「これらの変更の多くは、現在および今後発生し得る単体の規制を超えるものです。私たちは、世界中の子どもたちやティーンエイジャーに向けて、一貫性のあるエクスペリエンスとユーザーコントロールを提供する方法を検討しています」。

つまり、Googleは、現状に対応するだけでなく、業界の将来を考慮したアップデートを行うというのだ。

YouTubeでは、13~17歳のユーザーを対象に、デフォルトのアップロード設定を、最も限定的なものに「徐々に」変更していくという。これにより、動画の公開範囲は、一般ユーザーではなく、ユーザー本人と、本人が直接共有する相手に限定されることになる。アップロード設定を「公開」に変更することは可能だが、その際には明確かつはっきりとした意思を持つ選択が必要だ。Googleはこの場合、YouTubeに、自分のビデオの公開範囲を示すリマインダーを設置するとしている。なお、今回の変更はYouTubeの新規アップロードにのみ適用され、現在公開されている動画を遡って非公開にする予定はないとのこと。

また、YouTubeは、13~17歳のすべてのユーザーに対して「休憩」と「おやすみ」のリマインダーをデフォルトで有効にし、自動再生を無効にする。繰り返しになるが、これらの変更は、デフォルトの設定に関するものであり、ユーザーはDigital Wellbeing(デジタルの健全な利用)機能を無効にすることができる。

YouTubeの子ども向けプラットフォーム「YouTube Kids」には、自動再生オプションが追加される。このオプションはデフォルトでは無効になっており、子どもに自動再生機能を使わせるかどうかは保護者の判断になる。この変更は、子どもの安全支援団体や一部の国会議員による、アルゴリズムを使った機能に問題があるという指摘に対応し、選択を保護者の判断に任せるというものだ。保護者はデフォルトの選択をロックすることもできるようになる。

YouTube Kidsからは「過度に商業的なコンテンツ」も削除される。これは長らく「YouTubeは子どもたちによる消費(正確には、親にお金を使わせてくれと頼むこと)を助長している」と主張してきた消費者保護団体や子どもの専門家からの圧力が高まったことを受けた措置である。

許容できるコンテンツと「過度に商業的な」コンテンツの線引きは明確ではないが、例えば人気のある「開封の儀」動画のような、商品のパッケージに焦点を当てた動画は削除するとしている。この変更は、YouTubeで子ども向けの動画を制作している大手クリエーターの中でも、非常に高額な収入を得ているRyan’s Toy Review(ライアンズ・ワールドのおもちゃレビュー)のようなクリエーターに影響を与える可能性がある。同社は商品パッケージの他にも「視聴者に商品の購入を煽る」コンテンツや「商品の過剰な収集や消費に焦点を当てたコンテンツ」の削除も検討するとしている。

画像クレジット:YouTube

YouTube以外でも、未成年者を対象とする変更が展開される。

今後数週間のうちに、Googleは、18歳未満のユーザーまたは保護者が、Google画像検索の検索結果から自分の画像の削除を要請できるようにする新しいポリシーを導入する。これは、欧州ですでに実施されている「忘れられる権利」のプライバシーポリシーを拡張するもので、子どもとティーンエイジャーを守る新しいサービスと制御方法が全世界で展開されることになる。

また、18歳未満のユーザーアカウントについても、さまざまな調整を行う。

YouTubeの変更に加えて、Googleファミリーリンクで管理している13歳未満のすべてのユーザーに対してセーフサーチフィルタリングをデフォルトで有効にして、アダルトコンテンツへのアクセスを制限する。また、18歳未満のすべてのユーザーに対してセーフサーチを有効にし、新たにアカウントを作成するティーンエイジャーにもセーフサーチをデフォルトで適用する。Googleアシスタントでは、スマートスクリーンやウェブブラウザなどの共有デバイスで、セーフサーチの保護機能がデフォルトで有効になる。先の発表のとおり、Google Workspace for Educationを使用している学校の設定でも、セーフサーチがデフォルトになり、ゲストモードやシークレットモードのウェブブラウジングへの切り替えもデフォルトで無効になる。

位置情報の履歴はすべてのGoogleアカウントでデフォルトで無効になっているが、今後は管理対象のアカウントを利用している子どもたちについて、位置情報の履歴を有効にすることはできなくなる。この変更は全世界の18歳未満のユーザーに適用される。法的に成人するまで位置情報を有効にすることはできない、ということだ。

また、Google Playでは、アプリがファミリーポリシーに従っているかどうかを保護者に知らせるセクションが新設され、アプリ開発者は、自分のアプリがどのようにデータを収集・利用しているかを開示することが必要になる。これらの機能は、Apple(アップル)の「App Storeのプライバシーラベル」に一部ヒントを得たもので、すでにAndroid開発者向けに詳細が発表されている

Googleのペアレンタルコントロールツールも拡充される。ファミリーリンクを利用している保護者は、アシスタント機能を搭載したスマートデバイスで、ニュース、ポッドキャスト、ウェブページへのアクセスをフィルタリングしたり、ブロックしたりすることができるようになる。

広告主にとっても重要な変更がある。

Googleによると、年齢制限のある広告カテゴリーがティーンエイジャーに表示されないようにするための保護機能を拡充し、18歳未満のユーザーに対しては、年齢、性別、興味や関心などの要素に基づく広告ターゲティングをブロックするという。ティーンエイジャーや子どもをターゲットにする際に「興味や関心」のデータを利用しないという点は、Instagramが導入した広告の変更に似ているが、Instagramは年齢や性別によるターゲティングを許可している。Googleは年齢や性別によるターゲティングを許可しないことになり、この変更は「今後数カ月のうちに」全世界に展開されるとのことだ。

GoogleとYouTubeにおけるすべての変更は、今後数週間~数カ月の間に全世界で展開される予定である。

関連記事
米国政府がグーグルに要求した令状の4分の1がジオフェンスに関するもの
Googleが2要素認証で利用するTitanセキュリティキーのラインアップ簡素化、Bluetooth版廃止・NFC対応USB-C版追加
YouTubeの動画レコメンドAIは依然として悪行を重ねていることが大規模調査で判明
画像クレジット:Nicolas Economou / Getty Images

原文へ

(文:Sarah Perez、翻訳:Dragonfly)