米議会襲撃の暴徒に「顔を使って」ノートPCのロック解除を裁判所が命令、生体認証に黙秘権使えず

ワシントンD.C.の連邦判事は、米国連邦議会議事堂で2021年1月6日に起きた暴動に参加した罪に問われている男性に対し、彼のノートパソコンに反政府暴動未遂の罪を明らかにするビデオ映像が入っている可能性が高いと検察側が主張したため、「顔により」ノートパソコンのロックを解除するよう命じた。

Guy Reffitt(ガイ・リフィット)容疑者は、暴動に参加してから3週間後の2021年1月下旬に逮捕され、以来、刑務所に収監されている。彼は、国会議事堂敷地内への銃器の持ち込みや司法妨害罪など、5つの連邦容疑に対して無罪を主張している。WindowsノートPCはFBIが押収した複数のデバイスのうちの1つで、パスワードで保護されていたが、レフィット容疑者の顔を使ってロックを解除できたと捜査当局は述べている。

検察によると、このノートパソコンには、暴動の一部を記録するために使用したとされるレフィット容疑者のヘルメット装着型カメラの映像が数GB単位で入っていたことが、科学捜査の結果から判明したという。検察側は、パソコンのロックを解除するために、レフィット容疑者がパソコンの前に座ることを強要できるかどうか裁判所に尋ねていた。

レフィット容疑者の弁護士は、依頼人はパスワードを「覚えていない」と裁判所に伝えていたが、裁判所は検察を支持し、容疑者の生体認証を強要する申し立てを認めた。レフィット容疑者の弁護士は、裁判所の命令を最初に報じたCNNに対し、ノートパソコンのロックが解除されたことを明らかにした。

政府は、憲法修正第5条の抜け穴を利用したことになる。憲法修正第5条は、米国内の誰にでも黙秘権を認めており、パスワードなど、自己負罪となるおそれがある情報を提供しない権利もそれに含まれている。しかし、一部の裁判所は、これらの保護はパスワードの代わりに使用できる人の身体的属性、例えば顔面スキャンや指紋などには及ばないと判断している。

レフィット容疑者の起訴状では、FBIはそのように述べており、コンピュータの前に座ることで同氏にコンピュータのロックを解除することを強要しても、「被告人の自己負罪に対する憲法修正第5条の権利には抵触しない」と主張している。

全米各地の裁判所は、修正第5条の解釈と、それが個人のバイオメトリクスの強制使用に適用されるかどうかについて、まだ意見が分かれている。米国最高裁がこの問題をすぐに取り上げることはないだろう。最高裁は、この問題を裁定するための請願をここ2年の間に2度却下しており、その結果、適用は各州の判断に委ねられている。

関連記事
顔認証の使用禁止措置や論争にもかかわらず同スタートアップには巨額の資金が注がれている
メイン州も危険なバイアスのかかった監視技術、顔認識導入を拒絶する自治体に
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止

カテゴリー:パブリック / ダイバーシティ
タグ:ワシントンD.C.顔認証アメリカノートパソコン生体認証

画像クレジット:U.S. Courts / supplied

原文へ

(文:Zack Whittaker、翻訳:Aya Nakazato)

顔認証の使用禁止措置や論争にもかかわらず同スタートアップには巨額の資金が注がれている

顔認証の使用を抑制するプライバシー規制の導入という地方自治体による取り組みを考えると、顔認証テクノロジーを開発している企業の最悪の事態を想像するかもしれない。しかし最近の投資資金の流入からするに、顔認証スタートアップ業界は苦境に陥るどころか、むしろ繁栄している。

関連記事
メイン州も危険なバイアスのかかった監視技術、顔認識導入を拒絶する自治体に
反人種差別デモの発端となったミネアポリス市が警察による顔認識技術の使用を禁止

顔認証は最も議論を呼び、また複雑な政策分野の1つだ。このテクノロジーはあなたがどこにいるのか、何をしているのかを追跡するのに使うことができる。公的機関や店舗などの民間企業によって使用されている。しかし顔認証は往々にして非白人の顔を誤認したり、有色人種のコミュニティに偏った影響を与えるなど、欠陥があり、また不正確であることが示されてきた。欠陥のあるアルゴリズムは無実の人を刑務所に送るのに使われ、プライバシープライバシー擁護派はこの種の生体認証データの保存・使用法について数え切れないほどの懸念を示してきた。

関連記事
アメリカの複数の国会議員がAmazonの顔認識ソフトウェアの精度で質問状、表現の自由の無視、人種差別の疑いも
Amazonの顔認識ソフトウェアを人権団体がプライバシー侵害で懸念、AMZNは歯牙にもかけず
アマゾンが顔認識技術を地方警察には1年間提供しないと表明、FBIへの提供についてはノーコメント

連邦法の制定が迫っているという恐れから、AmazonやIBM、Microsoftといった最大の顔認証会社の一部は投資家、顧客、そして米政府や入国管理局によるそうしたテクノロジーの使用に抗議した自社社員の怒りを和らげようと、顔認証技術の警察部門への販売を停止すると発表した

顔認証への抵抗はそこで止まらなかった。年初以来、メイン州マサチューセッツ州ミネアポリス市は何らかの形で顔認証の使用を制限したり禁止したりする法案を可決した。他の多くの市や州に続く動きで、ニューヨーク市も独自の規制を導入している。

関連記事
反人種差別デモの発端となったミネアポリス市が警察による顔認識技術の使用を禁止
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止

そうした動きと重なるここ6カ月ほど、投資家らはいくつかの顔認証スタートアップに数億ドル(数百億円)もの金を注いできた。FindBiometricsによるCrunchbaseデータの分析では、顔認証企業へのベンチャーファンディング額は2020年に通年で6億2200万ドル(約686億円)だったのに対し、2021年はこれまでのところ5億ドル(約551億円)を超えている。

5億ドルのおおよそ半分はスタートアップ1社のものだ。イスラエル拠点のスタートアップAnyVisionは7月上旬、学校やスタジアム、カジノ、小売店などで使われている顔認証技術のためにシリーズCでソフトバンクのVision Fund 2から2億3500万ドル(約259億円)を調達した。顧客の1社として知られているのがMacy’sで、同社は万引き犯を特定するために顔スキャニング技術を使用している。MicrosoftがAnyVisionのシリーズAでの投資を撤回した1年前に比べ、投資ラウンドの規模は急拡大している。Microsoftは、イスラエル政府によるヨルダン川西岸の住民の監視にAnyVisionのテクノロジーが使用されていた、という報道についての元米司法長官Eric Holder(エリック・ホルダー)氏による調査を受けて投資を撤回した。

関連記事
物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達
マイクロソフトが顔認証スタートアップから撤退、海外の顔認証技術への投資を終了
米移民局や検察局などが採用中の顔認識技術が一般企業にも売られていた

ユーザーに通知することなくユーザーの顔認証を使用していたと非難され、論争によって評判を落としたParavisionはJ2 Venturesがリードしたラウンドで2300万ドル(約25億円)を調達した。

そして先週、議論の的となっている顔認証スタートアップのClearview AIは「名前を公表しないで欲しい」と依頼されて「機関投資家とプライベートなファミリーオフィス」とした投資家から3000万ドル(約33億円)を調達したことをニューヨークタイムズ紙に認めた。Clearview AIはいくつかの政府による調査の対象となっていて、ソーシャルメディアサイトから何十億枚というプロフィール写真をスクレイピングしていた疑いで複数の集団訴訟も起こされている。つまり、投資家らは顔認証システムの構築に喜んで金を注いでいる一方で、そのテクノロジーに自分の名前を絡ませることのリスクと論争をしっかりと認識している。

顔認証の応用と顧客は幅広く、このテクノロジーに関しては大きなマーケットが広がっている。

顔認証を禁止した自治体の多くは、特定の状況での使用、あるいはそのテクノロジーを自由に購入して使用することができる民間企業向けに幅広い免除も設けている。米政府が新疆ウイグル自治区の少数民族ウイグルのイスラム教徒に対する人権侵害に関係づけているHikvisionやDahuaといった中国拠点の多くの顔認証企業、そして米政府がブラックリストに載せている何十ものスタートアップの排除は、政府などを顧客とする最も儲けの多い米国マーケットで競争を促すのに一役買った。

しかし顔認証には引き続き厳しい目が向けられていて、テクノロジーが誤って使用されることがないよう一層の取り組みを投資家らは企業に促している。

合計4兆5000億ドル(約496兆5075億円)超の資産を持つ投資家50人のグループは6月、AmazonやFacebook、Alibaba、Huaweiなど何十もの顔認証企業に倫理的にテクノロジーを構築するよう要求した。

「一部のケースでは、顔認証のような新しいテクノロジーは私たちの基本的権利を損なっています。このテクノロジーはほぼ制約のない方法でデザイン・使用されていて、基本的人権にとってリスクとなっています」と声明文には書かれた。

倫理の問題だけではない。さらなる政治的な逆風が不可避である業界の将来性を証明しようという問題でもある。欧州連合のデータ保護当局は4月、域内の公共の場での顔認証の使用停止を要求した。

声明文には「大規模な監視が拡大するにつれ、テクノロジー面でのイノベーションは人権保護をしのいでいます。顔認証テクノロジー使用の禁止、使用に対する罰金、そしてブラックリスト掲載は増えています。こうした疑問を考慮する差し迫った必要性があります」とも書かれている。

関連記事:EUデータ保護当局のトップ監督官が公共の場での顔認識の禁止を強く要請

カテゴリー:人工知能・AI
タグ:顔認証プライバシー

画像クレジット:TechCrunch

原文へ

(文:Zack Whittaker、翻訳:Nariko Mizoguchi

メイン州も危険なバイアスのかかった監視技術、顔認識導入を拒絶する自治体に

顔認識のような危険なバイアスのかかった監視技術の導入を拒絶する都市、郡、州が増えているが、これにメイン州も加わった。

同州の新しい法律は、米国で最も強力な州全体にわたる顔認識に関する法律であり、幅広い超党派の支持を得ただけでなく、州議会の両院で満場一致で可決された。法案を支持した進歩的な議員から、法案を委員会の外で採決した共和党議員、メイン州のACLU、州の法執行機関に至るまで、さまざまな政治的立場の議員や支持者が一堂に会し、メイン州やプライバシーの権利に関心を持つすべての人たちにとっての大きな勝利を手にした。

メイン州は、ACLUなどの草の根の活動家や組織が主導する、顔認識技術の使用を禁止または厳格に規制する全国的な運動の最新の成功事例だ。Pine Tree State(メイン州)からGolden State(カリフォルニア州)に至る、顔認識を規制する全国的な取り組みは、21世紀のデジタル時代にテクノロジーで自由の境界を決めることはできないという広範な認識を示している。

顔認識技術は、市民の権利と自由に対する深刻な脅威となっている。民主的な監視がなければ、政府がこの技術を捜査網の監視ツールとして利用し、言論と結社の自由、正当なプロセスの権利、そして放置される権利が脅かされてしまう。この技術が規制されないままだと、民主主義そのものが危機にさらされることになる。

顔認識の負荷が平等にかかっているわけではないことは認識されている。黒人や褐色人種のコミュニティ、特にイスラム教徒や移民のコミュニティは、政府による差別的監視の対象となっている。さらに悪いことに、顔監視アルゴリズムでは、肌の色が濃い人、女性、高齢者、子どもの顔を正確に分析するのが難しい傾向がある。簡単にいうと、この技術は機能していても機能していなくても、危険をはらんでいるということだ。

もっとも、この技術を規制するすべてのアプローチが平等になされているとはいえない。メイン州は、州全体の包括的な規制をいち早く可決した州に挙げられる。公民権団体、地域社会、宗教的自由団体の強い反対にもかかわらず脆弱な法案を可決したのは、ワシントンが最初だった。その法案が可決された背景には、ワシントンに本拠を置く巨大企業Microsoft(マイクロソフト)からの強力な支持があった。ワシントン州の顔認識法の下においても、テック企業は数百万ドル(約数億円)相当の自社技術を、考えられるあらゆる政府機関に売却することができるのだ。

これとは対照的に、メイン州の法律は別の道をたどり、一般のメイン州民の利益を民間企業の利潤動機よりも優先させている。

メイン州の新しい法律は、公立学校や監視目的など、行政のほとんどの分野で顔認識技術の使用を禁止している。法執行機関が顔認識を使用する際の例外を慎重に設定し、その使用基準を作成し、米国の他の地域で見られたような悪用の可能性の回避を図っている。重要なのは、メイン州で仕事をしたり、政治集会や抗議活動に参加したり、友人や家族を訪ねたり、医療を求めたりする人々に対して、顔認識技術を使って監視を行うことを禁じている点だ。

メイン州では、法執行機関が顔認識の要請を行う前に、さまざまな制限がある中で、正当な理由があるかどうかの基準を満たす必要がある。また、顔認識のマッチングを唯一の根拠として、逮捕や捜索を行うことはできない。さらに、地元の警察が独自の顔認識ソフトウェアを購入、所有、使用することも禁じられており、他の起きているように、Clearview AIのような後ろ暗い技術が、メイン州の行政当局によって秘密裏に使用されることはない。

メイン州で制定された法律をはじめとするこの種の規制は、顔認識のような未検証の新しい監視技術によってコミュニティが被害を受けないようにするために不可欠なものだ。しかし、米国人のプライバシーを顔の監視から効果的に保護するには、地方レベルの断片的なアプローチだけでなく、連邦レベルのアプローチが必要である。だからこそ、米国民にとって、2021年6月に両院の議員が提出した「顔認識および生体認証技術モラトリアム法案」を支持することには大きな意味がある。

ACLUは、米国のすべての人々を侵入的監視から保護するこの連邦法を支持している。私たちは、顔認識技術を阻止し、それを支援する運動に参加することを議員たちに要請するよう、すべての米国国民に強く呼びかけたい。

編集部注:本稿の著者であるAlison Beyea(アリソン・ベイヤ)氏はメイン州のACLUのエグゼクティブディレクター。Michael Kebede(マイケル・ケベデ)氏はメイン州のACLUの政策顧問。

関連記事
ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止
物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達
英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす

カテゴリー:人工知能・AI
タグ:メイン州顔認証プライバシー

画像クレジット:FotografiaBasica / Getty Images

原文へ

(文:Alison Beyea、Michael Kebede、翻訳:Dragonfly)

ニューヨーク市で生体情報プライバシー法が発効、データの販売・共有を禁止

収集した顧客の生体情報データで企業が行えることを制限する生体情報プライバシーの新条例がニューヨーク市で発効した。

米国時間7月9日から、生体情報を収集している企業は(最も一般的な手法は顔認証と指紋だ)データがどのように収集されているかを説明する通知とサインを、顧客が気づくようドアに表示することが求められる。この条例は、いくつか挙げると小売、店舗、レストラン、劇場など、幅広い業種の企業に適用される。また収集した生体情報を販売・共有したり、そうした情報で益を得たりすることも禁じている。

この取り組みは、生体情報データがどのように収集・使用されているのかに関して、ニューヨーク居住者、そして毎年ニューヨーク市を訪れる何百万という人を保護するものだ。一方で、差別的で往々にして機能していないと批評家が批判するテクノロジーの使用を企業に思いとどまらせる。

条例に違反した企業は厳しい罰則に直面するが、違反をすばやく正せば罰金を回避できる。

法律というのは決して完全ではないもので、こうした法律も同様だ。というのも、今回の法律は警察を含む政府機関には適用されないからだ。条例がカバーする企業の中で対象外となるのは、たとえば指紋認証で出退社する従業員だ。また、何をもって生体情報とするかについては、対象範囲を拡大したり狭めたりするという問題に直面することが考えられる。

似たような生体情報プライバシー法は2020年にオレゴン州ポートランドが制定しており、ニューヨークはポートランドに続く最新の例となる。しかしニューヨークの法律は、他の都市の強力な生体認証プライバシー法には及ばない。

イリノイ州は、同意なしでの生体データの使用を訴える権利を住民に保障する法律「Biometric Information Privacy Act」を導入している。許可を得ずに写真に写っているユーザーをタグするために顔認証を使っていたFacebookは2021年、イリノイ州の住民が2015年に起こした集団訴訟で6億5000万ドル(約716億円)を払って和解した。

ニューヨーク拠点のSurveillance Technology Oversight ProjectのエグゼクティブディレクターAlbert Fox Cahn(アルベルト・フォックス・カーン)氏は今回の法律について、ニューヨーカーがどのように地元の企業に追跡されているのかを知ることができるようになるたための「重要なステップ」だと述べた。

「偽の顔認証マッチングは、ニューヨーク市警察がRite AidやTargetへと歩いているあなたに職務質問することにつながるかもしれません」とカーン氏はTechCrunchに語った。同氏はまた、他の都市がすでにそうしたように、ニューヨークが顔認証などのシステムを非合法化することでさらに規制すべきだとも話した。

関連記事
ポートランド市の顔認識技術禁止条例は民間企業も対象になる
フェイスブックがイリノイ州のプライバシー保護法をめぐる集団訴訟で約694億円支払う
英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす

カテゴリー:パブリック / ダイバーシティ
タグ:ニューヨーク生体情報プライバシー顔認証

画像クレジット:Leo Patrizi / Getty Images

原文へ

(文:Zack Whittaker、翻訳:Nariko Mizoguchi

物議を醸し出しながらも広く使われる顔認識のAnyVisionがソフトバンクなどから約261億円調達

顔認識は、人工知能の応用分野の中でも特に問題の多い分野だ。コンピュータービジョンを使って顔を識別し、その後、その人の身元を特定することは、プライバシーやデータ保護、仕事の目的やシステム自体を支える倫理観について多くの疑問を投げかけている。しかし、その一方で、顔認識はさまざまなユースケースで広く採用されている。今回、この分野で物議を醸しながらも成功を収めているスタートアップの1つが、大規模な資金調達を完了した。

イスラエルのスタートアップであるAnyVision(エニービジョン)は、顔で人を識別するAIベースの技術を開発するだけでなく、大勢の中から高い体温の人を検出する技術も開発している。同社は2億3500万ドル(約261億円)の資金を調達したと認めた。

今回のシリーズCは、AIスタートアップとしては大規模なラウンドの1つだ。ソフトバンクのVision Fund 2とEldridge Industriesが共同でリードし、既存投資家も参加した(表には出ていないが、Robert Bosch GmbH、Qualcomm Ventures、Lightspeedなどが名を連ねている)。同社はバリュエーションを公表しておらず、問い合わせ中だ。PitchBookによると、AnyVisionは過去に約1億1600万ドル(約129億円)を調達しており、2020年の前回のラウンド以来、多くの顧客を獲得してきた。

また、AnyVisionのCEOであるAvi Golan(アビ・ゴラン)氏は、ソフトバンクの投資部門の元オペレーティングパートナーであることも特筆すべき点だ。

今回調達した資金は、SDK(Software Development Kit)の開発継続のため、特にエッジ・コンピューティング・デバイス(スマートカメラ、ボディカメラ、その他のデバイスに使用されるチップ)を動かし、同社のシステムのパフォーマンスとスピードを向上させるために使用されるという。

AnyVisionのシステムは、ビデオによる監視、監視員による警告、会社などの組織が群衆を監視・制御するといったシナリオで利用される。例えば、人数の把握、小売店での滞留時間の分析、違法行為や危険な行為の警告などに利用される。

「AnyVisionの認識AIのイノベーションは、受動的なカメラをプロアクティブなセキュリティシステムに変え、組織が高度なセキュリティの脅威に対してより全体的な視点を持つことを可能にしました」とゴラン氏は投資を発表する声明で述べた。「Access Point AIプラットフォームは、人、場所、プライバシーを保護すると同時に、コスト、電力、帯域幅、運用の複雑さを削減するように設計されています」。

多くの報道に触れ、AnyVisionの名前を知っている人もいるかもしれない。

同社は2019年、その技術によりイスラエル政府がヨルダン西岸地区のパレスチナ人の監視を密かに実行していると報道された。

同社はこれを否定したが、この話はすぐに同社の評判に大きな汚点を残すことになり、同時に顔認識の分野全体にさらなる監視の目を向けることになった。

これを受け、ベンチャー部門「M12」を通じてAnyVisionに投資していたMicrosoft(マイクロソフト)は、その投資と、顔認証投資に対する同社の姿勢を全面的に監査することになった。最終的にマイクロソフトは株式を売却し、今後、このような技術には投資しないことを約束した。

それ以来、AnyVisionは、顔認識という大きな市場には多くの課題や欠点があることを認め、この分野での「倫理的」なプレイヤーになるべく懸命に取り組んできた。しかし、同社を巡っては論争が続いている。

2021年4月のReuters(ロイター)の報道では、ロサンゼルスのCedars Sinai(シダーズ・サイナイ)のような病院から、Macy’s(メイシーズ)のような大手小売店、エネルギー大手のBPまで、今日どれだけ多くの企業がAnyVisionの技術を使用しているかが紹介されている。AnyVisionの権力とのつながりは、単に大きな顧客を持っているということだけではない。ホワイトハウスのJen Psaki(ジェン・サキ)報道官は、かつてこのスタートアップのコミュニケーション・コンサルタントを務めていた。

また7月6日、The Markupに掲載されたレポートでは、2019年に発行されたユーザーガイドブックを含むAnyVisionのさまざまな公開記録を調べ、同社がどれだけの情報を収集できるのか、どんなことに取り組んできたのかについて、かなり不利な状況を描いている(ある試験運用とその報告書では、テキサス州の学区の子どもたちを追跡している。AnyVisionは、わずか7日間で5000枚の生徒の写真を収集し、16万4000件以上の検出を行った)。

しかし、AnyVisionの技術が役に立ち、有用となり、あるいは歓迎されると思われるケースは他にもある。例えば、体温を検知して、高い体温の人と接触した人を特定する機能は、新型コロナウイルスの不明瞭なケースをコントロールするのに役立つ。例えば、人が集まるイベントでウイルスを封じ込め、遂行するための安全策を提供する。

また、これは明確にしておきたいが、この技術を開発・展開している企業はAnyVisionだけではなく、監視の目にさらされているのもAnyVisionだけではない。米国のClearview AIは、何千もの政府や法執行機関で利用されているが、2021年初め、カナダのプライバシー当局から「違法」と判断された。

実際、こうした技術がどのように発展していくのか、どのように使用されるのか、そして一般の人々がこれをどうに見るようになるのかという点においても、物語は完結していないようだ。今のところ、論争や倫理的な問題があったとしても、AnyVisionの勢いはソフトバンクを動かしているようだ。

「視覚認識市場は初期段階にありますが、欧米では大きな可能性を秘めています」と、ソフトバンク・インベストメント・アドバイザーズのパートナーであるAnthony Doeh(アンソニー・ドー)氏は声明で述べた。「我々は他のカテゴリーでAI、バイオメトリクス、エッジコンピューティングによる変革の力を目の当たりにし、AnyVisionが数多くの業界で物理環境分析を再定義するユニークな位置にあると信じています」。

関連記事
Clearview AIの顔認識技術はカナダでもプライバシー侵害で違法
英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす
スマホ電子チケット「チケプラ」で公演当日まで二次流通可能な顔認証入場システムを提供開始

カテゴリー:人工知能・AI
タグ:顔認識AnyVision資金調達Softbank Vision Fundイスラエルコンピュータービジョン

画像クレジット:Design Cells / Getty Images

原文へ

(文:Ingrid Lunden、翻訳:Nariko Mizoguchi

英個人情報監督局が公共の場でのライブ顔認証による「ビッグデータ」監視の脅威に警鐘を鳴らす

英国のデータ保護規制当局最高責任者はライブ顔認識(live facial recognition、LFR)を公共の場で無謀かつ不適切に使用することについて警鐘を鳴らした。

公共の場でこの生体認証監視を使用することについて、個人情報保護監督官のElizabeth Denham(エリザベス・デナム)氏は「エンゲージメントの規則」と題する活動の開始点として見解を発表し、データ保護規制当局はLFRの利用計画に対して多くの調査を実施したが、すべてのケースで問題が発覚したと述べた。

「ライブ顔認証テクノロジーが不適切に、過剰に、あるいは無謀に使用される可能性について深く憂慮しています。機密性の高い個人情報が、本人の知らないところで、本人の許可なしに大規模に収集された場合、その影響は計り知れません」と同氏はブログの投稿で警告した。

「これまでの用途としては、公共の安全性の懸念に対応したり、生体認証プロファイルを作成して絞り込んだターゲットにパーソナライズされた広告を配信するといったものがあります」。

「調査対象となった組織の中でその処理を完全に正当化できた組織は1つもなく、実際に稼働したシステムのうち、データ保護法の要件に完全に準拠していたものは皆無でした。すべての組織はLFRの使用を中止する選択をしました」。

「CCTV(Closed-Circuit Television、監視カメラ)と違って、LFRとそのアルゴリズムは、映っている人を自動的に特定し、その人に関する機密性の高い情報を推測します。そして即座にプロファイルを作成してパーソナライズされた広告を表示したり、毎週食料品店で買い物をするあなたの画像を万引犯の画像と比較したりします」とデナム氏はいう。

「将来は、CCTVカメラをLFRで置き換えたり、ソーシャルメディデータやその他の『ビッグデータ』システムと組み合わせて使用する可能性もあります。LFRはCCTVの強化版なのです」。

生体認証テクノロジーを使用して個人をリモートから特定すると、プライバシーや差別のリスクなど、人権に関する重大な懸念が生じる。

欧州全体で、自分の顔を取り戻そうといった、生体認証による大衆監視の禁止を求めるさまざまな運動が起こっている。

顔認証にターゲットを絞ったもう1つのアクションとして、2021年5月、プライバシー・インターナショナルなどが、物議を醸している米国の顔認証企業Clearview AI(クリアビュー・エーアイ)の欧州での営業を停止するよう求める法的な異議申し立てを行った(一部の地域警察部隊も例外ではない。スウェーデンでは、2021年初め、Clearview AIの技術を不法に使用したという理由で警察がDPAによって罰金を課された)。

関連記事:スウェーデンのデータ監視機関が警察によるClearview AI使用は違法と判断

欧州では生体認証監視に対して一般市民が大きな反対の声を上げているが、議員たちはこれまでのところ、この論争中の問題の枝葉末節をあれこれいじくりまわしているだけだ。

欧州委員会が2021年4月に提示したEU全体の規制では、人工知能の応用に関するリスクベースのフレームワークが提案されているが、法執行機関による公共の場での生体認証監視の利用については一部が禁止されているに過ぎない。しかも、広範な適用例外が設けられていたため、多くの批判を招いた。

関連記事
欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す
欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める
EUデータ保護当局のトップ監督官が公共の場での顔認識の禁止を強く要請

党派を問わずあらゆる欧州議会議員から、ライブの顔認証などのテクノロジーの公共の場での使用の全面禁止を求める声も上がっている。また、EUのデータ保護監督庁長官は、国会に対し、公共の場での生体認証監視の使用を、少なくとも一時的に禁止するよう求めている。

いずれにしても、英国はEUから離脱したため、EUが計画しているAI規制は英国には適用されない。英国政府が国のデータ保護体制を緩和する方向に舵を切るかどうかはまだわからない。

ブレグジット後に英国の規制体制の変更について同国政府が調査会社に依頼した最近のレポートでは、英国GDPRを新しい「英国フレームワーク」で置換して「イノベーションと公共の利益のためにデータを開放する」こと、そしてAIおよび「成長分野」に有利な修正を行うよう主張している。そのため、ブレグジット後、英国の官僚たちがデータ保護体制の修正に手を付けるかどうかが人権ウォッチャーたちの主要な関心事となっている。

「Taskforce on Innovation, Growth and Regulatory Reform(イノベーション、成長、規制改革に関するタスクフォース)」と題するレポートでは、自動処理のみに基づく決定に従わない権利を市民に与えるGDPRの第22項の完全削除を支持しており、(個人情報保護監督庁[INFORMATION COMMISSIONER OFFICE、ICO]からと思われる指導を受け)「自動化プロファイリングが合法かどうか、公共の利益を満たすものかどうかに焦点を移した表現」で置き換えることを提案している。ただし、英国政府はデナム氏の後任人事についても検討しており、デジタル相は、後任には「データを脅威ではなく、我々の時代の大いなる機会とみなす大胆な新しいアプローチ」を採って欲しいと考えていると述べた。つまり、公正、説明責任、透明性とはさようならということだろうか。)

プライバシー監視機関によると、現在のところ、英国でLFRを実装しようとする者は、英国のデータ保護法2018と英国一般データ保護規則(つまり、EU GDPRの英国版。ブレグジット前に国内法令となった)の条項に準拠する必要がある。具体的には、英国GDPR第5条に明記されているデータ保護原則(合法性、公正、透明性、目的の制限、データの最小化、保存の制限、セキュリティ、説明責任など)に準拠する必要がある。

この見解には、監督機関は個人が権利を行使できるようにしなければならないとも書かれている。

「組織は最初から高水準のガバナンスと説明責任を実証する必要があります。これには、LFRを使用することが、導入先の個々のコンテキストにおいて、公正、必要、かつ適切であることを正当化できることも含まれます。侵害性の低い手法は機能しないことを実証する必要があります」とデナム氏は書いている。「これは重要な基準であり、確固とした評価を必要とします」。

「組織はまた、潜在的に侵害的なテクノロジーを使用するリスクとそれが人々のプライバシーと生活に与える影響を理解し評価する必要があります。例えば正確性と偏見をめぐる問題によって、人物誤認が起こり、それにともなって損害が発生することを理解する必要があります」。

英国がデータ保護とプライバシーに関して進む方向についての広範な懸念という視点から見ると、プライバシー監視機関がLFRに関する見解を表明したタイミングは興味深い。

例えば英国政府が後任の個人情報保護監督官に、データ保護とAI(生体認証監視などの分野を含む)に関する規則書を喜んで破り捨ててしまうような「御しやすい」人物を任命するつもりだとしても、少なくとも、LFRの無謀で不適切な使用にともなう危険性を詳述した前任者の見解が公文書に記載されている状態では、そのような政策転換を行うのはかなり気まずいだろう。

もちろん、後任の個人情報保護監督官も、生体認証データがとりわけ機密性の高い情報であり、年齢、性別、民族などの特性を推定または推論するのに使用できるという明らかな警告を無視できないだろう。

あるいは、英国の裁判所がこれまでの判決で「指紋やDNAと同様、顔生体認証テンプレートは本質的にプライベートな特性をもつ情報である」と結論づけており、ICOの見解のとおり、LFRを使用すると、この極めて機密性の高いデータを本人に気づかれることなく取得できるという点を強調していることも当然認識しているはずである。

またデナム氏は、どのようなテクノロジーでも成功するには市民の信頼と信用が必要であるという点を繰り返し強調し、次のように述べている。「そのテクノロジーの使用が合法的で、公正かつ透明性が高く、データ保護法に記載されている他の基準も満たしていることに市民が確信を持てなければなりません」。

ICOは以前「警察によるLFRの使用について」という文書を公開しており、これがLFRの使用に関して高いしきい値を設定することになった(ロンドンメトロポリタン警察を含め、いくつかの英国の警察部隊は、顔認証テクノロジーの早期導入者の1つであり、そのために、人種偏見などの問題について法的苦境に陥った部隊もある)。

関連記事:人権侵害の懸念をよそにロンドン警視庁がNEC製の顔認証を導入

人権運動家にとっては残念なことだが、ICOの見解では、民間企業や公的機関による公開の場での生体認証監視の使用の全面禁止を推奨することは避けており、監督官は、このテクノロジーの使用にはリスクがともなうが、極めて有用となるケース(行方不明の子どもを捜索する場合など)もあると説明している。

「テクノロジーにお墨付きを与えたり禁止したりするのは私の役割ではありませんが、このテクノロジーがまだ開発中で広く普及していない今なら、データ保護に然るべき注意を払うことなくこのテクノロジーが拡散しまうのを防ぐ機会が残されています」と同氏は述べ、次のように指摘する。「LFRを導入するいかなる意志決定においても、データ保護と利用者のプライバシーを最優先する必要があります」。

また、デナム氏は次のように付け加えた。現行の英国の法律では「ショッピング、社交、集会などの場で、LFRとそのアルゴリズムを使用することを正当化するには、高いハードルをクリアする必要があります」。

「新しいテクノロジーでは、利用者の個人情報の使い方について市民の信頼と信用を構築することが不可欠です。それがあって初めて、そのテクノロジーによって生まれる利点を完全に実現できます」と同氏は強調し、米国ではこの信頼が欠如していたために、一部の都市で、特定のコンテキストでのLFRの使用が禁止されたり、ルールが明確になるまで一部の企業がサービスを停止することになったことを指摘した。

「信頼がなければ、このテクノロジーによってもたらされる利点は失われてしまいます」と同氏は警鐘を鳴らした。

このように「イノベーション」というもっともらしい大義を掲げて英国のデータ保護体制を骨抜きにする方向へと慌てふためいて舵を切ろうとしている英国政府だが、1つ越えてはならない一線があることを忘れているようだ。英国が、EUの中心原則(合法性、公正、均整、透明性、説明責任など)から国のデータ保護規則を「解放」しようとするなら、EUとの規制同盟から脱退するリスクを犯すことになる。そうなると、欧州委員会は(締結したばかりの)EU-英国間のデータ適合性協定を破棄することになるだろう。

EUとのデータ適合性協定を維持するには、英国はEUと実質的に同等の市民データ保護を維持する必要がある。このどうしても欲しいデータ適合性ステータスを失うと、英国企業は、EU市民のデータを処理するのに、現在よりはるかに高い法的なハードルを超える必要が出てくる(これは、セーフハーバー原則プライバシー・シールドが無効化された後、米国が今まさに体験していることだ)。EUのデータ保護機関がEU英国間のデータの流れを完全に停止する命令を下す状況もあり得る。

このようなシナリオは英国企業と英国政府の掲げる「イノベーション」にとって恐ろしい事態だ。テクノロジーに対する市民の信頼とか英国市民が自らプライバシーの権利を放棄してしまってよいと思っているのかどうかといったより大きな問題について検討する以前の問題である。

以上の点をすべて考え合わせると、英国政府にはこの「規制改革」の問題について徹底的に考え抜いた政治家が本当にいるのかどうか疑わざるを得ない。今のところ、ICOは少なくとも政府に代わって考える能力をまだ維持している。

関連記事
グーグルのトラッキングクッキーのサポート終了は英国の競争規制当局が同意しない限り実現しない
欧州人権裁判所は「大規模なデジタル通信の傍受には有効なプライバシー保護手段が必要」と強調
フェイスブックの広告データ利用について英国と欧州の規制当局が競争規則違反の疑いで調査開始

カテゴリー:パブリック / ダイバーシティ
タグ:イギリス顔認識生体認証個人情報

画像クレジット:Ian Waldie / Staff / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

全米で失業保険用に導入された顔認識システムが申請を次々拒否、本人確認できず数カ月受給できない人も

全米で失業保険用に導入された顔認識システムが申請を次々拒否、本人確認できず数カ月受給できない人も

imaginima via Getty Images

米国では失業保険を不正受給しようとする詐欺行為を防止用に申請者が本人かどうかを確認するための顔認識システムを導入しています。ところが、この技術が本人を正しく認識できないケースが発生しており、失業手当の支給を拒否された人々からは不満の声があがっています。AIによる顔認識技術は、一般的に女性や有色人種を見分ける能力が白人男性に比べると劣ると言われています。

問題のケースでは、失業手当を申請した人がID.meにおける顔認識で本人確認ができなかったために手続きを保留され、問題解消のためにID.meにコンタクトを取ろうとしても数日~数週間も待たされたりしているとのこと。

SNSではID.meへの不満や苦情の投稿が数多く見受けられます。カリフォルニア州では昨年の大晦日、すでに失業手当を受け取っていた140万人のアカウントが突然無効化される現象が発生。再度ID.meで顔認識を通さなければ手当を受給できなくなりました。この手続きにも数週間待たされる人が相次ぎ、その間生活費のやりくりを強いられました。このような問題は各地で起こっており、コロラド、フロリダ、ノースカロライナ、ペンシルバニア、アリゾナ州でもID.me導入前は問題なく手当を受給できていた人が、ID.meに顔認識で弾かれ、長くて数か月も手当を受け取れない状態に置かれた例が報告されています。

ViceメディアのテクノロジーニュースサイトMotherboardはID.meのCEOブレイク・ホール氏への取材で、ホール氏がID.meの技術は「99.9%の有効性」があると述べたと伝えています。ホール氏によると、ID.meの顔認識は大量の顔写真サンプルから調べたい顔を探すのではなく、運転免許証などに表示される顔写真との比較を行うようになっているとのこと。また肌の色はこの顔認識には影響しないとのことです。

そのため、ホール氏は「顔認証の失敗は技術の問題ではなく、例えば、申請に使う写真の顔が一部見切れているような写真を使って認識に失敗している」と主張「ID.meで本人確認ができなかった対象者はいません」とまで述べています。

しかし実際に認識が通らなかった人にとっては、この説明は納得いくものではないでしょう。ある人は指示されたとおりに手続きをしたものの、認証拒否が3度も続き、何の説明もなくシステムから閉め出されてしまったと訴えています。どうしたものかと思いID.meのサポートチャットにコンタクトを取るも返答はなく、州の担当者に問い合わせてもID.meに確認せよの一点張りで3週間も放置されました。そして堪忍袋の緒が切れてSNSでID.meへの不満をぶちまけたところ、すぐに先方から連絡が来て数日後に身元確認が通ったと、この人は述べています。

Motherboardによると、ホール氏はID.meのシステムを売り込むため、米国の失業手当の不正受給の額を例に挙げて宣伝しています。しかしホール氏の言うその額は、この2月には1000億ドルと言っていたのが、その数週後には2000億ドルと述べられ、翌月には3000億ドルと主張するようになっていたとのこと。Axiosによる最新の報告では4000億ドルものお金が失業手当詐欺的に受給されているとID.meが述べていると伝えています。ホール氏はこの数値の変化について「データポイントが増えたためだ」と説明しています。しかし、この主張のどれに対しても、額をどうやって算出したかについては返答していません。

米労働省の報告では、2020年3月から10月の間に、不正の可能性がある失業手当の不正受給で摘発した額はを56億ドルとされています。より最近のデータでは損失額が実際にはもっと大きいことが示唆されていますが、省は 「数百億ドル」と見積もっています。

ID.meのテクノロジーで何が起こっているにせよ、この事件は、連邦政府と州政府が顔認識を制限したいと望んでいる理由のひとつを浮き彫りにしているようです。プライバシーやセキュリティに問題がなくとも、また「99.9%の精度」とうたわれるシステムであっても、多くの人々が本来得られるはずのサービスを拒否される可能性があるということです。本当に99.9%の精度でこれならば、特に市民の生活に関わる手続きを行うシステムには、今後はさらに高い精度を導入前に求めなくてはならなくなりそうです。

(Source:MotherboardEngadget日本版より転載)

関連記事
米上院議員が「データ保護局」新設を提案、米国人のデータを取り戻せ
これで誰でもディズニープリンセス、願いをかなえたARアプリへの捧げ物はあなたの生体情報!?
デジタルIDへ独自の道を歩む欧州、危ぶまれる実現性
TikTokが米国ユーザーの「顔写真や声紋」を含む生体情報の収集を表明
スマホ電子チケット「チケプラ」で公演当日まで二次流通可能な顔認証入場システムを提供開始
欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す
欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める
アリババは自社クラウド部門のウイグル人を顔認識する民族検知アルゴリズムにがく然

カテゴリー:パブリック / ダイバーシティ
タグ:顔認証 / 顔認識(用語)生体認証 / バイオメトリクス / 生体情報(用語)プライバシー(用語)

スマホ電子チケット「チケプラ」で公演当日まで二次流通可能な顔認証入場システムを提供開始

スマホ電子チケット「チケプラ」など手がけるTixplusが公演当日まで二次流通可能な顔認証入場システムを提供開始

スマートフォン電子チケット「チケプラ」(Android版・iOS版)や、ライブやイベントに行けない場合に定価で安全にチケットを売買できる主催者公認のチケット二次流通サービス「チケプラトレード」を運営するTixplus(ティックスプラス)は6月7日、顔認証技術を使った非接触の「顔パス」入場システムを提供すると発表した。

すでにTixplusでは、2021年4月15日のSKE48チームS「重ねた足跡」公演と、4月16日のSKE48チームKII「最終ベルが鳴る」公演で、このシステムの実証実験を行っている。

「チケプラ」は、スマートフォンの画面に表示されるチケットを提示してイベント会場に入場するシステム。電子チケットなので、受け渡しがいつでも行えるほか、チケットを家に忘れてきてしまうといった心配がない。友だち同士でチケットの受け渡しもでき、複数の入場者のチケットを代表者がまとめて提示するといったことも可能。電子チケットながら、画面に「スタンプ」を押してくれるので、紙チケットと同じように記念にできるという配慮もある。

これまでも「チケプラ」では、チケット購入時に、購入者の「顔画像」の登録をしてもらい、電子チケットにその画像を表示することで「もぎり」担当者は目視で本人確認を行ってきた。顔パス入場では、顔認証が自動化されるため、購入者は手ぶらでの入場が可能となる。記念のスタンプもちゃんと押してもらえる。

また、突然イベントに行けなくなったときなど、個人間ではなく、公式の二次流通を通じて定価で安全に、最長で公演当日まで電子チケットを取り引きできるサービス「チケットトレード」も顔認証と連携し、不正転売は一層厳しく制限されることになる。顔認証チケットで、「公演直前まで来場者変更にシステム対応したリセール機能を持つ」ものは業界初とのことだ。

Tixplusは、パナソニック システムソリューションズ ジャパンの「顔認証クラウドサービスパートナープログラム」に加入し、顔認証SaaSプラットフォーム「KPASクラウド」を使ってシステムを構築している。具体的な利用の流れはこうだ。入場の際の顔認証時に、チケプラのシステムでチケット所有照会を行い、入場の可否が判断される。許可されると着券処理、入場者データの更新が行われ、電子チケットにスタンプが押印される。

イベント会場の入場口での、入場者ともぎり担当者との接触が避けられるため、このコロナ禍でも安全が保たれる。今後は、顔パス認証の際に体温測定もできるようにするとのこと。将来的なウォークスルー入場を見据えた、未来のイベント入場スタイルを目指すと、同社は話している。

関連記事
欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す
会員数800万人超えの電子チケット「ticket board」がチケット不正転売禁止法施行に合わせて新アプリ

カテゴリー:セキュリティ
タグ:顔認証 / 顔認識(用語)生体認証 / バイオメトリクスTixplus(企業)電子チケット(用語)日本(国・地域)

欧州がリスクベースのAI規制を提案、AIに対する信頼と理解の醸成を目指す

欧州連合(EU)の欧州委員会が、域内市場のリスクの高い人工知能(AI)の利用に関するリスクベースの規制案を公表した。

この案には、中国式の社会信用評価システム、身体的・精神的被害を引き起こす可能性のあるAI対応の行動操作手法など、人々の安全やEU市民の基本的権利にとって危険性の高さが懸念される一部のユースケースを禁止することも含まれている。法執行機関による公共の場での生体認証監視の利用にも制限があるが、非常に広範な免除を設けている。

今回の提案では、AI使用の大部分は(禁止どころか)いかなる規制も受けていない。しかし、いわゆる「高リスク」用途のサブセットについては「ex ante(事前)」および「ex post(事後)」の市場投入という特定の規制要件の対象となる。

また、チャットボットやディープフェイクなど、一部のAIユースケースには透明性も求められている。こうしたケースでは、人工的な操作を行っていることをユーザーに通知することで、潜在的なリスクを軽減できるというのが欧州委員会の見解だ。

この法案は、EUを拠点とする企業や個人だけでなく、EUにAI製品やサービスを販売するすべての企業に適用することを想定しており、EUのデータ保護制度と同様に域外適用となる。

EUの立法者にとって最も重要な目標は、AI利用に対する国民の信頼を醸成し、AI技術の普及を促進することだ。欧州の価値観に沿った「卓越したエコシステム」を開発したいと、欧州委員会の高官は述べている。

「安全で信頼できる人間中心の人工知能の開発およびその利用において、欧州を世界クラスに高めることを目指します」と、欧州委員会のEVP(執行副委員長)であるMargrethe Vestager(マルグレーテ・ベステアー)氏は記者会見で提案の採択について語った

「一方で、私たちの規制は、AIの特定の用途に関連する人的リスクおよび社会的リスクに対処するものです。これは信頼を生み出すためです。また、私たちの調整案は、投資とイノベーションを促進するために加盟国が取るべき必要な措置を概説しています。卓越性を確保するためです。これはすべて、欧州全域におけるAIの浸透を強化することを約束するものです」。

この提案では、AI利用の「高リスク」カテゴリー、つまり明確な安全上のリスクをともなうもの、EUの基本的権利(無差別の権利など)に影響を与える恐れのあるものに、義務的な要件が課されている。

最高レベルの使用規制対象となる高リスクAIユースケースの例は、同規制の附属書3に記載されている。欧州委員会は、AIのユースケースの開発とリスクの進化が続く中で、同規制は委任された法令によって拡充する強い権限を持つことになると述べている。

現在までに挙げられている高リスク例は、次のカテゴリーに分類される。

  • 自然人の生体認証およびカテゴリー化
  • クリティカルなインフラストラクチャの管理と運用
  • 教育および職業訓練
  • 雇用、労働者管理、および自営業へのアクセス
  • 必要不可欠な民間サービスおよび公共サービスならびに便益へのアクセスと享受
  • 法執行機関; 移民、亡命、国境統制の管理; 司法および民主的プロセスの運営

AIの軍事利用に関しては、規制は域内市場に特化しているため、適用範囲から除外されている。

リスクの高い用途を有するメーカーは、製品を市場に投入する前に遵守すべき一連の事前義務を負う。これには、AIを訓練するために使用されるデータセットの品質に関するものや、システムの設計だけでなく使用に関する人間による監視のレベル、さらには市販後調査の形式による継続的な事後要件が含まれる。

その他の要件には、コンプライアンスのチェックを可能にし、関連情報をユーザーに提供するためにAIシステムの記録を作成する必要性が含まれる。AIシステムの堅牢性、正確性、セキュリティも規制の対象となる。

欧州委員会の関係者らは、AIの用途の大部分がこの高度に規制されたカテゴリーの範囲外になると示唆している。こうした「低リスク」AIシステムのメーカーは、使用に際して(法的拘束力のない)行動規範の採用を奨励されるだけだ。

特定のAIユースケースの禁止に関する規則に違反した場合の罰則は、世界の年間売上高の最大6%または3000万ユーロ(約39億4000万円)のいずれか大きい方に設定されている。リスクの高い用途に関連する規則違反は4%または2000万ユーロ(約26億3000万円)まで拡大することができる。

執行には各EU加盟国の複数の機関が関与する。提案では、製品安全機関やデータ保護機関などの既存(関連)機関による監視が想定されている。

このことは、各国の機関がAI規則の取り締まりにおいて直面するであろう付加的な作業と技術的な複雑性、そして特定の加盟国において執行上のボトルネックがどのように回避されるかという点を考慮すると、各国の機関に十分なリソースを提供することに当面の課題を提起することになるだろう。(顕著なことに、EU一般データ保護規則[GDPR]も加盟国レベルで監督されており、一律に厳格な施行がなされていないという問題が生じている)。

EU全体のデータベースセットも構築され、域内で実装される高リスクシステムの登録簿を作成する(これは欧州委員会によって管理される)。

欧州人工知能委員会(EAIB)と呼ばれる新しい組織も設立される予定で、GDPRの適用に関するガイダンスを提供する欧州データ保護委員会(European Data Protection Board)に準拠して、規制の一貫した適用をサポートする。

AIの特定の使用に関する規則と歩調を合わせて、本案には、EUの2018年度調整計画の2021年アップデートに基づく、EU加盟国によるAI開発への支援を調整するための措置が盛り込まれている。具体的には、スタートアップや中小企業がAIを駆使したイノベーションを開発・加速するのを支援するための規制用サンドボックスや共同出資による試験・実験施設の設置、中小企業や公的機関がこの分野で競争力を高めるのを支援する「ワンストップショップ」を目的とした欧州デジタルイノベーションハブのネットワークの設立、そして域内で成長するAIを支援するための目標を定めたEU資金提供の見通しなどである。

域内市場委員のThierry Breton(ティエリー・ブレトン)氏は、投資は本案の極めて重要な部分であると述べている。「デジタル・ヨーロッパとホライズン・ヨーロッパのプログラムの下で、年間10億ユーロ(約1300億円)を解放します。それに加えて、今後10年にわたって民間投資とEU全体で年間200億ユーロ(約2兆6300億円)の投資を生み出したいと考えています。これは私たちが『デジタルの10年』と呼んでいるものです」と同氏は今回の記者会見で語った。「私たちはまた、次世代EU[新型コロナウイルス復興基金]におけるデジタル投資の資金として1400億ユーロ(約18兆4000億円)を確保し、その一部をAIに投資したいと考えています」。

AIの規則を形成することは、2019年末に就任したUrsula von der Leyen(ウルズラ・フォン・デア・ライエン)EU委員長にとって重要な優先事項だった。2018年の政策指針「EUのためのAI(Artificial Intelligence for Europe)」に続くホワイトペーパーが2020年発表されている。ベステアー氏は、今回の提案は3年間の取り組みの集大成だと述べた。

ブレトン氏は、企業がAIを適用するためのガイダンスを提供することで、法的な確実性と欧州における優位性がもたらされると提言している。

「信頼【略】望ましい人工知能の開発を可能にするためには、信頼が極めて重要だと考えます」と同氏はいう。「(AIの利用は)信頼でき、安全で、無差別である必要があります。それは間違いなく重要ですが、当然のことながら、その利用がどのように作用するかを正確に理解することも求められます」。

「必要なのは、指導を受けることです。特に新しいテクノロジーにおいては【略】私たちは『これはグリーン、これはダークグリーン、これはおそらく若干オレンジで、これは禁止されている』といったガイドラインを提供する最初の大陸になるでしょう。人工知能の利用を考えているなら、欧州に目を向けてください。何をすべきか、どのようにすべきか、よく理解しているパートナーを得ることができます。さらには、今後10年にわたり地球上で生み出される産業データの量が最も多い大陸に進出することにもなるのです」。

「だからこそこの地を訪れてください。人工知能はデータに関するものですから―私たちはガイドラインを提示します。それを行うためのツールとインフラも備えています」。

本提案の草案が先にリークされたが、これを受けて、公共の場での遠隔生体認証による監視を禁止するなど、計画を強化するよう欧州議会議員から要請があった。

関連記事
EUがAIのリスクベース規則の罰金を全世界年間売上高の最大4%で計画、草案流出で判明
欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

最終的な提案においては、遠隔生体認証監視を特にリスクの高いAI利用として位置づけており、法執行機関による公の場での利用は原則として禁止されている。

しかし、使用は完全に禁止されているわけではなく、法執行機関が有効な法的根拠と適切な監督の下で使用する場合など、例外的に利用が認められる可能性があることも示唆されている。

脆弱すぎると非難された保護措置

欧州委員会の提案に対する反応には、法執行機関による遠隔生体認証監視(顔認識技術など)の使用についての過度に広範な適用除外に対する批判の他、AIシステムによる差別のリスクに対処する規制措置が十分ではないという懸念が数多くみられた。

刑事司法NGOのFair Trialsは、刑事司法に関連した意義ある保護措置を規制に盛り込むには、抜本的な改善が必要だと指摘した。同NGOの法律・政策担当官であるGriff Ferris(グリフ・フェリス)氏は、声明の中で次のように述べている。「EUの提案は、刑事司法の結果における差別の固定化の防止、推定無罪の保護、そして刑事司法におけるAIの有意義な説明責任の確保という点で、抜本的な改革を必要としています」。

「同法案では、差別に対する保護措置の欠如に加えて、『公共の安全を守る』ための広範な適用除外において刑事司法に関連するわずかな保護措置が完全に損なわれています。この枠組みには、差別を防止し、公正な裁判を受ける権利を保護するための厳格な保護措置と制限が含まれていなければなりません。人々をプロファイリングし、犯罪の危険性を予測しようとするシステムの使用を制限する必要があります」。

欧州自由人権協会(Civil Liberties Union for Europe[Liberties])も、同NGOが主張するような、EU加盟国による不適切なAI利用に対する禁止措置の抜け穴を指摘している。

「犯罪を予測したり、国境管理下にある人々の情動状態をコンピューターに評価させたりするアルゴリズムの使用など、問題のある技術利用が容認されているケースは数多く存在します。いずれも重大な人権上のリスクをもたらし、EUの価値観を脅かすものです」と、上級権利擁護担当官のOrsolya Reich(オルソリヤ・ライヒ)氏は声明で懸念を表明した。「警察が顔認識技術を利用して、私たちの基本的な権利と自由を危険にさらすことについても憂慮しています」。

ドイツ海賊党の欧州議会議員Patrick Breyer(パトリック・ブレイヤー)氏は、この提案は「欧州の価値」を尊重するという主張の基準を満たしていないと警告した。同氏は、先のリーク草案に対して基本的権利の保護が不十分だと訴える書簡に先に署名した40名の議員のうちの1人だ。

「EUが倫理的要件と民主的価値に沿った人工知能の導入を実現する機会をしっかり捕捉しなれけばなりません。残念なことに、欧州委員会の提案は、顔認識システムやその他の大規模監視などによる、ジェンダーの公平性やあらゆるグループの平等な扱いを脅かす危険から私たちを守るものではありません」と、今回の正式な提案に対する声明の中でブレイヤー氏は語った。

「公共の場における生体認証や大規模監視、プロファイリング、行動予測の技術は、私たちの自由を損ない、開かれた社会を脅かすものです。欧州委員会の提案は、公共の場での自動顔認識の高リスクな利用をEU全域に広めることになるでしょう。多くの人々の意思とは相反します。提案されている手続き上の要件は、煙幕にすぎません。これらの技術によって特定のグループの人々を差別し、無数の個人を不当に差別することを容認することはできません」。

欧州のデジタル権利団体Edriも「差別的な監視技術」に関する提案の中にある「憂慮すべきギャップ」を強調した。「この規制は、AIから利益を得る企業の自己規制の範囲が広すぎることを許容しています。この規制の中心は、企業ではなく人であるべきです」と、EdriでAIの上級政策責任者を務めるSarah Chander(サラ・チャンダー)氏は声明で述べている。

Access Nowも初期の反応で同様の懸念を示しており、提案されている禁止条項は「あまりにも限定的」であり、法的枠組みは「社会の進歩と基本的権利を著しく損なう多数のAI利用の開発や配備を阻止するものではない」と指摘している。

一方でこうしたデジタル権利団体は、公的にアクセス可能な高リスクシステムのデータベースが構築されるなどの透明性措置については好意的であり、規制にはいくつかの禁止事項が含まれているという事実を認めている(ただし十分ではない、という考えである)。

消費者権利の統括団体であるBEUCもまた、この提案に対して即座に異議を唱え、委員会の提案は「AIの利用と問題の非常に限られた範囲」を規制することにフォーカスしており、消費者保護の点で脆弱だと非難した。

「欧州委員会は、消費者が日々の生活の中でAIを信頼できるようにすることにもっと注力すべきでした」とBEUCでディレクターを務めるMonique Goyens(モニーク・ゴヤンス) 氏は声明で述べている。「『高リスク』、『中リスク』、『低リスク』にかかわらず、人工知能を利用したあらゆる製品やサービスについて人々の信頼の醸成を図るべきでした。消費者が実行可能な権利を保持するとともに、何か問題が起きた場合の救済策や救済策へのアクセスを確保できるよう、EUはより多くの対策を講じるべきでした」。

機械に関する新しい規則も立法パッケージの一部であり、AIを利用した変更を考慮した安全規則が用意されている(欧州委員会はその中で、機械にAIを統合している企業に対し、この枠組みに準拠するための適合性評価を1度実施することのみを求めている)。

Airbnb、Apple、Facebook、Google、Microsoftなどの大手プラットフォーム企業が加盟する、テック業界のグループDot Europe(旧Edima)は、欧州委員会のAIに関する提案の公表を好意的に受け止めているが、本稿執筆時点ではまだ詳細なコメントを出していない。

スタートアップ権利擁護団体Allied For Startupsは、提案の詳細を検討する時間も必要だとしているが、同団体でEU政策監督官を務めるBenedikt Blomeyer(ベネディクト・ブロマイヤー)氏はスタートアップに負担をかける潜在的なリスクについて警鐘を鳴らしている。「私たちの最初の反応は、適切に行われなければ、スタートアップに課せられる規制上の負担を大幅に増加させる可能性があるということでした」と同氏はいう。「重要な問題は、欧州のスタートアップがAIの潜在的な利益を享受できるようにする一方で、本案の内容がAIがもたらす潜在的なリスクに比例するものかという点です」。

その他のテック系ロビー団体は、AIを包み込む特注のお役所仕事を期待して攻撃に出るのを待っていたわけではないだろうが、ワシントンとブリュッセルに拠点を置くテック政策シンクタンク(Center for Data Innovation)の言葉を借りれば、この規制は「歩き方を学ぶ前に、EUで生まれたばかりのAI産業を踏みにじる」ものだと主張している。

業界団体CCIA(Computer & Communications Industry Association)もまた「開発者やユーザーにとって不必要なお役所仕事」に対して即座に警戒感を示し、規制だけではEUをAIのリーダーにすることはできないと付け加えた。

本提案は、欧州議会、および欧州理事会経由の加盟国による草案に対する見解が必要となる、EUの共同立法プロセスの下での膨大な議論の始まりである。つまり、EUの機関がEU全体のAI規制の最終的な形について合意に達するまでに、大幅な変更が行われることになるだろう。

欧州委員会は、他のEU機関が直ちに関与することを期待し、このプロセスを早急に実施できることを望んでいると述べるにとどまり、法案が採択される時期については明言を避けた。とはいえ、この規制が承認され、施行されるまでには数年かかる可能性がある。

【更新】本レポートは、欧州委員会の提案への反応を加えて更新された。

カテゴリー:パブリック / ダイバーシティ
タグ:EU人工知能チャットボットディープフェイク透明性GDPR欧州データ保護委員会生体認証顔認証

画像クレジット:DKosig / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

EUがAIのリスクベース規則の罰金を全世界年間売上高の最大4%で計画、草案流出で判明

人工知能の利用をめぐる規則草案を作成中の欧州連合の議員らが、違反したユースケースについて全世界の年間売上高の最大4%(もしくは2000万ユーロ[約26億円]のどちらか高額な方)を罰金として検討していることがわかった。公式の発表が見込まれるAI規則の草案が流出し、Politico(ポリティコ)が報じたことで判明した。

AI規制をめぐる計画はしばらく前から予想されていた。2020年2月には欧州委員会がホワイトペーパーを公開し「高リスク」とされる人工知能の利用を規制する計画の概略を発表した。

当時、EUの議員は分野ベースでの検討を進めていた。エネルギーや人材採用といった特定の分野をリスク領域と想定していたのだ。しかし、流出した草案を見るとこのアプローチは見直されたようで、今回、AIリスクに関する議論は特定の業界や分野には限定されていない。

焦点は代わりに、分野に関係なく高リスクのAI利用に関するコンプライアンス要件に向けられている(武器や軍事的な利用は明確に除外されているが、それはこの領域がEU条約の対象から外れているため)。とはいえ「高リスク」の定義については、この草案だけではまだ不明瞭だ。

ここでの欧州委員会の最大の目標は、AIの社会的信用を高めることにある。そのために「EUバリュー」に染まったシステムによってコンプライアンスチェックと均衡化を図り、いわゆる「信用できる」 「人間主体」のAI開発を促進するという。そこで「高リスク」と見なされていないAI応用のメーカーも、本委員会の言葉を借りると「高リスクのAIシステムに適用される必須条件の自発的な適用を促進するため」に行動規範を導入することが推奨されている。

本規則のもう1つの焦点は、連合内のAI開発を支える方策の制定だ。加盟国に規制のサンドボックス制度を定めるよう迫ることで、スタートアップや中小企業が市場展開前の段階で優先的にAIシステムの開発とテストの支援を受けられるようにする。

草案では、所轄官庁が「当局の監督と是正に全面的に従いながらも、サンドボックスに加わる事業体の人工知能プロジェクトについて自由裁量権と均整化の権限を与えられる」としている。

高リスクのAIとは?

計画中の規則では、人工知能の利用を予定する事業体が、特定のユースケースが「高リスク」かどうかを見極め、それゆえ市場展開前に義務付けられているコンプライアンス評価を実施すべきかを判断しなければならないとされている。

草案の備考によると「AIシステムのリスク分類は、その利用目的にもとづいて決定される。該当のAIシステムの利用目的を具体的な状況や利用条件を含めて検討し、その利用が何らかの危険を及ぼすかどうか、またその場合、潜在的な危険の重大度と発生可能性がどのくらいか、この2つを考慮することで決定される」。

草案は「本規則に従って高リスクと分類されたAIシステムは、必ずしも各分野の法律において『高リスク』とされるシステムまたは商品とは限らない」とも言及している。

高リスクのAIシステムに関連する「危険」の例を草案のリストから挙げると「人の負傷または死、所有物への損害、社会への大規模な悪影響、重要な経済的および社会的活動の通常運用に不可欠なサービスを大きく混乱すること、経済、教育、または就業の機会への悪影響、公共サービスおよび何らかの公的支援の利用に対する悪影響、(欧州市民の)基本的権利への悪影響」などが含まれている。

高リスクの利用についても、いくつかの例が取り上げられている。例えば人材採用システム、教育機関または職業訓練機関へのアクセスを提供するシステム、緊急のサービス派遣システム、信用度評価、税金で賄われる社会福祉の配分決定に関係するシステム、犯罪の防止・発見・起訴に関連して適用される意思決定システム、そして裁判官のサポート目的で使用される意思決定システムなどだ。

つまり、リスク管理システムを制定し、品質管理システムを含めた市場展開前の調査を実施するなどコンプライアンス要件が満たされている限り、規制計画によってこうしたシステムがEU市場で禁じられることはないだろう。

その他の要件はセキュリティ分野の他、AIのパフォーマンスの一貫性確保に関するものだ。「重大なインシデントや、義務違反を含むAIシステムの誤作動」については、どのようなものであれ発覚後15日以内に監督機関に報告することが規定されている。

草案によると「高リスクのAIシステムも、必須条件への準拠を条件として連合市場に出す、あるいは運用することができる」。

「連合市場に出されている、あるいは運用されている高リスクのAIシステムを必須条件に準拠させる際は、AIシステムの利用目的を考慮し、提供元が定めるリスク管理システムに従って行うべきである」。

「これらに加え、提供元が定めるリスク制御管理策は、すべての必須条件を適用した場合の効果および起こり得る相互作用を鑑み、また関連する整合規格や共通仕様書など一般的に認められている最高の技術水準を考慮して定めるべきである」

禁止されるプラクティスと生体認証

流出した草案によると、計画中の法令の第4項では一部のAI「プラクティス」が禁止条項に挙げられている。例えば、大規模な監視システム、さらには差別につながりかねない一般の社会的なスコアリングシステムへの(商業目的での)適用などだ。

人間の行動、意思決定、または意見を有害な方向へ操るために設計されたAIシステム(ダークパターン設計のUIなど)も、第4項で禁止されている。個人データを使用し、人や集団の弱さをターゲットとして有害な予測をするシステムも同様だ。

一般の読者の方は、本規則が人のトラッキングをベースとする行動ターゲティング広告、つまりFacebook(フェイスブック)やGoogle(グーグル)といった企業のビジネスモデルで用いられるプラクティスを一挙に禁止しようとしているのではないかと推測されるかもしれない。しかし、そのためには広告テクノロジーの巨大企業らに、自社のツールをユーザーに有害な影響を及ぼすツールだと認めてもらわなければならない。

対して、彼らの規制回避戦略は真逆の主張にもとづいている。フェイスブックが行動ターゲティング広告を「関連」広告と呼んでいるのもそのためだ。この草案は、EU法を定着させようとする側と、自社に都合のいい解釈をしようとする巨大テクノロジー企業らとの(今よりも)長きにわたる法廷での戦いを招くものとなるかもしれない。

禁止プラクティスの根拠は、草案の前文にまとめられている。「人工知能が特別に有害な新たな操作的、中毒的、社会統制的、および無差別な監視プラクティスを生みかねないことは、一般に認知されるべきことである。これらのプラクティスは人間の尊厳、自由、民主主義、法の支配、そして人権の尊重を重視する連合の基準と矛盾しており、禁止されるべきである」。

本委員会が公共の場での顔認証の利用禁止を回避したことは、注目に値するだろう。2020年の初めに流出した草案ではこの点が考慮されていたが、2020年のホワイトペーパー公開前には禁止とは別の方向へかじを切ったようだ。

流出した草案では、公共の場での「遠隔生体認証」が「公認機関の関与を通じてより厳格な適合性評価手順を踏む」対象に挙げられている。つまり、その他ほとんどの高リスクのAI利用とは異なり(これらはセルフアセスメントによる要件順守が認められている)、データ保護の影響評価を含む「テクノロジーの利用によって生じる特定のリスクに対応するための承認手続き」が必要だということだ。

「また、評価の過程で、承認機関は定められた目的でシステムを利用する際の誤差によって生じる危険(とりわけ年齢、民族、性別、または障害に関するもの)の頻度とその重大度を考慮しなければならない」と草案は述べている。「その他、特に民主的プロセスへの参加や市民参加、さらには参照データベース内の人々のインクルージョンに関する手段、必要性、および比例について、その社会的影響を考慮しなければならない」。

「主として個人の安全に悪影響を与えかねない」AIシステムもまた、コンプライアンスの手順の一環として高水準の規制関与を受ける必要がある。

すべての高リスクAIの適合性評価に用いるシステムについては引き続き検討が続いており、草案では「本規則への準拠に影響しかねない変更がAIシステムに生じた場合、あるいはAIシステムの利用目的に変更が生じた場合には、新たに適合性評価を実施することが適切である」としている。

「市場に出された、あるいは運用を開始した後にも「学習」を続ける(機能の実行方法を自動的に適応する)AIシステムについては、アルゴリズムおよびパフォーマンスに生じた変化が適合性評価の時点で事前に特定および評価されていない場合、新たにAIシステムの適合性評価を実施する」とのことだ。

規則に準拠する企業へ与えられる報酬は「CE」マークの取得だ。このマークによってユーザーの信頼を獲得し、連合の単一市場全体で摩擦のないサービスを提供できる。

「高リスクのAIシステムを連合内で自由に利用するには、CEマークを取得して本規則との適合を示す必要がある」と草案は続ける。「加盟国は本規則で定められた要件に準拠するAIシステムの市場展開または運用を妨げる障害を生んではならない」。

ボットとディープフェイクの透明性確保

提供元は、商品の市場展開前に(ほぼセルフでの)評価を実施し、コンプライアンス義務(モデルのトレーニングに使用するデータセットの品質確保、記録の保持・文書化、人間による監視、透明性の確保、正確性の確保など)を果たし、市場展開後も継続的に監視を続けることが要求されている。このように「高リスク」のAIシステムを安全に市場に出すべく、いくつかのプラクティスを法的に禁止し、EU全体での規則適用に用いるシステムの確立を模索すると同時に、草案では人をだます目的で使用されているAIのリスクを縮小しようとする動きがある。

具体的には、自然人とやり取りをする目的で使用されるAIシステム(ボイスAI、チャットボットなど)、さらには画像、オーディオ、または動画コンテンツを生成または操作する目的で使用されるAIシステム(ディープフェイク)について「透明性確保のための調和的な規定」を提案しているのだ。

「自然人とやり取りをする、またはコンテンツを生成する目的で使用されるAIシステムは、高リスクに該当するか否かに関わらず、なりすましや詐欺といった特定のリスクを含む可能性がある。状況によっては、これらのシステムの利用は高リスクのAIシステム向けの要件および義務とは別に、透明性に関する特定の義務の対象となるべきである」と草案は述べている。

「とりわけ、自然人はAIシステムとやり取りする場合、それが状況や文脈から明確に分かる場合を除き、その旨は通知されるべきである。さらに、実在の人物、場所、出来事との明確な共通点がある画像、オーディオ、または動画コンテンツを生成あるいは操作する目的でAIシステムを使用し、そのコンテンツが一般人によって本物と誤解されるものである場合は、ユーザーは人工知能の生産物にそれぞれ表示を付け、人工物の作成元を開示することで、該当コンテンツが人工的に作成されたあるいは操作されたことを開示しなければならない」。

「表示に関するこの義務は、該当コンテンツが治安の維持や正当な個人の権利または自由(例えば風刺、パロディー、芸術と研究の自由の行使、さらにはサードパーティーの適切な権利および自由を保護するための題材)の行使のために必要な場合には適用されない」。

実施の詳細は?

このAI規則案はまだ委員会によって正式に発表されてはいないため、詳細が変更される可能性はあるが、2018年に施行されたEUのデータ保護規則の実施がいまだに不十分なことを踏まえると、(複雑な場合が多い)人工知能の具体的な利用を規制するまったく新しいコンプライアンス層の導入がどこまで効果的に監視し、違反を取り締まれるのかは疑問だ。

高リスクのAIシステムを市場に出す際の責任(かつ、高リスクのAIシステムを委員会が維持予定のEUデータベースに登録することなど、さまざまな規定への準拠責任)はそのシステムの提供元にある一方で、規則案では規制の実施を加盟国に一任している。つまり、各国にある1つまたは複数の所轄官庁に監視規則の適用を管理するよう任命する責任は、それぞれの加盟国にあるということだ。

その実態は、EU一般データ保護規則(GDPR)の先例からすでに見えているだろう。委員会自体も、連合全体でGDPRの実施が一貫したかたちで、あるいは精力的に行われていないことを認めている。疑問点は、駆け出しのAI規則が同じ フォーラムショッピングの運命をたどらないようにできるのかという点だ。

「加盟国は、本規則の条項が確実に実践されるよう必要な手段をすべて取らなければならない。これには、違反に対して効果的かつバランスのとれた、行動抑止効果のある罰則を規定することが含まれる。具体的な違反については、加盟国は本規則で定められた余地と基準を考慮に入れるべきである」と草案は述べている。

委員会は、加盟国の実施が見られない場合の介入について補足説明をしている。とはいえ、実施方法について短期的な見通しがまったくないことを考えると、先例と同じ落とし穴があることは否めないだろう。

将来の実施失敗を阻止するため、委員会は次のように最終手段を定めている。「本規則の目標は連合内での人工知能の市場展開、運用開始、および利用に関する信頼のエコシステムを構築するための環境を整えることである。それゆえ、加盟国がこれを十分に達成することができず、措置の規模または効果を鑑みた結果連合レベルでの実施の方がよりよい成果を達成できると考えられる場合、連合は欧州連合基本条約第5項に定められた権限移譲の原則に従う範囲で、措置を講じることができる」。

AIの監視計画には、GDPRの欧州データ保護委員会と類似のEuropean Artificial Intelligence Board(欧州人工知能委員会)を設立することが含まれている。この委員会はEUの議員に向けて、禁止されているAIプラクティスや高リスクのシステムのリストなどに関して重要な推奨事項や意見を述べ、欧州データ保護委員会と同じように規則の適用を支援していくこととなる。

カテゴリー:パブリック / ダイバーシティ
タグ:人工知能EU顔認証生体認証

画像クレジット:piranka / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

欧州議会議員グループが公共の場での生体認証監視を禁止するAI規制を求める

40名の議員からなる欧州議会の超党派グループは、人工知能(AI)に関する立法案を強化し、公共の場所における顔認証やその他の生体認証による監視を完全に禁止することを委員会に求めている。

また、このグループは、個人を特定できる特徴(性別、性的区別、人種・民族、健康状態、障害など)を自動認証することも禁止するよう議会に要求し、このようなAIの利用は大きな人権リスクをともない、差別を助長する恐れがあると警告している。

欧州委員会は、AIの「高リスク」アプリケーションを規制するフレームワークのプロポーザルを発表するとされているが、中央ヨーロッパ夏時間4月13日、Politico(ポリティコ)がその草案をリークした。先にレポートしたように、リークされた草案は、この問題に対する国民の関心の強さを認めているにもかかわらず、公共の場での顔認証やその他の生体認証を行う遠隔識別テクノロジーの使用を禁止する事項は含んでいない。

議員グループは欧州委員会に宛てた書簡で「一般にアクセスできる公共空間における生体認証の大量監視テクノロジーは、多数の無実の市民を不当にレポートし、過小評価グループ(ある地域において、全世界における人口比よりも小さな割合しかもたないグループ)を組織的に差別し、自由で多様性のある社会を委縮させると広く批判されています。だからこそ、禁止が必要なのです」と述べ、その内容も公開されている。

議員グループは、予測的ポリシングアプリケーションや、生体特徴を利用した無差別な監視・追跡など、個人を特定できる特徴を自動的に推定することによる差別のリスクについても警告している。

「これはプライバシーやデータ保護の権利を侵害し、言論の自由を抑圧し、(権力側の)腐敗を暴くことを困難にするなどの弊害をもたらし、すべての人の自律性、尊厳、自己表現を脅かします。特に、LGBTQI+コミュニティ、有色人種、その他の差別されているグループに深刻な損害を与える可能性があります」と議員グループと記し、EU市民の権利と、差別のリスク(そして、AIで強化された差別的なツールによるリスク)からコミュニティの権利を守るために、AIプロポーザルを修正して、こういった行為を違法化するよう欧州委員会に求めている。

「AIプロポーザルは性別、性的区別、人種・民族、障害、その他の個人を識別できる保護すべき特徴の自動識別を禁止するチャンスです」と議員たちは続ける。

リークされた欧州委員会プロポーザルの草案では、無差別大量監視という課題に取り組んでおり、こういった行為の禁止や、汎用の社会的信用スコアリングシステムを非合法化することも提案されている。

しかし、議員グループはさらに踏み込んだ議論を求め、リークされた草案の文言の弱点を警告し、プロポーザルの禁止案を「システムに暴露される人の多寡にかかわらず、ターゲットのない無差別な大量監視をすべて禁止する」ように変更することを提案している。

また、公共機関(または公共機関のために活動する商業団体)に対しては大量監視を禁止しないという提案にも警鐘を鳴らし、現行のEU法や、EU最高裁の解釈を逸脱する危険性を指摘している。

書簡には「私たちは、第4条第2項の案に強く抗議します。この案では、公的機関はもちろんのこと、公的機関に代わって活動する民間の行為者であっても、『公共の安全を守るため』に(大量監視の禁止の)対象とならないとされます」と書かれている。「公共の安全とは、まさに大量の監視を正当化するためのものであり、実務的に有用性があり、裁判所が個人データの無差別大量処理に関する法律(例、データ保持指令)を一貫して無効にしてきた場でもあります。禁止の対象とならない可能性は排除する必要があります」。

「第2項は、これまで司法裁判所が大量監視を禁止していると判断してきた他の二次的な法律を逸脱すると解釈される可能性もあります」と続ける。「提案されているAI規制は、データ保護の法体系に起因する規制と一体となって適用されるものであり、それに代わるものではないことを明確にする必要があります。リークされた草案には、そのような明確さがありません」。

議員グループは欧州委員会のコメントを求めているが、今後予定されているAI規制案の正式発表を前に、欧州委員会がコメントを出すことはなさそうだ。

今後、AIプロポーザルに大幅な修正が加えられるかどうかは不明だ。しかし、この議会グループは、基本的人権が共同立法の議論の重要な要素であること、そして、非倫理的なテクノロジーに正面から取り組まないルールであれば「信頼性の高い」AIを確実するためのフレームワークという議会の主張は信用できないと、いち早く警告している。

カテゴリー:パブリック / ダイバーシティ
タグ:EU生体認証顔認証人工知能・AI

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

EUデータ保護当局のトップ監督官が公共の場での顔認識の禁止を強く要請

欧州連合(EU)のデータ保護監督官は、次期AI関連法案の下で、公共の場での遠隔バイオメトリックサーベイランスを全面的に禁止するよう求めた。

欧州データ保護監察機関(EDPS)の介入は、欧州議会の議員らが中央ヨーロッパ時間4月21日に発表した、AI(人工知能)の適用先を規制するためのリスクベースアプローチに関する提案を受けたものだ。

欧州委員会の立法案には、法執行機関による公共の場での遠隔バイオメトリックサーベイランス技術(顔認識など)の使用を一部禁止することが含まれている。しかし、この文書には広範な例外規定が含まれており、デジタル権および人権団体は、EU市民の基本的権利の大幅な侵害につながると彼らが主張する抜け穴について、早くも警告を発している。そして先週、欧州議会の党派を超えたグループは、欧州委員会に対し、勇気を奮い起こしてこうした権利を侵害する技術を違法とするよう求めた。

欧州委員会のために勧告やガイダンスを発行する役割を担うEDPSは、これに同意する傾向にある。4月23日に発表されたプレスリリースでは、現在、EDPSの席を保持するWojciech Wiewiórowski(ヴォイチェフ・ヴィヴィオロフスキ)氏が再考を促している。

「EDPSは、顔認識を含む遠隔生体識別システムが公に利用可能なスペースで使用されることの一時停止を求める我々の以前の呼びかけが、欧州委員会によって対処されていないことを遺憾に思います」と同氏は書いている。

「EDPSは、商業や行政、あるいは法執行目的で使用されるかどうかにかかわらず、公共の場における人間の特徴(顔だけでなく歩行、指紋、DNA、声、キーストローク、その他の生体・行動信号)の自動認識について、より厳格なアプローチを提唱し続けていきます」。

「遠隔生体識別に関してはAIが前例のない発展をもたらす可能性がありますが、個人の私生活に深く非民主的に侵入するリスクが極めて高いことを考えると、より厳格なアプローチが必要です」とも。

ヴィヴィオロフスキ氏は、欧州委員会が提示した水平的アプローチと広範な範囲を歓迎すると述べ、この立法案に対してエールを送った。またAIの適用先を規制する際に、リスクベースアプローチをとることにも賛成している。

しかしEDPSは、EU議会が引いたレッドラインが、彼が期待していたよりもはるかにピンク色であることを明確にした。そして、欧州委員会が「信頼できる」「人間中心の」AIを確保するためのフレームワークを作成したという大々的な主張に応えていないという批判に、権威ある声を加えることになった。

今後、規制の最終的な形をめぐる議論では、欧州でのAIの一線をどこに引くべきかについて、多くの議論が交わされることになるだろう。最終的な文書の合意は、早くても来年になる見込みだ。

「EDPSは、個人および社会全体の保護を強化するためにEUの共同立法機関を支援するため、欧州委員会の提案を綿密かつ包括的に分析していきます。この観点から、EDPSは特に、データ保護やプライバシーに関する基本的権利にリスクをもたらす可能性のあるツールやシステムに的確な境界線を設定することに注力します」と、ヴィヴィオロフスキ氏は付け加えた。

関連記事:スウェーデンのデータ監視機関が警察によるClearview AI使用は違法と判断

カテゴリー:パブリック / ダイバーシティ
タグ:EU顔認証欧州データ保護監察機関(EDPS)プライバシー個人情報

画像クレジット:Stegerphoto / Getty Images

原文へ

(文:Natasha Lomas、翻訳:Aya Nakazato)

Uberがドライバーの顔認識チェックの利用で圧力を受ける

Uberがドライバーの識別システムに顔認識テクノロジーを使用していることが英国で問題になっている。ドライバーが誤って識別され、ロンドン交通局(TfL)から営業ライセンスを取り消されたケースが複数見つかったことから、App Drivers & Couriers Union(アプリ運転手および配送業者組合、ADCU)とWorker Info Exchange(労働者情報取引所、WIE)は、Microsoft(マイクロソフト)に対しこの配車サービス大手へのB2B顔認識サービスの提供を停止するよう求めている。

同組合によると「顔認識やその他の身元確認の失敗」により、TfLによるライセンス取り消し処分を受け、ドライバーが職を失ったケースが7件確認されたという。

Uberは、2020年4月に英国で「リアルタイムIDチェック」システムを立ち上げた際「ドライバーのUberアカウントが、強化されたDBS(開示および禁止サービス、いわゆる無犯罪証明)チェックに合格したライセンス保持者以外に使用されていないことを確認する」としていた。またその際、ドライバーは自分の自撮り写真を「写真照合ソフトによる検証か、人間の審査員による検証かを選択できる」とも述べていた。

ADCUによると、ある誤認のケースでは、ドライバーはUberに解雇され、TfLにライセンスを取り消されたという。同組合は、この組合員の身元証明を支援し、UberとTfLの決定を覆すことができたと付け加えている。しかし、マイクロソフトが2020年夏のBlack Lives Matter(黒人の命の大切さを訴える)運動を受けて、米国の警察へのシステム販売を見合わせたことを挙げ、同社の顔認識テクノロジーの精度に対する懸念を訴えている。

顔認識システムは、識別の対象が有色人種の場合、特に高いエラー率になることが研究で明らかになっており、ADCUは、マイクロソフトのシステムが20%ものエラー率になる可能性があるという2018年のMIT(マサチューセッツ工科大学)の研究結果を引用している(肌の色が濃い女性の場合に最も悪い精度となった)。

同組合は、ロンドン市長に書簡をお送り、ハイブリッドリアルタイム個人認証システムの結果を根拠としたUberの報告書に基づく、TfLのプライベートハイヤーに対するライセンスの取り消しを、直ちにすべて見直すことを要請しているという。

マイクロソフトは、Uberに対する顔認識テクノロジーのライセンスの停止が要請されたことについて、コメントを求められている。

【更新】Microsoftの広報担当者は「MicrosoftはFace APIのテストと改善に力を入れており、あらゆる年齢層における公平性と精度に特に注意を払っている。また、お客様がシステムの公平性を評価できるよう、最適な結果とツールを得るための詳細なガイダンスも提供しています」と述べた。

ADCUによると、Uberは英国の首都での営業ライセンス回復のために実施した対策パッケージの一環として、労働力の電子監視および識別のシステムの導入を急いだという。

2017年、TfLはUberに営業ライセンスの更新を認めないという衝撃的な決定を下した。当局はUberの営業形態に対する規制圧力を強め、2019年にはUberがプライベートハイヤーライセンスを更新するのは「適切ではない」と再び判断し、この決定を継続した。

関連記事:安全性懸念でUberのロンドンでの営業免許更新を当局が認めず

TfLは、Uberのライセンス更新を保留した主な理由として、安全性とセキュリティの欠如に言及した。

UberはTfLの決定に対して法廷で異議を唱え、2020年に別のライセンス停止に対する控訴で勝訴したが、その際に与えられた更新期間はわずか18カ月だった(正規の5年ではない)。しかも数多くの条件が並べ立てられており、Uberは依然としてTfLの品質基準を満たすよう強い圧力を受けている。

関連記事:英裁判所がUberのロンドンでの事業継続を許可、ただし18カ月のみ

しかしADCUによると、現在、労働運動家らは、TfLがUberに導入を促した労働力の監視テクノロジーにおいて、規制基準が設定されていないことを指摘するなど、別の方向からもUberに圧力をかけているという。また、TfLによる平等性インパクト評価も行われていないと、同組合は付け加える。

WIEはTechCrunchに対し、UberのリアルタイムIDチェックの後に解雇され、TfLから免許を取り消されたImran Raja(イムラン・ラジャ)氏というドライバーのケースで、同団体がUberを相手取り、同氏への差別的扱いに対する訴えを起したことを明らかにした。

同氏のライセンスはその後回復したが、それは、ADCUがこの措置に異議を唱えた後のことだ。

WIEによると、Uberの顔認識チェックで誤認された、他の何人かのUberドライバーらも、TfLによるライセンス取り消しを英国の裁判所に訴えるとのことだ。

TfLの広報担当者は、顔認識テクノロジーの導入はUberのライセンス更新の条件ではなく、Uberが十分な安全システムを備えていることが条件だと話す。

「ドライバーの身元確認」に関する暫定ライセンスの関連条項には、次のように記されている。

ULL(Uber London Limited、ウーバー・ロンドン有限責任会社)は、アプリを使用するドライバーがTfLからライセンスを取得した個人であり、ULLからアプリの使用を許可された個人であることを確認するために、適切なシステム、プロセス、手順を維持しなければならない。

また、TechCrunchでは、TfLと英国情報コミッショナーズオフィス(ICO)に、UberがリアルタイムIDチェックを開始する前に実施したというデータ保護影響評価のコピーを求めており、入手した場合にはこのレポートを更新する。

一方、Uberは、ドライバーの個人認証に顔認識テクノロジーを使用することは、失敗を防ぐために手動(人間)で審査するシステムを導入しているため差別を自動化する危険性がある、という組合の主張に異議を唱えている。

しかし、同社はそのシステムがラジャ氏のケースでは明らかに失敗したことを認めている。同氏は組合が介入したことでUberのアカウントを取り戻し、そして謝罪を受けた。

Uberによると、同社のリアルタイムIDシステムでは、ログイン時にドライバーが送信する自撮り写真の「画像照合」が自動で行われ、システムがその自撮り写真とファイルに保存されている(1枚の)写真を比較する。

自動照合で一致しない場合は、システムは3人の人間による審査委員会に照会し、手動でチェックが行われる。Uberによると、最初の審査委員が承認できない場合は、2番目の審査委員にチェックが委ねられるという。

このテクノロジー大手は声明の中で次のように述べている。

当社のリアルタイムIDチェックは、正規のドライバーや宅配業者が本人のアカウントを使用していることを確認することで、アプリを利用するすべての人の安全と安心を守るように設計されている。今回提起された2つの事例は、技術的な欠陥によって引き起こされたものではない。実際、そのうちの1つは当社の不正防止ポリシーに違反していることが確認され、もう1つは人為的なミスだった。

テクノロジーやプロセスに完璧はなく、常に改善の余地があるが、ドライバーの抹消を決定する前に最低2回の人間による手作業での審査を保証する徹底したプロセスと併用されるこのテクノロジーは、公正であり、当社のプラットフォームの安全性にとって重要であると考えている。

Uberは、ADCUが言及した2つのケースのうち、1つのケースでは、リアルタイムIDチェックの際に、ドライバーがライブIDチェックに必要な自撮り写真を撮る代わりに、写真を見せていたという。つまり、ドライバーが正しい手順に従っていなかったため、IDチェックが失敗したことは間違いではないと主張している。

もう1つのケースについて同社は、人手による審査チームが(二度にわたって)誤った判断を下したヒューマンエラーに責任を負わせている。ドライバーの外見が変わり、自撮り写真を送ってきた(現在はひげを生やした)男性の顔が、同社がファイルしていた、きれいにひげを剃った顔写真の人物と同一人物であると審査委員が認識できなかったと述べている。

Uberは、ADCUが言及した他の5つのIDチェックの失敗で何が起こったのか詳細を説明できなかった。

また、同組合がIDチェックで誤認されたとしている7人のドライバーの民族性についても明言を避けた。

Uberは、将来起こりうる人為的ミスによる誤認識を防ぐためにどのような対策をとっているのかという質問に対しては、回答を拒否した。

Uberは、ドライバーがIDチェックに失敗した場合、TfLに通知する義務があると述べている。これは、ラジャ氏のケースのように、規制当局がライセンスを停止することにつながる措置だ。したがって、IDチェックプロセスに偏りがあると、その影響を受けた人の働く機会に不均衡なインパクトを与える危険性があることは明らかだ。

WIEは、顔認識チェックのみに関連してTfLのライセンスが取り消されたケースを3件把握しているという。

また同団体は「[Uber Eats]の宅配業者には、他にも契約を解除された者もいるが、TfLのライセンスを取得していないため、それ以上の措置はとられていない」と話す。

TechCrunchもまた、Uberに、ドライバーの契約解除が何件行われ、TfLへの報告で何件が顔認識に基づいたかを尋ねたが、ここでもこのテクノロジー大手は回答を拒否した。

WIEは、Uberが地理的な位置情報に基づいて行う契約解除に、顔認識のチェックが組み込まれている証拠があると話す。

あるケースでは、アカウントを取り消されたドライバーは、Uberから位置情報のみに関する説明を受けていたが、TfLがUberの証人調書を誤ってWIEに送ってしまったことがあり、その証人調書には「顔認識の証拠を含めていた」と述べている。

このことは、UberのIDチェックにおける顔認識テクノロジーの役割が、同社がリアルタイムIDシステムの方法を説明する際に示したものよりも広いことを示唆している(やはり、Uberはこの件に関するフォローアップの質問には答えず、公式発表やそれに関わる背景以上の情報を提供することを拒否した)。

しかし、UberのリアルタイムIDシステムに限ってみても、機械の提案に加えて、より広いビジネス上の責務(安全性の問題で規制順守を証明する緊急の必要性など)の重さを前にして、Uberの人間の審査スタッフが実際にどれだけのことを言えるか疑問が残る。

WIEの創設者であるJames Farrer(ジェームス・ファラー)氏は、差別問題が指摘されている顔認識テクノロジーのセーフティネットとしてUberが講じている人間によるチェックの質について疑問を呈する。

「Uberは、自動化された意思決定に対して法的にもっともらしい否認機能を用意しているだけなのか、もしくは意義のある人間の介入があるのか」と同氏はTechCrunchに語り「これらすべてのケースで、ドライバーは停職処分を受け、専門家チームが連絡を取ると言われる。そして大抵、1週間ほど過ぎると、誰とも話すことなく永久に停止されてしまう」と続ける。

「顔認識システムが不一致と判断すると、人間には機械を追認するようなバイアスがかかるという研究結果がある。人間は、機械を無効にする勇気を持つ必要がある。そのためには、機械を理解し、その仕組みと限界を理解し、機械の判断を覆す自信と経営陣のサポートが必要だ」とファラー氏は述べ「ロンドンで仕事をするUberのドライバーには、Uberのライセンスに対するリスクが付きまとうが、その対価は何だろうか。ドライバーには何の権利もなく、過剰に存在する消耗品だ」と続ける。

同氏はまた、Uberが以前法廷で、疑わしいケースではドライバーに有利な判断よりも、顧客の苦情を避けられる判断を優先すると証言したことを指摘する。そして「そうであれば、Uberが顔認識についてバランスのとれた判断をすると本当に信頼できるだろうか」と問いかける。

さらにファラー氏は、UberとTfLが、アカウントを無効にする根拠とした証拠をドライバーに開示せず、決定の実際の内容について不服を申し立てる機会を与えないことに疑問を呈している。

同氏は「私見だが、結局すべてテクノロジーのガバナンスの問題だ」とし「マイクロソフトの顔認識が強力でほぼ正確なツールであることを疑っているわけではない。しかし、このテクノロジーのガバナンスは、知的で責任のあるものでなければならない。マイクロソフトは極めて賢明であり、この点に限界があることを認めている」と付け加える。

「Uberが自社の営業ライセンスを守るための代償として監視テクノロジーの導入を強いられ、94%のBAME(Black、Asian and minority ethnic、黒人・アジア人・少数民族)の労働者を不当解雇から守る労働者の権利を無力にする施策など本末転倒だ」と語気を強める。

この顔認識に関わるUberのビジネスプロセスへの新たな圧力は、ドライバーは英国法における労働者ではなく「自営業者」であるというUberの言い逃れに対する長年の訴訟の末、ファラー氏をはじめとする元Uberドライバーや労働権運動家が大きな勝利を収めた直後のことだ。

現地時間3月16日火曜日、Uberは、2021年2月に最高裁がUberの上告を棄却したことを受け、今後はドライバーを市場での労働者として扱い、同社からの福利厚生を拡大すると述べた。

関連記事:Uberは最高裁判所の判決を受けて英国のドライバーを「労働者」待遇にすると発表

しかし、訴訟当事者は、Uberの「取引」ではドライバーがUberアプリにログオンしたときから労働時間を算出すべきとの最高裁の主張を、Uberが無視していると即座に指摘した。対するUberは、ドライバーが仕事を引き受けたときに労働時間を計算する資格が発生すると述べている。つまり、Uberは依然として、運賃収入を待つ時間についてはドライバーへの支払いを避けようとしているのだ。

そのためADCUは、Uberの「オファー」は、ドライバーが法的に受け得る報酬から40~50%下回ると見積もっており、Uberドライバーが公正な取引を得られるように法廷で闘い続けると述べている。

EUレベルでは、EUの議員らがギグワーカーの労働条件を改善する方法を検討しているが、このテクノロジー大手は現在、プラットフォーム業務に有利な雇用法を作り上げるために動いており、労働者の法的基準を下げようとしていると非難されている

2021年3月のUberに関わる他のニュースとしては、オランダの裁判所が、ADCUとWIEの異議申し立てを受けて、同社にドライバーに関してより多くのデータを引き渡すように命じたことだ。ただし、裁判所は、さらに多くのデータを求めるドライバーらの要求の大半を却下している。しかし注目すべきことは、ドライバーらがEU法の下で保証されたデータ権を利用して情報をまとめて入手し、プラットフォームに対する団体交渉力を高めようとすることに裁判所が異議を唱えなかったことだ。これは、ファラー氏が労働者のためにデータ信託を立ち上げたことで、より多くの(そして、より慎重に言葉を選べば)挑戦への道が開かれたことを意味する。

請求人はまた、Uberが不正行為に基づくドライバー解雇の判断にアルゴリズムを使用していることについて、法的または重大な影響がある場合、自動的な決定のみに左右されない権利を規定する、EUのデータ保護法の条項に基づいて検証を求めた。このケースで裁判所は、不正に関わる解雇は人間のチームによって調査され、解雇の決定には有意な人間の意思決定が関与しているというUberの説明を言葉通りに受け入れた。

しかし、プラットフォームのアルゴリズムによる提案・決定から始まり人間による「有意な」ぬれぎぬ・見落としに至る問題は、新たな争点となりつつある。そこではユーザーのデータを神のように崇め、完全な透明性にアレルギーを持つ、強力なプラットフォームがもたらす人間への影響や社会的不均衡を規制するための重要な戦いが繰り広げられるだろう。

Uberの顔認識にともなう解雇に対する直近の異議申し立ては、自動化された判断の限界と合法性に対する調査が始まったばかりであり、審判が下るまでには程遠いことを示している。

Uberがドライバーのアカウント停止に位置情報を使用していることも、法的な問題として挙げられている。

現在、欧州連合の機関で交渉が行われているEU全体に適応される法規制は、プラットフォームの透明性を高めることを目的としており、近い将来、規制当局による監視やアルゴリズムによる監査さえもプラットフォームに適用される可能性がある。

2021年3月第2週、Uberの訴訟に判決を下したアムステルダムの裁判所は、インドの配車サービス会社Ola(オラ)に対しても、UberのリアルタイムIDシステムに相当する顔認識ベースの「Guardian(ガーディアン)」システムに関するデータの開示を命じた。裁判所は、オラは現在提供しているものよりも広範囲のデータを請求人に提供しなければならないとし、その中には、同社が保持しているドライバーの「詐称が疑われるプロファイル」や、同社が運営する「ガーディアン」監視システム内のデータの開示も含まれている。

こういった状況からファラー氏は「いずれにせよ、労働者は透明性を手に入れることができる」と自信を示す。それに、Uberの労働者への対応をめぐって英国の裁判所で何年も闘ってきた同氏のプラットフォームとのパワーバランスを正そうとする粘り強さは疑うべくもない。

カテゴリー:パブリック / ダイバーシティ
タグ:Uberイギリス顔認証

画像クレジット:Getty Images

原文へ

(文:Natasha Lomas、翻訳:Dragonfly)

顔認識技術のKairosを追い出された創業者ブラッキーン氏が諮問委員として復帰、偏向問題に取り組む

顔認識のスタートアップ企業Kairos(カイロス)の創業者で、2018年に更迭された元CEOのBrian Brackeen(ブライアン・ブラッキーン)氏が同社に復帰した。ブラッキーン氏は現在、同社の科学諮問委員会の議長を務めており、顔認識技術による人種的偏見の問題を解決し、排除することに貢献しようとしている。

それはKairosの明確な使命でないが(同社の使命は企業に認証ツールを提供することだ)、アルゴリズムの偏りは同社が、特にブラッキーン氏が長い間取り組んできた問題だった。

しかし、ブラッキーン氏が解任されるまでの間に起こったことや、その後の出来事は、非常に大きな旋風を巻き起こした。

2018年、Kairosの取締役会は、故意による不正行為があったとして、ブラッキーン氏をCEOの座から強制的に退かせた。Kairosはブラッキーン氏を自分が設立した会社から追い出しただけでなく、会社資金の不正流用や株主を欺く行為があったとして、同氏を訴えた。

当時、ブラッキーン氏はこの出来事を「お粗末なクーデター」と称し、疑惑を否定していた。その後、ブラッキーン氏はKairosを反訴し、同社とそのCEOであるMelissa Doval(メリッサ・ドーバル)氏が詐欺的行為によって意図的に彼の信用を毀損したと主張。2019年にブラッキーン氏とKairosはこの一連の訴訟において和解し、ブラッキーン氏はその後、妻のCandice Brackeen(キャンディス・ブラッキーン)氏とともにLightship Capital(ライトシップ・キャピタル)を立ち上げる

Kairosに復帰してから、すでにブラッキーン氏はKairosがBias APIと呼ぶものに注力するように指示している。同氏によれば、このAPIは企業や会社がアルゴリズムの偏りを検出し、対処することを容易にするために設計されたものだという。

ブラッキーン氏は、Lightship Capitalで手一杯なので、Kairosにフルタイムでは戻ったわけではないが、四半期ごとのミーティングでは全般的な舵取りを任されていると、同氏はいう。

過去のドラマにもかかわらず、ブラッキーン氏はKairosを今でも自分の子どもだと考えていると、TechCrunchに語った。ブラッキーン氏の更迭後にCEOに任命されたドーバル氏や、訴訟の先頭に立った元COOのMary Wolff(メアリー・ウルフ)氏のような人々が、会社からいなくなったことも注目に値する。

「まず、Kairosのチーム、投資家、ファンに対する責任を常に感じるということです」と、ブラッキーン氏は復帰の理由を語った。「その多くには、私が単独で責任を負っていました。第2の理由は社会です。この社会において偏見は、Twitter(ツイッター)の画像のトリミングから、黒人の手では空気乾燥機が作動しないことまで、あらゆるものに見られます。これは、社会がすべての人にとって公平ではないということを痛感させます。困難な問題は、AIがより多くの製品に組み込まれるようになると、あらゆる製品に偏りが見られるようになるということです。大規模なデータセットと長年のIPを持つKairosは、そのようなディストピア的な未来から私たちを救う会社でなければなりません。私はその戦略をリードする唯一の立場にいます」。

カテゴリー:パブリック / ダイバーシティ
タグ:Kairos顔認証差別

画像クレジット:TechCrunch

原文へ

(文:Megan Rose Dickey、翻訳:Hirokazu Kusakabe)

フェイスブックがイリノイ州のプライバシー保護法をめぐる集団訴訟で約694億円支払う

Facebookはイリノイ州の州民をプライバシーの侵犯から護る州法に違反したとして米国時間2月26日に、6億5000万ドル(約693億9000万円)の支払いを命じられた

Biometric Information Privacy Act(生体認証情報私権法、BIPA)は、近年テクノロジー企業がつまずいて転倒している強力な州法だ。Facebookに対する訴訟は2015年に始まり、Facebookが顔認識を利用して写真の中の人に同意なくタグを付けているのは州法に違反していると同社を告訴した。

カリフォルニアの連邦裁が下した最終示談によると、160万人のイリノイ州住民が1人あたり345ドル(約3万6800円)以上を受け取ることになる。この最終的な数は、2020年にFacebookが提示し判事が不当と判断した5億5000万ドル(約587億2000万円)よりも1億ドル(約106億8000万円)高い。Facebookは2019年に、自動顔認識によるタグ付け機能を無効にして、自動でなくオプトインにし、イリノイの集団訴訟で広まったプライバシーへの批判の一部に対応した。

2020年、イリノイ州住民の顔が同意なく顔認識システムのトレーニングに使われていたため、同法の違反としてMicrosoftとGoogle、Amazonが、それぞれ個別の訴訟で訴えられている。

関連記事:顔認識のプライバシー侵犯でマイクロソフトやグーグル、アマゾンがイリノイ州住民に告発される

イリノイのプライバシー法は一部のテクノロジー大手を紛糾させたが、このBIPA法は、疑わしいプライバシー行為を行っている小規模な企業に対しても効力は大きい。議論の渦中にある顔認識ソフトウェアの企業Clearview AIは現在、州内でBIPAによる独自の集団訴訟に直面している。同社は訴訟を州外に持ち出そうとしたが失敗した。

関連記事:顔認識スタートアップのClearview AIがイリノイ州法違反で集団訴訟に発展

6億5000万ドルの示談は、通常の企業を倒産させるには十分な額だが、しかしFacebookは2019年の、50億ドル(約5338億5000万円)というFTCの記録的な罰金のときと同じく、平然と対応できるだろう。しかしイリノイ州の法律には牙がある。Clearviewの場合は、企業の事業活動を州外に追い出すこともできたのだ。

Facebookのような巨大な怪物を同じ方法で罰することはできないにしても、何年間もビジネスを行ってきたテクノロジー世界のデータブローカーたちにとって同法は、今後ますます無視できない脅威だ。連邦、州、そして議会のレベルで規制当局は、テクノロジーを抑制するための強力な措置を提案している。そしてイリノイ州の画期的な法律は、他の州が参考にするに十分な説得力のあるフレームワークを提供している。テクノロジー大手が国の監督に従うことを悪夢と思うならば、テクノロジー企業のやり方を州ごとに決めている先進的な州法の寄せ集めでも十分に彼らの口には合わないだろうが、未来にとって役に立つ規制になりうるだろう。

カテゴリー:ネットサービス
タグ:Facebookプライバシーイリノイ顔認証裁判

画像クレジット:Design Cells/Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Hiroshi Iwatani)

性的嗜好や支持政党が顔認識アルゴリズムでわかる研究が物議を醸す

顔の特徴だけで個人の支持政党をかなりの精度で判別できるという機械学習システムが研究者によって構築された。この研究は、性的嗜好も同様にして推測できる可能性があることを示したグループによって行われたものだが「現代版骨相学」であることを率直に述べ、その罠に陥らないよう慎重を期した上で、外見は我々が思っているよりも多くの個人情報を表している可能性があるという心地の悪い結論に到達している。

先のNature journal Scientific Reportsに掲載されたこの論文は、スタンフォード大学のMichal Kosinski(マイケル・コジンスキー)氏によって執筆された。個人の性的嗜好は顔データから推測できるという内容の同氏の論文は、2017年にもトップニュースを飾ったことがある。

この研究は批判を招いたが、その理由はその手法ではなく、概念上非身体的な(見た目ではわからないはずの)ことをこのような方法で検出できるという考え方にある。そもそもコジンスキー氏は、本人もずっと説明しているとおり、そうしたことは不可能だということを証明しようとしたのだが、結果は他の人にとっても、コジンスキー氏自身にとっても驚くべき、困ったものとなってしまった。この研究目的は、ゲイかどうかを識別する能力をAIで実現することではない。その反対である。研究チームが発表当時に寄稿したように、このようなテクノロジーが研究以外の目的で関心を持つ者によって開発されるリスクがあることを一般の人たちに警告する意味で、今回の研究結果を公開する必要があった。

この結果には本当に困惑しており、この事実を公開すべきかどうか判断に迷いました。公開することにより、我々が警告しているリスクが現実になってしまうのを避けたいと考えました。性的指向を公表するタイミングと相手をコントロールできることは、その人の幸福だけでなく、安全性のためにも極めて重要です。

政治家とLGBTQコミュニティに今直面しているリスクを早急に認識してもらう必要があります。我々はプライバシーを侵害するツールを開発したのではなく、広く利用されている基本的な方法が重大なプライバシー侵害を招くことを示したのです。

所属政党についても同様の警鐘を鳴らすことができるだろう。少なくとも現時点の米国では所属政党は性的嗜好ほど敏感または個人的な問題ではないが、敏感で個人的な問題であることは確かだ。政治的または宗教的に「反体制派」であるという理由で逮捕または殺害された人たちのニュースを1週間以上聞かないことはまずない。たとえばメッセージを傍受するといった方法ではなく、単に「アルゴリズムによって過激主義者と特定された」というだけで、抑圧的な政府が(逮捕または捜索するための)相当な理由を得られるとなると、そうした圧政的行為を非常に簡単かつ大規模に行えるようになってしまう。

このアルゴリズム自体は決して最先端のテクノロジーというわけではない。コジンスキー氏の論文では米国、カナダ、英国の出会い系サイトや米国のフェイスブックのユーザーの100万件を超える顔写真を収集し、機械学習システムに取り込んで学習させるというごく通常のプロセスが説明されている。顔写真が使用された人たちは、そのサイトのアンケートで政治的に保守派かリベラル派であることがわかっている。

このアルゴリズムは、オープンソースの顔認識ソフトウェアに基づいて開発されたもので、まず、顔だけを切り出す基本的な処理を行った後(これにより背景がアルゴリズムの処理対象から除外される)、さまざまな特徴を表す2048個のスコアで顔を単純化する。他の顔認識アルゴリズムと同様、この特徴は必ずしも「眉毛の色」とか「鼻のかたち」といった直感的なものではなく、よりコンピューターネイティブな概念だ。

画像クレジット:Michal Kosinski / Nature Scientific Reports

上述のユーザーから収集した所属政党データをこのシステムに取り込むと、保守派とリベラル派の顔に関する統計データの違いを細かく分析し始める。実際、両者の間には明らかな違いがある。

もちろん、これは「保守主義者は眉毛が濃い」とか「リベラル派にはしかめっ面が多い」といった単純なものではない。かといって、人口統計でもない。それではあまりに簡単で単純過ぎる。結局、支持政党が年齢や肌の色と関係があるなら、簡単な推測アルゴリズムができあがるはずだ。しかし、コジンスキー氏が使用したソフトウェアのメカニズムは極めて標準的なものであるが、この研究が前回のように疑似科学として片づけられないように同氏の考えたあらゆるケースを慎重に網羅するようにした。

これを実現する最も明白な方法は年齢、性別、人種が同じ人たちの支持政党をシステムに推測させるというものだ。このテストでは、2つの顔と2つの支持政党を提示し、どちらの顔がどちらの政党を支持しているか推測させた。偶然当たる確率は当然50%だ。人間はこの種の作業が苦手であり、結果は確立よりもわずかに高い55%程度であった。

このアルゴリズムで、年齢、性別、人種が一致する2人の支持政党を推測させた場合、正解率は71%の高確率となり、年齢、性別、民族性が任意の2人について推測させた場合(ただし、どちらかが保守派でどちらかがリベラル派という点は同じ)、正解率は73%に達した。

画像クレジット:Michal Kosinski / Nature Scientific Reports

4分の3という正解率は最近のAIにしては大成功とは言えないかもしれないが、人がやるとコイン投げより少し高い程度の正解率しか得られないことを考えると、検討するに値する何かがあるように思える。コジンスキー氏はその他のケースについても慎重に網羅した。確かに、この数字は、統計に現れた変則性や分離された結果の誇張ではないように思う。

支持政党が顔に現れるという考え方にはドキッとさせられる。ある人が右寄りか左寄りかということは最も個人的な情報とはいえないが、実体のない情報とみなされるのも当然だ。帽子、ブローチ、Tシャツなどで政治的信条を表現することはあるかもしれないが、人の顔というのは一般に無党派(政治的信条とは無関係)だと考えられてる。

顔のどの特徴に特に政治的信条が現れるのか知りたいと思うかもしれないが、残念ながらこのシステムではそこまで説明されることはない。コジンスキー氏は副次的な研究で、顔の特徴(顔の毛、凝視の程度、さまざまな感情)を数十個取り出し、それらに政治的信条がよく現れているかどうかをテストしたが、どの特徴も確率や人が推測したときよりも少し正解率が上がる程度だった。

「顔の向きや感情表現は際立った特徴だった。リベラル派は顔をカメラにまっすぐ向ける傾向があり、驚きの表情をする可能性が高いが、嫌悪感を見せることは少なかった」とコジンスキー氏は論文の執筆者ノートに書いている。しかし、こうした点を考慮しても、正解率の10%以上は説明がつかないままだった。「つまり、顔認識アルゴリズムは政治的志向を示す顔の特徴を他にもたくさん見つけたということだ」。

「そんなことがあるはずがない。骨相学はインチキだった」という反射的防御反応はここではあまり意味がない。これが真実であると考えるのは怖いが、極めて重要な真実である可能性があることを否定しても有益ではない。このアルゴリズムは人に対して非常に簡単に使える可能性があるからだ。

性的指向の研究と同様、ここでの問題は、こうした情報の完璧な検出システムを開発することではなく、それによって生まれるリスクを人々が認識し始めるような方法で実装できることを示すことである。例えば圧政的な神権体制が、性的指向がストレートでない人たちや特定の政治信条をも持つ人たちを厳重に取り締まる必要があると考えた場合、このようなテクノロジーは、そうした取り締まりを「客観的に」実施するための妥当な技術的手法を為政者に与えてしまうことになる。そのうえ、このやり方ならほとんど作業することなく、また、対象者に関する情報を取得することなく実施できてしまう。ソーシャルメディアの履歴を探ることや、購入品(ここにも政治的信条がよく現れる)を分析するといった作業も不要だ。

中国が追い詰められたウイグル族の宗教的少数派を見つけるための顔認識ソフトウェアを配備するというニュースが流れている。米国でも、当局はこの種のAIを信頼している。警察がこうした「最新のテクノロジー」を使って抗議行動の参加者の顔を分類し「この10人はシステムによって最もリベラルであると判定された」などと言っている様子は容易に想像できる。

数人の研究者がオープンソースソフトウェアと中規模の顔データベースを使うことで(政府にとって、この程度のシステムを構築するのは造作もないことだ。というより、おそらくすでに構築してしまっているだろう)世界中のどこでも、目的が何であれ、顔認識システムを実現できてしまうというのはゾッとする話だ。

「お門違いな非難は止めて欲しい。私は論文で、広範に利用されている顔認識アルゴリズムのリスクについて警鐘を鳴らしている。こうしたAI人相システムがすでに、性的指向の判別に使用されているのは懸念される。学者、政治家、市民は目を光らせる必要がある」とコジンスキー氏は語る。

関連記事:ポートランド市の顔認識技術禁止条例は民間企業も対象になる

カテゴリー:パブリック / ダイバーシティ
タグ:顔認証機械学習

画像クレジット:Design Cells / Getty Images

原文へ

(文:Devin Coldewey、翻訳:Dragonfly)

反人種差別デモの発端となったミネアポリス市が警察による顔認識技術の使用を禁止

ミネアポリス市議は米国時間2月12日、同市警察による顔認識ソフトウェアの使用を禁止する条例案を可決し、論争を引き起こしているこの技術に地域的な制限を施行する主要都市のリストを増やした。禁止条例案が週初めに承認された後、市議会議員13名は全員が賛成票を投じ、反対票はなかった。

新しい禁止条例は、ミネアポリス警察がClearview AIによるソフトウェアを含む顔認識技術を使用することをブロックすることになる。同社は、多くの場合大手SNSから収集した顔画像の大規模なデータベースへのアクセス権を連邦法執行機関、民間企業、そして米国のたくさんの警察署に販売している。ミネアポリス警察署はClearview AIとの関係があることで知られており、ミネアポリスのあるミネソタ州ヘネピン郡の保安官事務所も同様だが、後者が新しい条例によって制限されることはない。

関連記事:物議を醸したClearview AIが再び米政府機関と顔認識ソフトウェアで契約

今回の議決は、ミネアポリスの警察官が2020年George Floyd(ジョージ・フロイド)氏を死亡させた後、全米各地で反人種差別の抗議デモを巻き起こした同市の画期的な決定といえる。同市はそれ以来、警察改革の渦中に置かれており、全米に先駆けて2020年6月に市の警察部門の予算凍結を誓約した後、同年後半にはその約束を撤回し、より段階的な改革を行っている。

顔認識技術の使用を禁止することは、攻勢的取り締まりに対する新たな懸念を抑えることができる1つのターゲットを絞った措置である。多くのプライバシー擁護者は、AIを搭載した顔認識システムが有色人種のコミュニティを不釣り合いな割合でターゲットにするだけでなく、この技術は白人以外の顔を識別する上で技術的な欠点があることが実証されていると懸念している。

この賛否の分かれる技術を禁止しようとする動きは米国各地の都市で活発化しており、さまざまな方法で制限が実施されている。オレゴン州ポートランドでは、2020年に可決された新しい法律により、市当局が顔認証を使用することを禁止する一方で、民間企業が公共の場で顔認識技術を導入することも禁止している。それ以前のサンフランシスコオークランドボストンの法律では、市政府が顔認識ツールを使用することを制限していたが、民間企業に対する同様の規定は含まれていなかった。

関連記事
ポートランド市の顔認識技術禁止条例は民間企業も対象になる
サンフランシスコが市当局による顔認証技術の使用を禁止する条例案を可決

カテゴリー:パブリック / ダイバーシティ
タグ:Clearview AIミネアポリス顔認証警察

画像クレジット:Stephen Maturen / Stringer / Getty Images

原文へ

(文:Taylor Hatmaker、翻訳:Aya Nakazato)

Clearview AIの顔認識技術はカナダでもプライバシー侵害で違法

物議を醸し出している顔認識技術のClearview AIが、カナダ人の写真を断りなく無許可で収集したとして、同国政府直属のプライバシー監視団体から有罪を宣告された。

ニューヨークに本社のある同社は1年前に、30億以上の人の顔の写真を集めたと主張し、警察など法執行機関との関係を自慢して、派手に報道された。しかし同社はソーシャルメディアのサイトを同じく無許可でスクレイピングして大量の批判を浴び、FacebookやLinkedInやTwitterなどは同社に停止命令を送り、それを止めさせようとした。

カナダのプライバシー委員会(Office of the Privacy Commissioner)は声明で、調査の結果Clearviewは「個人の知らないうちに、あるいは個人の同意を得ずに、きわめて機密性の高い生体情報を収集した。」しており、同スタートアップは「カナダ人の個人情報を不適切な目的のために収集、使用、および開示したものであり、同意によって適切に提供することができないもの」と述べている。

Clearviewは反論し、カナダのプライバシー法は適用されない、なぜなら同社はカナダとの「現実的で実質的なつながりがない。スクレーピングした画像は一般的に公開されているものであり、同意は必要ない」と主張している。

これは、同社の法廷闘争の続編になる。というのも同社はすでにイリノイ州で、バイオメトリック保護法違反で集団訴訟に直面している。その州法は2020年に、Facebookに対して5億5000万ドル(約578億7000万円)の罰金を支払わせることとなった。

カナダのプライバシー監視当局はClearviewの主張を退け、カナダ人への情報収集の中止や以前に収集した画像のすべての削除などの勧告に同社が従わなければ「他の行動を取る」と述べている。

Clearviewは2020年7月に、その技術をカナダの顧客に提供中止を発表した。しかしながら、すでに王立カナダ騎馬警察とトロント警察が同社の技術を使用していやた。

「Clearviewがやっていることは大規模な監視であり、違法だ」とカナダのプライバシー委員会のDaniel Therrien(ダニエル・テリエン)氏はいう。「これは個人のプライバシーの権利を侵害するものであり、社会のすべての構成員に広範な害を及ぼす。これはまったく受け入れられるものではない」。

Clearview AIの弁護士であるDoug Mitchell(ダグ・ミッチェル)氏は次のように述べている。

「Clearview AIの技術はカナダで利用できず、カナダでは運用されていない。いかなる場合にもClearview AIが集めるものはインターネット上の公開情報のみであり、それはカナダの情報保護法PIPEDA(Personal Information Protection and Electronic Documents Act)により明示的に許可されている。連邦控訴裁はプライバシーに関する裁定で、「一般に公開されている情報は広い意味での一般市民が利用できアクセスできる情報である」と述べている。ここには、これと異なる基準を適用すべき理由は存在しない。Clearview AIは、カナダでの活動を許されているGoogleなどの大企業と同じく、公開データを集めている検索エンジンにすぎない」。

関連記事
セキュリティの欠如で顔認識スタートアップClearviewのソースコードがすべて漏洩
米移民局や検察局などが採用中の顔認識技術が一般企業にも売られていた

カテゴリー:ネットサービス
タグ:Clearview AIカナダ顔認証プライバシー

画像クレジット:Design Cells/Getty Images

原文へ

(文:Zack Whittaker、翻訳:Hiroshi Iwatani)

中国最大級の顔認証ユニコーンMegviiが上海でのIPOを準備中

中国最大級の顔認証スタートアップであるMegviiは、上海での新規株式公開に向けて準備を進めている。中国時間1月12日に中国証券監督管理委員会が発表したところによると、同社はCITIC証券と協力して上場の準備を進めているという。

この動きは、顔認識プラットフォーム「Face++」で知られるMegviiが2019年8月に香港での株式公開を申請してから1年以上が経過してからのことだ。当時、ロイターは同社が5億ドル(約518億4000万円)から10億ドル(約1036億7000万円)を調達できるだろうと報じていた。しかし、香港での同社のIPO申請は非公開の理由で失効しており、現在は上海証券取引所ののSTAR Board(科創板)に焦点が当てられていると、この件に詳しい人物がTechCrunchに語った。

2019年、中国は長年にわたって米国に流出していた高成長で不採算の中国テックスタートアップを誘致するためにSTAR boardを設立した。一方、中国企業、特に政府との契約を頼りにしている企業や米中ハイテク競争に巻き込まれている企業にとっては、国内での新株発行がますます魅力的になってきている。

MegviiとそのライバルであるSenseTime、Yitu、CloudWalkは、その市場支配力と野心旺盛な投資家からの資金調達により、中国の「四大AIドラゴン」と総称されている。Megvii社の技術は、中国全土のスマートシティのインフラや、多くのスマートフォンやモバイルアプリの動力源となっている。創業以来10年の間にAlibaba(アリババ)、Ant Group、中国銀行などの投資家が、同社に約14億ドル(約1451億円)を出資している。

AIドラゴンズは、自国の市場以外ではあまり知られていない。2020年、Megvii、Yitu、SenseTimeは、中国西部のイスラム教徒少数民族に対する政府の大量監視を可能にする役割を果たしたとの疑惑で、米国の制裁対象リスト(エンティティリスト)に追加された。CloudWalkはその後、2020年に同じくブラックリストに追加され、米国のサプライヤーから切り離された。

中国の証券当局が掲示した通知によると、Megviiは米国の預託証券に似た、国内の投資家が海外の株式を保有できる中国預託証券(CDR)の発行を計画しているという。これは、北京に拠点を置くAIユニコーンが中国本土以外への上場を否定していないことを示唆している。

今週には、香港上場企業である世界トップPCメーカーのLenovo(レノボ)も、上海の科創板でCDRによる株式売却を計画していると発表した。

現在は申請前の段階でガイダンスを必要としており、Megviiの上場計画はまだ中国の規制当局の承認を必要としている。

関連記事
中国の顔認証ユニコーンMegviiが香港に上場へ
ムスリム少数民族に対する人権侵犯に加担した8つの中国企業が米商務省の禁止リストに載る

カテゴリー:人工知能・AI
タグ:MegviiIPO顔認証

画像クレジット:Megvii

原文へ

(翻訳:Nakazato)

アリババがウイグル人を識別する自社クラウド部門の民族検知アルゴリズムに「がく然」

中国の巨大テック企業数社は、権力機構のためにウイグル人イスラム教徒を識別する技術を有しているとの調査結果を受け、国際的な批判にさらされている。

Alibaba(アリババ)のクラウドコンピューティング部門であるAlibaba Cloud(アリババ・クラウド)は、民族やその人が「ウイグル人」であるか否かを識別できる顔認識アルゴリズムを開発していたことが、映像の監視を行う業界団体IPVMの調査でわかった。

ウイグル人やカザフ人などのイスラム教少数民族向けの悪評高い中国の「職業訓練プログラム(中国外務省リリース)」を、中国政府はテロ対策だとして擁護(中国外務省リリース)を繰り返してきた。

アリババは声明の中で、Alibaba Cloudが「アルゴリズムとしての民族性」や「いかなるかたちにせよアリババのポリシーと価値観に反した人種または民族の差別や識別」などを含む技術のテストを行っていたことを知り「がくぜんとした」と述べている(Alibabaリリース)。

「私たちは、自社技術が特定の民族に対して使われることを決して意図しておらず、それを許すつもりも毛頭ありません。私たちは、自社製品が提供するものから、民族を示すタグを一切排除しています。この試験的技術が、いかなるお客様にも使用されたことはありません。私たちの技術が特定の民族を対象に使われること、特定の民族を識別することに使われることはなく、それを許可することもありません」と同社はいい加えた。

2019年のセキュリティ侵害事件で、Alibaba Cloudがホスティングしていた「スマートシティー」監視システムに民族の識別やイスラム教ウイグル人にラベル付けできる能力があることが発覚したと、TechCrunchでもお伝えした。当時、アリババは、公共のクラウドプロバイダーとして「顧客のデータベース内のコンテンツにアクセスする権限を持たない」と話していた。

IPVMはまた2020年12月の初め、Huawei(ファーウェイ)と、顔認識製品Face++で知られる人工知能のユニコーン企業Megvii(メグビー)が、システムがウイグルコミュニティーのメンバーの顔を認識すると中国政府に通報する技術を共同開発していたことを突き止めた(The Washington Post記事)。

これらの中国テック企業は海外進出を目指しているが、北京からの要求と、その人権問題への態度に対する国際的な監視の目との間に挟まれて、ますます苦しい状況に追い込まれている。

クラウドコンピューティングは、アリババで一番の急成長セグメントであり、海外の顧客をより多く呼び込みたいと同社は目論んでいる。調査会社Gartner(ガートナー)の調査(Alibabaリリース)によれば、Alibaba Cloudは2019年、アジア太平洋地区の最大手企業となり、世界で3番目に大きい(Alibabaリリース)サービスとしてのインフラストラクチャー(IaaS)提供企業になった。

アリババのクラウド部門は、前年比で60%の成長を果たし、9月までの3カ月間(Alibabaリリース)、全社の収益10%を支えた。この四半期の時点で、中国本土に拠点を置き人民元で取引を行っているA株上場企業のおよそ60%がAlibaba Cloudの顧客になっていると、同社は主張している。

関連記事:中国のとあるスマートシティ監視システムのデータが公開状態になっていた

カテゴリー:パブリック / ダイバーシティ
タグ:Alibaba中国顔認証差別

画像クレジット:Alibaba Databases In Hebei / Getty Images

原文へ

(翻訳:金井哲夫)